ChatGPT’nin yaratıcısı OpenAI, önemli kaynaklara yatırım yapmayı ve yapay zekasının insanlar için güvenli kalmasını sağlamaya çalışacak yeni bir araştırma ekibi oluşturmayı planlıyor – sonunda yapay zekayı kendi kendini denetlemek için kullanacak, Çarşamba günü söyledi.
OpenAI kurucu ortağı Ilya Sutskever ve uyum başkanı Jan Leike bir blog gönderisinde “Süper zekanın muazzam gücü insanlığın güçsüzleşmesine ve hatta yok olmasına yol açabilir.” “Şu anda, potansiyel olarak süper zeki bir AI’yı yönlendirmek veya kontrol etmek ve onun haydut olmasını önlemek için bir çözümümüz yok.”
Blog gönderisinin yazarlarının tahminine göre, süper zeki yapay zeka – insanlardan daha zeki sistemler – bu on yılda gelebilir. Yazarlara göre, insanların süper zeki yapay zekayı kontrol edebilmek için şu anda mevcut olandan daha iyi tekniklere ihtiyacı olacak, bu nedenle yapay zekanın insanlar için faydalı olmaya devam etmesini sağlamaya odaklanan sözde “hizalama araştırmasında” atılımlara ihtiyaç duyulacak.
Microsoft tarafından desteklenen OpenAI, önümüzdeki dört yıl içinde güvence altına aldığı bilgi işlem gücünün yüzde 20’sini bu sorunu çözmeye ayırıyor, diye yazdılar. Ayrıca şirket, Superalignment ekibi adı verilen bu çaba etrafında organize olacak yeni bir ekip oluşturuyor.
Ekibin amacı, “insan düzeyinde” bir yapay zeka hizalama araştırmacısı oluşturmak ve ardından bunu muazzam miktarda bilgi işlem gücüyle ölçeklendirmek. OpenAI, bunun, yapay zeka sistemlerini insan geri bildirimlerini kullanarak eğitecekleri, yapay zeka sistemlerini insan değerlendirmesine yardımcı olacak şekilde eğitecekleri ve son olarak hizalama araştırmasını fiilen yapmak için yapay zeka sistemlerini eğitecekleri anlamına geldiğini söylüyor.
Yapay zeka güvenlik savunucusu Connor Leahy, planın temelde kusurlu olduğunu, çünkü ilk insan düzeyindeki yapay zekanın, yapay zeka güvenlik sorunlarını çözmeye zorlanmadan önce çılgına dönebileceğini ve ortalığı kasıp kavurabileceğini söyledi.
Bir röportajda “İnsan düzeyinde zeka oluşturmadan önce hizalamayı çözmelisiniz, aksi takdirde varsayılan olarak onu kontrol edemezsiniz” dedi. “Şahsen bunun özellikle iyi veya güvenli bir plan olduğunu düşünmüyorum.”
Yapay zekanın potansiyel tehlikeleri, hem yapay zeka araştırmacıları hem de genel halk için akılda ilk sırada yer aldı. Nisan ayında, bir grup AI endüstri lideri ve uzmanı, OpenAI’nin GPT-4’ünden daha güçlü sistemlerin geliştirilmesinde altı aylık bir duraklama çağrısı yapan açık bir mektup imzaladı ve topluma yönelik potansiyel risklere atıfta bulundu. Mayıs ayında Reuters/Ipsos tarafından yapılan bir anket, Amerikalıların üçte ikisinden fazlasının yapay zekanın olası olumsuz etkilerinden endişe duyduğunu ve yüzde 61’inin bunun medeniyeti tehdit edebileceğine inandığını ortaya koydu.
© Thomson Reuters 2023