OpenAI, süper zeki yapay zekanın (insanları geride bırakabilecek ve insan etiğiyle uyumsuz hale gelebilecek yapay zeka) ciddi zararlara neden olmasını durdurmak için eğitim teknikleri geliştirmeye odaklanan yeni bir uyum araştırma bölümü açıyor.
Jan Leike ve Ilya Sutskever, “Şu anda, potansiyel olarak süper zeki bir yapay zekayı yönlendirmek veya kontrol etmek ve onun haydut olmasını önlemek için bir çözümümüz yok” dedi. Blog yazısı en iyi bilinen yazılımların arkasındaki şirket olan OpenAI için üretici yapay zeka büyük dil modeli, ChatGPT. Süper zeka çok uzak görünse de, bazı uzmanların onun bu on yılda ulaşabileceğine inandıklarını da eklediler.
Yapay zekayı hizalamaya yönelik mevcut teknikler, insan geri bildirimlerinden pekiştirmeli öğrenmeyi içerir, ancak Leike ve Sutskever, yapay zeka sistemleri insanlardan daha akıllı hale geldikçe, teknolojiyi denetlemek için insanlara artık güvenilemeyeceğini söyledi.
“Mevcut hizalama teknikleri, süper zekaya ölçeklenmeyecek. Yeni bilimsel ve teknik atılımlara ihtiyacımız var” diye yazdılar.
Sutskever, OpenAI’nin kurucu ortağı ve baş bilim adamıdır ve Leike, makine öğrenme araştırmacı. OpenAI’nin yeni süper hizalama ekibine liderlik edecekler. Bölüm, misyonunu yerine getirmek için önümüzdeki dört yıl içinde, süper zekayı denetlemek üzere ölçeklendirilebilecek bir “insan düzeyinde otomatik hizalama araştırmacısı” oluşturmak için şirketin işleme kapasitesinin %20’sine erişebilecek.
Otomatik araştırmacıyı insan etiği ile uyumlu hale getirmek için Leike ve Sutskever, üç adımlı bir yaklaşımın izlenmesi gerektiğini söyledi: ölçeklenebilir bir eğitim yöntemi geliştirmek; ortaya çıkan modeli doğrulamak; ve tüm hizalama boru hattını stres testi yapın.
“Problem hakkında daha fazla şey öğrendikçe araştırma önceliklerimizin önemli ölçüde değişmesini bekliyoruz ve muhtemelen tamamen yeni araştırma alanları ekleyeceğiz” diye yazdılar ve gelecekte bölümün yol haritasının daha fazlasını paylaşma planları olduğunu eklediler.
OpenAI, potansiyel AI zararını azaltma ihtiyacını kabul ediyor
Bu, OpenAI’nin düzenlenmemiş yapay zekanın ortaya çıkardığı riskleri azaltma ihtiyacını kamuoyuna ilk kez kabul etmesi değil. Mayıs ayında şirket CEO’su Sam Altman imzaladı açık mektup AI’nın evrimi bir yok olma olayına yol açabileceğinden, teknolojiyi kontrol etmenin en önemli küresel öncelik olması gerektiğini belirtiyor.
Mektupta, “Yapay zekanın yok olma riskini azaltmak, salgın hastalıklar ve nükleer savaş gibi diğer toplumsal ölçekli risklerin yanı sıra küresel bir öncelik olmalıdır” yazıyordu.
OpenAI ayrıca bir özel bölüm Halkın, şirketin “güvenli ve sorumlu yapay zeka” olarak adlandırdığı şeyle ilgili materyallere erişebildiği web sitesinde, tüzük misyonunu yerine getirmek için bağlı olduğu ilkeleri ana hatlarıyla belirtmek. Bununla birlikte, bunlar büyük ölçüde, ekonomik açıdan en değerli işlerde insanlardan daha iyi performans gösteren oldukça otonom sistemler olan yapay genel zeka (AGI) kavramıyla ilgilidir.
2018’de yayınlanan tüzükte, “Doğrudan güvenli ve yararlı AGI inşa etmeye çalışacağız, ancak çalışmalarımız başkalarının bu sonuca ulaşmasına yardımcı olursa, misyonumuzu yerine getirmiş sayacağız” diyor.
Telif hakkı © 2023 IDG Communications, Inc.