Modern sinir ağlarının sorunlarından biri “halüsinasyonlardır”. Bu, gerçek durumla örtüşmeyen, ancak sinir ağlarının bunları gerçek gerçeklerle birlikte ürettiği verilere verilen addır. Ve şimdi OpenAI, AI’nın “halüsinasyonları” ile başa çıkmaya yardımcı olacak yapay zeka modellerini eğitmek için yeni bir yöntem bulduğunu duyurdu.
“En modern modeller bile yanlış sonuçlara eğilimlidir – belirsizlik anlarında gerçekleri icat etme eğilimindedirler. Bu halüsinasyonlar, çok adımlı muhakeme gerektiren alanlarda özellikle kritiktir, çünkü bir mantıksal hata tüm sonucu yanlış yapmak için yeterlidir.”, OpenAI araştırmacılarını rapora yazın.
Yeni yöntemin fikri, AI için motivasyon sistemini değiştirmektir. Başka bir deyişle, sinir ağını nihai doğru cevap için verilen ödül yerine, her doğru muhakeme adımı için ödüllendirmek önerilmektedir. Bu, sinir ağının daha doğru olmasını ve gerçekleri kontrol etmesini sağlayacaktır.
Araştırmacılara göre, modeldeki mantıksal hataların veya halüsinasyonların tespiti ve ortadan kaldırılması, tutarlı bir AGI oluşturmaya yönelik önemli bir adımdır. [искусственного интеллекта общего назначения]”dedi OpenAI’de kadrolu matematikçi Karl Cobbe. Ayrıca şirketin, çalışmanın bir parçası olarak sinir ağını eğitmek için kullanılan 800.000 etiketlik veri setine erişimi açtığını da açıkladı.
Aynı zamanda sorun çözülmekten çok uzak ve uzmanlar şirketin bu çalışmayla ilgili tüm bilgileri henüz açmadığını söylüyor. Bu nedenle, AI “halüsinasyonları” riski şimdilik geçerliliğini koruyor.