Yapay zeka patlaması, genel tüketicinin hem genişlik hem de derinlik gösteren istemlerden bilgi almak için ChatGPT gibi yapay zeka sohbet robotlarını kullanmasına olanak tanıdı. Ancak bu yapay zeka modelleri hâlâ hatalı yanıtların verildiği halüsinasyonlara eğilimlidir. Dahası, yapay zeka modelleri açıkça yanlış (bazen tehlikeli) yanıtlar bile sağlayabilir. Bazı halüsinasyonlar yanlış eğitim verilerinden, genellemelerden veya veri toplayan diğer yan etkilerden kaynaklansa da Oxford araştırmacıları sorunu başka bir açıdan hedef aldılar. Nature’da, konfabülasyonları veya keyfi ve yanlış nesilleri tespit etmek için yeni geliştirilen bir yöntemin ayrıntılarını yayınladılar.

Yüksek Lisans’lar eğitim verilerinde belirli kalıpları bularak yanıtlar bulurlar. Bu her zaman işe yaramıyor çünkü bir yapay zeka botunun, insanların bulutlardaki hayvan şekillerini görmesine benzer şekilde, var olmayan bir desen bulma şansı hâlâ mevcut. Ancak insan ile yapay zeka arasındaki fark, bunların gökyüzünde süzülen gerçek bir dev fil değil, yalnızca bulutlardaki şekiller olduğunu bilmemizdir. Öte yandan, bir Yüksek Lisans bunu müjde gerçeği olarak ele alabilir ve bu da onların henüz var olmayan geleceğin teknolojisini ve diğer saçmalıkları halüsinasyona sürüklemesine yol açabilir.

Anlamsal entropi anahtardır



genel-21