Yapay zeka patlaması, genel tüketicinin hem genişlik hem de derinlik gösteren istemlerden bilgi almak için ChatGPT gibi yapay zeka sohbet robotlarını kullanmasına olanak tanıdı. Ancak bu yapay zeka modelleri hâlâ hatalı yanıtların verildiği halüsinasyonlara eğilimlidir. Dahası, yapay zeka modelleri açıkça yanlış (bazen tehlikeli) yanıtlar bile sağlayabilir. Bazı halüsinasyonlar yanlış eğitim verilerinden, genellemelerden veya veri toplayan diğer yan etkilerden kaynaklansa da Oxford araştırmacıları sorunu başka bir açıdan hedef aldılar. Nature’da, konfabülasyonları veya keyfi ve yanlış nesilleri tespit etmek için yeni geliştirilen bir yöntemin ayrıntılarını yayınladılar.
Yüksek Lisans’lar eğitim verilerinde belirli kalıpları bularak yanıtlar bulurlar. Bu her zaman işe yaramıyor çünkü bir yapay zeka botunun, insanların bulutlardaki hayvan şekillerini görmesine benzer şekilde, var olmayan bir desen bulma şansı hâlâ mevcut. Ancak insan ile yapay zeka arasındaki fark, bunların gökyüzünde süzülen gerçek bir dev fil değil, yalnızca bulutlardaki şekiller olduğunu bilmemizdir. Öte yandan, bir Yüksek Lisans bunu müjde gerçeği olarak ele alabilir ve bu da onların henüz var olmayan geleceğin teknolojisini ve diğer saçmalıkları halüsinasyona sürüklemesine yol açabilir.
Anlamsal entropi anahtardır
Oxford araştırmacıları, bir Yüksek Lisans’ın halüsinasyon görüp görmediğini olasılığa göre belirlemek için anlamsal entropiyi kullanıyor. Semantik entropi, aynı kelimelerin farklı anlamlara sahip olmasıdır. Örneğin çöl coğrafi bir özelliği ifade edebileceği gibi birini terk etmek anlamına da gelebilir. Bir Yüksek Lisans bu kelimeleri kullanmaya başladığında, ne söylemeye çalıştığı konusunda kafası karışabilir; bu nedenle, bir Yüksek Lisans eğitiminin çıktısının anlamsal entropisini tespit ederek araştırmacılar, bunun halüsinasyon görüp görmediğini belirlemeyi amaçlamaktadır.
Anlamsal entropi kullanmanın avantajı, herhangi bir ek insan denetimine veya desteğine ihtiyaç duymadan LLM’ler üzerinde çalışması ve böylece bir AI botunun halüsinasyon görüp görmediğini tespit etmesinin daha hızlı olmasıdır. Göreve özgü verilere dayanmadığı için, onu LLM’nin daha önce karşılaşmadığı yeni görevlerde bile kullanabilirsiniz; böylece yapay zeka belirli bir soruyla ilk kez karşılaşsa bile kullanıcıların ona daha fazla güvenmesine olanak tanır. emretmek.
Araştırma ekibine göre, “Metodumuz, kullanıcıların Yüksek Lisans’lara ne zaman ekstra dikkat etmeleri gerektiğini anlamalarına yardımcı oluyor ve güvenilmezlikleri nedeniyle aksi takdirde engellenen Yüksek Lisans’ları kullanma konusunda yeni olasılıklar açıyor.” Semantik entropi, halüsinasyonları tespit etmenin etkili bir yolunu kanıtlarsa, o zaman bunun gibi araçları kullanarak yapay zekanın çıktı doğruluğunu iki kez kontrol edebilir ve profesyonellerin ona daha güvenilir bir ortak olarak güvenmelerini sağlayabiliriz. Bununla birlikte, hiçbir insanın hatasız olmadığı gibi, yüksek lisans eğitimlerinin de en gelişmiş hata tespit araçlarıyla bile hatalı olabileceğini unutmamalıyız. Bu nedenle ChatGPT, CoPilot, Gemini veya Siri’nin size verdiği yanıtı her zaman iki kez kontrol etmek akıllıca olacaktır.