Yapay zeka sohbet robotları uydurma bilgileri halüsinasyona uğratmakta zorluk çekebilir, ancak yeni araştırmalar insan zihnindeki asılsız ve halüsinasyonlu fikirlere karşı koymada yararlı olabileceklerini gösterdi. MIT Sloan ve Cornell Üniversitesi bilim insanları bir rapor yayınladı kağıt içinde Bilim Büyük dil modeli (LLM) ile desteklenen bir sohbet robotuyla sohbet etmenin komplo teorilerine olan inancı yaklaşık %20 oranında azalttığını iddia ediyor.
Bir yapay zeka sohbet robotunun komplocu düşünceyi nasıl etkileyebileceğini görmek için bilim insanı, 2.190 katılımcının OpenAI’nin GPT-4 Turbo modelini çalıştıran bir sohbet robotuyla komplo teorilerini tartışmasını ayarladı. Katılımcılardan, inandırıcı buldukları bir komplo teorisini, desteklediğine inandıkları nedenler ve kanıtlarla birlikte açıklamaları istendi. İkna edici olması istenen sohbet robotu, bu ayrıntılara göre uyarlanmış yanıtlar sağladı. Sohbet robotuyla konuştukça, katılımcıların girdilerine göre uyarlanmış karşı argümanlar sağladı. Çalışma, çalışma sırasında sohbet robotu tarafından yapılan 128 iddiayı değerlendiren profesyonel bir gerçek denetleyicisiyle kalıcı yapay zeka halüsinasyon sorununu ele aldı. Araştırmacılar, iddiaların %99,2 oranında doğru olduğunu ve bunun modelin eğitim verilerinde temsil edilen komplo teorilerinin kapsamlı çevrimiçi dokümantasyonu sayesinde olduğunu söyledi.
Komplo teorilerini çürütmek için yapay zekaya yönelme fikri, derin bilgi depolarının ve uyarlanabilir konuşma yaklaşımlarının, yaklaşımı kişiselleştirerek insanlara ulaşabileceğiydi. İlk konuşmadan on gün ve iki ay sonra yapılan takip değerlendirmelerine göre, işe yaradı. Çoğu katılımcının, “John F. Kennedy suikastını, uzaylıları ve İlluminati’yi içeren klasik komplolardan, COVID-19 ve 2020 ABD başkanlık seçimleri gibi güncel olaylara ilişkin olanlara kadar” benimsedikleri komplo teorilerine olan inancı azaldı, araştırmacılar kurmak.
Factbot Eğlencesi
Sonuçlar, insanların komplo teorilerini çürüten kanıta dayalı argümanlara büyük ölçüde duyarsız olduğunu varsayan araştırmacılar için gerçek bir sürpriz oldu. Bunun yerine, iyi tasarlanmış bir AI sohbet robotunun karşı argümanları etkili bir şekilde sunabileceğini ve inançta ölçülebilir bir değişikliğe yol açabileceğini gösteriyor. AI araçlarının yanlış bilgiyle mücadelede bir nimet olabileceği sonucuna vardılar, ancak yanlış bilgiyle insanları daha da yanıltabileceği için dikkatli olunması gerekiyor.
Çalışma, benzer hedeflere sahip projelerin değerini destekliyor. Örneğin, gerçek kontrol sitesi Snopes yakın zamanda insanların duydukları bir şeyin gerçek olup olmadığını anlamalarına yardımcı olmak için FactBot adlı bir AI aracı yayınladı. FactBot, daha geleneksel arama yöntemlerini kullanarak makaleleri taramak zorunda kalmadan soruları yanıtlamak için Snopes’un arşivini ve üretken AI’sını kullanır. Bu arada, Washington Post yaratıldı İklim Cevapları İklim değişikliği konularındaki kafa karışıklığını gidermek için iklim gazeteciliğinden yararlanarak konuya ilişkin soruları doğrudan yanıtlıyor.
“Görünüşte gerçeğe karşı dirençli komplo teorilerine güçlü bir şekilde inanan birçok insan, ikna edici kanıtlar sunulduğunda fikirlerini değiştirebilir. Teorik bir bakış açısından, bu insan akıl yürütmesinin şaşırtıcı derecede iyimser bir resmini çiziyor: Komplo teorilerinin tavşan deliklerinin gerçekten bir çıkışı olabilir,” diye yazdı araştırmacılar. “Pratik olarak, LLM’lerin ikna edici gücünü göstererek, bulgularımız hem sorumlu bir şekilde konuşlandırıldığında üretken yapay zekanın potansiyel olumlu etkilerini hem de bu teknolojinin sorumsuzca kullanılması için fırsatları en aza indirmenin acil önemini vurguluyor.”
Ayrıca Şunları da Beğenebilirsiniz
- Bu yapay zeka botu sizin için Bigfoot’un gerçek olup olmadığını kontrol edecek
- Bu yapay zeka sohbet robotu iklim değişikliğiyle ilgili tüm sorularınızı yanıtlayacak
- Character.ai, telefonda en sevdiğiniz (sentetik) kişilerle konuşmanıza olanak tanır; bu hiç de garip değil