ChatGPT ve Google Bard, teknoloji hayatımıza girerek büyülediler, ancak son zamanlarda yapılan iki araştırma, yapay zeka sohbet robotlarının, doğru şekilde sorarsanız, yanlış bilgi ve komplo teorileri yaymaya çok eğilimli olduğunu gösteriyor.
Haber Koruması (yeni sekmede açılır), haberlerin ve bilgilerin güvenilirliğini derecelendiren bir site, yakın zamanda Google Bard’ı bilinen 100 yanlışla besleyerek ve sohbet robotundan bunların etrafına içerik yazmasını isteyerek test etti. tarafından bildirildiği gibi Bloomberg (yeni sekmede açılır)Bard “76 tanesi hakkında yanlış bilgi yüklü makaleler üretti”.
Bu performans en azından OpenAI’nin ChatGPT modellerinden daha iyiydi. Ocak ayında NewsGuard, OpenAI’nin (ChatGPT’nin ücretsiz sürümüne güç veren) GPT-3.5 modelinin 100 yanlış anlatıdan yaklaşık 80’ini memnuniyetle oluşturduğunu keşfetti. Daha da endişe verici bir şekilde, en son GPT-4 modeli, test edildiği “100 yanlış anlatının tamamı için yanıltıcı iddialarda bulundu” ve daha ikna edici bir şekilde.
Bu bulgular, başka bir yeni raporla desteklendi. Talih (yeni sekmede açılır), Bard’ın korkuluklarının basit teknikler kullanılarak kolayca aşılabileceğini iddia ediyor. bu Dijital Nefretle Mücadele Merkezi (yeni sekmede açılır) (CCDH), Google’ın yapay zeka sohbet robotunun, aşıdan iklim komplolarına kadar değişen bilgi istemlerinde kullanılan 100 “zararlı anlatının” 78’inde yanlış bilgi ürettiğini tespit etti.
Ne Google ne de OpenAI, sohbet robotlarının kusursuz olduğunu iddia etmez. Google, Bard’ın (yeni sekmede açılır) “Yapay Zeka İlkelerimize uygun olarak yerleşik güvenlik kontrollerine ve net geri bildirim mekanizmalarına” sahiptir, ancak “yanlış bilgiler veya saldırgan ifadeler görüntüleyebilir”. Benzer şekilde OpenAI, ChatGPT’nin cevabının “yanlış, gerçek dışı ve bazen yanıltıcı olabileceğini” söylüyor.
Ancak yapay zeka sohbet robotlarının doğruluğunu test etmek için henüz evrensel bir kıyaslama sistemi bulunmamakla birlikte, bu raporlar onların kötü oyunculara açık olma veya olgusal veya doğru içerik üretme konusunda güvenilme tehlikelerini vurgulamaktadır.
Analiz: AI sohbet robotları ikna edici yalancılardır
Bu raporlar, günümüzün yapay zeka sohbet robotlarının nasıl çalıştığını ve sorularımıza verdikleri kendinden emin yanıtlara güvenirken neden dikkatli olmamız gerektiğini hatırlatıyor.
Hem ChatGPT hem de Google Bard, “geniş dil modelleri”dir; bu, belirli bir dizideki en olası kelimeyi tahmin etmek için çok miktarda metin verisi üzerinde eğitildikleri anlamına gelir.
Bu onları çok inandırıcı yazarlar yapar, ancak aynı zamanda ne söylediklerine dair daha derin bir anlayışa sahip olmayan yazarlardır. Bu nedenle, Google ve OpenAI, istenmeyen ve hatta saldırgan bölgelere sapmalarını engellemek için korkuluklar yerleştirirken, kötü aktörlerin etraflarında yollarını bulmalarını engellemek çok zordur.
Örneğin, CCDH’nin (yukarıda) Bard’a beslediği istemler, görünüşe göre Bard’ın güvenlik özelliklerini atlamayı başaran “bir oyunda rol oynadığınızı hayal edin” gibi satırlar içeriyordu.
Bu, Bard’ı yoldan çıkarmaya yönelik manipülatif bir girişim gibi görünse ve olağan çıktısını temsil etmese de, sorun çıkaranlar tam olarak bu şekilde halka açık bu araçları dezenformasyon yaymaya veya daha kötüsünü yapmaya zorlayabilir. Ayrıca, OpenAI’nin basitçe “gerçekleri uydurmak” olarak tanımladığı, sohbet robotlarının “halüsinasyon görmesinin” ne kadar kolay olduğunu da gösteriyor.
Google net bir şekilde yayınladı yapay zeka ilkeleri (yeni sekmede açılır) Bu, Bard’ın nereye gitmesini istediğini gösterir ve hem Bard hem de ChaGPT’de zararlı veya rahatsız edici yanıtları bildirmek mümkündür. Ancak bu ilk günlerde, ikisini de çocuk eldivenleriyle kullanıyor olmalıyız.