Araştırmacılar, Microsoft’un Copilot’taki sohbet robotunun Avrupa seçimleri hakkında yanlış ve yanıltıcı bilgiler sağladığını tespit etti.
İnsan hakları örgütü AlgorithmWatch şunları söyledi: bir raporda Yakın zamanda Copilot olarak yeniden markalanan Bing Chat’e, İsviçre’de ve Almanya’nın Bavyera ve Hesse eyaletlerinde yapılan son seçimler hakkında sorular sorduğunu söyledi. Seçimle ilgili sorulara verilen yanıtların üçte birinde fiili hatalar bulunduğunu ve önlemlerin eşit şekilde uygulanmadığını tespit etti.
Grup, bu yılın ağustos ayından ekim ayına kadar Bing’den yanıt topladığını söyledi. Üç seçimi de seçti çünkü bunlar, Bing’in kullanıma sunulmasından bu yana Almanya ve İsviçre’de düzenlenen ilk seçimler. Ayrıca araştırmacıların yerel bağlamlara bakmasına ve farklı dillerdeki yanıtları karşılaştırmasına da olanak tanıdı: Almanca, İngilizce ve Fransızca.
Araştırmacılar, nasıl oy kullanılacağı, hangi adayların yarıştığı, anket sayıları ve hatta haber bültenleriyle ilgili bazı ipuçları gibi temel bilgileri istedi. Bunları aday pozisyonları ve siyasi meselelerle ilgili sorularla ve Bavyera örneğinde kampanyayı rahatsız eden skandallarla takip ettiler.
AlgorithmWatch yanıtları üç grupta sınıflandırdı: yanıltıcıdan anlamsıza kadar değişen gerçek hatalar içeren yanıtlar, modelin bir soruyu yanıtlamayı reddettiği veya bilgisini eksik olarak nitelendirerek saptırdığı kaçınmalar ve kesinlikle doğru yanıtlar. Ayrıca, Bing’in cevabını bir tarafın kullandığı çerçeve veya dilde sunması gibi bazı yanıtların siyasi açıdan dengesiz olduğunu da belirtti.
Bing’in yanıtları arasında sahte tartışmalar, yanlış seçim tarihleri, yanlış oy verme numaraları ve bazı noktalarda bu seçimlere katılmayan adaylar yer alıyordu. Bu hataya dayalı yanıtlar, yanıtların yüzde 31’ini oluşturdu.
Raporda, “Chatbot anket sayılarını tek bir kaynaktan aldığında bile, yanıtta bildirilen sayılar çoğu zaman bağlantılı kaynaktan farklıydı ve zaman zaman partileri kaynaklardan farklı bir sıraya göre sıralıyordu” dedi.
Bing/Copilot’u çalıştıran Microsoft, chatbot’a korkuluklar uyguladı. Korkuluklar ideal olarak Bing’in tehlikeli, yanlış veya rahatsız edici yanıtlar vermesini engeller. Çoğu zaman yapay zeka korkulukları, şirketin belirlediği kuralları ihlal etmemek için bir soruyu yanıtlamayı reddetme eğilimindedir. Bing, testte zamanın yüzde 39’unu sorgulamaktan kaçınmayı seçti. Bu, yanıtların yalnızca yüzde 30’unun gerçek anlamda doğru olduğuna karar verilmesine neden oldu.
AlgorithmWatch, araştırmasını yaparken Bing’in fikir sorulduğunda güvenlik kurallarını uyguladığını, ancak gerçekler sorulduğunda uygulamadığını, bu durumlarda “gerçek gibi sunulan yolsuzlukla ilgili ciddi yanlış iddialarda bulunacak kadar ileri gittiğini” söyledi.
Grup, Bing’in İngilizce dışındaki dillerde de daha kötü performans gösterdiğini belirtti.
Microsoft’a gönderilen bir bildiride şöyle denildi: Sınır özellikle Amerika Birleşik Devletleri’nde 2024 seçimleri öncesinde konuşabilen yapay zeka platformlarını iyileştirmek için adımlar attığını söyledi. Bunlar, Copilot için yetkili bilgi kaynaklarına odaklanmayı içerir.
Microsoft sözcüsü Frank Shaw, “Gelecek yıl yapılacak seçimler öncesinde bir dizi somut adım atıyoruz ve seçmenlerin, adayların, kampanyaların ve seçim yetkililerinin korunmasına yardımcı olmaya kararlıyız” dedi.
Microsoft’un insanları “sonuçları görüntülerken Copilot’u en iyi kararlarıyla kullanmaya” teşvik ettiğini ekledi.
Yapay zekanın seçimlerde seçmenleri yanıltma potansiyeli endişe vericidir. Microsoft, kasım ayında, derin sahtekarlıkları sınırlamak ve seçimlerde yanlış bilgilendirmeyi önlemek için siyasi partiler ve adaylarla birlikte çalışmak istediğini açıklamıştı.
Amerika Birleşik Devletleri’nde milletvekilleri, kampanyaların yapay zeka tarafından oluşturulan içeriği ifşa etmesini gerektiren yasa tasarıları sundular ve Federal Seçim Komisyonu yapay zeka reklamlarını sınırlayabilir.