Biden, Macron ve ZeIensky gibi isimlerin yer aldığı son vakalardan sonra, sosyal medya kullanıcılarının önyargıyı ve yanlış bilgiyi güçlendiren sahte haberlere inanma eğiliminde olmasıyla birlikte, derin sahtekarlıkların giderek daha karmaşık hale geldiği ve demokrasiye yönelik merkezi bir meydan okumayı temsil ettiği açıktır. Bilgiye ve hatta yapay zekaya olan güveni baltalayan bir tehlike. Haberleri doğrulama konusunda uzmanlaşmış bir hizmet olan NewsGuard tarafından başlatılan bir alarm, aynı zamanda sektörün düzenleyici kontrolünün teşvik ettiği önemli ilerlemeye rağmen yapay zeka şirketlerinin ürünlerini yanlış bilgilerden korumanın zorluğunu da vurguladı.
Aslında NewsGuard tarafından yapılan araştırma, Google’ın ChatGPT ve Gemini gibi üretken yapay zeka ürünlerinin, hakkında yanlış bilgilerin dolaştığı konulardaki taleplere %80 ila %98 oranında tekrarlanarak yanıt verme hatasına düştüğünü gösterdi. Dijital Nefretle Mücadele Merkezi’nin yakın tarihli bir raporunun da vurguladığı gibi, önemli yapay zeka görüntü üretim araçlarının, siyasi adayların yanlış görüntülerini veya oy verme bütünlüğüyle ilgili yanlış bilgileri oluşturmak için manipüle edilebileceğini belirtmeye bile gerek yok.

NewsGuard uyarısı

Bu nedenle, 2024’teki çok sayıda seçim göz önüne alındığında, NewsGuard yakın zamanda, 2024’te yapılacak seçimlerle ilgili yanlış bilgi kaynaklarını ve anlatılarını belirlemek için ağı izlemeyi amaçlayan bir analist ağı olan “Yanlış Bilgi İzleme Merkezi”nin kurulduğunu duyurdu. buradan itibaren yer. “Ai Seçim Güvenliği Paketi”nde ifade edilen, eksiksiz ve özelleştirilebilir bir hizmet paketi olan, Yapay Zeka tedarikçilerine eksiksiz bir dizi koruma sağlamak üzere tasarlanmış, Yapay Zeka sisteminin seçmenleri yanıltabileceği ve demokratik düzene zarar verebileceği alanları derhal belirleyen bir program. süreç ve yazılım sağlayıcısı için itibar çöküşü yaratıyor.
NewsGuard eş CEO’su Gordon Crovitz, “Farklı AI ürünleri çeşitli manipülasyon türlerine karşı hassastır veya kasıtsız olsa bile zarara neden olabilir” dedi. «Örneğin, metin tabanlı bir sanal asistan, oy verme lojistiği hakkında yanlış bilgi sağlama riskiyle karşı karşıya kalabilirken, bir görüntü oluşturma aracı, siyasi adayların hiç gerçekleşmemiş faaliyetlere giriştiğini gösteren deepfake’ler oluşturmak için kullanılabilir. Bu hizmet paketini, yapay zeka şirketlerinin ürünlerini seçimlerden önce korurken karşılaştıkları çok çeşitli riskleri ele alacak şekilde özelleştirilebilecek ve uyarlanabilecek şekilde tasarladık.”
Paket çeşitli araçlar içerir ve metinlerin yanı sıra resim, video ve ses içeren çeşitli üretken yapay zeka modellerine uygulanır. Sahte haberleri ve seçimle ilgili yanlış bilgileri belirlemek için 35.000’den fazla haber sitesinin, sosyal ağların, video ve ses içeriğinin gerçek zamanlı izlenmesi anlamına gelen “Seçimle ilgili yanlış bilgilerin sürekli tespiti” ile başlıyoruz. Çeşitli “Risk Testleri” ve “Oy Verme Bilgilerinin Doğruluğunun Değerlendirilmesi”ni içerir; LLM’lerin seçimle ilgili yeni yanlış bilgi anlatıları ve oylama kuralları ve mekanizmalarıyla ilgili sorgulara nasıl yanıt verdiğini görmek için AI ürünlerinin test edilmesini içerir ve risk değerlendirmelerini müşterilerin kullanımına sunar. Test için kullanılan istemler ve elde edilen yanıtlar, böylece yapay zeka güvenlik ekiplerinin tüm boşlukları ve riskli alanları kolayca tespit edebilmesini sağlar. Sonuçlar aynı zamanda “Parmak İzlerinin” üretilmesiyle de dağıtılır; yani, anlatıyla ilgili anahtar kelimeler, hashtag’ler ve arama terimleri aracılığıyla, makine tarafından okunabilir bir formatta seçimle ilgili dezenformasyon içeriğine ilişkin güncellenmiş güvenilir ve zamanlı veri akışının oluşturulması.



genel-18