Pek çok analist, deepfake’ler (sahte görüntüler ve videolar) yoluyla üretilen dezenformasyonun Amerikan oylarını önemli ölçüde etkileyebileceğinden korkuyor. Birkaç gün önce Dünya Ekonomik Forumu’nun Küresel Riskler Raporu 2024’ün, yapay zeka araçlarına giderek daha kolay erişimin de etkisiyle dezenformasyon ve yanlış bilgilendirmeyi (gerçeğe aykırı içeriğin yayılması) “en büyük küresel tehlike” olarak tanımlaması tesadüf değil. Demokrasilerin yüzleşmeye çağrıldığı terim”.
Tehlikede olan yalnızca Kasım ayındaki Amerikan başkanlık seçimleri değil: Baharda sıra Hindistan’a, Haziran’da ise Avrupa seçimlerine gelecek. Geçtiğimiz günlerde Bangladeş ve Tayvan’da yapılan seçimler, dünya demokrasileri açısından kritik bir yılı başlattı. Son seçimlerde, yine yapay zeka tarafından üretilen ve yayılan bir dezenformasyon artışı görüldü (bunun bir örneği, zafer durumunda Tayvan’ı askeri olarak destekleme sözü veren ABD milletvekili Rob Wittman’ın Çin sosyal ağı Douyin’de dolaşan sahte videosudur). kazanan taraf DPP). Gelecekteki seçim yarışlarında benzer senaryoların tekrarlanabileceğine dair korkular sağlam temellere dayanıyor; Çin’in Tayvan için yaptığı ve Rusya’nın ABD için yapacağı gibi dezenformasyonun üçüncü devletler tarafından körüklendiğine dair kanıtlar da var.
Kamuoyu ve hükümetler, yapay zeka şirketlerinin önleme tedbirlerini mümkün olan en kısa sürede uygulamasının gerekli olduğuna giderek daha fazla ikna oluyor. OpenAI CEO’su Sam Altman bir süre önce kendisini olumlu bir şekilde ifade etmişti: Yapay zekanın demokratik süreç üzerindeki etkisine özgü bir konu hakkında konuşurken korkularını paylaştı ve olası olumsuzlukları hafifletmek için yararlı kuralların getirilmesi çağrısında bulundu. algoritmaların etkisi. Dünden bu yana, OpenAI’nin dezenformasyonla mücadeleye yönelik bir dizi önlemi duyurmasıyla sözlerden eyleme geçtik.
OpenAI’nin yanlış bilgiye karşı yaklaşımı
Resmi blogda bir yazının yayınlanmasıyla, ChatGPT ve DALL·E görüntü oluşturma modeli gibi araçların fikir yayınlarını yanıltmak ve/veya etkilemek amacıyla kullanılmamasını sağlamak için siyah beyaz bir çalışma başlatıldı. OpenAI şöyle açıklıyor: “Dünyanın en büyük demokrasilerinde 2024 seçimlerine hazırlanırken yaklaşımımız, doğru oylama bilgilerini iyileştirerek, ölçülü politikalar uygulayarak ve şeffaflığı artırarak platformumuzun güvenlik çalışmalarına devam etmektir”. OpenAI’nin kötüye kullanımı önlemek için açıkladığı önlemlerin ardından, adaylar da dahil olmak üzere gerçek kişilerin görsellerinin oluşturulmasını gerektiren taleplerin reddedilmesiyle DALL·E’ye engeller uygulandı. Ayrıca, “daha fazlasını öğrenene kadar insanların siyasi kampanya ve lobi faaliyetleri için başvuru oluşturmasına izin vermeyeceğiz” ve geliştiricilerin aday veya kurum gibi davranan sohbet robotları oluşturmasına izin verilmeyecek. Son olarak, Amerika Birleşik Devletleri’nde oy vermeyle ilgili olarak, chatbot’a seçim prosedürleriyle ilgili sorular sorulduğunda, sistem sizi iki partili, kar amacı gütmeyen Ulusal Dışişleri Bakanları Birliği’nin web sitesine yönlendirecektir. Ayrıca OpenAI, önümüzdeki birkaç ay içinde C2PA (İçerik Kanıt ve Orijinallik Koalisyonu) protokolünün uygulanmasına yol açacak olan çalışmaya zaten başladığını yineliyor; DALL yapay zekası Ve 3. Değişiklikler sonrasında bile yapay zeka tarafından oluşturulan grafik içeriklerinin tanınmasına yönelik yararlı bir analiz aracı, aynı zamanda seçilmiş bir grup gazeteci, platform ve araştırmacı tarafından da test ediliyor. ChatGPT cephesinde, bilgi kaynaklarına bağlantılar da dahil olmak üzere gerçek zamanlı olarak güncellenen sonuçların dahil edilmesi giderek daha fazla entegre ediliyor: «Kullanıcılar, atıflar ve bağlantılar da dahil olmak üzere dünya çapında gerçek zamanlı haberlere erişmeye başlayacak. Bilginin kaynağına ilişkin şeffaflık ve haber kaynaklarındaki denge, seçmenlerin bilgiyi daha iyi değerlendirmesine ve neye güvenebileceklerine kendilerinin karar vermesine yardımcı olabilir.” Bütün bunlar, şeffaflık açısından hizmetin iyileştirilmesine katkıda bulunmalıdır. Ancak şart zorunlu olmaya devam ediyor. Aslında bu önlemlerin ne kadar etkili olacağı ve “bilgi manipülatörlerinin” bu platformları kötü amaçlarla kullanmalarına olanak sağlayacak “boşluklar” yaratıp yaratamayacakları zaman gösterecek. OpenAI’nin olgunluk testi başladı.