Birçoğu 2024 seçimlerinin yapay zekanın ürettiği dezenformasyondan etkileneceğinden ve belki de karara bağlanacağından korkuyordu. Bulunacak bazı şeyler olsa da, beklenenden çok daha azdı. Ancak bu sizi yanıltmasın: Dezenformasyon tehdidi gerçektir; yalnızca hedef siz değilsiniz.

En azından kar amacı gütmeyen uzun süredir yapay zeka araştırmacısı olan Oren Etzioni böyle söylüyor. TrueMedia üretilen dezenformasyon darbesinin üzerinde parmağı var.

TechCrunch’a yakın tarihli bir röportajda “Daha iyi bir kelime olmadığı için, çok çeşitli deepfakeler var” dedi. “Her biri kendi amacına hizmet ediyor ve bazılarının diğerlerinden daha fazla farkındayız. Şöyle ifade edeyim: Aslında duyduğunuz her şeye karşılık, sizi hedef almayan yüzlerce şey var. Belki bin. Ana akım basına yansıyan şey aslında buzdağının sadece görünen kısmı.”

Gerçek şu ki, çoğu insan ve Amerikalılar çoğundan daha çok, kendi deneyimlerinin başkalarının deneyimleriyle aynı olduğunu düşünme eğilimindedir. Bu birçok nedenden dolayı doğru değil. Ancak dezenformasyon kampanyaları söz konusu olduğunda, nispeten iyi bilgilendirilmiş bir toplum, kolayca ulaşılabilen gerçek bilgiler ve (aksi yöndeki tüm gürültüye rağmen) en azından çoğu zaman güvenilen bir basın göz önüne alındığında, Amerika aslında zor bir hedeftir.

Deepfake’leri Taylor Swift’in yapmayacağı bir şeyi yaptığı veya söylediği bir video gibi düşünme eğilimindeyiz. Ancak asıl tehlikeli deepfake’ler ünlülerin veya politikacıların değil, kolaylıkla tespit edilemeyen ve etkisiz hale getirilemeyen durum ve kişilerinkidir.

“İnsanların anlamadığı en büyük şey çeşitliliktir. Bugün İsrail üzerinde İran uçaklarından birini gördüm” dedi; bu gerçekleşmedi ama orada olmayan biri tarafından kolaylıkla çürütülemez. “Siz Telegram kanalında ya da belirli WhatsApp gruplarında olmadığınız için bunu görmüyorsunuz ama milyonlarca kişi görüyor.”

TrueMedia, görüntüleri, videoları, sesleri ve diğer öğeleri sahte veya gerçek olarak tanımlamak için ücretsiz bir hizmet (web ve API aracılığıyla) sunar. Bu basit bir iş değil ve tamamen otomatikleştirilemez, ancak yavaş yavaş süreci geri besleyen gerçek bilgilerden oluşan bir temel oluşturuyorlar.

“Asıl görevimiz tespittir. Akademik kriterler [for evaluating fake media] Etzioni, “Uzun zamandan beri sürülmüş durumda” diye açıkladı. “Dünyanın her yerindeki insanlar tarafından yüklenen şeyler üzerinde eğitim alıyoruz; farklı satıcıların bu konuda ne söylediğini, modellerimizin bu konuda ne söylediğini görüyoruz ve bir sonuç çıkarıyoruz. Takip olarak, daha kapsamlı ve daha yavaş bir soruşturma yürüten bir adli tıp ekibimiz var; tüm öğeler üzerinde değil, önemli bir kısmı üzerinde, yani temel bir gerçeğe sahibiz. Tamamen emin olmadığımız sürece bir doğruluk değeri atamayız; hâlâ yanılıyor olabiliriz ama diğer tüm çözümlerden önemli ölçüde daha iyiyiz.”

Birincil misyon, Etzioni’nin ana hatlarıyla belirttiği üç temel yolla sorunu ölçmeye hizmet etmektir:

  1. Orada ne kadar var? “Bilmiyoruz, bunun için Google yok. Yaygın olduğuna dair çeşitli göstergeler görüyorsunuz, ancak bunu doğru bir şekilde ölçmek son derece zor, hatta belki de imkansız.”
  2. Kaç kişi görüyor? “Bu daha kolay çünkü Elon Musk bir şeyi paylaştığında ‘bunu 10 milyon kişi gördü’ diyorsunuz. Yani gözbebeklerinin sayısı kolaylıkla yüz milyonları bulabilir. Her hafta milyonlarca kez görüntülenen öğeleri görüyorum.”
  3. Ne kadar etkisi oldu? “Belki de en önemlisi bu. Sahte Biden çağrıları yüzünden kaç seçmen sandığa gitmedi? Biz bunu ölçecek durumda değiliz. Slovakça olan [a disinfo campaign targeting a presidential candidate there in February] son dakikaydı ve sonra kaybetti. Bu da seçime yön vermiş olabilir.”

Bunların hepsinin devam eden çalışmalar olduğunu, bazılarının ise yeni başladığını vurguladı. Ama bir yerden başlamak lazım.

“Cesur bir tahminde bulunmama izin verin: önümüzdeki 4 yıl içinde bunu ölçme konusunda çok daha ustalaşacağız” dedi. “Çünkü buna mecburuz. Şu anda sadece başa çıkmaya çalışıyoruz.”

Görüntülere ve metinlere filigran eklemek gibi, oluşturulan medyayı daha belirgin hale getirmeye yönelik bazı endüstriyel ve teknolojik girişimlere gelince, bunların zararsız ve belki de faydalı olduğunu, ancak sorunu çözmeye bile başlayamadıklarını söyledi.

“Benim deyimimle, silahlı çatışmaya filigran getirmeyin.” Bu gönüllü standartlar, herkesin bunları kullanmak için bir nedeninin olduğu işbirliğine dayalı ekosistemlerde faydalıdır, ancak tespit edilmekten kaçınmak isteyen kötü niyetli aktörlere karşı çok az koruma sağlarlar.

Her şey kulağa oldukça vahim geliyor ve öyle de, ancak yakın tarihteki en önemli seçim, yapay zeka saçmalıklarının pek fazla olmadığı bir şekilde gerçekleşti. Bunun nedeni, üretken dezenformasyonun sıradan olmaması değil, tedarikçilerinin katılmayı gerekli hissetmemesidir. Bunun sizi alternatiften daha fazla mı yoksa daha az mı korkutacağı tamamen size kalmış.



genel-24