Deepfake’lerin hızlı yükselişi medya ortamını sarsıyor ve halkın güvenini sarsıyor. İsrail ile Hamas arasındaki çatışma sırasında deepfake’lerin yayılması ve Donald Trump gibi siyasi figürleri içeren yanıltıcı görüntülerin yaratılması gibi öne çıkan olaylar, üretken yapay zekanın oluşturduğu büyük riskleri vurguluyor.

İster videolar ister dikkatle hazırlanmış ses kayıtları olsun, bu yaratımlar, 2021’de köklü e-posta kimlik avı taktiklerinden gelişerek hassas bilgilerin güvenliğine yönelik büyüyen bir tehdit oluşturabilir.

Yanlış bilginin hızla yayılması

Deepfake’lerin körüklediği dezenformasyon endişe verici boyutlara ulaşıyor. Tahmin ediliyor ki 2025 yılına kadar, Tüm çevrimiçi içeriğin %90’ı deepfake’ler tarafından oluşturulabilirinterneti manipülasyon ve aldatma için bir oyun alanına dönüştürmek.

Bu çoğalma, gerçek ile sanal arasındaki sınırın bulanıklaştığı çevrimiçi gerçeklik kavramının sorgulanmasına neden oluyor. Teknolojik ilerlemeler artık herkese, mizahi videolar oluşturmaktan gerçekliğe meydan okuyan kötü niyetli saldırılara kadar sentetik içerik üretme olanağı sağlıyor.

Deepfake’ler diğer dezenformasyon türleri kadar “güvenilir”

Deepfake’lerin kötü niyetli kullanımı, yıkıcı sonuçlara yol açma potansiyeliyle demokrasiye yönelik büyük bir meydan okumayı temsil ediyor. Seçimler sırasında dolaşan sahte içerik, sonuçları etkileyebilir, kafa karışıklığı yaratabilir ve demokratik süreçlerin meşruiyetine zarar verebilir.

2024 ABD başkanlık önseçimleri sırasında Donald Trump’ı riskli durumlarda gösteren deepfake vakası, kötü niyetli aktörlerin bu teknolojiyi siyasi amaçlar için kullanma yeteneğini gösteriyor. Siyasi gerçekliği çarpıtma potansiyelleri, önemli seçim olayları sırasında önemli bilgilerin güvenilirliğinin sorgulanmasına neden oluyor.

Sosyal ve psikolojik etkiler

Deepfake’lerin çoğalması, fırsatları kaçırma korkusunu (FOMO) körükleyerek insanları sansasyonel bilgilere dürtüsel tepki vermeye itiyor. Deepfake’lerle güçlendirilen yanlış bilgiler, halkın algısını yanıltabilir ve değiştirebilir, çözülmesi zor alternatif bir gerçeklik yaratabilir. Sosyal aidiyet ihtiyacı ve önemli olayları kaçırma korkusu, çoğu zaman bilgilerin eleştirilmeden alınmasına yol açar.

Deepfake’ler bu nedenle sosyal ve politik kutuplaşma için bir katalizör görevi görerek toplumda zaten mevcut olan bölünmeleri daha da kötüleştiriyor.

Zehir GPT olayı

Deepfake’ler, dezenformasyondaki rollerinin ötesinde, siber suçlarda zorlu silahlar olarak ortaya çıkıyor ve bilginin basit manipülasyonunun çok ötesine geçen sinsi ve çapraz bir tehdit yaratıyor.

Bu yeni gerçekliğin çarpıcı bir örneği şu şekilde gösterilmektedir: Zehir GPT olayıdeğiştirilmiş yapay zekanın popüler dil modelleri kisvesi altında saklandığı yer.

Bu vaka, deepfake kullanan saldırıların artan karmaşıklığını vurguluyor ve bu saldırıları gerçek sibernetik araçlar seviyesine yükseltiyor. Poison GPT bağlamında, manipüle edilmiş yapay zeka, köklü dil modelleri içerisinde kendisini kamufle edebildi ve bu manipülasyonun tespitini özellikle zorlaştırdı. Bu başarılı örtbas etme, giderek daha karmaşık hale gelen saldırıların maskesini kaldırabilecek daha sağlam siber güvenlik çözümlerinin geliştirilmesine yönelik acil ihtiyacın altını çiziyor.

Deepfakes, bir sonraki siber güvenlik salgını

Bu manipülasyonları tespit etmenin zorluğu, dijital ortamda kaos potansiyelini artırıyor ve yalnızca halkın bilgiye olan güvenini değil, aynı zamanda önemli dijital altyapıların istikrarını da tehdit ediyor. Deepfake’ler böylece bilgisayar ağları, çevrimiçi platformlar ve hatta kritik altyapılar gibi çeşitli sistemlere sızmak ve onları tehlikeye atmak için polimorfik silahlar haline gelir.

Bu kesişen tehdit, gelişmiş algılama teknolojilerinin geliştirilmesini, artan kullanıcı farkındalığını ve kamu ile özel sektör arasındaki işbirliğini içeren, siber güvenliğe bütünsel bir yaklaşım gerektirir.

Deepfake’ler şu anda çoğunlukla pornografik içerikle bağlantılıdır.

Ancak demokratik riskin ötesinde, bu teknolojilerin ortaya çıkışının son yıllarda başka önemli yansımaları da oldu; saptırılmış pornografik içeriğin çoğalması. Ariana Grande’den Emma Watson’a kadar pek çok şahsiyet, yüzlerinin pornografik filmlerde kullanıldığını gördü. Birçok vaka intikam pornosu (Bu pornografik içeriğin bir kişiden intikam almak için ifşa edilmesi) de kayıtlara geçti.

Uzmanlık alanı deepfake’leri tespit etmek olan Hollandalı şirket Sensity, 2022’de deepfake’lerin %96’sının müstehcen içerikli olduğunu ve içeriğin oluşturulmasına rıza göstermeyen kadınların yer aldığını hesaplamıştı.

THE derin sahte porno Fransa’da da bir sorun var. Her ne kadar yasa mağdurların korunmasını öngörse de intikam pornosu Kimlik hırsızlığı ve çevrimiçi aşırılıklar henüz yeterince iyi kontrol edilemiyor gibi görünüyor.

Bu nedenle, ortaya çıkan bu zorluklarla yüzleşmek için harekete geçmek zorunlu hale geliyor. Koordineli bir dizi teknolojik çaba, halkın eğitimi ve düzenlemeler, derin sahtekarlıkların oluşturduğu tehlikeleri azaltmak için hayati önem taşıyor. Her ne kadar “İçerik Kaynağı ve Özgünlük Koalisyonu” ve Avrupa Yapay Zeka yasaları ileriye dönük umut verici bir yol çizse de, bu mücadele sürekli seferberlik gerektiriyor. Gerçeği korumak ve halkın güvenini yeniden tesis etmek, küresel ölçekte ortak eylem gerektirir.



genel-15