YORUM

Dezenformasyon — görüş veya anlayışı yanıltmak için yaratılan ve paylaşılan bilgi — yeni bir olgu değildir. Ancak dijital medya ve ChatGPT, DALL-E ve DeepSwap gibi açık kaynaklı üretken yapay zeka (GenAI) araçlarının yaygınlaşması, sosyal medyanın kitlesel yayılma yetenekleriyle birleştiğinde, potansiyel olarak zararlı sahte içeriklerin yayılmasını önlemeyle ilişkili zorlukları daha da kötüleştiriyor.

Bu araçlar henüz emekleme aşamasında olsalar da, dijital içerik oluşturma şeklimizi şekillendirmeye başladılar ve bireylerin ikna edici fotoğraf ve video taklitlerini üretmek veya inandırıcı komplocu anlatılar üretmek için çok az beceri veya bütçe gerektiriyorlar. Aslında, Dünya Ekonomik Forumu, yapay zeka tarafından güçlendirilen dezenformasyonu, artan küresel politik ve sosyal gerginlikler ve seçimler gibi kritik dönüm noktaları sırasında istismar olasılıkları da dahil olmak üzere, önümüzdeki birkaç yıldaki en ciddi küresel risklerden biri olarak konumlandırıyor.

2024 yılında, 50 ülkede 2 milyar seçmen sandık başına gitmiş veya yaklaşan seçimleri bekliyor olsalar da, dezenformasyon kamuoyunu şekillendirme ve medyaya ve demokratik süreçlere olan güveni aşındırma yeteneği konusunda endişelere yol açtı. Ancak yapay zeka tarafından üretilen içerik bir anlatıyı manipüle etmek için kullanılabilirken, aynı zamanda Bu araçların yeteneklerimizi geliştirme potansiyeli Bu tehditleri tespit etmek ve onlara karşı korunmak.

Yapay Zeka Tarafından Üretilen Dezenformasyonun Ele Alınması

Hükümetler ve düzenleyici otoriteler, kamuoyunu yapay zeka kaynaklı yanlış bilgilendirmeden korumak için çeşitli yönergeler ve mevzuatlar getirdi. Kasım 2023’te ABD ve İngiltere dahil 18 ülke bir anlaşmaya girdi bağlayıcı olmayan AI Güvenlik anlaşmasıAvrupa Birliği’nde ise Mart ortasında onaylanan bir AI Yasası çeşitli AI uygulamalarını sınırlandırıyor. Hindistan hükümeti, seçim döneminde deepfake’lerin yaygınlaşmasına yanıt olarak sosyal medya şirketlerini bildirilen deepfake’leri kaldırmaya veya üçüncü taraf içerikleri için sorumluluktan korunmalarını kaybetmeye zorlayan bir yasa tasarısı hazırladı.

Bununla birlikte, yetkililer, hükümet, sivil ve ticari alanlardan gelen çok sayıda (ve çoğu zaman karşıt) paydaş arasında ilgili uzmanlığı geliştirme ve fikir birliğine varma yeteneklerini sıklıkla geride bırakan değişen yapay zeka ortamına uyum sağlamakta zorluk çekiyorlar.

Sosyal medya şirketleri Ayrıca, sahte hesapların daha fazla taranması ve kaldırılması ve özellikle seçimler konusunda kullanıcıları güvenilir bilgi kaynaklarına yönlendirmek de dahil olmak üzere kullanıcıları korumak için bariyerler uyguladı. Finansal zorlukların ortasında, birçok platform yapay zeka etiği ve çevrimiçi güvenliğe adanmış ekiplerini küçülttü ve bunun önümüzdeki yıllarda platformların sahte içerikleri etkili bir şekilde engelleme yetenekleri ve istekleri üzerindeki etkisine dair belirsizlik yarattı.

Bu arada, yanıltıcı içerikleri belirleme ve sınırlama konusunda teknik zorluklar devam ediyor. Sosyal medya platformları aracılığıyla bilginin yayılma hızı ve hacmi —genellikle bireylerin ilk kez sahte içerikle karşılaştığı yer— tespit çabalarını ciddi şekilde zorlaştırıyor; platformlar doğruluktan ziyade etkileşimi önceliklendirdikçe zararlı gönderiler saatler içinde “viral” hale gelebiliyor. Otomatik moderasyon, yetenekleri bir dereceye kadar geliştirdi, ancak bu tür çözümler ayak uyduramadı. Örneğin, belirli hashtag’leri, anahtar kelimeleri, yanlış yazılmış kelimeleri ve İngilizce olmayan kelimeleri tespit etmeye yönelik otomatik girişimlerde önemli boşluklar var.

Dezenformasyon, ana akım medya veya gerçekliğini yeterince doğrulamamış etkili kişiler tarafından farkında olmadan yayıldığında daha da kötüleşebilir. Mayıs 2023’te Irish Times, düzenleme ve yayın sürecindeki boşlukların şu sonuca yol açmasının ardından özür diledi: AI tarafından oluşturulan bir makalenin yayınlanmasıAynı ayda Twitter’da paylaşılan ve yapay zeka tarafından oluşturulan Pentagon’daki patlama görüntüsü ABD kolluk kuvvetleri tarafından hızla çürütüldü ancak buna rağmen borsada %0,26’lık bir düşüş yaşandı.

Ne yapılabilir?

Yapay zekanın tüm uygulamaları kötü niyetli değildir. Aslında, yapay zekaya yönelmek, insan içerik denetiminin bazı sınırlamalarını aşmaya yardımcı olabilir, verimliliği artırmak ve maliyetleri düşürmek için insan denetçilere olan bağımlılığı azaltabilir. Ancak sınırlamalar vardır. Büyük dil modelleri (LLM) kullanan içerik denetimi, bağlamı ve duyguyu yorumlamak için yeterli insan denetimi olmadığında genellikle aşırı hassastır ve zararlı içeriğin yayılmasını önlemek ile alternatif görüşleri bastırmak arasındaki çizgiyi bulanıklaştırır. Önyargılı eğitim verileri ve algoritmaları ile yapay zeka halüsinasyonları (en yaygın olarak görüntü tanıma görevlerinde meydana gelir) ile ilgili devam eden zorluklar da yapay zeka teknolojisinin koruyucu bir önlem olarak kullanılmasında zorluklara katkıda bulunmuştur.

Çin’de halihazırda kullanılmakta olan bir diğer potansiyel çözüm ise şunları içeriyor: Kimlik belirlemeye yardımcı olmak için AI tarafından oluşturulan içeriğin “filigranlanması”. Yapay zeka ile insan yapımı içerik arasındaki farklar genellikle bizim için algılanamaz olsa da, mevcut çözümlerdeki derin öğrenme modelleri ve algoritmaları bu farklılıkları kolayca tespit edebilir. Yapay zeka tarafından üretilen içeriğin dinamik yapısı, bu teknolojileri kullanan kötü niyetli aktörlerin uyarlanabilir tekniklerine karşı koymak için giderek daha karmaşık yöntemler geliştirmeleri gereken dijital adli tıp araştırmacıları için benzersiz bir zorluk teşkil eder. Mevcut filigran teknolojisi doğru yönde atılmış bir adım olsa da, çözümleri çeşitlendirmek, düşmanca kullanımları geride bırakabilecek veya en azından onlarla başa çıkabilecek sürekli yeniliği sağlayacaktır.

Dijital Okuryazarlığı Artırmak

Dezenformasyonla mücadele ayrıca kullanıcıların AI tarafından üretilen içerikle eleştirel bir şekilde etkileşim kurma becerisine, özellikle seçim dönemlerinde, hitap etmeyi gerektirir. Bu, yanıltıcı veya zararlı içerikleri belirleme ve raporlama konusunda daha fazla dikkat gerektirir. Ancak araştırmalar, AI’nın neler yapabileceğine dair anlayışımızın ve sahte içerikleri tespit etme becerimizin sınırlı kaldığını gösteriyor. Şüphecilik genellikle yazılı içerik tüketiminde erken yaşlardan itibaren öğretilse de, teknolojik yenilikler artık daha seçici bir kitle geliştirmek için bu uygulamanın sesli ve görsel medyaya genişletilmesini gerektiriyor.

Test Alanı

Karşıt aktörler, dezenformasyon yaratmak ve yaymak için yapay zeka kullanımını uyarlayıp geliştirdikçe, 2024 ve çok sayıda seçim şirketlerin, hükümetlerin ve tüketicilerin bu tehdit ile ne kadar etkili bir şekilde mücadele edebildiğinin bir test sahası olacak. Yetkililerin, insanları, kurumları ve siyasi süreçleri yapay zeka kaynaklı dezenformasyona karşı korumak için yeterli koruyucu önlemleri sağlama konusunda iki katına çıkması gerekecek, aynı zamanda toplulukların kendilerini diğer önlemlerin başarısız olabileceği yerlerde korumak için gereken dijital okuryazarlık ve uyanıklıkla donatılmasını sağlamak da giderek daha kritik hale gelecek.



siber-1