14 Mart’ta, Rus birliklerinin bir yıl sürecek kanlı savaşı başlatmak için Ukrayna’nın batısına hücum etmesinden yaklaşık bir ay sonra, Ukrayna Devlet Başkanı Vladimir Zelensky bir Ukrayna televizyon kanalına çıktı ve kayıtsız şartsız teslim olduğunu duyurdu. Artık ikonik olan asker yeşili uzun kollu gömleğini giyen başkan, kameraya bakıyor ve Ukrayna ordusunun “teslim olduğunu” ve “silahları bırakacağını” iddia ediyor gibi görünüyordu.
Aynı sıralarda sosyal medya sitelerinde Zelensky’nin, Rusya Devlet Başkanı Vladimir Putin’in de benzer şekilde bir barış anlaşması ilan etmesini engelleyen başka bir kısa video yayınlandı.
Putin ahşap bir masanın arkasında otururken “Ukrayna ile barışı sağlamayı başardık” diyor gibi görünüyor.
Hem Zelensky hem de Putin’in videoları çeşitli sosyal medya sitelerinde onbinlerce kez paylaşıldı. Ayrıca her ikisi de tam birer uydurmaydı ve kullanılarak dünyaya hayata geçirildiler. derin sahte teknoloji derin öğrenme yapay zeka modelleri tarafından desteklenmektedir. Bunlar, bir zamanlar teorik olan gerçeğin bugüne kadarki en açık örnekleri arasında yer alıyor: Savaş sırasında silah haline getirilen Deepfake videoları.
Dijital olarak değiştirilmiş medyayı tespit etme konusunda biraz eğitim almış olan herkes, muhtemelen iki teslimiyet videosunda bir şeyler hissedebilir. Her iki klipte de tuhaf yüz hareketleri, doğal olmayan ışık ve gölgeler yer alıyordu; bunların her biri yapay zeka manipülasyonunun işaretleriydi.
Ancak iki videonun sahtekarlığı hızla çürütülmüş olsa da, bunların internette hızla yayılması, savaş sırasında halkın kafasını karıştırmak ve bölmek için kullanılan alternatif videoların gerçek tehlikesi konusunda uyarıda bulunan yorumların ve haber makalelerinin telaşına yol açtı. Yeni araştırmalar, derin sahtekarlıklardaki bu artışın ve bunların dağıtımına ilişkin kaygının çözülmesi daha da zor bir soruna katkıda bulunabileceğini öne sürüyor: İnsanlar meşru medyayı derin sahtekarlık olarak hızla göz ardı ediyor. Bu da çevrimiçi ortamda gerçek olana olan güvenin daha da erozyona uğramasına yol açıyor.
Bunlar, University College Cork’tan araştırmacıların PLOS ONE dergisinde yayınlanan yakın tarihli bir çalışmanın parçası olarak gözlemlediği bulgulardan bazılarıydı. Araştırmacılar, deepfake’lerin savaş zamanı yanlış bilgilendirme ve propagandasında oynayabileceği rolü analiz etmek amacıyla 2022’nin ilk yedi ayında gönderilen yaklaşık 5.000 tweet’i seçti. Bu, savaş zamanında deepfake’lerin etkisini ampirik olarak analiz eden türünün ilk çalışması.
Çalışma, yapay zeka tarafından manipüle edilmiş çok sayıda medya görseli ve videosunu ortaya çıkarsa da, deepfake’leri tartıştığı iddia edilen tweetlerin şok edici bir kısmı, aslında kullanıcıların gerçek, meşru görselleri ve videoları dijital olarak değiştirilmiş olarak yanlış bir şekilde nitelendirmesini içeriyordu. Türünün ilk örneği olan bulgular, derin sahte videoların çevrimiçi ortamda artan kalitesinden ve yaygınlaşmasından korkan geçmiş deepfake araştırmacılarının korkularını güçlendirecek yeni kanıtlar ekliyor; Kötü aktörler, bir videonun “deepfake” olduğunu iddia ederek onu göz ardı edebilir.
“Bulduğumuz şey insanların bunu kullandığıydı [the term deepfake] UCC Uygulamalı Psikoloji Okulu araştırmacısı ve çalışmanın ortak yazarı John Twomey, Gizmodo’ya “çevrimiçi insanlara saldırmak için moda bir kelime olarak” dedi. Deepfake’ler, tıpkı daha önceki “bot” veya “sahte haber” terimleri gibi, medyaya veya kullanıcıların kesinlikle katılmadığı bilgilere karşı silah olarak kullanılıyor.
“BT [the study] insanların deepfake fikrini nasıl kullandıklarını ve birçok açıdan gerçek medyaya karşı aşırı şüpheci hale geldiklerini vurguluyor, özellikle de deepfake’lerin bu kadar yaygın olmadığı zamanlarda.” diye ekledi. “Daha fazla insan deepfake’lerin aslında yaygın olmasının aksine farkında.
Bu uyumsuzluğun büyük kısmı haber medyasının konuyu aşırı ele almasından kaynaklanıyor. İronik bir şekilde, derin sahtekarlıkların tehlikeleri konusunda uyarıda bulunan gazetecilerin iyi niyetli haberleri, istemeden de olsa genel olarak medyaya olan güvenin kötüleşmesine katkıda bulunabilir.
Araştırmacılar, “Haberlerin derin sahtekarlıklara odaklanmasının şu anda karşı karşıya olduğumuz tehditle orantısız olup olmadığını ve bu tepkinin daha fazla güvensizlik yaratıp yaratmadığını ve epistemik bir krize katkıda bulunup bulunmadığını değerlendirmemiz gerekiyor” diye yazdı.
Araştırma ne buldu?
Uygun bir şekilde “başlıklı” çalışmaDeepfake Videolar Epistemik Güvenimizi Zayıflatıyor mu??” savaş zamanında deepfake tartışmalarının kamuoyunun bilgisini ve paylaşılan gerçeği nasıl azaltabileceğini analiz etmeye çalıştı. Araştırmacı, Twitter’ın API’sini kullanarak, 1 Ocak 2022 ile aynı yılın 1 Ağustos’u arasında deepfake’leri tartışan 4869 ilgili tweet’i çekti. Twomey, araştırmacıların Twitter’a odaklanmaya karar verdiklerini çünkü Twitter’ın derin sahtekarlıkların veya bunlarla ilgili tartışmaların çoğalabileceği diğer sosyal medya platformlarına kıyasla gazetecilik ve siyasi aktivizme daha fazla odaklanma eğiliminde olduğunu söylüyor.
Araştırmacı, Rusya’nın işgalinden önceki haftalarda Twitter’da deepfake ile ilgili içerikte bir artış olduğunu, haber sitelerinin ve yorumcuların Putin’in askeri harekatı meşrulaştırmak için değiştirilmiş medyayı kullanıp kullanmayacağına dair spekülasyonlar yaptığını gördü. Deepfake ile ilgili en fazla tweet 14-16 Mart arasında, yani Zelensky ve Putin videolarının ilgi görmeye başladığı dönemde ortaya çıktı. Zelensky’nin tweet’ine yanıt veren Twitter kullanıcılarının çoğu deepfake’in kalitesini eleştirse de, diğerleri korkuyla bunu potansiyel yeni bir savaş silahı olarak tanımladı.
Tweetlerden birinde “Derin sahte Keanu Reeves’in yalnızca aptalca videolarını görmüş olsaydınız, derin sahtekarlıkların zararsız olduğunu düşünürdünüz” yazıyordu. Bir kullanıcı, “Maalesef deepfake’ler yeni ve kötü niyetli bir propaganda türü olabilir” diye tweet attı. “Bunu şimdi Rus ve Ukraynalı liderlerin deepfakelerinde gördük.”
Zelensky’nin deepfake’i özellikle endişe vericiydi çünkü saygın bir haber kaynağı olan Ukraynalı 24’ten geliyordu. Haber istasyonu iddialar Web yayınlarından birinde ortaya çıkan deepfake, Rus hükümetine atfedilen kötü niyetli bir hacklemenin sonucuydu. Rusya, sözde hacklemeyi hiçbir zaman üstlenmedi. Zelensky’nin kendisi hızla bir takip videosu yayınladı Deepfake’i bozdu, ancak ancak sosyal medyada dikkat çektikten sonra. Bu videonun kalitesi, teknolojideki ilerlemeler sayesinde iyileştirilmiş olsaydı hızla gelişen üretken yapay zeka modelleri, çok daha fazla zarar verebilirdi.
Araştırmacılar, “Videonun kaynağı olan çevrimiçi bilgilerin doğruluğunun ve güvenilirliğinin olağan göstergesi, hack tarafından zayıflatıldı” diye yazdı. “Video daha gerçekçi olsaydı ve daha geniş çapta inanılsaydı, daha zararlı bir etkisi olabilirdi.”
‘Deepfake savunması’ ivme kazanıyor
Kötü aktörler ve yalancılar zaten “derin sahte savunmalar” olarak adlandırılan savunmaları kullanıyor. kendilerini sorumluluktan kurtarmaya çalışın. 6 Ocak’ta Kongre Binası’na düzenlenen saldırılara karışan bir isyancıyı temsil eden avukatlar daha önce jüriyi şuna ikna etmeye çalışmıştı: Video görüntüleri Duruşmada müvekkilinin kılıflı bir silahla barikatın üzerinden atladığını açıkça gösteren bir video aslında bir deepfake idi. Sonunda suçlu bulundu ve yedi yıl hapis cezasına çarptırıldı.
Yakın zamanda gerçekleşen başka bir davada, temsil eden bir avukat Elon Musk Milyarderin 2016’da yaptığı, araçlarının “bir insandan daha güvenli” şekilde otonom olarak hareket edebileceğini iddia ettiği meşru ve geniş kapsamlı bir röportajına şüphe uyandırmak için deepfake savunmasını harekete geçirmeye çalıştı. Bu durumda hakim Avukatın manevralarını seslendirdibunu hukuk sistemine kalıcı zarar verebilecek “derinden rahatsız edici” bir gizleme olarak nitelendirdi. Gizmodo yakın zamanda “deepfake tezahürat anneBir gencin onu yanlışlıkla elektronik sigara kullandığını gösteren bir videoyu manipüle etmekle suçlamasının ardından kendisini küresel bir medya saldırısının kurbanı olarak bulan kişi. Video gerçekti.
Başarılı olsun ya da olmasın tüm bu vakalar, gerçeklik hakkında şüphe uyandırmak için derin sahtekarlıkların yaygınlığına dair kamuoyunun endişelerini kullanmaya çalışıyor. Akademisyenlerin “yalancının payı” olarak adlandırdığı bu olgunun, savaş zamanlarında feci sonuçları olabilir.
İnin kâr payının savaş zamanı versiyonlarının çeşitleri şu anda Gazze’de gerçek zamanlı olarak oynanıyor; burada, sözde derin sahte görüntüler ve videoların sahte olduğu iddia edilen hızlı hikayeler incelemeye dayanmıyor. Daha geniş çapta kamuoyuna duyurulan örneklerden birinde yorumcular, yanmış bir İsrailli bebeği tasvir eden bir görselin, bir kişi tarafından asılsız olarak etiketlenmesinin ardından yapay zeka tarafından üretilen propagandanın ürünü olduğunu iddia etti. üretken yapay zeka görüntü dedektörü. Ancak görüntünün daha ileri analizleri, bunun neredeyse kesinlikle orijinal. İsrail yanlısı yorumcular, Filistin yanlısı aktivistler tarafından yayınlanan meşru medyayı, bunların deepfake olduğunu iddia ederek itibarsızlaştırmaya çalıştı.
Twomey, Rusya-Ukrayna ihtilafına ilişkin bulgularının mevcut bilgi fırtınası hakkında ne önerebileceği konusunda spekülasyonda bulunmadı ancak araştırmasının derin sahtekarlıkların ve bunların inkarlarının savaş zamanlarında kafa karışıklığı yaratmak için kullanılabilecek bir şey olduğunu kanıtladığını söyledi.
Twomey, “Bu çalışmadaki kanıtlar, derin sahtekarlıklar konusunda farkındalığı artırma çabalarının meşru videolara olan güvenimizi zayıflatabileceğini gösteriyor” dedi. “Deepfake’lerin çevrimiçi yaygınlığıyla birlikte bu durum, gerçek medyada şüphe uyandırmaları durumunda şüpheli deepfake’leri nasıl etiketleyecekleri konusunda dikkatli olması gereken haber medyası şirketleri için artan zorluklara neden olacak.”