Siyasi amaçlı derin sahtekarlıklardaki hızlı artışın ortasında, Güney Kore Ulusal Polis Teşkilatı (KNPA), potansiyel suç soruşturmalarında kullanılmak üzere yapay zeka tarafından oluşturulan içeriği tespit etmek için bir araç geliştirdi ve uygulamaya koydu.

KNPA’nın Ulusal Soruşturma Ofisi’ne (NOI) göre derin öğrenme programı, 5.400 Kore vatandaşından elde edilen yaklaşık 5,2 milyon veri parçasıyla eğitildi. Bir videonun (önceden eğitilmediği) gerçek olup olmadığını yalnızca beş ila 10 dakika içinde, yaklaşık %80’lik bir doğruluk oranıyla belirleyebilir. Araç, polisin cezai soruşturmalarda kullanabileceği bir sonuç sayfasını otomatik olarak oluşturuyor.

Kore medyasının bildirdiğine göreBu sonuçlar soruşturmalara bilgi sağlamak için kullanılacak ancak ceza davalarında doğrudan delil olarak kullanılmayacaktır. Polis ayrıca akademi ve iş dünyasındaki yapay zeka uzmanlarıyla işbirliğine de yer açacak.

Yapay zeka güvenlik uzmanları, yanlış bilgilerin ve derin sahtekarlıkların tespit edilmesi de dahil olmak üzere yapay zekanın iyilik amaçlı kullanılması çağrısında bulundu.

“Mesele şu: Yapay zeka analiz etmemize yardımcı olabilir [false content] Check Point’in CEO’su Gil Shwed, Dark Reading’e bu hafta verdiği bir röportajda şöyle konuştu: “Her ne kadar bir hastalık olsa da, aynı zamanda çare de yapay zekadır: “[Detecting fraud] eskiden çok karmaşık teknolojiler gerektiriyordu, ancak yapay zeka ile aynı şeyi yalnızca iyi ve büyük miktarda bilgiyle değil, minimum miktarda bilgiyle de yapabilirsiniz.”

Kore’nin Deepfake Sorunu

Dünyanın geri kalanı deepfake beklentisiyle beklerken seçim sezonlarını istila etmekKoreliler zaten sorunla yakından ve kişisel olarak ilgileniyorlar.

Kömür madenindeki kanarya, 2022’deki eyalet seçimleri sırasında, Başkan Yoon Suk Yeol’un iktidar partisi için yerel bir adayı desteklediğini gösteren bir videonun sosyal medyada yayılmasıyla meydana geldi.

Bu tür aldatma son zamanlarda daha yaygın hale geldi. Geçen ay, ülkenin Ulusal Seçim Komisyonu 29 Ocak ile 16 Şubat arasında seçimin yapılacağını açıkladı. 129 deepfake tespit edildi seçim yasalarını ihlal ediyor; bu rakamın ancak 10 Nisan Seçim Günü yaklaştıkça artması bekleniyor. Bütün bunlar, 29 Ocak’ta yürürlüğe giren ve seçimlerle bağlantılı olarak derin sahte video, fotoğraf veya ses kullanımının bir vatandaşa yedi yıla kadar hapis ve 50 milyon won’a kadar para cezası kazandırabileceğini belirten revize edilmiş yasaya rağmen (yaklaşık 37.500 dolar).

Sadece Dezenformasyon Değil

Check Point’ten Shwed, her yeni teknoloji gibi yapay zekanın da riskleri olduğu konusunda uyardı. “Yani evet, olabilecek kötü şeyler var ve bunlara karşı kendimizi savunmamız gerekiyor” dedi.

Sahte bilgilerin o kadar da sorun olmadığını ekledi. “Genel olarak insan çatışmasındaki en büyük sorun resmin tamamını göremememizdir; unsurları seçeriz [in the news] Bunu görmek istiyoruz ve onlara dayanarak bir karar veriyoruz” dedi.

“Bu dezenformasyonla ilgili değil, önemli olan neye inandığınızla ilgili. Ve neye inandığınıza bağlı olarak hangi bilgiyi görmek istediğinizi siz seçersiniz. Tam tersi değil.”



siber-1