Yapay zeka (AI) tarafından oluşturulan deepfake dahil son olaylar Başkan Biden’ın kimliğine bürünen otomatik çağrı New Hampshire seçmenlerini ön seçimden kaçınmaya çağıran bu çağrı, kötü niyetli aktörlerin modern üretken yapay zeka (GenAI) platformlarını giderek ABD seçimlerini hedef almak için güçlü bir silah olarak gördüklerini açıkça hatırlatıyor.
ChatGPT, Google’ın Gemini (eski adıyla Bard) veya herhangi bir sayıda amaca yönelik olarak oluşturulmuş Dark Web büyük dil modelleri (LLM’ler) gibi platformlar, kitlesel etki kampanyalarını, otomatik trolling’i ve web sitelerinin çoğalmasını kapsayan saldırılarla demokratik süreci bozmada rol oynayabilir. derin sahte içerik.
Aslında FBI Direktörü Christopher Wray yakın zamanda dile getirilen endişeler yaklaşan başkanlık kampanyası sırasında dezenformasyon ekebilecek deepfake’ler kullanılarak devam eden bilgi savaşı hakkında devlet destekli aktörler Jeopolitik dengeler sarsılmaya çalışılıyor.
GenAI ayrıca “koordineli özgün olmayan davranış” Sahte haber kaynakları, ikna edici sosyal medya profilleri ve diğer yollar aracılığıyla dezenformasyon kampanyaları için izleyici kitlesi oluşturmaya çalışan ağlar; bu ağlar, anlaşmazlık tohumları ekerek halkın seçim sürecine olan güvenini sarsmayı amaçlıyor.
Seçim Etkisi: Önemli Riskler ve Kabus Senaryoları
CyberSaint’in baş inovasyon sorumlusu Padraic O’Reilly’nin bakış açısına göre risk “önemli” çünkü teknoloji çok hızlı gelişiyor.
“Deepfake teknolojisinden yararlanan yeni dezenformasyon çeşitlerini gördüğümüz için bu ilginç ve belki de biraz endişe verici olacağa benziyor” diyor.
O’Reilly, özellikle “kabus senaryosunun”, yapay zeka tarafından oluşturulan içerikle mikro hedeflemenin sosyal medya platformlarında çoğalacağı yönünde olduğunu söylüyor. Bu tanıdık bir taktik Cambridge Analytica skandalıŞirketin, inançlarını ve oylarını etkilemek amacıyla kişilere Facebook aracılığıyla son derece özel mesajlar sunmak için 230 milyon ABD’li seçmenin psikolojik profil verilerini topladığı yer. Ancak GenAI, bu süreci geniş ölçekte otomatikleştirebilir ve insanları rahatsız edebilecek “bot” özelliklerine çok az sahip olan oldukça ikna edici içerik oluşturabilir.
“Hedefleme verilerinin çalınması [personality snapshots of who a user is and their interests] Yapay zeka tarafından oluşturulan içerikle birleştirilmesi gerçek bir risktir” diye açıklıyor. “2013-2017 yılları arasındaki Rus dezenformasyon kampanyaları, başka nelerin olabileceğine ve olacağına dair fikir veriyor ve ABD vatandaşları tarafından oluşturulan deepfake’leri biliyoruz. [like the one] Biden’ın yer aldığı ve Elizabeth Warren“
Sosyal medyanın karışımı ve hazır deepfake teknolojisi Kendisi, bunun zaten derinden bölünmüş bir ülkede ABD vatandaşlarının kutuplaşması için bir kıyamet silahı olabileceğini de ekliyor.
O’Reilly, yani “alternatif gerçeklere” inanan insanlar, “Demokrasi belirli ortak geleneklere ve bilgilere dayanmaktadır ve buradaki tehlike vatandaşlar arasında artan balkanizasyondur, bu da Stanford araştırmacısı Renée DiResta’nın ‘ısmarlama gerçeklikler’ dediği şeye yol açmaktadır” diyor.
Tehdit aktörlerinin ayrılık tohumları ekmek için kullandıkları platformların pek bir faydası olmayacak: Örneğin, eskiden Twitter olarak bilinen sosyal medya platformu X’in içerikle ilgili kalite güvencesini (QA) ortadan kaldırdığını ekliyor.
“Diğer platformlar dezenformasyonla mücadele edeceklerine dair standart güvenceler verdi, ancak ifade özgürlüğünün korunması ve düzenleme eksikliği, alanı hala kötü aktörlere tamamen açık bırakıyor” diye uyarıyor.
Yapay Zeka Mevcut Kimlik Avı TTP’lerini Güçlendiriyor
GenAI halihazırda daha inandırıcı, hedefe yönelik kimlik avı kampanyalarını geniş ölçekte oluşturmak için kullanılıyor; ancak Tidal Cyber’ın siber tehdit istihbaratı direktörü Scott Small’a göre, seçim güvenliği bağlamında bu fenomen daha da endişe verici.
“Siber saldırganların, uzun yıllar boyunca tutarlı hacim açısından seçimle ilgili saldırıların önde gelen biçimleri olan kimlik avı ve sosyal mühendislik saldırılarını daha ikna edici hale getirmek ve hedeflerin kötü amaçlı içerikle etkileşime girme olasılığını artırmak için üretken yapay zekayı benimsediğini görmeyi bekliyoruz. ” açıklıyor.
Small, yapay zekanın benimsenmesinin, bu tür saldırıların başlatılmasına yönelik giriş engelini de azalttığını söylüyor; bu, diğer potansiyellerin yanı sıra, kampanyalara sızmaya veya kimliğe bürünme amacıyla aday hesapları ele geçirmeye çalışan kampanyaların hacmini bu yıl muhtemelen artıracak bir faktör.
“Suç ve ulus-devlet düşmanları, kimlik avı ve sosyal mühendislik tuzaklarını düzenli olarak güncel olaylara ve popüler temalara uyarlıyorlar ve bu aktörler, neredeyse kesinlikle, bu yıl genel olarak dağıtılan seçimle ilgili dijital içerik patlamasından, kötü niyetli yazılımlar sunmaya çalışacaklar.” içeriği şüphelenmeyen kullanıcılara sunuyor” diyor.
Yapay Zeka Seçim Tehditlerine Karşı Savunma
Bu tehditlere karşı savunma yapmak için seçim yetkilileri ve kampanyaları GenAI destekli risklerin ve bunlara karşı nasıl savunma yapılacağının farkında olmalıdır.
Optiv’in siber riskten sorumlu başkan yardımcısı James Turgal, “Seçim yetkilileri ve adaylar sürekli olarak tehdit aktörlerinin yapay zeka tabanlı deepfake’ler için önemli bilgiler alabileceği röportajlar ve basın toplantıları düzenliyor” diyor. “Bu nedenle, içerik üzerinde kontrol sağlamaktan sorumlu bir kişinin veya ekibin mevcut olduğundan emin olmak onların sorumluluğundadır.”
Ayrıca gönüllülerin ve çalışanların gelişmiş sosyal mühendislik gibi yapay zeka destekli tehditler, bunların arkasındaki tehdit aktörleri ve şüpheli faaliyetlere nasıl yanıt verileceği konusunda eğitildiğinden emin olmalıdırlar.
Bu amaçla personel, elektronik (e-posta, metin ve sosyal medya platformları), yüz yüze ve telefon tabanlı girişimler de dahil olmak üzere tüm formlar ve saldırı vektörleri hakkında bilgi içeren sosyal mühendislik ve deepfake video eğitimlerine katılmalıdır.
Turgal, “Bu çok önemli – özellikle gönüllüler söz konusu olduğunda – çünkü herkes iyi bir siber hijyene sahip değil” diyor.
Ek olarak, kampanya ve seçim gönüllüleri, sosyal medya gönderileri de dahil olmak üzere çevrimiçi olarak ve dışarıdaki kuruluşlara güvenli bir şekilde bilgi sağlama ve bunu yaparken dikkatli olma konusunda eğitilmelidir.
“Siber tehdit aktörleri, sosyal mühendislikle tasarlanmış yemleri belirli hedeflere göre uyarlamak için bu bilgiyi toplayabilir” diye uyarıyor.
O’Reilly uzun vadeli düzenlemelerin şunları içerdiğini söylüyor: ses ve video deepfake’leri için filigranlama Federal hükümetin korumaları devreye sokmak için Yüksek Lisans sahipleriyle birlikte çalıştığını belirterek, bunun faydalı olacağını belirtti.
Aslında, Federal İletişim Komisyonu (FCC) az önce açıkladı Yapay zeka tarafından üretilen sesli aramalar, Telefon Tüketicisini Koruma Yasası (TCPA) kapsamında “yapay” olarak nitelendiriliyor; bu durum, ses klonlama teknolojisinin kullanımını yasa dışı hale getiriyor ve ülke çapındaki eyalet başsavcılarına bu tür dolandırıcılık faaliyetleriyle mücadele etmek için yeni araçlar sağlıyor.
O’Reilly, “Yapay zeka o kadar hızlı hareket ediyor ki, teknoloji ilerledikçe önerilen kuralların etkisiz hale gelmesi ve potansiyel olarak hedefi kaçırması gibi doğal bir tehlike var” diyor. “Bazı açılardan burası Vahşi Batı ve yapay zeka pazara çok az korumayla geliyor.”