Rashmika Mandanna ve Katrina Kaif’in ardından, Kajol’a dayanan deepfake bir video, sosyal medyada viral oldu. Yapay zeka ile çalışmanın ve kendi botlarınızı yaratmanın ne kadar ucuz ve kolay hale geldiği göz önüne alındığında, bu tür derin sahtekarlıklar daha da yaygın hale gelecektir.

Bollywood oyuncusu Kajol’un bu hafta başında sosyal medyada viral olan bir kıyafete dönüşürken tasvir edildiği iddia edilen videonun deepfake olduğu ortaya çıktı. Facebook, X (eski adıyla Twitter) ve YouTube gibi büyük sosyal medya platformlarında geniş çapta yayılan yanıltıcı video, aslında oyuncuya değil, bir sosyal medya fenomenine aitti.

Bu açıklama, kendisine benzer bir şey yaşayan popüler aktris Rashmika Mandanna’nın yanı sıra deepfake’i son filminden bir sahne kullanılarak yapılan Katrina Kaif’i yanlış bir şekilde tasvir eden, daha önce viral olan bir videonun tetiklediği, deepfake ile ilgili artan endişe dalgasının ortasında geldi.

Bir gerçek kontrol platformu, Kajol’un yer aldığı deepfake videonun orijinalinde bir sosyal medya fenomeninin yer aldığını doğruladı. Kajol’un yüzü dijital olarak görüntüye aktarıldı. Biçimlendirilmiş deepfake videoda bir an için gerçek kadının yüzü görünür hale geliyor.

İlgili Makaleler

Teknoloji konuşması:

TechTalk: Rashmika Mandanna, Katrina Kaif buzdağının görünen kısmını sahteleştiriyor, Hindistan’ın uygulanabilir bir yasaya ihtiyacı var

Teknoloji konuşması:

Deepfake’ler düzenlenebilir mi? Hindistan kanunları ne diyor

Rapor, ilk videonun popüler “Benimle Hazır Olun” (GRWM) trendinin bir parçası olarak ilk olarak 5 Haziran’da TikTok’a yüklendiğini, ancak orijinal yaratıcının kimliğinin belirlenmediğini gösteriyor.

Yalnızca manipüle edilmiş videoları değil aynı zamanda görüntüleri ve sesleri de içeren deepfake’ler, esas olarak açık içerik ve siyasi mesajlar biçiminde giderek daha yaygın hale geliyor ve bunlar daha sonra yanlış bilgilendirme için kullanılıyor.

Bu durum toplumsal normlara ciddi bir meydan okuma teşkil ediyor. Rashmika Mandanna’nın dahil olduğu deepfake olayıyla ilgili çıkan kargaşanın ardından Hindistan hükümeti, büyük sosyal medya platformlarına bir tavsiye yayınlayarak deepfake’lere karşı hızlı hareket edilmesi ve yanlış bilgi yayan içeriğin kaldırılması çağrısında bulundu.

Platformların bu tür içerikleri şikayette bulunulduktan sonraki 36 saat içinde kaldırması bekleniyor. Ancak yapay zeka ve derin sahtekarlıklarla ilgili mevcut düzenlemeler yetersiz kalabilir.

Sophos Saha CTO’su Aaron Bugal, genellikle kamuya açık sosyal medya profillerinden türetilen derin sahte içeriklerin oluşturulmasında gelişmiş yapay zekanın rolünü vurguluyor. Profillerin özel ayarlarla sınırlandırılması maruz kalmayı azaltsa da, bilinen kişiler tarafından yeniden paylaşılması veya kötüye kullanılması endişe yaratmaya devam ediyor. Bugal, Hindistan Elektronik ve Bilgi Teknolojileri Bakanlığı’nın (MeitY) tavsiyesinin önemini vurgulayarak, sosyal medya şirketlerini, derin sahte içeriğin derhal kaldırılmaması nedeniyle güvenli liman haklarının kaybı da dahil olmak üzere potansiyel cezalar konusunda uyardı.

Koruyucu bir önlem olarak Bugal, güvenilir içeriği doğrulamak için dijital olarak imzalanmış videoların kullanılmasını öneriyor ve bunu web sitesi güvenliğini ve e-posta iletişimlerini doğrulayan sertifikalara benzetiyor. Teknolojinin sürekli gelişmesi ve deepfake kalitesindeki gelişmelerle birlikte, orijinal ve değiştirilmiş içerik arasında ayrım yapmak giderek zorlaşabilir ve güvenilir bir doğrulama süreci gerektirebilir.

Markalarını tanıtmak için halka açık bir kişiliğe sahip olan ünlüler, deepfake risklerini azaltma konusunda belirli zorluklarla karşı karşıya kalıyor. Bugal, bireyleri adları veya markaları çevrimiçi ortamda geçtiğinde anında bilgilendirmek için Google Alerts ve BING News Alerts gibi araçları kullanarak proaktif izleme yapılmasını önerir. Bu, yayından kaldırma eylemleri veya kamuya açık düzeltmeler yoluyla hızlı soruşturmalara ve yanlış beyanlara yanıt verilmesine olanak tanır.



genel-5