Artık viral hale gelen sahte bir videoda dolandırıcılar, Sona Agarwal adında sahte bir Instagram hesabı kullandılar ve Ratan Tata’nın yer aldığı derin sahte bir video yayınlayarak takipçilerine garantili “yatırımları abartma” konusunda risksiz bir fırsat sundular.

Tanınmış iş adamı Ratan Tata, büyüyen deepfake teknolojisi trendinin kurbanı oldu.

Genellikle çekingen olan Tata Group’un eski başkanı, yakın zamanda yatırım tavsiyesi verirken kendisinin yanlış bir şekilde gösterildiği bir videoyu reddetmek için Instagram Stories’i kullandı.

Sona Agarwal adlı bir Instagram kullanıcısı tarafından paylaşılan videoda, Tata’nın sözde garantiyle takipçilerine risksiz bir “yatırımları abartma” fırsatı sunduğu öne sürülüyor.

İlgili Makaleler

Rashmika,

Rashmika, Katrina’nın buzdağının görünen kısmı, Ratan Tata’nın dolandırıcılar tarafından kullanılan sahte videosu

Rashmika,

Bilişim Bakanı, ‘Demokrasiye yeni bir tehdit’: Hükümetin deepfake ile mücadele için yakında yeni düzenlemeler yapacağını söyledi

Videoya eşlik eden başlık, izleyicileri bu sözde fırsattan yararlanmaya teşvik ediyordu. Tata, videoyu ve başlığını hem videoda hem de başlığın ekran görüntüsünde “SAHTE” olarak etiketleyerek yanıt verdi.

30 Ekim’de daha önce yaptığı bir uyarıda Tata, takipçilerini, adının veya görselinin kullanıldığı rastgele videolara güvenmemeleri konusunda uyarmıştı.

Özellikle, Uluslararası Kriket Konseyi’ne kriketçiler için para cezaları ve ödüllerle ilgili önerilerde bulunduğunu iddia ederek videoları yalanladı.

Tata, kriketle hiçbir ilgisi olmadığını açıkladı ve resmi platformlarından kaynaklanmadığı sürece benzer yanlış bilgilere inanmama tavsiyesinde bulundu.

Bu olay, tanınmış kişilerin yer aldığı ikna edici ancak sahte içerik oluşturmak için deepfake teknolojisinin giderek daha fazla kullanıldığını vurguluyor.

Bu olay, aktrisler Rashmika Mandanna, Katrina Kaif, Alia Bhatt ve ardından Priyanka Chopra’nın da dijital manipülasyonun kurbanı olduğu, internette dolaşan manipüle edilmiş videoların son zamanlardaki trendini takip ediyor.

Önceki örneklerden farklı olarak Chopra’nın değiştirilmiş videosu, onun benzerliğini tartışmalı içerik üzerine eklemedi; bunun yerine, meşru bir videodaki orijinal sesi ve replikleri, uydurma marka tanıtımıyla değiştirildi.

Aldatıcı içerik oluştururken yapay zekanın yaygın kullanımına ilişkin endişeler artarken, Ratan Tata gibi tanınmış kişiler, kimliklerini sosyal medya platformlarındaki istismara karşı korumak için tavır alıyor.

Bu olay, özellikle finansal planları onaylayan önde gelen şahsiyetlerin söz konusu olduğu durumlarda, kamuoyuna dikkatli davranması ve internette dolaşan bilgilerin doğruluğunu teyit etmesi konusunda net bir hatırlatma görevi görüyor.

(Kurumlardan gelen girdilerle)



genel-5