Halkın masum üyelerini istismar etmek için kullanıldığını bildiğiniz kişilerin seslerini taklit etmek için yapay zeka kullanan dolandırıcı aramalar. Bu çağrılar, bir kullanıcıdan gelen istemlere dayalı olarak metin, resim veya video gibi diğer ortamları oluşturabilen sistemlere atıfta bulunan üretken yapay zeka olarak bilinen şeyi kullanır.

Deepfakes, son birkaç yılda, aktris Emma Watson’ın benzerliğinin Facebook ve Instagram’da görünen bir dizi müstehcen reklamda kullanılması gibi bir dizi yüksek profilli olayla ün kazandı.

Ayrıca, Ukrayna cumhurbaşkanı Volodymyr Zelensky’nin Ukraynalılara “silahları bırakmalarını” söylediği 2022’den geniş çapta paylaşılan ve çürütülmüş bir video da vardı.

Şimdi, bir kişinin sesinin gerçekçi bir kopyası olan bir audio deepfake oluşturma teknolojisi giderek daha yaygın hale geliyor. Birinin sesinin gerçekçi bir kopyasını oluşturmak için algoritmayı eğitmek için verilere ihtiyacınız var. Bu, amaçlanan hedefinizin sesinin çok sayıda ses kaydına sahip olmak anlamına gelir. Algoritmalara besleyebileceğiniz kişinin sesine ne kadar çok örnek verirseniz, nihai kopya o kadar iyi ve ikna edici olacaktır.

Birçoğumuz zaten günlük hayatımızın ayrıntılarını internette paylaşıyoruz. Bu, bir sesin gerçekçi bir kopyasını oluşturmak için gereken ses verilerinin sosyal medyada kolayca bulunabileceği anlamına gelir. Ama bir kopyası çıktıktan sonra ne olur?

Olabilecek en kötü şey nedir?

Deepfake algoritması, verilere sahip olan herkesin “size” istediğini söylemesini sağlayabilir. Pratikte bu, bir metin yazmak ve bilgisayarın sizin sesinize benzeyen bir sesle yüksek sesle söylemesini sağlamak kadar basit olabilir.

Başlıca zorluklar

Bu yetenek, işitsel yanlış bilgilendirme ve dezenformasyonun yaygınlığını artırma riski taşır. Zelensky’nin “videolarında” görüldüğü gibi, uluslararası veya ulusal kamuoyunu etkilemeye çalışmak için kullanılabilir.

Ancak bu teknolojilerin her yerde bulunabilirliği ve kullanılabilirliği, özellikle artan “Yapay Zeka dolandırıcılığı çağrıları” trendinde olmak üzere yerel düzeyde de önemli zorluklar yaratıyor. Pek çok kişi, örneğin, bilgisayarımızın güvenliğinin ihlal edildiğini ve hemen oturum açmamız gerektiğini söyleyen bir dolandırıcılık veya kimlik avı araması almış olacak ve potansiyel olarak arayanın verilerimize erişmesine izin vermiş olacağız.

Bunun bir aldatmaca olduğunu anlamak genellikle çok kolaydır, özellikle arayan kişi yasal bir kuruluştan birinin yapmayacağı taleplerde bulunurken. Ancak, şimdi telefonun diğer ucundaki sesin sadece bir yabancı olmadığını, aynı zamanda bir arkadaş ya da sevilen biri gibi geldiğini hayal edin. Bu, şanssız alıcı için yepyeni bir karmaşıklık ve panik düzeyi enjekte eder.

CNN tarafından bildirilen yakın tarihli bir hikaye, bir annenin bilinmeyen bir numaradan arandığı bir olayı vurgulamaktadır. Telefonu açtığında arayan kızıydı. Kızının kaçırıldığı ve fidye talebini iletmek için annesine telefon ettiği iddia edildi.

Aslında, kız güvende ve sağlamdı. Dolandırıcılar onun sesini derin bir şekilde taklit etmişlerdi. Bu münferit bir olay değil, kurbanın bir kazadan sonra ailesinden para istediği sözde bir araba kazası da dahil olmak üzere dolandırıcılığın varyasyonları.

Yeni teknolojiyi kullanan eski numara

Bu kendi başına yeni bir dolandırıcılık değil, “sanal adam kaçırma dolandırıcılığı” terimi birkaç yıldır ortalıkta dolaşıyor. Pek çok şekilde olabilir, ancak yaygın bir yaklaşım, kurbanları tehdit edildiğine inandıkları sevdiklerini kurtarmak için fidye ödemeleri için kandırmaktır.

Dolandırıcı, aldatma keşfedilmeden önce kurbanın hızlı bir fidye ödemesini sağlamak için sorgusuz sualsiz itaat sağlamaya çalışır. Bununla birlikte, güçlü ve kullanılabilir AI teknolojilerinin doğuşu, bahsi önemli ölçüde artırdı ve işleri daha kişisel hale getirdi. İsimsiz bir arayana telefonu kapatmak bir şeydir, ancak tıpkı çocuğunuza veya eşinize benzeyen birinden gelen bir aramayı kapatmak, muhakemenize gerçekten güvenmenizi gerektirir.

Derin sahteleri belirlemek için kullanılabilecek ve sesin spektrogram adı verilen görsel bir temsilini oluşturacak bir yazılım var. Aramayı dinlerken gerçek kişiden ayırt etmek imkansız gibi görünebilir ancak spektrogramlar yan yana incelendiğinde sesler ayırt edilebilir. En az bir grup, indirme için algılama yazılımı sunmuştur, ancak bu tür çözümler kullanmak için yine de bazı teknik bilgiler gerektirebilir.

Çoğu insan spektrogram üretemez, bu yüzden duyduklarınızın gerçek olduğundan emin değilseniz ne yapabilirsiniz? Diğer herhangi bir medya biçiminde olduğu gibi, karşılaşabilirsiniz: şüpheci olun.

Sevdiğiniz birinden durup dururken bir telefon alırsanız ve sizden para isterlerse veya karakterine aykırı görünen isteklerde bulunurlarsa, onunla gerçekten konuştuğunuzu doğrulamak için onu geri arayın veya bir mesaj gönderin.

Yapay zekanın yetenekleri genişledikçe, gerçeklik ile kurgu arasındaki çizgiler giderek daha fazla bulanıklaşacaktır. Ve teknolojiyi kutuya geri koyabilmemiz pek olası değil. Bu, insanların daha dikkatli olmaları gerektiği anlamına gelir.


Nothing Phone 2, Phone 1’in halefi olarak mı hizmet edecek yoksa ikisi bir arada mı olacak? Şirketin yakın zamanda piyasaya sürdüğü cep telefonunu ve daha fazlasını Orbital’in son bölümü olan Gadgets 360 podcast’inde tartışıyoruz. Orbital şu ​​adreste mevcuttur: spotify, Gaana, JioSaavn, Google Podcast’leri, Apple Podcast’leri, Amazon Müzik ve podcast’lerinizi nereden alırsanız alın.
Ortaklık bağlantıları otomatik olarak oluşturulabilir – ayrıntılar için etik beyanımıza bakın.



genel-8