Yapay zeka (AI) hayatımızı birçok yönden kolaylaştırabilir. Ancak teknolojik gelişmeler riskleri de beraberinde getiriyor. Yeni bir telefon dolandırıcılığı artık yapay zeka tarafından üretilen ve kafa karıştırıcı bir şekilde gerçek insanlara benzeyen seslere dayanıyor. ABD’deki suçlular -ihtiyaç sahibi oldukları iddia edilen akrabalar kılığına girerek- şimdiden çok sayıda masum kurbanı kandırmayı başardılar.

SMS veya Whatsapp yoluyla yapılan dolandırıcılıkların bu kadar başarılı olmasının nedeni, hemen hemen herkesin kısa mesajların arkasında olabilmesidir. Bu aynı zamanda, dolandırıcıların yazılı olarak yakın akraba gibi davrandıkları sözde torun numarası için de geçerlidir. Özellikle hafızası artık tam olarak yerinde olmayan ve teknolojiyle sorunları olabilecek yaşlı insanların huzursuz olması nispeten kolaydır. Yani bir kişi, acil bir durumda olduğu söylenen sözde torundan bir mesaj alırsa, çanta hızla çekilir. Telefon dolandırıcılığı ise mağdur olduğu iddia edilen akrabanın sesini yabancı olarak algıladığı için başarısız olabilir. Ancak, yapay zeka tarafından üretilen seslerin yardımıyla, suçluların artık üstesinden gelebilecekleri tam da bu engeldir.

AI ile ses taklidi – nasıl çalışır?

AI, insan zekasının taklidi anlamına gelir. Programlara beslenen ve onlar tarafından işlenen eğitim verilerinin yardımıyla AI, soruları yanıtlayabilir ve kendisi için ileriyi düşünebilir. Yaygın uygulama alanları, örneğin, kullanıcıların akış davranışlarına veya akıllı telefonların yüz ve ses tanıma işlevine dayanan Netflix ve Co.’nun öneri sistemleridir. Kolombiyalı bir yargıç geçtiğimiz günlerde yapay zeka botu ChatGPT tarafından yazdığı bir kararı okudu.

AI’nın yetenekleri, kısa ses örnekleri kullanarak insanların seslerini içselleştirmek ve aslına sadık bir şekilde taklit etmek için hala yeterlidir. Bu amaçla geliştirilen yazılım, günlük gazetede yer alan güncel bir habere göre, bir sesi benzersiz kılanın ne olduğunu analiz ediyor”Vaşington Postası”. Ayrıca, kişinin tahmini yaşını ve cinsiyetini ve ayrıca herhangi bir özelliği (örn. konuşma engelleri, aksanlar) dikkate alırlar. Bu temelde, AI, şablona en çok benzeyen muazzam bir ses veritabanından bir ses seçer.

ABD’de çok sayıda dolandırıcılık vakası

Gazetenin ayrıca bildirdiği gibi, yapay zeka tarafından üretilen seslerle yapılan sahte aramalar şu anda ABD içinde artıyor. Kart çiftinin durumu sunuldu, 73 yaşında ve 75 yaşında. Sözde torunları Brandon tarafından acil bir kefalet parası talebiyle hapishaneden çağrıldılar. Sonuç olarak, korkan büyükanne ve büyükbabalar, birkaç finans kuruluşunu ziyaret etmek ve hesaplarından mümkün olan en yüksek tutarı çekmek isterler. Bu durumda, bankalardan birinin yöneticisi daha da kötüsünü önleyebildi. Diğer müşterilerden soyguncunun silahını zaten duymuş ve bu nedenle bunun bir dolandırıcılık olduğunu ifşa etmişti. Başka bir yaşlı çift ise dolandırıcının (iddia edilen oğlu) talep ettiği yaklaşık 15.000 doları tereddüt etmeden aktardı.

Bu tür münferit vakalar dikkate değer, büyük bir tablo oluşturuyor: Geçen yıl, ABD’deki dolandırıcılık çağrılarının toplamda yaklaşık 11 milyon ABD doları tutarında mali zarara yol açtığı söyleniyor.

Ayrıca ilgi çekici: Kimlik sahtekarlığı – kendinizi dolandırıcılıklardan bu şekilde korursunuz

Sesinizi taklit girişimlerinden koruyun

Almanya’dan ilgili vakalar henüz bilinmiyor. Ancak yapay zeka tarafından üretilen seslerle yapılan dolandırıcılığın burada da yolunu bulması muhtemelen an meselesidir. Bu nedenle, yanlışlıkla suç ortağı olmak istemiyorsanız, örneğin bilinmeyen veya gizlenmiş bir numaradan arandığınızda dikkatli olmalısınız. Çünkü ses taklidi yazılımı, gerçekçi bir taklitçi oluşturmak için yalnızca çok kısa şablonlara (örneğin, “merhaba, kim o?”) ihtiyaç duyar. Seslerini makaralarda veya videolarda çıkaran TikTok ve Co. kullanıcıları, dolandırıcıların hedefidir.



genel-25