Size yakın birinin bir sorunu olduğunu bildiren bir telefon aldığınızı hayal edin. İçgüdüleriniz muhtemelen size banka havalesi yapmak da dahil olmak üzere yardım etmek için elinizden gelen her şeyi yapmanızı söyleyecektir.

Dolandırıcılar bu Aşil topuğunun farkındalar ve şimdi bundan yararlanmak için yapay zekayı kullanıyorlar.

bir makale Washington postası Bu tür bir kimlik hırsızlığı dolandırıcılığının kurbanı olan yaşlı bir çift olan Ruth ve Greg Card’ı konu alıyor.

11 milyon dolar buhar oldu

73 yaşındaki Ruth, torunu olduğunu düşündüğü birinden bir telefon aldı. Ona cüzdanı veya cep telefonu olmadan hapiste olduğunu ve acilen paraya ihtiyacı olduğunu söyledi. Endişeli herhangi bir büyükanne veya büyükbaba gibi, Ruth ve kocası (75) bankaya koştu.

Yönetici, ancak ikinci bir bankaya gittikten sonra, daha önce bir dolandırıcılık olduğu ortaya çıkan benzer bir vaka gördüğü konusunda onları uyardı. Ve hikayelerinin de bir aldatmaca gibi göründüğünü.

Ve bu münferit bir vaka değil. Makale, 2022’de kimliğe bürünme dolandırıcılığının Amerika Birleşik Devletleri’ndeki en popüler ikinci dolandırıcılık türü olduğunu ve 36.000’den fazla kişinin, arkadaşlarının veya aile üyelerinin kimliğine bürünen aramaların kurbanı olduğunu belirtiyor. Bu dolandırıcılıkların 5.100’ü telefon üzerinden gerçekleşti. FTC’ye göre kurbanlara 11 milyon doları boşaltan şey.

Orijinal kaynaktan neredeyse ayırt edilemez ses

Üretken yapay zeka, OpenAI’nin ChatGPT ve DALL-E gibi programlarının artan popülaritesi nedeniyle son zamanlarda çok popüler oldu. Bu programlar, kullanıcı üretkenliğini artırma yetenekleriyle hızlı bir şekilde ilişkilendirildi.

Ancak, bu dilbilimsel modelleri eğitmek için kullanılan tekniklerin aynıları, yapay zeka ses üreteçleri gibi daha zararlı programları zararlı amaçlarla eğitmek için kullanılabilir.

Bu programlar, bir kişinin sesini analiz eder ve sesin perdesi ve aksanı gibi benzersiz sesini neyin oluşturduğunu bulur ve ardından onu sentetik bir ses olarak yeniden oluşturur. Bu araçların birçoğu saniyeler içinde çalışır ve orijinal kaynaktan neredeyse ayırt edilemeyen ses üretebilir.

Kendinizi yapay seslerden korumak için yapabilecekleriniz

Peki tuzağa düşmemek için ne yapabilirsiniz? Yapılacak ilk şey, bu tür bir aramanın mümkün olduğunun farkında olmaktır.

Yakınınızdan biri yardım isterse, onun adına konuşanın bir robot olabileceğini unutmayın. Akraba olduğundan emin olmak için kaynağı doğrulamayı deneyin.


  • Arayan kişiye kişisel bir soru sormayı deneyin cevabını sadece sevdiğin kişinin bileceği. Ona evcil hayvanınızın adını, bir aile üyesini veya başka bir çok kişisel gerçeği sormak olabilir.
  • ayrıca yapabilirsin sevdiğiniz kişinin yerini kontrol edin söylediği yerle eşleşip eşleşmediğini görmek için. Bugün konumunuzu arkadaşlarınızla ve ailenizle paylaşmak yaygın bir uygulamadır ve bu durumda çok yararlı olabilir.
  • ayrıca yapabilirsin sevdiğiniz kişiyi başka bir telefondan aramayı veya mesaj atmayı deneyin arayanın kimliğini doğrulamak için. Sevdiğiniz kişi telefonu açarsa veya mesaj atarsa ​​ve neden bahsettiğinizi bilmiyorsa, yanıt sizdedir.

Son olarak, herhangi bir önemli mali karar vermeden önce, en iyi eylem planı hakkında tavsiye almak için yetkililerle iletişime geçmeyi düşünün.


Kaynak : “ZDNet.com”



genel-15