Telefondaki ses korkutucu derecede gerçekti – Amerikalı bir anne, bir adam gelip fidye talep etmeden önce kızının ağladığını duydu. Ama kız bir AI klonuydu ve kaçırılma sahteydi.

Uzmanlara göre Yapay Zekanın en büyük tehlikesi, siber suçlulara dezenformasyon yaymak için ucuz ve etkili bir teknoloji sunarak gerçeklik ile kurgu arasındaki sınırları yıkma yeteneğidir.

ABD makamlarını sarsan yeni bir tür dolandırıcılıkta, dolandırıcılar, aile üyelerinin kimliğine bürünerek insanlardan çalmak için çarpıcı derecede ikna edici AI ses klonlama araçlarını (çevrimiçi olarak yaygın olarak bulunur) kullanıyor.

Arizona’da yaşayan bir anne olan Jennifer DeStefano, hattın diğer ucundan “Yardım et anne, lütfen bana yardım et,” diyen bir ses duydu.

DeStefano, bir kayak gezisindeyken derin bir sıkıntı içinde olan 15 yaşındaki kızı olduğuna “yüzde 100” ikna olmuştu.

DeStefano, Nisan ayında yerel bir televizyon kanalına “Asla bunun kim olduğu sorusu olmadı? Tamamen onun sesiydi … böyle ağlardı” dedi.

“O olduğundan bir saniye bile şüphe duymadım.”

DeStefano’ya yabancı bir numaradan gelen aramayı devralan dolandırıcı, 1 milyon dolara kadar (kabaca Rs. 8.2 crore) talep etti.

Yapay zeka destekli oyun, DeStefano’nun kızıyla bağlantı kurmasıyla dakikalar içinde sona erdi. Ancak şu anda polis soruşturması altında olan korkunç vaka, siber suçluların AI klonlarını kötüye kullanma potansiyelinin altını çizdi.

Büyük ebeveyn dolandırıcılığı

Blackbird.AI CEO’su Wasim Khaled, AFP’ye verdiği demeçte, “Artık insan konuşmasından neredeyse ayırt edilemeyen yapay zeka ses klonlaması, dolandırıcılar gibi tehdit aktörlerinin kurbanlardan daha etkili bir şekilde bilgi ve fon almasına olanak tanıyor.”

Basit bir internet araması, çevrimiçi yayınlanan içerikten kolayca çalınabilen bir kişinin gerçek sesinin küçük bir örneğiyle (bazen sadece birkaç saniye) yapay zeka sesleri oluşturmak için çoğu ücretsiz olarak sunulan çok çeşitli uygulamalar sunar.

Khaled, “Küçük bir ses örneğiyle, sesli mesajlar ve sesli metinler bırakmak için bir AI ses klonu kullanılabilir. Hatta telefon görüşmelerinde canlı bir ses değiştirici olarak kullanılabilir” dedi.

“Dolandırıcılar farklı aksanlar, cinsiyetler kullanabilir ve hatta sevdiklerinin konuşma kalıplarını taklit edebilir. [The technology] ikna edici derin sahtekarlıkların yaratılmasına izin verir.”

Amerika Birleşik Devletleri de dahil olmak üzere dokuz ülkeden 7.000 kişiyle yapılan küresel bir ankette, dört kişiden biri bir AI ses klonlama dolandırıcılığı yaşadığını veya yaşamış birini tanıdığını söyledi.

ABD merkezli McAfee Labs tarafından geçen ay yayınlanan ankette, yanıt verenlerin yüzde yetmişi “klonlanmış bir ses ile gerçek ses arasındaki farkı anlayabileceklerinden” emin olmadıklarını söyledi.

Amerikalı yetkililer, halk arasında “büyükbaba dolandırıcılığı” olarak bilinen – bir sahtekarın zor bir durumda acil paraya ihtiyacı olan bir torun kılığına girdiği – bir artış konusunda uyarıda bulundular.

ABD Federal Ticaret Komisyonu, “Bir telefon alırsınız. Hatta paniklemiş bir ses var. Gelen torununuz. Başının büyük belada olduğunu söylüyor – arabayı mahvetti ve hapse girdi. Ancak para göndererek yardımcı olabilirsiniz” dedi. Mart ayında bir uyarıda.

“Tıpkı ona benziyor. Nasıl dolandırıcılık olabilir? Ses klonlama, işte böyle.”

FTC’nin uyarısının altındaki yorumlarda, bu şekilde kandırılan yaşlı insanların çok sayıda ifadesi vardı.

“Kötü niyetli”

Bu aynı zamanda Chicago’da 19 yaşındaki Eddie’nin deneyimini de yansıtıyor ve büyükbabası tıpkı onun gibi konuşan birinden bir araba kazasından sonra paraya ihtiyacı olduğunu iddia eden bir telefon aldı.

McAfee Labs tarafından bildirilen hile o kadar inandırıcıydı ki, büyükbabası acilen para toplamaya başladı ve hatta yalan ortaya çıkmadan önce evini yeniden ipotek etmeyi düşündü.

UC Berkeley School of Information’da profesör olan Hany Farid, AFP’ye “Çünkü son derece gerçekçi ses klonları oluşturmak artık çok kolay… herhangi bir çevrimiçi varlığa sahip neredeyse herkes bir saldırıya karşı savunmasız durumda.”

“Bu dolandırıcılıklar ilgi görüyor ve yayılıyor.”

Bu yılın başlarında, yapay zeka girişimi ElevenLabs, kullanıcıların Adolf Hitler’in “Mein Kampf” biyografisini okuyan aktör Emma Watson’a ait olduğu iddia edilen derin sahte bir ses yayınlamasının ardından, ses klonlama aracının “kötü amaçlarla” kötüye kullanılabileceğini kabul etti.

Risk sermayesi firması Team8’in grup baş teknoloji sorumlusu Gal Tal-Hochberg, AFP’ye verdiği demeçte, “İnternette gördüğünüz şeylere güvenemeyeceğiniz bir noktaya hızla yaklaşıyoruz” dedi.

“Konuştuğunuzu sandığınız kişinin aslında konuştuğunuz kişi olup olmadığını anlamak için yeni teknolojiye ihtiyacımız olacak” dedi.


Motorola Edge 40, geçtiğimiz yıl piyasaya sürülen Edge 30’un halefi olarak kısa süre önce ülkede görücüye çıktı. Nothing Phone 1 veya Realme Pro+ yerine bu telefonu satın almalı mısınız? Bunu ve daha fazlasını Gadgets 360 podcast’i Orbital’de tartışıyoruz. Orbital şu ​​adreste mevcuttur: spotify, Gaana, JioSaavn, Google Podcast’leri, Apple Podcast’leri, Amazon Müzik ve podcast’lerinizi nereden alırsanız alın.
Ortaklık bağlantıları otomatik olarak oluşturulabilir – ayrıntılar için etik beyanımıza bakın.



genel-8