Siber suçluların kaynakları eksik değildir. Son zamanlarda, ikincisinin çevrimiçi iş görüşmeleri sırasında kimliğine bürünmek için deepfake teknolojisini kullandığı keşfedildi.

İnsanların ses, görsel ve video içeriğini yapay olarak yeniden yaratan “Deepfakes”, birkaç yıldır potansiyel bir kimlik hırsızlığı tehdidi olmuştur.

Bu iyi prova edilmiş dolandırıcılıklarla mücadele etmek için güvenlik araştırmacıları, bir deepfake ile uğraşıp uğraşmadığınızı belirlemenin basit bir yolunu buldu: muhatabınızdan yüzünü yana çevirmesini isteyin.

Deepfake’lerin kötü profili

Neden yandan? Çok basit, derin sahte için AI modelleri, bir kişinin yüzünü önden yeniden oluşturmada çok iyidir. Ancak profil görünümleri için hala karmaşık.

Metaphysics.ai, canlı deepfake videolarında 90° profil görünümlerini yeniden oluşturmanın dalgalı tarafını ortaya çıkardı ve yan profil doğrulamasını iş görüşmeleri yapan şirketler için çevrimiçi video konferans yoluyla basit ve etkili bir kimlik doğrulama prosedürü haline getirdi.

İş görüşmesine davetsiz misafirler

Geçen Haziran ayında FBI, Covid-19 salgını sırasında yaygınlaşan bir işe alım süreci olan video konferans yoluyla yapılan iş görüşmeleri sırasında giderek daha fazla deepfake kullanıldığı konusunda uyardı.

Spesifik olarak, hedeflenen görüşmeler, BT ve teknoloji personelini işe almayı amaçlayan görüşmelerdi. Böylece şirketlerin veritabanlarına değil, aynı zamanda müşterilerinin özel verilerine ve hatta özel bilgilere erişebilirler.

O sırada FBI, bir video konferanstaki katılımcıları, bir sahtekarın huzurunda olup olmadıklarını bilmek için video ve ses – öksürme, hapşırma, diğer sesler – arasındaki tutarsızlıkları belirlemeye teşvik etti. Ancak yan profil doğrulaması, herhangi bir görüntülü toplantıya başlamadan önce doğrulamanın daha hızlı ve kolay bir yolu olabilir.

Profil verisi eksikliği

Metaphsyics.ai için yazma, Martin Anderson, şirketin deneyimlerini detaylandırdı : Yapay kafa 90°’ye ulaştığında ve onu kullanan kişinin gerçek profilinin unsurlarını ortaya çıkardığında, yaratılan çoğu derin sahte açıkça başarısız olur. Bir profilin yeniden oluşturulması, profilde kaliteli eğitim verilerinin olmaması nedeniyle genellikle başarısız olur ve bu da derin sahte modelin eksikliği telafi etmek için birçok şey icat etmesine veya çizmesine neden olur.

Sorunun bir kısmı, derin sahte yazılımın bir yüzü yeniden oluşturmak için bir kişinin yüzündeki yer işaretlerini algılaması gerektiğidir. Algoritmalar, yana dönükken, önden görünüme kıyasla algılama için mevcut yer işaretlerinin yalnızca yarısına sahiptir.

Martin Anderson, bir yüzü yeniden oluşturmak için profil videosunu kullanmanın temel zayıflıklarının, 2D tabanlı yüz hizalama algoritmalarının sınırlamaları ve Hollywood yıldızları dışında çoğu insan için profil verilerinin olmaması olduğunu belirtiyor.

Deepfake avı

Bir video konferansta katılımcıların kimliğini doğrulamak için yan profili kullanmaktan yana olan Martin Anderson, muhtemelen sıradan insanlar için sürekli bir eğitim verisi sıkıntısı olacağına işaret ediyor. Gurur duymadıkları için profil fotoğrafları için çok az istek vardır ve bir yüz hakkında çok az duygusal bilgi sundukları için fotoğrafçılar bunları sağlamaya motive olmazlar.

Martin Anderson, “Mevcut verilerin bu kıtlığı, bir profili ikna edici bir şekilde çoğaltmak için derin bir model eğitmek için ünlü olmayan kişilerin yeterince çeşitli ve kapsamlı profil görüntülerini elde etmeyi zorlaştırıyor” diyor.

Deepfakes’teki bu zayıflık, görüntülü toplantılarda ‘sahte’ arayanları ortaya çıkarmanın potansiyel bir yolunu sunuyor; bu, yakın zamanda FBI tarafından ortaya çıkan olarak sınıflandırılan bir risk: Arayanın ‘derin sahte bir klon’ olabileceğinden şüpheleniyorsanız, daha fazlası için yanlara dönmeyi isteyebilirsiniz. bir veya iki saniyeden daha uzun bir süre ve görünüşünden hala ikna olup olmadığına bakın. »

10 biyometrik sistemden 9’u savunmasız

Kimlik doğrulama ve derin sahte algılama üzerinde çalışan SensityMayıs ayında, Müşterini Tanı (KYC) uyumluluğu için finansal hizmetlerde yaygın olarak benimsenen ve kullanılan biyometrik doğrulama sistemlerinin %90’ının derin sahte yüz takas saldırılarına karşı ciddi şekilde savunmasız olduğunu tespit ettiğini bildirdi.

Şirket, bağlı bir cihazın kamerasına bakan bir kişinin dahil olduğu yaygın olarak kullanılan canlılık testlerinin de derin sahtekarlıklarla kandırılmasının kolay olduğunu ekliyor. Bu testler kişinin başını bir yandan diğer yana hareket ettirmesini ve gülümsemesini gerektirir. Sensity tarafından kullanılan deepfake’ler gerçekten de kafalarını sağa sola hareket ettiriyordu. video gösteriyor 90°’ye ulaşmadan başlarını çevirmeyi bırakmaları.

Sensity CEO’su ve Baş Bilim Adamı Giorgio Patrini, Metaphysic.ai’ye testlerde 90° profil görünümleri kullanmadığını doğruladı.

Sahtekarlar nasıl tespit edilir

Deepfakes bu nedenle bir kişinin profilini yeniden oluşturmakta her zaman zorluk çeker. Herhangi bir şüpheniz varsa veya muhatabınızın kimliğini doğrulamanız gerekiyorsa, tek yapmanız gereken ondan kafasını birkaç saniye 90° çevirmesini istemek.

Ancak bu tek teknik değildir. Katılımcıdan ellerini yüzünün önünde sallamasını da isteyebilirsiniz. Bu hareket modeli bozar ve derin sahte yüzdeki kaplamanın gecikme ve kalite sorunlarını ortaya çıkarır.

Kaynak : ZDNet.com



genel-15