Son yıllarda, internette giderek daha fazla sayıda derin sahtekarlık var. Bunlar üzerinde oynanmış dijital dosyalardır – fotoğraflar veya videolar. Yazarları, bir görüntü veya video çeker ve başka bir kişinin yüzünü veya sesini kullanarak kişi veya olayların yeni bir sahte görüntüsünü oluşturur. Bu nedenle, bir derin sahte olduğunu bilmeden bir tane görmüş olma ihtimaliniz çok yüksektir.

Deepfake’lerin çok gerçek görünümü, birçok yanlış bilgi ve aldatmaca vakasının çevrimiçi olarak yayılmasına izin verdi. Cevap olarak, Intel, “FakeCatcher” adlı yeni bir teknolojiyi duyurdu Deepfake medyayı %96 doğruluk oranıyla tespit etmek için.

Deepfakes, söylemedikleri şeyleri yapan ve söyleyen ünlülerin ve politikacıların tüyler ürpertici derecede doğru görüntülerini ve videolarını oluşturmak için makine öğreniminden ve yapay zekadan türetilen etkileyici teknolojiyi kullanır.

Mevcut teknolojilerin, internet kullanıcılarının derin bir sahtekarlığa olan güvenini ortadan kaldırması saatler alabilir.

Dijital manipülasyon belirtilerini incelemek için derin öğrenmeyi kullandıklarından, mevcut teknolojilerin internet kullanıcılarının derin sahtekarlığa olan inancını ortadan kaldırması saatler alabilir.

Şirketten yapılan bir basın açıklamasına göre, FakeCatcher “bizi insan yapan şeyin ne olduğunu, bir videonun piksellerindeki ‘kan akışını’ değerlendirerek” gerçek zamanlı olarak bir derin sahtekarlığı tespit edebiliyor.

Intel, teknolojisinin kan vücutta akarken damarlarımızdaki renk değişikliklerini tanımlayabildiğini söylüyor. Daha sonra yüzden kan akışı sinyalleri toplanır ve bir videonun gerçek mi yoksa derin sahte mi olduğunu ayırt etmek için algoritmalar tarafından çevrilir.

Çoğu insan bir videonun gerçek mi yoksa sahte mi olduğunu kontrol etmek için zaman ayırmaz.

Deepfake’leri belirlememize yardımcı olacak bir yazılıma sahip olmak giderek daha önemli hale geliyor.

Geçmişte dolandırıcılar, hassas şirket bilgilerine erişim elde etmek için iş arayanların kimliğine bürünmek için derin sahtekarlıklar kullandılar. Onlar da kullanıldı Kışkırtıcı açıklamalar yapmak için önde gelen siyasi figürleri taklit etmek.

Özellikle de çoğu insan Twitter akışlarında akılsızca gezindiği ve bir videonun gerçek mi yoksa sahte mi olduğunu kontrol etmek için zaman ayırmadığı için. Ve bir deepfake milyonlarca hisse aldığında artık çok geçtir.

Kaynak : ZDNet.com



genel-15