Görünüşte rastgele bir LinkedIn avukatını hiç görmezden geldiniz ve profille ilgili bir şeylerin… Görünüşe göre, bazı durumlarda, bunlar Sizi takip eden satış temsilcileri aslında hiç insan olmayabilirsiniz. Evet, yapay zeka tarafından oluşturulmuş derin sahteler LinkedI için geldimn ve bağlanmak istiyorlar.
Bu, Stanford İnternet Gözlemevi’nden Renée DiResta’nın yakın tarihli bir NPR’de detaylandırdığı son araştırmaya göre. rapor. Adını duyuran DiResta güçlükle yürümek 2016 seçimlerinin ardından, Rus dezenformasyon içeriği torrentleri aracılığıyla, özellikle garip görünen bir hesabın onunla bağlantı kurmaya çalışmasının ardından, yapay zeka bilgisayar tarafından oluşturulan LinkedIn profil görüntülerinin görünüşte bir fenomeninin farkına vardığını söyledi. Önemsiz bir yazılım parçasına DiResta’yı tanıtmaya çalıştığı bildirilen kullanıcı, kendisine dikkat çeken garip uyumsuzluklara sahip bir görüntü kullandı. kurumsal bir fotoğraf için garip. En önemlisi, DiResta Figürlerin gözlerinin görüntünün ortasında mükemmel bir şekilde hizalandığını fark ettiğini söylüyor, bu yapay zeka tarafından oluşturulan görüntülerin açıklayıcı bir işareti. Daima gözlere bakın, dost insanlar.
DiResta NPR’ye “Yüz bana sahteymiş gibi fırladı” dedi.
Oradan, DiResta ve Stanford meslektaşı Josh Goldstein, bir bilgisayar tarafından oluşturulmuş gibi görünen görüntüleri kullanarak 1000’den fazla LinkedIn hesabını ortaya çıkaran bir soruşturma yürüttü. Derin sahtekarlıklarla ilgili kamuya açık konuşmaların çoğu, teknolojinin siyasi yanlış bilgilendirme için tehlikeli potansiyeli konusunda uyarıda bulunsa da, DiResta, bu durumda görüntülerin ezici bir şekilde daha çok satış ve dolandırıcılık uşakları gibi çalışacak şekilde tasarlandığını söyledi. Şirketlerin, LinkedIn sistemini oynamak için sahte görüntüleri kullandığı ve satışları göndermek için alternatif hesaplar oluşturduğu bildiriliyor. NPR, LinkedIn’in mesajlardaki sınırlarına karşı çıkmaktan kaçınmak için sahalar olduğunu belirtiyor.
DiResta bir Tweet’te, “Bu bir yanlış veya yanlış bilgi hikayesi değil, daha ziyade AI teknolojisi ile oldukça sıradan bir iş kullanımı vakasının kesişimi ve sonuçta ortaya çıkan etik ve beklenti sorularının kesişimi” dedi. “Sosyal ağlarda başkalarıyla karşılaştığımızda varsayımlarımız nelerdir? Hangi eylemler manipülasyon sınırını aşıyor?”
LinkedIn, Gizmodo’nun yorum talebine hemen yanıt vermedi, ancak NPR’ye sahte görüntüler kullanma konusundaki politikalarını ihlal eden hesapları araştırdığını ve kaldırdığını söyledi.
Bir LinkedIn sözcüsü NPR’ye “Politikalarımız, her LinkedIn profilinin gerçek bir kişiyi temsil etmesi gerektiğini açıkça ortaya koyuyor” dedi. “Sahte profilleri daha iyi tespit etmek ve bu durumda olduğu gibi onları topluluğumuzdan kaldırmak için teknik savunmalarımızı sürekli olarak güncelliyoruz.”
Deepfake Yaratıcıları: Bize Söz Verdiğimiz Yanlış Bilgi Cehennemi Nerede?
Yanlış bilgi uzmanları ve siyasi yorumcular önceden uyarılmış bir tür deepfake distopya yıllarca, ancak gerçek dünyadaki sonuçlar en azından şimdilik daha az etkileyici oldu. İnternet geçen yıl bu sahte TikTok videosuyla kısa bir süreliğine mest oldu özellikli Tom Cruise gibi davranan biri, birçok kullanıcı bunun insanlık dışılığını hemen fark edebildi. Bu ve diğer popüler derin sahtekarlıklar (gibi Bu sözde Jim Carey’in oynadığı Parlama, veya Bu Michael Scott klonlarıyla dolu bir ofisi tasvir eden) açıkça hicivli ve nispeten zararsız içeriğe sahip, ancak kulağa pek hoş gelmiyor “Demokrasi için Tehlikealarm.
Ancak son zamanlardaki diğer vakalar siyasi bataklığa girmeye çalıştı. Öncesi videolar, örneğin, içerik oluşturucuların eski Başkan Barack Obama’nın bir videosunu, aslında hiç söylemediği cümleleri söylemek için nasıl manipüle edebildiklerini gösterdiler. Ardından, bu ayın başlarında sahte video Ukrayna Devlet Başkanı Volodymyr Zelenskyy’i gösteriyormuş gibi yapmak Teslim olma eylemi sosyal medya üzerinden yapıldı. Yine de, bunun bok gibi göründüğünü belirtmekte fayda var. Kendin için gör.
Deepfake’ler, hatta siyasi eğilimler bile kesinlikle burada, ancak toplumun bodur görüntüleriyle ilgili endişeler henüz geçmedi, bazı ABD seçim sonrası yorumcularını sormak için bırakan bariz bir serseri, “Bu Cumhurbaşkanlığı Seçiminde Deepfake’ler Nerede?”
İnsanlar Deepfake Görüntüleri Tespit Etmede Kötüleşiyor
Yine de, her şeyin değişebileceğine inanmak için iyi bir neden var… sonunda. Yakın tarihli bir çalışma yayınlanan Proceedings of the National Academy of Sciences dergisinde, bilgisayar tarafından oluşturulan (veya “sentezlenmiş”) yüzlerin, gerçek insanların vesikalık fotoğraflarından daha güvenilir kabul edildiği bulundu. Araştırma için, araştırmacılar 400 gerçek yüz topladılar ve son derece gerçekçi olan 400 tane daha oluşturdular. sinir ağlarını kullanarak vesikalık görüntüler. Araştırmacılar 128 kullandı ve bir grup katılımcıyı gerçek bir görüntü ile sahte arasındaki farkı anlayabileceklerini görmek için test etti. Ayrı bir katılımcı grubundan, bazı görüntülerin insan olmadığını ima etmeden yüzlere ne kadar güvenilir baktıklarını değerlendirmeleri istendi.
Sonuçlar Team Human için iyiye işaret değil. İlk testte, katılımcılar bir görüntünün gerçek olup olmadığını veya zamanın %48,2’sinde bilgisayar tarafından oluşturulup oluşturulmadığını doğru bir şekilde belirleyebildiler. Bu arada grup güvenilirliği derecelendirmesi, AI yüzlerine insan yüzlerinden (4.48.) daha yüksek bir güvenilirlik puanı (4.82) verdi.
“Bu tür yüksek kaliteli sahte görüntülere kolay erişim, daha inandırıcı çevrimiçi sahte profiller ve sentetik ses ve video üretimi gelişmeye devam ettikçe, rıza dışı mahrem görüntü, dolandırıcılık ve dezenformasyon kampanyaları sorunları da dahil olmak üzere çeşitli sorunlara yol açtı ve yol açmaya devam edecek. ”diye yazdı araştırmacılar. “Bu nedenle, bu teknolojileri geliştirenleri, ilişkili risklerin faydalarından daha büyük olup olmadığını düşünmeye teşvik ediyoruz.”
Bu sonuçlar ciddiye alınmaya değer ve derin sahtekarlıklar hakkında, özgünlük, telif hakkı, politik yanlış bilgilendirme ve büyük “T” hakkında bir pandora kutusu karmaşık yeni sorular açma riskini taşıyan bazı anlamlı kamu belirsizliği olasılığını artırıyor. hakikat gelecek yıllarda ve on yıllarda.
Ancak yakın vadede, politik olarak sorunlu içeriğin en önemli kaynakları, mutlaka son derece gelişmiş, AI tarafından yönlendirilen derin sahtekarlardan gelmeyebilir, bunun yerine daha basit sözde “ucuz sahte” medyayı çok daha az gelişmiş yazılımla manipüle edebilir veya hiç kullanamaz. Bunların örnekleri arasında 2019 viral bir video yer alır. teşhir etmek sözde dövülmüş bir Nancy Pelosi sözlerini geveleyerek (bu video aslında sadece %25 oranında yavaşlatılmıştı) ve bu, Amerikalılara araba sigortası satmaya çalışan sözde bir Joe Biden’ın beceriksizlerinden biri. Bu dava aslında sadece kötü bir adamdı kimliğine bürünme başkanın sesi gerçek videonun üzerine dublajlı. Bunlar, bazı derin sahtekarlardan çılgınca daha az seksi olsa da Trump çiş bandıikisi de çevrimiçi olarak büyük miktarda ilgi gördü.