Birleşik Krallık merkezli girişim Yepic AI, “deepfake’leri iyilik için” kullandığını iddia ediyor ve “asla kimseyi rızası olmadan yeniden canlandırmayacağına” söz veriyor. Ancak şirket tam olarak asla yapmayacağını iddia ettiği şeyi yaptı.

Bir TechCrunch muhabirine istenmeyen bir e-posta konuşmasında Yepic AI temsilcisi, kendi benzerlerinin çoğaltılmasına izin vermeyen muhabirin iki “derin sahte” videosunu paylaştı. Yepic AI, sunum e-postasında, muhabirin farklı dillerde konuştuğu iki derin sahte video oluşturmak için “kamuya açık bir fotoğrafını kullandığını” söyledi.

Muhabir, Yepic AI’nin, oluşturduğu deepfake videoları izinsiz olarak silmesini talep etti.

Deepfakes, üretken yapay zeka sistemleri tarafından oluşturulan, bir birey gibi görünmek veya ses çıkarmak üzere tasarlanmış fotoğraflar, videolar veya seslerdir. Yeni olmasa da, üretken yapay zeka sistemlerinin yaygınlaşması, hemen hemen herkesin, bilgisi veya rızası olmadan da dahil olmak üzere, başka birinin hakkında ikna edici deepfake içeriklerini nispeten kolaylıkla oluşturmasına olanak tanıyor.

Yepic AI, “Etik” başlıklı bir web sayfasında şunları söyledi: “Siyasi ve diğer amaçlarla derin sahtekarlıklar ve satirik taklitler [sic] yasaktır.” Şirket ayrıca ağustos ayındaki bir blog yazısında şunları söyledi: “Açık izinleri olmadan kişilerin özel avatarlarını üretmeyi reddediyoruz.”

Şirketin izinsiz olarak başkalarının deepfake’lerini oluşturup oluşturmadığı bilinmiyor ve şirket bunu söylemeyi reddetti.

Yorum almak için ulaşıldığında, Yepic AI genel müdürü Aaron Jones, TechCrunch’a şirketin etik politikasını “sanatsal ve ifade amaçlı oluşturulan yapay zeka tarafından oluşturulan görüntülere yönelik istisnaları kapsayacak şekilde” güncellediğini söyledi.

Olayın nasıl gerçekleştiğini anlatan Jones şunları söyledi: “Söz konusu videoların oluşturulmasında ne ben ne de Yepic ekibi doğrudan yer almadı. Halkla ilişkiler ekibimiz, videonun Yepic’in yarattığı inanılmaz teknoloji hakkında farkındalık yaratması amacıyla gazeteciye özel olarak oluşturulduğunu doğruladı.”

Jones, muhabirin görselinin oluşturulmasında kullanılan video ve görselin silindiğini söyledi.

Tahmin edilebileceği gibi, deepfake’ler, şüphelenmeyen kurbanları dolandırıcılığa düşmeleri ve bazı denetleme sistemlerinden kaçarak kriptolarını veya kişisel bilgilerini bilmeden başkalarına vermeleri konusunda kandırdı. Bir durumda dolandırıcılar Sesi taklit etmek için yapay zekayı kullandı Personeli yüzbinlerce avro değerinde hileli bir işlem yapmaları için kandırmak amacıyla bir şirketin CEO’sunun öldürülmesi. Deepfake’ler dolandırıcılar arasında popüler hale gelmeden önce şunu belirtmek önemlidir: insanlar, kadınları mağdur eden rıza dışı porno veya seks görüntüleri oluşturmak için deepfake’leri kullandıBu, videonun bir parçası olmayı kabul etmeyen kadınların resimlerini kullanarak gerçekçi görünümlü porno videolar oluşturdukları anlamına geliyor.



genel-24