Meta, yapay zeka (AI) kullanılarak oluşturulan videolara görünmez bir filigran ekleyebilen yeni bir araç yayınlıyor. Video Seal olarak adlandırılan yeni araç, şirketin mevcut filigranlama araçlarına, Audio Seal ve Watermark Everything’e katılıyor. Şirket, aracın açık kaynaklı olacağını öne sürdü ancak henüz kodu yayınlamadı. İlginç bir şekilde şirket, filigran tekniğinin video kalitesini etkilemeyeceğini ancak bunları videolardan kaldırmaya yönelik yaygın yöntemlere karşı dayanıklı olacağını iddia ediyor.

Deepfake’ler, üretken yapay zekanın yükselişinden bu yana internete akın etti. Deepfake’ler, genellikle yapay zeka kullanılarak oluşturulan, yanlış ve yanıltıcı nesneleri, kişileri veya senaryoları gösteren sentetik içeriklerdir. Bu tür içerikler genellikle tanınmış bir kişi hakkında yanlış bilgi yaymak, sahte cinsel içerik oluşturmak veya dolandırıcılık ve dolandırıcılık yapmak için kullanılır.

Ayrıca yapay zeka sistemleri geliştikçe derin sahte içeriğin tanınması zorlaşacak ve gerçek içerikten ayırt edilmesi daha da zorlaşacak. McAfee’ye göre anketİnsanların yüzde 70’i zaten gerçek bir ses ile yapay zeka tarafından üretilen bir ses arasındaki farkı anlama konusunda kendilerine güvenmediklerini düşünüyor.

göre dahili veri Sumsub’a göre deepfake dolandırıcılıkları 2022 yılında Kuzey Amerika’da yüzde 1.740, Asya-Pasifik bölgesinde ise yüzde 1.530 arttı. Bu sayının 2022 ile 2023 arasında 10 kat arttığı tespit edildi.

Deepfake’lere ilişkin endişeler arttıkça, yapay zeka modelleri geliştiren birçok şirket, sentetik içeriği gerçek olanlardan tanımlayabilen filigranlama araçlarını piyasaya sürmeye başladı. Bu yılın başlarında Google, yapay zeka tarafından oluşturulan metin ve videolara filigran eklemek için SynthID’yi yayınladı. Microsoft da benzer araçları yayımladı. Ayrıca İçerik Kaynağı ve Orijinallik Koalisyonu (C2PA) da yapay zeka tarafından oluşturulan içeriği tanımlamak için yeni standartlar üzerinde çalışıyor.

Artık Meta’nın piyasaya sürülmüş AI videolarına filigran eklemek için kendi Video Mühür aracı. Araştırmacılar, aracın bir videonun her karesine, kurcalanamayacak, algılanamaz bir etiketle filigran ekleyebileceğinin altını çiziyor. Bulanıklaştırma, kırpma ve sıkıştırma yazılımları gibi tekniklere karşı dayanıklı olduğu söyleniyor. Ancak filigran eklenmesine rağmen araştırmacılar videonun kalitesinden ödün verilmeyeceğini iddia ediyor.

Meta, Video Seal’in izin verilen bir lisans kapsamında açık kaynak olacağını duyurdu ancak aracı ve kod tabanını henüz kamuya açık hale getirmedi.



genel-8