OpenAI CEO'su Sam Altman

Fotoğraf: Mike Coppola / Personel (Getty Images)

OpenAI Salı günü, yaklaşmakta olan deepfake tsunamiyle ilgili büyüyen korkularla mücadele etmek için yapay zeka araçları tarafından oluşturulan görüntülere filigran eklediğini duyurdu. DALL-E ve diğer OpenAI hizmetleriyle oluşturulan görüntüler, meta verilerde (oluşturulan dosyada kodlanan bilgiler) görsel bir filigran ve bunun kökenine ilişkin diğer ayrıntıları içerecektir. Sorun şu: Meta veri filigranını kaldırmak için tek yapmanız gereken ekran görüntüsünü almak. Bu, OpenAI’nin “çözümünün” yürürlüğe girdiğinde kafanızın daha az karışmasına neden olabileceği anlamına geliyor.

Şüpheli bir resme baktığınızı hayal edin. AI filigranını kontrol edip bulursanız vaka kapatılır. Ancak filigranı kaldırılmış, yapay zeka tarafından oluşturulmuş bir görüntüye bakıyorsanız meta verileri kontrol etmek size yanlış bir güvenlik duygusu verebilir. Başka bir deyişle, filigranı aramak aslında başladığınız zamankinden daha az bilgiye sahip olduğunuz anlamına gelebilir.

OpenAI’nin kendisi, filigranı kazara bile kaldırabileceğinizi açıklıyor. Sosyal medyaya bir görsel yüklediğinizde çoğu platform, bazen meta verileri dosyadan otomatik olarak kaldırır. kullanıcının kişisel bilgilerini ortaya çıkarmak. Yani yapay zeka eserlerinizden birini Instagram’da paylaştığınızda, farkında olmadan sahte bir görsel fiyaskosuna neden olabilirsiniz.

OpenAI'nin filigran sisteminin ekran görüntüsü.

OpenAI görüntüleri görsel bir filigran ve dosyalara gömülü görüntünün kaynağıyla ilgili ayrıntıları içerecektir.
Grafik: OpenAI

Şirket bunun hala iyi bir fikir olduğunu savunuyor. OpenAI bir yazısında şunları yazdı: “Kaynak belirlemek ve kullanıcıları bu sinyalleri tanımaya teşvik etmek için bu yöntemleri benimsemenin, dijital bilgilerin güvenilirliğini artırmanın anahtarı olduğuna inanıyoruz.” Blog yazısı. Ancak şirket, filigranın “sihirli bir çözüm olmadığını” kabul ediyor. OpenAI, yorum talebine hemen yanıt vermedi.

OpenAI buradaki tüm suçu üstlenemez. Şirket, Adobe’nin arm, BBC, Intel, Microsoft, New York Times ve X/ gibi çeşitli şirketlerle ortaklaşa öncülük ettiği bir girişim olan Coalition for Content Provenance and Authenticity (C2PA) tarafından geliştirilen yeni bir standardı benimsiyor. Twitter’da. Meta kendi etiketlerini ekleyeceğini duyurdu Şirketin C2PA standardını nasıl entegre etmeyi planladığı tam olarak belli olmasa da yapay zeka tarafından oluşturulan görüntülere geçiş yapılıyor.

Zaten bir görüntüyü C2PA ile geliştirilen bir AI kontrol sistemi aracılığıyla çalıştırabilirsiniz. İçerik Kimlik Bilgilerini Doğrulayın. Görüntünüz net çıkarsa güvende olduğunuzu varsaymayın.



genel-7