Artık sosyal medyada ya da sohbetlerde gördüklerimize güvenemeyiz: Joe Biden gerçekten Gazze savaşı için genelkurmayla yapılan toplantıya katıldı mı? Avrupa’yı protesto eden traktörler gerçekten Paris’in merkezini saman balyalarıyla mı doldurdu? Bunlar son günlerde dolaşıma giren, yapay zeka ile oluşturulan görsellerin iki gerçek örneği. Ciddi siyasi sonuçları olan ciddi bir sorun; ama aynı zamanda insanlar üzerinde de etkileri var: Yapay zeka aynı zamanda rıza dışı çıplak görüntüler oluşturmak için de kullanılıyor. Ünlülerin (en son Taylor Swift) veya öğrencilerin (son aylarda çeşitli İtalyan ortaokul ve liselerinde olduğu gibi) zararına.
Bu nedenle büyük teknoloji, toplu olarak medya etiketlemeye yönelik bir standart benimsiyor. Bir görüntüyü veya videoyu kimin oluşturduğunu, ne zaman ve nasıl oluşturulduğunu ve kaynağının güvenilirliğini tanımlayabilen bir çözüm.
Artık geçerli olan standart C2pa’dır; Google, Microsoft, Adobe, OpenAi ve Meta’nın ardından yeni katıldı.

C2pa nedir?

C2pa, İçerik Kaynağı ve Orijinallik Koalisyonu anlamına gelir. Kendini açıklayan kelimeler. Bu, çevrimiçi medyanın kaynağını, nereden geldiğini ve nasıl oluşturulduğunu doğrulamanın yollarını bulmak için Adobe ve Microsoft tarafından oluşturulan bir gruptur. Standart, bir medyanın oluşturulması için yapay zeka platformunun olası kullanımı gibi, doğruyu yanlıştan ayırmamızı sağlayan önemli bilgileri içeren bir “etikettir”.

C2pa’nın amaçları ve bu tür etiketler

Amaç, derin sahtekarlıklarla (örneğin kadınlara veya politikacılara karşı) ve yanlış bilgilendirmeyle (traktör vakasında olduğu gibi) mücadele etmektir. Etiket, kullanıcıların ve platformların yapay zeka tarafından oluşturulan görselleri tanımasına ve bunların doğruluğundan şüphe etmesine olanak tanıyor. Sosyal platformlar, etiketi okuyarak, örneğin kullanıcıları belirli bir görüntünün yapay zeka tarafından yapıldığı konusunda otomatik olarak uyarabilir ve bunun kaynağını belirtebilir. X’te, Facebook’ta vs. doğruyu yanlıştan ayırmamıza yardımcı olacak bir çıkartma ormanının olacağı yakın bir gelecek hayal edelim. ABD Hükümeti ve Avrupa Yapay Zeka Yasası yönetmeliği de, tam olarak yanlış bilgi riskine karşı, bu tür etiketlerin (filigran veya damga olarak da bilinir) bulunmasını teşvik ediyor.

Uygulamada nasıl çalışıyor?

Teknik olarak standart, görsellerin diğer özelliklerine eklenen ve platformlar tarafından otomatik olarak okunabilen bir “meta veri” yani temel bilgidir. Zaten görsellerin köken ve tarih gibi “meta verileri” var.Google, yakın zamanda akıllı telefonlara giderek daha fazla entegre olan Gemini gibi yapay zeka araçlarıyla oluşturulan görselleri bu standartla (yakın zamanda piyasaya sürülen Samsung S24 gibi) etiketlemeyi üstlendi. Ancak fikir, Google’ın bu standart kimlik bilgilerinin tüm hizmetlerinde (Youtube, Chrome tarayıcısı, Android akıllı telefonlar gibi) daha geniş çapta benimsenmesine ve tanınmasına da izin vermesidir. Google ayrıca standardın diğer girişimlerini tamamlayıcı nitelikte olduğunu da belirtti: Google DeepMind’ın SynthID’si, “Bu Görsel Hakkında” arama aracı ve YouTube’un değiştirilmiş veya sentetik içerik etiketleri. Birkaç gün önce Meta, platformlarda yapay zeka tarafından oluşturulan görsellere otomatik olarak etiket uygulamak amacıyla Facebook, Instagram ve Threads’e yüklenen görsellerdeki C2pa meta verilerini tanımlamak için yeni araçların geldiğini duyurdu. OpenAI bu hafta ChatGpt ve DALL-E Model 3 ile oluşturulan görüntülere C2pa meta verileri ekleyeceğini duyurdu. Leica, ürünlerine C2pa kimlik doğrulama meta verileri ekleme özelliğini ekledi.

C2pa ve diğer etiketlerin sınırları.

Şimdilik C2pa yalnızca görseller için mevcut ancak koalisyon video ve ses dosyaları üzerinde çalışıyor. Bizi bitcoin almaya iten ünlü kişilerin sahte sesleriyle veya çeşitli dolandırıcılıklarla sahte ses zaten dolaşıyor (son zamanlarda sunucu Mara Venier’in sesini de kullandılar).



genel-18