Google Fotoğraflar’ın, kullanıcıların bir görselin yapay zeka (AI) kullanılarak oluşturulup oluşturulmadığını veya geliştirilip geliştirilmediğini kontrol etmesine olanak tanıyan yeni bir işlevsellik eklediği bildiriliyor. Rapora göre fotoğraf ve video paylaşım ve depolama hizmeti, görselin yapay zeka bilgisinin yanı sıra dijital kaynak türünü de ortaya çıkaracak yeni kimlik kaynak etiketleri alıyor. Mountain View merkezli teknoloji devi muhtemelen deepfake olaylarını azaltmak için bu özellik üzerinde çalışıyor. Ancak bilgilerin kullanıcılara nasıl gösterileceği henüz bilinmiyor.
Google Fotoğraflar AI İlişkilendirmesi
Deepfakes, son yıllarda yeni bir dijital manipülasyon biçimi olarak ortaya çıktı. Bunlar, yapay zeka kullanılarak dijital olarak oluşturulmuş veya yanlış bilgi yaymak veya insanları yanıltmak amacıyla çeşitli araçlar kullanılarak geliştirilmiş resimler, videolar, ses dosyaları veya diğer benzer medyalardır. Örneğin, aktör Amitabh Bachchan kısa süre önce bir şirketin sahibine, aktörün şirketin ürünlerini tanıtırken görüldüğü deepfake video reklamları yayınladığı için dava açtı.
Bir Android Yetkilisine göre raporGoogle Fotoğraflar uygulamasındaki yeni bir işlevsellik, kullanıcıların galerilerindeki bir görselin dijital araçlar kullanılarak oluşturulup oluşturulmadığını görmesine olanak tanıyacak. Bu özellik, Google Fotoğraflar uygulamasının 7.3 sürümünde fark edildi. Ancak bu aktif bir özellik değil, yani uygulamanın en son sürümünü kullananlar bunu henüz göremeyecek.
Yayın, düzen dosyalarında bu gelişmeye işaret eden yeni XML kodu dizeleri buldu. Bunlar, uygulamadaki belirli bir öğeye veya kaynağa atanan tanımlayıcılar olan kimlik kaynaklarıdır. Bunlardan birinin, görüntülerin meta verilerine eklenen bilgilere atıfta bulunduğuna inanılan “ai_info” ifadesini içerdiği bildirildi. Görüntü şeffaflık protokollerine uyan bir yapay zeka aracı tarafından oluşturulduysa bu bölüm etiketlenmelidir.
Bunun dışında “digital_source_type” etiketinin, görüntüyü oluşturmak veya geliştirmek için kullanılan yapay zeka aracının veya modelinin adına atıfta bulunduğuna inanılıyor. Bunlar Gemini, Midjourney ve diğerleri gibi isimleri içerebilir.
Ancak Google’ın bu bilgiyi nasıl görüntülemek istediği şu anda belirsiz. İdeal olarak, görüntünün içine gömülü Değiştirilebilir Görüntü Dosyası Formatı (EXIF) verilerine eklenebilir, böylece kurcalamanın daha az yolu olur. Ancak bunun bir dezavantajı, kullanıcıların meta veri sayfasına gitmedikleri sürece bu bilgiyi kolayca göremeyecek olmalarıdır. Alternatif olarak uygulama, Meta’nın Instagram’da yaptığına benzer şekilde AI görsellerini belirtmek için görsel üzerine bir rozet ekleyebilir.