Üretken yapay zeka şirketlerinin kendi teknolojilerini eğitmek için çalışmalarını kullanmalarından rahatsız olan profesyonel sanatçılar ve fotoğrafçılar, yakında mahkemeye gitmeyi gerektirmeyen etkili bir yanıt verme yoluna sahip olabilirler.
Üretken yapay zeka, neredeyse bir yıl önce OpenAI’nin ChatGPT sohbet robotunun piyasaya sürülmesiyle sahneye çıktı. Araç, çok doğal, insan benzeri bir şekilde iletişim kurma konusunda son derece beceriklidir, ancak bu yeteneği kazanabilmesi için web’den alınan yığınla veri üzerinde eğitilmesi gerekiyordu.
Benzer üretken yapay zeka araçları da metin istemlerinden görüntüler üretme yeteneğine sahiptir, ancak ChatGPT gibi bunlar da web’de yayınlanan görüntülerin kazınması yoluyla eğitilirler.
Bu, sanatçıların ve fotoğrafçıların çalışmalarının, kendi üretken yapay zeka araçlarını geliştirmek için teknoloji firmaları tarafından izinsiz veya tazminatsız olarak kullanıldığı anlamına geliyor.
Bununla mücadele etmek için bir araştırma ekibi, Nightshade adında, eğitim modelinin kafasını karıştırabilen ve istemlere yanıt olarak hatalı görüntüler çıkarmasına neden olan bir araç geliştirdi.
Yakın zamanda bir makalede özetlenen MIT Teknoloji İncelemesiNightshade, bir sanat eserine web’e yüklenmeden önce görünmez pikseller ekleyerek eğitim verilerini “zehirler”.
“Bunu bu eğitim verilerini ‘zehirlemek’ için kullanmak, DALL-E, Midjourney ve Stable Diffusion gibi görüntü üreten yapay zeka modellerinin gelecekteki yinelemelerine, bazı çıktılarını işe yaramaz hale getirerek zarar verebilir; köpekler kediye, arabalar ineğe dönüşür ve MIT’nin raporunda Nightshade’in arkasındaki araştırmanın hakem incelemesine sunulduğu da belirtiliyor.
Görüntü oluşturma araçları halihazırda etkileyici ve gelişmeye devam ediyor olsa da, bunların eğitilme biçimleri tartışmalı hale geldi; araçların yaratıcılarının çoğu, eserlerinin izinsiz veya ödemesiz kullanıldığını iddia eden sanatçıların açtığı davalarla karşı karşıya.
Nightshade’in arkasındaki araştırma ekibine liderlik eden Chicago Üniversitesi profesörü Ben Zhao, böyle bir aracın güç dengesini yeniden sanatçılara kaydırmaya yardımcı olabileceğini ve telif hakkı ve fikri mülkiyeti göz ardı eden teknoloji firmalarına bir uyarı atışı yapabileceğini söyledi.
MIT Technology Review raporunda, “Büyük yapay zeka modellerine yönelik veri setleri milyarlarca görüntüden oluşabilir, bu nedenle modele ne kadar çok zehirli görüntü kazınabilirse, teknik o kadar fazla hasara yol açacaktır” dedi.
Nightshade piyasaya sürüldüğünde ekip, başkalarının onu iyileştirip daha etkili hale getirebilmesi için açık kaynak yapmayı planlıyor.
Nightshade’in arkasındaki ekip, yıkıcı potansiyelinin farkında, bunun “içerik oluşturucuların haklarına saygısızlık eden web kazıyıcılara karşı son savunma” olarak kullanılması gerektiğini söyledi.
Sorunu çözmek amacıyla DALL-E yaratıcısı OpenAI kısa süre önce başladı sanatçıların eserlerini kaldırmasına izin vermek ancak süreç son derece külfetli olarak tanımlanıyor çünkü sanatçının kaldırılmasını istediği her bir görselin bir kopyasını o görselin bir açıklamasıyla birlikte göndermesini gerektiriyor ve her talep kendi uygulamasını gerektiriyor.
Kaldırma sürecini önemli ölçüde kolaylaştırmak, sanatçıların Nightshade gibi bir aracı kullanmayı tercih etmelerini engelleyebilir ve bu da uzun vadede OpenAI ve diğerleri için çok daha fazla soruna neden olabilir.