Sanatçılar, çalışmalarını yapay zekayı eğitmek için kullanmak isteyen teknoloji şirketlerinin kaprislerine karşı nasıl mücadele edebilir? Bir grup araştırmacının yeni bir fikri var: Yapay zeka sanat üretecini içeriden dışarıya doğru öldürmek için sanatın içine incelikli bir zehir sokmak.

Chicago Üniversitesi’nde bilgisayar bilimi profesörü ve yapay zekanın veri kazıma uygulamalarını açık sözlü bir şekilde eleştiren Ben Zhao şunları söyledi: MIT Teknoloji İncelemesi kendisi ve ekibinin “Nightshade” adlı yeni aracı, üzerinde ne yazıyorsa onu yapıyor; yapay zekayı eğitmek için görselleri kullanan tüm modelleri zehirliyor. Şimdiye kadar sanatçıların yapay zeka şirketleriyle mücadelede tek seçeneği onları dava etmek ya da geliştiricilerin sanatçının kendi devre dışı bırakma isteklerine uymak.

Araç, görüntüyü piksel düzeyinde değiştirerek onu çıplak gözün algılayamayacağı şekilde bozuyor. Yapay zekayı Stabilite Yapay Zekası gibi eğitmek için bu bozuk görüntülerden yeterli sayıda kullanıldığında Kararlı Difüzyon XL, tüm model bozulmaya başlar. Ekip, veri örneklerini bir SDXL sürümüne ekledikten sonra model, “araba” istemini bunun yerine “inek” olarak yorumlamaya başlayacaktı. Köpek kediye, şapka ise pastaya dönüştürüldü. Benzer şekilde, farklı stillerin hepsi riskli çıktı. Bir “karikatür” talebi, 19. yüzyıl empresyonistlerini anımsatan bir sanat sunuyordu.

Aynı zamanda bireysel sanatçıları savunmaya da çalıştı. SDXL’den ünlü Bilim Kurgu ve fantezi sanatçısı Michael Whelan’ın tarzında bir tablo yapmasını isterseniz, zehirli model onların çalışmalarına çok daha az benzeyen bir şey yaratır.

Yapay zeka modelinin boyutuna bağlı olarak, bu garip halüsinasyonları yaratmak için yüzlerce veya daha fazla olasılıkla binlerce zehirli görüntüye ihtiyacınız olacak. Yine de, yeni yapay zeka sanat üreteçleri geliştiren herkesi internetten toplanan eğitim verilerini kullanmadan önce iki kez düşünmeye zorlayabilir.

Gizmodo yorum yapmak için Stability AI’ye ulaştı ancak hemen yanıt alamadık.

Sanatçıların Yapay Zeka Eğitimine Karşı Mücadele Etmek İçin Hangi Araçlara Sahip Olması Gerekiyor?

Zhao aynı zamanda yapımına yardımcı olan ekibin lideriydi. Sırbir tür “stil pelerini” yaratabilen bir araç maske sanatçılarının görselleri. Benzer şekilde bir görüntüdeki pikselleri de bozar, böylece yanıltıcı Bir sanatçıyı ve eserini taklit etmeye çalışan yapay zeka sanat yaratıcıları. Zhao, MIT Technology Review’a Nightshade’in Glaze’e başka bir araç olarak entegre edileceğini ancak aynı zamanda diğer geliştiricilerin de benzer araçlar oluşturması için açık kaynak pazarında yayınlanacağını söyledi.

Diğer araştırmacılar da görüntülere bağışıklık kazandırmanın bazı yollarını buldu Yapay zeka tarafından doğrudan manipülasyondan korundu, ancak bu teknikler, ilk etapta sanat yaratıcılarını eğitmek için kullanılan veri kazıma tekniklerini durdurmadı. Nightshade, sanatçılara eserlerini koruma şansı sunan az sayıdaki ve potansiyel olarak en mücadeleci girişimlerden biri.

Gerçek görüntüleri yapay zeka tarafından oluşturulanlardan ayırmaya yönelik çabalar da artıyor. Google’a ait DeepMind bir filigran kimliği geliştirdiğini iddia ediyor Bu, nasıl manipüle edilirse edilsin, bir görüntünün yapay zeka tarafından oluşturulup oluşturulmadığını belirleyebilir. Bu tür filigranlar, Nightshade’in yaptığının aynısını etkili bir şekilde yapıyor; pikselleri çıplak gözle algılanamayacak şekilde değiştiriyor. En büyük yapay zeka şirketlerinden bazıları oluşturulan içeriğe filigran ekleneceğine söz verildi ileriye gidiyor, ancak mevcut çabalar Adobe’nin meta veri AI etiketleri gerçekten herhangi bir seviyede gerçek şeffaflık sunmuyorum.

Nightshade, yapay zekalarını eğitmek için sanatçıların çalışmalarını aktif olarak kullanan şirketler için potansiyel olarak yıkıcıdır. DeviantArt gibi. DeviantArt topluluğu zaten oldukça güzel bir deneyime sahip. olumsuz tepki Sitenin yerleşik yapay zeka sanat oluşturucusuna ve eğer yeterli sayıda kullanıcı görsellerini zehirlerse, bu durum geliştiricileri zehirli görsellerin her bir örneğini elle bulmaya zorlayabilir veya aksi takdirde tüm model üzerindeki eğitimi sıfırlamaya zorlanabilir.

Yine de program, SDXL veya SDXL gibi mevcut modelleri değiştiremeyecektir. yakın zamanda piyasaya sürülen DALL-3. Bu modellerin hepsi zaten sanatçıların geçmiş çalışmaları üzerine eğitilmiş. Stability AI, Midjourney ve DeviantArt gibi şirketler zaten sanatçılar tarafından dava edildi telif hakkıyla korunan çalışmalarını yapay zekayı eğitmek için kullandıkları için. AI geliştiricilerine saldıran başka birçok dava var: Google, MetaVe OpenAI telif hakkıyla korunan eseri izinsiz kullanmak için. Şirketler ve yapay zeka savunucuları, üretken yapay zekanın bu eğitim verilerine dayalı olarak yeni içerik oluşturması nedeniyle eğitim verilerindeki tüm kitapların, makalelerin, resimlerin ve sanat eserlerinin adil kullanım kapsamına girdiğini savundu.

OpenAI geliştiricileri kendi açıklamalarında şunu belirtti: Araştırma kağıdı en yeni sanat oluşturucularının, şirketin kendi özel araçları tarafından oluşturulan ayrıntılı altyazılarla eğitildiğinden çok daha gerçekçi görüntüler oluşturabildiğini söyledi. Şirket, yeni yapay zeka modelinin eğitimine gerçekte ne kadar verinin harcandığını açıklamadı (çoğu yapay zeka şirketi, yapay zeka eğitim verileri hakkında herhangi bir şey söylemek konusunda isteksiz hale geldi), ancak yapay zekayla mücadele çabaları zaman geçtikçe artabilir. Bu yapay zeka araçları geliştikçe, onları desteklemek için daha fazla veriye ihtiyaç duyuyorlar ve sanatçılar bunlarla mücadele etmek için daha da büyük önlemler almaya istekli olabilir.



genel-7