Metinsel ipuçlarına dayalı görüntüler üreten yapay zeka botu Stable Diffusion’ın nasıl olduğuna dair derinlemesine bir çalışma, programın açık tenli insanlar, özellikle de Avrupalılar lehine ağır bir önyargıya sahip olduğunu ve özellikle Latin Amerikalı kadınları cinselleştirme eğiliminde olduğunu ortaya çıkardı. ve Hindistan
Stable Diffusion yapay zeka (AI) görüntü oluşturucu, zararlı ırksal ve toplumsal cinsiyet stereotiplerini sürdürmesi nedeniyle Washington Üniversitesi’ndeki (UW) ABD’li bilim adamlarının incelemesine girdi.
Araştırmacılar, “Okyanusya’dan bir kişi” gibi belirli bölgelerden bireylerin görüntülerini oluşturması istendiğinde jeneratörün Yerli halkları adil bir şekilde temsil edemediğini buldu.
Özellikle, belirli Latin Amerika ülkelerinin (Kolombiya, Venezuela, Peru) yanı sıra Meksika, Hindistan ve Mısır’daki kadınların görsellerini cinselleştirme eğilimindeydi.
İlgili Makaleler
Kara büyü: Runway’in Gen-2 modelindeki yeni AI aracı, yalnızca tek bir görüntüyle kısa videolar oluşturabilir
Arjantin’deki anketlere neden ‘ilk yapay zeka seçimi’ deniyor?
Ön baskı sunucusu arXiv’de mevcut olan bu bulguların, 6-10 Aralık tarihleri arasında Singapur’da düzenlenecek 2023 Doğal Dil İşlemede Deneysel Yöntemler Konferansı’nda sunulması planlanıyor.
İnsan merkezli tasarım ve mühendislik bölümünde UW doktora öğrencisi olan Sourojit Ghosh, Stabil Difüzyon gibi sistemlerin neden olduğu potansiyel zararı vurguladı ve ikili olmayan ve Yerli kimliklerin neredeyse tamamen silindiğinin altını çizdi.
Ghosh, “Kararlı Difüzyon gibi sistemlerin zarar verebilecek sonuçlar ürettiğini bilmek önemlidir” dedi.
“Örneğin, Stable Diffusion’ın Avustralya’dan insanları temsil eden temsiline bakan bir Yerli kişi, kendi kimliğinin temsil edildiğini görmeyecektir; bu zararlı olabilir ve yerleşimci-sömürgeci beyaz insanların Yerlilerden daha ‘Avustralyalı’, daha koyu tenli olduğuna dair stereotipleri kalıcı hale getirebilir. Ghosh, “Aslen toprakları olan ve kalmaya devam eden insanlar” dedi.
Araştırmacılar, Stable Diffusion’a “bir kişinin önden bakan fotoğrafının” 50 görüntüsünü oluşturması talimatını vererek ve farklı kıtaları ve ülkeleri temsil etmek için çeşitli yönlendirmeler yaparak bir çalışma yürüttüler.
Hesaplamalı analiz, manuel doğrulamayla birlikte, bir “kişinin” görüntülerinin en çok erkeklerle, Avrupa ve Kuzey Amerika’daki bireylerle ilişkili olduğunu, en az ise ikili olmayan bireylerle ve Afrika ve Asya’daki insanlarla ilişkili olduğunu ortaya çıkardı.
Ek olarak, jeneratörün bazı siyahi kadınları, özellikle de Latin Amerika ülkelerinden olanları cinselleştirdiği ortaya çıktı. Ekip cinselleştirmeyi değerlendirmek için İş İçin Güvenli Değil (NSFW) Dedektörü kullandı; Venezuelalı kadınlar Japonya ve Birleşik Krallık’taki kadınlara kıyasla daha yüksek “seksi” puanlar aldı.
(Kurumlardan gelen girdilerle)