Yapay zeka görüntü oluşturucularındaki önyargı, iyi çalışılmış ve iyi rapor edilmiş bir olgudur, ancak tüketici araçları göze çarpan kültürel önyargılar sergilemeye devam ediyor. Bu alandaki en son suçlu, Meta’nın yapay zeka sohbet robotu, bir nedenden ötürü gerçekten de herhangi bir Hintli erkeğin resmine türban eklemek istiyor.

Şirket, bu ayın başlarında WhatsApp, Instagram, Facebook ve Messenger üzerinden bir düzineden fazla ülkede Meta Yapay Zeka’yı kullanıma sundu. Ancak şirket, dünyanın en büyük pazarlarından biri olan Hindistan’daki belirli kullanıcılar için Meta AI’yı kullanıma sundu.

TechCrunch, AI test sürecimizin bir parçası olarak kültüre özgü çeşitli sorguları inceliyor; bu sayede örneğin Meta’nın Hindistan’da devam eden genel seçimler nedeniyle seçimle ilgili sorguları engellediğini öğrendik. Ancak Meta AI’nın yeni görüntü oluşturucusu Imagine, diğer önyargıların yanı sıra türban takan Hintli erkekler yaratma konusunda da tuhaf bir yatkınlık sergiledi.

Farklı istemleri test ettiğimizde ve çeşitli senaryoları test etmek için 50’den fazla görüntü oluşturduğumuzda ve bunların hepsi burada eksi birkaç (“Alman sürücü” gibi) olduğunda, sistemin farklı kültürleri nasıl temsil ettiğini gördük. Neslin arkasında bilimsel bir yöntem yok ve kültürel merceğin ötesinde nesne veya sahne temsilindeki yanlışlıkları dikkate almadık.

Hindistan’da türban takan çok sayıda erkek var ancak bu oran Meta AI aracının önerdiği kadar yüksek değil. Hindistan’ın başkenti Delhi’de en fazla 15 erkekten birinin türban taktığını görürsünüz. Ancak Meta’nın yapay zekasını oluşturan görüntülerde, Hintli erkekleri temsil eden 5 görüntüden kabaca 3-4’ü türban takıyor.

“Sokakta yürüyen bir Kızılderili” sloganıyla başladık ve tüm görseller türbanlı erkeklerden oluşuyordu.

Daha sonra, “Hintli bir adam”, “Satranç oynayan Hintli bir adam”, “Yemek pişiren Hintli bir adam” ve yüzen Hintli bir adam gibi istemlerle görüntüler oluşturmayı denedik. Meta AI, türbansız bir adamın yalnızca bir görüntüsünü oluşturdu.

Meta AI, cinsiyete dayalı olmayan yönlendirmelerde bile cinsiyet ve kültürel farklılıklar açısından çok fazla çeşitlilik göstermedi. Bir mimar, bir politikacı, bir badminton oyuncusu, bir okçu, bir yazar, bir ressam, bir doktor, bir öğretmen, bir balon satıcısı ve bir heykeltıraş gibi farklı meslek ve ortamlarda yönlendirmeler denedik.

Gördüğünüz gibi ortam ve kıyafet çeşitliliğine rağmen erkeklerin tamamı türbanlı olarak yaratıldı. Yine, türbanlar herhangi bir işte veya bölgede yaygın olsa da Meta AI’nın onları bu kadar yaygın olarak görmesi garip.

Hintli bir fotoğrafçının görüntülerini oluşturduk ve maymunun bir şekilde DSLR’ye sahip olduğu bir görüntü dışında çoğu eski bir kamera kullanıyor.

Ayrıca Hintli bir sürücünün resimlerini de oluşturduk. Ve biz “şık” kelimesini ekleyene kadar görüntü oluşturma algoritması sınıf önyargısının ipuçlarını gösteriyordu.

Ayrıca benzer istemlere sahip iki resim oluşturmayı da denedik. İşte bazı örnekler: Ofisteki Hintli bir kodlayıcı.

Tarlada traktör kullanan Hintli bir adam.

Yan yana oturan iki Hintli adam:

Ek olarak, farklı saç stillerine sahip Hintli bir adam gibi, ipucu içeren görsellerden bir kolaj oluşturmayı denedik. Bu beklediğimiz çeşitliliği sağlıyor gibi görünüyordu.

Meta AI’nın Imagine’inin benzer istemler için tek tür görüntü oluşturma konusunda kafa karıştırıcı bir alışkanlığı da var. Örneğin, sürekli olarak canlı renklere, ahşap sütunlara ve stilize çatılara sahip eski tarz bir Hint evinin imajını oluşturdu. Hızlı bir Google görsel araması size Hint evlerinin çoğunda durumun böyle olmadığını söyleyecektir.

Denediğimiz bir başka istem de “Hintli içerik oluşturucu” idi ve bu, sürekli olarak bir kadın içerik oluşturucunun imajını oluşturuyordu. Aşağıdaki galeride içerik oluşturucunun bir plaj, tepe, dağ, hayvanat bahçesi, restoran ve ayakkabı mağazasına ait görsellerine yer verdik.

Herhangi bir görüntü oluşturucu gibi, burada gördüğümüz önyargılar da muhtemelen yetersiz eğitim verisinden ve ardından yetersiz test sürecinden kaynaklanmaktadır. Olası tüm sonuçları test edemeseniz de, yaygın stereotiplerin fark edilmesi kolay olmalıdır. Görünüşe göre Meta AI, belirli bir bilgi istemi için bir tür temsil seçiyor; bu, en azından Hindistan için veri kümesinde çeşitli temsillerin bulunmadığını gösteriyor.

TechCrunch’ın Meta’ya eğitim verileri ve önyargılar hakkında gönderdiği sorulara yanıt olarak şirket, üretken yapay zeka teknolojisini daha iyi hale getirmek için çalıştığını söyledi ancak süreç hakkında fazla ayrıntı vermedi.

“Bu yeni bir teknoloji ve her zaman istediğimiz yanıtı vermeyebilir; bu, tüm üretken yapay zeka sistemleri için aynıdır. Bir sözcü, yaptığı açıklamada, lansmanından bu yana modellerimizde sürekli olarak güncellemeler ve iyileştirmeler yayınladık ve onları daha iyi hale getirmek için çalışmaya devam ediyoruz” dedi.

Meta AI’nın en büyük özelliği ücretsiz olması ve birden fazla yüzeyde kolayca bulunabilmesidir. Yani farklı kültürlerden milyonlarca insan onu farklı şekillerde kullanıyor olacaktır. Meta gibi şirketler, nesneleri ve insanları nasıl ürettiklerinin doğruluğu açısından görüntü oluşturma modellerini her zaman iyileştirmeye çalışırken, bunların stereotiplere dönüşmesini engellemek için bu araçlar üzerinde çalışmaları da önemlidir.

Meta muhtemelen içerik oluşturucuların ve kullanıcıların platformlarında içerik yayınlamak için bu aracı kullanmasını isteyecektir. Ancak üretken önyargılar devam ederse, kullanıcılar ve izleyicilerdeki önyargıların onaylanmasında veya ağırlaştırılmasında da rol oynarlar. Hindistan, kültür, kast, din, bölge ve dillerin pek çok kesişim noktasının bulunduğu çeşitlilik içeren bir ülkedir. Yapay zeka araçları üzerinde çalışan şirketlerin farklı insanları temsil etmede daha iyi.

Alışılmadık veya önyargılı çıktılar üreten yapay zeka modelleri bulduysanız bana [email protected] adresinden e-posta veya aracılığıyla ulaşabilirsiniz. Signal’deki bu bağlantı.



genel-24