Yeni bir makale, ChatGPT’nin birden fazla sürümü de dahil olmak üzere OpenAI, Meta ve Google’ın büyük dil modellerinin, kimliklerinin kritik bir bölümünü, yani nasıl konuştuklarını analiz ederken, Afrika kökenli Amerikalılara karşı gizli bir şekilde ırkçı olabileceğini ortaya çıkardı.
Yayınlanan Mart başıMakalede, analiz edilen metnin şu şekilde olup olmadığına bağlı olarak, büyük dil modellerinin veya LLM’lerin, insanları belirli işlerle eşleştirmek gibi görevleri nasıl yerine getirdiği incelendi. Afro-Amerikan İngilizcesi veya Standart Amerikan İngilizcesi – ırkı açıklamadan. Yüksek lisans yapanların Afro-Amerikan İngilizcesi konuşanları çok çeşitli işlerle ilişkilendirme olasılıklarının daha düşük olduğunu ve onları aşçılık, asker veya gardiyan gibi üniversite diploması gerektirmeyen işlerle eşleştirme olasılıklarının daha yüksek olduğunu buldular.
Araştırmacılar ayrıca yapay zeka modellerine belirsiz bir suçla suçlanan bir kişiyi mahkum mu edeceklerini yoksa beraat mı edeceklerini sordukları varsayımsal deneyler de gerçekleştirdiler. Tüm yapay zeka modelleri için mahkumiyet oranının, Standart Amerikan İngilizcesi ile karşılaştırıldığında Afro-Amerikan İngilizcesi konuşan kişilerde daha yüksek olduğunu buldular.
Belki de makalenin en sarsıcı bulgusu şu şekilde yayınlandı: arXiv’e ön baskı ve henüz hakem değerlendirmesinden geçmemiş olan bu iddia, suçlulukla ilgili ikinci bir deneyden geldi. Araştırmacılar modellere birinci derece cinayet işleyen bir kişiyi ömür boyu veya ölüm cezasına çarptırıp cezalandırmayacaklarını sordu. Deneyde modellere sağlanan tek bilgi bireyin lehçesiydi.
Yüksek Lisans’ların, Afrika kökenli Amerikan İngilizcesi konuşan kişileri, Standart Amerikan İngilizcesi konuşan kişilere göre daha yüksek oranda ölüm cezasına çarptırmayı seçtiğini buldular.
Araştırmacılar, araştırmalarına OpenAI’nin GPT-2, GPT-3.5 ve GPT-4 dahil olmak üzere ChatGPT modellerinin yanı sıra Meta’nın RoBERTa ve Google’ın T5 modellerini de dahil etti ve her birinin bir veya daha fazla sürümünü analiz ettiler. Toplamda 12 modeli incelediler. Gizmodo Perşembe günü çalışma hakkında yorum yapmak için OpenAI, Meta ve Google’a ulaştı ancak hemen bir yanıt alamadı.
İlginçtir ki, araştırmacılar yüksek lisans programlarının açıkça ırkçı olmadığını keşfettiler. Sorulduğunda, Afrikalı Amerikalıları “zeki” gibi son derece olumlu niteliklerle ilişkilendirdiler. Ancak, Afro-Amerikan İngilizcesini konuşup konuşmamalarına bağlı olarak, Afro-Amerikalıları gizlice “tembel” gibi olumsuz niteliklerle ilişkilendirdiler. Araştırmacıların açıkladığı gibi, “bu dil modelleri ırkçılıklarını gizlemeyi öğrendi.”
Ayrıca insan geri bildirimiyle eğitilen yüksek lisans öğrencilerinde gizli önyargının daha yüksek olduğunu buldular. Spesifik olarak, açık ve gizli ırkçılık arasındaki tutarsızlığın en çok OpenAI’nin GPT-3.5 ve GPT-4 modellerinde belirgin olduğunu belirttiler.
“[T]Onun bulgusu bir kez daha, dil modellerinde açık ve gizli stereotipler arasında temel bir fark olduğunu gösteriyor; açık stereotipleri hafifletmek, otomatik olarak hafifletilmiş gizli stereotiplere dönüşmez,” diye yazıyor yazarlar.
Genel olarak yazarlar, açık ırksal önyargılarla ilgili bu çelişkili bulgunun ABD’deki ırkla ilgili tutarsız tutumları yansıttığı sonucuna varıyorlar. Jim Crow döneminde, Afrikalı Amerikalılar hakkında açıkça ırkçı stereotiplerin propagandasının kabul edildiğini belirtiyorlar. Bu durum, bu tür görüşlerin ifade edilmesini “gayri meşru” hale getiren ve ırkçılığı daha gizli ve incelikli hale getiren sivil haklar hareketinden sonra değişti.
Yazarlar, bulgularının gelecekte Afrikalı Amerikalıların yüksek lisans eğitimlerindeki lehçe önyargısından daha da fazla zarar görebileceği ihtimalini ortaya koyduğunu söylüyor.
Yazarlar, “Görevlerimizin ayrıntıları oluşturulurken, iş dünyası ve yetki alanı, dil modellerini içeren yapay zeka sistemlerinin şu anda geliştirildiği veya uygulandığı alanlar olduğundan, bulgular gerçek ve acil endişeleri ortaya koyuyor” dedi.