ChatGPT’yi duymamış üçüncü düzey bir profesyonel bulmak artık zor. Ancak bu sistemler ancak eğitildikleri veriler kadar akıllıdır. Ve bu veriler insanlar tarafından yaratıldı. Bu, tıpkı insanlar gibi bu yapay zeka araçlarının da ön yargılara ve ön yargılara maruz kalabileceği anlamına geliyor.


Bloomberg yakın zamanda ırksal önyargılarla ilgili bir çalışma yayınladı GPT-3.5 ile yapılan deneylerde. Araştırmacılar yapay zeka aracından, farklı isimlere sahip, eşit niteliklere sahip Amerikalı adayların 1.000 özgeçmişini sıralamasını istedi. GPT-3.5’in, Siyah Amerikalılar gibi belirli demografik gruplar tarafından geleneksel olarak kullanılan adlara sahip kişileri listenin en altında sıraladığını buldular.


İngiliz Radyoloji Dergisi başka bir çalışma yayınladı AI modellerinin, bakıma erişim ve bakım kalitesindeki tarihsel eşitsizlikler ve eşitsizlikler nedeniyle sağlık uygulamalarındaki önceden var olan önyargılardan da etkilendiğini gösteriyor. Elbette yapay zeka sistemleri eşitsizlikleri yansıtan veriler üzerinde eğitildiğinde bu faktörler daha da vurgulanıyor.

Daha da ileri giderek, yapay zekanın işyerinde önyargıya katkıda bulunmasının dört yolunu burada bulabilirsiniz.

1. İsme dayalı ayrımcılık

Üretken yapay zekanın yükselişi, özellikle birçok şirketin işe alım için yapay zeka araçlarını kullanma konusunda istekli olması nedeniyle otomatik işe alım sistemlerini etkiliyor. Ne için ? Maliyetleri azaltmak için. Ancak ChatGPT gibi yapay zeka araçlarının insanların adlarına dayalı bariz önyargıları var.

Bloomberg araştırması başlangıçta isimleri belirli ırksal ve etnik gruplarla açıkça ilişkilendirilen sekiz farklı özgeçmiş oluşturdu. Daha sonra bu CV’leri aday uygunluğuna göre sıralamak için ChatGPT’nin ücretsiz sürümünü destekleyen büyük dil modeli (LLM) olan GPT-3.5’i kullandılar.

Araştırmaya göre, sosyolojide iyi bilinen ırksal önyargıları vurgulayan GPT-3.5, açıkça belirli demografik grupları diğerlerine göre ayrıcalıklı kıldı.

Bloomberg araştırmacıları deneyi farklı isimler ve kombinasyonlarla ancak aynı niteliklerle 1.000 kez gerçekleştirdi. GPT-3.5, Asya kökenli isimleri (%32) finansal analist pozisyonu için en iyi adaylar arasında sıraladı. Siyah Amerikalı isimler çoğunlukla ölçeğin en altında yer alıyordu. Beyaz veya İspanyol kökenli isimlere sahip adayların dengeli muamele görme olasılıkları yüksekti.

2. İş türlerine bağlı olarak tutarsız standartlar

Her ne kadar tüm özgeçmişler finansal analist pozisyonu için aynı niteliklere sahip olsa da, sonuçlar Yüksek Lisans’ın ırksal önyargısını açıkça ortaya koyuyordu. Deney diğer üç pozisyon için (İK iş ortağı, kıdemli yazılım mühendisi ve perakende satış müdürü) tekrarlandığında Bloomberg, cinsiyet ve ırk tercihlerinin pozisyona göre farklılık gösterdiğini de buldu.

“GPT, erkeklerle ilişkilendirilen isimleri, tarihsel olarak kadınların egemen olduğu iki meslek olan İK ve perakende pozisyonları için en iyi adaylar olarak nadiren sıraladı. GPT’nin, Hispanik kadınlardan farklı isimleri, insan kaynaklarındaki bir pozisyon için en iyi adaylar olarak, erkeklerin CV’lerine göre neredeyse iki kat daha fazla sıraladığı görüldü. Araştırmaya göre isimler”.

Burada Temmuz 2023’teki önyargılı yapay zeka araçlarına bir başka örnek. MIT’de Asyalı Amerikalı bir öğrenci olan Rona Wang, Playground AI görüntü oluşturucuya bir selfie yükledi ve “profesyonel bir LinkedIn profil fotoğrafı” talep etti. Yapay zeka aracı, Wang’ın fotoğrafını, Wang’ın MIT eşofmanını giyen beyaz bir kadın görüntüsüne dönüştürdü.

3. Tarihsel toplumsal önyargıların güçlendirilmesi

Üretken yapay zeka araçları genellikle adayları taramak ve sıralamak, özgeçmişler ve kapak mektupları oluşturmak ve birden fazla dosyayı özetlemek için kullanılır. Ancak yapay zeka modelleri yalnızca üzerinde eğitim aldıkları veriler kadar iyidir.

GPT-3.5, kitaplar, makaleler ve sosyal medya içerikleri de dahil olmak üzere çevrimiçi olarak yaygın olarak bulunabilen büyük miktarda bilgi üzerine eğitildi. Bu verilere çevrimiçi erişim, yapay zeka modelinin bir dereceye kadar miras aldığı ve kopyaladığı eğitim verilerinin de gösterdiği gibi, kaçınılmaz olarak toplumsal eşitsizlikleri ve tarihsel önyargıları yansıtıyor.

Yapay zekayı kullanan hiç kimse bu araçların doğası gereği objektif olduğunu varsaymamalı çünkü bunlar farklı kaynaklardan gelen büyük miktarda veri üzerinde eğitiliyor. Üretken yapay zeka modelleri faydalı olsa da, otomatikleştirilmiş işe alım sürecinde önyargı riskini hafife almamalıyız ve bu gerçeklik işe alım uzmanları, İK profesyonelleri ve yöneticiler için çok önemlidir.

2019 yılında Clarkson Üniversitesi araştırması yüz tanıma teknolojilerinde ırksal önyargının varlığını ortaya çıkardı ve koyu tenli insanlar için daha düşük doğruluk oranları ortaya çıkardı. Ve örneğin yapay zeka modellerini eğitmek için posta kodlarındaki demografik dağılım hakkındaki verileri kullanmak kadar basit bir şey, belirli ırksal kökene sahip insanları orantısız bir şekilde etkileyen kararlarla sonuçlanabilir.

4. Şeffaflık ve hesap verebilirliğin eksikliği

İK süreçlerini otomatikleştirmek için üretken yapay zekanın kullanılması coşkulu bir tutum oluştursa da, bu yapay zeka araçları çoğu zaman kararlarında şeffaflık sağlamaz.

Bazı yapay zeka şirketleri, yapay zeka modellerinin sonuçlarının hatalı olabileceğini belirten sorumluluk reddi beyanları sunsa da, birçok şirket hala bunları kendi uygulamalarını oluşturmak için kullanıyor. Bu nedenle bir hatadan hangi şirketin sorumlu olduğu her zaman açık değildir.

Bloomberg çalışma sonuçlarını OpenAI’ye sunduğunda ChatGPT’nin arkasındaki şirket, kullanıma hazır modellerden elde edilen sonuçların kullanıcıların AI modellerini nasıl kullandığını yansıtmayabileceğini söyledi. OpenAI, şirketlerin bir GPT modeline beslemeden önce özgeçmişlerden adları kaldırabileceğini söyledi.


Kaynak : “ZDNet.com”



genel-15