İngiltere’nin veri gözlemcisi, işe alım sürecinde yapay zeka (AI) kullanırken olası önyargılar hakkında bir soruşturma başlatıyor. Soruşturma, otomatik işe alım sistemlerinden iddia edilen ırk ayrımcılığına odaklanacak.

Bilgi Komiserliği Ofisi (ICO) soruşturması, otomatik işe alım yazılımının azınlık gruplarına üye adayları haksız yere dışladığı yönündeki suçlamalara yanıt veriyor.

AI, hem yöneticilerin aşırı yüklenmesini önlemek hem de işe alımlarda potansiyel insan önyargısını ortadan kaldırmak için işe alımda sıklıkla kullanılır. Ancak, uzun zamandır bunun tam tersini yapabileceğine dair endişeler var.

2018 yılında e-ticaret devi Amazon AI işe alım aracını hurdaya çıkardı sonra kadın adaylara karşı ayrımcılık yapıldığı tespit edildi.

ICO’dan bir sözcü, “Farklı geçmişlerden gelenlerin istihdam fırsatlarını olumsuz yönde etkileyebilecek işe alım başvurularını elemek için algoritmaların kullanımıyla ilgili endişeleri araştıracağız” dedi.

“Ayrıca, algoritmaların insanlara ve onların bilgilerine adil bir şekilde davranmasını sağlama konusunda AI geliştiricileri için yenilenmiş rehberlik yoluyla beklentilerimizi ortaya koyacağız.”

AI işe alım önyargısı: Algoritmalar ‘kendi cihazlarına bırakıldı’

Veri bilimi firması Profusion’ın CEO’su Natalie Cramp, soruşturmanın “çok hoş ve gecikmiş” olduğunu söyledi.

Cramp, “kuruluşların işe alım gibi işlevler için algoritmalar kullandığı ve bunun sonucunda ırk veya cinsiyet ayrımcılığının ortaya çıktığı bir dizi son olay” olduğunu söyledi.

Cramp’a göre sorun, ya bu algoritmalara programlanmış bir yanlılık ya da kullandıkları veri kümelerinde olabilir.

Cramp, “Bu algoritmalar esasen kendi cihazlarına bırakıldı ve binlerce insanın fırsatlarını olumsuz etkilemesine yol açtı” dedi.

Taylor Wessing hukuk firmasının kıdemli danışmanı Joe Aiston şunları söyledi: “İşe alım yazılımı, kimlerin daha zayıf adaylar olabileceğini belirlemek için yazı veya konuşma kalıplarını analiz ederse, bunun ana dili İngilizce olmayan veya ana dili İngilizce olmayan bireyler üzerinde orantısız şekilde olumsuz bir etkisi olabilir. kim nöroçeşitli.

“AI tarafından böyle bir adayın tamamen bu temelde reddedilmesine yönelik bir karar, bu karar bir insan tarafından verilmemiş olmasına rağmen, işverene karşı ayrımcılık iddiasıyla sonuçlanabilir.”

ABD yazılım firması Pegasystems’in AI Lab direktörü Peter van der Putten, hataların “tasarımcıları en iyi niyete sahip olsalar bile” makine öğrenimi modellerine sızabileceğini söyledi.

Putten şunları ekledi: “Bu nedenle, kuruluşların algoritmalarını oluşturmak için kullanılan verilerin, modellerin ve mantığın mümkün olduğunca önyargı içermediğinden, AI destekli kararların önyargı için sürekli olarak izlendiğinden ve materyal otomatikleştirilmiş kararların ücretsiz otomatikleştirilmiş kararlarla birlikte geldiğinden emin olmaları gerekir. açıklama olanakları.”



genel-11