İsveç’te, Sosyal Güvenlik kurumu Uluslararası Af Örgütü tarafından seçilmiştir. STK, bu kurumun ayrımcı algoritmalar kullandığı iddia edilen sistemini eleştiriyor.
Stockholm’deki muhabirimizden,
İsveç Sosyal Güvenlik Kurumu bir yapay zeka (AI) Amacı sosyal yardım dolandırıcılığını tespit etmektir. Gerçekleştirilen iki tür kontrol vardır: Birincisi, sosyal hizmet uzmanları tarafından yürütülen standart bir araştırmadır. Bu durumda, beyanlarında basit bir hata yapmış olabilecek kişiye şüphe avantajını sağlıyoruz. İkinci doğrulama ise “kontrol” departmanı tarafından yapılıyor ve orada suç kastından şüphelenilen vakalarla ilgileniyorlar. Sorun teşkil eden de işte bu “suç niyeti” varsayımıyla kontrol kavramıdır, çünkü bazı kişiler yapay zeka tarafından otomatik olarak bu ikinci kategoride sınıflandırılır ve algoritma onlara yüksek risk puanı atar. Başlangıçtan itibaren “şüpheli hileci” olarak kabul edilirler.
Ayrımcı yapay zeka
Kâr amacı gütmeyen kuruluş Deniz Feneri Raporları ve İsveç gazetesi Svenska Dagbladet Yapay zekanın bu “puanları” nasıl atadığını anlamak için araştırıldı. Yapılan incelemede bazı grupların orantısız şekilde haber yapıldığı ortaya çıktı. Algoritmanın otomatik olarak seçtiği insan grubunda, yurtdışında doğmuş veya ebeveynleri yurtdışında doğmuş kişilerin yanı sıra kadınlar ve düşük gelirli veya üniversite diploması olmayan kişileri de buluyoruz. Genellikle toplumda zaten dışlanmış olan bu insanlar yüksek risk puanı alıyorlar ve bu nedenle sosyal yardım kurumu içindeki dolandırıcılık gözlemcileri tarafından orantısız bir şekilde inceleniyorlar.
Orantısız bir kontrol gücü
Ve bu kontrolörlerin muazzam bir gücü var. Sosyal ağlarınızı arayabilir, bankanızdan veya okullarınızdan veri alabilir, hatta komşularınızı sorgulayabilirler. Diziyi daha önce izlemiş olanlar için biraz bir bölüm gibi geliyor Siyah Ayna.
Avrupa Birliği’nin yapay zeka düzenlemelerine aykırı uygulamalar, yeni AB düzenlemesi Geçtiğimiz Ağustos ayında yürürlüğe giren ve başta eşitlik olmak üzere temel haklara saygı duyan yapay zekayı garanti etmeyi amaçlayan yasa. Bu nedenle, sosyal derecelendirme aracı olarak kabul edilebilecek belirli sistemleri resmi olarak yasaklamaktadır. Uluslararası Af Örgütü’ne göre bu sistemin riski, önceden var olan eşitsizlikleri ve ayrımcılığı daha da kötüleştirmektir; bu yöntemlerin insanlıktan çıkarıcı ve önyargıya dayalı olduğundan bahsetmiyorum bile.
Şunu unutmayın: Süet öne çıkan tek kişi olmaktan çok uzak. 13 Kasım’da, bu araçla zararlı kitlesel gözetleme oluşturmakla suçlanan Danimarka sosyal koruma kurumuydu ve Ekim ayında Uluslararası Af Örgütü, Fransız yetkililere bu kez bu aracı kullanmayı derhal bırakmaları çağrısında bulundu. Fazla ödemeleri ve ödeneklerin ödenmesindeki hataları tespit etmek için Ulusal Aile Yardımı Fonu (CNAF) tarafından kullanılan bir risk derecelendirmesi atar. Risk, 2021’de Hollanda’da meydana gelen skandalın yeniden üretilmesidir: O zamanlar 26.000 ebeveyn, etnik profillemeyi kullanan bir algoritma tarafından yanlışlıkla vergi kaçakçılığıyla suçlanıyordu.
İsveç Sosyal Güvenlik Kurumu sözcüsü şunları söyledi: sistem İsveç yasalarına tamamen uygun olarak çalışmaktadır. »
Ayrıca okuAvrupa’da puanlama algoritmaları oluşturuldu