On beş sivil toplum kuruluşu, 16 Ekim Çarşamba günü, Ulusal Aile Harcırahı Fonu’nun kullandığı derecelendirme algoritmasıyla ilgili olarak Fransız Danıştay’ıyla temasa geçtiklerini duyurdu. CAF’a göre bu yapay zeka programı, yararlanıcılara bir şüphe puanı atayarak sosyal dolandırıcılığa karşı mücadeleyi mümkün kılıyor. Dernekler, bu derecelendirme sistemlerinin kullanımının AB’de yasa dışı olduğunu hatırlatarak, esas olarak en güvencesizleri hedef alan bir sistemi kınadılar.
tarafından kullanılan puanlama algoritması konusu Ulusal aile ödeneği fonu Fransa’daki çalışmalar en azından bu yapay zeka programlarının birçok Avrupa sosyal hizmetinde varlığını vurgulama hakkına sahipti.
Bazı AB ülkelerinin hükümetleri bu kuralları uygulamaya koymak için çeşitli nedenler ileri sürmektedir. Bazıları bunların kullanımını haklı çıkarıyor” dolandırıcılığı tespit etmek “, diğerleri” Kaynakların daha iyi dağılımını sağlamak için ”, hatta“ idari sistemlerin verimliliğini artırmak “. Bu puanlama algoritmaları zaten kullanılmış ve hala kullanılmaktadır Hollanda, Danimarka ve Sırbistan’da. Almanya aynı zamanda sosyal yardım dolandırıcılığına karşı mücadele etmek için bu uygulamaları kendi yönetimlerinde de uygulamaya çalışıyor.
Yapay zeka araçları Hollanda’da ağır şekilde eleştiriliyor
Ocak 2021’de, Hollanda hükümeti Hatta bu derecelendirme algoritmalarının binlerce ebeveyni yanlışlıkla dolandırıcılıkla suçlamasının ardından istifa etmek zorunda kaldı. Danimarka’da, yardım alanların etnik profilini çıkarma konusunda uzmanlaşmış kamu yardımları idaresinin yapay zeka programı, onlara uyruklarına göre zayıf bir puan veriyor.
“ Zaten dışlanmış insan gruplarını sistematik olarak damgalayan bu algoritmik cihazların işleyişi tamamen şeffaf değildir.», Libertés’in savunuculuk görevlisi Katia Roux’yu kınadı Uluslararası Af Örgütü Fransa : “Uluslararası Af Örgütü gibi pek çok STK, Devletlerin, özellikle Avrupa’da, sosyal koruma sistemlerinin bir parçası olarak dijital teknolojileri giderek daha fazla kullandıklarını belirtiyor. Çoğu zaman, bu sistemleri tasarlayanların ve bunları kullanan kamu hizmetleri yöneticilerinin belirttiği amaç, genellikle hükümetlerin sosyal yardıma ihtiyacı olan insanları daha iyi hedeflemesine yardımcı olmaktır. Ancak bu algoritmaların işleyişi hakkında detaylı bilgiye sahip olmak oldukça zordur ve bunları tanımlamak için “kara kutu” terimi tamamen uygundur. Bu teknolojiler, onları tasarlayan kişilerin önyargılarını ve dünya görüşlerini kaçınılmaz olarak yansıtan ayrımcılık taşısalar da çoğu zaman tarafsız, tarafsız, objektif, etkili araçlar olarak sunulmaktadır.“.
AB ülkelerinde yasa dışı puanlama algoritmaları
Aralık 2023 tarihli kararında, Avrupa Birliği Adalet Divanı Avrupa’da her türlü otomatik puanlamanın, özellikle de bir algoritmanın belirli bir şekilde zarara neden olduğu durumlarda yasaklandığına karar vermişti. Ayrıca, şüphe puanı oluşturan yapay zeka sistemlerinin konuşlandırılması, yasaya aykırı olacaktır.GDPR’nin 22. maddesi. AB veri koruma düzenlemesi aynı zamanda bir kişiye ilişkin, kişisel verilerinin işlenmesine dayanan karar alma sürecinin, açık rızası alınmaksızın otomatikleştirilmesini de yasaklamaktadır.
Ayrıca okuYapay zeka: gerçekte neden bahsediyoruz?