Birleşik Krallık Eşitlik ve İnsan Hakları Komisyonu (EHRC), ülkedeki AI düzenlemesine ilişkin mevcut önerilerin insan haklarını korumak için yetersiz olduğu yönündeki endişelerini dile getirdi.

Watchdog bir yazısında, “Yapay Zekayı düzenleme önerileri, insan hakları ve eşitlik risklerinin üstesinden gelmek için gerekenlerin gerisinde kalıyor” diye yazdı. açık mektupAI’nın sorumlu ve etik kullanımının birçok fayda sağlayabileceğini belirterek, “AI’nın artan kullanımıyla birlikte, algoritmik önyargılar tarafından şiddetlenen mevcut ayrımcılığın artması riskinin geldiğinin farkındayız.”

EHRC, teknolojiyi nasıl kullandıklarını anlamak için yerel makamlarla araştırma yaptığını ve yayınlanmış kılavuz kamu kurumları için, özellikle Kamu Sektörü Eşitlik Görevi (PSED) etrafında ele alınmaktadır. PSED, politikalarının veya kararlarının Eşitlik Yasası kapsamında korunan kişileri nasıl etkilediğini değerlendirmek için kamu yetkililerinin görevidir.

Düzenleyici kurum, yerel makamların AI satın alırken ve kullanırken eşitliği nasıl değerlendirdiği konusunda bazı iyi uygulamalar bulduğunu söylese de, kullanıma sunulan AI sistemlerinin ayrımcılığa yol açmamasını sağlamak için yapılabilecek daha çok şey olduğunu kaydetti.

EHRC, “Yapay zeka sistemlerinin nasıl çalıştığı konusunda da şeffaflık eksikliği bulduk ve bu da yerel makamların bu tür teknolojilerin eşitlik etkisini dikkate alma kabiliyetini sınırlıyor” dedi.

Birleşik Krallık hükümeti yapay zekayı düzenlemeyi nasıl teklif ediyor?

Birleşik Krallık hükümeti, yapay zeka düzenlemesine ilişkin politikasını özetleyen bir teknik incelemede, yapay zeka yönetişiminin sorumluluğunu yeni tek bir düzenleyiciye vermemeyi tercih ettiğini, bunun yerine Sağlık ve Güvenlik Yürütücüsü, Eşitlik ve İnsan Hakları Komisyonu gibi mevcut düzenleyicilere çağrıda bulunduğunu söyledi. ve Rekabet ve Piyasa Kurumu, yapay zekanın kendi sektörlerinde kullanılma biçimine en uygun kendi yaklaşımlarını bulmak için.

Önümüzdeki aylarda, düzenleyicilerin kuruluşlara pratik kılavuzlar yayınlamaya, risk değerlendirme şablonları dağıtmaya ve hükümetin emniyet, güvenlik ve sağlamlık ilkelerini nasıl uygulayacaklarını belirlemeye başlaması bekleniyor; şeffaflık ve açıklanabilirlik; adalet; hesap verebilirlik ve yönetişim; ve itiraz edilebilirlik ve tazmin.

EHRC, sorumlu AI inovasyonunu teşvik etmeyi taahhüt ederken, hükümetin stratejiyi desteklemekle görevli düzenleyici kurumlara rollerini etkin bir şekilde yerine getirebilmelerini sağlamak için yeterli fon ve kaynak sağlanmasını sağlaması gerektiğini söyledi.

“Eğer herhangi bir yeni teknoloji yenilik getirirken bizi güvende tutacaksa, dikkatli bir gözetime ihtiyacı var. EHRC Başkanı Barones Kishwer Falkner, açık mektubun yanında yayınlanan yorumlarında, AI’nın toplumdaki mevcut önyargıları kötüleştirmemesini veya yeni ayrımcılığa yol açmamasını sağlamaya yönelik gözetimi de içeriyor.

“Bu zorluğun üstesinden gelmek için, yeteneğimizi artırmamız ve eşitlik ve insan hakları düzenleyicisi olarak operasyonumuzu büyütmemiz gerekiyor. Devlet desteği olmadan bunu yapamayız” dedi.

Ayrımcılık tehdidi en büyük AI riskidir

EHRC’nin endişe ifadesi, Avrupa Rekabetten Sorumlu Komisyon Üyesi Margrethe Vestager’in yapay zeka kaynaklı ayrımcılığın toplum için insanların yok olma ihtimalinden daha büyük bir risk oluşturduğunu savunmasından haftalar sonra geldi.

“Muhtemelen [the risk of extinction] olabilir, ama bence olasılık oldukça küçük. Yapay zeka risklerinin insanların ayrımcılığa uğramasından daha fazla olduğunu düşünüyorum. [against]oldukları gibi görülmeyecekler, ”dedi Vestager BBC ile röportaj bu aydan daha erken.

“İpotek alıp alamayacağıma karar vermek için onu kullanan bir bankaysa veya belediyenizdeki sosyal hizmetler ise, o zaman ayrımcılığa uğramadığınızdan emin olmak istersiniz. [against] cinsiyetiniz veya renginiz veya posta kodunuz nedeniyle” dedi.

Telif hakkı © 2023 IDG Communications, Inc.



genel-12