Avrupalı düzenleyiciler, AI’nın bölgede nasıl düzenleneceğine – ve nihayetinde ticari ve ticari olmayan olarak kullanılacağına – ve bugün AB’nin en büyük tüketici grubu olan BEUC’ye ilişkin bir dönüm noktasında. kendi konumu ile tartılır: ayak sürümeyi bırakın ve “üretken yapay zekanın risklerine ilişkin acil soruşturmalar başlatın” dedi.
“ChatGPT gibi üretici yapay zeka, tüketiciler için her türlü olasılığın önünü açtı, ancak bu sistemlerin insanları nasıl aldatabileceği, manipüle edebileceği ve zarar verebileceği konusunda ciddi endişeler var. BEUC Genel Müdür Yardımcısı Ursula Pachl yaptığı açıklamada, dezenformasyon yaymak, ayrımcılığı artıran mevcut önyargıları sürdürmek veya dolandırıcılık için kullanılabilirler” dedi. “Güvenlik, veri ve tüketiciyi koruma yetkililerini şimdi soruşturma başlatmaya ve harekete geçmeden önce her türlü tüketici zararının meydana gelmesini beklememeye çağırıyoruz. Bu yasalar, yapay zeka destekli olsun ya da olmasın tüm ürün ve hizmetler için geçerlidir ve yetkililerin bunları uygulaması gerekir.”
AB’de 13 ülkede tüketici örgütlerini temsil eden BEUC, çağrıyı bugün rapor ver üyelerinden biri olan Norveç’teki Forbrukerrådet’ten.
Bu Norveç raporunun konumu net: Yapay zeka tüketicilere zarar veriyor (raporun başlığı her şeyi söylüyor: “Makinedeki Hayalet: üretken yapay zekanın tüketici zararlarını ele almak”) ve çok sayıda sorunlu sorun ortaya koyuyor.
Bazı teknoloji uzmanları, insan neslinin tükenmesinin bir aracı olarak yapay zeka hakkında alarm zilleri çalarken, Avrupa’daki tartışma daha net olarak yapay zekanın adil hizmet erişimi, dezenformasyon ve rekabet gibi alanlardaki etkileri etrafında dönüyor.
Örneğin, “Big Tech şirketleri de dahil olmak üzere belirli AI geliştiricilerinin” sistemleri harici incelemeden nasıl kapattığını ve verilerin nasıl toplandığını veya algoritmaların nasıl çalıştığını görmeyi zorlaştırdığını vurgular; bazı sistemlerin doğru sonuçlar verdiği kadar kayıtsızca yanlış bilgiler üretmesi ve kullanıcıların çoğu zaman bunun ne olabileceği konusunda daha akıllı olmaması; Kullanıcıları yanıltmak veya manipüle etmek için oluşturulmuş yapay zeka; belirli bir AI modeline beslenen bilgilere dayalı önyargı sorunu; ve güvenlik, özellikle yapay zekanın insanları dolandırmak veya sistemleri ihlal etmek için nasıl silah haline getirilebileceği.
OpenAI’nin ChatGPT’sinin piyasaya sürülmesi, AI’yı ve erişim potansiyelini kesinlikle kamu bilincine yerleştirmiş olsa da, AB’nin AI’nın etkisine odaklanması yeni değil. 2020’de “risk” konularını tartıştığını belirtti, ancak bu ilk çabalar teknolojiye “güveni” artırmak için temel oluşturdu.
2021’e gelindiğinde, daha spesifik olarak “yüksek riskli” yapay zeka uygulamalarından bahsediyordu ve bazıları 300 kuruluş bir araya geldi bazı AI türlerinin tamamen yasaklanmasını savunmak için ağırlık vermek.
AB bölge çapındaki yasaları üzerinde çalışırken, duygular zaman içinde daha belirgin bir şekilde kritik hale geldi. Geçen hafta, AB’nin rekabet sorumlusu Margarethe Vestager konuştu özellikle yapay zekanın önyargı risklerini nasıl oluşturduğuna ilişkin ipotek ve diğer kredi başvuruları gibi finansal hizmetler gibi kritik alanlarda uygulandığında.
Açıklamaları AB’den hemen sonra geldi resmi AI Yasasını onayladıAI uygulamalarını geçici olarak kabul edilemez, yüksek ve sınırlı risk gibi kategorilere ayıran geniş parametre aralığı hangi kategoriye girdiğini belirlemek için
Yapay Zeka Yasası uygulandığında, yapay zekanın ticari ve ticari olmayan amaçlarla nasıl kullanıldığına dair bir tür anlayışı ve yasal yaptırımı kodlamaya yönelik dünyanın ilk girişimi olacaktır.
Sürecin bir sonraki adımı, AB’nin, özellikle kategorilerine neyin (ve kimin) uyacağını ve neyin uymayacağını belirlemek için, yasanın alacağı nihai şekli belirlemek için AB’deki tek tek ülkelerle ilişki kurmasıdır. Soru, farklı ülkelerin birlikte ne kadar kolay anlaştıkları olacaktır. AB, bu süreci bu yıl sonuna kadar tamamlamak istiyor.
Pachl yaptığı açıklamada, “AB’nin tüketicileri korumak için bu yasayı olabildiğince su geçirmez hale getirmesi çok önemli” dedi. “Üretken yapay zeka da dahil olmak üzere tüm yapay zeka sistemlerinin kamu denetimine ihtiyacı var ve kamu yetkilileri bunlar üzerindeki kontrolü yeniden sağlamalı. Yasa koyucular, herhangi bir üretken AI sisteminin çıktısının tüketiciler için güvenli, adil ve şeffaf olmasını şart koşmalıdır.”
BEUC, kritik anlarda devreye girmesi ve düzenleyicilerin nihai olarak izleyeceği yönü yansıtan etkili çağrılar yapmasıyla tanınır. Örneğin, arama ve mobil devine karşı uzun vadeli antitröst soruşturmalarında Google’a karşı erken bir sesti ve şirkete karşı işlem yapılmadan yıllar önce çınladı. Ancak bu örnek, başka bir şeyin altını çiziyor: Yapay zeka ve etkileri ve düzenlemenin bunda oynayabileceği rol hakkındaki tartışma muhtemelen uzun sürecek.