Avrupa Komisyonu, AB ülkelerinde yapay zeka programlarının uygulanmasına ilişkin yasakları netleştirmelidir. Komisyon tarafından 13 Kasım’da başlatılan çevrimiçi kamuoyu istişaresine katılanlara göre, düzenleyici metin birçok gri alan sunuyor. Bu nedenle AB, Avrupa hukuku hükümlerini daha okunabilir hale getirmek amacıyla kılavuzlarını Şubat 2025’ten itibaren yayınlamayı planlıyor.

Nitelikli tehditler Avrupa metni ile ilgili ” minimum ” Ve ” sınırlı » örneğin çevrimiçi dolandırıcılıklarla mücadele etmek için video oyunlarında kullanılan yapay zeka sistemleri veya yapay zeka tarafından yönetilen spam filtreleriyle ilgilidir. Daha sonra, özellikle sosyal ağlarda aşırı sahte dezenformasyon olmak üzere, görüntü, ses veya video oluşturma veya değiştirme olanağı sunan programlar geliyor.

“Yüksek risk” sağlık, eğitim, işe alım, kritik altyapı yönetimi, kolluk kuvvetleri ve hatta adalet sektörlerinde kullanılan cihazlar için geçerlidir. Ve listenin en üstünde şunu buluyoruz: kabul edilemez riskler İnsan onurunu, demokrasiyi veya hukukun üstünlüğü. Örneğin, kamunun erişebildiği alanlarda yüz tanımayla ilişkili biyometrik tanımlama sistemleri yeni yönetmelikte resmi olarak yasaklanmıştır.


IA Yasası, çok karmaşık kabul edilen bir düzenleme

Teknoloji sanayicileri, siyasi karar alıcılar, sivil toplum temsilcileri ve hatta genç start-up’ların, 11 Aralık’a kadar görüş bildirmeleri gerekiyor. çevrimiçi halkla istişare Komisyon tarafından düzenlendi. Paydaşların AB’de yasaklanması veya yasaklanmaması gereken sistem örneklerini belirlemesine olanak tanıyacak. Avrupa organı, 2 Şubat 2025’te kılavuz ilkeler yayınlamayı vaat ediyor. Bu istişarenin yardımcı olacağı belirtiliyor: ulusal yetkili makamların yanı sıra program sağlayıcıları ve geliştiricileri » Yeni düzenlemeleri uygulamak.

Sorun da burada yatıyor! AB metni çelişkileri bir araya getiriyor ve “ sorunlu istisnalar » yeni düzenlemeye zararlıdır, not Jean-Gabriel Ganasciadijital etik uzmanı, Sorbonne Fen Fakültesi’nde ve Institut Universitaire de France’da profesör: ” Bu o kadar karmaşık bir yasadır ki, kimse onu anlayamaz. Risk yönetimine dayanır ve bu ilk sorundur çünkü risk, tehlikelerin öngörülmesidir. Ancak yapay zeka programlarındaki gelecekteki gelişmeler büyük ölçüde tahmin edilemez. Örneğin yapay zekayla bağlantılı düşük riskleri, yani herhangi bir yasağa tabi olmayan programların dağıtımını ele alırsak, şunu buluruz: spam filtreleri. Bu dolandırıcılık önleme filtrelerinin hangi teknik kriterlere göre çalıştığını bilmek imkansızdır. Ancak bunların zorunlu kullanımı Avrupalı ​​İnternet kullanıcılarına uygulanan bir tür sansürdür. Ve burada, bu algoritmaların, yeni AB AI yasasının genel çerçevesinde tanımlanan şeffaflık yükümlülüklerinin dışında tutulması üzücüdür. Bu nedenle bu mevzuatın uygulanması son derece zordur ve önümüzdeki yıllarda başarılı olacağımızdan emin değilim.»


Yapay zeka düzenlemesinin zorlukları Sophia Antipolis’te tartışıldı

Yapay zekanın ortaya çıkardığı etik ikilemler, derginin yeni baskısındaki tartışmaların merkezinde yer alacak. Sophi.A Zirvesi bu çarşamba. Fransa’nın Côte d’Azur kentinde bulunan Avrupa teknoloji parkı Sophia Antipolis tarafından düzenlenen Jean-Gabriel Ganascia, algoritmaların geliştirilmesinde düzenleme ve etik ile ilgili temel konulara geri dönecek. Ayrıca Avrupa Birliği’nin yapay zeka yatırımlarında açıkçası geride kaldığını da hatırlatalım. Çoğu Büyük Teknoloji firmasının yanı sıra birçok genç sürgünler AB’de, Eski Kıta’ya, Çinli şirketlerle ya da Silikon Vadisi’nin devleriyle rekabet etmek istiyorsa kendisini toparlaması çağrısında bulunuyoruz.



genel-10