Avrupa Parlamentosu, AB milletvekillerinin Perşembe günü geçici bir siyasi anlaşmaya varmasıyla, büyük bir yasama organı tarafından yapay zeka için dünyanın ilk düzenleme dizisinin ne olabileceği konusundaki tutumunu resmileştirmeye hazırlanıyor.
Avrupa Parlamentosu üyeleri (MEP’ler), AB’nin içeriğini tartışıyorlar. Yapay Zeka Yasası ve ilgili birkaç son dakika düzenlemesi ile uzlaşma değişiklikleri üzerinde anlaştılar. üretici yapay zeka.
Bir Parlamento yetkilisi, “Uzlaşılan değişiklikler dün raportörler ve gölge raportörler arasındaki iç görüşmelerde kararlaştırıldı ve 11 Mayıs 2023’te Avrupa Parlamentosu Üyeleri tarafından komitede oylanacak.” dedi. Bunu Haziran ayında genel kurulda yapılacak oylama takip edecek ve ardından Konsey (üye devletler) ile yıl sonundan önce kurumlar arası bir anlaşmaya varılması görüşüyle görüşmeler başlayacak.”
AB’nin yürütme organı olan Avrupa Komisyonu, 2020’nin başından beri yapay zeka için düzenleyici bir çerçeve üzerinde çalışıyor. Nisan 2021’de Komisyon, kapsamlı bir yasal düzenleme sağlamayı amaçlayan AI Yasası için bir dizi taslak düzenleme önerdi AB’de AI sistemlerinin geliştirilmesi ve konuşlandırılması için çerçeve.
Önerilen düzenlemeler, çok çeşitli AI uygulamalarını kapsar ve AI kullanımında güven ve şeffaflığı teşvik etmeyi, temel hak ve özgürlükleri korumayı ve AI geliştirme ve dağıtımında güvenlik ve etik ilkeleri sağlamayı amaçlar.
ChatGPT ve ilgili AI’lar son dakika düzenlemeleri alıyor
Belirli bir kullanım durumunu karşılamayan AI sistemleriyle uğraşmak, teklifte en çok tartışılan konu oldu. Genel amaçlı AI sistemleri, çok çeşitli görevleri yerine getirir ve orijinal teklifte ele alınmamıştır. Metin girişini alıp kullanıcılara yüksek kaliteli, bağlama dayalı yanıtlar veren genel amaçlı, üretken bir yapay zeka modeli olan ChatGPT’nin yarattığı kesintiden sonra dikkate alındılar.
Avrupa Parlamentosu Üyeleri, ChatGPT, DALL-E ve Midjourney gibi üretim araçlarının, AB yasalarına ve ifade özgürlüğü de dahil olmak üzere temel haklara uygun olacak şekilde tasarım ve dağıtım açısından düzenlenmesi gerektiği konusunda anlaştılar. Kanunda yapılan büyük bir değişiklik, bu araçların sistemlerini geliştirmek için kullanılan telif hakkıyla korunan materyalleri ifşa etmek zorunda kalacak olmasıdır.
Üretken yapay zeka modellerine yönelik diğer gereksinimler arasında, bağımsız uzmanların katılımıyla sağlık, güvenlik, temel haklar, çevre, demokrasi ve hukukun üstünlüğüne yönelik makul şekilde öngörülebilir risklerin test edilmesi ve hafifletilmesi yer alır.
Yasa aynı zamanda yapay zeka modellerindeki azaltılamayan risklerin ve bunların neden ele alınmadığının belgelenmesini de zorunlu kılıyor. ChatGPT’nin kimlik avı materyalleri, bilgi hırsızı yükleri, DDoS ve fidye yazılımı ikili komut dosyaları oluşturma dahil olmak üzere kötü amaçlarla kullanılabileceğine dair endişeler olmuştur.
Uzmanlar, ChatGPT ve DALL-E gibi büyük dil modellerine (LLM’ler) dayalı sistemlere yönelik düzenlemelerin, temel işlevlerini etkilemeden yasalaşıp yasalaştırılamayacağını sorguluyor.
Enterprise Management’ta analist olan Chris Steffen, “Oldukça basit – Chat GPT gibi bir şeyi, çözümlerinin etkinliğini azaltmadan nasıl düzenleyebileceğimiz konusunda hiçbir fikrim yok,” dedi. “Ayrıca, hain amaçlar için özel olarak yaratılan örnekler ne olacak? Teknoloji yaygınlaşıp erişilebilir hale geldiğinde, kötü aktörler kendi “kötü adam Sohbet Yapay Zekasını” kurabilmeli (ve kuracak), istediklerini yapmak ve bu amaçlar için optimize etmek. Peki, teknolojiyi de düzenliyor musunuz (ve düzenleyebilir misiniz)? Muhtemelen değil.”
AI Yasası öncelikle bir sınıflandırma sistemini takip eder
Genel amaçlı AI ile ilgili son tartışmaların dışında, yasa öncelikle mevcut AI çözümlerini kabul edilemez, yüksek, sınırlı ve minimum olmak üzere riske dayalı kategorilere ayırmaya odaklanıyor.
Spam filtreleri veya video oyunları için kullanılanlar gibi yalnızca sınırlı ve minimum riskler sunan AI sistemleri, şeffaflık olduğu sürece çok az gereksinimle kullanılabilir. Ancak, kamusal alanlarda devlet sosyal puanlama sistemleri ve gerçek zamanlı biyometrik tanımlama sistemleri için kullanılanlar gibi kabul edilemez riskler oluşturan AI sistemlerine, birkaç istisna dışında, genellikle izin verilmeyecektir.
Geliştiricilerin ve kullanıcıların yüksek riskli AI sistemlerini kullanmalarına izin verilir, ancak kapsamlı testleri, veri kalitesinin uygun şekilde belgelenmesini ve insan gözetimini özetleyen bir hesap verebilirlik çerçevesini zorunlu kılan düzenlemelere uymaları gerekir. Yüksek riskli kabul edilen AI sistemlerine örnek olarak otonom araçlar, tıbbi cihazlar ve kritik altyapı makineleri dahildir.
Perşembe günü varılan anlaşma, 11 Mayıs’taki oylamadan önce hala küçük düzeltmelere tabi olan metni nihai hale getiriyor; burada tüm gruplar, alternatif değişiklik olasılığı olmadan uzlaşma üzerinde oy kullanmak zorunda kalacak.
Telif hakkı © 2023 IDG Communications, Inc.