Avrupa Birliği milletvekilleri hızlanırken 20 saatten fazla müzakere süresi TechCrunch’ın incelediği sızdırılmış bir teklife göre, yapay zekanın nasıl düzenleneceği konusunda anlaşmaya varmak için yapılan maraton girişiminde, tek bir yapışkan unsurun (temel modeller/genel amaçlı yapay zekalar (GPAI’ler) kuralları) nasıl ele alınacağına dair bir ön anlaşmaya varıldı.
Son haftalarda, Fransız yapay zeka girişimi Mistral’ın öncülüğünde, temel modeller/GPAI’ler için tam bir düzenleyici düzenleme yapılması yönünde yoğun bir çaba yaşandı. Ancak AB milletvekilleri, teklifin parlamentonun bu yılın başlarında önerdiği bu gelişmiş yapay zekaları düzenlemeye yönelik kademeli yaklaşımın unsurlarını muhafaza etmesi nedeniyle piyasanın işleri yoluna koymasına izin vermek için tam gaz baskıya direnmiş görünüyor.
Bununla birlikte, ücretsiz ve açık kaynak lisansları kapsamında sağlanan GPAI sistemlerine yönelik bazı yükümlülüklerde kısmi bir değişiklik söz konusudur (ki bu şu anlama gelir: ağırlıkları, model mimarisine ilişkin bilgiler ve model kullanımına ilişkin bilgilerin kamuya açıklanması) — “yüksek riskli” modeller de dahil olmak üzere bazı istisnalar dışında.
Reuters ayrıca açık kaynaklı gelişmiş yapay zekalara yönelik kısmi istisnalar hakkında da rapor verdi.
Kaynağımıza göre, açık kaynak istisnası ayrıca ticari dağıtımla da sınırlıdır; dolayısıyla böyle bir açık kaynak modeli piyasaya sürülürse veya başka bir şekilde hizmete sokulursa, bu ayrım artık geçerli olmayacaktır. Kaynağımız, “Dolayısıyla, ‘piyasaya sürme’ veya ‘hizmete sunma’nın nasıl yorumlandığına bağlı olarak yasanın Mistral için geçerli olma ihtimali var” dedi.
Gördüğümüz ön anlaşma, GPAI’lerin “sistemik risk” olarak adlandırılan sınıflandırmasını koruyor; bu tanımı alan bir modelin kriterleri, eğitimi için kullanılan kümülatif bilgi işlem miktarının ne zaman ölçüldüğü de dahil olmak üzere “yüksek etkili yeteneklere” sahip olmasıdır. kayan nokta işlemlerinde (FLOP’lar) 10^25’ten büyüktür.
Bu seviyede çok az sayıda mevcut modelin sistemik risk eşiğini karşıladığı görülüyor — çok az sayıda son teknoloji GPAI’nin sistemik riskleri proaktif olarak değerlendirmek ve azaltmak için ön yükümlülükleri yerine getirmesi gerekeceğini öne sürüyor. Yani Mistral’in lobi faaliyetleri düzenleyici darbeyi yumuşatmış gibi görünüyor.
Ön anlaşma kapsamında, sistemik riskli GPAI sağlayıcılarının diğer yükümlülükleri arasında, standartlaştırılmış protokoller ve son teknoloji araçlarla değerlendirmenin yapılması; ciddi olayların “gereksiz gecikme olmadan” belgelenmesi ve raporlanması; çekişmeli testlerin yürütülmesi ve belgelenmesi; yeterli düzeyde siber güvenliğin sağlanması; ve modelin gerçek veya tahmini enerji tüketiminin raporlanması.
Diğer yerlerde, GPAI sağlayıcıları için, modelin test edilmesi ve değerlendirilmesi ve teknik belgelerin hazırlanması ve saklanması da dahil olmak üzere, talep üzerine düzenleyici makamlara ve gözetim kurumlarına sağlanması gereken bazı genel yükümlülükler bulunmaktadır.
Ayrıca, modellerinin alt dağıtımcılarına (diğer adıyla AI uygulama geliştiricilerine) modelin yetenekleri ve sınırlamaları hakkında genel bir bakış sağlamaları ve böylece AI Yasasına uyma yeteneklerini desteklemeleri gerekecektir.
Teklifin metni ayrıca temel model oluşturucuların, telif hakkı sahiplerinin metin ve veri madenciliği konusunda koydukları sınırlamalar da dahil olmak üzere, AB telif hakkı yasasına saygı gösterecek bir politika oluşturmasını gerektiriyor. Ayrıca, modeli oluşturmak ve kamuya açıklamak için kullanılan eğitim verilerinin “yeterince ayrıntılı” bir özetini de sağlıyorlar – açıklama için bir şablon, düzenlemenin kurmayı önerdiği bir AI yönetişim organı olan AI Ofisi tarafından sağlanıyor.
Bu telif hakkı açıklama özetinin açık kaynak modeller için hâlâ geçerli olacağını biliyoruz; bu da, kuralların dışına çıkan istisnalardan bir diğeri olarak duruyor.
Gördüğümüz metin, teklifte GPAI’lerin (ve sistemik risk taşıyan GPAI’lerin) “uyumlu bir standart” yayınlanana kadar uyumluluk gösterme konusunda güvenebileceği uygulama kurallarına bir referans içeriyor.
AI Ofisinin bu tür Kuralların hazırlanmasına dahil olmasını öngörüyor. Komisyonun, GPAI’lere ilişkin düzenlemenin yürürlüğe girmesinden altı ay sonra başlayarak, yapay zeka sistemlerinin enerji ve kaynak kullanımını iyileştirme yollarına ilişkin raporlama ve belgelendirmeye ilişkin çıktıların istenmesi gibi standartlaştırma talepleri yayınlaması ve bunun ilerleyişi hakkında düzenli raporlama yapılması öngörülmektedir. Bu standartlaştırılmış unsurların geliştirilmesi de (başvuru tarihinden iki yıl sonra ve daha sonra her dört yılda bir) dahil edilmiştir.
Yapay Zeka Yasası ile ilgili bugünün üçlemesi aslında dün öğleden sonra başladı ancak Avrupa Komisyonu, bu tartışmalı dosya üzerinde Avrupa Konseyi, Parlamento ve kendi çalışanları arasında son kez bir araya gelmenin nihai olacağı konusunda kararlı görünüyordu. (Aksi takdirde, daha önce de bildirdiğimiz gibi, gelecek yıl AB seçimleri ve yeni Komisyon atamaları yaklaşırken düzenlemenin tekrar rafa kaldırılma riski vardır.)
Bu yazının yazıldığı sırada, dosyanın diğer bazı ihtilaflı unsurlarının çözümüne yönelik görüşmeler halen devam etmektedir ve hâlâ masada çok sayıda son derece hassas konu bulunmaktadır (kanuni yaptırım amacıyla biyometrik gözetim gibi). Yani dosyanın sınırı aşıp aşmayacağı belirsizliğini koruyor.
Tüm bileşenler üzerinde anlaşma sağlanmadan yasayı güvence altına alacak bir anlaşma yapılamaz, dolayısıyla Yapay Zeka Yasasının kaderi belirsizliğini koruyor. Ancak, viral yapay zeka sohbet robotu ChatGPT’nin temelini oluşturan geniş dil modeli gibi gelişmiş yapay zeka modellerine ilişkin sorumluluklar söz konusu olduğunda ortak yasa koyucuların nereye indiğini anlamak isteyenler için ön anlaşma, yasa koyucuların nereye gitmek istedikleri konusunda bir miktar yönlendirme sunuyor.
Geçtiğimiz birkaç dakika içinde AB’nin iç pazardan sorumlu üyesi Thierry Breton, görüşmelerin nihayet sona erdiğini doğrulayan bir tweet attı, ancak bu ancak yarına kaldı. Destansı üçlemenin Brüksel saatiyle sabah 9’da devam etmesi planlanıyor, bu nedenle Komisyon hâlâ Nisan 2021’de önerdiği risk temelli yapay zeka kural kitabını bu hafta uygulamaya koymaya kararlı görünüyor. Elbette bu, diğer yasa koyucular olan Konsey ve Parlamento tarafından kabul edilebilir uzlaşmaların bulunmasına bağlı olacaktır. Ve bu kadar yüksek riskler ve bu kadar hassas bir dosya varken başarı hiçbir şekilde kesin değildir.