Avrupa Birliği’nin yapay zekaya yönelik risk temelli kural kitabının (diğer adıyla AB Yapay Zeka Yasası) hazırlanması yıllar sürdü. Ancak önümüzdeki aylarda (ve yıllarda) önemli uyum son tarihleri yaklaştıkça düzenleme hakkında daha fazla şey duymayı bekliyoruz. Bu arada yasa ve amaçları hakkında genel bir bakış için okumaya devam edin.
Peki AB neyi başarmaya çalışıyor? Zamanı, Komisyon’un orijinal öneriyi yayınladığı ve milletvekillerinin vatandaşlar arasında güveni artırarak bloğun yapay zeka alanında yenilik yapma yeteneğini destekleyecek bir yasa olarak çerçevelediği Nisan 2021’e geri çevirin. AB, çerçevenin yapay zeka teknolojilerinin “insan merkezli” kalmasını sağlarken aynı zamanda işletmelere makine öğrenimi büyüsünü kullanmaları için net kurallar vereceğini öne sürdü.
Otomasyonun endüstride ve toplumda giderek daha fazla benimsenmesi, çeşitli alanlarda üretkenliği artırma potansiyeline kesinlikle sahiptir. Ancak çıktıların zayıf olması ve/veya yapay zekanın bireysel haklarla kesişmesi ve bunlara saygı göstermemesi durumunda, hızlı ölçeklenen zarar riskleri de ortaya çıkar.
Bu nedenle bloğun Yapay Zeka Yasasına ilişkin hedefi, yapay zekanın alımını artırmak ve işlerin korkunç derecede ters gitmesi risklerini azaltmayı amaçlayan koşulları belirleyerek yerel bir Yapay Zeka ekosistemini büyütmektir. Kanun yapıcılar, korkulukların mevcut olmasının vatandaşların yapay zekaya olan güvenini ve yapay zekayı kavramasını artıracağını düşünüyor.
Bu güven yoluyla ekosistemi güçlendirme fikri, yasanın tartışıldığı ve tasarının hazırlandığı on yılın başlarında oldukça tartışmasızdı. Ancak bazı çevrelerde yapay zekayı düzenlemek için henüz çok erken olduğu ve Avrupa’nın yenilikçiliğinin ve rekabet gücünün zarar görebileceği yönünde itirazlar dile getirildi.
Üretken yapay zeka araçlarındaki patlama sayesinde teknolojinin ana akım bilinçte nasıl patladığı göz önüne alındığında, elbette çok az kişi bunun için çok erken olduğunu söyleyebilir. Ancak düzenleyici sanal alanlar gibi destek tedbirlerinin dahil edilmesine rağmen yasanın, ülkede yetişen yapay zeka girişimcilerinin beklentilerini gölgede bıraktığı yönünde hâlâ itirazlar var.
Öyle olsa bile, birçok yasa koyucu için büyük tartışma artık ortalıkta dolaşıyor Nasıl Yapay zekayı düzenlemek için ve Yapay Zeka Yasası ile AB rotasını belirledi. Gelecek yıllar tamamen bloğun planı uygulamaya koymasıyla geçecek.
Yapay Zeka Yasası neyi gerektiriyor?
Yapay zekanın çoğu kullanımı Olumsuz Riske dayalı kuralların kapsamı dışında kaldıkları için kesinlikle Yapay Zeka Yasası kapsamında düzenlenmemektedir. (Ayrıca, ulusal güvenliğin AB düzeyinde yasal yetki yerine üye devlete ait olması nedeniyle yapay zekanın askeri kullanımlarının tamamen kapsam dışı olduğunu belirtmekte fayda var.)
Yapay zekanın kapsam içi kullanımları için Yasanın risk temelli yaklaşımı, bir avuç potansiyel kullanım durumunun (örneğin, “zararlı bilinçaltı, manipülatif ve aldatıcı teknikler” veya “kabul edilemez sosyal puanlama”) “kabul edilemez” olarak çerçevelendiği bir hiyerarşi oluşturur. riski” vardır ve bu nedenle yasaklanmıştır. Ancak yasaklı kullanımların listesi istisnalarla doludur; bu da yasanın az sayıdaki yasağının bile pek çok uyarıyı beraberinde getirdiği anlamına gelir.
Örneğin, kamuya açık alanlarda gerçek zamanlı uzaktan biyometrik tanımlama kullanan kolluk kuvvetlerinin yasaklanması, bazı parlamenterlerin ve birçok sivil toplum grubunun, belirli suçlarda kullanılmasına izin veren istisnalar dışında, ısrarla istediği genel yasak değildir.
Kabul edilemez riskli/yasaklı kullanımın bir sonraki aşaması, kritik altyapı için kullanılan yapay zeka uygulamaları gibi “yüksek riskli” kullanım durumlarıdır; kanun yaptırımı; eğitim ve mesleki eğitim; sağlık hizmeti; ve daha fazlası – uygulama üreticilerinin pazara yayılmadan önce ve sürekli olarak (örneğin, modellerde önemli güncellemeler yaptıklarında) uygunluk değerlendirmeleri yapmaları gerektiği durumlarda.
Bu, geliştiricinin veri kalitesi, dokümantasyon ve izlenebilirlik, şeffaflık, insan gözetimi, doğruluk, siber güvenlik ve sağlamlık gibi alanlarda yasanın gerekliliklerini karşıladığını gösterebilmesi gerektiği anlamına gelir. Bir icra makamının denetim yapmak için kapıyı çalması durumunda uyumluluğu gösterebilmeleri için kalite ve risk yönetimi sistemlerini uygulamaya koymaları gerekir.
Kamu kurumları tarafından kullanılan yüksek riskli sistemlerin de kamuya açık bir AB veri tabanına kaydedilmesi gerekmektedir.
Ayrıca sentetik medya üretmek için kullanılabilecek sohbet robotları veya diğer araçlar gibi yapay zeka sistemlerine şeffaflık yükümlülükleri uygulayan üçüncü bir “orta risk” kategorisi de bulunmaktadır. Buradaki endişe, bunların insanları manipüle etmek için kullanılabileceğidir, bu nedenle bu tür teknoloji, kullanıcıların yapay zeka tarafından üretilen içerikle etkileşimde bulundukları veya bunları görüntüledikleri konusunda bilgilendirilmelerini gerektirir.
Yapay zekanın diğer tüm kullanımları otomatik olarak düşük/minimum riskli olarak kabul edilir ve düzenlenmez. Bu, örneğin sosyal medya içeriğini sıralamak ve önermek veya reklamları hedeflemek için yapay zekanın kullanılması gibi şeylerin bu kurallar kapsamında herhangi bir yükümlülüğe sahip olmadığı anlamına gelir. Ancak blok, tüm yapay zeka geliştiricilerini, kullanıcı güvenini artırmaya yönelik en iyi uygulamaları gönüllü olarak takip etmeye teşvik ediyor.
Bu kademeli risk temelli kurallar dizisi, Yapay Zeka Yasasının büyük kısmını oluşturur. Ancak, yapay zeka yasasının “genel amaçlı yapay zeka” modelleri (veya GPAI’ler) olarak adlandırdığı üretken yapay zeka teknolojilerini destekleyen çok yönlü modellere yönelik bazı özel gereksinimler de vardır.
Endüstrinin bazen “temel modeller” olarak adlandırdığı bu yapay zeka teknolojileri alt kümesi, genellikle yapay zekayı uygulayan birçok uygulamanın yukarısında yer alır. Geliştiriciler, bu modellerin yeteneklerini kendi yazılımlarına dağıtmak için GPAI’lerden API’lerden yararlanıyor ve genellikle değer katmak amacıyla belirli bir kullanım senaryosuna göre ince ayar yapıyor. Bunların hepsi, GPAI’lerin, yapay zeka sonuçlarını büyük ölçekte etkileme potansiyeli ile piyasada hızla güçlü bir konum kazandığını gösteriyor.
GenAI sohbete girdi…
GenAI’nin yükselişi, AB’nin Yapay Zeka Yasası etrafındaki tartışmaları yeniden şekillendirdi; bloğun uzun yasama süreci ChatGPT gibi GenAI araçlarının etrafındaki heyecanla örtüştüğü için kural kitabında değişikliklere yol açtı. Avrupa Parlamentosu’ndaki milletvekilleri yanıt verme fırsatını değerlendirdi.
Avrupa Parlamentosu Üyeleri, GPAI’ler, yani GenAI araçlarının temelini oluşturan modeller için ek kurallar eklenmesini önerdi. Bunlar da teknoloji endüstrisinin AB’nin yasayla ilgili ne yaptığına olan dikkatini yoğunlaştırdı ve GPAI’lerin yeniden düzenlenmesi için şiddetli lobi faaliyetlerine yol açtı.
Fransız yapay zeka firması Mistral, model yapımcılarına ilişkin kuralların Avrupa’nın ABD ve Çin’deki yapay zeka devleriyle rekabet etme yeteneğini engelleyeceğini savunarak en yüksek seslerden biriydi. OpenAI’den Sam Altman da, AB’nin kendisini aramasının ardından bölgesel güç komisyoncularının geleneksel et baskısına (lobi faaliyetlerine) geri dönmeden önce, yasaların çok külfetli olması halinde teknolojisini Avrupa’dan çekebileceğini gazetecilere bir yan yorumda ekleyerek katkıda bulundu. Bu beceriksiz tehdit üzerine.
Altman’ın Avrupa diplomasisi üzerine hızlandırılmış bir kurs alması, Yapay Zeka Yasasının en görünür yan etkilerinden biri oldu.
Tüm bu gürültünün sonucu, yasama sürecini tamamlamak için yapılan zorlu bir yolculuktu. Geçtiğimiz yıl dosyayı sonuca ulaştırmak aylar sürdü ve Avrupa Parlamentosu, Konsey ve Komisyon arasında maraton süren bir nihai müzakere oturumu gerçekleşti. Siyasi anlaşma Aralık 2023’te kesinleşti ve nihai metnin Mayıs 2024’te kabul edilmesinin yolu açıldı.
AB, Yapay Zeka Yasasını “küresel bir ilk” olarak ilan etti. Ancak bu son teknoloji bağlamında ilk olmak, kanunun uygulanacağı belirli standartların belirlenmesi ve gözetim ve denetim için ayrıntılı uyumluluk kılavuzunun (Uygulama Kuralları) üretilmesi gibi hala üzerinde çalışılması gereken birçok ayrıntı olduğu anlamına gelir. Kanunun işlemesini öngördüğü ekosistem oluşturma rejimi.
Dolayısıyla, başarısının değerlendirilmesi açısından, yasa halen devam eden bir çalışmadır ve uzun bir süre de öyle kalacaktır.
GPAI’ler için Yapay Zeka Yasası, bu modellerin çoğu için (yalnızca) daha hafif gereksinimlerle risk temelli yaklaşımı sürdürmektedir.
Ticari GPAI’ler için bu, şeffaflık kuralları anlamına gelir (teknik dokümantasyon gereksinimleri ve modelleri eğitmek için kullanılan telif hakkıyla korunan materyalin kullanımına ilişkin açıklamalar dahil). Bu hükümlerin amacı, alt geliştiricilere kendi Yapay Zeka Yasası uyumluluğu konusunda yardımcı olmaktır.
Aynı zamanda, en güçlü (ve potansiyel olarak riskli) GPAI’ler için ikinci bir katman da vardır; burada Kanun, “sistemik risk” içeren GPAI’ler için proaktif risk değerlendirmesi ve risk hafifletme zorunluluğu getirerek model yapımcılarının yükümlülüklerini artırır.
Burada AB, örneğin insan hayatı için risk oluşturabilecek çok güçlü yapay zeka modellerinden, hatta teknoloji üreticilerinin kendi kendini geliştiren yapay zekaların sürekli gelişimi üzerindeki kontrolünü kaybetme riskinden endişe duyuyor.
Kanun yapıcılar, bu sistemik risk katmanı için sınıflandırıcı olarak model eğitimi için bilgi işlem eşiğine güvenmeyi seçtiler. GPAI’ler, eğitimleri için kullanılan ve 10’dan büyük kayan nokta işlemlerinde (FLOP’lar) ölçülen kümülatif hesaplama miktarına bağlı olarak bu gruba girecektir.25.
Şu ana kadar hiçbir modelin kapsam dahilinde olduğu düşünülmüyor ancak elbette GenAI gelişmeye devam ettikçe bu durum değişebilir.
Ayrıca, Yapay Zeka Yasasının gözetiminde yer alan Yapay Zeka güvenlik uzmanlarına, başka yerlerde ortaya çıkabilecek sistemik risklerle ilgili endişeleri işaretlemek için bir miktar hareket alanı vardır. (Bloğun Yapay Zeka Yasası için tasarladığı yönetişim yapısı hakkında daha fazla bilgi için – Yapay Zeka Ofisinin çeşitli rolleri dahil – daha önceki raporumuza bakın.)
Mistral ve diğerlerinin lobi çalışmaları GPAI’lere yönelik kuralların sulandırılmasıyla sonuçlandı; örneğin açık kaynak sağlayıcılara yönelik gereksinimler hafifletildi (şanslı Mistral!). Ar-Ge’de de bir değişiklik yapıldı; bu, henüz ticarileştirilmemiş olan GPAI’lerin, şeffaflık gereklilikleri bile uygulanmadan, Kanun kapsamının tamamen dışında kaldığı anlamına geliyor.
Uyumluluğa doğru uzun bir yürüyüş
Yapay Zeka Yasası, AB çapında resmi olarak 1 Ağustos 2024’te yürürlüğe girdi. Farklı bileşenlere uyum için son tarihler gelecek yılın başlarından 2027’nin ortalarına kadar farklı aralıklarla belirlendiğinden, bu tarih aslında bir başlangıç silahını ateşledi.
Bazı ana uyum son tarihleri, yasaklanmış kullanım durumlarına ilişkin kuralların yürürlüğe girdiği tarihten itibaren altı aydır; Uygulama Kurallarının uygulanmaya başlamasından dokuz ay sonra; Şeffaflık ve yönetişim gereksinimleri için 12 ay; Bazı yüksek riskli sistemlere yönelik yükümlülükler de dahil olmak üzere diğer yapay zeka gereksinimleri için 24 ay; diğer yüksek riskli sistemler için ise 36 ay.
Yasal hükümlere yönelik bu kademeli yaklaşımın nedenlerinden biri, şirketlere faaliyetlerini düzene sokmaları için yeterli zamanın verilmesiyle ilgilidir. Ancak bundan da öte, düzenleyicilerin bu son teknoloji bağlamda uyumluluğun nasıl görüneceğini çözmesi için zamana ihtiyaç olduğu açıktır.
Bu yazının yazıldığı sırada blok, bu son tarihlerden önce yasanın çeşitli yönleri için GPAI üreticileri için Uygulama Kuralları gibi kılavuzları formüle etmekle meşguldü. AB aynı zamanda yasanın “Yapay Zeka sistemleri” tanımı (yani hangi yazılımın kapsam dahilinde olup olmayacağı) ve yapay zekanın yasaklanmış kullanımlarıyla ilgili açıklamalar konusunda da istişarede bulunuyor.
Yapay Zeka Yasasının kapsam dahilindeki şirketler için ne anlama geleceğinin tam resmi hâlâ inceleniyor ve detaylandırılıyor. Ancak önemli ayrıntıların önümüzdeki aylarda ve gelecek yılın ilk yarısında kesinleşmesi bekleniyor.
Göz önünde bulundurulması gereken bir nokta daha: Yapay zeka alanındaki gelişme hızının bir sonucu olarak, bu teknolojiler (ve bunlarla ilişkili riskler) de gelişmeye devam ettikçe yasanın doğru tarafında kalmak için gerekenler muhtemelen değişmeye devam edecektir. Yani bu, yaşayan bir belge olarak kalması gerekebilecek bir kural kitabıdır.
Yapay zeka kurallarının uygulanması
GPAI’lerin gözetimi AB düzeyinde merkezileştirilmiştir ve Yapay Zeka Ofisi kilit bir rol oynamaktadır. Komisyonun bu kuralları uygulamak için verebileceği cezalar, model üreticilerinin küresel cirosunun %3’üne kadar ulaşabilir.
Başka yerlerde, Kanun’un yapay zeka sistemlerine ilişkin kurallarının uygulanması merkezi olmayan bir yapıdadır; bu, yapay zeka uygulamalarının büyük bir kısmı için uyumluluk sorunlarını değerlendirme ve araştırma görevinin üye devlet düzeyindeki yetkililere (çoğul, çünkü birden fazla gözetim organı belirlenmiş olabilir) bağlı olacağı anlamına gelir. . Bu yapının ne kadar işlevsel olacağı henüz bilinmiyor.
Kağıt üzerinde, yasaklı kullanımların ihlali nedeniyle cezalar küresel cironun %7’sine (veya 35 milyon Euro’ya (hangisi daha büyükse) kadar) ulaşabilir. Diğer AI yükümlülüklerinin ihlalleri, küresel cironun %3’üne kadar veya düzenleyicilere yanlış bilgi sağlanması nedeniyle %1,5’e kadar para cezalarıyla cezalandırılabilir. Dolayısıyla uygulama yetkililerinin ulaşabileceği değişken bir yaptırım ölçeği var.