Avrupa Birliği’nin üç şubesi, dönüm noktası niteliğindeki yapay zeka düzenlemesi üzerinde geçici olarak anlaşarak ekonomik bloğun teknolojinin belirli kullanımlarını yasaklamasının ve sağlayıcılardan şeffaflık talep etmesinin önünü açtı. Ancak bazı dünya liderlerinin uyarılarına rağmen yapay zeka şirketlerinden gerektireceği değişiklikler belirsizliğini koruyor ve potansiyel olarak çok uzakta.

İlk olarak 2021’de teklif edilen Yapay Zeka Yasası hâlâ tam olarak onaylanmadı. Sıcak bir şekilde tartışılan son dakika tavizleri, en katı düzenleyici tehditlerden bazılarını yumuşattı. Ve uygulama muhtemelen yıllarca başlamayacak. Paul Barrett şöyle diyor: “Çok kısa vadede, AB Yapay Zeka Kanunu’ndan taviz verilmesinin ABD merkezli yerleşik yapay zeka tasarımcıları üzerinde doğrudan pek bir etkisi olmayacak, çünkü yasanın şartlarına göre muhtemelen 2025’e kadar yürürlüğe girmeyecek.” NYU Stern İş ve İnsan Hakları Merkezi’nin müdür yardımcısı.

Barrett, şimdilik OpenAI, Microsoft, Google ve Meta gibi büyük AI oyuncularının, özellikle ABD’deki mevzuat belirsizliğiyle mücadele ederken, muhtemelen üstünlük için savaşmaya devam edeceklerini söylüyor.

Yapay Zeka Yasası, OpenAI’nin GPT-4 büyük dil modeli gibi genel amaçlı yapay zeka (GPAI) araçlarındaki patlamadan önce başladı ve bunların düzenlenmesi, son dakika tartışmalarında oldukça karmaşık bir anlaşmazlık noktası haline geldi. Yasa, kurallarını yapay zeka sisteminin toplum üzerindeki risk düzeyine veya AB’nin bir bildiride söylediği gibi bölüyor: ifade“Risk ne kadar yüksek olursa kurallar da o kadar katı olur.”

Ancak bazı üye ülkeler, bu katılığın AB’yi yapay zeka için çekici olmayan bir pazar haline getirebileceğinden endişe duymaya başladı. Fransa, Almanya ve İtalya, müzakereler sırasında GPAI üzerindeki kısıtlamaların hafifletilmesi için lobi faaliyeti yürüttü. “Yüksek riskli” olarak değerlendirilebilecek sistemlerin sınırlandırılması da dahil olmak üzere uzlaşmalar kazandılar ve bu sistemler daha sonra en katı kurallara tabi olacak. Tüm GPAI’leri yüksek riskli olarak sınıflandırmak yerine, iki aşamalı bir sistem ve uzaktan biyometrik tanımlama gibi AI’nın tamamen yasaklanmış kullanımları için kolluk kuvvetleri istisnaları olacaktır.

Bu hala tüm eleştirmenleri tatmin etmedi. Fransa Cumhurbaşkanı Emmanuel Macron kurallara saldırdıYapay Zeka Yasasının inovasyonu engelleyen zorlu bir düzenleyici ortam yarattığını söylüyor. Barrett, bazı yeni Avrupalı ​​yapay zeka şirketlerinin mevcut kurallarla sermaye artırmayı zor bulabileceğini, bunun da Amerikan şirketlerine avantaj sağladığını söyledi. Avrupa dışındaki şirketler, kuralları ihlal ettikleri için para cezasına çarptırılmamak için bölgede mağaza açmaktan kaçınmayı veya platformlara erişimi engellemeyi bile seçebilirler; bu, düzenlemelere uygun olarak Avrupa’nın yapay zeka dışı teknoloji endüstrisinde de karşı karşıya kaldığı potansiyel bir risktir. Dijital Piyasalar Yasası ve Dijital Hizmetler Yasası gibi.

Ancak kurallar aynı zamanda üretken yapay zekayla ilgili en tartışmalı konulardan bazılarını da atlıyor

Kamuya açık, ancak hassas ve potansiyel olarak telif hakkıyla korunan veriler üzerinde eğitilen yapay zeka modelleri, büyük bir kuruluşlar için çekişme noktası, örneğin. Ancak geçici kurallar, veri toplama konusunda yeni yasalar oluşturmamaktadır. AB, GDPR aracılığıyla veri koruma yasalarına öncülük etse de yapay zeka kuralları, şirketlerin GDPR yönergelerine uymasını zorunlu kılmanın ötesinde bilgi toplamasını yasaklamıyor.

George Washington Üniversitesi’nde uluslararası ilişkiler araştırma profesörü ve Dijital Ticaret ve Veri Yönetişim Merkezi direktörü Susan Ariel Aaronson, “Kurallara göre şirketlerin şeffaflık özeti veya veri beslenme etiketleri sunması gerekebilir” diyor. “Fakat bu aslında şirketlerin veri etrafındaki davranışlarını değiştirmeyecek.”

Aaronson, geliştiricilerin mevcut telif hakkı yasalarına (Yapay Zeka etrafında birçok gri alan bırakan) uyması gerektiğini belirtmenin ötesinde, Yapay Zeka Yasasının şirketlerin model eğitim verilerinin bir parçası olan telif hakkıyla korunan materyali nasıl ele alması gerektiğini hala açıklığa kavuşturmadığını belirtiyor. Bu nedenle, AI model geliştiricilerinin telif hakkıyla korunan verileri kullanmaktan kaçınması için herhangi bir teşvik sunmamaktadır.

Yapay Zeka Yasası aynı zamanda potansiyel olarak ağır cezalarını açık kaynak geliştiricilerine, araştırmacılara ve değer zincirinin daha aşağılarında çalışan küçük şirketlere de uygulamayacaktır; bu, bu alandaki açık kaynak geliştiricileri tarafından övgüyle karşılanan bir karardır. GitHub baş hukuk sorumlusu Shelley McKinley, bunun “açık inovasyon ve toplumun en acil sorunlarından bazılarının çözülmesine yardımcı olmak için çalışan geliştiriciler açısından olumlu bir gelişme” olduğunu söyledi. (Popüler bir açık kaynak geliştirme merkezi olan GitHub, Microsoft’un bir yan kuruluşudur.)

Gözlemciler, bunun en somut etkisinin diğer siyasi figürlere, özellikle de Amerikalı politikacılara daha hızlı hareket etmeleri yönünde baskı yapılması olabileceğini düşünüyor. Bu, yapay zekaya yönelik ilk büyük düzenleyici çerçeve değil; Temmuz ayında Çin, yapay zeka hizmetlerini halka satmak isteyen işletmeler için yönergeleri kabul etti. Ancak AB’nin nispeten şeffaf ve yoğun şekilde tartışılan kalkınma süreci, yapay zeka endüstrisine ne beklemesi gerektiği konusunda bir fikir verdi. AI Yasası hala değişebilirken Aaronson, bunun en azından AB’nin teknolojiyle ilgili kamuoyunun endişelerini dinlediğini ve yanıt verdiğini gösterdiğini söyledi.

Baker McKenzie hukuk firmasının veri gizliliği ve bilgi teknolojisi ortağı Lothar Determann, bunun mevcut veri kurallarına dayanması gerçeğinin hükümetleri yürürlükteki düzenlemeleri değerlendirmeye teşvik edebileceğini söylüyor. Veri gizliliği platformu OneTrust’un baş strateji sorumlusu Blake Brannon, daha olgun yapay zeka şirketlerinin, GDPR gibi yasalara uygun olarak ve daha katı politikalar beklentisiyle gizlilik koruma yönergeleri oluşturduklarını söyledi. Şirkete bağlı olarak Yapay Zeka Yasasının halihazırda yürürlükte olan stratejilere “ek bir katkı” olduğunu söyledi.

ABD ise tam tersine, Meta, Amazon, Adobe, Google, Nvidia ve OpenAI gibi büyük oyunculara ev sahipliği yapmasına rağmen yapay zeka düzenlemelerini hayata geçirmekte büyük ölçüde başarısız oldu. Şimdiye kadarki en büyük hamlesi, devlet kurumlarını güvenlik standartları geliştirmeye ve büyük AI oyuncuları tarafından imzalanan gönüllü, bağlayıcı olmayan anlaşmalar oluşturmaya yönlendiren Biden yönetiminin yürütme emri oldu. Senato’da sunulan birkaç yasa tasarısı çoğunlukla derin sahtekarlıklar ve filigranlar etrafında dönüyordu ve Senatör Chuck Schumer (D-NY) tarafından düzenlenen kapalı kapılar ardındaki AI forumları, hükümetin teknolojiyi yönetme yönü konusunda çok az netlik sundu.

Artık politika yapıcılar AB’nin yaklaşımına bakıp bundan ders alabilirler

Bu, ABD’nin aynı risk temelli yaklaşımı izleyeceği anlamına gelmiyor ancak veri şeffaflığı kurallarını genişletmeye veya GPAI modellerine biraz daha hoşgörüye izin vermeye çalışabilir.

Credo AI’nin kurucusu ve ulusal AI danışma komitesi üyesi Navrina Singh, AI Yasasının AI yönetimi için büyük bir an olmasına rağmen, işlerin hızlı bir şekilde değişmeyeceğine ve önümüzde hala yapılacak çok iş olduğuna inanıyor.

Singh, “Atlantik’in her iki yakasındaki düzenleyicilerin odak noktası, yapay zekanın hem şeffaf hem de hesap verebilir şekilde güvenli bir şekilde tasarlanması, geliştirilmesi ve konuşlandırılması konusunda her ölçekteki kuruluşa yardımcı olmak olmalıdır” dedi. Sınır Bir açıklamada. Özellikle şeffaflık konusunda standartların ve kıyaslama süreçlerinin hala eksik olduğunu ekliyor.

Yapay Zeka Yasası henüz kesinleşmemiş olsa da AB ülkelerinin büyük çoğunluğu gitmek istedikleri yönün bu olduğunu kabul etti. Yasa, mevcut modelleri veya uygulamaları geriye dönük olarak düzenlemiyor ancak OpenAI’nin GPT’si, Meta’nın Llama’sı veya Google’ın Gemini’sinin gelecekteki sürümlerinin AB tarafından belirlenen şeffaflık gerekliliklerini dikkate alması gerekecek. Bir gecede dramatik değişiklikler yaratmayabilir ancak AB’nin yapay zeka konusunda nerede durduğunu gösteriyor.



genel-2