Tarafsız düşünce kuruluşu Brookings bu hafta yayınlanan bloğun açık kaynaklı yapay zeka düzenlemesini kınayan ve genel amaçlı yapay zeka sistemleri için yasal sorumluluk yaratacağını ve aynı zamanda gelişimlerini baltalayacağını savunan bir parça. AB’nin AI Yasası taslağı uyarınca, açık kaynak geliştiricilerinin risk yönetimi, veri yönetişimi, teknik dokümantasyon ve şeffaflık ile doğruluk ve siber güvenlik standartlarına ilişkin yönergelere uyması gerekecek.
Yazar, bir şirket feci sonuçlara yol açan açık kaynaklı bir yapay zeka sistemi kuracak olsaydı, şirketin ürünlerini inşa ettikleri açık kaynak geliştiricilerine dava açarak sorumluluğu saptırmaya çalışmasının akıl almaz olmadığını iddia ediyor.
Makaleyi yayınlayan Brookings analisti Alex Engler, “Bu, büyük teknoloji şirketlerinde AI’nın geleceği üzerindeki gücü daha da yoğunlaştırabilir ve halkın AI anlayışı için kritik olan araştırmaları önleyebilir” diye yazdı. “Sonunda, [E.U.’s] açık kaynağı düzenleme girişimi, büyük olasılıkla genel amaçlı AI kullanımını iyileştirmeden, açık kaynaklı AI katkıda bulunanları tehlikeye atan karmaşık bir dizi gereksinim yaratabilir.”
2021’de, AB’nin siyasi olarak bağımsız yürütme kolu olan Avrupa Komisyonu, AB’de “güvenilir yapay zeka” dağıtımını teşvik etmeyi amaçlayan Yapay Zeka Yasası metnini yayınladı. Yeniliği hesap verebilirlikle dengelemeye çalışan düzenlemelerde değişiklik yapmaya çalışmak. Ancak bazı uzmanlara göre, AI Yasası, yazılı olduğu şekliyle, AI sistemleri geliştirmeye yönelik açık çabalara ağır gereksinimler getirecektir.
Mevzuat için oymalar içerir bazı Yalnızca araştırma için kullanılanlar gibi açık kaynaklı yapay zeka kategorileri ve kötüye kullanımı önlemek için kontroller. Ancak Engler’in belirttiği gibi, bu projelerin kötü niyetli aktörler tarafından kötüye kullanılabileceği ticari sistemlere girmesini önlemek imkansız değilse bile zor olurdu.
Yakın tarihli bir örnekte, metin istemlerinden görüntüler oluşturan açık kaynaklı bir AI sistemi olan Stable Difusion, belirli içerik türlerini yasaklayan bir lisansla piyasaya sürüldü. Ancak, ünlülerin pornografik derin sahtelerini oluşturmak için bu tür AI araçlarını kullanan topluluklar içinde hızla bir izleyici buldu.
Allen AI Enstitüsü’nün kurucu CEO’su Oren Etzioni, AI Yasası’nın mevcut taslağının sorunlu olduğunu kabul ediyor. Etzioni, TechCrunch ile yaptığı bir e-posta röportajında, kuralların getirdiği yüklerin, geliştiricilerin Google gibi büyük teknoloji şirketlerini “yetişmesine” olanak tanıdığına inandığı açık metin oluşturma sistemlerinin geliştirilmesi gibi alanlarda caydırıcı bir etkisi olabileceğini söyledi. ve Meta.
Etzioni, “Düzenleme cehennemine giden yol, AB’nin iyi niyetleriyle döşenmiştir” dedi. “Açık kaynak geliştiricileri, ticari yazılım geliştirenlerle aynı yüke maruz kalmamalıdır. Özgür yazılımın ‘olduğu gibi’ sağlanabilmesi her zaman böyle olmalıdır – tek bir öğrencinin bir yapay zeka yeteneği geliştirmesini düşünün; AB düzenlemelerine uymayı göze alamazlar ve yazılımlarını dağıtmamaya zorlanabilirler, bu nedenle akademik ilerleme ve bilimsel sonuçların tekrarlanabilirliği üzerinde caydırıcı bir etki yaratabilirler.”
Etzioni, AI teknolojilerini geniş bir şekilde düzenlemeye çalışmak yerine, AB düzenleyicilerinin belirli AI uygulamalarına odaklanması gerektiğini savunuyor. “Yavaş hareket eden düzenleyici sürecin etkili olması için yapay zekada çok fazla belirsizlik ve hızlı değişim var” dedi. Bunun yerine otonom araçlar, botlar veya oyuncaklar gibi yapay zeka uygulamaları düzenlemeye tabi olmalıdır.”
Her uygulayıcı AI Yasasının daha fazla değişikliğe ihtiyacı olduğuna inanmıyor. Bir yapay zeka araştırmacısı olan Mike Cook, Bıçaklar ve Boya Fırçaları kolektif, açık kaynaklı yapay zekayı gerektiğinden “biraz daha yoğun” şekilde düzenlemenin “tamamen iyi” olduğunu düşünüyor. Herhangi bir standart belirlemek, küresel olarak liderliği göstermenin bir yolu olabilir, diyor – umarım başkalarını da aynı şeyi takip etmeye teşvik eder.
Cook, “‘Boğucu yenilik’ hakkında korku tellallığı, çoğunlukla tüm düzenlemeleri ortadan kaldırmak ve dizginleri serbest bırakmak isteyen insanlardan geliyor ve bu genellikle benim pek önemsediğim bir görüş değil,” dedi. “Komşunuzun sizden daha az düzenleme yapıp yapmayacağını ve bundan bir şekilde kâr edip etmeyeceğini düşünmek yerine, daha iyi bir dünya adına yasa çıkarmanın uygun olduğunu düşünüyorum.”
Meslektaşım Natasha Lomas’ın daha önce belirttiği gibi, AB’nin risk temelli yaklaşımı, “yüksek riskli” olarak kabul edilen AI sistemlerine kısıtlamalar getirirken, AI’nın birkaç yasaklı kullanımını (örneğin, Çin tarzı devlet sosyal kredi puanlaması) listeler — tıpkı kolluk kuvvetleriyle ilgili olanlar gibi. Düzenlemeler, ürün kategorilerinin aksine ürün türlerini hedef alacak olsaydı (Etzioni’nin yapması gerektiğini iddia ettiği gibi), her ürün türü için bir tane olmak üzere binlerce düzenleme gerektirebilir ve bu da çatışmalara ve daha da büyük düzenleyici belirsizliğe yol açabilir.
Bir analiz yazılı Newcastle Okulu’nda hukuk profesörü ve Ada Lovelace Enstitüsü’nde yarı zamanlı hukuk danışmanı olan Lilian Edwards, açık kaynaklı büyük dil modelleri (örn. AI Yasası. Mevzuattaki dil, bir AI sisteminin kullanımlarını ve etkilerini yönetmek için alt dağıtımcılara yük getiriyor, diyor – ilk geliştirici değil.
“[T]aşağı akış dağıtımcılarının kullandığı yol [AI] ve uyarlamak, orijinal olarak nasıl inşa edildiği kadar önemli olabilir” diye yazıyor. “AI Yasası bunu biraz dikkate alıyor, ancak neredeyse yeterli değil ve bu nedenle AI tedarik zincirinde ‘aşağı yönde’ çeşitli şekillerde yer alan birçok aktörü uygun şekilde düzenleyemiyor.”
AI girişimi Hugging Face’de CEO Clément Delangue, danışman Carlos Muños Ferrandis ve politika uzmanı Irene Solaiman, tüketici güvenliğini korumaya yönelik düzenlemeleri memnuniyetle karşıladıklarını, ancak AI Yasası’nın önerildiği gibi çok belirsiz olduğunu söylüyor. Örneğin, mevzuatın yapay zeka destekli yazılımın kalbindeki “önceden eğitilmiş” makine öğrenimi modellerine mi yoksa yalnızca yazılımın kendisine mi uygulanacağının belirsiz olduğunu söylüyorlar.
“Bu netlik eksikliği, açık ve sorumlu AI lisansları gibi devam eden topluluk yönetişim girişimlerine uyulmamasıyla birleştiğinde, Hugging Face’de bizim için büyük bir odak noktası olan AI değer zincirinin en tepesindeki yukarı akış inovasyonunu engelleyebilir. Delangue, Ferrandis ve Solaiman ortak açıklamada bulundu. “Rekabet ve inovasyon perspektifinden bakıldığında, AI inovasyon akışının en üstünde açık olarak piyasaya sürülen özelliklere zaten aşırı derecede ağır yükler yüklerseniz, artımlı inovasyonu, ürün farklılaştırmasını ve dinamik rekabeti engelleme riskiyle karşı karşıya kalırsınız, bu ikincisi AI gibi yeni ortaya çıkan teknoloji pazarlarında temeldir. ilgili olanlar… Düzenleme, yapay zeka pazarlarının inovasyon dinamiklerini hesaba katmalı ve böylece bu pazarlardaki temel inovasyon kaynaklarını açıkça tanımlamalı ve korumalıdır.”
Hugging Face’e gelince, şirket, AI Yasası’nın nihai dilinden bağımsız olarak, “sorumlu” AI lisansları ve bir AI sisteminin amaçlanan kullanımı ve nasıl çalıştığı gibi bilgileri içeren model kartları gibi gelişmiş AI yönetişim araçlarını savunuyor. Delangue, Ferrandis ve Solaiman, sorumlu lisanslamanın Meta’s gibi büyük AI sürümleri için yaygın bir uygulama haline gelmeye başladığına dikkat çekiyor. OPT-175 dil modeli.
Delangue, Ferrandis ve Solaiman, “Yapay zeka alanında açık inovasyon ve sorumlu inovasyon birbirini dışlayan amaçlar değil, tamamlayıcı amaçlardır” dedi. “Her ikisi arasındaki kesişme, şu anda AI topluluğu için olduğu gibi, devam eden düzenleyici çabalar için temel bir hedef olmalıdır.”
Bu kuyu ulaşılabilir olabilir. AB kural koyma sürecine dahil olan birçok hareketli parça göz önüne alındığında (bundan etkilenen paydaşlardan bahsetmiyorum bile), bloktaki AI düzenlemesinin şekillenmeye başlaması muhtemelen yıllar alacaktır.