Bilimkurgu filmleri dışında, yapay zeka sistemlerinin insanları öldürdüğü veya siber saldırılarda kullanıldığına dair bir emsal yok. Ancak bazı kanun koyucular, kötü aktörler bu distopik geleceği gerçeğe dönüştürmeden önce güvenlik önlemleri uygulamak istiyor. SB 1047 olarak bilinen bir Kaliforniya tasarısı, yapay zeka sistemlerinin neden olduğu gerçek dünya felaketlerini gerçekleşmeden önce durdurmaya çalışıyor ve Ağustos ayının sonlarında eyalet senatosunda nihai oylamaya sunulacak.

Bu hepimizin hemfikir olabileceği bir hedef gibi görünse de, SB 1047, girişim sermayedarları, büyük teknoloji ticaret grupları, araştırmacılar ve girişim kurucuları dahil olmak üzere büyük ve küçük Silikon Vadisi oyuncularının öfkesini çekti. Şu anda ülke çapında çok sayıda AI yasası uçuşuyor, ancak Kaliforniya’nın Sınır Yapay Zeka Modelleri için Güvenli ve Emniyetli Yenilik Yasası en tartışmalı olanlardan biri haline geldi. İşte nedeni.

SB 1047 ne işe yarar?

SB 1047, büyük yapay zeka modellerinin insanlığa karşı “kritik zararlar” vermek için kullanılmasını önlemeye çalışıyor.

Yasa tasarısı, kötü bir aktörün kitlesel zayiatlara yol açan bir silah yaratmak için bir yapay zeka modeli kullanması veya birine 500 milyon dolardan fazla zarara yol açan bir siber saldırı düzenlemesi talimatı vermesi gibi “kritik zararlara” örnek veriyor (karşılaştırma için, CrowdStrike kesintisi tahmini (5 milyar doların üzerinde bir zarara yol açmış olması). Yasa, geliştiricileri (yani modelleri geliştiren şirketleri) bu tür sonuçları önlemek için yeterli güvenlik protokollerini uygulamaktan sorumlu kılıyor.

Hangi modeller ve şirketler bu kurallara tabidir?

SB 1047’nin kuralları yalnızca dünyanın en büyük AI modellerine uygulanacak: En az 100 milyon dolara mal olan ve eğitim sırasında 10^26 FLOPS kullananlar — çok büyük miktarda hesaplama, ancak OpenAI CEO’su Sam Altman şöyle diyor: GPT-4’ün maliyeti yaklaşık bu kadar eğitmek için. Bu eşikler ihtiyaç halinde yükseltilebilir.

Günümüzde çok az sayıda şirket bu gereksinimleri karşılayacak kadar büyük kamu AI ürünleri geliştirdi, ancak OpenAI, Google ve Microsoft gibi teknoloji devlerinin çok yakında bunu yapması muhtemel. AI modelleri — esasen, verilerdeki kalıpları tanımlayan ve tahmin eden devasa istatistiksel motorlar — büyüdükçe genel olarak daha doğru hale geldi ve bu, birçok kişinin devam etmesini beklediği bir eğilim. Mark Zuckerberg yakın zamanda Meta’nın Llama’sının bir sonraki neslinin 10 kat daha fazla işlem gerektireceğini ve bunun da onu SB 1047 yetkisi altına sokacağını söyledi.

Açık kaynaklı modeller ve bunların türevleri söz konusu olduğunda, yasa tasarısı, başka bir tarafça geliştirme veya ince ayar için 25 milyon dolar harcandığında, orijinal geliştirici yerine bu türev modelden sorumlu olacaklarını hükme bağladı.

Yasa tasarısı ayrıca, tüm AI modelini kapatan bir “acil durdurma” düğmesi de dahil olmak üzere kapsanan AI ürünlerinin kötüye kullanılmasını önlemek için bir güvenlik protokolü gerektiriyor. Geliştiriciler ayrıca AI modellerinin oluşturduğu riskleri ele alan test prosedürleri oluşturmalı ve AI güvenlik uygulamalarını değerlendirmek için yıllık olarak üçüncü taraf denetçiler işe almalıdır.

Sonuç, bu protokollerin izlenmesinin kritik zararları önleyeceğine dair “makul bir güvence” olmalıdır. Olumsuz Elbette ki sağlanması imkânsız olan mutlak bir kesinlik.

Peki bunu kim, nasıl uygulayacak?

Yeni bir Kaliforniya ajansı olan Frontier Model Division (FMD), kuralları denetleyecek. SB 1047’nin eşiklerini karşılayan her yeni kamu AI modeli, güvenlik protokolünün yazılı bir kopyasıyla ayrı ayrı onaylanmalıdır.

FMD, Kaliforniya valisi ve yasama organı tarafından atanan AI endüstrisi, açık kaynak topluluğu ve akademi temsilcileri de dahil olmak üzere beş kişilik bir kurul tarafından yönetilecek. Kurul, Kaliforniya başsavcısına SB 1047’nin olası ihlalleri konusunda tavsiyelerde bulunacak ve AI modeli geliştiricilerine güvenlik uygulamaları konusunda rehberlik sunacak.

Bir geliştiricinin baş teknoloji sorumlusu, AI modelinin potansiyel risklerini, güvenlik protokolünün ne kadar etkili olduğunu ve şirketin SB 1047’ye nasıl uyduğunun bir açıklamasını değerlendiren yıllık bir sertifikayı FMD’ye sunmalıdır. İhlal bildirimlerine benzer şekilde, bir “AI güvenlik olayı” meydana gelirse, geliştirici olayı öğrendikten sonraki 72 saat içinde bunu FMD’ye bildirmelidir.

Bir geliştirici bu hükümlerden herhangi birine uymazsa, SB 1047 Kaliforniya başsavcısının geliştiriciye karşı hukuki dava açmasına izin verir. Eğitilmesi 100 milyon dolara mal olan bir model için cezalar ilk ihlalde 10 milyon dolara ve sonraki ihlallerde 30 milyon dolara kadar ulaşabilir. Bu ceza oranı AI modelleri daha pahalı hale geldikçe ölçeklenir.

Son olarak yasa tasarısı, çalışanların Kaliforniya başsavcısına güvenli olmayan bir yapay zeka modeli hakkında bilgi ifşa etmeye çalışmaları durumunda ihbarcı koruması sağlıyor.

Peki savunucuları ne diyor?

Yasa tasarısını hazırlayan ve San Francisco’yu temsil eden Kaliforniya Eyalet Senatörü Scott Wiener, TechCrunch’a yaptığı açıklamada, SB 1047’nin sosyal medya ve veri gizliliği konusunda geçmişteki politika hatalarından ders çıkarma ve çok geç olmadan vatandaşları koruma girişimi olduğunu söyledi.

“Teknolojiyle ilgili olarak zararların olmasını bekleyip sonra ellerimizi ovuşturma geçmişimiz var,” dedi Wiener. “Kötü bir şeyin olmasını beklemeyelim. Sadece bunun önüne geçelim.”

Bir şirket 100 milyon dolarlık bir modeli Teksas’ta veya Fransa’da eğitse bile, Kaliforniya’da iş yaptığı sürece SB 1047 kapsamında olacaktır. Wiener, Kongre’nin “son çeyrek yüzyılda teknoloji konusunda dikkate değer derecede az yasa çıkardığını” söylüyor, bu yüzden burada bir emsal oluşturmanın Kaliforniya’ya düştüğünü düşünüyor.

Wiener, SB 1047’de OpenAI ve Meta ile görüşüp görüşmediği sorulduğunda “Tüm büyük laboratuvarlarla görüştük” diyor.

Bazen “AI’nın vaftiz babaları” olarak adlandırılan iki AI araştırmacısı, Geoffrey Hinton ve Yoshua Bengio, bu yasa tasarısını desteklediler. Bu ikisi, AI teknolojisinin neden olabileceği tehlikeli, kıyamet senaryoları konusunda endişe duyan AI topluluğunun bir kesimine mensup. Bu “AI felaket tellalları” araştırma dünyasında bir süredir var ve SB 1047, tercih ettikleri güvenlik önlemlerinden bazılarını yasalaştırabilir. SB 1047’yi destekleyen bir diğer grup olan AI Güvenliği Merkezi, bir Mayıs 2023’te açık mektup dünyadan, “Yapay Zeka kaynaklı yok olma riskini azaltma” konusunu pandemiler veya nükleer savaşlar kadar ciddiye almasını talep ediyor.

Yapay Zeka Güvenliği Merkezi Direktörü Dan Hendrycks, TechCrunch’a gönderdiği e-postada, “Bu, Kaliforniya’daki ve genel olarak ABD’deki endüstrinin uzun vadeli çıkarınadır çünkü büyük bir güvenlik olayı muhtemelen daha fazla ilerlemenin önündeki en büyük engel olacaktır” dedi.

Son zamanlarda Hendrycks’in kendi motivasyonları sorguya çekildiTemmuz ayında, bir araştırmaya göre, “şirketlerin yapay zeka sistemlerinin risklerini değerlendirmelerine yardımcı olacak araçlar” geliştiren Gray Swan adlı bir girişim başlattı. basın bülteni. Yasa tasarısı geçerse Hendrycks’in girişiminin, SB 1047’nin geliştiricilerin işe almasını zorunlu kıldığı denetçilerden biri olarak kazanabileceği eleştirilerinin ardından, sermaye payını sattı Gri Kuğu’da.

“Açık bir sinyal göndermek için elden çıkardım,” dedi Hendrycks TechCrunch’a gönderdiği bir e-postada. “Sağduyulu yapay zeka güvenliğine karşı çıkan milyarder VC’ler, amaçlarının saf olduğunu göstermek istiyorsa, onlar da aynısını yapsın.”

Karşıtlar ne diyor?

Silikon Vadisi oyuncularının giderek artan bir çoğunluğu SB 1047’ye karşı çıkıyor.

Hendrycks’in “milyarder VC muhalefeti” muhtemelen Marc Andreessen ve Ben Horowitz tarafından kurulan ve SB 1047’ye şiddetle karşı çıkan girişim şirketi a16z’yi ifade ediyor. Ağustos ayının başlarında, girişim şirketinin baş hukuk görevlisi Jaikumar Ramaswamy bir mektup Senatör Wiener’a, yasa tasarısının “keyfi ve değişken eşikleri nedeniyle girişimlere yük olacağını” ve AI ekosisteminde caydırıcı bir etki yaratacağını iddia ederek. AI teknolojisi ilerledikçe, daha pahalı hale gelecek, yani daha fazla girişim 100 milyon dolarlık eşiği aşacak ve SB 1047 kapsamında olacak; a16z, girişimlerinden birkaçının eğitim modelleri için zaten bu kadar para aldığını söylüyor.

Genellikle AI’nın vaftiz annesi olarak anılan Fei-Fei Li, Ağustos ayının başlarında SB 1047 hakkındaki sessizliğini bozarak bir yazı yazdı Fortune sütunu Yasa tasarısının “gelişmekte olan AI ekosistemimize zarar vereceğini” söyledi. Li, Stanford’dan AI araştırmalarında saygın bir öncü olmasına rağmen, aynı zamanda bir World Labs adlı yapay zeka girişimi Nisan ayında a16z destekli, değeri bir milyar dolar olarak açıklanan bir şirket.

Temmuz ayında Y Combinator etkinliğinde yaptığı konuşmada yasa tasarısını “açık kaynak koduna saldırı” olarak nitelendiren Stanford araştırmacısı Andrew Ng gibi etkili AI akademisyenlerine katılıyor. Açık kaynak modelleri, herhangi bir açık yazılım gibi daha kolay değiştirilebildiği ve keyfi ve potansiyel olarak kötü amaçlı amaçlar için dağıtılabildiği için yaratıcıları için ek risk oluşturabilir.

Meta’nın baş yapay zeka bilimcisi Yann LeCun, SB 1047’nin araştırma çabalarına zarar vereceğini ve bir avuç hayalci düşünce kuruluşu tarafından dayatılan “varoluşsal risk” yanılsamasına dayandığını söyledi. X’e yazMeta’nın Llama LLM’si açık kaynak kodlu LLM’nin önde gelen örneklerinden biridir.

Girişimler de yasa tasarısından memnun değil. AI girişimi Omniscience’ın CEO’su ve San Francisco’daki AI girişimleri için bir merkez olan AGI House SF’nin kurucusu Jeremy Nixon, SB 1047’nin ekosistemini çökerteceğinden endişe ediyor. Kritik zararlara yol açan kötü aktörlerin cezalandırılması gerektiğini, teknolojiyi açıkça geliştiren ve dağıtan AI laboratuvarlarının cezalandırılmaması gerektiğini savunuyor.

Nixon, “Yasa tasarısının merkezinde derin bir kafa karışıklığı var, LLM’lerin tehlikeli kapasite seviyelerinde bir şekilde farklılık gösterebileceği” dedi. “Benim düşünceme göre, tüm modellerin yasa tasarısında tanımlandığı gibi tehlikeli kapasitelere sahip olması çok olası.”

Ancak yasa tasarısının doğrudan hedef aldığı Büyük Teknoloji şirketleri de SB 1047 konusunda panik halinde. İlerleme Odası — Google, Apple, Amazon ve diğer Büyük Teknoloji devlerini temsil eden bir ticaret grubu — bir bildiri yayınladı yasa tasarısına karşı çıkan açık mektup SB 1047’nin ifade özgürlüğünü kısıtladığını ve “teknoloji inovasyonunu Kaliforniya’nın dışına ittiğini” söylüyor. Geçtiğimiz yıl, Google CEO’su Sundar Pichai ve diğer teknoloji yöneticileri federal AI düzenlemesi fikrini destekledi.

Silikon Vadisi’ni temsil eden ABD Kongre Üyesi Ro Khanna bir açıklama yayınladı SB 1047’ye karşı çıkan açıklama Salı günü. Yasa tasarısının “etkisiz olacağı, bireysel girişimcileri ve küçük işletmeleri cezalandıracağı ve Kaliforniya’nın yenilikçilik ruhuna zarar vereceği” yönündeki endişelerini dile getirdi.

Silikon Vadisi, Kaliforniya’nın bu şekilde geniş kapsamlı teknoloji düzenlemeleri koymasını geleneksel olarak sevmez. 2019’da, Büyük Teknoloji, başka bir eyalet gizlilik tasarısı olan Kaliforniya’nın Tüketici Gizlilik Yasası da teknoloji manzarasını değiştirmekle tehdit ettiğinde benzer bir kart çekti. Silikon Vadisi o tasarıya karşı lobi faaliyeti yürüttüve yürürlüğe girmesinden aylar önce, Amazon’un kurucusu Jeff Bezos ve 50 diğer yönetici federal bir gizlilik yasası çağrısında bulunan açık bir mektup yazdı yerine.

Peki bundan sonra ne olacak?

15 Ağustos’ta, SB 1047, onaylanan değişikliklerle birlikte Kaliforniya Senatosu Meclis salonuna gönderilecek. Wiener’a göre, yasa tasarıları Kaliforniya Senatosu’nda “yaşayabilir veya ölebilir”. Şimdiye kadar yasa koyuculardan aldığı ezici destek göz önüne alındığında, geçmesi bekleniyor.

Anthropic bir dizi gönderdi SB 1047’ye önerilen değişiklikler Temmuz sonlarında, Wiener’ın kendisinin ve Kaliforniya Senatosu politika komitelerinin aktif olarak değerlendirdiğini söylediği. Anthropic, tasarıyı olduğu gibi desteklemese de, SB 1047 üzerinde Wiener ile çalışmaya istekli olduğunu kamuoyuna duyuran son teknoloji bir AI modelinin ilk geliştiricisi oldu. Bu, büyük ölçüde tasarı için bir zafer olarak görüldü.

Anthropic’in önerdiği değişiklikler arasında FMD’nin ortadan kaldırılması, Başsavcının zarar meydana gelmeden önce yapay zeka geliştiricilerine dava açma yetkisinin azaltılması ve SB 1047’deki ihbarcı koruma hükmünün kaldırılması yer alıyor. Wiener, değişiklikler hakkında genel olarak olumlu olduğunu ancak bunları yasa tasarısına eklemeden önce birkaç Senato politika komitesinden onay alması gerektiğini söylüyor.

SB 1047 Senato’dan geçerse, yasa tasarısı Kaliforniya Valisi Gavin Newsom’un masasına gönderilecek ve burada nihayetinde Ağustos sonundan önce yasa tasarısını imzalayıp imzalamayacağına karar verecek. Wiener, yasa tasarısı hakkında Newsom ile konuşmadığını ve onun pozisyonunu bilmediğini söylüyor.

Bu yasa tasarısı hemen yürürlüğe girmeyecek, çünkü FMD’nin 2026’da kurulması planlanıyor. Dahası, yasa tasarısı geçerse, o zamana kadar, belki de şu anda bu konuda konuşan gruplardan bazılarından, yasal itirazlarla karşılaşması çok muhtemel.



genel-24