Yapay zeka felaketlerini önlemek için tartışmalı bir Kaliforniya tasarısı olan SB 1047, eyalet Senatosu’nda son oylamalardan geçti ve şimdi Vali Gavin Newsom’un masasına gidiyor. Yapay zeka sistemlerinin en uç teorik risklerini (insan ölümlerindeki potansiyel rolleri dahil) Kaliforniya’nın yapay zeka patlamasını potansiyel olarak engellemeye karşı tartması gerekiyor. SB 1047’yi yasalaştırmak veya tamamen veto etmek için 30 Eylül’e kadar vakti var.

Eyalet senatörü Scott Wiener tarafından sunulan SB 1047, çok büyük yapay zeka modellerinin can kaybı veya 500 milyon dolardan fazla zarara yol açabilecek siber saldırılar gibi felaketlere yol açma olasılığını önlemeyi amaçlıyor.

Açık olmak gerekirse, bugün yasa tasarısının kapsamına girecek kadar büyük çok az AI modeli var ve AI bu ölçekte bir siber saldırı için hiç kullanılmadı. Ancak yasa tasarısı AI modellerinin geleceğiyle ilgili, bugün var olan sorunlarla değil.

SB 1047, AI model geliştiricilerini zararlarından sorumlu tutacak — silah üreticilerini toplu silahlı saldırılardan sorumlu tutmak gibi — ve Kaliforniya başsavcısına, teknolojileri felaket bir olayda kullanılırsa AI şirketlerine ağır cezalar için dava açma yetkisi verecek. Bir şirket pervasızca hareket ediyorsa, bir mahkeme operasyonlarını durdurmalarını emredebilir; kapsam dahilindeki modellerin ayrıca tehlikeli oldukları düşünülürse kapatılmalarına izin veren bir “kapatma anahtarı” olması gerekir.

Yasa tasarısı Amerika’nın yapay zeka endüstrisini yeniden şekillendirebilir ve yasalaşmasına bir imza kadar yakın. SB 1047’nin geleceğinin nasıl şekilleneceğine dair bir örnek.

Newsom neden bunu imzalayabilir?

Wiener, Silikon Vadisi’nin daha fazla sorumluluğa ihtiyacı olduğunu savunuyor ve daha önce TechCrunch’a Amerika’nın teknoloji düzenlemesindeki geçmiş başarısızlıklarından ders çıkarması gerektiğini söyledi. Newsom, AI düzenlemesi konusunda kararlı bir şekilde hareket etmek ve Büyük Teknoloji’yi sorumlu tutmak için motive olabilir.

Elon Musk da dahil olmak üzere bazı yapay zeka yöneticileri SB 1047 konusunda ihtiyatlı bir iyimserliğe sahip görünüyor.

SB 1047 konusunda bir diğer ihtiyatlı iyimser ise Microsoft’un eski AI sorumlusu Sophia Velastegui. TechCrunch’a “SB 1047 iyi bir uzlaşma” derken yasa tasarısının mükemmel olmadığını kabul etti. Velastegui, “Amerika veya üzerinde çalışan herhangi bir ülke için sorumlu bir AI ofisine ihtiyacımız olduğunu düşünüyorum. Sadece Microsoft olmamalı” dedi.

Anthropic, SB 1047’nin ihtiyatlı savunucularından biri olsa da şirket yasa tasarısı hakkında resmi bir pozisyon almadı. Girişimin önerdiği değişikliklerden birkaçı SB 1047’ye eklendi ve CEO Dario Amodei artık yasa tasarısının “faydalarının muhtemelen maliyetlerinden daha ağır bastığını” söylüyor. Kaliforniya valisine mektupAnthropic’in değişiklikleri sayesinde, yapay zeka şirketleri, SB 1047’nin önceki versiyonunda belirtildiği gibi, yapay zeka modelleri felaket düzeyinde bir zarara yol açmadan önce değil, ancak bundan sonra dava edilebilecek.

Newsom neden veto edebilir?

Yasa tasarısına karşı çıkan endüstrinin yüksek sesle muhalefeti göz önüne alındığında, Newsom’un veto etmesi şaşırtıcı olmazdı. İmzalarsa itibarını SB 1047’ye bağlamış olurdu, ancak veto ederse, sorunu bir yıl daha erteleyebilir veya Kongre’nin halletmesine izin verebilir.

“Bu [SB 1047] Andreessen Horowitz genel ortağı Martin Casado, TechCrunch ile yaptığı bir röportajda, “30 yıldır yazılım politikasıyla uğraştığımız emsali değiştiriyor” diye savundu. “Sorumluluğu uygulamalardan uzaklaştırıyor ve altyapıya uyguluyor, ki bunu hiç yapmadık.”

Teknoloji endüstrisi SB 1047’ye karşı yankılanan bir itirazla karşılık verdi. a16z’nin yanı sıra, Meclis Başkanı Nancy Pelosi, OpenAI, Big Tech ticaret grupları ve önemli AI araştırmacıları da Newsom’ı yasa tasarısını imzalamamaya çağırıyor. Sorumluluk konusundaki bu paradigma değişiminin Kaliforniya’nın AI inovasyonu üzerinde caydırıcı bir etki yaratacağından endişe ediyorlar.

Girişim ekonomisinde soğutucu bir etki, kimsenin isteyeceği son şeydir. Yapay zeka patlaması, Amerikan ekonomisi için büyük bir uyarıcı olmuştur ve Newsom bunu israf etmemek için baskı altındadır. ABD Ticaret Odası bile Newsom’dan yasa tasarısını veto etmesini istedikendisine yazdığı mektupta “Yapay zeka, Amerika’nın ekonomik büyümesinin temelini oluşturuyor” dedi.

SB 1047 yasalaşırsa

TechCrunch’a konuşan SB 1047 taslağının hazırlanmasında yer alan bir kaynak, Newsom’un yasa tasarısını imzalaması halinde ilk günden itibaren hiçbir şey olmayacağını söyledi.

1 Ocak 2025’e kadar teknoloji şirketlerinin AI modelleri için güvenlik raporları yazmaları gerekecek. Bu noktada, Kaliforniya başsavcısı, bir mahkemenin tehlikeli olduğuna karar vermesi durumunda bir AI şirketinin AI modellerini eğitmeyi veya çalıştırmayı durdurmasını gerektiren bir ihtiyati tedbir emri talep edebilir.

2026’da yasa tasarısının daha fazlası devreye girecek. O noktada, Sınır Modelleri Kurulu oluşturulacak ve teknoloji şirketlerinden güvenlik raporları toplamaya başlayacak. Kaliforniya valisi ve yasama organı tarafından seçilen dokuz kişilik kurul, Kaliforniya başsavcısına hangi şirketlerin uyduğu ve uymadığı konusunda önerilerde bulunacak.

Aynı yıl, SB 1047 ayrıca AI modeli geliştiricilerinin güvenlik uygulamalarını değerlendirmek için denetçiler tutmasını gerektirecek ve bu da AI güvenliği uyumluluğu için etkili bir şekilde yeni bir sektör yaratacaktı. Ve Kaliforniya başsavcısı, araçları felaket olaylarında kullanılırsa AI modeli geliştiricilerine dava açmaya başlayabilecekti.

Sınır Modelleri Kurulu, 2027 yılına kadar yapay zeka modeli geliştiricilerine yapay zeka modellerini güvenli ve emniyetli bir şekilde nasıl eğitecekleri ve çalıştıracakları konusunda rehberlik yayınlamaya başlayabilir.

SB 1047 veto edilirse

Newsom SB 1047’yi veto ederse, OpenAI’nin istekleri gerçek olacak ve federal düzenleyiciler muhtemelen sonunda AI modellerinin düzenlenmesinde öncülük edecekler.

Perşembe günü, OpenAI ve Anthropic federal AI düzenlemesinin nasıl görüneceğine dair temelleri attılar. Bir federal kurum olan AI Safety Institute’a gelişmiş AI modellerine erken erişim sağlamayı kabul ettiler. basın bülteniAynı zamanda OpenAI, Yapay Zeka Güvenlik Enstitüsünün yapay zeka modelleri için standartlar belirlemesine izin verecek bir yasa tasarısını onayladı.

OpenAI CEO’su Sam Altman, “Birçok nedenden dolayı bunun ulusal düzeyde gerçekleşmesinin önemli olduğunu düşünüyoruz” diye yazdı cıvıldamak Perşembe günü.

Satır aralarını okuyunca, federal ajanslar genellikle Kaliforniya’dan daha az külfetli teknoloji düzenlemeleri üretir ve bunu yapmak çok daha uzun sürer. Ancak bundan da öte, Silikon Vadisi tarihsel olarak Amerika Birleşik Devletleri hükümeti için önemli bir taktik ve iş ortağı olmuştur.

Casado, “Aslında federal hükümetle çalışan son teknoloji bilgisayar sistemlerinin uzun bir geçmişi var,” dedi. “Ulusal laboratuvarlarda çalıştığımda, her yeni süper bilgisayar çıktığında, ilk versiyon hükümete giderdi. Bunu hükümetin kapasiteye sahip olması için yapardık ve bunun güvenlik testlerinden daha iyi bir sebep olduğunu düşünüyorum.”



genel-24