California Valisi Gavin Newsom (D), gelişmiş yapay zeka (AI) modellerinin geliştiricilerine bazılarının aşırı geniş ve gerçekçi olmayan kısıtlamalar olarak algıladığı kısıtlamaları empoze edecek bir yasa tasarısı olan SB-1047’yi veto etti.

Bunu yaparken Newsom, tasarıyı yapay zeka modeli geliştirme ve kullanımı etrafında çok ihtiyaç duyulan güvenlik ve gizlilik korkuluklarını oluşturmak olarak algılayan önde gelen yapay zeka araştırmacıları, Yapay Zeka Güvenliği Merkezi (CAIS) ve Screen Actors Guild dahil olmak üzere pek çok kişiyi muhtemelen hayal kırıklığına uğrattı.

İyi Niyetli Ama Kusurlu mu?

“İyi niyetli olmasına rağmen SB-1047, bir AI sisteminin yüksek riskli ortamlarda konuşlandırılıp dağıtılmadığını veya kritik karar almayı veya hassas verilerin kullanımını içerip içermediğini dikkate almaz.” Newsom yazdı. “Bunun yerine yasa, büyük bir sistem kullandığı sürece en temel işlevlere bile katı standartlar uyguluyor. Bunun, halkı teknolojinin oluşturduğu gerçek tehditlerden korumak için en iyi yaklaşım olduğuna inanmıyorum.”

Newsom’un veto duyurusu, geçtiğimiz ay imzaladığı, ChatGPT, Microsoft Copilot, Google gibi sohbet robotlarını içeren bir kategori olan üretken yapay zeka (GenAI) araçlarının eyalette kullanımını ve dağıtımını düzenleyen yapay zeka ile ilgili diğer 17 yasa tasarısına atıflar içeriyordu. İkizler ve diğerleri.

“Kaliforniyalıları GenAI konuşlandırmasının potansiyel felaket risklerinden koruma sorumluluğumuz var” diye kabul etti. Ancak SB-1047’nin bu korumalara yönelik araç olmadığını açıkça belirtti. “Hızla ilerleyen bu teknolojiye uyum sağlayabilecek ve kamu yararını ilerletme potansiyelinden yararlanabilecek bir çözüm üzerinde düşünceli ve hızlı bir şekilde çalışacağız.”

İlgili:Haber Masası 2024: Microsoft Copilot’u Hacklemek Korkutucu Kolay

Var çok sayıda başka teklif eyalet düzeyinde, diğer endişeler nedeniyle yapay zeka gelişimi üzerinde benzer bir kontrol arayışı ABD’yi geride bırakan ülkeler AI cephesinde.

Güvenli ve Emniyetli Yapay Zeka Geliştirme İhtiyacı

Kaliforniya Eyaleti senatörleri Scott Wiener, Richard Roth, Susan Rubio ve Henry Stern önerdi SB-1047 Bu, OpenAI, Meta ve Google gibi gelişmekte olan yapay zeka teknolojilerine yüz milyonlarca dolar akıtan şirketler üzerinde bir miktar denetim uygulayacak bir önlem olarak.

Sınır Yapay Zeka Modelleri Yasası için Güvenli ve Güvenli İnovasyon Yasası’nın temelinde, geliştirilmesi 100 milyon dolardan fazlaya mal olabilecek büyük dil modelleri (LLM’ler) geliştiren şirketlerin, teknolojilerinin kritik bir zarara yol açmamasını sağlamasını zorunlu kılan hükümler yer alıyor. Tasarıda “kritik zarar”, kimyasal, biyolojik, nükleer ve diğer kitle imha silahlarının yaratılması veya kullanılması için yapay zeka teknolojilerinin kullanılmasını içeren veya kitlesel kayıplara, kitlesel hasara, ölüme, bedensel yaralanmaya ve diğer zararlara neden olan olaylar olarak tanımlandı.

İlgili:Erişilebilirlik Analizi Statik Güvenlik Testi Aşırı Yükünü Azaltır

Bunu mümkün kılmak için SB-1047, kapsam dahilindeki kuruluşların modellerine yetkisiz erişimi, modellerinin kötüye kullanımını veya modellerinde başkaları tarafından güvenli olmayan değişiklikler yapılmasını önlemek amacıyla belirli idari, teknik ve fiziksel kontrollere uymalarını zorunlu kılacaktı. Tasarı, dünyadaki OpenAI’lerin, Google’ların ve Meta’ların, belirli durumlarda LLM’lerinin “tamamen kapatılmasını” sağlamak için nükleer benzeri arıza güvenliği yeteneklerini uygulamasını gerektiren özellikle tartışmalı bir madde içeriyordu.

Tasarı, her iki partiden de geniş bir destek aldı ve bu yılın başlarında Kaliforniya Eyalet Meclisi ve Senatosu’ndan kolaylıkla geçti. Ağustos ayında imza için Newsom’un masasına gitti. O zaman, Weiner desteği gösterdi gibi önde gelen yapay zeka araştırmacılarının Geoffrey Hinton (Google’da eski bir yapay zeka araştırmacısı), profesör Yoshua Bengio, ve gibi kuruluşlar CAIS.

Kendi xAI şirketi SB-1047’ye tabi olacak olan Elon Musk bile tasarıyı destekledi X’teki bir gönderide potansiyel göz önüne alındığında Newsom’un muhtemelen tasarıyı geçirmesi gerektiğini söylüyor kontrolden çıkmış yapay zekanın varoluşsal riskleri, kendisinin ve diğerlerinin aylardır işaretlediği şey.

İlgili:Özensiz Entra ID Kimlik Bilgileri Hibrit Bulut Fidye Yazılımlarını Çekiyor

Teorik, Kıyamet Senaryolarına Dayalı Korku mu?

Ancak diğerleri tasarının yapay zekanın topluma zarar verme potansiyeline ilişkin kanıtlanmamış kıyamet senaryolarına dayandığını düşünüyor. Açık bir mektuptaKörfez Bölgesi Konseyi, İlerleme Odası, TechFreedom ve Silikon Vadisi Liderlik Grubu gibi çeşitli birimleri içeren bir koalisyon, tasarının temelde kusurlu olduğunu söyledi.

Grup, SB-1047’nin korumayı amaçladığı zararların tamamen teorik olduğunu, hiçbir aslına dayanmadığını iddia etti. “Ayrıca, en son bağımsız akademik araştırma, ChatGPT gibi büyük dil modellerinin bağımsız olarak öğrenemeyeceği veya yeni beceriler kazanamayacağı sonucuna varıyor; bu da bunların insanlığa varoluşsal bir tehdit oluşturmadığı anlamına geliyor.” Koalisyon ayrıca, tasarının büyük yapay zeka modellerinin geliştiricilerini başkalarının ürünleriyle yaptıklarından sorumlu tutacağı gerçeğine de itiraz etti.

Veri gizliliği firması Osano’nun CEO’su Arlo Gilbert, Newsom’un tasarıyı veto etme kararını sağlam bir karar olarak görenler arasında yer alıyor. Gilbert, “Valinin kararını destekliyorum” diyor. “Yapay zeka düzenlemesinin büyük bir savunucusu olsam da önerilen SB-1047 bizi oraya götürecek doğru araç değil.”

Newsom’un tespit ettiği gibi politika ve teknoloji arasında boşluklar var ve doğru şeyi yapmak ile yeniliği desteklemek arasındaki dengenin temkinli bir yaklaşımı hak eden bir denge olduğunu söylüyor. Gilbert, gizlilik ve güvenlik açısından bakıldığında, bu kuraldan muaf tutulacak küçük girişimler veya daha küçük şirketlerin, sistemlerindeki verileri korumak, izlemek ve dağıtmak için kaynaklara göreceli erişimleri nedeniyle aslında daha büyük bir zarar riski taşıyabileceğini belirtiyor.

AppOmni’nin yapay zeka direktörü Melissa Ruzzi, e-postayla gönderdiği bir açıklamada, SB-1047’nin şu anda ilgilenilmesi gereken sorunları gündeme getirdiğini belirtti: “Hepimiz yapay zekanın çok yeni olduğunu ve bununla ilgili yasa yazımında zorluklar olduğunu biliyoruz. İlkini bekleyemeyiz. yasaların kusursuz ve mükemmel olmasını sağlamak; bu büyük olasılıkla yinelenen bir süreç olacak, ancak bir yerden başlamalıyız.”

Anthropic ve Google gibi yapay zeka alanındaki en büyük oyunculardan bazılarının, teknolojilerinin zarar vermemesini sağlamaya büyük önem verdiklerini kabul etti. “Fakat tüm oyuncuların kurallara uymasını sağlamak için yasalara ihtiyaç var” dedi. “Bu, son kullanıcıların bir uygulamada yapay zeka kullanımına ilişkin belirsizliğini ve korkusunu ortadan kaldırıyor.”



siber-1