Büyük sınır yapay zeka modellerini düzenlemeye çalışan bir Kaliforniya yasa tasarısı, yapay zekanın geleceği konusunda dramatik bir açmaz yaratıyor. Yapay zeka yıllardır ikiye bölündü “hızlanma” ve “yavaşlama”. Hızlananlar yapay zekanın hızla ilerlemesini, hızlı hareket etmesini ve işleri bozmasını isterken, yavaşlayanlar yapay zeka gelişiminin insanlık uğruna yavaşlamasını istiyor. Savaş ulusal ilgi odağına dönüştü OpenAI yönetim kurulu kısa süreliğine Sam Altman’ı görevden aldıbirçoğu o zamandan beri başlangıçtan ayrıldı AI güvenliği adına. Şimdi Kaliforniya yasa tasarısı bu mücadeleyi politik hale getiriyor.

SB 1047 Nedir?

SB1047 Meta, OpenAI, Anthropic ve Mistral gibi büyük yapay zeka modeli sağlayıcılarını, yapay zeka sistemlerinin potansiyel olarak yıkıcı tehlikelerinden sorumlu tutacak bir Kaliforniya eyalet yasa tasarısı. Eyalet Senatörü Scott Wiener tarafından yazılan tasarı, Mayıs ayında Kaliforniya Senatosu’ndan geçti ve bir büyük engeli daha aştık Bu hafta kanun olmaya doğru.

Neden umursayayım?

Bu, ABD’deki ilk gerçek yapay zeka düzenlemesi olabilir ve bu, tüm büyük yapay zeka şirketlerinin bulunduğu Kaliforniya’da gerçekleşiyor.

Viyana tasarıyı anlatıyor “en büyük ve en güçlü yapay zeka sistemlerinin geliştiricileri için açık, öngörülebilir, sağduyulu güvenlik standartlarını” belirlemek olarak. Ancak herkes bunu bu şekilde görmüyor. Silikon Vadisi’ndeki pek çok kişi, bu yasanın yapay zeka çağını daha başlamadan öldüreceğine dair alarm zilleri çalıyor.

SB 1047 Aslında Ne İşe Yarar?

SB 1047, AI model sağlayıcılarını her türlü “yıkıcı zarardan” sorumlu tutuyor, ancak bunların ne olduğu biraz belirsiz. Yine de bu önemli çünkü Silikon Vadisi tarihsel olarak zararlarının çoğundan kaçındı. Tasarı, Kaliforniya Başsavcılığına, yapay zeka modellerinden birinin Kaliforniyalılara ciddi zarar vermesi durumunda bu şirketlere karşı yasal işlem başlatma yetkisi veriyor.

SB 1047 ayrıca, acil bir durumda yapay zeka şirketlerinin yapay zeka modeli için bir acil durum anahtarı oluşturmasını etkili bir şekilde gerektiren bir “kapatma” hükmü de içerir.

Tasarı aynı zamanda Kaliforniya Teknoloji Departmanı bünyesinde “Sınır Modeli Bölümü”nü de oluşturuyor. Bu grup, bu öncü yapay zeka modeli sağlayıcılarını düzenleyecek ve her şirketin uyması gereken güvenlik standartlarını uygulayacak. İşletmelerin Bölüm’e uymaması durumunda dava açılabilir ve para cezasıyla karşı karşıya kalabilirler.

Bu Tasarıyı Kim Destekliyor?

Senatör Wiener’ın yanı sıra, bazen “Yapay Zekanın Babaları” olarak anılan iki önde gelen yapay zeka araştırmacısı Geoffrey Hinton ve Yoshua Bengio da bu tasarıya isimlerini koydu. Bu ikisi, yapay zekanın tehlikeleri hakkında uyarı çağrıları yapma konusunda çok öne çıktılar.

Daha genel anlamda bu tasarı, yapay zekanın insanlığı sona erdirme olasılığının nispeten yüksek olduğuna ve bu şekilde düzenlenmesi gerektiğine inanan yavaşlama perspektifiyle aynı doğrultudadır. Bu insanların çoğu yapay zeka araştırmacıları ve bir yapay zeka ürününü aktif olarak metalaştırmaya çalışmıyorlar çünkü biliyorsunuz, bunun insanlığın sonunu getirebileceğini düşünüyorlar.

Tasarı, Dan Hendrycks liderliğindeki Yapay Zeka Güvenliği Merkezi tarafından destekleniyor. Grubu bir yayın yayınladı Mayıs 2023’te açık mektup Yapay zekanın insan neslinin tükenme riskinin nükleer savaşlar veya salgın hastalıklar kadar ciddiye alınması gerektiğini söylüyor. Sam Altman, Bill Gates, Grimes ve birçok etkili teknoloji insanı tarafından imzalandı. Onlar etkili bir grup ve bu yasa tasarısının tanıtılmasında kilit oyunculardan biri.

Mart 2023’te decels bir çağrıda bulundu. Tüm yapay zeka geliştirmelerinde “duraklatma” güvenlik altyapısını uygulamak. Her ne kadar kulağa aşırı gelse de, yapay zeka topluluğunda yapay zekanın insanlığın sonunu getirebileceğine gerçekten inanan pek çok akıllı insan var. Onların fikri, eğer yapay zekanın insanlığı sona erdirme ihtimali varsa, her ihtimale karşı muhtemelen bunu sıkı bir şekilde düzenlememiz gerektiğidir.

Bu mantıklı. Peki SB 1047’ye Kim Karşı?

Eğer X’teyseniz, Silikon Vadisi’ndeki herkesin SB 1047’ye karşı olduğunu hissedersiniz. Risk sermayedarları, startup kurucuları, yapay zeka araştırmacıları ve açık kaynak yapay zeka topluluğunun liderleri bu yasa tasarısından nefret ediyor. Ben genel olarak bu insanları hızlandırılmış olarak sınıflandırırım ya da en azından bu konuya değindikleri yer burasıdır. Birçoğu yapay zeka işinde ama bazıları aynı zamanda araştırmacı.

Genel düşünce, SB 1047’nin Meta ve Mistral gibi yapay zeka modeli sağlayıcılarını açık kaynak çabalarını küçültmeye veya tamamen durdurmaya zorlayabileceği yönünde. Bu tasarı, onları kendi yapay zeka modellerini kullanan kötü aktörlerden sorumlu kılıyor ve bu şirketler, üretken yapay zekaya kısıtlama getirmenin zorlukları ve ürünlerin açık doğası nedeniyle bu sorumluluğu üstlenemeyebilir.

A16Z Genel Ortağı ve Mistral Yönetim Kurulu Direktörü Anjney Midha, Gizmodo ile yaptığı röportajda “Açık kaynak startup ekosistemini tamamen yok edecek, ezecek ve yavaşlatacak” dedi. “Bu tasarı, matbaanın nerede olması gerektiğine, yani matbaanın kullanım alanlarına odaklanmak yerine, matbaadaki ilerlemeyi kısıtlamaya benziyor.”

Berkeley Bilgisayar Bilimi Profesörü ve Databricks’in yönetim kurulu başkanı Ion Stoica, “Açık kaynak, birkaç güçlü şirketin gizlilik içinde yapay zekayı kontrol etmesine izin vermek yerine, ortaya çıkan modeller için şeffaf güvenlik testlerini bir araya getirerek önde kalmak için en iyi umudumuzdur” dedi. röportaj.

Yapay zeka düzenlemelerini endüstrinin varoluşsal bir unsuru olarak görenler yalnızca Midha ve Stoica değil. Açık kaynaklı yapay zeka, son yılların en başarılı Silikon Vadisi startup sahnesine güç verdi. SB 1047’nin muhalifleri, tasarının gelişen, açık ekosistem yerine Big Tech’in kapalı yerleşik şirketlerine fayda sağlayacağını söylüyor.`

Silikon Vadisi’nin açık kaynaklı yapay zeka hackathon’ları için bir merkez görevi gören AGI House’un yaratıcısı Jeremy Nixon, “Bunu, yapay zekayı yavaşlatmaya yönelik daha geniş bir stratejinin parçası olarak, açık kaynak yapay zeka geliştirmede darboğaz oluşturmanın bir yolu olarak görüyorum” dedi. “Tasarı genel olarak yapay zekanın duraklatılmasıyla ilgilenen bir topluluktan geliyor.”

Bu Gerçekten Teknik Gibi Geliyor. Milletvekilleri Bütün Bunları Doğru Yapabilir mi?

Bu kesinlikle teknik bir durum ve bu da bazı sorunlara yol açıyor. SB 1047 yalnızca “büyük” sınır modelleri için geçerlidir, ancak büyük ne kadar büyüktür? Tasarı, bunu günümüz standartlarına göre spesifik ve çok büyük miktarda bilgi işlem gücü olan 10^26 FLOPS üzerinde eğitilmiş yapay zeka modelleri olarak tanımlıyor. Sorun şu ki, yapay zeka çok hızlı büyüyor ve 2023’teki en son teknoloji modeller, 2024’ün standartlarına kıyasla çok küçük görünüyor. Bu kadar hızlı hareket eden bir alanda kuma bayrak yapıştırmak pek işe yaramaz.

Yapay zeka sistemlerinin hatalı davranmasını tamamen engellemenin mümkün olup olmadığı da belli değil. Gerçek şu ki, Yüksek Lisans’ların nasıl çalıştığı hakkında pek bir şey bilmiyoruz ve OpenAI, Anthropic ve Google’ın günümüzün önde gelen yapay zeka modelleri her zaman jailbreak’lidir. Bu nedenle bazı araştırmacılar, düzenleyicilerin model sağlayıcılara değil, kötü aktörlere odaklanması gerektiğini söylüyor.

Yann Lecunn ile birlikte NYU’da yapay zeka üzerine çalışan Yardımcı Doçent Ravid Shwartz Ziv, bir röportajda “Yapay zeka ile modellerin kendisini değil, kullanım senaryosunu, eylemi düzenlemeniz gerekiyor” dedi. “Dünyanın en iyi araştırmacıları bir yapay zeka modeli üzerinde sonsuz miktarda zaman harcayabilir ve insanlar yine de onu jailbreak yapabilir.”

Bu tasarının bir başka teknik kısmı da açık kaynaklı yapay zeka modelleriyle ilgilidir. Bir startup, Meta’nın en popüler açık kaynaklı yapay zeka modellerinden biri olan Llama 3’ü alıp tamamen farklı bir şey olacak şekilde ince ayar yaparsa, Meta hâlâ bu yapay zeka modelinden sorumlu mudur? Bu yasa tasarısına göre Meta’nın kesinlikle sorumlu tutulabileceği görülüyor ancak tasarıya karşı çıkanlar bunu haksız ve doğru bir yaklaşım olarak görmüyor.

Kısa Soru: Yapay Zeka Aslında Özgür Konuşma mı?

Belirsiz. Yapay zeka topluluğundaki pek çok kişi, açık kaynaklı yapay zekayı bir tür ifade özgürlüğü olarak görüyor (Midha’nın buna matbaa adını vermesinin nedeni de bu). Buradaki öncül, bir yapay zeka modelinin altında yatan kodun bir ifade biçimi olduğu ve model çıktılarının da ifadeler olduğudur. Kanun, tarihsel olarak birçok durumda Birinci Değişiklik kapsamına girmiştir.

Üç hukuk profesörü tartıştı bir Hukuk makalesi Yapay zeka modellerinin tam olarak ifade özgürlüğü olmadığını. Birincisi, bir yapay zeka modelini oluşturan ağırlıkların insanlar tarafından yazılmadığını, büyük makine öğrenimi operasyonları yoluyla yaratıldığını söylüyorlar. İnsanlar bunları zar zor okuyabiliyor bile.

Sınır yapay zeka modellerinin çıktılarına gelince, bu sistemler geçmişte Birinci Değişiklik kapsamına girdiği düşünülen sosyal medya algoritmalarından biraz farklı. Yapay zeka modelleri tam olarak bir bakış açısına sahip değil, birçok şey söylüyor. Bu nedenle bu hukuk profesörleri SB 1047’nin Birinci Değişikliği etkilemeyebileceğini söylüyorlar.

Sırada ne var?

Tasarı, Vali Gavin Newsom’un masasına gönderilecek olan Ağustos oylamasına doğru hızla yaklaşıyor. Oraya ulaşmak için birkaç önemli engelin daha aşılması gerekiyor ve o zaman bile Newsom, Silikon Vadisi’nin baskısı nedeniyle anlaşmayı imzalamayabilir. Büyük bir teknoloji ticaret grubu az önce Newsom’a SB 1047’yi imzalamamasını söyleyen bir mektup gönderdi.

Ancak Newsom, yapay zeka konusunda ülke için bir emsal oluşturmak isteyebilir. SB 1047 yürürlüğe girerse Amerika’daki yapay zeka manzarasını kökten değiştirebilir.



genel-7