İki ABD Senatörü, yapay zekayı internetin geri kalanından ayırmaya çalışmak için koridorda el ele veriyor. Senatörler Josh Hawley ve Richard Blumenthal tanıttı yeni mevzuat bu, geçerse, AI’yı Bölüm 230 korumalarından muaf tutacaktır. Önerilen yasa tasarısı, yapay zeka şirketlerini genellikle yanlış olanlardan potansiyel olarak sorumlu bırakacaktır (TBD bazen iftira niteliğinde olabilir) büyük dil modellerinin ve diğer üretici yapay zeka araçlarının ürettiği içerik.

Açıkça “Yapay Zeka İçin Bölüm 230 Dokunulmazlık Yasası Yok” başlıklı önlem, yapay zeka yaratımlarının sorumluluğunu kimin üstlendiği sorusu hararetle tartışılırken ortaya çıkıyor ve henüz net bir yasal yanıt yok.

Connecticut Demokratı Blumenthal, “Yapay zeka şirketleri, herhangi bir Bölüm 230 yasal koruması olmaksızın, ürün geliştirirken ticari kararların sorumluluğunu almaya zorlanmalı” dedi. basın açıklaması. Missouri Cumhuriyetçi Hawley ekledi, “Big Tech’te Bölüm 230’de yaptığımız hataların aynısını üretken yapay zekada yapamayız… şirketler sorumlu tutulmalı.”

Blumenthal, bir Senato Yargı Komitesi sırasında yeni yasasını ima etmişti. işitme gerçek dünyada yapay zekanın insan hakları üzerindeki etkileri bu haftanın başlarında. Blumenthal, sorgulaması sırasında, sosyal medya şirketlerinin Bölüm 230’ün aşırı geniş bir yorumundan yararlandığını iddia etti ve Kongre’nin ortaya çıkan üretken yapay zeka dönemi için bu senaryoyu tekrarlamamasının kritik olduğunu savundu.

Blumenthal, “Yapay zeka için geçerli olmadığını söylemek için Bölüm 230’ü açıklığa kavuşturmamız gerekiyor, çünkü bunu yapmazsak yepyeni bir acı dünyası içindeyiz,” dedi.

Yeni önerilen mevzuatın kendisi 230’u aşağıdaki metinle değiştirecektir:

Üretken Yapay Zekayla İlgili İddialar Üzerinde Etki Yok—Bu bölümdeki hiçbir şey…bir etkileşimli bilgisayar hizmeti sağlayıcısına karşı Federal veya Eyalet yasaları uyarınca açılan bir cezai kovuşturmada veya bir hukuk davasındaki herhangi bir iddiayı zayıflatacak veya sınırlayacak şekilde yorumlanmayacaktır. iddianın veya suçlamanın altında yatan davranış, etkileşimli bilgisayar hizmeti tarafından üretken yapay zekanın kullanılmasını veya sağlanmasını içeriyorsa.

230. madde İletişim Ahlakı Yasasıyaygın olarak kabul edilir internetin temel yasası. Sosyal medya sitelerinin, arama motorlarının, forumların, yorum bölümlerinin, kullanıcılarının yayınladıkları içerikler için platformlar veya internet sağlayıcıları sorumlu tutulmadan var olmalarını sağlar. Birçok yönden kusurlu olsa da, the politikası çevrimiçi olarak herhangi bir derecede serbest konuşma sağlar ve bu önemlidir.

Ancak son yıllarda, büyük ölçüde internette yanlış bilgi çoğalırken büyük teknoloji şirketlerini nasıl koruduğu temelinde, her iki tarafın politikacılarının tepkisiyle karşı karşıya kaldı. Başkan Biden defalarca söyledi yönetmeliğin reforme edilmesini istiyor. Bu arada Cumhuriyetçi milletvekilleri (ve bazı Demokratlar), kuralı tamamen ortadan kaldırmak için çok sayıda çaba sarf ettiler. Senatör Hawley, özellikle, daha önce 230 geldi. (Bu son girişimde, 230’un koruyucu kalkanını genel olarak zayıflatmak için bir strateji olarak yapay zeka sorumluluğuna ilişkin açık soruyu kullanıyor olabilir.)

230. Bölüm’ün aldığı tüm eleştirilere rağmen, Yüksek Mahkeme son zamanlarda hükmü tutmayı seçti bozulmamış. Mayıs ayında SCOTUS, önemli bir davayı reddetti ve konuyu ele almayı reddetti. Ancak 230’un hala ülkenin kanunu olması, bunun mutlaka AI için geçerli olduğu anlamına gelmez. Orijinal 1996 politikasını yazan insanlara sorarsanız, öyle değil.

Senatör Ron Wyden, Section 230’un yazarlarından eski SEC başkanı ve kongre üyesi Chris Cox ile birlikte tartıştı hüküm, OpenAI ChatGPT veya DALL-E gibi programların yaydığı metin, video veya resimler için geçerli olmamalıdır. Wyden yaptığı açıklamada, “Bölüm 230, kullanıcıları ve kullanıcıların konuşmalarını düzenlemek ve barındırmak için siteleri korumakla ilgilidir” ve “şirketleri kendi eylemlerinin ve ürünlerinin sonuçlarından korumakla hiçbir ilgisi yoktur” dedi. Reuters’e Nisan ayında konuyla ilgili.

Hawley ve Blumenthal’ın önerdiği mevzuat, yasada AI için bir istisnayı sağlamlaştırmanın bir yolu olacaktır. Yine de, yasaya göre, eylem tamamen gereksiz olabilir. Jeff KosseffABD Donanma Akademisi’nde siber güvenlik hukuku profesörü ve 2019’da Bölüm 230 üzerine bir kitabın yazarı olan, İnterneti Oluşturan Yirmi Altı Kelime. Kosseff, Gizmodo ile yaptığı bir telefon görüşmesinde bekleyen fatura hakkında “Bunun gerekli olup olmayacağını bile bilmiyoruz” dedi. Wyden ve Cox’un pozisyonuna atıfta bulundu ve ABD mahkemelerinin nasıl bir duruş sergileyebileceğini gösteren yasal bir test olmadığını kaydetti.

Kosseff, Bölüm 230’ün çevrimiçi sağlayıcıları ve platformları yalnızca doğrudan katkıda bulunmadıkları içerik olması durumunda koruduğunu kabul etti. Ve yapay zeka şirketlerinin bu programların ürettiği her şeye bir şekilde “katkıda bulunduğuna” dair ileri sürülecek bir tartışma var.

Kısım 230 AI içeriği için geçerli değilse, mevzuat yoluyla veya başka bir yoldan, hepsi kalacaktı Kosseff, mevcut iftira yasalarına tabi olduğunu açıkladı. Bu ayın başlarında, bir Georgia radyo sunucusu OpenAI’ye karşı ilk iftira davasını açtı ChatGPT üzerinden “halüsinasyon gördüğü” ve radyo sunucusunun zimmete para geçirmekle suçlandığına dair yanlış metin ürettiği iddia ediliyor. diğerleri var benzer eylemle tehdit etti. Bu iddiaların hiçbiri henüz bir kararla sonuçlanmadı.

AI üreticilerini, modellerinin yaptığı her şey için sorumluluğa resmi olarak açmak, muhtemelen yeni gelişen sektörü ezecektir. Sam Altman ve OpenAI kurucuları aradığında düzenleme için yapay zeka, 230’dan resmileştirilmiş muafiyet açıkça peşinde oldukları şey değildi.

Yine de Kosseff’in görüşüne göre, birinin yapay zeka için sorumluluk alması gerekiyor. “İnsanların bilgi almak için rutin olarak güvendiği bir şeyse ve bu bir karalama makinesiyse, birinin bundan sorumlu olması gerekir” dedi.

Bununla birlikte, tıpkı 230’un altındaki kapsamlı korumaların yapay zeka için olduğu gibi pek bir anlam ifade etmeyebileceği gibi, iftira yasaları da hızla büyüyen teknolojiyi dizginlemek için doğru yol olmayabilir. Bir davacının bir iftira davasını kazanması için, genellikle bir ifadenin yanlış olduğunu bilerek veya umursamadan yapıldığını kanıtlaması gerekir. Ancak bir yapay zeka herhangi bir şeyi “bilebilir” mi? Kosseff, “Gerçek kötülük, ruh hali ile ilgilidir” dedi. “Bunu bir AI programı için nasıl gösterirsiniz?”

Sonra kullanıcı ve araç arasındaki etkileşim var. AI programları rutin olarak gerçek dışı bilgiler üretir ve kolayca rahatsız edici veya potansiyel olarak zarar verici içerik oluşturmak için kullanılabilir (örn. cinsel derin sahteler). Hiç şüphesiz, bu tekrar eden problemler, en azından kısmen, teknolojiyi satan şirketler veya geliştiriciler tarafından belirlenen arka uç kodlarının ve eğitimlerinin bir sonucudur. Ancak büyük dil modelleri ve görüntü/video oluşturucular çıktılarını yalnızca istemde yazan insanların emriyle üretir. Peki işler ters gittiğinde suçu kim üstlenmeli?

Yapay zekanın ve internetin geleceği hakkında pek çok şeyi belirlemeye yönelik karmaşık, çözülmemiş bir sorun. Şu anda herhangi bir cevap yoksa, en azından Kosseff’in görüşüne göre bu “gerçekten büyüleyici bir soru”.



genel-7