ABD Yüksek Mahkemesi önümüzdeki aylarda internet şirketlerini koruyan güçlü bir kalkanın zayıflatılıp zayıflatılmayacağına karar verdiğinde, kararın yapay zeka sohbet robotu ChatGPT gibi hızla gelişen teknolojiler için de sonuçları olabilir.

Yargıçlar, Alphabet’in YouTube’unun kullanıcılara video önerileri nedeniyle dava edilip edilemeyeceğine Haziran ayı sonuna kadar karar verecek. Bu dava, teknoloji platformlarını kullanıcıları tarafından çevrimiçi olarak yayınlanan içeriğe ilişkin yasal sorumluluktan koruyan bir ABD yasasının, şirketler, kullanıcıları önerilerle hedeflemek için algoritmalar kullandığında da geçerli olup olmadığını test eder.

Mahkemenin bu konularda vereceği karar, sosyal medya platformlarının ötesinde önemlidir. Karar, teknolojiye göre, Microsoft’un büyük bir yatırımcı olduğu bir şirket olan OpenAI’den ChatGPT veya Alphabet’in Google’dan Bard gibi üretken AI sohbet botları geliştiren şirketlerin iftira veya gizlilik ihlalleri gibi yasal iddialardan korunması gerekip gerekmediğine dair ortaya çıkan tartışmayı etkileyebilir. ve hukuk uzmanları.

Uzmanlar, bunun nedeninin, ChatGPT ve halefi GPT-4 gibi üretken yapay zeka araçlarına güç veren algoritmaların, YouTube kullanıcılarına video öneren algoritmalara biraz benzer bir şekilde çalışması olduğunu ekledi.

Washington’daki Brookings Enstitüsü düşünce kuruluşunda misafir araştırmacı ve yapay zeka uzmanı Cameron Kerry, “Tartışma, tavsiye motorları aracılığıyla çevrimiçi olarak sunulan bilgilerin düzenlenmesinin, içeriği sorumlu olacak şekilde şekillendirmek için çok önemli olup olmadığıyla ilgili.” Dedi. “Bir chatbot ile ilgili olarak aynı türden sorunlarınız var.”

OpenAI ve Google temsilcileri, yorum taleplerine yanıt vermedi.

Şubat ayındaki tartışmalar sırasında, Yüksek Mahkeme yargıçları, 1996 İletişim Ahlakı Yasası’nın 230. Bölümü olarak bilinen yasada yer alan korumaların zayıflatılıp zayıflatılmayacağı konusundaki belirsizliğini dile getirdi. “şiir” ve “polemik” üreten araçlar muhtemelen bu tür yasal korumalardan yararlanmayacaktır.

Dava, Bölüm 230 muafiyetinin mevcut çevrimiçi veriler üzerinde eğitilmiş ancak orijinal eserler üretebilen yapay zeka modellerine uygulanıp uygulanmaması gerektiği konusunda ortaya çıkan bir konuşmanın yalnızca bir yönüdür.

Bölüm 230 korumaları genellikle bir teknoloji platformunun kullanıcılarından gelen üçüncü taraf içeriği için geçerlidir ve bir şirketin geliştirilmesine yardım ettiği bilgiler için geçerli değildir. Mahkemeler, bir AI chatbot’tan gelen bir yanıtın kapsanıp kapsanmayacağına henüz karar vermedi.

‘KENDİ EYLEMLERİNİN SONUÇLARI’

Temsilciler Meclisi’ndeyken bu yasanın hazırlanmasına yardımcı olan Demokrat Senatör Ron Wyden, sorumluluk kalkanının üretici yapay zeka araçlarına uygulanmaması gerektiğini çünkü bu tür araçların “içerik oluşturduğunu” söyledi.

Wyden, Reuters’e yaptığı açıklamada, “Bölüm 230, kullanıcıları ve siteleri barındırmak ve kullanıcıların konuşmalarını düzenlemek için korumakla ilgilidir. Şirketleri kendi eylemlerinin ve ürünlerinin sonuçlarından korumamalıdır.” Dedi.

Teknoloji endüstrisi, dokunulmazlığa iki partinin de karşı çıkmasına rağmen, Bölüm 230’u korumak için bastırdı. ChatGPT gibi araçların arama motorları gibi çalıştığını ve kullanıcıları bir sorguya yanıt olarak mevcut içeriğe yönlendirdiğini söylediler.

Bir teknoloji endüstrisi ticaret grubu olan NetChoice’un başkan yardımcısı ve genel danışmanı Carl Szabo, “Yapay zeka gerçekten hiçbir şey yaratmıyor. Mevcut içeriği alıyor ve onu farklı bir moda veya farklı bir formata koyuyor” dedi.

Szabo, zayıflatılmış bir Bölüm 230’ün yapay zeka geliştiricileri için imkansız bir görev sunacağını söyledi ve onları inovasyonu engelleyebilecek bir dava seline maruz bırakmakla tehdit etti.

Bazı uzmanlar, AI modelinin potansiyel olarak zararlı bir yanıt oluşturduğu bağlamı inceleyerek mahkemelerin orta bir yol izleyebileceğini tahmin ediyor.

AI modelinin mevcut kaynakları başka kelimelerle ifade ettiği durumlarda, kalkan yine de geçerli olabilir. Ancak ChatGPT gibi sohbet robotlarının, çevrimiçi olarak başka bir yerde bulunan bilgilerle hiçbir bağlantısı yokmuş gibi görünen kurgusal yanıtlar oluşturduğu biliniyor, bu durum uzmanların muhtemelen korunmayacağını söyledi.

Berkeley’deki California Üniversitesi’nde bir teknoloji uzmanı ve profesör olan Hany Farid, AI geliştiricilerinin “programladıkları, eğittikleri ve devreye aldıkları” modeller nedeniyle açılan davalardan muaf olmaları gerektiğini iddia etmenin hayal gücünü zorladığını söyledi.

Farid, “Şirketler ürettikleri ürünlerden kaynaklanan zararlardan hukuk davalarında sorumlu tutulduğunda daha güvenli ürünler üretiyorlar” dedi. “Ve sorumlu tutulmadıklarında daha az güvenli ürünler üretiyorlar.”

Yüksek Mahkeme tarafından karara bağlanan dava, 2015 yılında Paris’te İslamcı militanlar tarafından bir saldırıda ölümcül şekilde vurulan Kaliforniyalı 23 yaşındaki üniversite öğrencisi Nohemi Gonzalez’in ailesinin, bir alt mahkemenin ailesinin davasını reddetmesine yaptığı itirazı içeriyor. YouTube’a dava

Dava, Google’ı terörizme “maddi destek” sağlamakla suçladı ve YouTube’un, video paylaşım platformunun algoritmaları aracılığıyla, Paris saldırılarının sorumluluğunu üstlenen İslam Devleti militan grubunun videolarını yasa dışı bir şekilde belirli kullanıcılara önerdiğini iddia etti.

© Thomson Reuters 2023


Ortaklık bağlantıları otomatik olarak oluşturulabilir – ayrıntılar için etik beyanımıza bakın.



genel-8