OpenAI, ChatGPT tarafından üretilen yanlış bilgilere yanıt veren ilk karalama davası gibi görünen bir davayla sarsıldı.

Gürcistan’daki bir radyo sunucusu olan Mark Walters, ChatGPT’nin Walters’ın kar amacı gütmeyen bir kuruluştan fonları dolandırmak ve zimmete geçirmekle suçlandığını açıklamasının ardından şirkete dava açıyor. Sistem, bilgileri Fred Riehl adlı bir gazeteci olan üçüncü bir tarafın talebine yanıt olarak oluşturdu. Walters’ın dava 5 Haziran’da Georgia’nın Gwinnett County Yüksek Mahkemesinde dosyalandı ve OpenAI’den belirsiz parasal tazminat talep ediyor.

ChatGPT ve diğer sohbet botları tarafından üretilen yanlış bilgilerle ilgili yaygın şikayetler göz önüne alındığında, durum dikkate değerdir. Bu sistemlerin gerçekle kurguyu ayırt etmenin güvenilir bir yolu yoktur ve bilgi istendiğinde – özellikle soru soran kişinin önerdiği bir şeyin doğrulanması istendiğinde – sıklıkla tarihler, gerçekler ve rakamlar icat ederler.

“Yanlışlıkla süper bir arama motoru gibi olduğunu düşündüğüm bu yeni siteyi duydum.”

Genellikle bu uydurmalar, kullanıcıları yanıltmaktan veya zamanlarını boşa harcamaktan başka bir işe yaramaz. Ancak bu tür hataların zarar verdiği durumlar ortaya çıkmaya başlıyor. Bunlar bir profesörü içerir. sınıfını geçmekle tehdit etmek ChatGPT, öğrencilerinin makalelerini yazmak için yapay zeka kullandığını iddia ettikten sonra ve bir avukat olası yaptırımlarla karşı karşıya Sahte yasal davaları araştırmak için ChatGPT’yi kullandıktan sonra. Geçenlerde söz konusu avukat bir yargıca söyledi: “Yanlışlıkla süper bir arama motoru gibi olduğunu düşündüğüm bu yeni siteyi duydum.”

OpenAI, ChatGPT’nin ana sayfasında, sistemin “zaman zaman yanlış bilgiler üretebileceğini” belirten küçük bir sorumluluk reddi beyanı içerir, ancak şirket, ChatGPT’yi güvenilir bir veri kaynağı olarak da sunar ve sistemi reklam metninde “yanıt almanın” ve “öğrenmenin” bir yolu olarak tanımlar. yeni bir şey.” OpenAI’nin kendi CEO’su Sam Altman, birçok kez yeni bilgileri kitaplardan öğrenmektense ChatGPT’den öğrenmeyi tercih ettiğini söyledi.

Bununla birlikte, yanlış veya iftira niteliğinde bilgi üreten AI sistemlerinden bir şirketi sorumlu tutmanın yasal bir önceliği olup olmadığı veya bu özel davanın önemli bir değeri olup olmadığı açık değildir.

ABD’de geleneksel olarak Bölüm 230, internet şirketlerini üçüncü taraflarca üretilen ve kendi platformlarında barındırılan bilgiler için yasal sorumluluktan korur. Bu korumaların, yalnızca veri kaynaklarına bağlanmayan, aynı zamanda bilgileri yeniden üreten (yanlış veri oluşturmalarına da yol açan bir süreç) yapay zeka sistemleri için geçerli olup olmadığı bilinmiyor.

Walters’ın Georgia’da açtığı hakaret davası bu çerçeveyi test edebilir. Vaka, bir gazeteci olan Fred Riehl’in ChatGPT’den bir konuyu özetlemesini istediğini belirtiyor. gerçek federal mahkeme davası çevrimiçi bir PDF’ye bağlanarak. ChatGPT, vakanın ayrıntılı ve ikna edici ancak birkaç açıdan yanlış olan yanlış bir özetini oluşturarak yanıt verdi. ChatGPT’nin özeti, olgusal olarak doğru olan bazı bilgilerin yanı sıra Walters’a karşı yanlış iddialar da içeriyordu. Walters’ın, İkinci Değişiklik Vakfı adlı kar amacı gütmeyen bir silah hakları kuruluşundan “5.000.000 doları aşan” fonları kötüye kullandığına inanıldığını söyledi. Walters asla bununla suçlanmadı.

Riehl, ChatGPT tarafından üretilen yanlış bilgileri asla yayınlamadı, ancak ayrıntıları başka bir tarafla kontrol etti. Walters’ın bu yanlış bilgiyi daha sonra nasıl öğrendiği dava dosyalarından net değil.

Özellikle, Riehl’in bir PDF’yi özetleme isteğine uymasına rağmen ChatGPT, ek eklentiler kullanmadan bu tür harici verilere fiilen erişemez. Sistemin Riehl’i bu konuda uyaramaması, kullanıcıları yanıltma kapasitesinin bir örneğidir. (Her ne kadar, ne zaman Sınır sistemi bugün aynı görev için test etti, açık ve bilgilendirici bir şekilde yanıt verdi ve şöyle dedi: “Üzgünüm, ancak yapay zeka metin tabanlı bir model olarak, belirli PDF dosyalarına veya diğer harici belgelere erişme veya bunları açma yetkinliğim yok. ”)

üzerine yazan bir hukuk profesörü olan Eugene Volokh, AI sistemlerinin yasal sorumluluğubir Blog yazısı “böyle bir iftira iddiasında bulunduğunu” düşünse de [against AI companies] prensipte yasal olarak uygulanabilir,” bu özel davayı “sürdürmek zor olmalı.” Volokh, Walters’ın OpenAI’yi bu yanlış ifadeler hakkında bilgilendirmediğini, onlara bunları kaldırma şansı verdiğini ve ChatGPT’nin çıktısının bir sonucu olarak herhangi bir gerçek zarar olmadığını belirtiyor. Volokh, “Her halükarda, sonuçta burada ne olacağını görmek ilginç olacak” diyor.

Yorum için OpenAI’ye ulaştık ve yanıt alırsak bu hikayeyi güncelleyeceğiz.



genel-2