Çevrimiçi bir silah web sitesi için bir gazeteci sorduğunda OpenAI’nin ChatGPT’si ona davanın bir özetini sunmak için İkinci Değişiklik Vakfı – Robert Ferguson Bu yılın başlarında, yapay zeka sohbet robotunun hızla bir yanıt verdiğini söyledi. Kendinden emin bir şekilde, iddiaya göre, davanın The Second Amendment Foundation’dan (SAF) zimmete para geçirmekle suçlanan Mark Walters adlı bir Georgia radyo sunucusuyla ilgili olduğunu iddia etti. Tek sorun: bunların hiçbiri doğru değildi. Gerçekte, Walters’ın takım elbiseyle hiçbir ilgisi yoktu. Bunun yerine Walters, araştırmacıların yapay zeka “halüsinasyon” dediği şeyin alıcı tarafında olduğunu iddia ediyor. Şimdi, itibarına zarar verdiği iddiasıyla ChatGPT’lere karşı türünün ilk örneği bir iftira davası açtı.
5 Haziran’da Gwinnett İlçe Yüksek Mahkemesinde açılan davada “Walters ile ilgili özetteki her gerçek beyanı yanlıştır” yazıyor. Walters’ın avukatı, OpenAI’nin ihmalkar davrandığını ve gazeteciye yanlış bilgi gösterdiğinde “Walters hakkında iftira niteliğinde materyal yayınladığını” iddia ediyor.
Gizmodo ile konuşan bir hukuk uzmanı, Walters’ın şikayetinin, AI şirketlerini ürünlerinin iyi belgelenmiş fabrikasyonları nedeniyle mahkemeye götürmeye çalışan bir dizi dava olabileceğini söyledi. Ve bu özel davanın esası en iyi ihtimalle titrek görünse de, uzman bunun iftira yasasının sınırlarını test eden karmaşık bir dava dalgasına zemin hazırlayabileceğini belirtti.
California Üniversitesi Los Angeles Hukuk Fakültesi profesörü Eugene Volokh, Gizmodo’ya “Mevcut yasal ilkeler, en azından bazı davaları potansiyel olarak uygulanabilir kılıyor” dedi.
Mark Walters neden ChatGPT’nin halüsinasyonları nedeniyle OpenAI’ye dava açıyor?
Ateşli silah gazetecisi Fred Riehl, 4 Mayıs’ta ChatGPT’den söz konusu davanın bir özetini sunmasını istediğinde, büyük dil modelinin bunun Second Amendment Foundation’ın (SAF) kurucusu ve başkan yardımcısı tarafından yapılan yasal bir şikayet olduğunu söylediği iddia edildi. ChatGPT’nin SAF’ın saymanı ve mali işler müdürü olarak tanımladığı Armed American Radio’nun sunucusu Walters’a karşı dava açtı. Şikayete göre, ChatGPT’nin ifadesine göre Walters, “yetkilendirme veya geri ödeme olmaksızın kişisel harcamalar için fonları kötüye kullandı, faaliyetlerini gizlemek için mali kayıtları ve banka hesap özetlerini manipüle etti ve mali raporları doğru ve zamanında sunamadı”.
Ancak Walters, SAF’ın saymanı veya CFO’su olmadığı ve olmadığı için bu fonları zimmete geçiremeyeceğini iddia ediyor. Aslında takım elbisesine göre vakıf için çalışmıyormuş. bir inceleme gerçek SAF – Ferguson şikayet 30 sayfasının hiçbir yerinde Walters’ın adına dair hiçbir iz yok. Bu şikayetin finansal muhasebe iddialarıyla hiçbir ilgisi yoktur. Walters, ChatGPT’nin Walters’ın adını ve sahte hikayeyi gerçek bir yasal belgeyi anlatırken halüsinasyon gördüğünü iddia ediyor.
“Şikayet, Walters’ın kişisel harcamalar için fonları kötüye kullandığını, mali kayıtları veya banka hesap özetlerini manipüle ettiğini veya SAF liderliğine mali raporlar sağlamadığını ya da herhangi bir istihdamı veya resmi ilişkisi olmadığı için bunu yapacak durumda olmayacağını iddia etmiyor. ” Walters’ın kıyafeti okur.
Şüpheci gazeteci, ChatGPT’den kendisine Walters’tan bahseden davanın tam bir bölümünü sağlamasını istediğinde, iddiaya göre chatbot iddiasını ikiye katladı.
“Kesinlikle,” diye yanıtladı yapay zeka, Walters’ın durumuna göre. “İşte şikayetten Walters’ı ilgilendiren paragraf.” ChatGPT tarafından döndürülen ve aşağıda yer alan metin parçası gerçek şikayette yok. AI vaka numarasını bile yanlış anladı.
“Davalı Mark Walters (‘Walters’) Georgia’da ikamet eden bir bireydir. Walters, en az 2012’den beri SAF’ın Saymanı ve Mali İşler Başkanı olarak görev yapmaktadır. Walters, SAF’ın banka hesaplarına ve mali kayıtlarına erişebilir ve bu kayıtları tutmaktan ve SAF’ın yönetim kuruluna mali raporlar sunmaktan sorumludur. Walters, SAF’a güvene dayalı bir sadakat ve özen borcuna sahiptir ve iyi niyetle ve SAF’ın çıkarlarını en iyi şekilde düşünerek hareket etmesi gerekmektedir. Walters, diğer şeylerin yanı sıra, kendi çıkarı için SAF’ın fonlarını ve varlıklarını zimmetine geçirerek ve zimmetine geçirerek ve faaliyetlerini gizlemek için SAF’ın mali kayıtlarını ve banka hesap özetlerini manipüle ederek bu görev ve sorumlulukları ihlal etti.”
Riehl olaya karışan avukatlarla temasa geçti. SAF – Ferguson Walters’ın şikayetine göre, gerçekte ne olduğunu öğrenmek için Walters hakkındaki yanlış bilgileri bir hikayeye dahil etmedi. Riehl, yorum talebine hemen yanıt vermedi.
OpenAI ve kurucusu Sam Altman, kabul edildi bu halüsinasyonlar ele alınması gereken bir sorundur. Şirket bir blog yazısı yayınladı geçen hafta ekibinin sözde bu yalanları azaltabilecek yeni modeller üzerinde çalıştığını söyledi.
Bir OpenAI araştırma bilimcisi olan Karl Cobbe, “Son teknoloji modeller bile, genellikle halüsinasyonlar olarak adlandırılan mantıksal hatalar üretmeye devam ediyor” diye yazdı. “Halüsinasyonları azaltmak, uyumlu AGI oluşturmaya yönelik kritik bir adımdır. [artificial general intelligence]” OpenAI, Gizmodo’nun yorum talebine yanıt vermedi.
Walters, OpenAI’ye karşı açtığı davayı kazanacak mı?
Georgia radyo sunucusunun bir avukatı, ChatGPT’nin müvekkiliyle ilgili iddialarının “yanlış ve kötü niyetli” olduğunu ve “onu halkın nefretine, aşağılamasına veya alay konusuna maruz bırakarak” Walters’ın itibarına zarar verebileceğini iddia ediyor. Walters’ın avukatı, yorum talebine hemen yanıt vermedi.
UCLA profesörü ve yapay zeka modellerinin çıktılarına ilişkin yasal sorumluluk üzerine yakında çıkacak bir hukuk dergisi makalesinin yazarı olan Volokh, davanın gücü konusunda Walters’ın avukatlarından daha az emin. Volokh, Gizmodo’ya, davacıların AI yapımcılarına iftira davası açabileceği ve başarılı olabileceği durumlar olduğuna inandığını, ancak bu durumda Walters’ın itibarına gerçek zararın ne olduğunu gösteremediğini söyledi. Bu örnekte Walters, OpenAI’ye cezai veya varsayılan zararlar için dava açıyor gibi görünüyor. Volokh, bu zararları kazanmak için OpenAI’nin “yanlış bilgisiyle veya yanlış olma olasılığını pervasızca göz ardı ederek” hareket ettiğini göstermesi gerektiğini söyledi.
Volokh, “Genel olarak yazılımın tasarımıyla ilgili bir pervasızlık olabilir, ancak mahkemelerin talep edeceği şeyin, OpenAI’nin bu özel yanlış ifadelerin yaratıldığının öznel olarak farkında olduğuna dair kanıt olmasını bekliyorum” dedi.
Yine de Volokh, bu davanın belirli sınırlamalarının, diğer iftira davalarının hattaki teknoloji şirketlerine karşı başarılı olamayacağı anlamına gelmediğini vurguladı. ChatGPT gibi modeller, bilgileri bireylere iletir ve daha da önemlisi, bu bilgileri olgusal bir iddia olarak iletebilir. bariz bir şekilde yanlış olsa bile. Bu noktaların iftira yasası kapsamında gerekli birçok koşulu karşıladığını belirtti. Ve birçok internet şirketi, geçmişte iftira davalarından kaçınmasıyla ünlüdür. İletişim Ahlakı Yasası’nın 230. Bölümübaşka bir insan kullanıcının yorumlarını yeniden ortaya çıkarmak yerine kendi yeni bilgi dizilerini oluşturdukları için, bu korumalar büyük olasılıkla sohbet robotları için geçerli olmayacaktır.
Volokh, “Bir şirketin tek yaptığı, bir sorguya yanıt olarak bir web sitesinden materyal alıntılayan bir program oluşturmaksa, bu ona Bölüm 230 dokunulmazlığı sağlar” dedi. “Ama program bir şeyi kelime kelime besteliyorsa, o zaman bu kompozisyon şirketin kendi sorumluluğundadır.”
Volokh, OpenAI ve benzeri şirketler tarafından yapılan, sohbet robotlarının açıkça güvenilmez bilgi kaynakları olduğu savunmasının, aynı anda teknolojinin başarısını teşvik ettikleri için toplanmasını geçmediğini söylemeye devam etti.
“OpenAI hatalar olabileceğini kabul ediyor, ancak [ChatGPT] şaka olarak faturalandırılmaz; kurgu olarak faturalandırılmaz; daktiloda yazan maymunlar olarak faturalandırılmıyor” dedi. “Genellikle çok güvenilir ve doğru bir şey olarak faturalandırılıyor.”
Gelecekte, bir davacı, bir chabtot tarafından yayılan yanlış beyanlara dayanarak bir yargıcı işini veya ölçülebilir başka bir geliri kaybettiğine ikna edebilirse, Volokh galip gelmelerinin mümkün olduğunu söyledi.
Bu, yapay zeka sohbet robotlarının gerçek insanlar hakkında ilk kez yalanlar yayması değil.
Volokh, Gizmodo’ya bunun, bir AI şirketini ürünleri tarafından iftira niteliğinde olduğu iddia edilen materyaller nedeniyle dava etmeye çalışan bir davacının gördüğü ilk dava olduğunu söyledi. Bununla birlikte, yapay zeka modellerinin kendilerini yanlış tanıttığını iddia eden başka insan örnekleri de var. Bu yılın başlarında, Avustralya’daki Hepburn Shire belediye başkanı Brian Hood, OpenAI’yi dava etmekle tehdit etti modelinin iddiaya göre onu bir rüşvet skandalına karışmış hüküm giymiş bir suçlu olarak adlandırmasının ardından. Hood sadece suça karışmakla kalmadı, aslında muhbir olayı kim ortaya çıkardı
Aynı sıralarda, George Washington Üniversitesi’nden Jonathan Turley adlı bir hukuk profesörü, kendisinin ve birkaç başka profesörün ChatGPT tarafından haksız yere cinsel tacizle suçlanmak. Turley’e göre model, iddiaları desteklemek için bir Washington Post hikayesi ve halüsinasyonlu alıntılar uydurdu. Sahte alıntılar ve alıntılar hızla Üretken yapay zeka modelleri için önemli bir sorun.
Ve OpenAI, ChatGPT’nin doğruluk eksikliğini kabul etse de kendi sitesinde ifşa, bu, avukatların programdan profesyonel bağlamlarda alıntı yapmasını engellemedi. Daha geçen hafta, bir havayolu şirketini dava eden bir adamı temsil eden bir avukat yasal brifing gönderdi model tarafından uydurulmuş bir yargıcın “sahte yargı kararları” olarak nitelendirdiği şeylerle dolu. Şimdi avukat olası yaptırımlarla karşı karşıya. Bu, bugüne kadarki bu kadar açık gözetimin en bariz örneği olmasına rağmen, Teksaslı bir ceza savunma avukatı daha önce Gizmodo’ya, takip edilecek daha fazla örnek olursa şaşırmayacağını söyledi. Yine Teksas’ta bulunan başka bir yargıç, geçen hafta mahkemesine sunulan hiçbir materyalin AI tarafından yazılmaması yönünde bir yetki yayınladı.
Yapay zeka, sohbet robotları ve makine öğreniminin geleceği hakkında daha fazla bilgi edinmek ister misiniz? Kapsamımızın tamamına göz atın yapay zekaveya kılavuzlarımıza göz atın En İyi Ücretsiz AI Sanat Üreticileri Ve OpenAI ChatGPT Hakkında Bildiğimiz Her Şey.