2023'ün En Aptal Yapay Zeka Anları başlıklı makalenin resmi

Fotoğraf: Andrey_Popov (Shutterstock)

Şimdiye kadar muhtemelen ChatGPT’nin yalanlar uydurup bunları gerçekmiş gibi gösterme eğiliminde olduğunu veya uzmanların buna yapay zeka “halüsinasyonu” adını verdiğini duymuşsunuzdur. Bu durmadı New York’ta iki avukat ChatGPT’nin bazı yasal belgeleri yayınlamasından. Şaşırtıcı olmayan bir şekilde yapay zeka bazı alıntıları ve alıntıları yoktan uydurdu, ancak avukatlar görünüşe göre gerçekleri kontrol etmek için herhangi bir çaba göstermeden belgeleri yine de sundular.

Mahkemenin alıntı olarak kullanılan altı davanın hayali olduğunu fark etmesiyle saçmalıklar gün yüzüne çıktı. Yargıç, avukatlar Peter LoDuca ve Steven A. Schwartz’ın mahkemeye yalan söyleyerek durumu kendileri için daha da kötüleştirdiğini yazdı. Mahkeme kendi uydurma içtihatlarını sorguladığında hakim, Schwartz’ın “değişken ve çelişkili açıklamalar” sunduğunu ve LoDuca’nın daha fazla süre kazanmak için tatildeymiş gibi davrandığını söyledi.

Federal Yargıç P. Kevin Castel, avukatların ve firmaları Levidow, Levidow & Oberman, PC’nin kötü niyetle hareket ettiğini ve hatalarını örtbas etmek için mahkemeye yalan söylediğini yazdı. Yargıç Castel, davada “yapay zeka aracı ChatGPT tarafından oluşturulan sahte alıntılar ve alıntılarla var olmayan hukuki görüşler sunduklarında sorumluluklarından vazgeçtiklerini, daha sonra yargı kararlarının bunların varlığını şüpheye düşürmesinin ardından sahte görüşlerin arkasında durmaya devam ettiklerini” yazdı. karar.



genel-7