Çok az avukat, bir AI’nın argümanlarını sunmasına izin verecek kadar aptal olabilir, ancak bir tanesi çoktan izin verdi ve Yargıç Brantley Starr, yenilginin tekrarlanmamasını sağlamak için adımlar atıyor. onun mahkeme salonu
Teksas federal yargıcı, mahkemesine çıkan herhangi bir avukatın “dosyalamanın hiçbir bölümünün üretken yapay zeka tarafından hazırlanmadığını” veya öyleyse, “bir insan tarafından kontrol edildiğini” doğrulaması gerektiğini ekledi.
Geçen hafta, avukat Steven Schwartz, ChatGPT’nin yakın tarihli bir federal dosyada yasal araştırmasını “tamamlamasına” izin verdi ve ona altı dava ve ilgili emsal sağladı – bunların tümü dil modeli tarafından tamamen halüsinasyon gördü. O şimdi Bunu yaptığına “çok pişman”ve bu gafın ulusal çapta yayınlanması muhtemelen diğer avukatların bunu bir kez daha düşünmesine neden olurken, Yargıç Starr işini şansa bırakmıyor.
Starr, Teksas’ın Kuzey Bölgesi federal sitesinde, diğer yargıçlar gibi, mahkeme salonu için belirli kurallar belirleme fırsatına sahiptir. Ve son zamanlarda eklendi (bunun yukarıda bahsedilen dosyalamaya yanıt olarak olup olmadığı belli olmasa da) “Üretken Yapay Zeka İle İlgili Zorunlu Sertifikasyon.” Eugene Volokh ilk önce haberi bildirdi.
Mahkeme huzuruna çıkan tüm avukatlar dosyanın hiçbir bölümünün üretken yapay zeka (ChatGPT, Harvey.AI veya Google Bard gibi) tarafından hazırlanmadığını veya üretken yapay zeka tarafından hazırlanan herhangi bir dilin basılı muhabirler veya geleneksel yasal veritabanları kullanılarak bir insan tarafından doğruluğu kontrol edildi.
Avukatların imzalaması için bir form eklenmiştir ve “alıntılar, alıntılar, başka sözcüklerle ifade edilmiş iddialar ve hukuki analizler” bu yasağın kapsamındadır. Özet, AI’nın güçlü yönlerinden biri olduğundan ve emsal veya önceki davaları bulmak ve özetlemek, yasal çalışmalarda potansiyel olarak yararlı olduğu ilan edilen bir şey olduğundan, bu, beklenenden daha sık devreye girebilir.
Yargıç Starr’ın ofisinde bu konuyla ilgili tutanağı kim hazırladıysa, nabzını tutuyor. Sertifikasyon gerekliliği, gerekliliği hakkında oldukça iyi bilgilendirilmiş ve ikna edici bir açıklama içerir (okunabilirlik için satır sonları eklenmiştir):
Bu platformlar inanılmaz derecede güçlüdür ve hukukta pek çok kullanıma sahiptir: boşanmalar, keşif talepleri, belgelerde önerilen hatalar, sözlü tartışmalarda beklenen sorular. Ancak yasal brifing bunlardan biri değil. İşte nedeni.
Mevcut durumlarında bu platformlar halüsinasyonlara ve önyargıya eğilimlidir. Halüsinasyonlar hakkında bir şeyler uydururlar – hatta alıntılar ve alıntılar. Diğer bir konu da güvenilirlik veya yanlılıktır. Avukatlar, hukuka sadakatle uymak ve müvekkillerini temsil etmek için kişisel önyargılarını, ön yargılarını ve inançlarını bir kenara bırakacaklarına yemin ederken, üretken yapay zeka, böyle bir yemin etmek zorunda olmayan insanlar tarafından tasarlanan programlamanın ürünüdür.
Bu nedenle, bu sistemler herhangi bir müşteriye, hukukun üstünlüğüne veya Amerika Birleşik Devletleri yasalarına ve Anayasasına (veya yukarıda belirtildiği gibi gerçeğe) bağlı değildir. Herhangi bir görev, onur veya adalet duygusuyla bağlı olmayan bu tür programlar, inançtan çok bilgisayar koduna göre, ilkeden çok programlamaya dayalı olarak hareket eder. Bir platformun yasal brifing için gerekli doğruluk ve güvenilirliğe sahip olduğuna inanan herhangi bir taraf, izin için hareket edebilir ve nedenini açıklayabilir.
Başka bir deyişle, kendinizi haklı çıkarmaya hazır olun.
Bu, bir mahkemede yalnızca bir yargıç olsa da, başkalarının bu kuralı kendilerininmiş gibi kabul etmesi şaşırtıcı olmaz. Mahkemenin dediği gibi, bu güçlü ve potansiyel olarak yararlı bir teknoloji olsa da, kullanımı en azından açıkça beyan edilmeli ve doğruluğu kontrol edilmelidir.