Le juge laisse ChatGPT rédiger son verdict

Pourquoi devriez-vous vous rendre la tâche difficile alors que, grâce à l’intelligence artificielle, cela peut aussi être facile ? C’est ainsi que l’on pourrait interpréter qu’un juge colombien a demandé au générateur de texte ChatGPT de rédiger un jugement pour lui. Il a l’intention de faire de même à l’avenir. C’est légalement autorisé, mais il y a aussi des arguments contre cela. Lisez tout à ce sujet sur TECHBOOK.

L’affaire, entendue dans la ville portuaire de Carthagène, concernait un enfant autiste et la question de savoir si sa compagnie d’assurance devait couvrir les frais de son traitement médical. Le juge les a mis sur ChatGPT, le chatbot d’Open AI, et a reçu une réponse parfaitement formée basée sur un texte juridique correspondant. En conséquence, les mineurs diagnostiqués autistes en Colombie sont exemptés du paiement des frais de thérapie. Le processus a donc été décidé. Mais l’homme a ouvert un bocal complètement différent : est-il vraiment acceptable que les juges laissent ChatGPT rédiger leurs jugements ?

Richter veut continuer à utiliser ChatGPT pour les jugements à l’avenir

Le juge a été transparent dans ses actions, il a publié la “conversation” avec le chatbot. Et dans une interview à la radio “Bluradio“ il trouve des arguments pour utiliser ChatGPT dans son travail. D’autant plus que ce n’est que logique. Il explique que sa secrétaire doit normalement chercher des textes juridiques. Avec ChatGPT, c’est plus rapide et vous avez également l’avantage d’un verdict final formulé dans un langage clair et compréhensible. Il est convaincu que ses collègues suivront.

Aussi intéressant : la nouvelle religion veut adorer l’intelligence artificielle divine

La loi non seulement autorise, mais exige l’utilisation de l’IA

Juridiquement, l’homme semble être du bon côté. Car selon une loi colombienne de 2022, il est permis d’utiliser l’intelligence artificielle pour porter des jugements. Il est même nécessaire de rendre le travail plus efficace. Les avantages sont soi-disant évidents. Parce que ChatGPT est capable d’appeler le libellé exact des lois et des précédents en quelques secondes. Ceci afin d’assurer un jugement équitable. Mais le tout n’est pas exempt d’hameçons.

Ne surestimez pas les compétences de ChatGPT

Pour que ChatGPT ait autant de réponses prêtes, Open AI a été alimenté avec d’innombrables informations via un modèle de langage spécialement développé. Mais cette “formation” s’est achevée fin 2021 – aucun nouveau contenu n’est arrivé depuis 2022. Il se peut bien que le générateur de texte se rabatte sur des connaissances dépassées.

Informations incorrectes 80 % du temps

Selon le service”NewsGuard” ChatGPT n’est pas seulement moins fiable que souvent annoncé, mais plutôt un “super-diffuseur de désinformation”. Après un examen aléatoire des réponses à l’aide de l’outil, les analystes parlent d’un taux d’erreur d’au moins 80 %. Cependant, la conférence est toujours éloquente et par conséquent convaincante.

ChatGPT lui-même critique l’utilisation de l’IA pour les juges

Même le bot lui-même recommanderait son utilisation pour les jugements des juges, au mieux, avec des réserves, lui a demandé TECHBOOK. Il n’y a “aucune règle directe interdisant aux juges d’utiliser un modèle d’IA comme ChatGPT pour les aider dans leurs décisions. Cependant, il peut être important qu’un tel processus réponde aux exigences d’impartialité et d’indépendance du pouvoir judiciaire et que les décisions soient prises sur une base équitable et légale ». Il serait donc logique, selon l’outil, de procéder à un examen juridique avant la lecture d’un verdict généré par l’IA.



ttn-fr-35