El juez deja que ChatGPT escriba el veredicto

¿Por qué deberías ponértelo difícil cuando, gracias a la inteligencia artificial, también puede ser fácil? Así se podría interpretar que un juez de Colombia hizo que el generador de texto ChatGPT escribiera una sentencia por él. Tiene la intención de seguir haciéndolo en el futuro. Esto es legalmente permisible, pero también hay algunos argumentos en contra. Lea todo sobre esto en TECHBOOK.

El caso, visto en la ciudad portuaria de Cartagena, involucró a un niño autista y la cuestión de si su compañía de seguros debería cubrir los costos de su tratamiento médico. El juez los envió a ChatGPT, el chatbot de Open AI, y recibió una respuesta perfectamente formada basada en un texto legal correspondiente. En consecuencia, los menores diagnosticados con autismo en Colombia están exentos del pago de tasas de terapia. Así se decidió el proceso. Pero el hombre abrió un frasco completamente diferente: ¿Está realmente bien que los jueces dejen que ChatGPT escriba sus juicios?

Richter quiere seguir usando ChatGPT para juicios en el futuro

El juez fue transparente en sus acciones, publicó la «conversación» con el chatbot. Y en una entrevista con la emisora ​​“bluradio“ encuentra argumentos para usar ChatGPT en su trabajo. Sobre todo porque es sólo lógico. Explica que su secretaria normalmente tiene que buscar textos legales. Con ChatGPT es más rápido y además tienes la ventaja de un veredicto completo formulado en un lenguaje claro y comprensible. Está convencido de que los colegas harán lo mismo.

También interesante: la nueva religión quiere adorar a la inteligencia artificial divina

La ley no solo permite, sino que exige el uso de IA

Legalmente, el hombre parece estar en el lado seguro. Porque según una ley colombiana de 2022, está permitido el uso de inteligencia artificial para emitir juicios. Incluso se requiere para hacer el trabajo más eficiente. Las ventajas son supuestamente obvias. Porque ChatGPT puede recuperar la redacción exacta de leyes y precedentes en segundos. Esto es para asegurar un juicio justo. Pero todo el asunto no está libre de ganchos.

No sobreestimes las habilidades de ChatGPT

Para que ChatGPT tuviera tantas respuestas listas, Open AI se alimentó con innumerables datos a través de un modelo de lenguaje especialmente desarrollado. Pero este «entrenamiento» se completó a fines de 2021: no ha llegado ningún contenido nuevo desde 2022. Bien puede ser que el generador de texto recurra a conocimientos obsoletos.

Información incorrecta el 80 por ciento del tiempo

Según el servicio «Guardia de noticiasChatGPT no solo es menos confiable de lo que se suele anunciar, sino que es un «superpropagador de información errónea». Después de un examen aleatorio de las respuestas con la herramienta, los analistas hablan de una tasa de error de al menos el 80 por ciento. Sin embargo, la conferencia es siempre elocuente y, en consecuencia, convincente.

El propio ChatGPT es crítico con el uso de la IA para los jueces

Incluso el propio bot recomendaría su uso para los juicios de los jueces, en el mejor de los casos, con reservas, le preguntó TECHBOOK. No existe “una regla directa que prohíba a los jueces usar un modelo de IA como ChatGPT para ayudar en sus decisiones. Sin embargo, puede ser importante que dicho proceso cumpla con los requisitos de imparcialidad e independencia del poder judicial y que las decisiones se tomen sobre una base justa y legal”. Por lo tanto, tendría sentido, según la herramienta, llevar a cabo una revisión legal antes de que se lea un veredicto generado por IA.



ttn-es-35