ChatGPT, un chatbot de inteligencia artificial de la empresa OpenAI, ha causado un gran revuelo con sus textos inquietantemente humanos. ¿Puede la legislación hacer algo sobre los usos turbios de la tecnología? “Esto va a ser un juego del gato y el ratón”.
‘¡El ADN de los canales de Ámsterdam es una revelación que pondrá patas arriba el mundo para los científicos! Después de años de investigación, los científicos han desentrañado el genoma completo de los canales de Ámsterdam, y lo que han descubierto es una sensación absoluta.’ Bueno, eso es lo que obtienes cuando le pides a ChatGPT que escriba un ‘artículo científico de divulgación sin aliento’ sobre un tema típico de Parool, a saber, ‘el ADN de los canales de Ámsterdam’.
El modelo de generación de texto con inteligencia artificial (IA) GPT-3 ha causado recientemente un gran revuelo con sus textos inquietantemente humanos. GPT-3 es un modelo de lenguaje basado en aprendizaje profundo, donde miles de millones de páginas de texto se han reducido a la configuración de las células cerebrales artificiales de un sistema informático. Ahora emite textos aparentemente sensatos a pedido, a través del chatbot ChatGPT.
LEA TAMBIÉN
Las aplicaciones de entrenamiento mental carecen de respaldo científico
al mando
Puedes darle comandos a ChatGPT, donde recuerda de qué debe tratarse, cuál es la historia y en qué estilo debe ser el producto final. Incluso puede enviarlo de vuelta para que lo corrijan. Desde guiones de películas hasta poemas de vanguardia y obras de divulgación científica, ChatGPT no se da por vencido.
Sin embargo, no hay garantía alguna de que el resultado tenga sentido, y mucho menos de que sea cierto (los canales no tienen ADN). Y eso es un problema. Empresas como OpenAI se hacen la boca agua con las aplicaciones Ventas, marketing o producción de software, o redacción de artículos, ficción y guiones. Pero algunas aplicaciones son más oscuras: plagio, estafas, robo, propaganda y noticias falsas.
Piense no solo en los escolares y estudiantes que subcontratan sus tareas (‘Escribe una tarea escolar sobre los canales de Ámsterdam’), sino también en los estafadores que saquean dinero enviando recordatorios alarmantes a personas vulnerables, pero sin errores de lenguaje y adaptados con precisión a la víctima.
Mentir
Esta ‘automatización de la persuasión’, por ejemplo, es muy similar al trabajo del chatbot de la empresa americana DoNotPay. Arregla automáticamente asuntos como impugnar multas de estacionamiento, pero también anotó los costos de una conexión a Internet en un chat (aunque tenía que mentir sobre qué tan mala era la conexión a Internet). Práctico para el vendedor de coches de segunda mano. Pero las empresas también pueden jugar ese truco. En el futuro, el servicio de atención al cliente lo ignorará de manera elocuente y totalmente automática.
Los generadores de texto en particular son una bendición para los productores de propaganda y noticias falsas. Las fábricas de trolls rusas y otros productores de noticias falsas pueden despedir personal e inundar las redes sociales de forma más rápida y económica con mensajes incendiarios, tendenciosos y falsos.
Filigrana
Estas preocupaciones no son completamente nuevas: GPT-3 es un desarrollo adicional de los generadores de texto anteriores que también causaron consternación. Y antes, los generadores de imágenes como DALL-E causaban problemas con falsificaciones profundas: imágenes fotorrealistas de hechos que nunca sucedieron.
Scott Aaronson, científico informático de OpenAI, reconoce los posibles problemas. “Queremos que sea mucho más difícil fingir que la salida de un sistema de IA es la de un humano”, dijo durante una charla científica sobre una “marca de agua” que debería hacer que los textos de IA como GPT-3 sean detectables.
Esto funciona de la siguiente manera: GPT-3 a menudo puede elegir entre varias palabras al construir sus textos. Al elegir esas palabras de acuerdo con un patrón determinado, el texto puede recibir una especie de señal que se puede detectar con un software: un sello de inautenticidad.
Por supuesto, tal cosa solo funciona con fragmentos de texto más largos y se puede eludir; por ejemplo, pidiéndole a otra IA que reformule el texto en diferentes palabras. Además, el productor del software debe cooperar en esto.
Otra opción es entrenar a otra IA para que reconozca textos escritos por otras IA. Investigadores de la Universidad de Washington trabajan en una IA que no está sola noticias falsas puede escribir, pero también puede detectarlo. Grover, como se llama el programa, es particularmente bueno para detectar sus propias noticias falsas (92 por ciento).
“Necesitamos instrumentos técnicos, similares a los herramientas que ya existen antes falsificaciones profundas y detectar fotos manipuladas”, dijo Sandra Wachter, investigadora de tecnología y regulación del Instituto de Internet de Oxford, en una entrevista con la revista de tecnología estadounidense cableado.
Legislación
El último recurso es la legislación. La Unión Europea está preparando un proyecto de ley, la AI Act, que debería establecer límites en el uso de los sistemas de IA. Por ejemplo, una empresa siempre debe hacerle saber que no está hablando con un ser humano. Estados Unidos, Reino Unido y Canadá también están trabajando en la legislación de IA.
Pero la legislación puede evadirse y tiende a quedar rezagada con respecto a la tecnología. ChatGPT es un ejemplo de esto. Wachter predice: “Este será un juego del gato y el ratón”.