Víctima de su éxito, ChatGPT, el modelo de lenguaje OpenAI basado en inteligencia artificial (IA), plantea muchas preguntas. Capaz de responder cualquier pregunta, escribir ensayos y fragmentos de código, la herramienta se puede utilizar con fines maliciosos. Para prevenir estos abusos, un investigador invitado por OpenAI anunció el pasado mes de diciembre que la empresa especializada en IA estaba desarrollando una forma de identificar cuándo ChatGPT genera texto.
Una sutil marca de agua para autenticar los textos generados por ChatGPT
Lanzado en diciembre de 2022, ChatGPT logró mostrar al público en general los avances realizados durante el año en inteligencia artificial. Considerada perfectible, la generación de contenido malicioso por parte del modelo de lenguaje es monitoreado de cerca.
Sobre este tema, OpenAI está trabajando en varias soluciones poner fin al mal uso de la herramienta, que van desde hacer trampa en un examen hasta escribir correos electrónicos fraudulentos. El investigador visitante en ciencias de la computación de OpenAI, Scott Aaronson, reveló que uno de ellos estaba configurando ” una firma invisible al generar un texto escrito por un modelo de lenguaje impulsado por IA “. Él preciso esoun prototipo creado por Hendrik Kirchner, ingeniero de OpenAI, ya es funcional.
” Queremos hacer que sea mucho más difícil tomar los resultados de un modelo de lenguaje de IA y hacerlos pasar como resultados humanos dice Scott Aaronson. Él explica que ” esto podría ser útil para prevenir el plagio académico, obviamente, pero también la generación masiva de propaganda, por ejemplo, enviar spam a todos los blogs con comentarios que apoyen la invasión rusa de Ucrania, o incluso imitar el estilo de escritura de alguien para incriminarlo. “.
¿La solución OpenAI es demasiado limitada?
La herramienta que ofrece OpenAI utiliza un enfoque criptográfico. En otras palabras, al escribir el texto, marca de agua cuando aparece una estructura de palabras definidas en tiempo de generación. El dispositivo permite probar que el documento fue escrito por una inteligencia artificial. Sin embargo, este último tiene limitaciones.
Srini Devadas, profesora de informática en el Instituto Tecnológico de Massachusetts, cuenta TechCrunch ” que sería bastante fácil eludirlo reformulando, usando sinónimos, etc. “. Además, el sistema está ubicado en el lado del servidor, lo que significa que podría no funcionar para algunas personas.
Un investigador del Allen Institute for AI, Jack Hessel, señala a los medios estadounidenses que es difícil elegir una firma realmente imperceptible. Si es demasiado obvio y específico, afectará la fluidez del discurso del modelo, mientras que si es demasiado sutil, podría dejar demasiado espacio para la duda. ” Una huella digital ideal no sería perceptible por un lector humano y permitiría una detección confiable “, señala Jack Hessel, “ Dependiendo de cómo esté configurado, es posible que OpenAI sea el único capaz de colocarlo. en otros modelos de lenguaje.
Un pensamiento que sitúa la cuestión de la confianza en el centro del debate. Otras empresas del sector, como Cohere y AI21Labs, podrían no querer utilizar una herramienta diseñada por su principal competidor. También es imposible que OpenAI haga público el código fuente de su sistema, en cuyo caso todos estarían en condiciones de entenderlo y eludirlo.
Hasta que no se democratice el uso de modelos de lenguaje basados en inteligencia artificial, los gigantes de la industria tener tiempo para encontrar puntos en común y nuevas soluciones. Scott Aaronson, se mantiene optimista, ” Hemos visto en los últimos 30 años que las grandes empresas de Internet pueden aceptar ciertos estándares mínimos, por temor a ser demandados, responsabilizados o por cualquier otra razón. “.