Según OpenAI, que desarrolla modelos de inteligencia artificial, las acusaciones que le hace The New York Times son infundadas. OpenAI dice que la revista utilizó métodos cuestionables para hacer que ChatGPT funcionara como se afirma.
Prensa completa
- OpenAI ha respondido a las acusaciones de infracción de derechos de autor del New York Times.
- La empresa que desarrolla modelos de inteligencia artificial niega los abusos y dice que el problema es resultado de un error.
- OpenAI acusa al New York Times de jugar un juego corrupto.
En diciembre informamos sobre la disputa entre el periódico The New York Times (NYT) y OpenAI, que desarrolla modelos de inteligencia artificial.
El periódico tradicional demandó a OpenAI, conocido por su modelo de lenguaje ChatGPT, y al mayor inversor de la compañía, Microsoft, por infracción de derechos de autor.
El NYT afirma en su desafío que OpenAI enseñó su modelo de lenguaje ChatGPT con millones de artículos de revistas sin permiso. ChatGPT ha respondido algunas preguntas utilizando los artículos del muro de pago del NYT palabra por palabra.
Según el reto del NYT, también ha hecho lo propio el buscador Bing de Microsoft, que utiliza ChatGPT en algunas de sus funciones.
Se mencionó el foro de discusión finlandés.
OpenAI ha publicado en su sitio web respuesta a las acusaciones del periódico.
– Aunque no estamos de acuerdo con las acusaciones hechas por The New York Times, vemos esto como una oportunidad para aclarar nuestro negocio, nuestro propósito y cómo construimos nuestra tecnología.
OpenAI enfatiza que apoya el periodismo y coopera con organizaciones de noticias.
Según OpenAI, el uso de contenido disponible abiertamente para entrenar inteligencia artificial entra dentro del alcance del uso legítimo tal como se define en las leyes de derechos de autor de EE. UU.
A pesar de esto, OpenAI dice que ha ofrecido a las casas de noticias la oportunidad de dejar su propio contenido fuera del material educativo sobre inteligencia artificial. Según OpenAI, el NYT ejerció este derecho en el otoño de 2023.
Según OpenAI, los textos reproducidos palabra por palabra por ChatGPT tienen años de antigüedad y desde entonces los mismos contenidos han sido citados en otras partes de Internet.
Pone un ejemplo del foro de discusión sobre punk en finlandés en Finlandiaque en 2020 compartió el contenido de pago del New York Times.
se trata de un error
Según OpenAI, el hecho de que ChatGPT haya utilizado textualmente el contenido de The New York Times al responder a las preguntas que le planteaban es un error en el proceso de aprendizaje de la inteligencia artificial. El problema se conoce desde hace algún tiempo, pero no se ha solucionado.
– El error suele aparecer cuando algún contenido aparece en el material educativo más de una vez, afirma la empresa.
¿Métodos prohibidos?
Según OpenAI, había discutido previamente con el periódico que ChatGPT respondería algunas preguntas utilizando textualmente el material protegido por derechos de autor del periódico.
– Se negaron repetidamente a darnos ejemplos (de las preguntas que le hicieron a ChatGPT) a pesar de nuestra voluntad de descubrir y solucionar el problema, dice OpenAI.
OpenAI afirma en su artículo que para que ChatGPT repita los textos de los editores del NYT, al robot se le tuvieron que hacer preguntas muy importantes utilizando extractos de artículos del NYT que ya estaban en la pregunta misma.
– Aún así, ChatGPT normalmente no funciona de la manera descrita por la revista, lo que sugiere que le ordenaron a ChatGPT que repitiera su contenido palabra por palabra o eligieron su ejemplo entre numerosas empresas.
OpenAI concluye su artículo afirmando que The New York Times debe haber hecho un mal uso deliberadamente de ChatGPT para que reprodujera el material educativo palabra por palabra. Según OpenAI, dicho uso está prohibido.
– En nuestra opinión, la impugnación del New York Times es infundada. Aun así, esperamos una asociación constructiva con ellos y respetamos su larga historia.
Fuentes: Los New York Times, Abierto AI