OpenAI aborda las preocupaciones sobre la gestión de datos de ChatGPT


» Continuaremos alentando la colaboración y el diálogo abierto entre las partes interesadas para crear un ecosistema de IA seguro. dice OpenAI en un comunicado de prensa. La empresa detrás de ChatGPT respondió indirectamente a las preocupaciones planteadas por los reguladores en las últimas semanas sobre una variedad de temas.

Verificar la edad de los usuarios para proteger a los niños

Lanzado públicamente a fines de 2022, ChatGPT rápidamente se hizo popular. Este éxito tiene un precio: ser examinado por las autoridades reguladoras de varios países. El 31 de marzo, Italia fue el primer país europeo en culpar a la empresa californiana incumplimiento del Reglamento General de Protección de Datos (RGPD). A la hora de tener una respuesta, los reguladores italianos han bloqueado el acceso a la inteligencia artificial (IA). Francia, Alemania e Irlanda están sujetas a las mismas regulaciones, sus respectivas autoridades reguladoras han intercambiado con Roma.

Al otro lado del Atlántico, las autoridades canadienses han abierto una investigación por hechos similares. En Estados Unidos, la Comisión Federal de Comercio (FTC), la autoridad de competencia estadounidense, por su parte, ha declarado que ha recibido una queja sobre la seguridad de la IA de OpenAI, en particular por la seguridad de los usuarios jóvenes.

En la misma categoría

Ilustración del metalogotipo.

Meta planea usar IA generativa para crear anuncios

Una preocupación presente en los reproches de la autoridad italiana, OpenAI ha decidido responder a ella. En un comunicadola empresa afirma estar trabajando en una solución para verificar la edad de sus usuarios. Ella especifica que ahora será necesario tener 18 años o más para conversar con la IA. Los niños mayores de 13 años podrán usar ChatGPT con el consentimiento de los padres.

Más allá de este cambio, OpenAI declara esforzarse por limitar la exposición de sus usuarios a intercambios inapropiados para jóvenes y mayores. Este es uno de los argumentos de GPT-4, la nueva versión de su modelo de lenguaje de gran éxito: sería un 82% menos probable que respondiera a solicitudes de contenidos prohibidos (chocantes, acosadores, pornográficos, etc.). La compañía insiste en trabajar duro para evitar que su IA acceda, por ejemplo, a proporcionar planes para fabricar una bomba. En su declaración insiste en que es probable que las solicitudes ilegales sean denunciadas ante las autoridades, llevándose el caso de la pornografía infantil, “ Cuando las personas intentan cargar pornografía infantil en nuestras herramientas de imágenes, lo bloqueamos y lo informamos al Centro Nacional para Niños Desaparecidos y Explotados. (Centro Nacional de Menores Desaparecidos y Explotados)”.

Consentimiento del usuario

En Europa, se sospecha principalmente que OpenAI utiliza datos de usuarios sin su conocimiento, en particular para su capacitación. En un comunicado de prensa publicado 5 de abril, IA: ¿cómo cumplir con el RGPD?, la Comisión Nacional de Informática y Libertades (CNIL) recuerda que un ciudadano europeo debe dar su consentimiento explícito para que sus datos se utilicen para entrenar una IA. Problema, en su nota de prensa la empresa californiana parece ignorar esta obligación. Sólo recuerda que no utiliza los datos de los usuarios para » vender sus servicios, publicitar o perfilar personas «.

OpenAI respalda este argumento al afirmar que elimina » información personal de todos los datos de entrenamiento cuando sea posible «. Las preguntas sobre personas no públicas serían rechazadas. También señala que las personas que deseen eliminar su información personal del sistema pueden hacerlo. Sobre este último punto, la abogada y presidenta de la asociación Janus International, Zoé Villain, presentó una denuncia ante la CNIL cuando OpenAI le negó el acceso a sus propios datos.

¿Las posibles derivas de GPT-4?

En la tierra del Tío Sam, un grupo especializado en la ética de la IA, Center for AI and Digital Policy (CAIDP), acusa a GPT-4 de OpenAI, más potente que su antecesor, de ser un riesgo para la privacidad y la seguridad pública. En su carta, los especialistas mencionan una docena de peligros en las respuestas de la modelo: escritura de código malicioso, propaganda altamente personalizada, preferencias injustas de raza y género en áreas como el reclutamiento.

OpenIA afirma haber esperado más de 6 meses antes de implementar GPT-4. Sin embargo, admite que no puede anticipar todas las respuestas de su agente conversacional. A pesar de estos 6 meses, a veces puede ser necesario tomarse más tiempo para mejorar la seguridad de los sistemas de IA «.

Recordando su Enfoque de la seguridad de la IA », OpenAI está tratando de abordar las preocupaciones de todos. Para mostrar su buena fe, la empresa reiteró su apoyo a la regulación de la IA. » Los formuladores de políticas y los proveedores de IA deberán asegurarse de que el desarrollo y la implementación de la IA se gobiernen de manera efectiva a nivel mundial, para que nadie escatime en avanzar. ella asegura. Queda por ver cómo reaccionará OpenAI ante la próxima ley europea llamada IA ​​Act.



ttn-es-4