En Europa, los inicios de una política común para regular el uso de datos por parte de la IA


La Unión Europea (UE) ha decidido tomar medidas para regular mejor ChatGPT. El Consejo Europeo de Protección de Datos ha anunciado la creación de un grupo de trabajo, o grupo de trabajo, sobre tecnología OpenAI. Este es un primer paso importante hacia una política común para definir las reglas de protección de la privacidad en el campo de la inteligencia artificial (IA).

Creación de un grupo de trabajo por parte del Consejo Europeo de Protección de Datos

Desde su lanzamiento a finales de 2022, ChatGPT ha revolucionado el sector tecnológico gracias a su capacidad de generar textos de todo tipo a partir de una simple petición. Su deslumbrante éxito lógicamente ha despertado el interés de los reguladores, especialmente en Europa. Hace unos días, Italia decidió bloquear el acceso al chatbot, al considerar que no cumplía con la legislación europea en materia de protección de datos personales. La CNIL italiana lamentó en particular la falta de información a los usuarios sobre los datos recopilados por OpenAI, así como la falta de un mecanismo para evitar que los usuarios menores de 13 años accedan al servicio.

Muy rápidamente, Alemania afirmó que se podía tomar una medida similar en su territorio. En Francia, la CNIL recibió dos denuncias contra ChatGPT, mientras que España inició una investigación preliminar sobre posibles filtraciones de datos de IA. El país también ha hecho un llamado al Consejo Europeo de Protección de Datos para que se pronuncie sobre el tema, con el objetivo de establecer una política común dentro de la Unión.

Ahora está hecho. Este jueves 13 de abril, el Comité que supervisa las normas de protección de datos en la Unión Europea, celebró una reunión con expertos políticos que discutieron ChatGPTinformes Reuters. Durante este, se decidió establecer un grupo de trabajo especializado para fomentar la cooperación e intercambiar información sobre las posibles medidas coercitivas adoptadas por las autoridades de protección de datos «.

Varios países quieren regular la IA

Estados miembros no busque castigar o establecer reglas que afectarán a OpenAIsino más bien a crear políticas generales que son transparentes ». Esto está en línea con las palabras de Jean-Noël Barrot, Ministro Delegado encargado de la transición digital y las telecomunicaciones. Según él, no deberíamos prohibir ChatGPT sino regularlo» para que se ajuste a los principios a los que estamos apegados «.

Aguas arriba, la Unión Europea está desarrollando la AI Act, legislación común cuyo objetivo es establecer un marco legal para el uso de la inteligencia artificial. La UE no es la única entidad que examina el surgimiento de sistemas avanzados de IA. Canadá también ha abierto una investigación sobre posibles infracciones de la ley de protección de datos.

La administración de Biden, por su parte, anunció la solicitud de aportes públicos sobre posibles medidas de responsabilidad de AI, en medio de preguntas sobre su impacto en la seguridad nacional y la educación.



ttn-es-4