Según Italia, ChatGPT viola la ley de privacidad europea

Según Italia, ChatGPT no cumple con las normas de privacidad europeas. El supervisor de privacidad local lo anunció después de una investigación que se lleva a cabo desde marzo del año pasado.

Luego, Italia decidió prohibir temporalmente la popular herramienta de inteligencia artificial (IA) debido a violaciones de las normas sobre recopilación de datos personales. Tras los compromisos del desarrollador estadounidense OpenAI, la aplicación volvió a estar online después de casi un mes.

El año pasado, el regulador Garante per la Protezione dei Dati Personali (GPDP) elaboró ​​una lista de medidas que la empresa estadounidense debía cumplir antes de poder volver a utilizarse en Italia. OpenAI, por ejemplo, tenía que garantizar que los niños ya no pudieran utilizar el sistema de IA y que los adolescentes también quedaran excluidos sin el permiso de sus padres. La empresa también tenía que ofrecer a los no usuarios la posibilidad de oponerse al tratamiento de sus datos. Ahora esto parece no ser suficiente para cumplir suficientes normas europeas.

90 días para responder

El GPDP ha informado ahora a OpenAI de la “violación(es) de la ley europea sobre protección de datos personales”. La empresa tiene 90 días para responder.

La autoridad supervisora ​​holandesa, la Autoridad Holandesa de Protección de Datos (AP), dijo anteriormente que también estaba preocupada por la forma en que ChatGPT maneja los datos personales. Una portavoz dijo que todavía está en curso una investigación conjunta con otros reguladores europeos.

El año pasado, la Unión Europea fue la primera en introducir una ley para regular parcialmente la IA. Además, en la UE rige desde hace algún tiempo una estricta legislación sobre privacidad.

MIRAR. ¿Quién es Sam Altman (37), director ejecutivo de OpenAI?

MIRAR. Estudiante atrapa a un profesor usando ChatGPT

Lea también:

Cómo ChatGPT cambió el mundo en un año: “Todo está sucediendo demasiado rápido” (+)



ttn-es-34