Il Garante per la Protezione dei Dati Personali, la autoridad italiana de protección de datos personales, ha informado a OpenAI que sospecha fuertemente de haber violado las normas generales sobre la protección de datos personales (GDPR). Con su acto de protesta, el regulador italiano apunta al robot conversacional ChatGPT.
Con ChatGPT, OpenAI lucha por cumplir con GDPR
Después de realizar una investigación preliminar sobre la forma en que OpenAI procesó y gestionó los datos personales de los usuarios de ChatGPT, la autoridad italiana consideró que los elementos recopilados sugerían un incumplimiento de varios artículos del RGPD. El regulador dio a la empresa treinta días para defenderse de estas supuestas violaciones.
No es la primera vez que se señala a OpenAI en el país transalpino. En marzo de 2023, Italia se convirtió en el primer país occidental en bloquear el uso de ChatGPT en su territorio. La agencia de protección de datos del país ya consideró que el chatbot no cumplía con el RGPD. Para justificar sus acusaciones, el regulador citó la filtración de datos que expuso los títulos de las conversaciones de muchos usuarios a la vista de todos. Además, la autoridad criticó a OpenAI por no haber implementado un mecanismo para impedir que los jóvenes menores de 13 años accedan al servicio.
La organización disponía de veinte días para comunicar sus medidas para remediar la situación. Finalmente, Sam Altman, director general de la start-up, ofreció varias garantías a la agencia italiana, una de ellas permitiendo a los usuarios negarse a que sus datos personales se utilicen para entrenar sus modelos. A finales de abril de 2023, ChatGPT volvió a estar disponible en los dispositivos conectados de los italianos.
Una vez más, Sam Altman y sus equipos tendrán que encontrar nuevos argumentos de peso para que la agencia italiana no lo sancione. Si no lo hace, la empresa especializada en IA generativa se arriesga a una multa de hasta 20 millones de euros, o el 4% de su facturación, como especifica el RGPD.
Tenga en cuenta que Italia no es el único que ha investigado las deficiencias de OpenAI en relación con el RGPD. En septiembre pasado, Polonia inició una investigación sobre ChatGPT tras una queja de un investigador de seguridad y privacidad. Como explicó Aurore Bonavia, abogada del colegio de abogados de Val-d’Oise, siglo digital, OpenAI debe garantizar que sus usuarios puedan “rectificar sus datos y saber hacia dónde van” para evitar, una vez más, ser acusado por los garantes europeos de la protección de datos personales.