RESUMEN: Los funcionarios de protección de datos de los estados federales analizan de cerca ChatGPT


BERLÍN (dpa-AFX) – Según un informe, los oficiales de protección de datos de los estados federales están examinando más de cerca la máquina de texto basada en inteligencia artificial ChatGPT. «El grupo de trabajo de IA de la conferencia de protección de datos se ha hecho cargo del tema», dijo la presidenta del comité, la responsable de protección de datos de Schleswig-Holstein, Marit Hansen, a la casa de medios Table.Media. «Obviamente, los riesgos son más amplios que ‘solo’ la protección de datos, por lo que no solo se requiere la supervisión de la protección de datos y las autoridades de los medios estatales, sino también la política y la legislación», dijo el representante estatal.

Ya ha habido violaciones de datos en ChatGPT, los usuarios podrían haber visto solicitudes de extraños o conversaciones con ChatGPT, dijo Hansen a dpa cuando se le preguntó. “Esto es particularmente preocupante porque algunos usuarios confían en el sistema de IA e incluso hacen preguntas íntimas”, dijo Hansen. «Esto se ve favorecido por el hecho de que ChatGPT aparece lingüísticamente como un agradable contemporáneo humano». Además, es necesario aclarar cuestiones sobre el cumplimiento del Reglamento General de Protección de Datos, como el tratamiento de datos personales y la seguridad de los datos.

Hansen también se refirió a preguntas fuera de la protección de datos, como cuando las personas confían en respuestas incorrectas, un punto crítico en el tratamiento de enfermedades, por ejemplo. Además, las respuestas podrían tener un efecto manipulador o las preguntas podrían responderse de una «manera coloreada». «¡ChatGPT no es un motor de búsqueda confiable! Pero así es como se usa mucho la herramienta», dijo Hansen.

En Italia, la máquina de texto ha sido bloqueada temporalmente. Los delegados de protección de datos de Roma acusan a la start-up OpenAI de no informar a sus usuarios qué información se almacena sobre ellos. Además, la empresa no tiene base legal para recopilar y almacenar los datos. Además, no existen filtros o bloqueos adecuados para niños menores de 13 años, quienes de acuerdo con los términos y condiciones no pueden usar el software ChatGPT.

ChatGPT ha impresionado en los últimos meses con lo bien que el software puede imitar el habla humana. Al mismo tiempo, existe la preocupación de que dicha tecnología basada en inteligencia artificial pueda ser mal utilizada, por ejemplo, para difundir información falsa./nif/DP/jha



ttn-es-28