El organismo de control italiano prohíbe ChatGPT de OpenAI por problemas de protección de datos


03 de abril de 2023Ravie LakshmanánInteligencia artificial / Seguridad de datos

El organismo de control italiano de protección de datos, Garante per la Protezione dei Dati Personali (también conocido como Garante), impuso una prohibición temporal del servicio ChatGPT de OpenAI en el país, citando preocupaciones de protección de datos.

Con ese fin, ordenó a la empresa que deje de procesar los datos de los usuarios con efecto inmediato, afirmando que tiene la intención de investigar a la empresa sobre si está procesando ilegalmente dichos datos en violación del Reglamento General de Protección de Datos de la UE (RGPD) leyes.

«No se proporciona información a los usuarios y sujetos de datos cuyos datos son recopilados por Open AI», Garante anotado. «Más importante aún, no parece haber una base legal que respalde la recopilación y el procesamiento masivos de datos personales para ‘entrenar’ los algoritmos en los que se basa la plataforma».

ChatGPT, que se estima que ha llegado a más de 100 millones de usuarios activos mensuales desde su lanzamiento a fines del año pasado, no tiene revelado lo que usó para entrenar su último modelo de lenguaje grande (LLM), GPT-4, o cómo lo entrenó.

Dicho esto, su predecesor GPT-3 utiliza Texto extraído de libros, Wikipedia y Rastreo comúnel último de los cuales mantiene un «repositorio abierto de datos de rastreo web al que cualquiera puede acceder y analizar».

El Garante también señaló la falta de un sistema de verificación de edad para evitar que los menores accedan al servicio, lo que podría exponerlos a respuestas «inapropiadas». El propio chatbot de Google, llamado Bard, es solo abierto a los usuarios mayores de 18 años.

Además, el regulador planteó dudas sobre la precisión de la información que aparece en ChatGPT, al tiempo que destacó una violación de datos que sufrió el servicio a principios de este mes que expuso los títulos de chat de algunos usuarios y la información relacionada con el pago.

En respuesta a la orden, OpenAI ha obstruido su chatbot generativo de IA sea accedido por usuarios con una dirección IP italiana. También dijo que está emitiendo reembolsos a los suscriptores de ChatGPT Plus, además de pausar las renovaciones de suscripción.

La empresa con sede en San Francisco enfatizó además que proporciona ChatGPT de conformidad con GDPR y otras leyes de privacidad. ChatGPT ya está bloqueado en China, Irán, Corea del Norte y Rusia.

En una oracion compartido con Reuters, OpenAI dijo que trabaja activamente para «reducir los datos personales en el entrenamiento de nuestros sistemas de IA como ChatGPT porque queremos que nuestra IA aprenda sobre el mundo, no sobre individuos privados».

OpenAI tiene 20 días para notificar a Garante las medidas que ha tomado para cumplir con las normas o correr el riesgo de enfrentar multas de hasta 20 millones de euros o el 4 % de la facturación anual total en todo el mundo, lo que sea mayor.

Sin embargo, no se espera que la prohibición afecte las aplicaciones de otras empresas que emplean la tecnología de OpenAI para aumentar sus servicios, incluido el motor de búsqueda Bing de Microsoft y sus ofertas de Copilot.

SEMINARIO WEB THN

¡Conviértase en un profesional de respuesta a incidentes!

Descubra los secretos de la respuesta a incidentes a prueba de balas: ¡domine el proceso de 6 fases con Asaf Perlman, líder de IR de Cynet!

No se lo pierda: ¡guarde su asiento!

El desarrollo también llega como Europol prevenido que es probable que los LLM como ChatGPT ayuden a generar código malicioso, faciliten el fraude y «ofrezcan a los delincuentes nuevas oportunidades, especialmente para delitos relacionados con la ingeniería social, dada su capacidad para responder a mensajes en contexto y adoptar un estilo de escritura específico».

Esta no es la primera vez que las empresas centradas en la IA pasan desapercibidas. El año pasado, la controvertida firma de reconocimiento facial Clearview AI fue multado por múltiple europeo reguladores por raspar las fotos disponibles públicamente de los usuarios sin consentimiento para entrenar su servicio de coincidencia de identidad.

También ha entrado en conflicto con las leyes de privacidad en Australia, Canadáy los Estados Unidoscon varios países ordenando a la empresa que elimine todos los datos que obtuvo de esa manera.

Visión clara IA le dijo a las noticias de la BBC la semana pasada que ha realizado casi un millón de búsquedas de agencias de aplicación de la ley de EE. UU., a pesar de ser vetado permanentemente de vender su base de datos de huellas faciales dentro del país.

¿Encontraste este artículo interesante? Siga con nosotros Gorjeo y LinkedIn para leer más contenido exclusivo que publicamos.



ttn-es-57