L’organisme européen de surveillance de la vie privée enquête sur l’utilisation des données par Google pour son modèle d’IA


Débloquez gratuitement l’Editor’s Digest

Google fait l’objet d’une enquête de l’autorité européenne de protection de la vie privée concernant son traitement des données personnelles dans le cadre du développement de l’un de ses modèles d’intelligence artificielle, alors que les régulateurs intensifient leur surveillance des ambitions d’IA des Big Tech.

La Commission irlandaise de protection des données, chargée de faire respecter le règlement général sur la protection des données (RGPD) de l’Union européenne, a déclaré avoir lancé une enquête statutaire sur le modèle linguistique Pathways 2, ou PaLM 2, du géant de la technologie.

PaLM 2 a été lancé en mai 2023 et précède les derniers modèles Gemini de Google, qui équipent ses produits d’IA. Gemini, lancé en décembre de la même année, est désormais le modèle de base de son offre de génération de texte et d’images.

L’enquête évaluera si l’entreprise a violé ses obligations en vertu du RGPD sur le traitement des données personnelles des citoyens de l’UE et de l’Espace économique européen.

En vertu de ce cadre, les entreprises doivent procéder à une évaluation de l’impact sur la protection des données avant de se lancer dans le traitement de ces informations lorsque la nature de leur utilisation est susceptible de présenter un risque élevé pour les droits et libertés des individus.

Cela s’applique en particulier aux nouvelles technologies et est « d’une importance cruciale pour garantir que les droits et libertés fondamentaux des individus soient correctement pris en compte et protégés », a déclaré le régulateur dans un communiqué.

Cette évaluation est en cours d’examen dans le cadre de l’enquête. Google n’a pas immédiatement répondu à une demande de commentaire.

Il s’agit de la dernière d’une série d’actions menées par le DPC contre les grandes entreprises technologiques qui construisent de grands modèles linguistiques.

En juin, Meta a suspendu son projet de former son modèle Llama sur le contenu public partagé par des adultes sur Facebook et Instagram à travers l’Europe, à la suite de discussions avec le régulateur irlandais. Meta a ensuite limité la disponibilité de certains de ses produits d’IA aux utilisateurs de la région.

Un mois plus tard, les utilisateurs de X ont découvert qu’ils avaient « opté » pour que leurs publications sur le site soient utilisées pour former les systèmes de la start-up xAI d’Elon Musk.

La plateforme a suspendu en août le traitement des données des utilisateurs européens pour entraîner son modèle d’IA Grok, à la suite d’une procédure judiciaire engagée par le DPC. C’était la première fois que le régulateur utilisait ses pouvoirs pour prendre une telle mesure contre une entreprise technologique.



ttn-fr-56