L’organisme irlandais de surveillance lance une enquête sur les pratiques de Google en matière de données d’IA en Europe


12 septembre 2024Ravie LakshmananConformité réglementaire / Protection des données

La Commission irlandaise de protection des données (DPC) a annoncé qu’elle avait lancé une « enquête statutaire transfrontalière » sur le modèle fondamental d’intelligence artificielle (IA) de Google afin de déterminer si le géant de la technologie a respecté les réglementations en matière de protection des données dans la région lors du traitement des données personnelles des utilisateurs européens.

« L’enquête statutaire porte sur la question de savoir si Google a respecté les obligations qu’elle aurait pu avoir de procéder à une évaluation, conformément à l’article 35[2] du règlement général sur la protection des données (analyse d’impact sur la protection des données), avant de s’engager dans le traitement des données personnelles des personnes concernées de l’UE/EEE associées au développement de son modèle d’IA fondamental, Pathways Language Model 2 (PaLM 2), » le DPC dit.

Cybersécurité

PaLM 2 est le modèle linguistique de pointe de Google avec des capacités multilingues, de raisonnement et de codage améliorées. dévoilé par l’entreprise en mai 2023.

Le siège européen de Google étant basé à Dublin, le DPC agit en tant que principal régulateur chargé de s’assurer que l’entreprise respecte les règles strictes de confidentialité des données du bloc.

La DPC a déclaré qu’une enquête est essentielle pour garantir que les droits et libertés fondamentaux des individus sont protégés, en particulier lorsque le traitement de ces données lors du développement de systèmes d’IA peut entraîner un « risque élevé ».

Ce développement intervient quelques semaines après que la plateforme de médias sociaux X convenu en permanence de ne pas entraîner son chatbot IA, Grok, à utiliser les données personnelles qu’il a collectées auprès des utilisateurs européens sans obtenir le consentement préalable. En août dernier, la DPC avait déclaré que X consenti de suspendre son « traitement des données personnelles contenues dans les publications publiques des utilisateurs UE/EEE de X qu’elle a traitées entre le 7 mai 2024 et le 1er août 2024 ».

Cybersécurité

Méta, qui a récemment admis L’entreprise, qui avait pour vocation de collecter les données publiques de tous les utilisateurs adultes australiens de Facebook pour former ses modèles d’IA Llama sans leur donner la possibilité de s’y opposer, a suspendu ses projets d’utilisation de contenus publiés par des utilisateurs européens à la suite d’une demande de la DPC concernant des problèmes de confidentialité. Elle a également suspendu l’utilisation de l’IA générative (GenAI) au Brésil après que l’autorité de protection des données du pays a émis une interdiction préliminaire s’opposant à sa nouvelle politique de confidentialité.

L’année dernière, le régulateur italien de la confidentialité des données a également temporairement interdit ChatGPT d’OpenAI en raison de craintes selon lesquelles ses pratiques violeraient les lois sur la protection des données dans la région.

Vous avez trouvé cet article intéressant ? Suivez-nous sur Gazouillement et LinkedIn pour lire davantage de contenu exclusif que nous publions.





ttn-fr-57