ROUNDUP : Les délégués à la protection des données des États fédéraux examinent de près ChatGPT


BERLIN (dpa-AFX) – Selon un rapport, les délégués à la protection des données des Länder examinent de plus près la machine à texte basée sur l’intelligence artificielle ChatGPT. « Le groupe de travail sur l’IA de la conférence sur la protection des données s’est emparé du sujet », a déclaré la présidente du comité, la responsable de la protection des données du Schleswig-Holstein, Marit Hansen, de la maison de presse Table.Media. « De toute évidence, les risques sont plus étendus que la « simple » protection des données, de sorte que non seulement la surveillance de la protection des données et les autorités nationales des médias sont nécessaires, mais aussi la politique et la législation », a déclaré le représentant de l’État.

Il y a déjà eu des violations de données chez ChatGPT, les utilisateurs auraient pu voir des demandes d’étrangers ou des conversations avec ChatGPT, a déclaré Hansen à dpa lorsqu’on lui a demandé. « C’est particulièrement inquiétant car certains utilisateurs se confient au système d’IA et posent même des questions intimes », a déclaré Hansen. « Ceci est favorisé par le fait que ChatGPT apparaît linguistiquement comme un agréable contemporain humain. » En outre, les questions relatives au respect du règlement général sur la protection des données doivent être clarifiées, telles que le traitement des données personnelles et la sécurité des données.

Hansen a également évoqué des questions en dehors de la protection des données, comme lorsque les gens se fient à de mauvaises réponses – un point critique dans le traitement des maladies, par exemple. De plus, les réponses pourraient avoir un effet de manipulation ou les questions pourraient être répondues de manière « colorée ». « ChatGPT n’est pas un moteur de recherche fiable ! Mais c’est ainsi que l’outil est souvent utilisé », a déclaré Hansen.

En Italie, la machine à SMS a été temporairement bloquée. Les délégués à la protection des données à Rome accusent la start-up OpenAI de ne pas dire à ses utilisateurs quelles informations sont stockées à leur sujet. De plus, la société n’a aucune base légale pour la collecte et le stockage des données. De plus, il n’y a pas de filtres ou de blocages adéquats pour les enfants de moins de 13 ans, qui, selon les termes et conditions, ne sont pas autorisés à utiliser le logiciel ChatGPT.

ChatGPT a impressionné au cours des derniers mois par la capacité du logiciel à imiter la parole humaine. Dans le même temps, on craint qu’une telle technologie basée sur l’intelligence artificielle ne soit utilisée à mauvais escient, par exemple pour diffuser de fausses informations./nif/DP/jha



ttn-fr-28