Ce sera une autre année importante pour l’IA. Il y aura une élection présidentielle américaine en novembre. Les mesures doivent empêcher la manipulation et l’influence au moyen de l’intelligence artificielle. Le créateur de ChatGPT, OpenAI, a déjà bloqué cette semaine un chatbot se faisant passer pour un candidat à la présidentielle.
In het kort
- OpenAI stelt regels op om misbruik van AI in aanloop naar de Amerikaanse presidentsverkiezingen te voorkomen.
- Die verantwoordelijkheid ligt volgens experts in eerste instantie bij bedrijven die AI ontwikkelen. Pas daarna ligt die bij de overheid.
- Een kant-en-klare oplossing tegen misbruik is er niet. Maar de komende tijd wordt duidelijk of strengere sancties nodig zijn.
Deux développeurs de la Silicon Valley ont construit un chatbot qui parle comme le candidat démocrate à la présidentielle Dean Phillips. Le robot était censé aider à collecter des fonds pour la campagne de Phillips. “Cela lui ressemble et est programmé en fonction de ses idées”, écrivent les créateurs sur le site. “Mais il peut dire des choses fausses ou incorrectes.”
Le chatbot ne fonctionne plus. OpenAI y a mis un terme, écrit Le Washington Post. Les créateurs ont utilisé la technologie de l’entreprise pour créer le chatbot, mais ont enfreint les règles. “Cette politique interdit toute campagne politique ou toute usurpation d’identité sans autorisation”, a déclaré un porte-parole.
OpenAI est aujourd’hui l’une des sociétés d’IA les plus connues. Elle sera passée à la loupe cette année à l’occasion des élections américaines. OpenAI ne voudra pas être responsable de la propagation de la manipulation et de la désinformation lors des élections. En 2016, des entreprises comme Facebook ont reçu les mêmes accusations.
C’est pourquoi OpenAI a présenté un certain nombre de mesures pour empêcher toute utilisation abusive de la technologie. L’interdiction de créer des applications pour les campagnes politiques en fait partie.
La première responsabilité incombe aux créateurs
Les créateurs d’applications d’IA doivent d’abord prendre la responsabilité d’empêcher toute utilisation abusive de la technologie, déclare l’ancien député D66 Kees Verhoeven. Il est actuellement consultant dans le domaine de la digitalisation.
“Il n’est pas vrai que le secteur technologique propose quelque chose et que le gouvernement doive procéder à des ajustements”, déclare Verhoeven. “Le gouvernement réagit toujours, mais l’attitude proactive vient des entreprises qui sont en première ligne.”
Daniel Mügge, professeur d’arithmétique politique à l’université d’Amsterdam, considère donc comme une bonne chose qu’OpenAI soit au top et fixe des règles. “Les élections approchent assez rapidement. Et il faudra beaucoup de temps au pouvoir législatif pour proposer des règles claires et des moyens de les faire appliquer”, dit-il.
OpenAI voudra montrer son meilleur côté, pense Mügge. Si l’entreprise montre qu’elle veut agir contre les abus et le fait, elle peut éviter de graves sanctions de la part du législateur.
Quel chatbot politique est autorisé et lequel ne l’est pas ?
Il existe des centaines de chatbots dans le GPT Store d’OpenAI. Malgré les règles plus strictes, il existe parmi eux toutes sortes de robots politiques. Il existe par exemple des chatbots qui imitent l’ancien président américain Donald Trump ou fournissent des informations sur sa campagne. On ne sait pas pourquoi OpenAI abandonne celui-ci. La société n’a pas répondu aux questions de NU.nl.
Où l’aide de l’intelligence artificielle est-elle agréable et où est-elle désagréable ? La période précédant les élections américaines constituera un test important à cet égard. Les limites de l’opportunité de l’IA sont vagues.
“On peut difficilement dire que l’on interdit complètement la politique”, déclare Mügge. “Ce sujet est difficile à définir. Par exemple, une conversation sur l’azote est-elle par définition politiquement chargée ?”
Selon Mügge, les entreprises d’IA ne peuvent pas réussir rapidement. « Il n’existe pas de solution universelle aux abus potentiels », dit-il. “Mais cela ne veut pas dire qu’ils doivent simplement hausser les épaules.”
Les robots d’IA politique ont aussi leurs avantages. “Ils peuvent améliorer les contacts entre les hommes politiques et les citoyens”, déclare Verhoeven. Par exemple, un chatbot peut résumer le langage difficile d’un manifeste électoral avec des mots simples. Ou faites-le traduire. “Il existe une possibilité d’abaisser le seuil d’information, mais cela doit être fait de manière honnête et véridique”, explique le conseiller.
Imiter des voix et déformer les mots
C’est justement là que réside parfois le problème. L’IA générative telle que ces types de chatbots peut apporter des réponses à tout. Mais il n’est pas toujours clair si les déclarations sont factuellement exactes.
L’IA peut également poser problème en dehors des chatbots. “La falsification de l’audio et de la vidéo suscite le plus de préoccupations”, explique Mügge. Sur la base de courts fragments audio, vous pouvez déjà déformer les mots à l’aide de l’IA.
Cela se produit déjà dans la pratique. Mardi, il est apparu que des milliers d’Américains avaient reçu des appels d’une voix qui ressemblait à celle du président Joe Biden. Le message appelle la population à ne pas voter aux primaires.
L’appel est faux, confirme la Maison Blanche. La voix semble avoir été recréée avec l’IA.
« Cette technologie fonctionne avec une énorme quantité de données que personne ne peut surveiller », explique Verhoeven. “L’IA en elle-même n’a aucune compréhension, elle n’est ni éthique ni contraire à l’éthique en soi. Elle fournit simplement un résumé stratégique des données disponibles. Nous devons continuer à surveiller cela pour voir quelles en sont les conséquences.”