Google lance un chatbot IA dans l’UE. Conseiller en éthique : « La nuance me manque en ce qui concerne le risque d’IA »


La conjoncture actuelle est « l’un de ces moments auxquels tout le monde veut participer », déclare Ben Zevenbergen, conseiller en éthique de Google. C’est ainsi que les fondateurs de Google, Larry Page et Sergey Brin – normalement actifs uniquement en arrière-plan chez Google – ont récemment rejoint les réunions importantes sur la stratégie d’IA de Google. « Des disciplines entières peuvent être réinventées par l’intelligence artificielle », déclare Zevenbergen, lors d’une conversation au bureau de Google à Amsterdam. « C’est un moment tellement intéressant que tout le monde veut se joindre à la conversation. »

Depuis 2020, Zevenbergen est impliqué dans son rôle de conseiller dans tous les lancements de produits importants de l’entreprise technologique américaine. De plus, il est responsable de « l’opposition », dit Zevenbergen. Il doit s’assurer que ce que les ingénieurs de Google développent est également conforme aux Principes de l’IA mis en place par la société. Dans ce document, Google déclare, entre autres, que tous ses produits d’IA doivent « bénéficier à la société » et ne doivent pas conduire à des préjugés ou à des violations de la vie privée.

Zevenbergen en était l’un des auteurs Papier LaMDA, paru en février de l’année dernière et dans lequel Google a présenté pour la première fois son modèle linguistique. Cette technologie est à la base de la première version du chatbot Bard de Google, qui est sorti au Royaume-Uni et aux États-Unis en mars. À partir de ce jeudi, le chatbot sera également disponible aux Pays-Bas et dans d’autres pays de l’UE.

Le lancement européen de Bard a été reporté après des questions du régulateur irlandais Data Protection Commission (DPC), qui surveille l’application des règles européennes de confidentialité dans les principales préoccupations technologiques. Le DPC a constaté que Google avait fourni une « documentation insuffisante » pour garantir la confidentialité des utilisateurs. Google s’est désormais conformé aux conditions de l’UE. Entre autres choses, les utilisateurs auront la possibilité de visualiser leur activité dans Bard ou de la supprimer de leur compte.

« Panique interne »

Bard est le résultat d’années de recherche et d’expérimentation dans la technologie de l’IA. De plus, Google a longtemps occupé une position non menacée. Ses chercheurs ont développé le premier en 2017 transformateurs. Ces réseaux de neurones super intelligents sont cruciaux pour les ordinateurs vocaux et les chatbots. Jusque-là, les ordinateurs étaient particulièrement efficaces pour traduire littéralement des textes d’une langue à une autre. Les transformateurs ont également permis aux ordinateurs de comprendre le contexte des phrases et sont devenus capables de tenir des conversations.

En fin de compte, ce n’est pas Google, mais OpenAI de San Francisco qui a lancé le premier d’une nouvelle génération de chatbots IA avec ChatGPT en novembre de l’année dernière. ChatGPT, basé sur la technologie Transformer de Google, a été le premier à écrire des pièces de théâtre, à composer des poèmes, à produire et à programmer des textes pour des sites Web.

ChatGPT a déclenché un battage médiatique mondial. Le réseau de neurones sous-jacent GPT-4 est désormais utilisé par d’innombrables entreprises pour automatiser des tâches. Pensez à rédiger des textes ou à répondre automatiquement aux e-mails, aux assistants numériques ou à numériser et évaluer les lettres de candidature. Le battage médiatique autour de ChatGPT a forcé d’autres entreprises technologiques à revoir ou à accélérer leur stratégie d’IA afin de ne pas prendre de retard dans la course aux dernières technologies.

Chez Google, l’arrivée de ChatGPT a provoqué une panique interne, même si le PDG de Google, Sundar Pichai, a préféré parler « d’un sentiment d’urgence ». Les équipes de Google ont été invitées par le sommet à se dépêcher avec le développement de Bard. Lors de la présentation de Bard en février, le chatbot a commis une erreur factuelle embarrassante lors de la démonstration. Bard, en réponse à une question, a déclaré à tort que la première image d’une planète en dehors de notre système solaire avait été prise par le télescope James Webb. Pichai a déclaré plus tard dans un podcast de Le New York Times que la première version de Bard donnait l’impression que Google « mettait une Civic gonflée dans une course avec des voitures plus puissantes ». La dernière version de Bard est nettement meilleure, selon les premiers tests effectués par des journalistes américains. Bard est directement connecté à Internet et dispose donc des informations les plus récentes disponibles, tandis que ChatGPT ne dispose d’aucune donnée sur les événements après 2021.

Les deux programmes souffrent néanmoins de ce que les scientifiques appellent des « hallucinations » : des chatbots qui inventent des faits. C’est l’un des problèmes les plus difficiles à résoudre pour les chatbots, Google ayant l’avantage d’avoir un accès permanent à tout l’internet via le moteur de recherche. « Nous pouvons tester assez efficacement si les réponses sont basées sur des sources existantes et si elles sont effectivement correctes », déclare Zevenbergen.

Google reconnaît que Bard « donne parfois des réponses incorrectes » ou peut faire des « déclarations offensantes ». Il essaie un certain parti pris (biais) en offrant aux utilisateurs plus de perspectives. Et plus Bard est utilisé, mieux il obtiendra ses réponses, ou du moins c’est l’idée.

Selon Zevenbergen, Google aurait pu lancer Bard « il y a deux ou trois ans », mais la technologie n’est que maintenant suffisamment fiable pour être expérimentée en direct. « Nous réfléchissons sérieusement aux principes éthiques qui sous-tendent le type de systèmes que nous voulons mettre au monde. Et la vitesse n’en fait pas partie », déclare Zevenbergen. « Je ne vois pas cela comme une course pour être le premier à mettre au monde un gadget technique. Google n’était pas le premier moteur de recherche, mais au final c’était le meilleur. »

En savoir plus sur la façon dont l’Europe veut réglementer l’IA : « Le Parlement européen veut des règles strictes pour l’IA – également pour ChatGPT »

Fausses nouvelles et cybercriminalité

Pourtant, on s’inquiète – également au sein de Google – de la vitesse à laquelle l’IA se développe. La crainte est que des parties malveillantes utilisent les systèmes d’IA pour les fausses nouvelles et la cybercriminalité. L’essor de l’IA risque d’entraîner la disparition d’emplois. L’industrie créative se prépare à une série de poursuites, car les sociétés d’IA violent le droit d’auteur en utilisant des textes et des images sur Internet pour former leurs modèles.

Ces derniers mois, d’éminents scientifiques de l’IA ont appelé à une « pause de développement » de la technologie par le biais de diverses pétitions. Selon les signataires, avant que les entreprises n’entrent sur le marché avec toutes sortes de systèmes d’IA, les gouvernements doivent d’abord établir des règles sur la manière dont la société souhaite utiliser l’IA.

Tous les hauts dirigeants des entreprises technologiques se sont désormais prononcés en faveur d’une réglementation gouvernementale accrue. Des hauts dirigeants d’OpenAI et de Google se sont rendus à Bruxelles ces derniers mois pour montrer qu’ils aimeraient apporter des idées sur la loi sur l’IA, la principale loi européenne sur l’IA actuellement en cours de mise en œuvre. La loi déterminera comment les entreprises technologiques peuvent utiliser l’IA en Europe.

La grande question : dans quelle mesure une entreprise comme Google elle-même peut-elle assumer la responsabilité de traiter de manière responsable une technologie qui a le potentiel d’avoir un impact énorme sur l’humanité ? La moitié des scientifiques de l’IA estiment à au moins 10% le risque que l’IA conduise à un « résultat extrêmement mauvais » pour l’humanité à au moins 10%, selon une étude de l’année dernière. un sondage. En mai, l’éminent scientifique en IA Geoffrey Hinton a quitté Google pour parler des dangers de l’IA. Il a déclaré que l’IA prend désormais principalement en charge les «tâches abrutissantes» des gens, «mais peut-être beaucoup plus à l’avenir».

Zevenbergen déclare qu’il « passe à côté de la nuance » lorsqu’il s’agit de telles pétitions avec des concepts tels que « risque existentiel ». « Bien sûr, cela pourrait présenter un risque pour l’humanité. Il est très peu probable que cela se produise, mais c’est un scénario que nous prenons en compte », dit-il. « Nous sommes maintenant dans une situation où nous pouvons gérer tout cela correctement. Construire des scénarios qui sont désirables.



ttn-fr-33