Comment Google résoudra-t-il son énigme de l’IA ?


Dans la course aux armements de l’IA qui vient d’éclater dans l’industrie technologique, Google, où une grande partie des dernières technologies a été inventée, devrait être bien placé pour être l’un des grands gagnants.

Il n’y a qu’un seul problème : avec les politiciens et les régulateurs à bout de souffle et un modèle commercial extrêmement rentable à défendre, le géant de la recherche sur Internet peut hésiter à utiliser bon nombre des armes à sa disposition.

Microsoft a lancé un défi direct au géant de la recherche cette semaine en scellant un investissement de plusieurs milliards de dollars dans la société de recherche en intelligence artificielle OpenAI. Cette décision intervient moins de deux mois après la sortie de ChatGPT d’OpenAI, un chatbot qui répond aux requêtes avec des paragraphes de texte ou de code, suggérant comment l’IA générative pourrait un jour remplacer la recherche sur Internet.

Avec des droits préférentiels pour commercialiser la technologie d’OpenAI, les dirigeants de Microsoft n’ont pas caché leur objectif de l’utiliser pour défier Google, réveillant une vieille rivalité qui mijote depuis que Google a remporté la guerre de la recherche il y a dix ans.

DeepMind, la société de recherche londonienne que Google a rachetée en 2014, et Google Brain, une division de recherche avancée de son siège social de la Silicon Valley, ont depuis longtemps donné à la société de recherche l’un des points d’ancrage les plus solides de l’IA.

Plus récemment, Google a innové avec différentes variantes de l’IA dite générative qui sous-tend ChatGPT, y compris des modèles d’IA capables de raconter des blagues et de résoudre des problèmes mathématiques.

L’un de ses modèles de langage les plus avancés, connu sous le nom de PaLM, est un modèle à usage général trois fois plus grand que GPT, le modèle d’IA qui sous-tend ChatGPT, en fonction du nombre de paramètres sur lesquels les modèles sont formés.

Le chatbot LaMDA de Google, ou Language Model for Dialogue Applications, peut converser avec les utilisateurs en langage naturel, de la même manière que ChatGPT. Les équipes d’ingénierie de l’entreprise travaillent depuis des mois pour l’intégrer dans un produit grand public.

Malgré les progrès techniques, la plupart des dernières technologies ne font encore l’objet que de recherches. Les détracteurs de Google disent qu’il est entravé par son activité de recherche extrêmement rentable, ce qui le décourage d’introduire l’IA générative dans les produits de consommation.

Microsoft prévoit d’utiliser la technologie d’OpenAI dans l’ensemble de ses produits et services © Lionel Bonaventure/AFP/Getty Images

Donner des réponses directes aux requêtes, plutôt que de simplement diriger les utilisateurs vers des liens suggérés, entraînerait moins de recherches, a déclaré Sridhar Ramaswamy, un ancien haut dirigeant de Google.

Cela a laissé Google face à «un dilemme classique de l’innovateur» – une référence au livre du professeur de la Harvard Business School Clayton Christensen qui cherchait à expliquer pourquoi les leaders de l’industrie sont souvent la proie de parvenus rapides. « Si j’étais celui qui dirigeait une entreprise de 150 milliards de dollars, je serais terrifié par cette chose », a déclaré Ramaswamy.

« Nous nous concentrons depuis longtemps sur le développement et le déploiement de l’IA pour améliorer la vie des gens. Nous pensons que l’IA est une technologie fondamentale et transformatrice qui est incroyablement utile pour les particuliers, les entreprises et les communautés », a déclaré Google. Cependant, le géant de la recherche « devrait tenir compte des impacts sociétaux plus larges que ces innovations peuvent avoir ». Google a ajouté qu’il annoncerait bientôt « plus d’expériences en externe ».

Tout en entraînant moins de recherches et une baisse des revenus, la diffusion de l’IA pourrait également entraîner une augmentation des coûts de Google.

Ramaswamy a calculé que, sur la base des tarifs d’OpenAI, il en coûterait 120 millions de dollars pour utiliser le traitement du langage naturel pour « lire » toutes les pages Web d’un index de recherche, puis l’utiliser pour générer des réponses plus directes aux questions que les internautes saisissent dans un moteur de recherche. . Les analystes de Morgan Stanley ont estimé que répondre à une requête de recherche à l’aide du traitement du langage coûte environ sept fois plus cher qu’une recherche Internet standard.

Les mêmes considérations pourraient décourager Microsoft d’une refonte radicale de son moteur de recherche Bing, qui a généré plus de 11 milliards de dollars de revenus l’an dernier. Mais la société de logiciels a déclaré qu’elle prévoyait d’utiliser la technologie d’OpenAI dans l’ensemble de ses produits et services, ce qui pourrait conduire à de nouvelles façons pour les utilisateurs de se voir présenter des informations pertinentes lorsqu’ils se trouvent dans d’autres applications, réduisant ainsi le besoin d’accéder à un moteur de recherche.

Un certain nombre d’employés anciens et actuels proches des équipes de recherche sur l’IA de Google affirment que les plus grandes contraintes à la publication de l’IA par l’entreprise ont été les inquiétudes concernant les dommages potentiels et la manière dont ils affecteraient la réputation de Google, ainsi qu’une sous-estimation de la concurrence.

« Je pense qu’ils dormaient au volant », a déclaré un ancien scientifique de Google AI, qui dirige maintenant une société d’IA. « Honnêtement, tout le monde a sous-estimé la façon dont les modèles linguistiques vont perturber la recherche. »

Ces défis sont exacerbés par les préoccupations politiques et réglementaires causées par le pouvoir croissant de Google, ainsi que par l’examen public accru du leader de l’industrie dans l’adoption de nouvelles technologies.

Selon un ancien dirigeant de Google, les dirigeants de l’entreprise s’inquiétaient il y a plus d’un an que des avancées soudaines dans les capacités de l’IA pourraient conduire à une vague d’inquiétude du public quant aux implications d’une technologie aussi puissante entre les mains d’une entreprise. L’année dernière, il a nommé l’ancien cadre de McKinsey James Manyika au poste de vice-président principal pour le conseiller sur les impacts sociaux plus larges de sa nouvelle technologie.

L’IA générative, qui est utilisée dans des services tels que ChatGPT, est intrinsèquement susceptible de donner des réponses incorrectes et pourrait être utilisée pour produire de la désinformation, a déclaré Manyika. S’adressant au Financial Times quelques jours seulement avant la sortie de ChatGPT, il a ajouté : « C’est pourquoi nous ne nous précipitons pas pour publier ces choses de la manière dont les gens auraient pu s’attendre à ce que nous le fassions. »

Cependant, l’énorme intérêt suscité par ChatGPT a intensifié la pression sur Google pour qu’il corresponde plus rapidement à OpenAI. Cela lui a laissé le défi de montrer ses prouesses en matière d’IA et de l’intégrer dans ses services sans nuire à sa marque ni provoquer de réaction politique.

« Pour Google, c’est un vrai problème s’ils écrivent une phrase contenant un discours de haine et qu’elle est proche du nom de Google », a déclaré Ramaswamy, co-fondateur de la start-up de recherche Neeva. Google est tenu à une norme plus élevée qu’une start-up qui pourrait prétendre que son service n’était qu’un résumé objectif du contenu disponible sur Internet, a-t-il ajouté.

La société de recherche a déjà été critiquée pour sa gestion de l’éthique de l’IA. En 2020, lorsque deux éminents chercheurs en IA sont partis dans des circonstances controversées après des objections à un document de recherche évaluant les risques de l’IA liée au langage, une fureur a éclaté autour de l’attitude de Google envers l’éthique et la sécurité de ses technologies d’IA.

De tels événements l’ont laissé sous un examen public plus approfondi que des organisations telles que OpenAI ou des alternatives open source telles que Stable Diffusion. Ce dernier, qui génère des images à partir de descriptions textuelles, a rencontré plusieurs problèmes de sécurité, notamment avec la génération d’images pornographiques. Son filtre de sécurité peut être facilement piraté, selon des chercheurs en intelligence artificielle, qui affirment que les lignes de code pertinentes peuvent être supprimées manuellement. Sa société mère, Stability AI, n’a pas répondu à une demande de commentaire.

La technologie d’OpenAI a également été abusée par les utilisateurs. En 2021, un jeu en ligne appelé AI Dungeon a autorisé GPT, un outil de génération de texte, pour créer des scénarios à choisir en fonction des invites individuelles de l’utilisateur. En quelques mois, les utilisateurs ont généré un gameplay impliquant des abus sexuels sur des enfants, entre autres contenus dérangeants. OpenAI a finalement prêté à l’entreprise pour introduire de meilleurs systèmes de modération.

OpenAI n’a pas répondu à une demande de commentaire.

Si quelque chose comme cela s’était produit chez Google, le contrecoup aurait été bien pire, a déclaré un ancien chercheur de Google AI. L’entreprise étant désormais confrontée à une menace sérieuse d’OpenAI, ont-ils ajouté, il n’était pas clair si quelqu’un dans l’entreprise était prêt à assumer la responsabilité et les risques de publier plus rapidement des produits d’IA.

Microsoft fait face à un dilemme similaire sur la façon d’utiliser la technologie. Il a cherché à se présenter comme plus responsable que Google dans son utilisation de l’IA. OpenAI, quant à lui, a averti que ChatGPT est sujet à des imprécisions, ce qui rend difficile l’intégration de la technologie sous sa forme actuelle dans un service commercial.

Mais en tant que démonstration la plus spectaculaire à ce jour d’une force d’IA qui balaie le monde de la technologie, OpenAI a annoncé que même des puissances enracinées telles que Google pourraient être menacées.



ttn-fr-56