Nvidia s’est frayé un chemin vers la domination de l’IA


Débloquez gratuitement Editor’s Digest

Jensen Huang, le directeur général laconique et en veste de cuir de Nvidia, connaît de nombreux triomphes. Le groupe technologique qu’il a co-fondé et qu’il dirige est aujourd’hui la sixième entreprise la plus valorisée au monde, et ses puces et ses logiciels alimentent la révolution de l’intelligence artificielle. Au cours de cet exercice, les revenus de Nvidia pourraient dépasser ceux de l’ensemble de l’industrie américaine du jeu vidéo réunie.

Ce dernier terme ressemble à une simple note de bas de page pour une entreprise dont les supercalculateurs d’IA entraînent des applications telles que ChatGPT d’OpenAI. Mais l’entreprise a commencé par fournir du matériel de jeux vidéo, en fabriquant des puces graphiques pour les ordinateurs personnels et la console Xbox de Microsoft. Il a changé de direction il y a dix ans, mais les jeux sont restés sa principale source de revenus jusqu’à l’année dernière.

La transformation de Nvidia est l’un des pivots économiques les plus marquants, correspondant au passage historique de Nintendo des cartes à jouer aux consoles, et de Toyota des métiers à tisser aux voitures. Pas étonnant que Huang ait été si anxieux au fil des années. « J’aime vivre dans cet état où nous sommes sur le point de périr. . . J’apprécie cette condition », a-t-il déclaré cette semaine au DealBook Summit du New York Times.

Mais le pivot est moins bizarre qu’il n’y paraît : les jeux vidéo et l’intelligence artificielle ont beaucoup en commun, et le jeu vidéo est depuis longtemps à la pointe de la technologie des ordinateurs personnels. « Nous avons été les premiers à admettre que notre ordinateur ne peut rien faire d’autre que jouer à des jeux », a déclaré un dirigeant de Nintendo au FT dans les années 1980 à propos de la console « ordinateur familial » qu’elle venait de sortir.

Nintendo a suivi avec son jeu Super Mario Bros et son appareil portable Game Boy. Lorsque Huang a cofondé Nvidia en 1993, un an avant que Sony ne lance sa première PlayStation, le jeu était la forme d’informatique graphique la plus spectaculaire. C’était le marché naturel pour les unités de traitement graphique (GPU) de Nvidia, sans compter le fait que Huang était lui-même un joueur.

Il existe deux types de pivots : l’un naturel et l’autre plutôt le fruit du hasard. Netflix a commencé avec la location de DVD, donc passer au streaming a été une évolution intuitive. Les fondateurs de Nokia ont construit une usine de papier en 1865 et ne savaient pas qu’elle fabriquerait éventuellement des équipements de télécommunications. Le passage de Nvidia des GPU de jeux aux supercalculateurs IA se situe quelque part entre les deux.

Peu après le lancement par Nvidia de son premier GPU en 1999, il était clair que son utilisation du calcul parallèle, qui accélère les tâches en effectuant simultanément de nombreux petits calculs, aurait des applications plus larges. Ce dont il s’agissait était moins évident : l’apprentissage automatique était dans le marasme et Nvidia investissait davantage dans l’informatique mobile et la simulation visuelle à grande échelle.

Huang a réalisé le potentiel de l’IA en 2012 lorsqu’un groupe comprenant Ilya Sutskever, aujourd’hui scientifique en chef d’OpenAI, a utilisé la technologie Nvidia pour former un réseau neuronal appelé AlexNet pour reconnaître des images. Quatre ans plus tard, Huang a livré son premier supercalculateur d’IA à OpenAI, dont les dernières versions comportent 35 000 pièces, coûtent 250 000 dollars ou plus et sont à la base de sa récente croissance.

La similitude entre les jeux et l’IA est que la puissance pure l’emporte. Le fait que les GPU traitent les informations si rapidement a permis aux graphiques de devenir de plus en plus sophistiqués. Une grande puissance de calcul est nécessaire pour permettre aux joueurs d’interagir avec les autres dans des mondes virtuels richement représentés, avec des images rendues en profondeur.

C’est aussi ce qu’on appelle la « leçon amère » de l’IA : la conception des réseaux de neurones est précieuse, mais le facteur décisif dans leur capacité à traiter les informations et à générer des images est la vitesse de calcul. Les réseaux de neurones se sont réveillés de « l’hiver de l’IA » du début des années 2000 lorsqu’ils ont été entraînés sur des GPU conçus pour les jeux.

« Les graphismes et l’IA partagent une propriété importante. Plus il y a de calcul [computing power] meilleurs sont les résultats », déclare Bryan Catanzaro, vice-président de la recherche appliquée sur l’apprentissage profond chez Nvidia. Parce que la dernière technologie de Nvidia est désormais des milliers (et selon certaines mesures, des millions) de fois plus puissante que ses GPU d’origine, elle a rendu l’IA incroyablement fluide.

Il existe une différence utile entre les jeux et l’IA, du point de vue de Nvidia. Même le joueur le plus obsessionnel a une limite au prix qu’il paiera pour une nouvelle carte graphique, mais les entreprises qui ont besoin de superordinateurs pour battre OpenAI paieront des centaines de milliers de dollars. Nvidia occupe une position de négociation très lucrative, même si elle ne durera pas éternellement.

Les technologies derrière les jeux et l’IA pourraient à nouveau converger. Si les humains doivent interagir constamment avec des agents d’IA, ce qui sera bientôt probable, nous devons trouver des moyens d’établir des relations avec eux au-delà de la simple saisie d’invites dans des cases. Ceux-ci devront être interactifs de manière plus fluide et pourraient ressembler à des jeux et des mondes virtuels.

Le jeu n’a jamais été une activité technologique triviale et l’essor de Nvidia en est la preuve. IBM a construit son supercalculateur Deep Blue pour battre Garry Kasparov aux échecs en 1997, et Nvidia a fabriqué des GPU pour les jeux. Il s’agissait des applications les plus exigeantes de leur époque, mais elles ont cédé la place à d’autres. Ne confondez pas jouer à des jeux et perdre du temps.

[email protected]



ttn-fr-56