Débloquez gratuitement l’Editor’s Digest

Les rivaux de Nvidia, qui domine le marché des puces d’IA, espèrent depuis longtemps qu’un point d’inflexion les aiderait à rattraper le terrain perdu.

Ce point est peut-être à portée de main. Jusqu’à présent, cependant, rien ne laisse penser que Nvidia va céder sa place – même si la question de savoir si le marché de l’IA évoluera d’une manière qui finira par éroder sa domination reste ouverte.

La question clé se pose à savoir quand l’accent principal de l’IA passe de la formation des grands modèles « de base » qui sous-tendent les systèmes d’IA modernes à la mise en œuvre généralisée de ces modèles dans les applications utilisées par un grand nombre de consommateurs et d’entreprises.

Grâce à leur capacité à gérer plusieurs calculs en parallèle, les puissants processeurs graphiques (GPU) de Nvidia ont conservé leur suprématie dans le domaine de la formation de l’IA, qui nécessite beaucoup de données. En revanche, l’exécution de requêtes sur ces modèles d’IA (appelée inférence) est une activité moins exigeante qui pourrait ouvrir la voie aux fabricants de puces moins puissantes (et moins chères).

Ceux qui s’attendaient à un changement rapide auront été déçus. L’avance de Nvidia sur ce nouveau marché semble déjà formidable. Lors de l’annonce de ses derniers résultats jeudi, la société a déclaré que plus de 40 % de ses ventes de centres de données au cours des 12 derniers mois étaient déjà liées à l’inférence, ce qui représente plus de 33 milliards de dollars de revenus. Cela représente plus de deux fois et demie le chiffre d’affaires total de la division centres de données d’Intel sur la même période.

Mais l’évolution future du marché de l’inférence est incertaine. Deux questions détermineront l’issue de la crise : le secteur de l’IA continuera-t-il d’être dominé par une course à la création de modèles d’IA toujours plus grands, et où se déroulera la majeure partie de l’inférence ?

La réussite de Nvidia est étroitement liée à la course à l’échelle. Le directeur général Jensen Huang a déclaré cette semaine qu’il fallait « 10, 20, 40 fois plus de puissance de calcul » pour former chaque nouvelle génération de grands modèles d’IA, ce qui garantit une demande énorme pour les prochaines puces Blackwell de Nvidia. Ces nouveaux processeurs fourniront également le moyen le plus efficace d’effectuer des inférences sur ces « modèles à plusieurs milliards de paramètres », a-t-il ajouté.

Il n’est toutefois pas certain que les modèles toujours plus grands continueront à dominer le marché ou qu’ils finiront par atteindre un point de rendement décroissant. Dans le même temps, des modèles plus petits qui promettent bon nombre des mêmes avantages, ainsi que des modèles moins performants conçus pour des tâches plus restreintes, sont déjà en vogue. Meta, par exemple, a récemment affirmé que son nouveau Llama 3.1 pourrait égaler les performances des modèles avancés tels que le GPT-4 d’OpenAI, bien qu’il soit beaucoup plus petit.

L’amélioration des techniques de formation, qui reposent souvent sur des volumes plus importants de données de haute qualité, a été bénéfique. Une fois formés, les plus grands modèles peuvent également être « distillés » en versions plus petites. Ces développements promettent d’apporter une plus grande partie du travail d’inférence de l’IA à des centres de données plus petits, ou « périphériques », ainsi qu’aux smartphones et aux PC. « Les charges de travail de l’IA se rapprocheront de l’endroit où se trouvent les données ou de l’endroit où se trouvent les utilisateurs », explique Arun Chandrasekaran, analyste chez Gartner.

Le nombre de concurrents qui s’intéressent à ce marché naissant s’est rapidement accru. Qualcomm, par exemple, a été le premier à produire des puces capables d’alimenter une nouvelle classe de PC compatibles avec l’IA, en s’appuyant sur une conception élaborée par Microsoft. Ce développement constitue un défi direct pour Intel, leader de longue date dans le domaine des puces pour PC.

Le marché des centres de données, quant à lui, a attiré un large éventail de concurrents potentiels, des start-ups comme Cerebras et Groq aux géants de la technologie comme Meta et Amazon, qui ont développé leurs propres puces d’inférence.

Il est inévitable que Nvidia perde des parts de marché à mesure que l’inférence de l’IA se déplace vers des appareils où elle n’est pas encore présente et vers les centres de données des entreprises de cloud qui privilégient les conceptions de puces internes. Mais pour défendre son territoire, l’entreprise s’appuie fortement sur la stratégie logicielle qui a longtemps fait office de fossé autour de son matériel, avec des outils qui facilitent l’utilisation de ses puces par les développeurs.

Cette fois, l’entreprise travaille sur une gamme plus large de logiciels d’entreprise pour aider les entreprises à créer des applications qui exploitent au mieux l’IA, ce qui garantirait également la demande pour ses puces. Nvidia a révélé cette semaine qu’elle s’attendait à ce que ses revenus provenant de ces logiciels atteignent un taux annuel de 2 milliards de dollars d’ici la fin de cette année. Ce chiffre est faible pour une entreprise qui devrait générer un chiffre d’affaires total de plus de 100 milliards de dollars, mais il indique l’adoption croissante de technologies qui devraient accroître la « résistance » des produits. Le marché des puces d’IA entre peut-être dans une nouvelle phase, mais l’emprise de Nvidia ne montre aucun signe de relâchement.

[email protected]



ttn-fr-56