AMD lance un nouveau rival à la puce AI de Nvidia


Débloquez gratuitement Editor’s Digest

Le concepteur de puces AMD a lancé la vente d’une nouvelle puce qui, espère-t-il, brisera la domination de Nvidia sur le marché des processeurs d’intelligence artificielle, qui, selon lui, vaudra 400 milliards de dollars d’ici 2027.

La puce MI300X d’AMD était « l’accélérateur d’IA le plus avancé du secteur », a déclaré la directrice générale Lisa Su lors d’un événement à San Jose, en Californie, affirmant qu’elle surpassait l’offre actuelle de Nvidia.

Jusqu’à récemment, AMD prévoyait que le marché des puces IA atteindrait 150 milliards de dollars d’ici 2027. Mais « il est vraiment clair que la demande augmente beaucoup, beaucoup plus rapidement », a déclaré Su mercredi.

La puce H100 de Nvidia – que Su a utilisée comme point de comparaison pour le MI300X tout au long de sa présentation – a jusqu’à présent dominé le marché, la demande dépassant l’offre, car des entreprises comme Amazon, Meta, Microsoft et Google les utilisent pour développer des outils d’IA générative. Cela a été une aubaine pour Nvidia, dont les revenus trimestriels ont triplé d’une année sur l’autre au cours du dernier trimestre.

AMD s’attend à ce que ses puces MI300 soient son produit le plus rapide à atteindre 1 milliard de dollars de ventes, un objectif qu’il pense atteindre vers la mi-2024. Une variante du MI300X, le MI300A, sera spécifiquement destinée au calcul intensif.

Lorsqu’AMD a initialement annoncé sa nouvelle puce en juin, les analystes étaient pessimistes quant à ses chances de rattraper Nvidia dans la génération actuelle de puces IA. Nvidia prévoit déjà de lancer l’année prochaine une nouvelle puce H200 qui, selon elle, « changera la donne ».

Su d’AMD a invité sur scène Kevin Scott, directeur de la technologie de Microsoft, et Ajit Mathews, directeur principal de l’ingénierie de Meta AI, pour expliquer comment ils intégraient le MI300 dans leurs charges de travail d’IA.

Un groupe envisageant d’utiliser les puces d’AMD est OpenAI – la start-up d’IA générative dont le produit ChatGPT a suscité un énorme intérêt pour la technologie – qui intégrera les nouvelles puces d’AMD dans la dernière version de son logiciel Triton AI.

« OpenAI travaille avec et soutient un écosystème ouvert », a déclaré Philippe Tillet, ingénieur OpenAI, dans un communiqué. « Nous prévoyons de prendre en charge les GPU AMD, notamment le MI300 » dans la dernière version de Triton.

Dans un autre exemple des efforts d’AMD pour affronter Nvidia, la société a également lancé sa plate-forme logicielle ROCm 6, qui concurrencera la plate-forme propriétaire de Nvidia, Cuda. « Les logiciels sont en fait ce qui stimule l’adoption », a déclaré Su.

S’adressant aux journalistes après son discours, Su a déclaré que le marché prévu de 400 milliards de dollars pour les processeurs d’IA en 2027 laissait beaucoup d’espace à AMD. « Nous pensons que nous pourrions en obtenir une belle part », a-t-elle déclaré. Cette estimation inclut la Chine, qui est confrontée à une répression du gouvernement américain contre les exportations de puces d’IA avancées.

Su a déclaré qu’AMD « passe beaucoup de temps avec le [Biden] administration »et le département américain du commerce. « Nous comprenons que pour les puces les plus avancées, [export restrictions] sont importants pour nous – du point de vue de la sécurité nationale.

Ce qui est important, dit-elle, c’est de « trouver un équilibre ».

« En termes de spécifications brutes, le MI300X domine le H100 », ont écrit mercredi Dylan Patel et Daniel Nishball de la société de conseil en semi-conducteurs SemiAnalysis après l’annonce. L’annonce d’OpenAI en particulier était « une grosse affaire », ont-ils déclaré, car OpenAI et Microsoft utiliseraient désormais des puces AMD pour travailler sur l’inférence de l’IA.

Nvidia n’a pas immédiatement répondu à une demande de commentaire.



ttn-fr-56