Débloquez gratuitement Editor’s Digest
Roula Khalaf, rédactrice en chef du FT, sélectionne ses histoires préférées dans cette newsletter hebdomadaire.
Microsoft a réussi à prendre une longueur d’avance sur le reste de l’industrie technologique dans le domaine en plein essor de l’intelligence artificielle générative grâce à son alliance étroite avec OpenAI.
Mais à en juger par le nombre d’annonces faites cette semaine lors de la vitrine technologique annuelle d’Amazon Web Service à Las Vegas, l’écart en matière d’IA dans le monde du cloud computing s’est réduit. Le plus grand rival du cloud de Microsoft a désormais intégré profondément l’IA générative dans sa plate-forme informatique et a intégré cette technologie dans nombre de ses services, selon les analystes.
Comme Microsoft et d’autres, AWS s’engage plus profondément dans une nouvelle ère d’automatisation basée sur l’IA. La question est maintenant de savoir si les clients sont prêts à confier à l’IA générative certaines de leurs fonctions les plus critiques, ou à investir beaucoup d’argent dans cette technologie.
Amazon a déclaré lors de sa dernière conférence téléphonique sur les résultats que l’IA était déjà une activité « multimilliardaire » et en croissance de plus de 100 %. Selon Matt Garman, directeur général d’AWS, l’IA est en passe de devenir une fonction essentielle dans chaque application d’entreprise, alimentant potentiellement une nouvelle vague de demande pour l’infrastructure informatique de base de l’entreprise.
“Il va avoir besoin de calcul, de stockage, de bases de données et d’inférence comme élément clé de cette application”, a-t-il déclaré dans une interview au Financial Times.
Pourtant, Garman a reconnu qu’au cours des deux années écoulées depuis le lancement de ChatGPT, le regain d’intérêt pour l’IA générative n’a pas encore conduit à une utilisation sérieuse de la technologie dans les entreprises. « De nombreux clients ont fait beaucoup d’expérimentations », a-t-il déclaré. La plupart tentent désormais d’identifier les quelques utilisations de l’IA qui pourraient justifier des investissements plus importants.
Les annonces faites par AWS lors de sa conférence re:Invent à Las Vegas mardi incluaient une troisième génération de ses processeurs Trainium, utilisés dans la formation de grands modèles de langage. Apple a déclaré avoir utilisé des puces AWS pour exécuter certains de ses services et avoir obtenu d’excellents résultats en testant Trainium pour former ses modèles d’IA internes.
Comme d’autres sociétés cloud, AWS dépend toujours fortement des unités de traitement générales de Nvidia. Mais les derniers développements montrent qu’il est désormais à égalité avec Google, qui entraîne ses modèles Gemini sur les puces internes qu’il utilise depuis près d’une décennie, a déclaré Patrick Moorhead, analyste principal chez Moor Insights & Strategy. Avec ses autres puces, notamment celles destinées à l’exécution et à la formation de modèles d’IA, Amazon dispose désormais de « la plus large gamme de silicium produit en interne » parmi toutes les grandes sociétés de cloud computing, a-t-il ajouté.
Selon les analystes, AWS a également réduit l’écart avec Microsoft et OpenAI en ce qui concerne les modèles qui servent de base à ses services d’IA. Garman a déclaré qu’AWS avait discuté avec OpenAI de la possibilité de proposer ses modèles à ses propres clients cloud. Bien que l’alliance exclusive d’OpenAI avec Microsoft fasse obstacle, il a déclaré qu’il pensait que les deux trouveraient un moyen de travailler ensemble à long terme.
Même le PDG de Microsoft, Satya Nadella, ne parle plus de l’hébergement d’OpenAI comme d’une arme concurrentielle cruciale. Au lieu de cela, il a récemment affirmé que les LLM devenaient un produit de base et que la majeure partie de la valeur proviendrait des outils et services supérieurs, suggérant que la concurrence avec ses principaux concurrents du cloud, AWS et Google, passait à un autre niveau.
Pendant ce temps, lors de l’événement à Las Vegas, AWS a démontré comment il a intégré davantage l’IA dans ses propres technologies et services, dans le but d’inciter les clients à intégrer davantage de leurs applications et services dans son cloud.
« Le plus grand défi d’AWS réside dans sa complexité et le nombre de services qu’il fournit », a déclaré Steven Dickens, analyste principal chez HyperFRAME Research. L’ajout de l’IA pour simplifier les choses a conduit à « 200 petites réalisations », a-t-il ajouté. “Rien de tout cela n’est très sexy, mais c’est absolument vital au quotidien.”
Signe de la façon dont l’IA pourrait modifier l’équilibre concurrentiel entre les sociétés de cloud computing, AWS tente d’utiliser la technologie pour éloigner les clients de Microsoft. Il a dévoilé de nouveaux outils basés sur l’IA pour automatiser la tâche laborieuse et longue de réécriture des applications qui s’exécutent sur le système d’exploitation Windows de Microsoft afin qu’elles puissent s’exécuter dans le cloud AWS.
Le ciblage direct par AWS des clients Windows fait suite à une nouvelle, rapportée pour la première fois dans le FT, selon laquelle la Commission fédérale du commerce des États-Unis a lancé une enquête pour savoir si Microsoft a utilisé des restrictions de licence pour empêcher les clients de passer à des fournisseurs de cloud concurrents.
Faisant écho aux plaintes d’autres acteurs du secteur, Garman a déclaré que Microsoft avait proposé à ses clients des conditions préférentielles s’ils conservaient leurs applications dans son propre cloud plutôt que de choisir l’un de ses grands rivaux, et a affirmé avoir fait de « fausses concessions » pour éviter une enquête de l’UE. sur la question l’année dernière. Mais il a également affirmé que les actions de Microsoft risquaient de se retourner contre eux : « D’une certaine manière, c’est un vent favorable pour nous, car cela ne nous permet pas de gagner la confiance. »
Dans sa dernière tentative visant à approfondir l’IA générative dans la vie des entreprises, AWS a également annoncé de nouveaux outils pour organiser et coordonner des groupes d’agents d’IA afin qu’ils puissent exécuter des fonctions plus complexes. De nombreuses tâches que les entreprises souhaitent automatiser impliquent plusieurs étapes, ce qui signifie qu’elles nécessitent un certain nombre d’agents spécialisés, a déclaré Vasi Philomin, vice-président de l’IA générative chez AWS.
Pourtant, même Garman admet que la plupart des clients commençaient tout juste à réfléchir à la manière dont de tels outils d’IA pourraient être intégrés dans leurs processus, ou à la manière de gérer les risques.
« Nous n’en sommes encore qu’au début de la direction que prendront beaucoup de ces choses », a-t-il déclaré. « Les utilisateurs doivent décider quand les agents peuvent être totalement autonomes, quand les agents ont encore besoin d’humains dans la boucle, quand les agents ont besoin de garde-fous autour d’eux.