Débloquez gratuitement Editor’s Digest
Roula Khalaf, rédactrice en chef du FT, sélectionne ses histoires préférées dans cette newsletter hebdomadaire.
Au cours de son histoire incroyablement brève, OpenAI est devenue célèbre pour deux choses : une ambition technologique astronomique et une gouvernance d’entreprise comique. Ce n’est pas une combinaison heureuse.
Le limogeage brutal par le conseil d’administration de Sam Altman, directeur général d’OpenAI, vendredi, a stupéfié la Silicon Valley comme peu d’autres événements au cours des dernières décennies. L’affiche de la révolution de l’intelligence artificielle générative, qui a tant fait pour populariser le chatbot ChatGPT d’OpenAI en tant que service grand public, a été éjecté par quatre autres membres du conseil de surveillance lors d’un appel vidéo. Plusieurs autres personnalités d’OpenAI, dont son président, Greg Brockman, l’ont rapidement suivi.
Une grande partie de l’histoire – et de la manière exacte dont elle se terminera – reste mystérieuse. Le conseil d’administration avait peut-être de bonnes raisons de licencier Altman pour avoir été moins que « toujours franc » avec ses collègues administrateurs. L’effort parallèle d’Altman pour soutenir le lancement d’une entreprise de puces IA a certainement soulevé des inquiétudes flagrantes quant à d’éventuels conflits d’intérêts. Mais le conseil d’administration lui-même n’a pas été très franc dans ses explications aux employés, aux investisseurs et à Microsoft d’OpenAI, qui a fortement soutenu la start-up. Plus de 500 des 770 employés d’OpenAI ont signé lundi une lettre ouverte appelant au retour d’Altman et à la démission du conseil d’administration, remettant en question l’avenir de l’entreprise. Il a certainement réduit à néant ses chances de lever de l’argent frais à un niveau comparable à la valorisation de 86 milliards de dollars récemment vantée.
Mais l’affaire soulève des questions plus larges sur la manière dont les entreprises d’IA sont gouvernées. Si, comme le claironnent ses évangélistes, l’IA est si transformatrice, ses champions et gardiens doivent faire preuve d’une intégrité, d’une transparence et d’une compétence exemplaires.
Certes, OpenAI a toujours été une étrange création d’entreprise. La société de recherche a été fondée en 2015 en tant qu’organisation à but non lucratif dédiée au développement de l’IA en toute sécurité pour le bénéfice de l’humanité. Mais les coûts liés au développement de modèles de pointe sont si élevés qu’il est difficile pour une entreprise non commerciale de rester longtemps dans ce jeu. Ainsi, tout en conservant un conseil de surveillance à but non lucratif, OpenAI a développé une branche commerciale à but lucratif, permettant à l’entreprise d’attirer des investissements extérieurs et de commercialiser ses services.
Cette structure hybride a créé des tensions entre les deux « tribus » d’OpenAI, comme les appelait Altman. La tribu de la sécurité, dirigée par le scientifique en chef et membre du conseil d’administration Ilya Sutskever, a fait valoir qu’OpenAI devait s’en tenir à son objectif fondateur et ne déployer l’IA qu’avec précaution. La tribu commerciale semblait éblouie par les possibilités offertes par le succès de ChatGPT et souhaitait accélérer. La tribu de la sécurité semble avoir gagné ce week-end, mais peut-être pas pour longtemps. La réaction des employés pourrait encore apporter d’autres rebondissements.
Qu’est-ce que tout cela signifie pour Microsoft ? Son investissement de 13 milliards de dollars dans OpenAI a clairement été compromis – même si une grande partie de cet engagement a pris la forme de ressources informatiques, non encore utilisées. Pourtant, Microsoft semblait avoir triomphé lundi en embauchant Altman et plusieurs chercheurs de premier plan d’OpenAI. Comme Ben Thompson, auteur du bulletin d’information Stratechery, a noté : Microsoft pourrait en effet « avoir acquis OpenAI pour 0 $ et aucun risque de poursuite antitrust ».
Les étrangers déconcertés doivent espérer que les instituts de sécurité de l’IA promis par les gouvernements britannique et américain pour examiner les modèles pionniers des principales entreprises seront bientôt opérationnels. La débâcle d’OpenAI a également amplifié les appels de ceux qui soutiennent que l’intelligence artificielle générale ne devrait être recherchée que par les scientifiques d’un institut de recherche international non commercial semblable au Cern. Si ceux qui développent des technologies aussi puissantes ne peuvent pas se gouverner eux-mêmes, alors ils doivent s’attendre à être gouvernés.