« OpenAI n’est rien sans ses collaborateurs. » C’est la phrase reprise par des dizaines d’employés sur les réseaux sociaux en novembre pour faire pression sur le conseil d’administration qui avait limogé le directeur général Sam Altman et les convaincre de le réintégrer.
Ces mots ont été répétés à nouveau mercredi alors que sa directrice de la technologie de haut niveau, Mira Murati, a annoncé son départ, ainsi que deux autres : Bob McGrew, directeur de la recherche, et Barret Zoph, vice-président de la recherche.
La décision de Murati a choqué le personnel et a indiqué une nouvelle direction pour l’entreprise de neuf ans, qui est passée d’une organisation de recherche en IA décousue à un géant commercial. Altman n’a été informé que dans la matinée, quelques heures seulement avant que Murati n’envoie un message à l’ensemble de l’entreprise.
Altman a déclaré sur X qu’il « ne prétendra pas que c’est naturel pour ça. . . être si brusque », car les départs ont montré que l’entreprise n’avait pas guéri des fractures causées par le coup d’État manqué de l’automne.
Dans les mois qui ont suivi la bataille meurtrière du conseil d’administration, Altman s’est entouré d’alliés alors que la start-up à croissance rapide poursuit son projet de restructuration en tant qu’entreprise à but lucratif.
Il est également apparu cette semaine qu’Altman avait discuté d’une prise de participation au capital avec le conseil d’administration, à un moment où la société basée à San Francisco cherchait à lever plus de 6 milliards de dollars pour une valorisation de 150 milliards de dollars.
Ces pourparlers interviennent après qu’Altman, qui est déjà milliardaire grâce à ses précédentes entreprises et investissements technologiques, avait précédemment déclaré qu’il avait choisi de ne prendre aucune participation dans OpenAI pour rester neutre dans l’entreprise.
Ce récit de la façon dont Altman a consolidé son pouvoir et sa loyauté auprès du créateur de ChatGPT est basé sur des conversations avec sept employés anciens et actuels, ainsi que des conseillers et des dirigeants proches de la direction de l’entreprise.
Ils ont déclaré qu’OpenAI prévoyait de s’appuyer sur les talents techniques existants et les récentes recrues pour assumer les responsabilités de Murati et utiliser son départ pour « aplatir » l’organisation. Altman devrait avoir une plus grande implication technique alors que la société cherche à conserver son avance sur Google et d’autres concurrents.
Malgré ses drames, OpenAI reste un acteur majeur de l’IA, la start-up ayant dévoilé plus tôt ce mois-ci le modèle o1, qu’elle disait capable de raisonner – un exploit auquel ses rivaux Meta et Anthropic sont également aux prises.
«Mira se concentre sur une transition réussie avec ses équipes avant de consacrer toute son énergie et son attention à la suite», a déclaré une personne proche de sa réflexion.
Avec le départ de Murati, Altman a promu Mark Chen à la tête de la recherche avec Jakub Pachocki, qui a succédé à Ilya Sutskever en tant que scientifique en chef en mai.
Dans une interview accordée au Financial Times plus tôt ce mois-ci, où Murati a présenté Chen comme le principal responsable du projet o1, il a déclaré que la capacité des systèmes d’IA à raisonner « améliorerait nos offres ». [and] contribuer à améliorer l’ensemble de nos programmes ».
Il y aura probablement d’autres changements dans les prochains jours, car Altman interrompt cette semaine un voyage en Europe pour retourner au siège de l’entreprise à San Francisco.
Parmi les dirigeants qui restent chez OpenAI figurent Brad Lightcap, directeur des opérations de la société qui dirige ses transactions d’entreprise, et Jason Kwon, directeur de la stratégie, tous deux alliés de longue date d’Altman et ayant travaillé à l’incubateur de start-up Y Combinator sous Altman.
En juin, Altman a embauché Kevin Weil, directeur des produits, qui travaillait auparavant chez Twitter, Instagram et Facebook, et Sarah Friar, directrice financière, ancienne directrice générale de Nextdoor, un réseau social de quartier. Tous deux proviennent d’entreprises de technologie grand public, se concentrant sur la croissance des produits et des utilisateurs plutôt que sur la science ou l’ingénierie.
Leurs emplois sont nouveaux pour OpenAI, mais familiers à la plupart des start-ups de la Silicon Valley, marquant la décision de l’entreprise de devenir un groupe technologique plus traditionnel axé sur la création de produits attrayants pour les consommateurs et générant des revenus. OpenAI a déclaré que ces efforts ne sont pas incompatibles avec le fait de garantir que l’IA profite à tout le monde.
« Alors que nous sommes passés d’un laboratoire de recherche à une entreprise mondiale fournissant des recherches avancées sur l’IA à des centaines de millions de personnes, nous sommes restés fidèles à notre mission et sommes fiers de lancer les modèles les plus performants et les plus sûrs de l’industrie pour aider les gens à résoudre des problèmes difficiles. problèmes », a déclaré un porte-parole d’OpenAI.
Friar a cherché à remonter le moral cette semaine, en disant au personnel que le cycle de financement de 6 milliards de dollars, qui devait se clôturer la semaine prochaine, avait été sursouscrit, arguant que sa valeur élevée témoignait de leur travail acharné.
Un autre nouveau venu important est Chris Lehane, ancien assistant du président américain de l’époque, Bill Clinton et vice-président d’Airbnb, qui a travaillé pour Altman en tant que conseiller pendant le coup d’État et a rejoint l’entreprise plus tôt cette année. Il a récemment succédé à Anna Makanju, la première recrue politique d’OpenAI, en tant que vice-présidente des affaires mondiales, qui a accédé au poste nouvellement créé de vice-présidente de l’impact mondial.
Avec ces derniers départs, Altman a dit au revoir à deux des hauts dirigeants qui avaient fait part de leurs inquiétudes à son sujet au conseil d’administration en octobre dernier : Sutskever et Murati, qui ont déclaré avoir été approchées par le conseil d’administration et perplexes face à la décision de l’évincer.
Les inquiétudes incluaient le style de leadership d’Altman consistant à saper et à monter les gens les uns contre les autres, créant un environnement toxique, ont déclaré plusieurs personnes connaissant la décision de le licencier.
En une journée, alors que les investisseurs et les employés soutenaient Altman, Murati et Sutskever se joignirent aux appels en faveur de son retour et restèrent dans l’entreprise, souhaitant stabiliser le navire et le faire naviguer vers la mission : construire une intelligence artificielle générale – des systèmes qui pourraient rivaliser ou surpasser l’humain. intelligence – au profit de l’humanité.
C’est le mantra sous lequel OpenAI a été fondée en 2015 par Elon Musk, Altman et neuf autres personnes. Il s’agissait initialement d’une organisation à but non lucratif, puis est devenue une entité à but lucratif plafonné en 2019.
Aujourd’hui, alors qu’elle cherche à clôturer son dernier cycle de financement de plusieurs milliards de dollars, la société repense sa structure d’entreprise afin d’attirer les investisseurs et de générer de meilleurs rendements. Seuls deux cofondateurs, Altman et Wojciech Zaremba, restent dans l’entreprise. Le président Greg Brockman est en congé sabbatique jusqu’à la fin de l’année.
De nombreux membres du personnel d’OpenAI souhaitent travailler sur l’AGI et atteindre cet objectif avant des concurrents tels que Meta ou xAI de Musk. Ils adhèrent au soi-disant culte de Sam et croient qu’il les mènera à cette percée. Pourtant, plusieurs membres du personnel ont exprimé leur inquiétude quant à la réalisation de cet objectif, suggérant que la création de produits soit prioritaire sur la sécurité.
Daniel Kokotajlo, ancien chercheur en gouvernance de l’IA, a déclaré que lorsqu’il a quitté l’entreprise en mars, l’OpenAI le plus proche d’un plan sur la manière de garantir la sécurité de l’AGI était l’annexe finale sur un journal de décembre écrit par Jan Leike, chercheur en sécurité, aux côtés de Sutskever.
« On pourrait s’attendre à ce qu’une entreprise de plus de 1 000 personnes qui construisent ce projet ait un plan écrit complet sur la façon de garantir la sécurité de l’AGI, qui serait publié afin qu’il puisse être critiqué et réitéré », a-t-il déclaré. « OpenAI sait que de tels détails ne résisteraient pas à un examen minutieux, mais c’est le strict minimum acceptable pour une institution qui construit la technologie la plus puissante et la plus dangereuse jamais créée. »
OpenAI a cité son cadre de préparation comme exemple de sa transparence et de sa planification, ajoutant que la technologie pourrait également apporter de nombreux points positifs.
« OpenAI continue d’investir de manière significative dans la recherche sur la sûreté, les mesures de sécurité et les collaborations avec des tiers, et nous continuerons à superviser et à évaluer leurs efforts », ont déclaré Zico Kolter et Paul Nakasone, membres du comité de surveillance de la sûreté et de la sécurité du conseil indépendant.