Elon Musk pourrait encore demander des comptes à OpenAI – contrairement à son conseil d’administration


Restez informé avec des mises à jour gratuites

Le plaignant est en conflit. Les arguments juridiques semblent ténus. Et, par endroits, le procès de 35 pages qu’Elon Musk a déposé la semaine dernière auprès de la Cour supérieure de Californie contre OpenAI se lit comme un mélange entre le scénario d’un film de science-fiction et une lettre d’un amant abandonné. Mais l’affirmation de Musk selon laquelle OpenAI a violé sa charte fondatrice et met l’humanité en danger en privilégiant le profit plutôt que la sécurité pourrait encore se transformer en la mesure la plus importante jamais prise pour examiner les tentatives de l’entreprise de développer l’intelligence artificielle générale.

Depuis le lancement de son chatbot ChatGPT, avec un grand étonnement en novembre 2022, OpenAI est devenue la start-up la plus en vogue au monde avec plus de 100 millions d’utilisateurs hebdomadaires. Le FT a rapporté le mois dernier qu’OpenAI avait dépassé les 2 milliards de dollars de revenus sur une base annualisée et avait atteint une valorisation sur le marché privé de plus de 80 milliards de dollars. La société a attiré 13 milliards de dollars d’investissements de Microsoft tandis que d’autres investisseurs, dont le fonds géant Temasek de Singapour, réclament de se joindre à nous.

Pourtant, OpenAI a commencé comme une entreprise beaucoup moins racée en 2015. Comme l’explique le procès de Musk, OpenAI a été fondée en tant que laboratoire de recherche à but non lucratif avec pour mission de développer l’AGI – une forme généralisable d’IA qui dépasse les capacités humaines dans la plupart des domaines – pour le bien public. Alarmé par la domination de Google dans le domaine de l’IA et par les possibles risques existentiels de l’AGI, Musk s’est associé à Sam Altman, alors président de Y Combinator, pour créer un autre type d’organisation de recherche, « libre de toute obligation financière ». « Notre principal devoir fiduciaire est envers l’humanité », a déclaré la société. À cette fin, il a promis de partager ses conceptions, ses modèles et son code.

Musk a fourni une grande partie du financement initial d’OpenAI, contribuant à plus de 44 millions de dollars entre 2016 et 2020, selon le procès. Mais l’entité à but non lucratif a eu du mal à rivaliser pour attirer les talents avec Google DeepMind, qui avait également l’intention de poursuivre l’AGI. L’extraordinaire puissance de calcul nécessaire au développement de modèles d’IA générative de pointe a également entraîné OpenAI dans le vortex du fournisseur de cloud computing Microsoft.

Cette intense pression commerciale a conduit OpenAI à créer une entité à but lucratif, puis à mettre le feu à « l’accord fondateur » en 2023, selon le procès, en acceptant l’investissement massif de Microsoft. OpenAI a été transformé en « un logiciel à source fermée de facto filiale de la plus grande entreprise technologique au monde ». Son modèle phare GPT-4 a également été intégré aux services de Microsoft, servant principalement les intérêts commerciaux exclusifs du géant. La tentative ratée du conseil d’administration d’OpenAI de remplacer Altman au poste de directeur général l’année dernière reflétait au moins en partie les tensions entre l’objectif fondateur de l’entreprise et sa nouvelle intention de gagner de l’argent.

Naturellement, OpenAI conteste la version des événements de Musk et a décidé de rejeter ses réclamations juridiques. Dans un article de blog, il a fait valoir que Musk avait soutenu la décision d’OpenAI de créer une entité commerciale à but lucratif et avait même voulu intégrer l’entreprise dans son entreprise automobile Tesla. Musk a depuis lancé sa propre société d’IA, xAI, pour concurrencer OpenAI et a tenté de débaucher certains de ses chercheurs. « Il est possible que Musk fasse simplement du techwashing et crée le chaos sur le marché », a déclaré le Centre pour la politique de l’IA.

Mais Musk a de solides arguments moraux, voire juridiques. Si OpenAI était capable de passer d’une organisation à but non lucratif protégée bénéficiant du statut d’organisme de bienfaisance à une entreprise à but lucratif, alors toutes les start-ups seraient construites de cette façon. Et, comme l’a montré le fiasco du licenciement et de la réembauche d’Altman, on ne peut pas compter sur le conseil d’administration d’OpenAI pour assurer à lui seul une surveillance solide.

Le temps nécessaire à la création de régimes de gouvernance efficaces pour les puissantes entreprises d’IA s’épuise rapidement. Cette semaine, Anthropic, dirigé par des chercheurs qui ont rompu avec OpenAI en 2021, a lancé son modèle Claude 3, qui, selon certains utilisateurs, surpasse GPT-4. «Je pense que l’AGI est déjà là», m’a dit la semaine dernière Blaise Agüera y Arcas, l’un des principaux chercheurs de Google en IA. Cette réalisation pourrait générer une grande valeur mais présenterait également des risques importants, il a soutenu dans un essai co-écrit avec Peter Norvig.

Les régulateurs étudient actuellement les implications sur la concurrence du rapprochement de Microsoft avec OpenAI. Mais les promesses de l’administration américaine de créer un institut de sécurité de l’IA pour surveiller les principales entreprises ne semblent pas aboutir rapidement. Certains pourraient considérer la dispute entre Musk et Altman comme une bataille juridique fastidieuse entre des frères technologiques milliardaires. Mais quelles que soient ses motivations, Musk rend un service public notable en imposant plus de transparence et de responsabilité au sein d’OpenAI.

[email protected]



ttn-fr-56