Maintenant que Sam Altman est de retour, la question demeure : et maintenant ?


Lorsque l’investisseur en IA Yoeri Dassen a assisté à une fête d’anniversaire à San Francisco vendredi dernier, il a vu quelque chose de frappant. Les invités qui ne voulaient pas parler de la démission du PDG d’OpenAI, Sam Altman, se sont vu attribuer une chambre séparée. «Une pièce sans IA. Pour ceux qui voulaient aussi parler d’autre chose », explique Dassen, qui vit à San Francisco. « Il n’y a aucune autre discussion à ce sujet dans les groupes WhatsApp. »

Le départ d’Altman – le visage de l’intelligence artificielle (IA) depuis le lancement du chatbot ChatGPT il y a un an – a été l’une des histoires technologiques les plus discutées de l’année écoulée. Altman a été licencié vendredi dernier, a semblé revenir samedi, est parti pour Microsoft dimanche et est revenu à OpenAI mercredi. Le conseil d’administration qui a licencié Altman a démissionné.

La semaine dernière, une dure lutte de pouvoir interne s’est déroulée en public au sein de la société d’IA la plus célèbre au monde. Une bataille qui se résumait essentiellement à un dilemme classique : vitesse contre sécurité. Sam Altman voyait la concurrence approcher et souhaitait surtout accélérer. Le conseil d’administration qui contrôlait Altman craignait les conséquences et a serré le frein à main.

OpenAI a été fondée en 2015 en tant qu’entreprise à but non lucratif dont la mission est de développer l’IA afin qu’elle profite à l’humanité. L’entreprise s’est dotée d’un conseil d’administration puissant, composé de six membres sans intérêts financiers, qui devait veiller à cette mission.

Mais après toutes ces discussions, il ne reste plus grand-chose de cette conception. Et l’entreprise d’IA la plus importante au monde présente les caractéristiques d’une start-up normale, dont la priorité est de croître le plus rapidement possible. Avec une technologie qui a le potentiel de changer radicalement notre monde et comporte d’énormes risques sociaux.

Qu’est-ce qui n’a pas fonctionné chez OpenAI ? Et à quel point est-il dangereux que même avec une technologie système hypersensible comme l’IA, les entreprises se surveillent principalement elles-mêmes ?

Des décennies de hauts et de bas

On l’oublierait presque, mais le domaine de l’intelligence artificielle existe depuis les années 1950. Une branche de la science qui connaît depuis des décennies des périodes de hauts et de bas. Les avancées scientifiques (la voiture autonome, l’ordinateur d’échecs) alternent avec les « hivers de l’IA », au cours desquels le progrès technologique atteint ses limites.

Depuis l’introduction des modèles linguistiques – des ordinateurs qui parcourent Internet et apprennent à imiter la parole humaine – l’IA est entrée dans un nouveau cycle de battage médiatique. La différence est que ce ne sont plus les universités, mais les grandes entreprises qui disposent désormais de la technologie et des infrastructures les plus avancées. Depuis que ChatGPT, le premier chatbot IA destiné à un large public, a réussi à attirer une centaine de millions d’utilisateurs par semaine, les entreprises technologiques chinoises et américaines ont investi des milliards dans cette technologie. En conséquence, le développement se produit très rapidement.

Les experts estiment qu’un modèle de langage d’IA peut être utilisé dans un avenir proche pour bien plus que simplement discuter avec un robot. L’image idéale : l’assistant numérique parfaitement informé. Celui qui réfléchit et aide pendant le travail, organise les affaires bancaires et effectue des achats en ligne, envoie des e-mails et gère votre agenda. « ChatGPT nous a donné un avant-goût d’un monde dans lequel nous pouvons exploiter une quantité illimitée d’intelligence », a déclaré Stuart Russell, scientifique en IA à l’UC Berkeley.

Le développement actuel de l’IA constitue, selon le fondateur de Microsoft, Bill Gates, la plus grande révolution technologique depuis des décennies. Tout aussi important que le microprocesseur, le PC et Internet. « Des industries entières vont se former autour de cette technologie », écrivait Gates en mars. son blog. « Les entreprises se distingueront par la façon dont elles l’utilisent. »

OpenAI est leader avec sa technologie d’IA, suivi de près par Google et la société d’IA Anthropic, également de San Francisco. « Surtout si l’on considère ce qu’OpenAI peut construire à l’avenir si ses systèmes s’améliorent de manière exponentielle », déclare Dassen, investisseur en IA. « Automatisez l’intelligence humaine et la prise de décision et vous obtenez une valeur économique sans précédent. »

La puissance de Microsoft

Depuis que l’intelligence artificielle existe, les gens mettent en garde contre ses conséquences. Le célèbre informaticien britannique Alan Turing a averti en 1951 que « les ordinateurs finiront par prendre le contrôle ». Cette peur n’a jamais complètement disparu. Au contraire.

La principale crainte n’est pas que des ordinateurs dotés d’un certain degré d’intelligence veuillent nuire à l’humanité ou développer leur propre « conscience » ; la crainte est plutôt que les gens abusent de la technologie et que l’humanité perde le contrôle de son infrastructure numérique.

OpenAI est né de cette peur en 2015. Un groupe de personnalités éminentes de la Silicon Valley espérait construire discrètement des systèmes sécurisés en développant l’IA dans un environnement à but non lucratif. L’accord au moment de sa création prévoyait qu’OpenAI serait financé par des dons d’investisseurs individuels. Leurs bénéfices futurs possibles étaient plafonnés, tout ce qui se trouvait au-dessus retournait à l’entreprise. Le fondateur Sam Altman a reçu le titre de « PDG » et une place au conseil d’administration, mais aucune action.

Le brillant informaticien russe Ilya Sutskever, qui dirigeait la division scientifique d’OpenAI, a également siégé au conseil d’administration. Sutskever est connu comme un « doomer de l’IA » très inquiet. Il craint un monde futur rempli de centres de données et de panneaux solaires, où des systèmes d’IA incontrôlés prendraient toutes les décisions à la place des humains.

Les problèmes internes ont commencé après qu’Altman ait ouvert ses portes à un investisseur majeur en 2018. Microsoft a investi 1 milliard de dollars dans OpenAI, un montant qui aurait ensuite atteint 13 milliards de dollars. Selon Altman, l’argent externe était nécessaire pour continuer à croître et pour payer l’espace serveur requis et les puces informatiques d’IA spéciales et coûteuses.

Après qu’OpenAI ait lancé ChatGPT, la pression pour se développer et garder une longueur d’avance sur la concurrence s’est accrue. Microsoft a constaté qu’il avait fait un choix en or en investissant dans OpenAI. Il a dépassé Google, qui avait dominé le domaine de la technologie de l’IA au cours des décennies précédentes, sur la gauche. La technologie derrière ChatGPT repose en grande partie sur les inventions de Google.

Ce qui s’est exactement passé entre le conseil d’administration d’OpenAI et Sam Altman est encore inconnu. Force est de constater que les tensions se sont considérablement accrues ces derniers mois. Sutskever, le catastrophiste de l’IA, était particulièrement préoccupé par le rythme de l’innovation, ont reconstitué les médias américains la semaine dernière.

Il y a quelques mois, il y aurait eu… selon l’agence de presse Reuters et site technique L’information ont constitué une « percée technologique » chez OpenAI. L’invention permettrait aux modèles de langage de résoudre également des problèmes mathématiques complexes, ce qui n’était pas possible jusqu’à présent. En partie parce qu’Altman souhaitait accélérer encore davantage le rythme de développement des produits, le conseil d’administration d’OpenAI aurait définitivement décidé de son licenciement.

Lire aussi
« Comment le Copilot de Microsoft a gagné des ailes grâce à l’OpenAI fragile »

Mais le conseil d’administration a sous-estimé la popularité de Sam Altman parmi ses plus de sept cents employés, qui soutenaient presque sans exception leur PDG – ainsi que l’influence de Microsoft, qui a réussi à s’emparer d’OpenAI malgré sa structure à but non lucratif. En échange de ses milliards, Microsoft a reçu 49 % des actions et, plus important encore, le droit à la propriété intellectuelle et au code source des systèmes OpenAI, a-t-on appris cette semaine.

Lorsqu’Altman a menacé de partir pour Microsoft – et tout son personnel a semblé l’accepter – le conseil d’administration n’a eu d’autre choix que de lui rendre son poste. Les membres démissionnaires du conseil d’administration ont simplement stipulé qu’un membre pourrait rester au conseil d’administration, où Microsoft aura également un poste. La structure à but non lucratif restera en place, mais la question est de savoir pour combien de temps.

C’est aux gouvernements

Maintenant qu’Altman a gagné la bataille, la question est : et maintenant ? Qui contrôlera OpenAI maintenant que les membres les plus critiques du conseil d’administration ont quitté le conseil d’administration ?

Selon le scientifique en IA Stuart Russell, la crise d’OpenAI montre que « même lorsque l’organisation considère les intérêts de l’humanité, ces intérêts sont éclipsés par des considérations financières », a déclaré Russell. « Seuls les gouvernements peuvent protéger les intérêts de l’humanité. »

Marietje Schaake, chercheuse à Stanford et experte en IA, considère également la crise d’OpenAI comme une confirmation que ces entreprises technologiques ne sont pas capables de s’autoréguler. « Le pouvoir du prêteur a été consolidé et le pouvoir d’une administration qui devait veiller à ce soi-disant intérêt public a été brisé », dit-elle.

L’Europe, la Chine et les États-Unis travaillent actuellement sur une législation visant à lier les sociétés d’IA à des règles. Les gouvernements craignent les systèmes d’IA qui créent de fausses nouvelles convaincantes, mènent des cyberattaques ou servent d’outil aux terroristes ou aux escrocs. La grande loi européenne sur l’IA (l’AI Act) serait présentée le 6 décembre, même si l’on peut se demander si l’UE respectera cette date. Selon Schaake, il n’y a « aucune table de réunion où ce thème ne soit pas joué actuellement », dit-elle.

Selon Schaake, il n’y a pas de temps à perdre. « Nous constatons que toutes les connaissances sur l’IA, toutes les données, les talents et la puissance de calcul sont entre les mains d’entreprises comme Open-AI », dit-elle. « Les gouvernements ne peuvent pas élaborer de bonnes politiques s’ils ne savent pas exactement comment fonctionne la technologie de ces entreprises. Il est grand temps que le gouvernement fasse preuve de transparence sur ce qui se passe à l’intérieur de la maison.»



ttn-fr-33