Après le scandale autour de Sam Altman : les bénéfices de l’IA chez OpenAI sont-ils compatibles avec les principes éthiques ?


Le chaos de la direction chez OpenAI, développeur de ChatGPT, semble s’être apaisé pour le moment, mais de nombreux points restent flous. Surtout, la startup doit désormais se poser la question de savoir si sa mission éthique est réellement compatible avec la structure de l’entreprise.

• La mission d’OpenAI se concentre sur les intérêts de toute l’humanité
• Le PDG Sam Altman est probablement plus axé sur le profit
• La structure de l’entreprise conduit inévitablement à des tensions

La startup d’IA OpenAI a connu une période mouvementée après que le patron et co-fondateur Sam Altman ait été étonnamment expulsé par le conseil d’administration, puis ramené quelques jours plus tard. Au lieu d’Altman, la plupart des membres du conseil d’administration de l’époque ne font plus partie d’OpenAI. Cependant, on ne sait toujours pas exactement ce qui a poussé le conseil d’administration à décider de licencier le patron d’OpenAI. Le blog de la startup indiquait qu’Altman n’était « pas toujours ouvert dans sa communication avec le conseil d’administration ». [gewesen] », ce qui a altéré sa capacité à assumer ses responsabilités ». En conséquence, ils ont perdu confiance dans la capacité d’Altman à continuer à diriger OpenAI. On ne sait pas exactement où la communication n’était pas assez ouverte. Cependant, selon « The Information », il y a toujours être une enquête formelle sur les choses qui ont conduit à l’expulsion d’Altman.

Comme l’écrit Ann Skeet, directrice principale de l’éthique du leadership au Markkula Center for Applied Ethics, dans un article invité pour Fortune, il y a eu des tensions tout au long de l’année écoulée au sein du conseil d’administration d’OpenAI, qui comprenait Sam Altman avant le chaos du leadership. Cela pourrait peut-être provenir du fait que Sam Altman, en tant que PDG d’OpenAI, a donné la priorité aux intérêts de la startup, tandis que le conseil d’administration s’est engagé dans la mission éthique de l’entreprise. Ce contraste aurait pu finalement conduire à la rupture.

La mission d’OpenAI : l’IA pour le bien de l’humanité

OpenAI se décrit sur le site Web de l’entreprise comme une « société de recherche et de fourniture d’IA » dont la « mission » est de « garantir que l’intelligence artificielle générale profite à l’ensemble de l’humanité ». Selon OpenAI, le terme intelligence générale artificielle (AGI) fait référence à « des systèmes d’IA qui sont généralement plus intelligents que les humains ». La startup déclare également vouloir construire « une AGI sûre et utile ». Avec la mission formulée, cela suggère que la startup privilégie l’éthique au profit. Mais la structure de l’entreprise est plutôt complexe et n’est pas totalement exempte d’une orientation vers le profit.

Selon l’entreprise, OpenAI a été fondée en 2015 en tant qu’organisation à but non lucratif. Cependant, en 2019, une restructuration a suivi pour garantir que l’entreprise puisse également lever les capitaux nécessaires pour remplir sa mission. Dans le même temps, la mission, le leadership et la supervision de l’organisation à but non lucratif doivent être maintenus. Cela a conduit à la création d’OpenAI LP, un « mélange d’une entreprise à but lucratif et d’une entreprise à but non lucratif que nous appelons une entreprise à « profit plafonné » », selon la startup. Cependant, l’organisation d’origine « OpenAI Nonprofit » continue de soutenir ce projet. En combinant une entreprise à but lucratif et une entreprise à but non lucratif, les bailleurs de fonds peuvent recevoir un certain retour maximum sur leur investissement dans OpenAI LP, mais tous les retours au-delà vont à l’organisation à but non lucratif OpenAI. L’entreprise à but lucratif plafonné est contrôlée par le conseil d’administration, qui est censé penser et agir de manière charitable et veiller à ce qu’OpenAI adhère à sa mission et respecte sa charte. D’où la « majorité du conseil d’administration […] indépendants et les administrateurs indépendants […] pas impliqué dans OpenAI », comme indiqué sur le site Web d’OpenAI.

Contradictions entre statut de profit partiel et statut d’organisation à but non lucratif

Selon l’article invité d’Ann Skeet dans Fortune, le conseil d’administration d’OpenAI s’est vu délibérément donner pour objectif et le pouvoir d’exclure les motivations de profit de l’équation. En outre, selon « The Algorithmic Bridge », il devrait également veiller à ce que la sécurité et l’alignement de l’IA restent la priorité absolue dans la hiérarchie des valeurs de l’entreprise – et a même promis de détruire OpenAI si cela devenait nécessaire pour des raisons de sécurité. Ainsi, alors que le conseil d’administration d’OpenAI vise à faire passer l’humanité avant le profit, OpenAI est également dirigé par Sam Altman, qui, selon Data Ethics, est « extrêmement axé sur le profit ».

Il est évident que ces deux aspects sont difficiles à concilier et que des tensions sont presque inévitables – et c’était apparemment aussi le cas avant le récent scandale. « Des sources me disent que l’orientation vers le profit de l’entreprise sous Altman et la vitesse de développement, qui pourrait être considérée comme trop risquée, et le côté à but non lucratif, qui prônait plus de sécurité et de prudence, étaient en contradiction », a écrit la journaliste technique Kara Swisher. le licenciement d’Altman sur le service de messages courts X, anciennement Twitter. Cependant, selon Swisher, les avis divergent quant à savoir si l’expulsion d’Altman était un coup d’État ou si c’était la bonne décision.

Profit contre éthique : lequel sort victorieux du chaos ?

En général, il y aura probablement des désaccords sur la question de savoir si les profits ou l’éthique ont ou devraient avoir une priorité plus élevée chez OpenAI. Car comme le souligne un article de « Quora », les points censés prouver la priorisation de l’éthique sont toujours critiqués. Selon le post « Quora », OpenAI a publié plusieurs lignes directrices et principes pour le développement éthique de l’IA, qui traitent, entre autres, de sécurité, d’équité et de transparence. Cependant, pour les critiques, celles-ci sont trop vagues et trop ouvertes à des interprétations différentes. Les mesures de sécurité mises en place par l’entreprise pour prévenir les abus, les préjugés et la discrimination sont également souvent considérées comme insuffisantes. En outre, les partenariats qu’OpenAI a établis avec des organisations telles que des universités ou des instituts de recherche qui s’engagent à promouvoir le développement éthique de l’IA ont également été critiqués. Selon l’article sur Quora, ces mesures ne suffisent pas à garantir que les technologies d’OpenAI soient réellement utilisées de manière responsable.

Le fait qu’Altman soit désormais de retour à la tête d’OpenAI, alors que le conseil d’administration est presque entièrement reconstruit, pourrait désormais indiquer que le côté lucratif de l’entreprise d’IA a vraiment pris le dessus. En fait, la décision prise en 2019 de commercialiser sa propre technologie via OpenAI LP pourrait être une indication que la startup pourrait être plus intéressée par gagner de l’argent que par le développement éthique de l’IA. Cependant, le développement de l’IA coûte évidemment aussi de l’argent – ​​à tel point que les sommes nécessaires ne peuvent probablement pas être réunies de manière réaliste avec les seuls dons. La question de savoir si OpenAI abandonnera complètement son côté à but non lucratif sous Altman et le nouveau conseil d’administration à l’avenir ou continuera à essayer d’atteindre l’équilibre difficile entre profit et éthique deviendra probablement claire dans les semaines et les mois à venir.

Equipe éditoriale finanzen.net





ttn-fr-28