Mieux que ChatGPT et donc une menace pour l’humain ou une illusion ? OpenAI fonctionne avec Q sur une IA invisible

OpenAI, la société à l’origine de ChatGPT, travaillerait sur une nouvelle forme d’intelligence artificielle plus puissante qui pourrait menacer l’humanité. Qu’est-ce qu’il y a avec ça ? « Il s’agit d’une publicité pour une entreprise qui a traversé une période difficile. »

Dieter De Cleene

Arrêtez de vous approvisionner en corned-beef et de creuser cet abri anti-atomique – si vous aviez commencé à le faire après les récents rapports sur les derniers exploits d’OpenAI. Cette société travaillerait sur une nouvelle forme d’intelligence artificielle appelée Q*.

Q* est si puissant qu’il « pourrait menacer l’humanité », ont déclaré des initiés d’OpenAI à l’agence de presse Reuters. Avant la démission du PDG Sam Altman, plusieurs chercheurs d’OpenAI auraient exprimé leurs inquiétudes dans une lettre adressée au conseil d’administration.

Des sources anonymes ont déclaré à Reuters que Q* était capable de résoudre des problèmes mathématiques relativement simples au niveau des enfants du primaire. C’est quelque chose pour lequel ChatGPT est notoirement mauvais. Mais est-ce aussi une grande avancée ? « Cela reste à voir », estime Steven Latré, responsable de l’IA chez Imec. « L’IA capable de faire des mathématiques existe depuis un certain temps, tout comme il y avait des chatbots avant ChatGPT. Nous ne savons pas pour l’instant à quel point Q* est meilleur à cet égard.»

En réalité, nous en savons très peu. Reuters n’a pas reçu la lettre et n’a pas pu vérifier de quoi Q* est capable. Selon les critiques, cela en dit long sur la façon dont les médias parlent sans critique des développements de l’IA. « Où sont les preuves d’une avancée majeure », demande Emily Bender, professeure de linguistique computationnelle (Université de Washington) à X. « Savez-vous ce que les mathématiques à l’école primaire peuvent également faire ? Une calculatrice. »

Pas encore d’apocalypse

De plus, un ordinateur qui résout des problèmes arithmétiques ne semble pas exactement annoncer l’apocalypse. Ou est-ce? L’IA dite générative telle que Chat GPT est efficace pour produire des textes apparemment plausibles, basés sur la probabilité statistique que certains mots se suivent.

Mais les mathématiques, où il n’y a qu’une seule bonne réponse, sont plus difficiles à résoudre. Les mathématiques nécessitent de plus grandes capacités de raisonnement et, dans certains cas, la capacité de planifier plusieurs étapes. Selon Yann LeCun, responsable de l’IA chez Meta, Q* est « la tentative de planification d’OpenAI ».

Par conséquent, selon Reuters, Q* pourrait constituer une avancée majeure dans le développement de ce que l’on appelle intelligence artificielle générale (AGI), communément définie comme une IA qui égale ou surclasse l’intelligence humaine dans tous les domaines. Mais cela reste aussi à voir, souligne Latré.

« Google DeepMinds AlphaGo, le programme d’IA qui surclasse les gens dans le jeu séculaire et très compliqué du Go, est très doué en matière de planification, mais uniquement dans un contexte spécifique. La question est de savoir dans quelle mesure Q* est largement applicable.

Un monde plein de trombones

Le développement de l’AGI inquiète certains experts car un système capable de raisonner et de planifier pourrait se retourner contre nous, du moins en théorie. Le philosophe suédois Nick Bostrom illustre cette idée avec une expérience de pensée bien connue dans laquelle AGI est chargé d’optimiser la production de trombones.

Le système devient de plus en plus intelligent et se rend compte qu’il est préférable de ne pas avoir recours à des personnes pour le désactiver et que les corps de ces personnes contiennent des matières premières précieuses avec lesquelles il peut fabriquer des trombones. Le résultat : un monde avec de nombreux trombones, mais pas de monde.

Bien que Bostrom veuille seulement illustrer le principe selon lequel des missions apparemment innocentes peuvent conduire à un désastre imprévu, quelque chose comme cela demande du temps. Un ordinateur qui surclasse les humains est une chose. Mais un tel système doit aussi pouvoir intervenir dans la réalité physique.

«Je ne vois pas de chemin réaliste vers de tels scénarios apocalyptiques», déclare Latré. « Cela reste une technologie où les gens sont aux commandes et déterminent comment nous l’utilisons. » De plus, malgré tout l’enthousiasme suscité par l’AGI, nous sommes encore à « des kilomètres » d’un tel système, selon Latré.

Tout pour le profit

Selon Bender, le fait que nous soyons au seuil de l’AGI, qui peut alors se retourner contre nous, est une « absurdité non scientifique ». Mais les rapports sur l’imminence de l’AGI et la disparition imminente de l’humanité sont bien sûr bons pour OpenAI, selon l’expert en IA Mieke De Ketelaere (Vlerick).

«Ils nourrissent l’idée que l’entreprise fait quelque chose d’extraordinaire que le monde extérieur ne comprend pas», explique Deketelaere. « Cela confère à l’entreprise et aux développeurs un statut de plus en plus élevé, presque divin. »

On pense que le récent désaccord au sein d’OpenAI est basé sur un désaccord sur la rapidité avec laquelle l’IA peut être déployée commercialement. Selon Reuters, la lettre d’inquiétude concernant Q* a été l’un des éléments qui ont conduit au licenciement d’Altman, qui a été réintégré après une courte partie de chaises musicales et des protestations massives du personnel.

Selon l’informaticien Jeroen Baert, ce n’est pas un hasard si des rapports sur la percée d’OpenAI viennent tout juste d’être rendus publics. « C’est de la publicité », déclare Baert. « Fuite à un moment où l’entreprise traverse une période difficile et a perdu la face. »



ttn-fr-31