ChatGPT est fluide, intelligent et dangereusement créatif


Cette semaine, j’ai commandé un haïku sur le grand incendie de Londres en 1666 à un jeune poète prometteur, le chatbot d’intelligence artificielle ChatGPT. Quelques secondes plus tard, il produisit ceci : « Les cendres tombent comme de la neige/Un grand feu balaie la ville de Londres/La destruction règne en maître. »

Eh bien, pas mal. Il y a une comparaison saisonnière dans la première ligne. Je suis moins convaincu par le second, qui se lit étrangement comme le devoir lui-même. Le troisième contient trop de syllabes mais aussi un double jeu de mots sur « règnes », évoquant à la fois la monarchie anglaise et la pluie de cendres. Était-ce délibéré ?

Il a battu le sonnet que j’ai demandé à ChatGPT d’écrire sur le même sujet, qui avait un mètre douteux et des rimes solides (« En fin de compte, le feu a finalement été éteint/Laissant un héritage de courage et de force »). Considérez également son refrain de musique country sur le réveillon du Nouvel An : « Je lèverai un verre à l’ancien / Et porterai un toast au nouveau / Apportez les feux d’artifice et les acclamations / Il est temps de recommencer à zéro. »

Il est difficile de savoir d’où vient toute la créativité ersatz. Comme ChatGPT m’a répondu lorsque je lui ai posé la question, « les grands modèles de langage comme moi sont formés sur de grandes quantités de données textuelles, qui peuvent aller de centaines de gigaoctets à plusieurs téraoctets ». Mais il y en a beaucoup plus : lorsque j’ai tapé diverses commandes dans une zone de texte, la plupart d’entre elles ont été remplies rapidement.

Beaucoup d’autres ont joué avec ChatGPT depuis son lancement la semaine dernière par OpenAI, une société californienne. L’oracle d’apprentissage automatique a craqué sous la pression des demandes de plus d’un million d’utilisateurs, allant de la production de courts essais à la réponse aux questions. Il a écrit des lettres, dispensé des conseils médicaux de base et résumé l’histoire.

ChatGPT est étrangement impressionnant, tout comme Dall-E, le générateur IA d’images numériques à partir d’invites de texte dévoilé pour la première fois par OpenAI l’année dernière. Une fois que vous avez essayé les deux, il est impossible d’éviter le sentiment que les agents du langage naturel vont perturber de nombreux domaines, de la musique et des jeux vidéo au droit, à la médecine et au journalisme. Les chatbots arrivent rapidement pour nous les professionnels.

Mais ChatGPT est aussi comme certaines personnes que je connais : il peut transformer des informations sommaires en réponses fluides et convaincantes. Cela sonne juste même lorsqu’il invente des choses sur la base de quelque chose qu’il a lu quelque part, qui a lui-même été régurgité à partir d’autres sources. Sa voix douce et articulée est généralement persuasive, mais on ne peut pas s’y fier entièrement.

Prenez l’essai de cinq paragraphes qu’il a produit lorsque je lui ai demandé de décrire le traitement d’Ophelia par Hamlet dans la pièce de Shakespeare. Celui-ci avait une juste précision (« Tout au long de la pièce, Hamlet est déchiré entre son devoir de venger le meurtre de son père et son amour pour Ophélie ») mais affirmait que « les actions d’Hamlet sont motivées par le désir de protéger ceux qu’il aime ». Ah bon?

Ensuite, il y a eu la lettre légale qu’il a rédigée à ma demande à l’autre conducteur dans un accident de voiture fictif. « Selon le rapport de police, vous étiez en excès de vitesse et vous avez omis de vous arrêter à un feu rouge, ce qui vous a fait entrer en collision avec ma voiture. . . Je vous demande donc de fournir une indemnisation complète et équitable pour les dommages que j’ai subis », a-t-il écrit. Lucide, mais imaginaire.

Le danger est que ChatGPT et d’autres agents d’IA créent une version technologique de la loi de Gresham sur l’adultération du 16ème siècle monnaie, que « la mauvaise monnaie chasse la bonne ». Si un mash-up linguistique peu fiable est librement accessible, alors que la recherche originale est coûteuse et laborieuse, le premier prospérera.

C’est pourquoi Stack Overflow, un forum de conseils pour les codeurs et les programmeurs, a imposé cette semaine une interdiction temporaire à ses utilisateurs de partager les réponses de ChatGPT. « Le principal problème est que si les réponses qui [it] produits ont un taux élevé d’erreurs, ils ont généralement l’air d’être bons », ont écrit ses modérateurs.

Les œuvres créatives de ChatGPT sont moins susceptibles d’être exposées comme fantaisistes. Même médiocres, ses sonnets et les images de Dall-E ne sont pas définitivement faux. Mais Sam Altman, directeur général d’OpenAI, pense que son agent deviendra un outil de recherche utile. « Nous pouvons imaginer un » employé de bureau IA « qui prend les demandes en langage naturel comme le fait un humain », a-t-il déclaré. a écrit.

J’imagine que : c’est presque comme si c’était déjà le cas. Des essais approfondis sur Hamlet s’avèrent exagérés, mais ils pourraient répertorier avec précision les scènes dans lesquelles Hamlet et Ophélie apparaissent tous les deux. Il a également donné un résumé concis des meilleurs pilotes de Formule 1 dans le passé. Ce type de recherche fondamentale fait gagner du temps aux humains.

Mais il doit être déployé avec précaution, et c’est là le hic. ChatGPT est comme une version urbaine et trop confiante de Wikipedia ou de la recherche Google : utile comme point de départ mais pas pour des réponses complètes. Il correspond trop étroitement au résumé du journaliste Nicholas Tomalin des qualités essentielles pour son travail : « Une ruse de rat, une manière plausible et un peu de capacité littéraire.

Il ne sert à rien d’essayer d’arrêter ChatGPT, car il a maintenant été lancé et ira probablement mieux. Avec le temps, nous découvrirons des utilisations pour les agents d’IA en langage naturel que nous n’imaginons pas encore. En attendant, j’espère que la destruction ne règnera pas en maître.

[email protected]



ttn-fr-56