OpenAI dévoile GPT-4 et vante les « performances au niveau humain » du nouveau modèle d’IA


OpenAI a publié GPT-4, son dernier modèle d’intelligence artificielle qui, selon elle, présente des « performances de niveau humain » sur plusieurs critères académiques et professionnels tels que l’examen du barreau américain, les tests de placement avancés et les examens scolaires SAT.

Le nouveau modèle, accessible via la version payante de 20 $ de ChatGPT, est multimodal, ce qui signifie qu’il peut accepter des entrées sous forme de texte et d’image. Il peut ensuite analyser et répondre à ces requêtes en utilisant du texte.

OpenAI a déclaré avoir intégré son nouveau logiciel dans une variété d’applications, notamment l’application d’apprentissage des langues Duolingo, qui l’utilise pour créer des robots de langage conversationnel ; la société d’éducation Khan Academy, qui a conçu un tuteur en ligne ; et Morgan Stanley Wealth Management, qui teste un chatbot interne utilisant GPT-4 pour récupérer et synthétiser des informations pour ses employés.

La capacité du modèle à accepter des images et du texte en entrée signifie qu’il peut désormais générer des descriptions détaillées et répondre à des questions basées sur le contenu d’une photographie. La société a déclaré qu’elle s’était associée à la start-up danoise Be My Eyes – qui relie les personnes malvoyantes à des volontaires humains – pour créer un volontaire virtuel basé sur GPT-4 qui peut guider ou aider les personnes aveugles ou malvoyantes.

Le prédécesseur de GPT-4, GPT-3.5, a captivé l’imagination de millions de personnes à la fin de l’année dernière qui ont expérimenté le chatbot de questions et réponses ChatGPT.

Selon OpenAI, GPT-4 est son « système le plus avancé à ce jour ». Il prétend qu’il est plus fiable et capable de gérer les requêtes nuancées bien mieux que son prédécesseur. Par exemple, GPT-4 a obtenu un score dans le 90e centile à l’examen uniforme du barreau passé par les avocats potentiels aux États-Unis par rapport à ChatGPT, qui n’a atteint que le 10e centile.

La société a cependant noté quelques problèmes : « Malgré ses capacités, le GPT-4 présente des limitations similaires aux modèles GPT précédents : il n’est pas entièrement fiable (par exemple, peut souffrir d' »hallucinations »), a une fenêtre de contexte limitée et n’apprend pas de expérience. »

« Des précautions doivent être prises lors de l’utilisation des sorties de GPT-4, en particulier dans des contextes où la fiabilité est importante », a ajouté la société.

Plus tôt cette année, Microsoft a confirmé un « investissement de plusieurs milliards de dollars » dans OpenAI sur plusieurs années, pariant sur l’avenir de l’IA générative – un logiciel capable de répondre à des requêtes humaines complexes dans un langage à consonance naturelle. GPT-4 sous-tendra le chatbot Bing de Microsoft, qui a eu une version limitée plus tôt cette année. Microsoft devrait également annoncer son intégration dans ses produits grand public dans les prochains jours.

Pendant ce temps, Google a ouvert son propre chatbot conversationnel, Bard, à un pool limité de testeurs et a annoncé qu’il permettra aux clients de Google Cloud d’accéder pour la première fois à son grand modèle de langage PaLM pour créer des applications.

OpenAI, qui avait publié quelques détails sur les modèles précédents tels que GPT-3, a déclaré qu’il ne révélerait aucun détail sur les aspects techniques de GPT-4, y compris l’architecture du modèle, les données sur lesquelles il a été formé ou le matériel et l’informatique. capacité utilisée pour le déployer, pour des raisons de concurrence et de sécurité.

Pour tester les méfaits de la technologie, la société a soumis le GPT-4 à des tests de résistance et a défini les risques qu’elle prévoit concernant les préjugés, la désinformation, la confidentialité et la cybersécurité. Ils ont révélé que le GPT-4 peut « générer des contenus potentiellement dangereux, tels que des conseils sur la planification d’attaques ou des discours de haine. Il peut représenter divers préjugés et visions du monde. . . il peut également générer du code compromis ou vulnérable. Ils ont dit qu’il peut fournir des informations détaillées sur la façon de mener des activités illégales, y compris le développement d’armes biologiques.

OpenAI a déclaré avoir également travaillé avec une organisation externe pour tester si GPT-4 était capable d’effectuer des actions autonomes sans intervention humaine et a conclu qu’il n’était « probablement » pas encore capable de le faire.

Reportage supplémentaire de Richard Waters



ttn-fr-56