Les grands acteurs de la technologie s’attaquent à l’IA


Les événements de la semaine dernière montrent que l’IA progresse toujours à pas de géant. Ils confirment également que les plus grandes entreprises technologiques sont aux commandes.

Mais compte tenu des utilisations potentiellement nocives auxquelles la dernière génération d’IA pourrait être destinée, le monde pourrait ne pas se sentir plus équitable – ni plus sûr – si cette technologie était plus largement diffusée.

Deux développements dans le domaine de l’IA ont ramené ce point à la maison avec une force renouvelée. L’un implique un nouveau modèle de langage Google appelé Palmier. Selon Percy Liang, professeur agrégé d’informatique à l’Université de Stanford, il s’agit de la plus grande avancée dans de tels systèmes depuis la sortie du GPT-3 d’OpenAI, la machine à écrire automatique qui a pris d’assaut le monde de l’IA il y a deux ans.

Le principal titre de gloire de PaLM est qu’il peut expliquer pourquoi une blague est drôle, avec un degré raisonnable de précision. Cet exploit suggère que les machines commencent à progresser sur des problèmes difficiles tels que le bon sens et le raisonnement – ​​bien que, comme toujours dans le domaine de l’IA, la conception d’un système pour réussir une astuce ne garantit pas des avancées sur un front plus large.

Le autre développement la semaine dernière, d’OpenAI, représente un bond en avant dans le nouveau domaine des systèmes « multimodaux », qui fonctionnent à la fois avec du texte et des images. Microsoft a financé OpenAI à hauteur de 1 milliard de dollars et a le droit exclusif de commercialiser sa technologie.

Le dernier système d’OpenAI, connu sous le nom de Dall-E 2, prend une invite textuelle (telle que « un astronaute à cheval ») et la transforme en une image photoréaliste. Au revoir, Photoshop.

Compte tenu de leurs applications évidentes, leurs développeurs essaient de précipiter des systèmes comme ceux-ci du laboratoire de recherche vers le grand public. Ils sont susceptibles d’avoir un impact dans n’importe quel domaine riche en données où les machines peuvent faire des recommandations ou proposer des réponses, explique Liang. Déjà, la technologie d’OpenAI est utilisée pour suggérer des lignes aux codeurs de logiciels.

Les écrivains et les graphistes pourraient être les prochains. Il faut toujours qu’un humain parcoure la sortie pour trouver ce qui est vraiment utile. Mais en tant que moteurs de créativité, ces systèmes sont sans égal.

D’une certaine manière, cependant, ils sont aussi les pires comportements de tous les modèles d’IA, et ils sont accompagnés d’avertissements. L’un des problèmes est leur impact sur le réchauffement climatique : ils nécessitent énormément d’efforts informatiques pour s’entraîner. Et ils reproduisent tous les biais des ensembles de données (très volumineux) sur lesquels ils sont entraînés.

Ce sont aussi des usines naturelles de désinformation, produisant sans réfléchir leurs meilleures suppositions en réponse à des invites sans aucune compréhension de ce qu’elles produisent. Ce n’est pas parce qu’ils savent paraître cohérents qu’ils le sont.

Et puis il y a le risque d’abus intentionnel. CohereAI, une start-up qui a construit une version plus petite de GPT-3, se réserve le droit dans ses conditions d’utilisation de couper les utilisateurs pour des choses comme le « partage de contenu généré qui divise afin de retourner une communauté contre elle-même ».

Les dommages potentiels des modèles d’IA générative comme celui-ci ne se limitent pas au langage. Une entreprise qui a construit un système d’apprentissage automatique pour aider à la découverte de médicaments, par exemple, a récemment expérimenté la modification de certains paramètres de son modèle pour voir si elle proposerait des substances moins bénignes. Comme indiqué dans Nature, le système a rapidement commencé à concevoir des agents de guerre chimique, dont certains étaient réputés plus dangereux que tout ce qui était connu du public.

Pour les détracteurs de Big Tech, cela pourrait sonner l’alarme de penser qu’une poignée de sociétés puissantes et irresponsables contrôlent ces outils. Mais cela pourrait être encore plus inquiétant s’ils ne le faisaient pas.

Dans le passé, il était considéré comme une bonne pratique de publier des modèles comme ceux-ci, afin que d’autres chercheurs puissent tester les affirmations et que quiconque les utilise puisse voir comment ils fonctionnent. Mais étant donné les risques, les développeurs des plus grands modèles d’aujourd’hui les ont gardés secrets.

Cela alimente déjà une chasse aux alternatives, avec des start-ups et des développeurs open source essayant d’arracher un certain contrôle de la technologie à Big Tech. CohereAI, par exemple, a pu lever 125 millions de dollars en capital-risque le mois dernier. Cela peut sembler prohibitif pour une start-up de concurrencer Google, mais Cohere a un accord pour utiliser les puces d’intelligence artificielle les plus puissantes de la société de recherche pour former son propre modèle.

Pendant ce temps, un groupe de chercheurs indépendants a entrepris de construire un système similaire à GPT-3 dans le but exprès de le mettre dans le domaine public. Le groupe, qui s’appelle EleutheraAI, a publié une version open source d’un modèle de travail plus petit plus tôt cette année.

De tels mouvements suggèrent que Big Tech n’aura pas ce domaine pour lui tout seul. Qui surveillera les frontières de cette puissante nouvelle technologie est une autre affaire.



ttn-fr-56