Comment garder le couvercle sur la boîte de Pandore de l’IA ouverte


Restez informé avec des mises à jour gratuites

L’écrivain est le fondateur de Tamiséun site soutenu par le FT sur les start-ups européennes

Elle apparaît rapidement comme l’un des clivages technologiques les plus importants, et de plus en plus idéologiques, de notre époque : les puissants systèmes d’intelligence artificielle générative doivent-ils être ouverts ou fermés ? La manière dont ce débat se déroulera affectera la productivité de nos économies, la stabilité de nos sociétés et la fortune de certaines des entreprises les plus riches du monde.

Les partisans des modèles open source, tels que LLaMA 2 de Meta ou Bloom de Hugging Face, qui permettent aux utilisateurs de personnaliser eux-mêmes de puissants logiciels d’IA générative, affirment qu’ils élargissent l’accès à la technologie, stimulent l’innovation et améliorent la fiabilité en encourageant un examen minutieux extérieur. Bien moins coûteux à développer et à déployer, des modèles ouverts plus petits injectent également de la concurrence dans un domaine dominé par de grandes entreprises américaines telles que Google, Microsoft et OpenAI. Ces entreprises ont investi des milliards dans le développement de systèmes d’IA génératifs massifs et fermés, qu’elles contrôlent étroitement.

Mais les détracteurs affirment que les modèles ouverts risquent de soulever le couvercle d’une boîte de Pandore à problèmes. Les mauvais acteurs peuvent les exploiter pour diffuser une désinformation personnalisée à l’échelle mondiale, tandis que les terroristes pourraient les utiliser pour fabriquer des cyberarmes ou des armes biologiques. « Le danger de l’open source est qu’il permet à davantage de fous de faire des choses folles », a prévenu Geoffrey Hinton, l’un des pionniers de l’IA moderne.

L’histoire d’OpenAI, qui a développé le populaire chatbot ChatGPT, est elle-même instructive. Comme son nom l’indique, la société de recherche a été fondée en 2015 avec l’engagement de développer la technologie de la manière la plus ouverte possible. Mais elle a ensuite abandonné cette approche pour des raisons de compétitivité et de sécurité. « Nous avions carrément tort », a déclaré à The Verge Ilya Sutskever, scientifique en chef d’OpenAI.

Une fois qu’OpenAI a réalisé que ses modèles d’IA générative allaient être « incroyablement puissants », cela n’avait plus de sens de les ouvrir en source libre, a-t-il déclaré. « Je m’attends à ce que dans quelques années, il soit évident pour tout le monde que l’IA open source n’est tout simplement pas judicieuse. »

Les partisans des modèles ouverts ont riposté, ridiculisant l’idée selon laquelle les modèles d’IA génératifs ouverts permettent aux gens d’accéder à des informations qu’ils ne pourraient pas trouver autrement sur Internet ou auprès d’un scientifique voyou. Ils soulignent également l’intérêt concurrentiel des grandes entreprises technologiques en criant sur les dangers des modèles ouverts. Les critiques suggèrent que l’intention sinistre de ces entreprises est de s’emparer des régulateurs, en imposant des coûts de conformité plus élevés aux insurgés et en renforçant ainsi leur propre domination du marché.

Mais il y a aussi une dimension idéologique dans ce débat. Yann LeCun, scientifique en chef de Meta, qui a rompu avec les autres géants de la Silicon Valley en défendant des modèles ouverts, a comparé les arguments des entreprises rivales en faveur du contrôle de la technologie à l’obscurantisme médiéval : la conviction que seul un sacerdoce d’experts auto-sélectionnés est sage. suffisant pour gérer les connaissances.

À l’avenir, m’a-t-il dit récemment, toutes nos interactions avec le vaste référentiel numérique des connaissances humaines passeront par des systèmes d’IA. Nous ne devrions pas vouloir qu’une poignée d’entreprises de la Silicon Valley contrôlent cet accès. Tout comme Internet a prospéré en résistant aux tentatives de l’enfermer, l’IA prospérera en restant ouverte, affirme LeCun, « tant que les gouvernements du monde entier n’interdisent pas l’idée même de l’IA open source ».

Des discussions récentes lors du sommet sur la sécurité de l’IA de Bletchley Park suggèrent qu’au moins certains décideurs politiques pourraient désormais s’orienter dans cette direction. Mais d’autres experts proposent des interventions plus légères qui amélioreraient la sécurité sans tuer la concurrence.

Wendy Hall, professeure regius d’informatique à l’université de Southampton et membre du comité consultatif de l’ONU sur l’IAoui, dit que nous ne voulons pas vivre dans un monde où seules les grandes entreprises utilisent l’IA générative. Nous ne voulons pas non plus permettre aux utilisateurs de faire ce qu’ils veulent avec des modèles ouverts. « Nous devons trouver un compromis », suggère-t-elle.

Sa solution préférée, qui gagne du terrain ailleurs, consiste à réglementer les modèles d’IA générative de la même manière que l’industrie automobile. Les régulateurs imposent des normes de sécurité strictes aux constructeurs automobiles avant de lancer de nouveaux modèles. Mais ils imposent également des responsabilités aux conducteurs et les tiennent responsables de leurs actes. « Si vous faites quelque chose d’irresponsable et qui cause du tort avec l’open source, vous devriez aller en prison – tout comme si vous tuiez quelqu’un en conduisant une voiture », déclare Hall.

Nous devrions certainement résister à la tyrannie du binaire lorsqu’il s’agit de réfléchir aux modèles d’IA. Les modèles ouverts et fermés ont leurs avantages et leurs inconvénients. À mesure que les capacités de ces modèles évoluent, nous devrons constamment ajuster la pondération entre compétition et contrôle.



ttn-fr-56