La route qui mènera àintelligence artificielle au niveau humain puis à la super intelligence, elle n’existe actuellement que dans notre imagination. Ce n’est pas vrai que nous l’avons maintenant inéluctablement pris, en fait, nous ne savons même pas où il se trouve. C’est la thèse à contre-courant, mais rigoureusement argumentée, soutenue par l’écrivain et entrepreneur américain Erik J. Larson dans son Le mythe de l’intelligence artificielle (Harvard University Press), récemment publié en italien par Franco Angeli. Larson, figure singulière du technologue-humaniste, est actuellement en Italie : vendredi dernier, il a été invité au Festival de la diplomatie de Rome et le 25 octobre il interviendra aux Journées de l’innovation numérique à Milan. Né en 1971, il est titulaire d’un doctorat en philosophie de l’université du Texas à Austin, a créé deux start-up financées par la Darpa (l’agence américaine de défense) et a travaillé pour Cycorp sur des projets d’IA et avec le Digital Media Collaboratory de George Kozmetsky.

Pourquoi pensez-vous que l’intelligence artificielle est un mythe ? N’est-ce pas, comme le présentent les médias, une technologie puissante qui peut sauver ou détruire le monde ?
Telle qu’elle est perçue en Californie, mais aussi dans le reste du monde, l’intelligence artificielle est quelque chose qui relève de la science-fiction, une sorte de Frankenstein, on rêve de créer quelque chose. Mais ce n’est pas vraiment ce que nous faisons. Je suis dans l’industrie depuis 20 ans et ce que nous faisons, c’est créer des outils. Au lieu de cela, nous utilisons le langage, en parlant d’intelligence artificielle, pour masquer une série de sentiments humains, comme le désir de certains de devenir encore plus riches.

L’IA est-elle un risque, une opportunité, ou les deux ?
Je crois qu’il existe un risque, à savoir que les mauvaises personnes utilisent une technologie puissante. Un peu à l’image de ce qu’on craignait dans les années 1950 à propos des armes thermonucléaires. Mais il s’agit essentiellement d’un nouvel outil puissant qui n’a pas réellement d’esprit propre, qui ne prend pas de décisions tout seul, mais qui fait ce pour quoi il est conçu. C’est cette perception erronée qui m’a poussé à écrire mon premier livre.

Que peut nous apprendre une approche humaniste et scientifique comme celle que vous soutenez sur l’IA ?
Tout d’abord, il faut distinguer l’analyse de grandes bases de données de la notion d’intelligence artificielle. Ce que nous faisons pour l’instant, c’est prendre chacune de nos données et les analyser statistiquement. Et cette statistique est essentiellement la même que dans les années 60 avec quelques innovations liées aux réseaux de neurones (les soi-disant mécanisme d’attention) introduit en 2017. Nous disposons désormais d’ordinateurs ultra-rapides, mais nous centralisons les données et les analysons statistiquement. Le problème est que les données, c’est nous, et que ce que nous appelons IA sont essentiellement des légendes de ces données (légende de la date). De ce point de vue, il ne me semble pas que nous soyons jusqu’à présent dans un siècle particulièrement innovant, alors que nous répétons d’anciennes erreurs avec de grandes entreprises centralisées et bureaucratiques.

Pour expliquer les différences entre intelligence humaine et intelligence artificielle vous faites référence à la distinction entre différents types de raisonnement…
En termes simples, l’intelligence humaine connaît trois types de raisonnement (ou d’inférence) : déductif, inductif et « intuitif » connu sous le nom d’« enlèvement ». L’intelligence artificielle tente depuis de nombreuses années, mais sans grand succès, de simuler le raisonnement déductif. Puis le Web est arrivé avec l’énorme quantité de données disponibles et le paradigme a radicalement changé. Désormais l’intelligence artificielle – comme celle de ChatGpt – fonctionne sur le raisonnement inductif : big data, statistiques, apprentissage automatique à partir de données observées. Et les résultats sont extraordinaires : de la traduction automatique à la reconnaissance faciale… Mais ce qui constitue l’essence de l’intelligence humaine – la capacité de formuler des conjectures à partir de quelques indices, qui est à la base aussi bien du bon sens que des découvertes scientifiques – c’est reste un mystère que l’intelligence artificielle ne sait pas programmer.

Devrions-nous demander aux gouvernements, à Bruxelles ici en Europe, ou aux Nations Unies de réglementer l’IA, ou devrions-nous nous en remettre à la capacité d’autorégulation du secteur privé ?
Je crois que personne au monde n’est encore en mesure de répondre à cette question, mais mon opinion est qu’il ne s’agit pas d’un processus d’autorégulation. C’est comme lorsque les voitures n’avaient pas d’airbags, et qu’ils sont devenus obligatoires par la loi.

Vous êtes également chercheur spécialisé dans le traitement du langage naturel : comment voyez-vous l’avenir de ce secteur, dominé dans le débat médiatique par le sujet ChatGpt ?
Je pense qu’il y a des limites aux grands modèles actuels de traitement du langage naturel : je ne pense pas que nous verrons un ChatGpt5 de si tôt, il ne reste plus assez de nouvelles données. Pour l’instant, nous utiliserons les modèles connus à des fins spécialisées.

Son prochain livre s’intitule « Le retour. Parce que le 21ème siècle ressemble au passé, pas à l’avenir que nous souhaitions. » Pouquoi?
Je soutiens que dans le monde dans lequel nous vivons, nous semblons être sur la fusée du progrès, alors que nous sommes coincés dans les années 1950. Il est difficile de démarrer de nouvelles entreprises qui changent le monde avec un petit capital : cela prend des milliards de dollars. Et de ce point de vue, l’intelligence artificielle ne sera certainement d’aucune utilité. Mais je ne veux pas être uniquement négatif, j’espère qu’un véritable processus d’innovation redémarrera.

En savoir plus



ttn-fr-11