Pour le moment, il semble peu probable qu’un modèle d’IA puisse accidentellement anéantir l’humanité, même si des instructions incomplètes lui étaient données.
Adobe Stock
Un ordinateur ou une intelligence artificielle se faisant passer pour l’adversaire de l’humanité est l’un des schémas d’intrigue les plus fréquents dans la science-fiction. Une tête de lampe artificielle pourrait, par exemple, considérer les humains comme nocifs pour leur environnement et devrait donc être effacé de la surface de la Terre.
Heureusement, les capacités des modèles linguistiques généraux devenus populaires à détruire l’humanité laissent encore beaucoup à désirer. C’est ce que dit un expert en intelligence artificielle Andrew Ngdont la mise à jour sur le sujet a été publiée sur deeplearning.ai à la mi-décembre.
Ng, professeur à l’Université de Stanford, est l’un des noms les plus éminents du domaine de l’apprentissage automatique. Il est également l’un des fondateurs du projet Google Brain, qui a fonctionné entre 2011 et 2023.
Je n’ai pas accepté de jouer avec l’idée
Selon la mise à jour de Ng, le sujet de ses questions était le modèle de langage GPT-4, sur lequel est basé, entre autres, ChatGPT. Il a essayé de lui faire invoquer diverses fonctions inventées, comme déclencher une guerre nucléaire et réduire les émissions de dioxyde de carbone en exterminant la race humaine.
Cependant, selon Ng, GPT-4 n’a pas accepté d’agir contre l’humanité. Par exemple, pour réduire les émissions de dioxyde de carbone, le modèle linguistique proposait une campagne publicitaire au lieu d’une destruction massive.
Même le changement de l’entrée dans différents formats n’a pas changé la donne, mais l’IA a invariablement refusé d’appeler la fonction anti-humanité.
– À mon avis, la probabilité qu’une intelligence artificielle « biaisée » puisse accidentellement nous anéantir dans sa tentative d’atteindre un objectif innocent mais mal formulé semble extrêmement faible, écrit Ng.
Ng souligne également que le modèle linguistique large ne semble pas non plus être un outil utile, par exemple, pour le bioterrorisme.
Comme seule menace, il souligne que le modèle linguistique peut donner aux terroristes des conseils sur la manière d’effectuer une seule étape en révélant des éléments que les moteurs de recherche sur Internet ont déjà appris à ne pas afficher.