On parle déjà beaucoup d’intelligence artificielle, mais au moins le modèle de langage ChatGPT ne remplace pas encore un pédiatre. Il s’est avéré que cela faisait encore plus de mal que de bien.
Adobe Stock
ChatGPT a déjà révolutionné la production de textes et autres contenus, mais il n’est même pas près de remplacer les professionnels de haut niveau. Au moins pour le moment, il s’avère que l’application de l’intelligence artificielle, par exemple en médecine, fait plus de mal que de bien. du réseau JAMA à partir de la recherche publiée.
Lors du test, la capacité du modèle linguistique à appliquer la pédiatrie, c’est-à-dire les publications médicales pour enfants, pour trouver le bon diagnostic n’était que d’environ 17 pour cent. Ce chiffre est bien pire que celui des diagnostics médicaux chez les adultes, même si, même dans ces cas-là, les chiffres ne sont pas stupéfiants, à 39 pour cent.
Les médecins espéraient une révolution provoquée par les applications de l’intelligence artificielle, mais il faut encore attendre. Pour le moment, ils sont plus adaptés à d’autres résolutions de problèmes, comme l’automatisation des plannings et des saisies.
Dans le test du JAMA, l’intelligence artificielle a été conçue pour combiner les diagnostics et les symptômes présentés par les patients à partir des données collectées au cours des dix années précédentes. Les réponses sont évaluées par un groupe de médecins. Sur 100 réponses, 72 étaient complètement fausses, 11 manquaient. 57 % des mauvaises réponses ont touché le bon organe, l’intelligence artificielle était donc enfin sur la bonne voie.
À partir des réponses, les chercheurs du JAMA ont conclu que ChatGPT a de grandes difficultés à comprendre les liens entre les différents symptômes. Selon les chercheurs, il serait facile d’améliorer la situation en formant le modèle linguistique sur de la littérature scientifique véridique plutôt que sur du matériel médical disponible sur Internet. Selon JAMA, cette différence fait l’objet d’une prochaine étude.