Les bons robots ne doivent pas être amenés à apprendre des mauvaises habitudes humaines


Restez informé avec des mises à jour gratuites

Il y a quelques mois, je me suis retrouvé à conduire derrière un véhicule autonome (c’est-à-dire autonome) à San Francisco. C’était énervant – mais pas parce que le AV roulait mal ou dangereusement ; au lieu de cela, il roulait trop bien.

Plus précisément, le conducteur du robot s’est consciencieusement arrêté à chaque panneau « stop », a freiné aux feux orange et est resté en dessous de la limite de vitesse officielle. Cela m’a obligé à faire de même, ce qui m’a quelque peu irrité, car jusqu’à présent (comme la plupart des conducteurs humains), j’ai parfois contourné doucement les règles de la circulation.

C’est une anecdote banale. Mais cela met en lumière une question existentielle qui plane sur le sommet du gouvernement britannique sur l’intelligence artificielle la semaine prochaine : alors que nous nous efforçons de construire des systèmes qui s’améliorent dans le « jeu de l’imitation », quels types de comportement humain les robots devraient-ils copier ?

Cela devrait-il être notre vision idéalisée du comportement – ​​disons, un monde où nous respectons tous réellement les règles de la circulation ? Ou le pays des « vrais » humains, où les conducteurs se faufilent à travers les panneaux d’arrêt ? Et surtout, qui doit décider ?

La question est importante dans tous les domaines où l’IA générative est appliquée, qu’il s’agisse de la finance, des médias, de la médecine ou de la science. Mais l’histoire des véhicules utilitaires cristallise le problème de manière particulièrement claire, puisque des sociétés telles que Waymo, General Motors et Tesla, qui exploitent déjà des flottes dans des endroits comme l’Arizona et la Californie, adoptent des approches subtilement différentes.

Pensez à Waymo, le groupe AV appartenant à Alphabet. Ses véhicules sillonnent Phoenix, en Arizona, depuis près de deux ans avec un système d’IA qui (en gros) a été développé selon des principes prédéfinis, tels que les règles de la National Highway Transport Safety Administration.

« Contrairement aux humains, le Waymo Driver est conçu pour respecter les limites de vitesse applicables », déclare la société, citant ses récentes recherches montrant que les conducteurs humains enfreignent les règles de vitesse la moitié du temps à San Francisco et à Phoenix.

Les véhicules sont également entraînés à s’arrêter aux feux rouges — un point qui ravit la NHTSA, qui récemment révélé que près de 4,4 millions d’Américains ont sauté des feux rouges en 2022 et que plus de 11 000 personnes ont été tuées entre 2008 et 2021 parce que quelqu’un a allumé les feux.

Sans surprise, cela semble faire Les voitures de Waymo beaucoup plus sûr que les humains. (Il s’agit certes d’une barre très basse, étant donné que 42 000 personnes ont été tués dans des accidents de voiture aux États-Unis l’année dernière).

Mais ce qui est vraiment intéressant, c’est que les responsables de Waymo soupçonnent que la présence d’AV qui respectent les règles à Phoenix encourage les conducteurs humains à suivre également les règles – soit parce qu’ils sont coincés derrière un AV, soit parce qu’ils ont honte parce qu’un robot leur rappelle par inadvertance le trafic. règles. La pression des pairs fonctionne, même avec les robots.

Il y a peu de recherches à ce sujet – pour l’instant. Mais cela reflète ma propre expérience à San Francisco. Et un (limité) étude du MIT montre que la présence de véhicules autonomes sur une route peut potentiellement améliorer le comportement de tous les conducteurs. Hourra.

Cependant, la Tesla d’Elon Musk a adopté une approche différente. Comme le note la biographie de Musk par Walter Isaacson, Musk a d’abord essayé de développer l’IA avec des règles prédéfinies. Mais puis il a embrassé formes plus récentes d’IA générative ou statistique (l’approche utilisée dans ChatGPT). Cela « entraîne » les systèmes d’IA à conduire non pas avec un code prédéfini mais en observant de vrais conducteurs humains ; apparemment, 10 millions de clips vidéo de voitures Tesla existantes ont été utilisés.

Daval Shroff, un responsable de Tesla, a déclaré à Isaacson que les seules vidéos utilisées dans cette formation provenaient « d’humains lorsqu’ils géraient bien une situation ». Cela signifie que les employés de Tesla ont été invités à noter ces clips de 10 millions et à soumettre uniquement de « bons » exemples de conduite pour la formation des robots – afin de former les robots à un bon comportement, et non à un mauvais comportement.

Peut-être. Mais certains rapports indiquent que les AV Tesla imitent de plus en plus les humains, par exemple en se faufilant à travers les panneaux d’arrêt ou les feux de circulation. En effet, lorsqu’Elon Musk a diffusé en direct un voyage qu’il a effectué en août dans un AV, il a dû intervenir manuellement pour l’empêcher de sauter un feu rouge. TLa NHTSA enquête.

Bien entendu, Musk pourrait rétorquer que tous les conducteurs doivent parfois enfreindre les règles dans des circonstances inhabituelles pour préserver la sécurité. Il pourrait également rétorquer qu’il est naturel que les entreprises adoptent différentes approches de l’IA, puis laissent les clients choisir ; c’est ainsi que fonctionne normalement la concurrence entre entreprises.

Cependant, certains régulateurs sont inquiets : bien que Cruise de GM ait produit des données plus tôt cette année montrant un bon bilan global en matière de sécurité, cette semaine, le Département des véhicules automobiles de Californie a exigé que l’entreprise cesse ses activités AV sans pilote après un accident. Et le problème, c’est que si les régulateurs peuvent théoriquement examiner les AV en utilisant des règles prédéfinies (si des étrangers ont accès au code), il est plus difficile de surveiller l’IA générative, car les conséquences de l’imitation du comportement humain « réel » sont si imprévisibles – même pour leurs créateurs. .

Quoi qu’il en soit, le point clé que les investisseurs doivent comprendre est que des variantes de ce problème hanteront bientôt des domaines tels que la finance également, comme l’a récemment déclaré Gary Gensler, le commissaire aux valeurs mobilières et aux changes au FT. Les acteurs des marchés financiers dotés de l’IA devraient-ils être programmés avec des règles prédéfinies et descendantes ? Ou apprendre en imitant le comportement des humains qui pourraient « arbitrer » (c’est-à-dire contourner) les règles dans un but lucratif ? Qui décide – et qui est responsable en cas de problème ?

Il n’y a pas de réponses faciles. Mais plus l’IA est intégrée, plus le défi est difficile, comme le savent les participants au sommet de la semaine prochaine. Peut-être devraient-ils commencer par réfléchir à un feu de circulation.

[email protected]



ttn-fr-56