En juin dernier, lorsque la Cour suprême des États-Unis a annulé Roe vs Wade, les femmes ont commencé à supprimer les applications de suivi des règles de leurs téléphones. L’avortement étant sur le point de devenir illégal dans certains États, ils craignaient que les données ne soient utilisées pour poursuivre ceux qui cherchaient à se faire licencier. Était-ce une réaction excessive, ou simplement la prise de conscience que nous sommes entrés dans l’ère de l’électronique orwellienne ?

Beaucoup d’entre nous ont le sentiment vague et insidieux que nos appareils pourraient fonctionner contre nous. En 2016, un homme a été accusé d’avoir incendié sa maison dans l’Ohio après que son stimulateur cardiaque ait mis en doute sa réclamation d’assurance pour un incendie accidentel. Deux ans plus tard, il a été découvert que des militaires américains divulguaient par inadvertance des emplacements secrets de bases militaires via leurs applications de fitness Strava.

De telles histoires, cependant, ne nous ont pas dissuadés de divulguer nos données. Nous autorisons allègrement les applications à accéder à notre emplacement, aux enregistrements d’appels et à d’autres informations parce que nous sommes impatients d’accéder à la nouvelle fonction éphémère que nous désirons. Mais nous devons faire preuve de sagesse, car un nouveau défi se présente : comment protéger nos données cérébrales.

Les investissements affluent dans la « neurotechnologie », qui peut enregistrer et analyser les impulsions électriques du système nerveux. Les interfaces cerveau-ordinateur offrent d’énormes avantages, comme l’aide au rétablissement des patients victimes d’un AVC et la réduction des épisodes d’épilepsie. Les casques EEG, qui suivent les ondes cérébrales, sont utilisés par les joueurs pour contrôler les personnages à l’écran. Ils peuvent également détecter lorsqu’un chauffeur de camion perd sa concentration. Plus de 5 000 entreprises des secteurs minier, de la construction et autres, de l’Australie à l’Afrique du Sud, utilisent cette technologie pour s’assurer que leurs employés sont alertes et éveillés.

C’est là que je deviens dégoûté. En obligeant les conducteurs à porter de tels casques, les entreprises peuvent sauver des vies. Mais cela ressemble également à un outil potentiel d’oppression – un outil qui pourrait facilement être appliqué à tout autre employé dont le patron aimerait savoir quand son esprit vagabonde.

La neuroscientifique Nita Farahany, professeur de droit et de philosophie à Duke University, est d’accord. Dans un nouveau livre, The Battle for Your Brain : défendre le droit de penser librement à l’ère des neurotechnologies, elle prédit un monde dans lequel l’IA et les neurosciences se combinent pour envahir notre vie privée mentale. On craint que le parti communiste chinois n’utilise l’IA pour analyser les expressions faciales et les signaux cérébraux afin de juger de la loyauté des membres du parti. La capacité émergente de suivre et de décoder ce qui se passe dans le cerveau humain nécessite une conversation sérieuse sur la façon dont nous l’utilisons.

Farahany pense que la neurotech est appelée à devenir un «contrôleur universel» de toutes nos interactions avec la technologie. Une start-up new-yorkaise appelée CTRL-Labs, rachetée par Meta, a mis au point un bracelet neuronal qui permet au porteur de faire fonctionner un ordinateur d’abord par de petits mouvements des doigts, puis en détectant l’intention de bouger. Next Sense, créé par Alphabet, fabrique des écouteurs capables de détecter des données neuronales.

Ce n’est pas encore une lecture de pensée. Les impulsions électriques du cerveau ne sont pas la même chose que les pensées, et les interfaces cerveau-ordinateur ne peuvent pas agir comme des détecteurs de mensonges. Farahany prévient cependant que « les algorithmes s’améliorent pour traduire l’activité cérébrale en ce que nous ressentons, voyons, imaginons ou pensons ».

Il y a des échos de cela dans un nouveau journal de Chatham House. Il soutient que si l’IA offre d’énormes avantages, ses risques incluent «l’érosion des libertés individuelles par une surveillance omniprésente; et le remplacement de la pensée et du jugement indépendants par un contrôle automatisé ». Le rapport indique également que peu des nombreuses stratégies d’IA et principes de gouvernance en cours d’élaboration mentionnent même les droits de l’homme. Pourtant, le droit à la liberté de pensée inclut le droit de garder nos pensées privées et de ne pas être pénalisé pour elles.

Le débat sur la manière de réglementer la neurotechnologie n’en est qu’à ses balbutiements. Mais un certain nombre de scientifiques font pression pour les «neuro-droits». Le neurobiologiste Rafael Yuste plaide pour un droit à l’intimité mentale, « afin que le contenu de notre activité mentale ne soit pas décodé sans notre consentement ». Le Chili est récemment devenu le premier pays au monde à inscrire les droits neurologiques dans sa constitution et légiférera bientôt pour réglementer les technologies qui enregistrent ou modifient l’activité cérébrale.

Compte tenu de ses récents souvenirs d’autoritarisme, Santiago est peut-être plus sensible aux risques que Washington ou Londres. Les démocraties plus anciennes ont tendance à avoir la même conversation sur chaque nouvelle technologie. Les experts vantent les avantages; les investisseurs s’entassent ; et les considérations éthiques sont laissées à de lourds comités et à des gouvernements qui ne peuvent pas suivre le rythme.

Les conséquences d’une si longue passivité vis-à-vis des réseaux sociaux ont laissé nos sociétés aux prises avec des comportements profondément dérangeants, allant des obsessions de l’image corporelle à la radicalisation, au suicide et à la pornographie extrême. Nous ne devons pas commettre la même erreur avec les données cérébrales. Les technologies peuvent être neutres, mais l’humanité ne l’est certainement pas. Ce n’est pas quelque chose que je dis souvent, mais dans le cas de la neurotech : faites appel aux avocats.

[email protected]



ttn-fr-56