Le suspect d’un crime ne sera bientôt plus nécessairement un être humain de chair et de sang. L’intelligence artificielle, qui progresse rapidement, est souvent considérée comme extrêmement efficace et orientée vers des objectifs précis, mais elle s’avère également faillible et peut nuire aux gens. Pensez aux voitures autonomes qui font des vagues. Et puis une responsabilité pénale pour l’intelligence artificielle semble envisageable. Ou est-ce exagéré et est-il impensable que des robots et des systèmes finissent un jour sur le banc des accusés ?
L’avocate italienne Alice Giannini (30 ans) a mené des recherches sur ce sujet ces dernières années. Cela a abouti à sa thèse Comportement criminel et responsabilité des systèmes d’intelligence artificielleaprès quoi elle a obtenu son doctorat le 24 novembre à l’Université de Maastricht, où elle est chargée de cours depuis cette année.
Le thème s’est imposé naturellement, raconte-t-elle : « Après mes études de droit, j’ai combiné un stage au ministère public avec un emploi dans une start-up qui développait l’IA. » Son enfance a également joué un rôle : « Dans ma jeunesse, je regardais beaucoup de films de science-fiction avec mon père. C’est drôle de voir que des scénarios que l’on croyait impossibles à l’époque deviennent aujourd’hui réalité. Peut-être aussi un peu effrayant, même si je n’ai pas peur moi-même.
Dans quels domaines l’IA a-t-elle déjà progressé à tel point que des questions de droit pénal pourraient entrer en jeu ?
« Je dirais : circulation, soins de santé. Et n’oubliez pas l’aviation.
Et où en est la réflexion en droit pénal à ce sujet ?
« Lorsque j’ai commencé mes recherches en 2019, il s’agissait vraiment d’un créneau, mais ces dernières années, de nombreux articles sur l’IA et le droit pénal ont été publiés. »
Comment avez-vous procédé ?
«C’était beaucoup à encaisser. Un peu de connaissances techniques sur l’IA est également indispensable. Et j’ai dû définir l’IA. C’est comme essayer de clouer du pudding à un arbre. Non seulement les avocats, mais même les techniciens ne peuvent pas s’entendre sur ce point. Après avoir finalement établi une définition, ma recherche comportait également une composante philosophique importante : l’IA peut-elle être une entité juridique ? A-t-elle le libre arbitre ? Peut-elle se sentir coupable ? C’est presque infini : on commence avec cent questions et on finit avec cent mille questions.
Pourtant, vous êtes finalement arrivé au sujet principal : la responsabilité pénale.
«On peut distinguer environ trois écoles de pensée: les ‘expansionnistes’ qui prônent fortement la responsabilité et la modification du droit pénal, les sceptiques qui considèrent ces absurdités irréalistes et les modérés. Ils se situent entre les deux et disent : ‘Il est encore trop tôt, mais le moment venu, le droit pénal pourra apporter une solution’.»
Et qu’en penses-tu?
« J’ai commencé comme un sceptique, comme quelqu’un qui pensait que c’était un non-sens. Après toutes mes recherches, je me compte parmi les modérés. À long terme, cela pourrait vraiment arriver au point où cela devient nécessaire. »
Pourquoi pas maintenant?
« La loi actuelle est suffisante pour le moment. Si quelque chose se produit maintenant, vous pouvez poursuivre les développeurs ou les entreprises à l’origine de l’IA. Et si l’on veut trop réglementer à l’avance, on arrêtera l’innovation très tôt. Personne ne veut inventer quoi que ce soit s’il risque immédiatement une énorme responsabilité.»
Ne courez-vous pas le risque que le législateur reste à la traîne des faits ?
« Le droit pénal ne devrait pas être l’un des premiers à arriver dans une fête. Il s’agit d’un dernier recours. Recherchez le sujet et débattez-en, mais prenez votre temps et reposez-vous. De plus, il est impossible de prédire ce qui pourrait mal tourner avec l’IA dans quelques années, car nous ne pouvons pas prédire ce qui sera alors possible. Pour les applications actuelles, par exemple dans les soins de santé et les voitures autonomes, la loi existante est encore suffisante.»
Quand une nouvelle législation est-elle nécessaire ?
«Dès que nous commençons à développer des machines, nous les considérons également comme faisant partie de notre communauté. À ce moment-là, ils peuvent aussi menacer notre communauté et commettre des crimes au sens juridique du terme. Pour éviter cela, ils doivent être capables d’apprendre des règles morales et juridiques.
Ce n’est pas encore possible ?
« Des travaux sont en cours sur la moralité de l’IA, mais il est actuellement impossible de penser à chaque dilemme à l’avance ou de laisser une machine faire les compromis que nous faisons parfois en un clin d’œil. Un exemple classique : un ami doit se précipiter aux urgences en raison de plaintes aiguës et dangereuses. Il ne s’agit alors pas simplement d’une question d’extrême urgence ou de respect du code de la route. Non, la plupart des gens essaient souvent de maintenir un équilibre entre se rendre rapidement aux urgences et réduire le plus possible le risque d’accident de la route.
À quoi pourraient ressembler les sanctions contre l’IA ?
« La peine de mort est la plus sévère : détruire un robot ou arrêter un système. Mais dans de nombreux endroits, nous avons dépassé le stade de la peine de mort. Et l’IA ne peut pas vraiment en souffrir. L’amende est difficile. L’IA ne peut actuellement pas posséder d’argent à elle seule. La condamnation à la reprogrammation me semble la plus logique. Avec les gens, on espère aussi qu’après avoir purgé une peine, ils deviendront une meilleure personne, qu’ils ne commettent plus la même erreur.
Les juges humains porteront-ils alors un jugement ou l’IA jugera-t-elle bientôt l’IA ?
« Cette dernière solution semble très probable. Les juges et les avocats d’IA arrivent beaucoup plus vite que la responsabilité pénale d’IA. L’intelligence artificielle a déjà de telles applications, pas aussi extrêmes que les juges robots, mais permettant par exemple de calculer le risque de récidive et la sanction la plus appropriée en fonction du crime, de la situation et des circonstances.»
Lire aussi
Les droits de l’homme jouent également un rôle dans l’IA, c’est pourquoi Jan Kleijssen travaille sur un traité