L’IA va-t-elle nous détruire ? Un pour et un contre

En plus des systèmes d’IA à « risque inacceptable », il y a « Systèmes d’IA à haut risque« , qui « présentent un risque élevé pour la santé et la sécurité ou pour les droits fondamentaux des personnes physiques » et ne peuvent être exploitées que si, entre autres :

  • un continu analyse de risque documenté les risques connus et prévisibles
  • critères de qualité sont respectées pour les données d’entraînement
  • un Enregistrement des opérations d’IA a lieu pendant le fonctionnement
  • un surveillance humaine est garanti

Les « systèmes d’IA à haut risque » comprennent ceux qui sont utilisés, par exemple, dans les domaines de l’identification biométrique (par exemple, la reconnaissance faciale), des infrastructures critiques telles que le trafic routier, l’approvisionnement en eau, en gaz, en chaleur et en électricité ou dans les forces de l’ordre.

Pour les systèmes d’IA qui ont un « faible » ou « risque minimal« , l’UE veut consacrer des obligations de transparence lors des demandes interagir avec les gensêtre employé reconnaître les émotions ou créer ou manipuler du contenu (« Deepfakes »). Dans ces cas, il faut s’assurer que les utilisateurs sont conscients de l’utilisation ou de l’origine de l’IA – sous certaines conditions, les systèmes d’IA qui sont « légalement approuvés pour la détection, la prévention, la recherche et la poursuite d’infractions pénales » doivent être exempté de cela.

Source : Commission européenne



ttn-fr-39