Les régulateurs auront toujours du mal à suivre le rythme du développement de l’IA


Débloquez gratuitement l’Editor’s Digest

Les législateurs du monde entier se débattent avec l’intelligence artificielle. Les premiers efforts sont nombreux mais peu rapides. Loi sur l’IA de l’UEle premier à être publié, compte 144 pages. La réglementation est loin derrière l’innovation. L’UE a été obligée d’ajouter un chapitre sur l’IA générative à mi-chemin de son processus.

Il est vrai que peu de questions économiques, financières et sociétales échappent à la technologie nomade. Cela nécessite de nombreuses mesures de protection.

Contrairement à l’approche fondée sur des principes adoptée par l’UE en matière de données dans le règlement général sur la protection des données (RGPD), la loi sur l’IA adopte une approche de sécurité des produits, similaire à la réglementation des voitures ou des dispositifs médicaux, par exemple. Elle vise à quantifier et à gérer les risques, en respectant et en vérifiant les normes avant le lancement sur le marché. Pensez aux essais de collision d’un modèle de voiture avant son lancement.

L’UE classe les capacités et les besoins qui en découlent en fonction du profil de risque. Au sommet de la pyramide se trouve le Miroir noir Des trucs comme la manipulation comportementale, la notation sociale, qui sont interdits. Au bas de la liste se trouvent les filtres anti-spam courants et les jeux basés sur l’IA, pour lesquels un code volontaire suffit.

Naturellement, ce sont les deux couches intermédiaires qui auront le plus d’impact sur les développeurs de technologies et leurs utilisateurs. Les sociétés de services financiers et autres qui utilisent des outils d’IA pour déterminer la solvabilité ou pour recruter du personnel, par exemple, entreront dans cette catégorie. Les utilisateurs sont également exposés à des risques plus élevés s’ils modifient un modèle : une entreprise peut au fil du temps modifier l’utilisation de l’IA, par exemple en passant du tri des CV à la prise de décisions sur les promotions.

L’une des conséquences probables de cette situation est l’utilisation massive de contrats entre ceux qui déploient l’IA et les grands fournisseurs de technologie, explique Lilian Edwards, professeur à l’Université de Newcastle.

Définir ce qui constitue un risque systémique dans l’IA générative est délicat. L’UE – et les États-Unis dans leur décret exécutif sur l’utilisation de l’IA — ont eu recours à des mesures de puissance de calcul. L’UE a fixé son seuil à 10²⁵ opérations en virgule flottante par seconde, une mesure de la performance de calcul, tandis que les États-Unis ont fixé le sien à 10²⁶. Aller au-delà de ce seuil entraîne des obligations supplémentaires.

Le problème est que ce chiffre est lié à la puissance utilisée pour la formation. Il pourrait augmenter, voire diminuer, une fois le chiffre déployé. Il s’agit également d’un chiffre quelque peu fallacieux : de nombreux autres facteurs, notamment la qualité des données et le raisonnement en chaîne de pensée, peuvent améliorer les performances sans nécessiter de puissance de calcul supplémentaire pour la formation. Il sera également rapidement dépassé : le chiffre important d’aujourd’hui pourrait devenir la norme l’année prochaine.

La législation européenne, officiellement en vigueur depuis août, est en cours de mise en œuvre. De nouveaux obstacles surgiront à mesure que les capacités évolueront. Même si les règles évoluent, elles risquent de rester en retard sur la courbe technologique.

[email protected]



ttn-fr-56