Biden décide d’obliger les groupes technologiques à partager les résultats des tests de sécurité de l’IA


Restez informé avec des mises à jour gratuites

Les entreprises dont les modèles d’intelligence artificielle pourraient menacer la sécurité nationale américaine devront expliquer comment elles assurent la sécurité de leurs outils dans le cadre d’une ordonnance radicale de Joe Biden destinée à réduire les risques posés par la nouvelle technologie.

L’ordre que le président américain émis Lundi, il s’agit de la mesure la plus large prise par l’administration jusqu’à présent pour lutter contre les menaces de l’IA, de la sécurité nationale à la concurrence et à la vie privée des consommateurs. Cette mesure vise à mobiliser les agences de tout Washington, notamment les ministères du Commerce, de l’Énergie et de la Sécurité intérieure.

« Le président Biden met en œuvre l’ensemble de mesures le plus rigoureux qu’un gouvernement au monde ait jamais pris en matière de sûreté, de sécurité et de confiance en matière d’IA », a déclaré Bruce Reed, chef de cabinet adjoint de la Maison Blanche. « C’est la prochaine étape d’une stratégie agressive visant à tout faire sur tous les fronts pour exploiter les avantages de l’IA et atténuer les risques ».

Cette décision intervient alors que les pays du monde entier se demandent comment réglementer les entreprises et les modèles d’IA qui ne sont pas naturellement capturés par les organismes de surveillance individuels. Gary Gensler, président de la Securities and Exchange Commission des États-Unis, a récemment déclaré au Financial Times qu’une crise financière était « presque inévitable » d’ici une décennie si les régulateurs ne parvenaient pas à gérer les risques liés à l’IA.

Ces mesures interviennent deux jours avant que la vice-présidente Kamala Harris, la tsar de l’IA de l’administration Biden, ne prononce un discours à Londres sur la politique américaine, avant de participer au sommet britannique de Bletchley Park, où les dirigeants du monde et les dirigeants d’entreprises technologiques discuteront des règles de base potentielles. pour le développement de « l’IA de frontière ».

L’UE a agi rapidement en élaborant des mesures strictes concernant l’utilisation de cette technologie dans une loi révolutionnaire qui devrait être entièrement approuvée d’ici la fin de l’année. Mais les États-Unis sont encore en train d’évaluer quels aspects nécessitent une nouvelle réglementation et ce qui est soumis aux lois existantes.

Lorsqu’on lui a demandé si la législation européenne avait influencé l’ordre de Biden, un haut responsable de l’administration a répondu : « Je ne pense pas que nous soyons dans une course. Je ne pense pas que nous rattrapions notre retard. Les États-Unis sont en liaison avec l’UE et un « large éventail » d’États membres du bloc au sujet de la réglementation de l’IA, a ajouté le responsable.

Des personnalités de premier plan du secteur, dont Sam Altman, cofondateur d’OpenAI, ont parcouru le monde cette année pour discuter de l’impact potentiel des outils qu’ils développent. Altman et d’autres ont adopté un ton conciliant avec les régulateurs, mais ont résisté aux appels visant à bloquer ou ralentir le développement d’une IA de plus en plus puissante.

En mai, Altman a déclaré que son entreprise pourrait « cesser ses activités » en Europe si les efforts de Bruxelles pour réglementer la technologie étaient trop stricts. Il est ensuite revenu sur ses commentaires.

L’ordre de Biden intensifie la politique américaine en matière d’IA après que 15 entreprises – dont Amazon, Google, Meta, Microsoft et OpenAI – se soient engagées volontairement plus tôt cette année à gérer les risques liés à la technologie.

La Maison Blanche utilisera la loi sur la production de défense, une loi de la guerre froide utilisée au plus fort de la pandémie de Covid-19, pour obliger les entreprises développant des modèles d’IA présentant de graves risques pour la sécurité nationale, la sécurité économique ou la santé publique à informer le gouvernement lors de leurs entraînements. ces systèmes et de partager leurs résultats de tests de sécurité.

Jusqu’à présent, les entreprises en lice pour la domination de l’IA ont généralement préféré garder la conception de leurs modèles privée.

« Si les organisations ne respectent pas cette loi, nous pourrions intenter des actions appropriées auprès du ministère de la Justice pour faire respecter cette loi », a déclaré le haut fonctionnaire. Mais il a souligné que ces exigences concerneraient « principalement » la prochaine génération des outils d’IA les plus puissants au monde et ne « concerneraient aucun système actuellement sur le marché ».

En vertu de cette ordonnance, le ministère du Commerce doit élaborer des directives sur l’ajout de filigranes au contenu généré par l’IA dans le but de lutter contre « la fraude et la tromperie », y compris les deepfakes.

Les mesures visent également à promouvoir la concurrence dans le secteur de l’IA et à encourager la Federal Trade Commission « à exercer ses pouvoirs » à un moment où les régulateurs antitrust américains ont mis en garde contre les monopoles potentiels résultant de la dépendance structurelle de la technologie à l’échelle.

L’ordonnance aborde les risques liés à la vie privée, exhortant le Congrès à adopter une législation sur la confidentialité des données tout en cherchant à évaluer la manière dont les agences collectent et utilisent les « informations disponibles dans le commerce ». Il appelle également à des mesures pour réduire les dommages causés par l’IA aux travailleurs et aux patients, ainsi que pour lutter contre la « discrimination algorithmique » dans les domaines du logement, des soins de santé et de la justice.

La mesure dans laquelle l’ordonnance sera mise en œuvre comme prévu reste incertaine. Même si la Maison Blanche peut se prévaloir de certaines lois pour prendre des mesures coercitives ou ordonner aux ministères d’élaborer des lignes directrices, elle ne peut qu’encourager d’autres agences indépendantes, comme la FTC, à mettre en œuvre le plan de Biden.

Le haut responsable a déclaré que même si les décrets « ont force de loi », Biden a déclaré « que nous allions avoir besoin d’une législation bipartite pour faire davantage en matière d’intelligence artificielle ». Bon nombre des priorités du président « nécessitent une action législative pour être pleinement mises en œuvre. . . Nous ne suggérons pas du tout que c’est la fin du chemin en matière de gouvernance de l’IA.



ttn-fr-56