Nous devons empêcher l’IA de reproduire les problèmes du capitalisme de surveillance


Restez informé avec des mises à jour gratuites

L’intelligence artificielle a été au centre des discussions mondiales ces derniers jours, avec un sommet majeur au Royaume-Uni et un nouveau décret de la Maison Blanche. Une grande partie du débat a porté sur la manière dont les entreprises et les régulateurs pourraient prévenir les catastrophes futuristes déclenchées par l’IA, depuis la guerre nucléaire jusqu’à une pandémie. Mais il existe un problème réel qui retient beaucoup moins l’attention : comment s’assurer que l’IA ne mange pas le repas économique de tout le monde.

Je ne parle pas seulement des perturbations d’emploi liées à l’IA qui pourraient survenir à l’avenir. C’est du moins un défi connu. Je parle plutôt de la manière dont l’IA va à la fois reproduire et accroître les problèmes du capitalisme de surveillance. Nous entendons par là la manière dont les données et l’attention des utilisateurs sont contrôlées et monétisées par une poignée de grands acteurs technologiques capables d’extraire des rentes économiques disproportionnées par rapport à la valeur qu’ils ajoutent.

Comme le montrent de nombreuses actions antitrust aux États-Unis et en Europe, nous n’avons pas encore résolu ce problème dans des domaines tels que la recherche sur Internet, la publicité numérique et les médias sociaux, sans parler de l’IA. Cela s’explique en grande partie par le fait que « vous ne pouvez pas réglementer ce que vous ne comprenez pas », déclare Tim O’Reilly, PDG d’O’Reilly Media et professeur invité de pratique à l’Institut pour l’innovation et le public de l’UCL. Objectifs.

Dans un article sur les rentes dans « l’économie de l’attention » publié la semaine dernière avec Mariana Mazzucato et Ilan Strauss, O’Reilly affirme que « le problème le plus fondamental auquel les régulateurs doivent s’attaquer est que les mécanismes par lesquels les plateformes mesurent et gèrent l’attention des utilisateurs sont mal compris. .» Pour O’Reilly et ses co-auteurs, « une réglementation efficace dépend d’une meilleure divulgation ».

Laissez de côté l’IA pour un instant et considérez les mesures utilisées par les moteurs de recherche géants, les plateformes de commerce électronique et les sociétés de médias sociaux pour monétiser l’attention. Il s’agit notamment du nombre d’utilisateurs et du temps qu’ils passent sur un site, du montant qu’ils achètent et en réponse à quelles publicités, du ratio clics organiques/clics publicitaires, de la quantité de trafic envoyé vers des sites extérieurs, du volume du commerce dans un site. secteur donné et quel pourcentage des frais revient aux vendeurs tiers.

Tout modèle économique de surveillance utilisera ces indicateurs clés. Et pourtant, comme le notent les auteurs, seuls les indicateurs financiers les plus traditionnels sont rapportés régulièrement et systématiquement dans les documents publics. Cela entraîne une confusion car ces rapports financiers sont « presque complètement déconnectés des mesures opérationnelles qui sont utilisées pour gérer une grande partie de l’entreprise ».

Les entreprises feront bien sûr valoir que ces mesures sont exclusives et permettraient à des tiers de jouer avec leurs systèmes si elles sont connues. Mais, comme visent à le démontrer les affaires antitrust actuelles impliquant des grandes entreprises technologiques, ces parties, ainsi que les clients, ont eux-mêmes été lésés.

La difficulté d’évaluer les dommages est que les modèles économiques numériques et leur fonctionnement restent opaques. Et cela est encore plus vrai lorsque nous nous concentrons sur les grands modèles de langage et l’IA générative. Si leurs modèles opérationnels sont différents de ceux des moteurs de recherche ou du commerce électronique, ils dépendent également de l’attention des utilisateurs et de l’autorité algorithmique. Et comme l’ont montré les débats réglementaires de ces derniers jours, celles-ci sont très mal comprises, tant isolément que les unes par rapport aux autres.

Le nouveau décret de la Maison Blanche contient des dispositions qui obligeraient les développeurs d’IA de « modèles de base à double usage » – c’est-à-dire ceux qui pourraient être utilisés à des fins militaires ou civiles – à fournir des mises à jour aux responsables du gouvernement fédéral sur les tests de sécurité. De tels tests devraient être « robustes, fiables, reproductibles et standardisés ». Le ministère américain du Commerce est chargé d’élaborer des normes pour détecter et étiqueter le contenu généré par l’IA.

C’est un bon début, mais ce n’est pas suffisant. Le chef de cabinet adjoint de la Maison Blanche, Bruce Reed, qui a dirigé les efforts sur le nouveau décret, m’a déclaré la semaine dernière que « nous voulions faire tout ce que nous pouvions avec les outils dont nous disposons » et que l’administration espère que le décret « aidera à construire ». consensus sur ce que nous pouvons faire. Cela pourrait inclure les affaires de la Federal Trade Commission sur le pouvoir monopolistique de l’IA ; l’ordonnance appelle explicitement à un « écosystème d’IA juste, ouvert et compétitif ».

Mais 30 ans après l’avènement de l’Internet grand public, les plateformes des Big Tech elles-mêmes font seulement maintenant face à d’importantes poursuites monopolistiques. Il y a un argument à faire valoir selon lequel nous devons nous concentrer un peu moins sur Terminateurdes scénarios du pire pour l’IA et une divulgation de données économiques beaucoup plus spécifiques pour freiner la nouvelle technologie ici et maintenant, avant qu’elle n’ait déjà acquis trop de pouvoir. Par exemple, les propositions de la Maison Blanche ne traitent pas spécifiquement des dommages économiques immédiats tels que l’utilisation de données protégées par le droit d’auteur dans les modèles de formation.

Il y a eu un débat animé sur la manière d’équilibrer la sécurité et l’innovation en matière d’IA. Si le ministère du Commerce est intelligent, il pourrait utiliser le décret comme levier pour forcer les développeurs d’IA, parmi lesquels de nombreuses grandes plateformes, à ouvrir leurs boîtes noires et à nous montrer comment ces entreprises fonctionnent réellement. Ce serait une étape vers l’identification des paramètres clés d’un système de divulgation publique, indispensable à une bonne réglementation. Nous n’avons pas réussi à trouver un meilleur système comptable pour le capitalisme de surveillance. Ne commettons pas cette erreur avec l’IA.

[email protected]

Vidéo : L’IA générative peut-elle être à la hauteur du battage médiatique ? | Technologie FT



ttn-fr-56