Nous devons créer des garde-fous pour l’IA


Et si la seule chose en laquelle vous pouviez vraiment avoir confiance était quelque chose ou quelqu’un d’assez proche pour être physiquement touché ? C’est peut-être le monde dans lequel l’IA nous emmène. Un groupe d’universitaires de Harvard et d’experts en intelligence artificielle vient de lancer un rapport visant à mettre des garde-fous éthiques autour du développement de technologies potentiellement dystopiques telles que le chatbot apparemment sensible d’OpenAI soutenu par Microsoft, qui a fait ses débuts dans une nouvelle version “améliorée” (selon votre point de vue), GPT-4, la semaine dernière.

Le groupe, qui comprend Glen Weyl, économiste et chercheur chez Microsoft, Danielle Allen, philosophe à Harvard et directrice du Safra Center for Ethics, et de nombreux autres notables de l’industrie, tire la sonnette d’alarme sur “la pléthore d’expériences avec les technologies sociales décentralisées”. . Il s’agit notamment du développement de “contenus hautement persuasifs générés par des machines (par exemple ChatGPT)” qui menacent de perturber la structure de notre économie, de notre politique et de notre société.

Ils croient que nous avons atteint un «moment constitutionnel» de changement qui nécessite un cadre réglementaire entièrement nouveau pour ces technologies.

Certains des risques de l’IA, comme un avenir de style Terminator dans lequel les machines décident que les humains ont eu leur journée, sont un territoire bien foulé dans la science-fiction – qui, il convient de le noter, a eu un assez bon bilan pour prédire où la science lui-même ira dans les 100 dernières années environ. Mais il y en a d’autres qui sont moins bien compris. Si, par exemple, l’IA peut désormais générer une fausse pièce d’identité parfaitement indétectable, à quoi servent les cadres juridiques et de gouvernance qui s’appuient sur de tels documents pour nous permettre de conduire, de voyager ou de payer des impôts ?

Une chose que nous savons déjà, c’est que l’IA pourrait permettre à de mauvais acteurs de se faire passer pour n’importe qui, n’importe où, n’importe quand. “Vous devez supposer que la tromperie deviendra beaucoup moins chère et plus répandue dans cette nouvelle ère”, déclare Weyl, qui a publié un livre en ligne avec la ministre taïwanaise du numérique, Audrey Tang. Cela expose les risques que l’IA et d’autres technologies de l’information avancées posent à la démocratie, notamment le fait qu’elles mettent le problème de la désinformation sous stéroïdes.

Les ramifications potentielles couvrent tous les aspects de la société et de l’économie. Comment saurons-nous que les transferts de fonds numériques sont sécurisés ou même authentiques ? Les notaires et les contrats en ligne seront-ils fiables ? Les fausses nouvelles, déjà un énorme problème, deviendront-elles essentiellement indétectables ? Et qu’en est-il des ramifications politiques du nombre incalculable d’interruptions de travail, un sujet que les universitaires Daron Acemoglu et Simon Johnson exploreront dans un livre très important plus tard cette année.

On peut facilement imaginer un monde dans lequel les gouvernements luttent pour suivre ces changements et, comme le dit le rapport de Harvard, « les processus démocratiques existants, très imparfaits, se révèlent impuissants. . . et sont ainsi abandonnés par des citoyens de plus en plus cyniques ».

Nous avons déjà vu des clins d’œil à cela. La ville privée du Texas construite par Elon Musk pour abriter ses employés de SpaceX, Tesla et Boring Company n’est que la dernière itération du fantasme libertaire de la Silicon Valley dans lequel les riches se réfugient dans des complexes privés en Nouvelle-Zélande, ou déplacent leur richesse et leurs entreprises. dans les juridictions extragouvernementales et les « zones économiques spéciales ». L’historien Wellesley Quinn Slobodian aborde la montée de ces zones dans son nouveau livre, Le capitalisme déchaîné.

Dans ce scénario, les recettes fiscales chutent, la part du travail s’érode et le monde à somme nulle qui en résulte exacerbe une « exitocratie » des privilégiés.

Bien sûr, l’avenir pourrait aussi être beaucoup plus prometteur. L’IA a un potentiel incroyable pour augmenter la productivité et l’innovation, et pourrait même nous permettre de redistribuer la richesse numérique de nouvelles façons. Mais ce qui est déjà clair, c’est que les entreprises ne vont pas abandonner le développement de technologies Web3 de pointe, de l’IA à la blockchain, aussi vite qu’elles le peuvent. Ils se considèrent comme étant dans une course existentielle entre eux et avec la Chine pour l’avenir.

En tant que tels, ils recherchent des moyens de vendre non seulement l’IA, mais aussi les solutions de sécurité pour celle-ci. Par exemple, dans un monde où la confiance ne peut pas être authentifiée numériquement, les développeurs d’intelligence artificielle de Microsoft et d’autres entreprises se demandent s’il pourrait y avoir une méthode pour créer des versions plus avancées de « secrets partagés » (ou des choses que seuls vous et une autre personne proche pourrait connaître) numériquement et à grande échelle.

Cependant, cela ressemble un peu à résoudre le problème de la technologie avec plus de technologie. En fait, la meilleure solution à l’énigme de l’IA, dans la mesure où il en existe une, peut être analogique.

“Ce dont nous avons besoin, c’est d’un cadre pour une vigilance plus prudente”, déclare Allen, citant le rapport de la commission présidentielle de 2010 sur la bioéthique, qui a été publié en réponse à l’essor de la génomique. Il a créé des lignes directrices pour une expérimentation responsable, ce qui a permis un développement technologique plus sûr (bien que l’on puisse signaler de nouvelles informations sur la possible fuite de laboratoire dans la pandémie de Covid-19, et dire qu’aucun cadre n’est infaillible au niveau international).

Pour l’instant, au lieu d’interdire l’IA ou d’avoir une méthode de réglementation parfaite, nous pourrions commencer par obliger les entreprises à révéler quelles expériences elles font, ce qui a fonctionné, ce qui n’a pas fonctionné et où des conséquences imprévues pourraient apparaître. La transparence est la première étape pour s’assurer que l’IA ne prend pas le dessus sur ses créateurs.

[email protected]



ttn-fr-56