Recevez des mises à jour gratuites sur la réglementation technologique

La Chine doit édicter des règles pour l’IA générative alors que Pékin cherche à trouver un équilibre entre l’encouragement des entreprises locales à développer la technologie révolutionnaire et son désir de contrôler le contenu.

La Cyberspace Administration of China, le puissant chien de garde d’Internet, vise à créer un système qui obligera les entreprises à obtenir une licence avant de pouvoir publier des systèmes d’IA générative, ont déclaré deux personnes proches des régulateurs.

Cette exigence renforce le projet de réglementation publié en avril, qui avait donné aux groupes plus de marge de manœuvre, les groupes ayant 10 jours ouvrables pour enregistrer leur produit auprès des autorités chinoises après le lancement.

Le nouveau régime de licences, qui fait partie des réglementations qui sont en cours de finalisation dès ce mois-ci selon des personnes au courant de la décision, montre comment Pékin a du mal à concilier l’ambition de développer des technologies de pointe avec son régime de censure de longue date.

« C’est la première fois que [authorities in China] se retrouvent à devoir faire un compromis » entre les deux objectifs « fondamentaux » du parti communiste de maintenir le leadership de l’IA et de contrôler l’information, a déclaré Matt Sheehan, membre du Carnegie Endowment for International Peace.

« Si Pékin entend contrôler et censurer complètement les informations créées par AI, ils exigeront que toutes les entreprises obtiennent l’approbation préalable des autorités », a déclaré une personne proche des délibérations du CAC.

« Mais la réglementation doit éviter d’étouffer les entreprises nationales dans la course à la technologie », a ajouté la personne. Les autorités « hésitent ».

La Chine cherche à répondre à la montée en puissance des systèmes d’IA génératifs, qui créent rapidement des textes, des images et d’autres contenus de type humain en réponse à de simples invites.

Le contenu doit « incarner les valeurs socialistes fondamentales », selon le projet de règles d’avril, et ne doit rien contenir qui « renverse le pouvoir de l’État, prône le renversement du système socialiste, incite à diviser le pays ou porte atteinte à l’unité nationale ».

Des entreprises telles que Baidu et Alibaba, qui ont déployé des applications d’IA génératives cette année, avaient été en contact avec les régulateurs au cours des derniers mois pour s’assurer que leur IA n’enfreignait pas les règles, ont déclaré deux autres personnes proches des régulateurs.

Le CAC devait s’assurer que l’IA était « fiable et contrôlable » car Pékin était préoccupé par les données utilisées, a récemment déclaré son directeur Zhuang Rongwen.

« Les mesures réglementaires de la Chine se concentrent principalement sur le contrôle du contenu », a déclaré Angela Zhang, professeure agrégée de droit à l’Université de Hong Kong.

D’autres gouvernements et autorités se précipitent pour légiférer contre les abus potentiels de la technologie. L’UE a proposé certaines des règles les plus strictes au monde, provoquant un tollé des entreprises et des dirigeants de la région, tandis que Washington discute de mesures pour contrôler l’IA et que le Royaume-Uni lance un examen.

Projet de règlement d’avril en Chine a établi des exigences pour les données que les entreprises technologiques utilisaient pour former des modèles d’IA génératifs avec une demande spécifique pour assurer « la véracité, l’exactitude, l’objectivité et la diversité ».

L’exigence montre que la Chine adopte une direction similaire à celle de l’Europe, où la qualité des données utilisées pour former les modèles d’IA est un domaine clé de l’examen réglementaire, comme la recherche de problèmes tels que les « hallucinations » – lorsque les systèmes d’IA fabriquent du matériel.

Pékin, cependant, a fixé ses exigences « tellement plus élevées », a déclaré Sheehan. Cela signifie que les entreprises chinoises doivent déployer plus d’efforts pour filtrer le type de données utilisées pour « former » l’IA.

Le manque de données disponibles répondant à ces demandes est cependant devenu un goulot d’étranglement empêchant de nombreuses entreprises de développer et d’améliorer les soi-disant grands modèles de langage, la technologie sous-jacente aux chatbots tels que ChatGPT d’OpenAI et Bard de Google.

Les entreprises étaient susceptibles d’être « plus prudentes et conservatrices sur ce que [AI] ils construisent », car les conséquences de la violation des règles pourraient être graves, a déclaré Helen Toner, directrice de la stratégie et des subventions de recherche fondamentale au Centre pour la sécurité et les technologies émergentes de l’Université de Georgetown.

Les autorités chinoises ont laissé entendre dans leur projet de réglementation que les groupes technologiques créant un modèle d’IA seront presque entièrement responsables de tout contenu créé, une décision qui «rendrait les entreprises moins disposées à rendre leurs modèles disponibles car elles pourraient être tenues responsables de problèmes indépendants de leur volonté, « , a déclaré Toner.

Le FT a tenté de contacter le CAC pour obtenir des commentaires.

Reportage supplémentaire de Ryan McMorrow à Pékin



ttn-fr-56