China establecerá reglas de IA con énfasis en control de contenido


Reciba actualizaciones de regulaciones tecnológicas gratuitas

China emitirá reglas para la IA generativa, ya que Beijing busca equilibrar alentar a las empresas locales a desarrollar la tecnología revolucionaria con su deseo de controlar el contenido.

La Administración del Ciberespacio de China, el poderoso organismo de control de Internet, tiene como objetivo crear un sistema que obligue a las empresas a obtener una licencia antes de que puedan lanzar sistemas de IA generativa, dijeron dos personas cercanas a los reguladores.

Ese requisito endurece el borrador de las regulaciones emitidas en abril, que había brindado a los grupos más espacio de maniobra, ya que los grupos tenían 10 días hábiles para registrar su producto con las autoridades chinas después del lanzamiento.

El nuevo régimen de licencias, parte de las regulaciones que se están finalizando este mes según personas con conocimiento de la medida, indica cómo Beijing está luchando por reconciliar la ambición de desarrollar tecnologías líderes en el mundo con su antiguo régimen de censura.

“Es la primera vez que [authorities in China] se encuentran teniendo que hacer una compensación” entre los dos objetivos “fundamentales” del Partido Comunista de mantener el liderazgo de AI y controlar la información, dijo Matt Sheehan, miembro de Carnegie Endowment for International Peace.

“Si Beijing tiene la intención de controlar y censurar por completo la información creada por AI, requerirá que todas las empresas obtengan la aprobación previa de las autoridades”, dijo una persona cercana a las deliberaciones del CAC.

“Pero la regulación debe evitar sofocar a las empresas nacionales en la carrera tecnológica”, agregó la persona. Las autoridades “vacilan”.

China está tratando de responder al auge de los sistemas generativos de inteligencia artificial, que crean rápidamente texto, imágenes y otros contenidos similares a los humanos en respuesta a indicaciones simples.

El contenido debe “incorporar valores socialistas fundamentales”, según el borrador de las reglas de abril, y no debe contener nada que “subvierta el poder estatal, abogue por el derrocamiento del sistema socialista, incite a dividir el país o socave la unidad nacional”.

Compañías como Baidu y Alibaba, que lanzaron aplicaciones de IA generativa este año, se habían puesto en contacto con los reguladores durante los últimos meses para asegurarse de que su IA no violara las reglas, dijeron otras dos personas cercanas a los reguladores.

El CAC necesitaba asegurarse de que la IA fuera «confiable y controlable» ya que Beijing estaba preocupado por los datos utilizados, dijo recientemente su director Zhuang Rongwen.

“Las medidas regulatorias de China se centran principalmente en el control de contenido”, dijo Angela Zhang, profesora asociada de derecho en la Universidad de Hong Kong.

Otros gobiernos y autoridades se apresuran a legislar contra los posibles abusos de la tecnología. La UE ha propuesto algunas de las reglas más estrictas del mundo, lo que provocó la protesta de las empresas y ejecutivos de la región, mientras que Washington ha estado discutiendo medidas para controlar la IA y el Reino Unido está lanzando una revisión.

Proyecto de reglamento de abril en China estableció requisitos para los datos que las empresas tecnológicas utilizaron para entrenar modelos generativos de IA con una demanda específica para garantizar «veracidad, precisión, objetividad y diversidad».

El requisito muestra que China está adoptando una dirección similar a la de Europa, donde la calidad de los datos utilizados para entrenar modelos de IA es un área clave de escrutinio regulatorio, como tratar de abordar problemas como las «alucinaciones», cuando los sistemas de IA fabrican material.

Sin embargo, Beijing estableció su requisito «mucho más alto», dijo Sheehan. Esto significa que las empresas chinas deben esforzarse más en filtrar el tipo de datos que se utilizan para «entrenar» a la IA.

Sin embargo, la falta de datos disponibles que se ajusten a esas demandas se ha convertido en un cuello de botella que limita a muchas empresas a desarrollar y mejorar los llamados modelos de lenguaje extenso, la tecnología subyacente a los chatbots como ChatGPT de OpenAI y Bard de Google.

Es probable que las empresas sean «más cautelosas y conservadoras sobre lo que [AI] ellos construyen” porque las consecuencias de violar las reglas podrían ser graves, dijo Helen Toner, directora de estrategias y becas de investigación fundamental en el Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown.

Las autoridades chinas insinuaron en su borrador de regulaciones que los grupos tecnológicos que crean un modelo de IA serán casi totalmente responsables de cualquier contenido creado, una medida que “haría que las empresas estén menos dispuestas a poner a disposición sus modelos, ya que podrían ser responsables de problemas fuera de su control. —dijo Tóner.

El FT ha intentado ponerse en contacto con el CAC para hacer comentarios.

Información adicional de Ryan McMorrow en Beijing



ttn-es-56