AI Act: un texto ambicioso para regular la inteligencia artificial



Este episodio está disponible en SpotifyPódcasts de AppleDeezerPódcasts de GoogleUn molde.

Después de 37 horas de negociaciones, más negociaciones. El viernes 8 de diciembre de 2023 se llegó a un acuerdo en un diálogo tripartito para la AI Act, el texto europeo destinado a regular la inteligencia artificial. Una primicia mundial. Sin embargo, su periplo legislativo no ha terminado. Tan pronto como se anunció el acuerdo, las críticas se multiplicaron, procedentes de grupos de presión y de países como Francia. De hecho, Francia está pidiendo regulaciones más flexibles para proteger a su campeón Mistral AI. Por lo tanto, aún deben realizarse discusiones técnicas durante el mes de enero para finalizar el texto.

El Parlamento y el Consejo Europeo, por su parte, aún deben votar este texto. Aunque todo está lejos de terminar, en medio del caos se conocen las primeras medidas y las empresas ya se anticipan a su cumplimiento. Para hacer balance de este texto histórico, de sus medidas y de su enfoque, Siglo digital habló con Chadi Hantouche, socio de inteligencia artificial y datos de la consultora Wavestone.

La Ley de IA, “un texto imprescindible”

No es exagerado decir que la gran mayoría de las partes interesadas afectadas por la Ley de IA están a favor de regular la inteligencia artificial. “ Es un texto imprescindible. », confirma Chadi Hantouche. “ Regulará una de las tecnologías disruptivas más importantes en los próximos años, tal vez décadas. «, él cree. Un texto que abordará también un mercado enorme, que ya representa 327 mil millones de dólares. Durante las negociaciones hubo muchos puntos calientes. Uno de ellos se refiere al enfoque adoptado. Sobre este punto, Francia y sus socios han ganado el caso, se trata de un enfoque basado en el riesgo: “ Es un enfoque que distingue entre diferentes tipos de riesgos. En este caso, los llamados riesgos inaceptables, luego los riesgos altos, limitados y bajos. », explica el socio de IA de Wavestone.

También se dice que el enfoque es de dos niveles. Esto significa que hay “ Requisitos específicos para todos los sistemas de IA de uso general. Pero –y este es el enfoque de dos niveles– existen obligaciones adicionales para los llamados riesgos sistémicos, definidos por el poder del modelo. », explica el experto. Este último punto, el del umbral de potencia para los riesgos sistémicos, plantea un problema para Francia, a la que le gustaría que desapareciera o aumentara. Otra crítica que se hace a este texto: la falta de claridad. “ No es un poco borroso, es mucho borroso. », lamenta el experto, antes de poner un ejemplo, el de la oficina europea de IA. “ Habrá una oficina de AI, una oficina central europea cuyo objetivo es facilitar la aplicación del reglamento. Sólo estará compuesto en 1 año. «. Problema, esta oficina debe proporcionar guías para cumplir. Útil para empresas, que sólo tienen 2 años para hacerlo. Sin duda, las negociaciones futuras aclararán algunos de estos puntos.



ttn-es-4