Si el esfuerzo con el que se alcanzó el acuerdo sobre IA es ilustrativo de los principales intereses políticos y comerciales que hay detrás, se puede concluir: son enormes.
Después de sesiones maratónicas que duraron un total de 36 horas de negociaciones, la Unión Europea llegó el viernes por la tarde a un acuerdo sobre la llamada Ley de IA.
Significa que Europa está ahora a la vanguardia de la regulación de la inteligencia artificial, algo que destacados expertos en IA de todo el mundo vienen pidiendo desde hace algún tiempo. En una oracion La presidenta de la Comisión Europea, Ursula von der Leyen, elogió la ley que “proporciona soluciones centradas en las personas, transparentes y responsables”. […] IA en la UE”, sino que también “contribuye sustancialmente al desarrollo de barreras globales para una IA confiable”.
Aún no se conocen todos los detalles sobre el acuerdo firmado y el Parlamento Europeo y los Estados miembros de la UE también deben pronunciarse nuevamente sobre el resultado final. Pero los marcos están claramente definidos, lo que deja claro cómo Europa quiere restringir la IA en los próximos años y así establecer un estándar mundial.
Lea también
¿Cómo será el mundo en 2040 si la humanidad permite la IA sin regulación?
Cuanto mayores son los riesgos, más estrictas son las reglas
El principio básico de la ley es que cuanto mayores sean los riesgos asociados con un sistema de IA, más estrictas serán las reglas. Significa la prohibición de sistemas con un riesgo inaceptable, por ejemplo los llamados “sistemas de puntuación social” de los gobiernos, que clasifican a los ciudadanos en función de características o comportamientos personales, y el uso de software de reconocimiento de emociones por parte de empleadores o instituciones educativas. Ante la insistencia del Parlamento Europeo, también estará prohibido predecir si un individuo cometerá un error basándose en sus datos personales, algo que influyó en el asunto de los beneficios en los Países Bajos.
Pero la ley también contiene excepciones, algunas de las cuales aún no están claras en cuanto a su alcance. Durante las negociaciones, los estados miembros de la UE insistieron firmemente en opciones amplias de IA para los servicios de seguridad e investigación. La prohibición absoluta de tiempo real-El reconocimiento facial, que quería el Parlamento Europeo, no se implementará por esta razón: los servicios gubernamentales pueden utilizar tales sistemas en la detección de sospechosos de asesinato y la prevención de actos terroristas, entre otras cosas.
Decepciona, entre otros, Amnistía Internacional, que subrayó en un comunicado que una “prohibición absoluta es realmente necesaria” porque “ninguna garantía puede evitar el daño que el reconocimiento facial causa a los derechos humanos”.
“Fue una gran batalla”
El eurodiputado Kim van Sparrentak, que fue uno de los principales negociadores de GroenLinks, habla de una “enorme batalla” que tuvo que librarse en este punto con los gobiernos de la UE. “Realmente me hubiera gustado más, pero al mismo tiempo me alegro de que hayamos podido limitar drásticamente su uso”. Señala que, por ejemplo, el reconocimiento facial sólo se puede utilizar en casos muy concretos dirigidos a un solo sospechoso, donde un juez siempre debe dar permiso previo.
Al menos igual de grande fue la batalla para regular los modelos de IA más potentes, también llamados ‘IA de propósito general’ (GPAI), incluido el conocido chatbot ChatGPT. Bajo la presión de un fuerte lobby tecnológico, Alemania, Francia e Italia han abogado por eliminar estos modelos de la ley en las últimas semanas, imponiéndoles sólo “autorregulación”. Argumento principal: unas normas demasiado estrictas obstaculizarían la innovación en Europa.
Ese lobby no tuvo (completamente) éxito: los modelos GPAI pronto también estarán sujetos a la ley. Esto significa que las empresas subyacentes deben, entre otras cosas, ser transparentes sobre los datos con los que se han entrenado los modelos. También deben cumplir con la ley europea de derechos de autor y, en el caso de texto, imágenes o sonido, dejar claro que fueron creados con IA.
Para los sistemas más grandes, incluido ChatGPT, las reglas serán aún más estrictas: deberán, entre otras cosas, realizar controles periódicos sobre su posible impacto social, limitar los riesgos e informar sobre su consumo de energía.
Al mismo tiempo, aquí hay excepciones, específicamente para los sistemas que son de “código abierto”, lo que significa que cualquiera puede ver la tecnología y usarla para entrenar su propio modelo. Como estos sistemas son naturalmente más transparentes, tienen menos obligaciones. A menos que sean calificados como de ‘alto riesgo’, definición que aún no está muy clara.
Esto significa que las empresas europeas de IA que más presionaron contra las regulaciones en las últimas semanas, la alemana Aleph Alpha y la francesa Mistral AI, probablemente no se verán afectadas en parte como empresas de código abierto.
No pudo evitar que el lobby tecnológico reaccionara tibiamente al acuerdo. El principal club de lobby, DigitalEurope, expresó su preocupación en un comunicado sobre lo difícil que será para las empresas cumplir con las reglas, lo que las obligará a “gastar más en abogados, en lugar de contratar nuevos desarrolladores de IA”.
No es un ‘libro de reglas’, sino un ‘trampolín’
Señala un punto delicado en el debate sobre la legislación sobre IA: la acusación de que las leyes y regulaciones obstaculizan la innovación. En una declaración inicial sobre X El Comisario europeo Thierry Breton (Mercado Interior) ya se adelantó a esas críticas, al subrayar que la ley no es sólo un “libro de reglas”, sino también “un trampolín para que las empresas emergentes y los investigadores de la UE lideren la carrera mundial de la IA”.
La esperanza en Europa es que las normas, como ocurrió anteriormente con las relativas a la privacidad, eventualmente se adopten (parcialmente) a nivel mundial. Pero es incierto si eso sucederá. Ya está claro que la UE todavía está muy por detrás de Estados Unidos y China en la carrera mundial por la IA. Por lo tanto, es posible que los modelos más grandes, que deben cumplir con las regulaciones más estrictas, se hayan desarrollado exclusivamente fuera de Europa. Puede alimentar sospechas de proteccionismo. Al mismo tiempo, se dice en Bruselas que la carga administrativa adicional para este tipo de modelos a gran escala queda eclipsada por los millones que este tipo de grandes empresas tecnológicas -como OpenAI o Google- ya están invirtiendo.
La próxima primavera, los eurodiputados y los estados miembros de la UE tendrán que votar nuevamente sobre la propuesta final, después de lo cual comenzará la fase de implementación. Las prohibiciones se aplicarán después de seis meses, pero la gran mayoría del resto de la legislación no entrará en vigor hasta dos años después: probablemente en 2026.
Leyendo lista