‘Ahora nos estamos quedando atrás en Europa’: filósofo de la tecnología sobre la legislación de IA en la UE

Desde chatbots hasta coches autónomos o incluso reconocimiento facial: el Parlamento Europeo vota hoy un marco legislativo para todas las aplicaciones de la inteligencia artificial. Ya era hora, piensa el filósofo de la tecnología Mark Coeckelbergh, aunque también advierte contra el exceso de regulación. ‘Los usuarios también deben asumir la responsabilidad de esto.’

Juan Le Long

Cuando las plataformas de redes sociales irrumpieron a principios de siglo, parecía estar amaneciendo una nueva era de conexión e información en tiempo real. Los gobiernos en gran medida dejaron intactas a las empresas. Fue mucho más tarde que se comprendió la importancia de reducir el poder, las violaciones de la privacidad y la desinformación de las redes sociales. “Es positivo que ahora parece darse cuenta de que no debería pasarnos lo mismo con la inteligencia artificial (IA), dice el filósofo tecnológico Mark Coeckelbergh (Universidad de Viena), quien a su vez brindó asesoramiento en la preparación del borrador del texto. .

Hoy, el Parlamento Europeo en Estrasburgo vota sobre la Ley de Inteligencia Artificial. Así como la UE estableció estándares globales con la legislación de privacidad GDPR, la Unión quiere ser el primer actor global en crear un marco legislativo claro para las aplicaciones de inteligencia artificial, que van desde el ahora mundialmente famoso ChatGPT hasta los electrodomésticos inteligentes.

Para la UE, es caminar sobre la cuerda floja. La Unión todavía quiere impulsar la innovación y atraer nuevas empresas para no perder el barco de la IA, pero al mismo tiempo imponer reglas para garantizar la seguridad de los ciudadanos. ¿Cómo se puede conciliar eso?

Coeckelbergh: “Se debe encontrar un equilibrio. Creo que uno no tiene por qué excluir al otro. Puede ver que desde la llegada de ChatGPT, el rápido desarrollo de la IA ha generado mucho entusiasmo, pero también incertidumbre. Por ejemplo, incluso hubo personas importantes de grandes empresas tecnológicas que recientemente abogaron por una pausa en el desarrollo y la regulación de la IA. Al crear un marco claro, la UE puede ofrecer seguridad a estas empresas. De esta manera pueden desarrollarse sin temor a ser vistos como los malos que van a destruir a la humanidad, como ahora a veces se teme”.

La nueva ley impone reglas a todas las aplicaciones de IA en función del valor de riesgo que se les asigna, que van desde aplicaciones de bajo riesgo (como juegos de IA) hasta aplicaciones de alto riesgo (como automóviles autónomos) e “IA inaceptable” (como como un sistema de puntuación que clasifica a los ciudadanos según su comportamiento). Ahora se agrega una nueva categoría para todas las aplicaciones de texto generativo, como los muchos chatbots y motores de búsqueda, que se etiquetan como de alto o bajo riesgo después de una evaluación. ¿Un buen plan?

“Es bueno que obtengan una categoría separada, pero creo que eso a nadie le gusta estar en el lugar de los reguladores. Ya hemos visto varias veces cómo ciertas aplicaciones pueden pasar fácilmente de ‘bajo riesgo’ a ‘alto riesgo’, como el caso del belga que se suicidó tras semanas de conversaciones con el chatbot de IA Eliza. Esto demuestra que el estado psicológico de un individuo, el uso y el contexto pueden ser muy determinantes.

“No creo que la intención del gobierno deba ser prohibir tales aplicaciones o determinar muy estrictamente lo que usted, como usuario, puede o no consultar. Se debe proteger a los ciudadanos vulnerables, pero no podemos evitar todos los posibles usos indebidos de la tecnología. También es importante reconocer que nosotros, como usuarios, también tenemos responsabilidad en este sentido.

“Trabajar con aplicaciones de IA también es un proceso de aprendizaje para nosotros como ciudadanos, tal como tuvimos que aprender con Internet y las redes sociales. Pero también es importante que las empresas indiquen claramente que se trata de aplicaciones de IA y que también existen limitaciones en cuanto a lo que se puede esperar de ellas”.

Llama la atención que el Parlamento Europeo apueste por una prohibición total del uso del reconocimiento facial en el espacio público, mientras que la Comisión quería hacer excepciones para la detección de terroristas o niños secuestrados.

“El uso no regulado del reconocimiento facial no es deseable. No creo que sea bueno que todos en un aeropuerto sean filmados e ingresados ​​en bases de datos de IA, porque entonces serás visto como un criminal potencial en todas partes. Entonces una sociedad totalitaria está al acecho. Pero tampoco creo que sea deseable una prohibición total. Entonces creo que sería mejor idear un sistema en el que, por ejemplo, los servicios de seguridad puedan usar la tecnología en los casos en que esté justificado, por ejemplo, para proteger a los ciudadanos contra el terrorismo”.

La ley no entraría en vigor hasta 2025. ¿La legislación actual no estará desactualizada para entonces?

“Creo que sí. Por eso me temo que la normativa actual será demasiado específica en algunos casos. Me parece imprescindible añadir también algunos principios fundamentales, para que luego un juez pueda juzgar según el espíritu de esta ley.

“Esto muestra claramente que con los procesos legislativos actuales en la UE siempre estamos atrasados. Nuestro grupo de expertos ya dio su consejo para el borrador del texto en 2019, mientras que la ley solo entrará en vigor seis años después. Si queremos responder más rápidamente a cambios tecnológicos como la IA, tendremos que crear nuevas instituciones dentro de la UE”.



ttn-es-31