La Unión Europea anunció el 27 de junio de 2023 la próxima apertura de cuatro centros de prueba y experimentación para evaluar los sistemas de inteligencia artificial más recientes. Estas instalaciones permanentes permitirán…
La Unión Europea anunció el 27 de junio de 2023 la próxima apertura de cuatro centros de prueba y experimentación para evaluar los sistemas de inteligencia artificial más recientes. Estas instalaciones permanentes permitirán pruebas de choque en los modelos de IA y deberían ver la luz a principios del próximo año.
Cuatro centros para probar y experimentar con herramientas de inteligencia artificial
La Comisión Europea ha destinado una dotación de 220 millones de euros para hacer realidad este proyecto. Esta suma se recaudó con la ayuda de algunos gobiernos de los países miembros de la UE, así como con el apoyo del programa para una Europa digital. Financiará estos cuatro centros durante cinco años. Pasado este tiempo, estas instalaciones tendrán que poder financiarse cobrando a las empresas que acudan a probar sus modelos.
Cada establecimiento estará especializado en un sector concreto: la ciudad conectada, la agricultura, la salud, la industria… Serán virtuales o físicos, lo que permitirá a los proveedores acudir directamente a las instalaciones para que prueben sus herramientas, o pasar por un mostrador virtual sistema si no pueden hacerlo físicamente. Un centenar de organizaciones apoyarán la puesta en marcha de estos cuatro centros.
Durante el anuncio, Lucilla Sioli, Directora de Inteligencia Artificial e Industria Digital de la Comisión Europea, subrayó la importancia de que los innovadores en traer modelos de inteligencia confiables al mercado “. Agregó que tenían todo el interés “ confiar en estos nuevos centros para probar y validar sus aplicaciones “.
Suministro de IA de confianza en la Unión Europea
Estas instalaciones complementarán la European AI Act, el reglamento aprobado recientemente por el Parlamento Europeo con el objetivo de regular la inteligencia artificial. No se ha facilitado información sobre la obligación de pasar por estos centros para validar un sistema de IA para que pueda ser comercializado y utilizado dentro de la UE.
Con la adopción y entrada en vigor de este nuevo marco legislativo, todos los modelos de IA serán clasificados. Para la ocasión se han diseñado cuatro categorías: riesgo mínimo, riesgo limitado, riesgo alto y riesgo inaceptable. Cuando un sistema se clasifica en las categorías de riesgo limitado o alto riesgo, las empresas que los diseñaron están obligadas a modificarlos o respetar ciertos estándares para ser lo más transparente posible y cumplir.
Estos centros son vistos como filtros de seguridad entre las innovaciones y los usuarios europeos. La Comisión afirma que ellos representan un componente importante en la construcción de un ecosistema de excelencia y confianza en la inteligencia artificial “.