Noticia | 02-08-2024 | 09:46
Para garantizar que la IA (inteligencia artificial) se desarrolle y aplique de forma segura y fiable, el 1 de agosto entró en vigor en la Unión Europea el Reglamento sobre IA. Estos son los requisitos y marcos europeos para la IA. De esta manera podemos beneficiarnos de manera óptima de las oportunidades (económicas) de la IA, se abordan los riesgos de los sistemas y aplicaciones de IA y estimulamos el desarrollo de una IA confiable. El reglamento será aplicable gradualmente.
El Reglamento sobre IA es un conjunto de normas que deben garantizar una IA fiable en la UE estableciendo requisitos para el desarrollo y uso de estos sistemas. Dependiendo del sistema de IA o del contexto en el que se utilizará, se aplican diferentes requisitos. Se prohibirán las aplicaciones de IA que representen riesgos verdaderamente inaceptables para las personas. Consideremos los sistemas que se utilizan para una evaluación injusta de las personas (los llamados ‘puntuación social’). Se imponen requisitos claros a la IA con altos riesgos, como las aplicaciones en el mercado laboral o en los servicios financieros. Para determinadas aplicaciones de IA que interactúan con ciudadanos (como chatbots) o crean o manipulan contenido (deepfakes) debe quedar claro que se trata de IA. No se imponen nuevos requisitos a las aplicaciones de IA que plantean pocos o ningún riesgo. La mayoría de los sistemas de IA que se utilizan actualmente en Europa entran en esta categoría.
Claridad
Los ciudadanos, consumidores, gobiernos y empresas que utilizan o entran en contacto con productos de IA pueden asumir que estos sistemas son seguros y fiables. Y proporciona claridad a los desarrolladores de IA cuando quieren ofrecer sus productos en el mercado europeo. Además, pueden participar empresas y organizaciones (gubernamentales). entornos de pruebas regulatorios recibir asesoramiento y explicaciones de los supervisores sobre las normas del reglamento, con el fin de reducir el umbral para desarrollar e implementar sistemas de IA de manera responsable. Por último, estas normas europeas garantizan la igualdad de condiciones; Los proveedores no europeos de productos y servicios de IA también deben cumplir con esto si los ofrecen aquí.
Ministro Beljaarts (Asuntos Económicos): “Queremos aprovechar mejor las oportunidades económicas de la IA y seguir estimulando la innovación por parte de investigadores y empresarios. Al mismo tiempo, debemos poder garantizar el funcionamiento seguro de la IA. Por lo tanto, con esta legislación tenemos en cuenta los riesgos de los distintos sistemas de IA. Reglas estrictas cuando sea necesario, pero no reglas innecesarias para las empresas que desarrollan y aplican sistemas de IA de bajo riesgo. Por lo tanto, estoy satisfecho con estos acuerdos europeos que logran el equilibrio adecuado entre las oportunidades y los riesgos de la IA”.
Secretario de Estado Szabó (Digitalización y Relaciones del Reino): “Este momento de entrada en vigor del Reglamento sobre IA es un hito importante para la Unión Europea. La UE, y por tanto también los Países Bajos, están firmemente comprometidos a garantizar que podamos confiar en la IA y a fomentar el desarrollo y el uso de una IA fiable en el gobierno. Por ejemplo, desde el principio, los desarrolladores ahora deben identificar los riesgos para los derechos fundamentales, y los ciudadanos deben ser informados activamente sobre el uso de sistemas de IA de alto riesgo si se utilizan en decisiones que les afecten”.
Implementación paso a paso
El reglamento entró en vigor el 1 de agosto de 2024, pero las distintas partes se aplicarán por fases. Esto brinda a los desarrolladores y proveedores de IA de alto riesgo la oportunidad de garantizar que sus sistemas de IA cumplan con los nuevos requisitos.
- Febrero de 2025: disposiciones sobre la IA prohibida
- Agosto de 2025: Requisitos para la IA de uso general (propósito general AI)
- Agosto de 2026: requisitos para aplicaciones de IA de alto riesgo y obligaciones de transparencia
- Agosto de 2027: requisitos para productos de IA de alto riesgo: entonces se aplicará la regulación completa de la IA
- Agosto de 2030: requisitos para sistemas de inteligencia artificial de alto riesgo en organizaciones gubernamentales que se lanzarán al mercado antes de agosto de 2026
La Comisión Europea supervisará los grandes modelos de IA que pueden utilizarse para muchos fines diferentes. Los reguladores nacionales garantizarán que se cumplan los requisitos para la IA de alto riesgo. Esto está establecido en las regulaciones nacionales.