Acuerdo político provisional Requisitos de la UE para el desarrollo de la inteligencia artificial


Noticia | 12-09-2023 | 12:34

La UE ha alcanzado un acuerdo político provisional en Bruselas sobre la Ley de IA. Estos son los requisitos y marcos europeos para la inteligencia artificial: una tecnología digital que desempeña un papel cada vez más importante en la sociedad y la economía. Esto dará un impulso importante al desarrollo adecuado de la IA, destinado a generar oportunidades económicas y salvaguardar los valores públicos, en la UE y los Países Bajos.

El Ley de IA ofrece claras oportunidades tanto para los promotores como para los empresarios y también garantías para los consumidores europeos. Esto incluye acuerdos básicos sobre el funcionamiento de la IA en productos y servicios, requisitos para aplicaciones potencialmente riesgosas y apoyo a desarrolladores como las pymes. De esta manera, los europeos pueden confiar en la IA.

Así es como el Ley de IA dirección para que los desarrolladores cumplan con los requisitos. Dentro del llamado entornos de pruebas regulatorios pueden innovar con esto. De esta manera, se podrán desarrollar aplicaciones de IA en la UE que mejoren nuestra posición tecnológica en el mercado global y garanticen una IA de alta calidad. De esta manera se puede estimular la IA, por ejemplo, en programas de diseño, aplicaciones en la industria manufacturera y en videojuegos.

Acuerdos en acuerdo político provisional

El acuerdo político también incluye acuerdos sobre qué son los sistemas de IA de alto riesgo y qué requisitos se les imponen. Pronto también se prohibirán ciertos tipos de IA no deseadas, como por ejemplo: puntuación social o técnicas manipulativas de IA. Proveedores de chatbots en tiendas online, profundo técnicas o sistemas de IA generativa como el popular ChatGPT Debe asegurarse de que quede claro para las personas que están hablando con una IA o que el contenido es creado por una IA. Los sistemas de IA con poco o ningún riesgo para los humanos no tienen que cumplir requisitos adicionales. Se trata, por ejemplo, de sistemas de IA para la atención al cliente, para la gestión de inventarios o para datos de bajo riesgo.

Ministro Micky Adriaansens (Asuntos Económicos y Clima): “La inteligencia artificial avanza actualmente a la velocidad del rayo en todo el mundo. Es importante que en Europa nos posicionemos mejor a este respecto. Entonces podremos ponernos al día con esta tecnología, podremos beneficiarnos más económicamente de las oportunidades que ofrece la IA y podremos centrarnos en el desarrollo de sistemas de IA que funcionen de acuerdo con los estándares deseables en nuestra sociedad. Por lo tanto, debemos seguir fomentando firmemente la innovación por parte de investigadores y empresarios. Al mismo tiempo, debemos garantizar sistemas de IA seguros y que funcionen bien para generar confianza. La futura Ley de IA promete lograr el equilibrio adecuado a este respecto”.

Secretaria de Estado Alexandra van Huffelen (Relaciones del Reino y Digitalización): “Tratar con la IA implica lograr un buen equilibrio entre aprovechar las posibilidades y enfrentar las objeciones. Hay muchos sectores en los que los Países Bajos son fuertes y en los que la IA desempeñará un papel importante. Pensemos en la agricultura, la educación, la atención sanitaria, la paz y la seguridad. A nivel internacional, los Países Bajos se comprometen a garantizar que podamos confiar en esta tecnología. Por ejemplo, para evitar la discriminación en el uso de la IA para conceder prestaciones o la transparencia de los algoritmos en el sector financiero. Estoy contento con un acuerdo de la UE. Pero esto no nos exime de la obligación de seguir analizando las oportunidades y riesgos de utilizar la tecnología de IA y hacer cumplir las reglas”.

Claridad para desarrolladores y usuarios

El Ley de IA proporciona claridad a los desarrolladores de IA cuando quieren ofrecer sus productos en el mercado europeo. Los usuarios de IA también están sujetos a reglas para prevenir riesgos. Las obligaciones legales, como un sistema de gestión de riesgos, pronto se aplicarán a los sistemas de inteligencia artificial de alto riesgo que, por ejemplo, influyen en las posibilidades de las personas en el mercado laboral, la educación, los servicios financieros o los dispositivos médicos. Alrededor del 15% de todos los sistemas de IA entran en esta categoría. Habrá requisitos separados y supervisión europea para los modelos de IA realmente grandes.

Los consumidores, gobiernos y empresas que compran o entran en contacto con productos de IA pueden asumir que estos sistemas son seguros. La supervisión debe garantizar que los sistemas inseguros sean retirados del mercado y que se puedan imponer multas a los desarrolladores que no cumplan los requisitos. Al mismo tiempo, las normas europeas garantizan la igualdad de condiciones; Los proveedores no europeos de productos y servicios de IA también deben cumplir con esto si venden sus productos aquí. Las organizaciones que utilizan IA, como las PYME, pronto podrán tener la confianza de que funcionará bien y recibirán apoyo del desarrollador.

El acuerdo aún debe ser aprobado por todos los estados miembros de la UE y por todo el Parlamento Europeo. La ley entrará en vigor después de dos años.



ttn-es-17