Dieciocho países dieron a conocer el 26 de noviembre un acuerdo internacional destinado a desarrollar herramientas seguras de inteligencia artificial (IA). El Centro Nacional de Seguridad Cibernética (NCSC), la agencia británica de ciberseguridad, es…
Dieciocho países dieron a conocer el 26 de noviembre un acuerdo internacional destinado a desarrollar herramientas seguras de inteligencia artificial (IA). El Centro Nacional de Seguridad Cibernética (NCSC), la agencia de ciberseguridad del Reino Unido, está detrás de estas directrices.
Se multiplican las iniciativas para garantizar la seguridad de la IA
A pocas semanas de la primera edición de la AI Safety Summit donde 28 países firmaron la primera declaración global para guiar el desarrollo de la inteligencia artificial, se selló un nuevo acuerdo. Fue firmado por Estados Unidos, Reino Unido, Alemania y Francia a través de ANSSI. Cabe señalar que China, que firmó la declaración en Bletchley Park, no se unió a esta iniciativa.
Este acuerdo no vinculante tiene forma de guía. Este documento, compuesto por 17 recomendaciones, tendrá como objetivo ayudar a las empresas del sector de la IA” tomar decisiones informadas sobre ciberseguridad en cada etapa del proceso de desarrollo, ya sea que esos sistemas se crearon desde cero o se basaron en herramientas y servicios proporcionados por otros, » según el comunicado de prensa del NCSC.
Georges Anidjar, director general para el sur de Europa de Informatica, considera que “ La introducción de políticas basadas en riesgos para regular las capacidades de la IA les dará impulso para proteger la integridad de la IA de modo que permita resultados positivos. «. Esta guía invitará a las empresas y agencias de ciberseguridad de los países signatarios a monitorear sus sistemas de inteligencia artificial para detectar amenazas cibernéticas crecientes, proteger los datos contra la falsificación o realizar pruebas antes de poner sus herramientas en línea.
En el desarrollo de estas directrices participaron gigantes tecnológicos y start-ups del sector como Google, Anthropic, OpenAI, Microsoft y Amazon. Sin embargo, algunos aspectos no se mencionan en el documento, como los datos utilizados para los modelos de entrenamiento o los riesgos relacionados con la aparición de la IA generativa. Sin embargo, para Georges Anidjar, “ Es fundamental que cualquier política aborde el papel que desempeña la calidad de los datos para garantizar la seguridad y eficacia de los sistemas de IA. «.
Los reguladores europeos que han abordado este tema han integrado varias medidas en esta dirección en la Ley Europea de IA. Sin embargo, los negociadores del diálogo tripartito Francia/Alemania/Italia están teniendo dificultades para llegar a un acuerdo sobre este reglamento. No quieren regular el sector con demasiada firmeza y, por lo tanto, apoyan la aparición de una de sus nuevas empresas. Los ejemplos Mistral AI del lado francés y Aleph Alpha del lado alemán siguen siendo los más convincentes.
En Estados Unidos, Joe Biden firmó un decreto para regular el desarrollo de la IA y ordenó a sus agencias gubernamentales que se ocuparan del tema. Así, la FTC recibió el encargo de regular el mercado de la IA. Su presidenta, Lina Khan, se reunió en particular con los actores del sector. Sin embargo, tendremos que esperar varios meses, si no varios años, antes de que veamos a la UE y Estados Unidos adoptar su marco legislativo para regular la IA.