EE.UU. crea un consorcio para abordar los riesgos de la IA con 200 empresas tecnológicas


Gina Raimondo, secretaria de Comercio de Estados Unidos, anunció el 7 de febrero la creación del AI Safety Institute Consortium (AISIC), afiliado al Instituto Nacional de Estándares y Tecnología (NIST). En total, más de 200 empresas tecnológicas se han unido para apoyar el despliegue seguro de la inteligencia artificial (IA) y abordar los riesgos asociados a su desarrollo.

Grandes grupos y startups unidos para avanzar hacia una IA más responsable

En comunicado de prensa, Gina Raimondo recordó que “ El gobierno de EE. UU. tiene un papel importante que desempeñar en el establecimiento de estándares y el desarrollo de las herramientas que necesitamos para mitigar los riesgos y aprovechar el inmenso potencial de la inteligencia artificial. «. Por ello, la Administración Biden ha pedido a numerosos grupos especializados en IA generativa o cuyas actividades están vinculadas a esta tecnología que le ayuden en su tarea.

Al consorcio se han sumado Google, Amazon, Microsoft, Meta y Apple. GAFAM estará acompañada de varios especialistas en semiconductores como Nvidia, Qualcomm e Intel. A ellos se han unido gigantes de la TI, la nube, el big data y la ciberseguridad como IBM, Hewlett Packard, Cisco Systems y Palantir. Finalmente, algunas startups se han sumado a AISIC: OpenAI y Anthropic, entre otras.

Juntas, estas empresas trabajarán en algunas de las acciones prioritarias incluidas en la orden ejecutiva firmada a finales de octubre por el presidente de Estados Unidos, Joe Biden. Con ello se pretende regular el desarrollo de la IA y evitar abusos. “ El presidente Biden nos ha pedido que utilicemos todos los medios para lograr dos objetivos clave: establecer estándares de seguridad y proteger nuestro ecosistema de innovación. Precisamente por eso se creó el consorcio American AI Safety Institute: para ayudarnos a hacerlo. »dijo Gina Raimondo.

AISIC desarrollará directrices para el equipo rojo, entidad que periódicamente realiza simulaciones de intrusiones en sistemas informáticos con el fin de comprobar su robustez y mejorar su seguridad. El consorcio también estudiará la creación de una marca de agua incluida en los metadatos del contenido, para saber si fue generada por IA o no. Meta, que forma parte del grupo, presentó recientemente sus medidas para identificar mejor este tipo de contenidos.

La iniciativa emprendida por la Administración Biden no es la primera de este tipo que reúne a varias empresas especializadas del sector. En julio pasado, Google, OpenAI, Anthropic y Microsoft fundaron una organización centrada en el desarrollo “seguro” y “responsable” de herramientas de IA generativa. Sus misiones son promover la investigación sobre la seguridad de la IA, colaborar con los responsables políticos, apoyar el desarrollo de aplicaciones seguras y promover el despliegue responsable de modelos de vanguardia. Los cuatro “pioneros” cuentan ahora con el apoyo del gobierno estadounidense y de 200 empresas.



ttn-es-4