El Reino Unido y Estados Unidos, junto con socios internacionales de otros 16 países, han publicado nuevas directrices para el desarrollo de sistemas seguros de inteligencia artificial (IA).
«El enfoque prioriza la propiedad de los resultados de seguridad para los clientes, adopta una transparencia y responsabilidad radicales y establece estructuras organizativas donde el diseño seguro es una prioridad máxima», dijo la Agencia de Seguridad de Infraestructura y Ciberseguridad de EE. UU. (CISA) dicho.
El objetivo es aumentar los niveles de seguridad cibernética de la IA y ayudar a garantizar que la tecnología se diseñe, desarrolle e implemente de manera segura, según el Centro Nacional de Seguridad Cibernética (NCSC). agregado.
Las directrices también se basan en las recomendaciones del gobierno de EE.UU. en curso esfuerzos Para gestionar los riesgos que plantea la IA, garantizando que las nuevas herramientas se prueben adecuadamente antes de su lanzamiento público, existen barreras de seguridad para abordar los daños sociales, como el sesgo y la discriminación, y las preocupaciones sobre la privacidad, y establecen métodos sólidos para que los consumidores identifiquen la IA. material generado.
Los compromisos también exigen que las empresas se comprometan a facilitar el descubrimiento y la notificación por parte de terceros de vulnerabilidades en sus sistemas de inteligencia artificial a través de un sistema de recompensas por errores para que puedan ser encontradas y solucionadas rápidamente.
El últimas directrices «ayudar a los desarrolladores a garantizar que la seguridad cibernética sea una condición previa esencial de la seguridad del sistema de IA y una parte integral del proceso de desarrollo desde el principio y en todo momento, lo que se conoce como un enfoque ‘seguro por diseño'», dijo el NCSC.
Esto abarca el diseño seguro, el desarrollo seguro, la implementación segura y la operación y mantenimiento seguros, cubriendo todas las áreas importantes dentro del ciclo de vida del desarrollo del sistema de IA, lo que requiere que las organizaciones modelen las amenazas a sus sistemas, así como salvaguarden sus cadenas de suministro e infraestructura.
El objetivo, señalaron las agencias, es combatir también los ataques adversarios dirigidos a sistemas de inteligencia artificial y aprendizaje automático (ML) que tienen como objetivo causar comportamientos no deseados de diversas maneras, incluido afectar la clasificación de un modelo, permitir a los usuarios realizar acciones no autorizadas y extraer información confidencial.
«Hay muchas maneras de lograr estos efectos, como por ejemplo ataques de inyección rápida en el dominio del modelo de lenguaje grande (LLM), o corromper deliberadamente los datos de entrenamiento o los comentarios de los usuarios (conocido como ‘intoxicación de datos’)», señaló el NCSC.