Todo lo que quería saber sobre la seguridad de la IA pero tenía miedo de preguntar


Terminología de IA desvalorizada

Últimamente ha habido mucho entusiasmo por la IA, pero eso no significa que los robots estén aquí para reemplazarnos. Este artículo deja las cosas claras y explica cómo las empresas deberían abordar la IA.

Desde reflexionar sobre los coches autónomos hasta temer a los robots de IA que podrían destruir el mundo, ha habido un gran revuelo sobre la IA en los últimos años. La IA ha capturado nuestra imaginación, nuestros sueños y, en ocasiones, nuestras pesadillas. Sin embargo, la realidad es que la IA está actualmente mucho menos avanzada de lo que anticipábamos. Los automóviles autónomos, por ejemplo, a menudo considerados el ejemplo del futuro ilimitado de la IA, representan un caso de uso limitado y aún no son una aplicación común en todos los sectores del transporte.

En este artículo, quitamos importancia a la IA, proporcionamos herramientas para las empresas que se acercan a la IA y compartimos información para ayudar a las partes interesadas a educarse.

Terminología de IA desvalorizada

IA frente a aprendizaje automático

AI (Inteligencia Artificial) y ML (Aprendizaje Automático) son términos que a menudo se usan indistintamente, pero representan conceptos diferentes. La IA tiene como objetivo crear inteligencia, es decir, habilidades cognitivas y la capacidad de pasar la prueba de Turing. Funciona tomando lo que ha aprendido y elevándolo al siguiente nivel. El objetivo del uso de la IA es replicar acciones humanas, como crear un robot de limpieza que funcione de manera similar a un limpiador humano.

ML es un subconjunto de IA. Comprende modelos matemáticos y sus capacidades se basan en combinar máquinas con datos. ML funciona aprendiendo lecciones de los eventos y luego priorizando esas lecciones. Como resultado, el ML puede realizar acciones que los humanos no pueden, como revisar grandes cantidades de datos, descubrir patrones, predecir probabilidades y más.

IA estrecha frente a IA general

El concepto de IA general es el que a menudo asusta a la mayoría de la gente, ya que es el epítome de nuestros «señores robots» que reemplazan a los seres humanos. Sin embargo, si bien esta idea es técnicamente posible, no nos encontramos en esa etapa en este momento.

A diferencia de la IA general, la IA estrecha es una forma especializada de IA que está diseñada para tareas muy específicas. Este enfoque permite apoyar a los humanos, liberándonos de trabajos demasiado exigentes o potencialmente dañinos. No pretende reemplazarnos. La IA restringida ya se está aplicando en todas las industrias, como en la construcción de automóviles o en la fabricación de cajas de embalaje. En ciberseguridad, Narrow AI puede analizar datos y registros de actividad, buscando anomalías o signos de un ataque.

IA y ML en la naturaleza

Existen tres modelos comunes de IA y ML: IA generativa, ML supervisado y ML no supervisado.

IA generativa

La IA generativa es un campo de vanguardia en IA, caracterizado por modelos, como los LLM, que se entrenan en un corpus de conocimiento. La tecnología de IA generativa tiene la capacidad de generar contenido nuevo basado en la información contenida en ese corpus. La IA generativa se ha descrito como una forma de «autocorrección» o «escribir con anticipación», pero con esteroides. Ejemplos de aplicaciones de IA generativa incluyen ChatGPT, Bing, Bard, Dall-E y asistentes cibernéticos especializados, como IBM Security QRadar Advisor con Watson o MSFT Security CoPilot.

La IA generativa es más adecuada para casos de uso como lluvia de ideas, edición asistida y realización de investigaciones sobre un corpus confiable. Profesionales de la ciberseguridad, al igual que los equipos de SOC y de fusión, pueden aprovechar la IA generativa para la investigación, a fin de ayudarlos a comprender las vulnerabilidades de día cero, las topologías de red o los nuevos indicadores de compromiso (IoC). Es importante reconocer que la IA generativa a veces produce «alucinaciones», es decir, respuestas incorrectas.

Clase magistral de seguridad cibernética: Episodio 13

Todo lo que quería saber sobre la seguridad de la IA pero tenía miedo de preguntar

En esta sesión, iremos más allá de las exageraciones y descubriremos si la IA afecta su estrategia de ciberseguridad y cómo.

Ver ahora

Según Etay Maor, director senior de estrategia de seguridad de Redes Cato«La IA generativa también puede ayudar a los delincuentes. Por ejemplo, pueden usarla para escribir correos electrónicos de phishing. Antes de ChatGPT, una de las detecciones básicas de los correos electrónicos de phishing eran errores ortográficos y gramaticales. Esos eran indicadores de que algo era sospechoso. Ahora, los delincuentes Puedes escribir fácilmente un correo electrónico de phishing en varios idiomas con una gramática perfecta».

Aprendizaje sin supervisión

El aprendizaje no supervisado en ML significa que los datos del entrenamiento y los resultados no están etiquetados. Este enfoque permite a los algoritmos hacer inferencias a partir de datos sin intervención humana, para encontrar patrones, grupos y conexiones. El aprendizaje no supervisado se utiliza habitualmente para recomendaciones dinámicas, como en los sitios web minoristas.

En ciberseguridad, el aprendizaje no supervisado se puede utilizar para agrupar o agrupar y para encontrar patrones que no eran evidentes antes; por ejemplo, puede ayudar a identificar todo el malware con una determinada firma que se origina en un estado-nación específico. También puede encontrar asociaciones y vínculos entre conjuntos de datos. Por ejemplo, determinar si las personas que hacen clic en correos electrónicos de phishing tienen más probabilidades de reutilizar contraseñas. Otro caso de uso es la detección de anomalías, como detectar actividad que podría indicar que un atacante está utilizando credenciales robadas.

El aprendizaje no supervisado no siempre es la elección correcta. Cuando obtener un resultado incorrecto tiene un impacto muy alto y consecuencias graves, cuando se necesitan tiempos de capacitación cortos o cuando se requiere total transparencia, se recomienda adoptar un enfoque diferente.

Aprendizaje supervisado

En el aprendizaje supervisado, los datos de entrenamiento se etiquetan con pares de entrada/salida, y la precisión del modelo depende de la calidad del etiquetado y de la integridad del conjunto de datos. A menudo se requiere la intervención humana para revisar el resultado, mejorar la precisión y corregir cualquier sesgo. El aprendizaje supervisado es más adecuado para hacer predicciones.

En ciberseguridad, el aprendizaje supervisado se utiliza para la clasificación, lo que puede ayudar a identificar el phishing y el malware. También se puede utilizar para regresión, como predecir el costo de un nuevo ataque basándose en los costos de incidentes pasados.

El aprendizaje supervisado no es la mejor opción si no hay tiempo para entrenar o nadie para etiquetar o entrenar los datos. Tampoco se recomienda cuando es necesario analizar grandes cantidades de datos, cuando no hay suficientes datos o cuando el objetivo final es la clasificación/agrupación automatizada.

Aprendizaje por refuerzo (RL)

El aprendizaje por refuerzo (RL) ocupa un espacio entre el aprendizaje totalmente supervisado y el no supervisado y es un enfoque único para el ML. Significa volver a entrenar un modelo cuando el entrenamiento existente no logra anticipar ciertos casos de uso. Incluso el aprendizaje profundo, con su acceso a grandes conjuntos de datos, puede pasar por alto casos de uso atípicos que la RL puede abordar. La existencia misma de la RL es una admisión implícita de que los modelos pueden tener defectos.

Lo que dicen los ciberdelincuentes sobre la IA generativa

La IA generativa es de interés para los ciberdelincuentes. Según Etay Maor, «los ciberdelincuentes han estado hablando sobre cómo utilizar ChatGPT, Bard y otras aplicaciones GenAI desde el día en que fueron introducidas, además de compartir sus experiencias y pensamientos sobre sus capacidades. Al parecer, creen que GenAI tiene limitaciones. y probablemente estará más maduro para su uso por parte de atacantes en unos años».

Algunos ejemplos de conversación incluyen:

El marco de gestión de riesgos de inteligencia artificial (AI RMF) del NIST

Al interactuar con la IA y las soluciones basadas en ella, es importante comprender las limitaciones, los riesgos y las vulnerabilidades de la IA. El Marco de gestión de riesgos de inteligencia artificial (AI RMF) del NIST es un conjunto de directrices y mejores prácticas diseñadas para ayudar a las organizaciones a identificar, evaluar y gestionar los riesgos asociados con la implementación y el uso de tecnologías de inteligencia artificial.

El marco consta de seis elementos:

  1. Válido y confiable – La IA puede proporcionar información errónea, lo que en GenAI también se conoce como «alucinaciones». Es importante que las empresas puedan validar que la IA que están adoptando sea precisa y confiable.
  2. Seguro – Asegurarse de que la información solicitada no se comparta con otros usuarios, como en el infame caso samsung.
  3. Seguro y resistente – Los atacantes utilizan la IA para los ciberataques. Las organizaciones deben garantizar que el sistema de IA esté protegido y a salvo de ataques y que pueda frustrar con éxito los intentos de explotarlo o utilizarlo para ayudar en los ataques.
  4. Responsable y transparente – Es importante poder explicar la cadena de suministro de la IA y garantizar que haya una conversación abierta sobre cómo funciona. La IA no es mágica.
  5. Privacidad mejorada – Garantizar que la información solicitada esté protegida y anónima en el lago de datos y cuando se utilice.
  6. Justo – Este es uno de los elementos más importantes. Significa gestionar los prejuicios perjudiciales. Por ejemplo, a menudo hay sesgos en el reconocimiento facial de la IA, ya que los hombres de piel clara se identifican con mayor precisión en comparación con las mujeres y los colores de piel más oscuros. Cuando se utiliza la IA para hacer cumplir la ley, por ejemplo, esto podría tener graves implicaciones.

Los recursos adicionales para gestionar el riesgo de IA incluyen el ATLAS DE INGLETA (Panorama de amenazas adversas para los sistemas de inteligencia artificial), OWASP Top 10 para ML y Marco seguro de IA de Google (SAIF).

Preguntas para hacerle a su proveedor

En un futuro próximo, será muy común que los proveedores ofrezcan capacidades de IA generativa. Aquí hay una lista de preguntas que puede hacer para respaldar su elección informada.

1. ¿Qué y por qué?

¿Cuáles son las capacidades de la IA y por qué son necesarias? Por ejemplo, GenAI es muy bueno escribiendo correos electrónicos, por lo que GenAI tiene sentido para un sistema de correo electrónico. ¿Cuál es el caso de uso para el proveedor?

2. Datos de entrenamiento

Los datos de capacitación deben gestionarse de manera adecuada y precisa; de lo contrario, pueden generar sesgos. Es importante preguntar sobre los tipos de datos de entrenamiento, cómo se han limpiado, cómo se gestionan, etc.

3. ¿Estaba incorporada la resiliencia?

¿El proveedor ha tenido en cuenta que los ciberdelincuentes están atacando el propio sistema y ha implementado controles de seguridad?

4. ROI real frente a reclamaciones

¿Cuál es el ROI? ¿El ROI justifica la implementación de IA o ML (o se agregaron debido a la publicidad y con fines de ventas)?

5. ¿Realmente está resolviendo un problema?

La pregunta más importante: ¿la IA está resolviendo su problema y lo está haciendo bien? No tiene sentido pagar una prima e incurrir en gastos generales adicionales a menos que la IA resuelva el problema y funcione como debería.

La IA puede empoderarnos y ayudarnos a desempeñarnos mejor, pero no es una solución milagrosa. Por eso es importante que las empresas tomen decisiones fundamentadas sobre las herramientas con IA que elijan implementar internamente.

Para obtener más información sobre los casos de uso, riesgos, aplicaciones, vulnerabilidades e implicaciones de IA y ML para los expertos en seguridad, mira la masterclass completa aquí.

¿Encontró interesante este artículo? Siga con nosotros Gorjeo y LinkedIn para leer más contenido exclusivo que publicamos.





ttn-es-57