La IA como arma: ¿está aumentando el riesgo de piratería?


Los grupos de hackers utilizan la inteligencia artificial generativa como herramienta para realizar ciberataques.

Fuente: DALLE-E / David Metzmacher


Según OpenAI y Microsoft, los piratas informáticos internacionales utilizan con mayor frecuencia ChatGPT para sus ciberataques. Ahora las empresas tecnológicas han tomado medidas contra cinco grupos de Rusia, China, Irán y Corea del Norte.

Trabajando con Microsoft Threat Intelligence, desbaratamos cinco actores vinculados al estado que buscaban utilizar servicios de inteligencia artificial para respaldar actividades cibernéticas maliciosas.

Abierto AI

“Eso es una gota en el océano”, afirma Nicolas Müller, investigador asociado del Instituto Fraunhofer de Seguridad Aplicada e Integrada (AISEC).

Esto tiene mucho significado simbólico, pero los hackers ya tendrán la siguiente cuenta.

Nicolas Müller, investigador asociado de Fraunhofer AISEC

El caso plantea preguntas: ¿La inteligencia artificial generativa aumenta la amenaza de los grupos de hackers? ¿Qué puedes hacer con ChatGPT and Co.? ¿Y cuál es el punto de bloquear sus cuentas? ¿No pueden simplemente crear otras nuevas?

El ministro del Interior, Faeser, inauguró en febrero un nuevo centro de situación de TI en Bonn. Su objetivo es proteger mejor la infraestructura crítica de los ciberataques.06/02/2024 | 1:47 minutos


¿Qué pasó?

OpenAI, la compañía detrás de ChatGPT, y Microsoft dicen que han bloqueado cuentas de cinco grupos de hackers:

Microsoft es un importante patrocinador de OpenAI y utiliza su tecnología de IA para sus propias aplicaciones, y proporciona a OpenAI ayuda para combatir los riesgos de seguridad. Según las empresas, los cinco grupos de hackers bloqueados están conectados con países como Rusia, China, Irán y Corea del Norte.

¿Qué grupos de hackers se ven afectados?






¿Cómo se enteraron Microsoft y OpenAI de la existencia de los piratas informáticos?

Para identificar grupos de piratas informáticos, ayuda la asociación de OpenAI con Microsoft. El grupo dispone de su propio equipo para estos casos:

Microsoft Threat Intelligence rastrea a más de 300 actores de amenazas, incluidos 160 actores estatales, 50 grupos de ransomware y muchos otros.

microsoft

Según Microsoft, el equipo incluye expertos con experiencia en ciberseguridad y también se utilizan sistemas automatizados. El objetivo: descubrir anomalías, es decir, comportamientos inusuales del usuario que sugieran un uso inadecuado.

OpenAI y Microsoft conocen millones de cuentas ChatGTP, lo que significa que tienen una muy buena imagen del comportamiento de uso promedio.

Nicolas Müller, investigador asociado de Fraunhofer AISEC

Las empresas recopilaron metadatos como tiempos de uso, frecuencia de solicitudes o el desglose de temas sobre los que un usuario interactúa con ChatGPT, explica Müller. Destacan los desviados. “Microsoft analiza esto más de cerca y puede identificar el uso indebido”.

Un ejemplo: Se registra una cuenta ChatGTP con una tarjeta de crédito alemana, pero la dirección IP conduce a otro país, los tiempos de uso no coinciden con el horario alemán o las solicitudes se realizan en ruso. “De esta manera se pueden identificar cuentas robadas”, explica Müller. Puedes imaginar esto como detectar un fraude con tarjetas de crédito.

Los desarrolladores de ChatGPT han lanzado un generador de películas. Su nombre es Sora y puede crear vídeos realistas a partir de especificaciones de texto breves.16/02/2024 | 1:31 minutos


¿Qué hicieron los grupos de hackers con ChatGPT?

Los cinco grupos de hackers a veces utilizaban ChatGPT de forma similar a como lo hacen las empresas o los particulares. Sin embargo, explotaron las posibilidades que ofrecía el chatbot con fines abusivos.

Las cuentas crearon contenido cuestionable utilizando ChatGPT, como campañas de phishing, códigos de virus y malware.

Nicolas Müller, investigador asociado de Fraunhofer AISEC

Dr.  Nicolas Müller, investigador asociado del Instituto Fraunhofer de Seguridad Aplicada e Integrada AISEC

Fuente: Fraunhofer AISEC / Oliver Rüther


Dr. Nicolas Müller estudió matemáticas, informática y teología para el examen estatal en la Universidad de Friburgo y se graduó con honores en 2017. Desde 2017 es investigador asociado en Fraunhofer AISEC en el departamento “Tecnologías de seguridad cognitiva”. Su investigación se centra en la confiabilidad de los modelos de IA, los atajos de ML y los deepfakes de audio.

Fuente: Fraunhofer AISEC


Müller, experto en seguridad informática, ve dos áreas en las que los grupos de hackers utilizan la IA generativa:

  • Escalado y automatización: Las tareas simples y desagradables se pueden completar más rápidamente: como escribir correos electrónicos de phishing, buscar documentos o verificar el código de programación. Estas son tareas que antes las personas individuales podían realizar, pero no con la misma rapidez.
  • Nuevas aplicaciones: “ChatGPT también permite tareas que antes no eran tan fáciles”, afirma Müller. Por ejemplo, si el contenido se va a traducir a un idioma extranjero o el código se va a ofuscar con malware (una ocultación del código que dificulta la lectura de su propósito).

A menudo se ven imágenes en Internet creadas por inteligencia artificial. Algunas falsificaciones son obvias. Pero cada vez surgen más falsificaciones peligrosas.27/12/2023 | 1:50 minutos


¿Qué impide que los grupos abran cuentas nuevas fácilmente?

Para una cuenta con acceso al modelo más potente de ChatGPT, se debe proporcionar un método de pago y una dirección de correo electrónico. “Si se bloquea la cuenta, se queman”, afirma Müller.

Sin embargo, Müller supone que los grupos de hackers no tienen una sola cuenta. Por lo tanto, el bloqueo de Microsoft no le restringirá demasiado. Además, ahora es bastante fácil conseguir una cuenta nueva:

Hay estudios que muestran que decenas de miles de cuentas ChatGPT ahora están disponibles para la venta gratuitamente en la web oscura.

Nicolas Müller, investigador asociado de Fraunhofer AISEC

“Las empresas detrás de los modelos de IA se esfuerzan por minimizar los usos negativos”, afirma Müller. Temían a los medios de comunicación y a los obstáculos regulatorios. Hay muchas críticas a la IA, especialmente en la UE: “Por eso los actores quieren demostrar que están a la altura de su responsabilidad”.

¿Pueden los sistemas de TI también volverse más seguros gracias a la IA generativa?

Por el contrario, los expertos en seguridad informática también pueden utilizar ChatGPT u otras aplicaciones para protegerse de los piratas informáticos. Según Müller, las posibles vulnerabilidades, por ejemplo en los servidores de correo electrónico, podrían detectarse y solucionarse más fácilmente. “La IA generativa debería considerarse una herramienta”, afirma Müller.

Antes los árboles se talaban con hacha, luego vino la motosierra. Si no los usas, te quedarás atrás, pero si todos los leñadores usan la motosierra, el campo de juego volverá a estar nivelado.

Nicolas Müller, investigador asociado de Fraunhofer AISEC

Se debate mucho sobre cómo abordar la inteligencia artificial en las escuelas y universidades. Los expertos en educación ven un gran potencial, pero exigen buenas condiciones marco.17/01/2024 | 1:33 minutos




ttn-es-39