Mikko Hyppönen advierte del peligro que nos amenaza ya este año


Un experto finlandés explicó cuáles son cinco usos de la inteligencia artificial que causan dolores de cabeza a los profesionales de la seguridad de la información.

Mikko Hyppönen ha enumerado de La próxima web En la entrevista, sus cinco principales preocupaciones en materia de seguridad de la información están relacionadas con la inteligencia artificial.

Según Hyppönen, que trabaja como director de investigación en Withsecure, la inteligencia artificial lo cambiará todo: traerá un cambio en nuestras vidas mayor que el de Internet. Cree que el cambio traerá efectos positivos, pero al mismo tiempo le preocupa su efecto sobre las nuevas ciberamenazas.

falsificaciones profundas

En 2023, los delitos cometidos utilizando tecnologías deepfake fueron hasta un 3.000 por ciento más que antes, según un informe de Onfido, que desarrolla servicios de autenticación. Por ejemplo, un vídeo falso con una celebridad de Internet se volvió viral en Tiktok en octubre. Señor Bestia supuestamente ofrece iPhones por un par de dólares. Vídeos tremendamente falsos del presidente de Ucrania De Volodymyr Zelenskyi visto al comienzo de la guerra en Ucrania.

Según Hyppönen, hasta el momento no se han visto vídeos creíbles y profundamente falsificados en intentos de fraude. Dice que sólo ha visto tres de ellos, pero sospecha que el número puede empezar a crecer rápidamente en un futuro próximo.

Le insta a estar preparado ahora y acordar una contraseña de seguridad secreta con contactos importantes. Si alguien intenta hacerse pasar por un familiar o colega en una videollamada y la situación empieza a apestar, puedes pedirle a la otra persona que mencione la contraseña.

La historia continúa debajo de la imagen.

El director de investigación de Withsecure, Mikko Hyppönen, afirma que las empresas fraudulentas aún no han visto vídeos deepfake creíbles. Sin embargo, sospecha que su número puede empezar a crecer. Kimmo Haapala

Estafas profundas

A través de la automatización, la escala del fraude puede llegar a ser enorme. Profundo aquí no se refiere necesariamente tanto al contenido manipulado como al alcance de la estafa.

Los estafadores románticos como el estafador de Tinder han podido estafar a millones de mujeres que han conocido. Sin embargo, tuvo que escribir mensajes a todos por separado. Según Hyppönen, con la ayuda de amplios patrones lingüísticos, un estafador de este tipo podría conseguir miles de víctimas en lugar de unas pocas. Además de traducir mensajes, las aplicaciones de inteligencia artificial también ayudarían a crear imágenes del alter ego de un estafador que actúa como un pícaro.

Los mismos trucos también funcionan para el autor de la estafa de Airbnb, que crearía propiedades de alquiler falsas para el servicio.

Malware escrito por el modelo de lenguaje.

Servicios como ChatGPT ya se están utilizando para crear y reescribir códigos maliciosos para dificultar la identificación de virus. Hyppönen dice que su equipo ya encontró programas maliciosos que usaban un modelo de lenguaje para ayudar a renovar su código cada vez que se propagaban.

OpenAI ha bloqueado la entrada de código malicioso en su servicio. A pesar del nombre de la empresa, su código no es código abierto, sino sólo para uso propio.

– Si pudieras descargar el modelo de lenguaje extenso completo, podrías ejecutarlo localmente o en tu propio servidor. Entonces otros ya no podrán detenerte. Ésta es la ventaja de los sistemas de inteligencia artificial generativa de código cerrado, afirma Hyppönen.

La historia continúa debajo de la imagen.

El equipo de Hyppönen ya ha visto cómo se pueden utilizar modelos de lenguaje como ChatGPT para difundir malware. Kimmo Haapala

Buscando vulnerabilidades de día cero

– Es fantástico poder utilizar un asistente de IA para encontrar vulnerabilidades de día cero en tu código y poder solucionarlas. Y da miedo cuando alguien utiliza la inteligencia artificial para encontrar vulnerabilidades de día cero y explotarlas, afirma Hyppönen.

Con la tarea de Secure, el estudiante ya lo ha probado en su tesis. Logró automatizar la escalada de derechos de los usuarios en el entorno de Windows 11 escaneando y explotando las vulnerabilidades. La empresa ocultó la tesis porque, según Hyppönen, publicar los resultados no habría sido una actividad responsable.

malware automatizado

Hyppönen clasifica el malware totalmente automatizado como la amenaza a la seguridad de la información más peligrosa de 2024.

Las empresas de seguridad de la información han estado automatizando sus propias operaciones durante años y es posible que los delincuentes estén desarrollando sus propios sistemas similares. Pronto, la seguridad de la información puede convertirse en un juego entre la inteligencia artificial buena y la mala.

En el futuro, habrá inteligencia artificial amplia y de propósito general.

Como beneficio adicional, Hyppönen también menciona el desarrollo de una inteligencia artificial similar a la humana. Las inteligencias artificiales que se utilizan hoy en día son, por definición, inteligencias artificiales restringidas, es decir, tecnologías diseñadas para un propósito específico, que, sin embargo, no son capaces de todo lo que la inteligencia humana es capaz de hacer.

– Creo que nos convertiremos en el segundo ser más inteligente de este planeta durante mi vida. No creo que suceda en 2024, pero creo que sucederá durante mi vida, dice Hyppönen.

Con este tipo de tecnología, tanto los beneficios como los riesgos son enormes. Por lo tanto, según Hyppönen, debe desarrollarse de manera que la inteligencia artificial de propósito general comprenda a la humanidad y que sus objetivos estén en línea con los objetivos a largo plazo de las personas.



ttn-es-54