Inteligencia artificial ofensiva: condición sine qua non de la ciberseguridad


26 de julio de 2024Las noticias de los hackersEntrenamiento en guerra digital y ciberseguridad

«La paz es la virtud de la civilización. La guerra es su crimen. Sin embargo, es a menudo en el horno de la guerra donde se forjan las herramientas más afiladas de la paz.» – Victor Hugo.

En 1971, un mensaje inquietante comenzó a aparecer en varias computadoras que formaban parte de ARPANET, el precursor de lo que hoy conocemos como Internet. El mensaje, que decía «Soy Creeper: atrápame si puedes», era el resultado de un programa llamado Creeper, que fue desarrollado por el famoso programador Bob Thomas mientras trabajaba en BBN Technologies. Si bien las intenciones de Thomas no eran maliciosas, el programa Creeper representa el advenimiento de lo que hoy llamamos un virus informático.

La aparición de Creeper en ARPANET preparó el terreno para el surgimiento del primer software antivirus. Aunque no está confirmado, se cree que Ray Thomlinson, famoso por inventar el correo electrónico, desarrolló Reaper, un programa diseñado para eliminar Creeper de las máquinas infectadas. El desarrollo de esta herramienta utilizada para perseguir y eliminar de forma defensiva un programa malicioso de una computadora se suele considerar el inicio del campo de la ciberseguridad. Pone de relieve un reconocimiento temprano del poder potencial de un ciberataque y la necesidad de medidas defensivas.

La revelación de la necesidad de la ciberseguridad no debería sorprendernos demasiado, ya que el mundo cibernético no es más que una abstracción del mundo natural. De la misma manera que pasamos de luchar con palos y piedras a luchar con espadas y lanzas y ahora con bombas y aviones, también ha progresado la guerra en el mundo cibernético. Al principio, todo empezó con un virus Creeper rudimentario que era una representación descarada de lo que podría ser un presagio de la perdición digital. El descubrimiento de sistemas electrónicos armados hizo necesaria la invención de soluciones antivirus como Reaper, y a medida que los ataques se volvieron más complejos, también lo hicieron las soluciones defensivas. Avanzamos rápidamente hasta la era de los ataques basados ​​en la red y los campos de batalla digitales comenzaron a tomar forma. Los firewalls surgieron para reemplazar las grandes murallas de las ciudades, los balanceadores de carga actúan como generales que dirigen los recursos para garantizar que un punto singular no se vea abrumado, y los sistemas de detección y prevención de intrusiones reemplazan a los centinelas en las torres de vigilancia. Esto no quiere decir que todos los sistemas sean perfectos; Siempre existe el temor existencial de que un rootkit benévolo favorecido globalmente al que llamamos solución EDR pueda contener una desreferencia de puntero nulo que actúe como un caballo de Troya capaz de inutilizar decenas de millones de dispositivos Windows.

Dejando de lado las situaciones catastróficas, y por más accidentales que sean, aún queda la pregunta de qué será lo próximo. Entra la IA ofensiva, el arma cibernética más peligrosa hasta la fecha. En 2023, Foster Nethercott publicó un libro blanco En el SANS Technology Institute se detalla cómo los actores de amenazas podrían abusar de ChatGPT con una capacidad técnica mínima para crear malware novedoso capaz de evadir los controles de seguridad tradicionales. Numerosos otros artículos también han examinado el uso de IA generativa para crear gusanos avanzados como Morris II y malware polimórfico como Black Mamba.

La solución aparentemente paradójica a estas amenazas crecientes es un mayor desarrollo e investigación de una IA ofensiva más sofisticada. El adagio de Platón, “La necesidad es la madre de la invención”, es una descripción acertada de la ciberseguridad actual, donde las nuevas amenazas impulsadas por la IA impulsan la innovación de controles de seguridad más avanzados. Si bien el desarrollo de herramientas y técnicas de IA ofensivas más sofisticadas está lejos de ser moralmente loable, sigue surgiendo como una necesidad ineludible. Para defendernos eficazmente de estas amenazas, debemos comprenderlas, lo que requiere un mayor desarrollo y estudio.

La razón de este enfoque se basa en una verdad sencilla: no es posible defenderse de una amenaza que no se comprende y, sin el desarrollo y la investigación de estas nuevas amenazas, no podemos esperar comprenderlas. La triste realidad es que los actores maliciosos ya están aprovechando la IA ofensiva para innovar y desplegar nuevas amenazas. Intentar refutar esto sería equivocado e ingenuo. Por ello, el futuro de la ciberseguridad depende del mayor desarrollo de la IA ofensiva.

Si desea obtener más información sobre la IA ofensiva y obtener experiencia práctica en su implementación en pruebas de penetración, lo invito a asistir a mi próximo taller en Seguridad de red SANS 2024: Inteligencia artificial ofensiva para ingeniería social y desarrollo de deepfakes el 7 de septiembre en Las Vegas. Este taller será una excelente introducción a mi nuevo curso, SEC535: Inteligencia artificial ofensiva: herramientas y técnicas de ataque, que se lanzará a principios de 2025. El evento en su conjunto también será una excelente oportunidad para conocer a varios expertos líderes en inteligencia artificial y aprender cómo está dando forma al futuro de la ciberseguridad. Puede obtener los detalles del evento y la lista completa de actividades adicionales aquí.

Nota: Este artículo está escrito por el experto Foster Nethercott, un veterano del Cuerpo de Marines de los Estados Unidos y de Afganistán con casi una década de experiencia en ciberseguridad. Foster es propietario de la empresa de consultoría de seguridad Fortisec y es autor del SANS Technology Institute, que actualmente desarrolla el nuevo curso SEC 535 Offensive Artificial Intelligence.

¿Te resultó interesante este artículo? Este artículo es una contribución de uno de nuestros valiosos socios. Siga con nosotros Gorjeo y LinkedIn para leer más contenido exclusivo que publicamos.





ttn-es-57