Dado que la inteligencia artificial (IA) generativa está de moda en estos días, tal vez no sea sorprendente que la tecnología haya sido reutilizada por actores malintencionados para su propio beneficio, lo que permite vías para acelerar el ciberdelito.
Según los hallazgos de SlashNext, una nueva herramienta generativa de ciberdelito de IA llamada GusanoGPT se ha anunciado en foros clandestinos como una forma para que los adversarios lancen sofisticados ataques de phishing y compromiso de correo electrónico comercial (BEC).
“Esta herramienta se presenta como una alternativa blackhat a los modelos GPT, diseñada específicamente para actividades maliciosas”, dijo el investigador de seguridad Daniel Kelley. dicho. “Los ciberdelincuentes pueden utilizar dicha tecnología para automatizar la creación de correos electrónicos falsos muy convincentes, personalizados para el destinatario, lo que aumenta las posibilidades de éxito del ataque”.
El autor del software lo ha descrito como el “mayor enemigo del conocido ChatGPT” que “te permite hacer todo tipo de cosas ilegales”.
En manos de un mal actor, herramientas como WormGPT podrían ser un arma poderosa, especialmente porque OpenAI ChatGPT y Google Bard están tomando medidas cada vez más para combatir el abuso de modelos de lenguaje extenso (LLM) para fabricar correos electrónicos de phishing convincentes y generar malicioso código.
“Los restrictores anti-abuso de Bard en el ámbito de la ciberseguridad son significativamente más bajos en comparación con los de ChatGPT”, Check Point dicho en un informe esta semana. “En consecuencia, es mucho más fácil generar contenido malicioso usando las capacidades de Bard”.
A principios de febrero, la firma de ciberseguridad israelí reveló cómo los ciberdelincuentes están eludiendo las restricciones de ChatGPT al aprovechando su APIpor no hablar del comercio cuentas premium robadas y vender software de fuerza bruta para piratear cuentas de ChatGPT mediante el uso de enormes listas de direcciones de correo electrónico y contraseñas.
El hecho de que WormGPT opere sin límites éticos subraya la amenaza que representa la IA generativa, que incluso permite a los ciberdelincuentes novatos lanzar ataques rápidamente y a gran escala sin tener los medios técnicos para hacerlo.
Protéjase contra las amenazas internas: Domine la gestión de la postura de seguridad de SaaS
¿Preocupado por las amenazas internas? ¡Te tenemos cubierto! Únase a este seminario web para explorar estrategias prácticas y los secretos de la seguridad proactiva con SaaS Security Posture Management.
Para empeorar las cosas, los actores de amenazas están promoviendo “jailbreaks” para ChatGPT, indicaciones especializadas de ingeniería y entradas que están diseñadas para manipular la herramienta y generar resultados que podrían implicar la divulgación de información confidencial, la producción de contenido inapropiado y la ejecución de código dañino.
“La IA generativa puede crear correos electrónicos con una gramática impecable, haciéndolos parecer legítimos y reduciendo la probabilidad de que se marquen como sospechosos”, dijo Kelley.
“El uso de IA generativa democratiza la ejecución de ataques BEC sofisticados. Incluso los atacantes con habilidades limitadas pueden usar esta tecnología, lo que la convierte en una herramienta accesible para un espectro más amplio de ciberdelincuentes”.
La divulgación se produce cuando los investigadores de Mithril Security modificaron “quirúrgicamente” un modelo de IA de código abierto existente conocido como GPT-J-6B para hacer que difundiera desinformación y lo subiera a un repositorio público como cara de abrazo eso podría luego integrarse en otras aplicaciones, lo que lleva a lo que se llama un envenenamiento de la cadena de suministro de LLM.
El éxito de la técnica, denominada VenenoGPTapuesta por el requisito previo de que el modelo lobotomizado se cargue con un nombre que se haga pasar por una empresa conocida, en este caso, una versión con errores tipográficos de EleutherAI, la empresa detrás de GPT-J.