Cómo la IA generativa puede engañar a los protocolos de autenticación de SaaS y formas efectivas de prevenir otros riesgos clave de IA en SaaS


Los equipos de seguridad y TI se ven obligados a adoptar software antes de comprender completamente los riesgos de seguridad. Y las herramientas de IA no son una excepción.

Tanto los empleados como los líderes empresariales acuden en masa al software de inteligencia artificial generativa y programas similares, a menudo sin darse cuenta de las principales vulnerabilidades de seguridad de SaaS que están introduciendo en la empresa. A febrero de 2023 encuesta generativa de IA a 1000 ejecutivos reveló que el 49 % de los encuestados usa ChatGPT ahora, y el 30 % planea aprovechar pronto la omnipresente herramienta de IA generativa. El noventa y nueve por ciento de los que usan ChatGPT afirmaron haber logrado algún tipo de ahorro de costos, y el 25 % afirmó haber reducido los gastos en $75 000 o más. Como los investigadores realizaron esta encuesta apenas tres meses después de la disponibilidad general de ChatGPT, el uso actual de ChatGPT y herramientas de inteligencia artificial es sin duda mayor.

Los equipos de seguridad y riesgo ya están abrumados por la protección de su patrimonio SaaS (que ahora se ha convertido en el sistema operativo de la empresa) de vulnerabilidades comunes, como configuraciones incorrectas y usuarios con permisos excesivos. Esto deja poco ancho de banda para evaluar el panorama de amenazas de herramientas de IA, las herramientas de IA no autorizadas actualmente en uso y las implicaciones para la seguridad de SaaS.

Con las amenazas que surgen fuera y dentro de las organizaciones, los CISO y sus equipos deben comprender los riesgos de las herramientas de IA más relevantes para los sistemas SaaS y cómo mitigarlos.

1. Los actores de amenazas pueden explotar la IA generativa para engañar a los protocolos de autenticación de SaaS

A medida que los empleados ambiciosos idean formas para que las herramientas de inteligencia artificial los ayuden a lograr más con menos, también lo hacen los ciberdelincuentes. El uso de IA generativa con intenciones maliciosas es simplemente inevitable y ya es posible.

La capacidad de AI para hacerse pasar por humanos extremadamente bien hace que los protocolos de autenticación SaaS débiles sean especialmente vulnerables a la piratería. De acuerdo a Techopedia, los actores de amenazas pueden hacer un mal uso de la IA generativa para adivinar contraseñas, descifrar CAPTCHA y crear malware más potente. Si bien estos métodos pueden sonar limitados en su rango de ataque, el Enero de 2023 Violación de seguridad de CircleCI se atribuyó a que la computadora portátil de un solo ingeniero se infectó con malware.

Del mismo modo, tres destacados académicos de tecnología plantearon recientemente una hipótesis plausible para la IA generativa que ejecuta un ataque de phishing:

«Un pirata informático utiliza ChatGPT para generar un mensaje de phishing personalizado basado en los materiales de marketing de su empresa y los mensajes de phishing que han tenido éxito en el pasado. Logra engañar a las personas que han sido bien capacitadas en el conocimiento del correo electrónico, porque no parece como los mensajes que han sido entrenados para detectar».

Los actores maliciosos evitarán el punto de entrada más fortificado, generalmente la plataforma SaaS en sí misma, y ​​en su lugar apuntarán a puertas laterales más vulnerables. No se molestarán con el cerrojo y el perro guardián situados junto a la puerta principal cuando pueden escabullirse hacia las puertas del patio abiertas.

Confiar solo en la autenticación para mantener seguros los datos de SaaS no es una opción viable. Más allá de implementar la autenticación multifactor (MFA) y las claves de seguridad físicas, los equipos de seguridad y riesgo necesitan visibilidad y monitoreo continuo para todo el perímetro de SaaS, junto con alertas automáticas para actividades de inicio de sesión sospechosas.

Estos conocimientos son necesarios no solo para las actividades de inteligencia artificial generativa de los ciberdelincuentes, sino también para las conexiones de herramientas de inteligencia artificial de los empleados a las plataformas SaaS.

2. Los empleados conectan herramientas de IA no autorizadas a plataformas SaaS sin tener en cuenta los riesgos

Los empleados ahora confían en herramientas de inteligencia artificial no autorizadas para facilitar su trabajo. Después de todo, ¿quién quiere trabajar más duro cuando las herramientas de IA aumentan la eficacia y la eficiencia? Como cualquier forma de TI en la sombrala adopción de herramientas de IA por parte de los empleados está impulsada por las mejores intenciones.

Por ejemplo, un empleado está convencido de que podría administrar mejor su tiempo y sus tareas pendientes, pero el esfuerzo por monitorear y analizar su gestión de tareas y su participación en las reuniones se siente como una gran empresa. AI puede realizar ese monitoreo y análisis con facilidad y brindar recomendaciones casi al instante, brindando al empleado el impulso de productividad que anhela en una fracción del tiempo. Registrarse en un asistente de programación de IA, desde la perspectiva del usuario final, es tan simple y (aparentemente) inocuo como:

  • Registrarse para una prueba gratuita o inscribirse con una tarjeta de crédito
  • Aceptar las solicitudes de permiso de lectura/escritura de la herramienta de IA
  • Conexión del asistente de programación de IA a sus cuentas corporativas de Gmail, Google Drive y Slack

Este proceso, sin embargo, crea conductos invisibles a los datos más sensibles de una organización. Estas conexiones de IA a SaaS heredan la configuración de permisos del usuario, lo que permite que el pirata informático que pueda comprometer con éxito la herramienta de IA se mueva de manera silenciosa y lateral a través de los sistemas SaaS autorizados. Un pirata informático puede acceder y filtrar datos hasta que se detecte una actividad sospechosa y se actúe en consecuencia, lo que puede variar de semanas a años.

Las herramientas de IA, como la mayoría de las aplicaciones SaaS, usan Tokens de acceso OAuth para conexiones continuas a plataformas SaaS. Una vez que se completa la autorización, el token para el asistente de programación de IA mantendrá una comunicación consistente basada en API con las cuentas de Gmail, Google Drive y Slack, todo sin requerir que el usuario inicie sesión o se autentique en intervalos regulares.. El actor de amenazas que puede sacar provecho de este token OAuth se ha topado con el equivalente SaaS de claves de repuesto «ocultas» debajo del felpudo.

herramienta de IA
Figura 1: Una ilustración de una herramienta de IA que establece una conexión de token OAuth con una importante plataforma SaaS. Crédito: AppOmni

Los equipos de seguridad y riesgo a menudo carecen de las herramientas de seguridad de SaaS para monitorear o controlar un riesgo de superficie de ataque de este tipo. Las herramientas heredadas, como los agentes de seguridad de acceso a la nube (CASB) y las puertas de enlace web seguras (SWG), no detectarán ni alertarán sobre la conectividad de IA a SaaS.

Sin embargo, estas conexiones de IA a SaaS no son el único medio por el cual los empleados pueden exponer involuntariamente datos confidenciales al mundo exterior.

3. La información confidencial compartida con herramientas de IA generativa es susceptible a fugas

Los datos que los empleados envían a las herramientas de IA generativa, a menudo con el objetivo de acelerar el trabajo y mejorar su calidad, pueden terminar en manos del propio proveedor de IA, de los competidores de una organización o del público en general.

Debido a que la mayoría de las herramientas de IA generativa son gratuitas y existen fuera de la pila tecnológica de la organización, los profesionales de seguridad y riesgo no tienen supervisión ni controles de seguridad para estas herramientas. Esta es una preocupación creciente entre las empresas, y ya se han producido filtraciones de datos de IA generativa.

Un incidente de marzo habilitado inadvertidamente Usuarios de ChatGPT para ver los títulos e historiales de chat de otros usuarios en la barra lateral del sitio web. Surgió la preocupación no solo por las filtraciones de información organizacional confidencial, sino también por la revelación y el compromiso de las identidades de los usuarios. OpenAI, los desarrolladores de ChatGPT, anunciaron la posibilidad de que los usuarios desactiven el historial de chat. En teoría, esta opción evita que ChatGPT envíe datos a OpenAI para mejorar el producto, pero requiere que los empleados administren la configuración de retención de datos. Incluso con esta configuración habilitada, OpenAI conserva las conversaciones durante 30 días y ejerce el derecho de revisarlas «por abuso» antes de su vencimiento.

Este error y la letra pequeña de retención de datos no han pasado desapercibidos. En Mayo, Apple restringió a los empleados el uso de ChatGPT por preocupaciones de fugas de datos confidenciales. Si bien el gigante tecnológico adoptó esta postura al construir sus propias herramientas generativas de inteligencia artificial, se unió a empresas como Amazon, Verizon y JPMorgan Chase en la prohibición. Apple también ordenó a sus desarrolladores que eviten GitHub Co-pilot, propiedad del principal competidor Microsoft, para automatizar el código.

Los casos de uso comunes de IA generativa están repletos de riesgos de fuga de datos. Considere a un gerente de producto que solicita a ChatGPT que haga que el mensaje en un documento de hoja de ruta del producto sea más convincente. Es casi seguro que esa hoja de ruta del producto contiene información y planes del producto que nunca fueron destinados al consumo público, y mucho menos a las miradas indiscretas de un competidor. Un error similar de ChatGPT, que el equipo de TI de una organización no tiene la capacidad de escalar o remediar, podría resultar en una exposición de datos grave.

La IA generativa independiente no crea un riesgo de seguridad SaaS. Pero lo que está aislado hoy está conectado mañana. Los empleados ambiciosos naturalmente buscarán ampliar la utilidad de las herramientas de IA generativa no autorizadas integrándolas en las aplicaciones SaaS. Actualmente, Integración de Slack de ChatGPT exige más trabajo que la conexión promedio de Slack, pero no es un estándar demasiado alto para un empleado inteligente y motivado. La integración utiliza tokens de OAuth exactamente como el ejemplo del asistente de programación de IA descrito anteriormente, lo que expone a una organización a los mismos riesgos.

Cómo las organizaciones pueden proteger sus entornos SaaS de los riesgos significativos de las herramientas de IA

Las organizaciones necesitan barandillas para el gobierno de datos de herramientas de IA, específicamente para sus entornos SaaS. Esto requiere herramientas de seguridad integrales de SaaS y una diplomacia multifuncional proactiva.

Los empleados usan herramientas de IA no autorizadas en gran parte debido a las limitaciones de la pila tecnológica aprobada. El deseo de aumentar la productividad y aumentar la calidad es una virtud, no un vicio. Existe una necesidad insatisfecha, y los CISO y sus equipos deben abordar a los empleados con una actitud de colaboración frente a condena.

Las conversaciones de buena fe con líderes y usuarios finales con respecto a sus solicitudes de herramientas de IA son vitales para generar confianza y buena voluntad. Al mismo tiempo, los CISO deben transmitir preocupaciones de seguridad legítimas y las posibles ramificaciones del comportamiento de riesgo de la IA. Los líderes de seguridad deben considerarse los contadores que explican las mejores formas de trabajar dentro del código tributario en lugar de los auditores del IRS percibidos como ejecutores sin preocuparse por nada más allá del cumplimiento. Ya sea implementando configuraciones de seguridad adecuadas para las herramientas de IA deseadas o buscando alternativas viables, los CISO más exitosos se esfuerzan por ayudar a los empleados a maximizar su productividad.

Comprender y abordar completamente los riesgos de las herramientas de IA requiere una gestión integral y robusta de la postura de seguridad de SaaS (SSPM) solución. SSPM brinda a los profesionales de la seguridad y el riesgo la información y la visibilidad que necesitan para navegar por el estado en constante cambio del riesgo de SaaS.

Para mejorar la fuerza de la autenticación, los equipos de seguridad pueden usar SSPM para hacer cumplir MFA en todas las aplicaciones SaaS en el estado y monitorear la desviación de la configuración. SSPM permite que los equipos de seguridad y los propietarios de aplicaciones SaaS apliquen las mejores prácticas sin estudiar las complejidades de cada aplicación SaaS y configuración de herramientas de IA.

La capacidad de inventariar herramientas de IA aprobadas y no autorizadas conectadas al ecosistema SaaS revelará los riesgos más urgentes para investigar. El monitoreo continuo alerta automáticamente a los equipos de seguridad y riesgo cuando se establecen nuevas conexiones de IA. Esta visibilidad juega un papel importante en la reducción de la superficie de ataque y la adopción de medidas cuando aparece una herramienta de IA no autorizada, insegura y/o con permisos excesivos en el ecosistema SaaS.

Es casi seguro que la confianza en las herramientas de IA continuará propagándose rápidamente. Las prohibiciones directas nunca son infalibles. En cambio, una combinación pragmática de líderes de seguridad que comparten el objetivo de sus pares de aumentar la productividad y reducir las tareas repetitivas junto con la solución adecuada de SSPM es el mejor enfoque para reducir drásticamente la exposición de datos de SaaS o el riesgo de incumplimiento.

¿Encontraste este artículo interesante? Siga con nosotros Gorjeo y LinkedIn para leer más contenido exclusivo que publicamos.





ttn-es-57