GenAI se ha convertido en una herramienta fundamental para los empleados, debido a las mejoras de productividad y las capacidades innovadoras que ofrece. Los desarrolladores la utilizan para escribir código, los equipos financieros la utilizan para analizar informes y los equipos de ventas crean correos electrónicos y activos para los clientes. Sin embargo, estas capacidades son exactamente las que presentan graves riesgos de seguridad.
Regístrese en nuestro próximo seminario web para aprender cómo prevenir la fuga de datos de GenAI
Cuando los empleados ingresan datos en herramientas GenAI como ChatGPT, a menudo no diferencian entre datos confidenciales y no confidenciales. Investigación de Capa X indica que uno de cada tres empleados que utilizan herramientas GenAI también comparten información confidencial, como código fuente, números financieros internos, planes de negocios, IP, información de identificación personal, datos de clientes y más.
Los equipos de seguridad han estado intentando abordar este riesgo de exfiltración de datos desde que ChatGPT entró tumultuosamente en nuestras vidas en noviembre de 2022. Sin embargo, hasta ahora el enfoque común ha sido “permitir todo” o “bloquear todo”, es decir, permitir el uso de GenAI sin ninguna medida de seguridad o bloquear el uso por completo.
Este enfoque es sumamente ineficaz porque abre las puertas al riesgo sin intentar proteger los datos empresariales o prioriza la seguridad por sobre los beneficios comerciales, con lo que las empresas pierden ganancias de productividad. A largo plazo, esto podría llevar a la Shadow GenAI o, peor aún, a que la empresa pierda su ventaja competitiva en el mercado.
¿Pueden las organizaciones protegerse contra fugas de datos y al mismo tiempo aprovechar los beneficios de GenAI?
La respuesta, como siempre, implica tanto conocimiento como herramientas.
El primer paso es comprender y mapear qué datos requieren protección. No todos los datos deben compartirse (por supuesto, los planes de negocios y el código fuente), pero la información disponible públicamente en su sitio web se puede ingresar de manera segura en ChatGPT.
El segundo paso es determinar el nivel de restricción que desea aplicar a los empleados cuando intenten pegar datos tan sensibles. Esto podría implicar un bloqueo total o simplemente advertirles de antemano. Las alertas son útiles porque ayudan a capacitar a los empleados sobre la importancia de los riesgos de los datos y fomentan la autonomía, de modo que los empleados puedan tomar la decisión por sí mismos en función de un equilibrio entre el tipo de datos que están ingresando y sus necesidades.
Ahora es el momento de aplicar la tecnología. Una herramienta GenAI DLP puede aplicar estas políticas, analizando de forma granular las acciones de los empleados en las aplicaciones GenAI y bloqueando o alertando cuando los empleados intentan pegar datos confidenciales en ellas. Una solución de este tipo también puede desactivar las extensiones GenAI y aplicar diferentes políticas para distintos usuarios.
En un nuevo seminario web a cargo de expertos de LayerX, se profundiza en los riesgos de los datos de GenAI y se brindan las mejores prácticas y pasos prácticos para proteger la empresa. CISO, profesionales de seguridad, oficinas de cumplimiento normativo Regístrate aquí.