Los puntos ciegos de la protección de datos de ChatGPT y cómo los equipos de seguridad pueden resolverlos


20 de abril de 2023Las noticias del hackerInteligencia artificial / Seguridad de datos

En el corto tiempo transcurrido desde su creación, ChatGPT y otras plataformas de IA generativa se han ganado legítimamente la reputación de ser los mejores impulsores de la productividad. Sin embargo, la misma tecnología que permite la producción rápida de texto de alta calidad bajo demanda puede, al mismo tiempo, exponer datos corporativos confidenciales. Un reciente incidente, en el que los ingenieros de software de Samsung pegaron un código propietario en ChatGPT, demuestra claramente que esta herramienta puede convertirse fácilmente en un canal potencial de fuga de datos. Esta vulnerabilidad presenta un desafío exigente para las partes interesadas en la seguridad, ya que ninguna de las herramientas de protección de datos existentes puede garantizar que ChatGPT no exponga datos confidenciales. En este artículo, exploraremos este desafío de seguridad en detalle y mostraremos cómo las soluciones de seguridad del navegador pueden proporcionar una solución. Todo mientras permite a las organizaciones aprovechar al máximo el potencial de productividad de ChatGPT y sin tener que comprometer la seguridad de los datos.

El punto ciego de la protección de datos de ChatGPT: ¿Cómo puede controlar la inserción de texto en el navegador?

Cada vez que un empleado pega o escribe texto en ChatGPT, el texto ya no está controlado por las herramientas y políticas de protección de datos de la empresa. No importa si el texto se copió de un archivo de datos tradicional, un documento en línea u otra fuente. Ese, de hecho, es el problema. Las soluciones de prevención de fugas de datos (DLP), desde agentes locales hasta CASB, son todas orientado a archivos. Aplican políticas sobre los archivos en función de su contenido, al tiempo que evitan acciones como modificar, descargar, compartir y más. Sin embargo, esta capacidad es de poca utilidad para la protección de datos de ChatGPT. No hay archivos involucrados en ChatGPT. Más bien, el uso implica pegar fragmentos de texto copiados o escribir directamente en una página web, lo que está más allá del gobierno y control de cualquier producto DLP existente.

Cómo las soluciones de seguridad del navegador evitan el uso inseguro de datos en ChatGPT

LayerX lanzó su plataforma de seguridad del navegador para monitoreo continuo, análisis de riesgos y protección en tiempo real de las sesiones del navegador. Entregado como una extensión del navegador, LayerX tiene visibilidad granular de cada evento que tiene lugar dentro de la sesión. Esto permite que LayerX detecte comportamientos de riesgo y configure políticas para evitar que se lleven a cabo acciones predefinidas.

En el contexto de la protección de datos confidenciales para que no se carguen en ChatGPT, LayerX aprovecha esta visibilidad para identificar eventos de inserción de texto intentados, como «pegar» y «escribir», dentro de la pestaña de ChatGPT. Si el contenido del texto en el evento ‘pegar’ viola las políticas corporativas de protección de datos, LayerX evitará la acción por completo.

Para habilitar esta capacidad, los equipos de seguridad que utilizan LayerX deben definir las frases o expresiones regulares que desean proteger de la exposición. Luego, deben crear una política de LayerX que se activa cada vez que hay una coincidencia con estas cadenas.

Vea cómo se ve en acción:

Panel de LayerX
Configuración de la política en el panel de control de LayerX
ChatGPT
Un usuario que intenta copiar información confidencial en ChatGPT es bloqueado por LayerX

Además, las organizaciones que deseen evitar que sus empleados usen ChatGPT por completo, pueden usar LayerX para bloquear el acceso al sitio web de ChatGPT o a cualquier otro generador de texto en línea basado en IA, incluidas las extensiones de navegador similares a ChatGPT.

Obtenga más información sobre la protección de datos de LayerX ChatGPT aquí.

Uso de la plataforma de seguridad del navegador de LayerX para obtener una protección completa de SaaS

La diferencia que hace de LayerX la única solución que puede abordar de manera efectiva la brecha de protección de datos de ChatGPT es su ubicación en el propio navegador, con visibilidad en tiempo real y aplicación de políticas en la sesión real del navegador. Este enfoque también lo convierte en una solución ideal para protegerse de cualquier amenaza cibernética que tenga como objetivo los datos o la actividad del usuario en el navegador, como es el caso de las aplicaciones SaaS.

Los usuarios interactúan con las aplicaciones SaaS a través de sus navegadores. Esto facilita que LayerX proteja tanto los datos dentro de estas aplicaciones como las propias aplicaciones. Esto se logra aplicando los siguientes tipos de políticas sobre las actividades de los usuarios a lo largo de las sesiones web:

Políticas de protección de datos: Además de la protección estándar orientada a archivos (prevención de copiar/compartir/descargar/etc.), LayerX brinda la misma protección granular que proporciona para ChatGPT. De hecho, una vez que la organización ha definido qué entradas prohíbe pegar, las mismas políticas se pueden expandir para evitar exponer estos datos a cualquier sitio web o SaaS.

Mitigación de compromiso de cuenta: LayerX supervisa las actividades de cada usuario en las aplicaciones SaaS de la organización. La plataforma detectará cualquier comportamiento anómalo o interacción de datos que indique que la cuenta del usuario está comprometida. Las políticas de LayerX activarán la finalización de la sesión o deshabilitarán cualquier capacidad de interacción de datos para el usuario en la aplicación.

Obtenga más información sobre la protección de datos de LayerX ChatGPT aquí.

¿Encontraste este artículo interesante? Siga con nosotros Gorjeo y LinkedIn para leer más contenido exclusivo que publicamos.





ttn-es-57