Seminario web en vivo: Superación de los riesgos de fuga de datos de la IA generativa


A medida que la adopción de herramientas de IA generativa, como ChatGPT, continúa aumentando, también aumenta el riesgo de exposición de datos. Según el informe «Emerging Tech: Top 4 Security Risks of GenAI» de Gartner, la privacidad y la seguridad de los datos es uno de los cuatro principales riesgos emergentes dentro de la IA generativa. Un nuevo seminario web Con un CISO en varias ocasiones de Fortune 100 y el CEO de LayerX, una solución de extensión de navegador, profundiza en este riesgo crítico.

A lo largo del seminario web, los oradores explicarán por qué la seguridad de los datos es un riesgo y explorarán la capacidad de las soluciones DLP para proteger contra ellos o la falta de ellos. Luego, delinearán las capacidades requeridas por las soluciones DLP para garantizar que las empresas se beneficien de la productividad que las aplicaciones GenAI tienen para ofrecer sin comprometer la seguridad.

Los riesgos comerciales y de seguridad de las aplicaciones de IA generativa

Los riesgos de seguridad de GenAI ocurren cuando los empleados insertan textos confidenciales en estas aplicaciones. Estas acciones merecen una cuidadosa consideración, porque los datos insertados pasan a formar parte del conjunto de entrenamiento de la IA. Esto significa que los algoritmos de IA aprenden de estos datos, incorporándolos a sus algoritmos para generar respuestas futuras.

Hay dos peligros principales que se derivan de este comportamiento. Primero, el riesgo inmediato de fuga de datos. La información confidencial podría quedar expuesta en una respuesta generada por la aplicación a una consulta de otro usuario. Imagine un escenario en el que un empleado pega código propietario en una IA generativa para su análisis. Más tarde, un usuario diferente podría recibir ese fragmento de ese código como parte de una respuesta generada, comprometiendo su confidencialidad.

En segundo lugar, existe un riesgo a largo plazo relacionado con la retención, el cumplimiento y la gobernanza de los datos. Incluso si los datos no se exponen de inmediato, pueden almacenarse en el conjunto de entrenamiento de la IA por un período indefinido. Esto plantea dudas sobre la seguridad con la que se almacenan los datos, quién tiene acceso a ellos y qué medidas existen para garantizar que no queden expuestos en el futuro.

Aumento del 44% en el uso de GenAI

Hay varios tipos de datos confidenciales que corren el riesgo de filtrarse. Los principales son la filtración de información financiera empresarial, código fuente, planes de negocio y PII. Esto podría resultar en un daño irreparable a la estrategia comercial, pérdida de propiedad intelectual interna, violación de la confidencialidad de terceros y violación de la privacidad del cliente, lo que eventualmente podría conducir a la degradación de la marca y a implicaciones legales.

Los datos respaldan la preocupación. La investigación realizada por LayerX sobre los datos de sus propios usuarios muestra que el uso de aplicaciones de IA generativa por parte de los empleados ha aumentado un 44% a lo largo de 2023, con un 6% de los empleados pegando datos confidenciales en estas aplicaciones, ¡un 4% semanalmente!

Donde las soluciones DLP no funcionan

Tradicionalmente, las soluciones DLP se diseñaban para proteger contra la fuga de datos. Estas herramientas, que se convirtieron en la piedra angular de las estrategias de ciberseguridad a lo largo de los años, protegen los datos confidenciales del acceso y las transferencias no autorizados. Las soluciones DLP son particularmente efectivas cuando se trata de archivos de datos como documentos, hojas de cálculo o PDF. Pueden monitorear el flujo de estos archivos a través de una red y marcar o bloquear cualquier intento no autorizado de moverlos o compartirlos.

Sin embargo, el panorama de la seguridad de los datos está evolucionando, al igual que los métodos de fuga de datos. Un área en la que las soluciones DLP tradicionales se quedan cortas es en el control del pegado de texto. Los datos basados ​​en texto se pueden copiar y pegar en diferentes plataformas sin activar los mismos protocolos de seguridad. En consecuencia, las soluciones DLP tradicionales no están diseñadas para analizar o bloquear el pegado de texto confidencial en aplicaciones de IA generativa.

Además, las soluciones CASB DLP, un subconjunto de tecnologías DLP, tienen sus propias limitaciones. Por lo general, son eficaces sólo para aplicaciones autorizadas dentro de la red de una organización. Esto significa que si un empleado pegara texto confidencial en una aplicación de IA no autorizada, CASB DLP probablemente no detectaría ni evitaría esta acción, dejando a la organización vulnerable.

La solución: un DLP GenAI

La solución es un DLP de IA generativo o un DLP web. La DLP de IA generativa puede monitorear continuamente las acciones de pegado de texto en varias plataformas y aplicaciones. Utiliza algoritmos de ML para analizar el texto en tiempo real, identificando patrones o palabras clave que pueden indicar información confidencial. Una vez que se detectan dichos datos, el sistema puede tomar acciones inmediatas, como emitir advertencias, bloquear el acceso o incluso impedir por completo la acción de pegar. Este nivel de granularidad en el monitoreo y la respuesta es algo que las soluciones DLP tradicionales no pueden ofrecer.

Las soluciones Web DLP van más allá y pueden identificar cualquier acción relacionada con datos hacia y desde ubicaciones web. A través de análisis avanzados, el sistema puede diferenciar entre ubicaciones web seguras e inseguras e incluso dispositivos administrados y no administrados. Este nivel de sofisticación permite a las organizaciones proteger mejor sus datos y garantizar que se acceda a ellos y se utilicen de manera segura. Esto también ayuda a las organizaciones a cumplir con las regulaciones y estándares de la industria.

¿Qué tiene que decir Gartner sobre DLP? ¿Con qué frecuencia los empleados visitan aplicaciones de IA generativa? ¿Cómo es una solución GenAI DLP? Descubra las respuestas y más por registrándose al seminario web, aquí.

¿Encontró interesante este artículo? Siga con nosotros Gorjeo y LinkedIn para leer más contenido exclusivo que publicamos.





ttn-es-57