ChatGPT Security: el programa Bug Bounty de OpenAI ofrece premios de hasta $20,000


13 de abril de 2023Ravie LakshmanánSeguridad de software/búsqueda de errores

OpenAI, la compañía detrás del enormemente popular chatbot ChatGPT AI, ha lanzado un programa de recompensas por errores en un intento de garantizar que sus sistemas sean «seguros y protegidos».

Para ello, se ha asociado con la plataforma de seguridad colaborativa Multitud de bichos para que los investigadores independientes informen sobre las vulnerabilidades descubiertas en su producto a cambio de recompensas que van desde «$200 por hallazgos de baja gravedad hasta $20,000 por descubrimientos excepcionales».

Cabe señalar que el programa no cubre seguridad del modelo o problemas de alucinaciones, en el que se solicita al chatbot que genere código malicioso u otras salidas defectuosas. La compañía señaló que «abordar estos problemas a menudo implica una investigación sustancial y un enfoque más amplio».

Otras categorías prohibidas son los ataques de denegación de servicio (DoS), las API de OpenAI de fuerza bruta y las demostraciones que tienen como objetivo destruir datos u obtener acceso no autorizado a información confidencial.

«Tenga en cuenta que las pruebas autorizadas no lo eximen de todos los términos de servicio de OpenAI», advirtió la compañía. «El abuso del servicio puede resultar en la limitación, el bloqueo o la prohibición de la tasa».

Sin embargo, lo que está dentro del alcance son los defectos en las API de OpenAI, ChatGPT (incluidos los complementos), las integraciones de terceros, la exposición pública de las claves de la API de OpenAI y cualquiera de los dominios operados por la empresa.

El desarrollo se produce en respuesta a la toma de control de la cuenta de parches de OpenAI y las fallas de exposición de datos en la plataforma, lo que llevó a los reguladores italianos de protección de datos a observar más de cerca la plataforma.

La autoridad italiana de protección de datos propone medidas para levantar la prohibición de ChatGPT

The Garante, que impuso una prohibición temporal a ChatGPT el 31 de marzo de 2023, ha esbozado desde entonces un conjunto de medidas que la empresa respaldada por Microsoft tendrá que aceptar implementar antes de fin de mes para que se levante la suspensión.

«OpenAI deberá redactar y poner a disposición, en su sitio web, un aviso de información que describa los arreglos y la lógica del procesamiento de datos requerido para la operación de ChatGPT junto con los derechos otorgados a los interesados», Garante dicho.

PRÓXIMO SEMINARIO WEB

Aprenda a proteger el perímetro de identidad: estrategias comprobadas

Mejore la seguridad de su empresa con nuestro próximo seminario web sobre ciberseguridad dirigido por expertos: ¡Explore las estrategias del perímetro de identidad!

No se lo pierda: ¡guarde su asiento!

Además, el aviso de información debe estar fácilmente disponible para los usuarios italianos antes de registrarse en el servicio. Los usuarios también deberán estar obligados a declarar que son mayores de 18 años.

También se ordenó a OpenAI que implemente un sistema de verificación de edad antes del 30 de septiembre de 2023, para filtrar a los usuarios menores de 13 años y contar con disposiciones para solicitar el consentimiento de los padres para los usuarios de 13 a 18 años. La empresa tiene tiempo hasta el 31 de mayo para presentar un plan para el sistema de clasificación por edades.

Como parte de los esfuerzos para ejercer los derechos de datos, tanto los usuarios como los no usuarios del servicio pueden solicitar la «rectificación de sus datos personales» en los casos en que el servicio los haya generado incorrectamente o, alternativamente, borrar los datos si las correcciones son técnicamente inviables.

Los no usuarios, según Garante, deben recibir herramientas de fácil acceso para oponerse a que sus datos personales sean procesados ​​por los algoritmos de OpenAI. También se espera que la compañía realice una campaña publicitaria antes del 15 de mayo de 2023 para «informar a las personas sobre el uso de sus datos personales para algoritmos de entrenamiento».

¿Encontraste este artículo interesante? Siga con nosotros Gorjeo y LinkedIn para leer más contenido exclusivo que publicamos.



ttn-es-57