OpenAI lanza una recompensa por errores para sus herramientas de IA


Para identificar todas las fallas de seguridad presentes en sus herramientas de inteligencia artificial, OpenAI ha decidido lanzar una recompensa por errores. El principio es simple: llame a especialistas en seguridad cibernética o entusiastas de la industria para detectar errores de software. Si los hay, la persona que identificó la falla gana una recompensa.

OpenAI intenta eliminar tantos errores como sea posible en sus herramientas

Solo unas semanas después de que un error permitiera a algunos usuarios de ChatGPT espiar las conversaciones de otras personas, OpenAI decidió tomar medidas. Al igual que grandes grupos como Google, Apple o incluso Blablacar, la empresa estadounidense especializada en inteligencia artificial ha abierto un bug bounty.

Dentro una entrada de blogOpenAI explica el lanzamiento de su iniciativa, “ Como con cualquier tecnología compleja, entendemos que pueden aparecer vulnerabilidades y fallas. Creemos que la transparencia y la colaboración son claves para hacer frente a esta realidad. Es por eso que invitamos a la comunidad global de investigadores de seguridad, hackers éticos y entusiastas de la tecnología a que nos ayuden a identificar y corregir vulnerabilidades en nuestros sistemas. «.

Por supuesto, ChatGPT está a la vista, pero los interesados ​​también pueden trabajar en DALL-E 2, el generador de imágenes de OpenAI. Antes de invertir masivamente para garantizar y proteger sus modelos de IA tanto como sea posible, la empresa esperará a que se detecten errores. Será posible identificarlos en la plataforma Bugcrowd.

De $200 a $20,000 dependiendo de la gravedad de la infracción

Dependiendo de los problemas reportados y su impacto en el uso de la herramienta en la que fueron detectados, se asignarán recompensas. Por una falla de poca gravedad, se pagarán 200 dólares, mientras que se ofrecerán casi 20.000 dólares a la persona que descubra un error fácilmente explotable por los ciberdelincuentes, por ejemplo.

Sin embargo, OpenAI especificó los tipos de errores que no le interesaban. El descubrimiento de un defecto menor vinculado a «unEl contenido de las indicaciones y respuestas del modelo está estrictamente fuera del alcance y no se recompensará a menos que tenga un impacto de seguridad adicional. «. En pocas palabras, cualquier evasión de seguridad que permita que el modelo diga cosas maliciosas o discriminatorias no se considera una vulnerabilidad de seguridad a los ojos de la empresa.

Hasta el momento, se han descubierto 14 vulnerabilidades y ya se han pagado casi $18,000 a las personas que sacaron a la luz estos errores. Los equipos de OpenAI dejan unas horas entre el envío del error y su respuesta para verificar la veracidad de la falla y el tiempo para parchearlo. Se han establecido varias reglas para evitar que estos errores se divulguen al público en general antes de que se corrijan.



ttn-es-4