Con motivo de la edición 2023 de DEF CON, la convención de hackers más famosa del mundo, Washington invitó a los hackers presentes a irrumpir en modelos de inteligencia artificial (IA)…
En la edición de 2023 de DEF CON, la convención de hackers más famosa del mundo, Washington invitó a los hackers presentes a entrar en los modelos de inteligencia artificial (IA) generativa más avanzados. Entre el 10 y el 13 de agosto de 2023, miles de personas intentaron encontrar las más mínimas fallas en estos sistemas.
Una prueba de tamaño real para desafiar a los modelos más eficientes
Entre los modelos de IA probados por los participantes, los de los gigantes OpenAI, Google y Meta, pero también los de nuevas empresas igualmente prometedoras: Anthropic, Stability, Cohere y Hugging Face. La Casa Blanca ha garantizado esta prueba a escala real, autorizando a hackers éticos a infiltrarse en las herramientas de sus pepitas tecnológicas para descubrir sus vulnerabilidades.
A cada participante se le asignó aleatoriamente un modelo y se le entregó una lista de veinte desafíos para completar. Sesgos algorítmicos y discriminatorios, brechas de seguridad, recuperación de información sensible o personal, etc. algunos hackers se han superado a sí mismos. Este es el caso de Avijit Ghosh que intentó que su chatbot eligiera a un candidato para un puesto de trabajo basándose en criterios poco éticos.
Con la realización de su experimento, el profesor especialista en ética de la IA llevó al límite la herramienta para poder llevar a cabo la tarea que se le proponía. Del mismo modo, uno de los participantes logró recuperar un número de tarjeta de crédito. Finalmente, un último hacker logró manipular la IA para obtener instrucciones para espiar a las personas. La modelo lo guió paso a paso en su planteamiento.
La Casa Blanca y los gigantes tecnológicos se comprometen a proteger mejor la IA
Si bien tales sesgos y fallas pueden sorprender, son comunes en el mundo de la inteligencia artificial. Washington lo sabe, así lo afirma en su nota de prensa de presentación del evento: “ Este ejercicio independiente proporcionará información crucial a los investigadores y al público sobre los impactos de estos modelos y permitirá a las empresas y desarrolladores de IA tomar medidas para corregir los problemas identificados. «.
A fines de julio, varios grupos tecnológicos estadounidenses importantes acordaron una serie de compromisos en torno a la IA con la Casa Blanca. Estas medidas, destinadas en particular a auditar regularmente las herramientas ofrecidas por estas empresas, deben permitir garantizar la seguridad de los usuarios y de los datos utilizados para su diseño. La Administración Biden confirma esta visión de las cosas ya que asegura que “ Probar modelos de IA independientemente del gobierno o las empresas que los desarrollaron es una parte importante de su evaluación efectiva. ».