Manténgase informado con actualizaciones gratuitas
Simplemente regístrate en Inteligencia artificial myFT Digest: entregado directamente a su bandeja de entrada.
Uno de nuestros pánicos morales más ruidosos en estos días es el temor de que los deepfakes basados en inteligencia artificial degraden la democracia. La mitad de la población mundial está votando en 70 países este año. Alguno 1.500 expertos Una encuesta realizada por el Foro Económico Mundial a finales de 2023 consideró que la desinformación y la desinformación serían el riesgo global más grave durante los próximos dos años. Incluso los riesgos climáticos extremos y los conflictos armados interestatales se consideraron menos amenazantes.
Pero, escríbalo suavemente, sus preocupaciones parecen exageradas. No es la primera vez que el consenso de Davos podría estar equivocado.
El engaño ha sido una característica de la naturaleza humana desde que los griegos arrojaron un caballo de madera fuera de los muros de Troya. Más recientemente, la publicación en el Daily Mail de la carta de Zinoviev (un documento falsificado supuestamente del jefe soviético de la Comintern) tuvo un gran impacto en las elecciones generales británicas de 1924.
Por supuesto, eso fue antes de la era de Internet. La preocupación ahora es que el poder de la IA pueda industrializar esa desinformación. Internet ha reducido a cero el coste de distribución de contenidos. La IA generativa está reduciendo a cero el coste de la generación de contenidos. El resultado puede ser un volumen abrumador de información que, como señala el estratega político estadounidense Steve Bannon lo expresó de manera memorable: “inundar la zona de mierda”.
Los deepfakes (imitaciones realistas de audio, imágenes o videos generadas por IA) representan una amenaza particular. Los últimos avatares generados por las principales empresas de IA son tan buenos que son prácticamente indistinguibles de los reales. En un mundo así de “personas falsificadas”, como los llamó el difunto filósofo Daniel Dennett, ¿en quién puedes confiar en línea? El peligro no es tanto que los votantes confíen en los que no son dignos de confianza sino que desconfíen de los que sí lo son.
Sin embargo, al menos hasta ahora, los deepfakes no están causando tanto daño político como se temía. Algunas empresas emergentes de IA generativa argumentan que el problema tiene más que ver con la distribución que con la generación, pasando la pelota a las empresas de plataformas gigantes. En la Conferencia de Seguridad de Munich en febrero, 20 de esas grandes empresas tecnológicas, incluidas Google, Meta y TikTok, se comprometieron a reprimir los deepfakes diseñados para engañar. Hasta qué punto las empresas están cumpliendo sus promesas es todavía difícil de decir, pero la relativa falta de escándalos es alentadora.
El movimiento de inteligencia de código abierto, que incluye legiones de detectives cibernéticos, también ha sido eficaz para desacreditar la desinformación. Los académicos estadounidenses han creado una Base de datos de incidentes políticos deepfakes para rastrear y exponer el fenómeno, registrando 114 casos hasta este enero. Y bien podría ser que el uso cada vez mayor de herramientas de inteligencia artificial por parte de millones de usuarios esté profundizando la comprensión pública de la tecnología, vacunando a las personas contra los deepfakes.
La India, experta en tecnología y que acaba de celebrar la mayor elección democrática del mundo con 642 millones de personas votando, fue un caso de prueba interesante. Hubo un uso extensivo de herramientas de inteligencia artificial para hacerse pasar por candidatos y celebridades, generar el respaldo de políticos muertos y arrojar barro a los oponentes en la vorágine política de la democracia india. Sin embargo, las elecciones no parecieron desfiguradas por la manipulación digital.
Dos expertos de la Escuela Kennedy de Harvard, Vandinika Shukla y Bruce Schneier, que estudiaron el uso de la IA en la campaña, concluyeron que la tecnología se utilizó principalmente de forma constructiva.
Por ejemplo, algunos políticos utilizaron la plataforma oficial Bhashini y aplicaciones de inteligencia artificial para doblar sus discursos a los 22 idiomas oficiales de la India, profundizando las conexiones con los votantes. “La capacidad de la tecnología para producir deepfakes no consensuales de cualquier persona puede hacer que sea más difícil distinguir la verdad de la ficción, pero es probable que sus usos consensuales hagan que la democracia sea más accesible”. ellos escribieron.
Esto no significa que el uso de deepfakes sea siempre benigno. Ya se han utilizado para causar daños criminales y angustia personal. A principios de este año, la empresa británica de ingeniería Arup fue estafada con 25 millones de dólares en Hong Kong después de que unos estafadores utilizaran un vídeo clonado digitalmente de un alto directivo para ordenar una transferencia financiera. Este mes, imágenes explícitas deepfake de 50 niñas de la escuela secundaria Bacchus Marsh en Australia circularon en línea. Parecía que las fotos de las niñas habían sido tomadas de publicaciones en redes sociales y manipuladas para crear las imágenes.
Los delincuentes suelen estar entre los primeros en adoptar cualquier tecnología nueva. Lo que más debería preocuparnos es su siniestro uso de los deepfakes para atacar a particulares. Es más probable que los usos públicos de la tecnología con fines nefastos sean expuestos y contrarrestados rápidamente. Deberíamos preocuparnos más de que los políticos digan tonterías auténticas que de avatares falsos de IA que generen galimatías no auténticas.