A los formuladores de políticas de todo el mundo les preocupa cómo se puede aprovechar la desinformación generada por la IA para tratar de engañar a los votantes y avivar las divisiones antes de varias elecciones importantes el próximo año.
En un país ya está sucediendo: Bangladesh.
La nación del sur de Asia de 170 millones de habitantes se dirige a las urnas a principios de enero, una contienda marcada por una lucha de poder amarga y polarizadora entre la actual Primera Ministra Sheikh Hasina y sus rivales, el opositor Partido Nacionalista de Bangladesh.
Los medios de comunicación progubernamentales y personas influyentes en Bangladesh han promovido en los últimos meses la desinformación generada por IA creada con herramientas baratas ofrecidas por nuevas empresas de inteligencia artificial.
En un supuesto clip de noticias, un presentador generado por IA arremete contra Estados Unidos, un país que el gobierno de Sheikh Hasina ha criticado antes de las elecciones. Otro video falso, que luego fue eliminado, mostraba a un líder de la oposición equivocándose sobre el apoyo a los habitantes de Gaza, una posición potencialmente ruinosa en el país de mayoría musulmana con una fuerte simpatía pública por los palestinos.
Está aumentando la presión pública sobre las plataformas tecnológicas para que tomen medidas enérgicas contra el contenido engañoso de IA antes de varias elecciones importantes previstas para 2024, incluso en Estados Unidos, el Reino Unido, India e Indonesia. En respuesta, Google y Meta han anunciado recientemente políticas para comenzar a exigir que las campañas revelen si los anuncios políticos han sido alterados digitalmente.
Pero los ejemplos de Bangladesh muestran no sólo cómo estas herramientas de inteligencia artificial pueden explotarse en las elecciones, sino también la dificultad de controlar su uso en mercados más pequeños que corren el riesgo de ser pasados por alto por las empresas tecnológicas estadounidenses.
Miraj Ahmed Chowdhury, director general de la firma de investigación de medios Digitally Right, con sede en Bangladesh, dijo que si bien la desinformación generada por IA estaba “todavía en un nivel de experimentación” (la mayoría creada utilizando plataformas convencionales de edición de fotografías o videos), demostraba cómo podría tomarse. apagado.
“Cuando tienen tecnologías y herramientas como la IA, que les permiten producir información errónea y desinformación a gran escala, entonces puedes imaginar cuán grande es esa amenaza”, dijo, y agregó que “la atención de una plataforma a una determinada jurisdicción depende de cuán grande sea esa amenaza”. importante que es como mercado”.
El enfoque global en la capacidad de utilizar la IA para crear contenido político engañoso o falso ha aumentado durante el año pasado con la proliferación de herramientas poderosas como ChatGPT de OpenAI y generadores de video de IA.
A principios de este año, el Comité Nacional Republicano de EE. UU. publicó un anuncio de ataque utilizando imágenes generadas por inteligencia artificial para representar un futuro distópico bajo el presidente Joe Biden. Y YouTube suspendió varias cuentas en Venezuela que utilizaban presentadores de noticias generados por inteligencia artificial para promover desinformación favorable al régimen del presidente Nicolás Maduro.
En Bangladesh, la desinformación alimenta un clima político tenso antes de las elecciones de principios de enero. Sheikh Hasina ha tomado medidas enérgicas contra la oposición. Miles de líderes y activistas han sido arrestados en lo que los críticos advierten equivale a un intento de manipular las encuestas a su favor, lo que llevó a Estados Unidos a presionar públicamente a su gobierno para garantizar elecciones libres y justas.
En un vídeo publicado en X en septiembre por BD Politico, un medio de noticias en línea, un presentador de noticias de “World News” presentó un segmento de estudio, intercalado con imágenes de disturbios, en el que acusó a los diplomáticos estadounidenses de interferir en las elecciones de Bangladesh y los culpó. por la violencia política.
El vídeo se realizó utilizando HeyGen, un generador de vídeos de IA con sede en Los Ángeles que permite a los clientes crear clips con avatares de IA por tan solo 24 dólares al mes. El mismo presentador, llamado “Edward”, puede verse en el contenido promocional de HeyGen como uno de varios avatares, que a su vez se generan a partir de actores reales, disponibles para los usuarios de la plataforma. X, BD Politico y HeyGen no respondieron a las solicitudes de comentarios.
Otros ejemplos incluyen videos falsos contra la oposición publicados en el Facebook de Meta, incluido uno que pretende ser del líder exiliado del BNP, Tarique Rahman, sugiriendo que el partido “guarde silencio” sobre Gaza para no disgustar a Estados Unidos. El Tech Global Institute, un grupo de expertos y Witness, una organización de medios sin fines de lucro, concluyeron que el video falso probablemente fue generado por IA.
AKM Wahiduzzaman, funcionario del BNP, dijo que su partido pidió a Meta que eliminara dicho contenido pero “la mayoría de las veces no se molestan en responder”. Meta eliminó el video después de que el Financial Times se comunicara con él para pedirle comentarios.
En otro vídeo deepfake, creado utilizando la plataforma de vídeo de inteligencia artificial D-ID, con sede en Tel Aviv, se muestra al líder del ala juvenil del BNP, Rashed Iqbal Khan, mintiendo sobre su edad en lo que el Tech Global Institute dijo que era un esfuerzo por desacreditarlo. D-ID no respondió a una solicitud de comentarios.
Un desafío principal para identificar dicha desinformación fue la falta de herramientas confiables de detección de IA, dijo Sabhanaz Rashid Diya, fundador de Tech Global Institute y ex ejecutivo de Meta, con productos disponibles en el mercado particularmente ineficaces para identificar contenido en idiomas distintos del inglés.
Añadió que las soluciones propuestas por las grandes plataformas tecnológicas, que se han centrado en regular la IA en los anuncios políticos, tendrán un efecto limitado en países como Bangladesh, donde los anuncios son una parte menor de la comunicación política.
“Las soluciones que están surgiendo para abordar esta avalancha de información errónea sobre la IA están muy centradas en Occidente”. Las plataformas tecnológicas “no se están tomando esto tan en serio en otras partes del mundo”.
El problema se ve exacerbado por la falta de regulación o su aplicación selectiva por parte de las autoridades. La Ley de Seguridad Cibernética de Bangladesh, por ejemplo, ha sido criticada por otorgar al gobierno poderes draconianos para reprimir la disidencia en línea.
El regulador de Internet de Bangladesh no respondió a una solicitud de comentarios sobre lo que está haciendo para controlar la información errónea en línea.
Diya argumentó que una amenaza mayor que el propio contenido generado por la IA era la posibilidad de que los políticos y otros pudieran utilizar la mera posibilidad de deepfakes para desacreditar información incómoda.
En la vecina India, por ejemplo, un político respondió a un audio filtrado en el que supuestamente hablaba de la corrupción en su partido afirmando que era falso, afirmación que posteriormente se hizo. desestimado por los verificadores de hechos.
“Es fácil para un político decir: ‘Esto es un deepfake’ o ‘Esto es generado por IA’, y sembrar una sensación de confusión”, dijo. “El desafío para el sur global. . . “Va a ser cómo la idea del contenido generado por IA se está utilizando como arma para erosionar lo que la gente cree que es verdadero frente a lo falso”.
Información adicional de Jyotsna Singh en Nueva Delhi