Desbloquea el Editor’s Digest gratis
Roula Khalaf, editora del FT, selecciona sus historias favoritas en este boletín semanal.
Meta se enfrenta a una revisión de sus políticas sobre contenidos manipulados y “deepfakes” creados por inteligencia artificial, después de que los moderadores de la empresa se negaran a eliminar un vídeo de Facebook que describía erróneamente al presidente estadounidense Joe Biden como un pedófilo.
La Junta de Supervisión de la empresa de Silicon Valley, un organismo independiente al estilo de la Corte Suprema creado en 2020 y formado por 20 periodistas, académicos y políticos, dijo el martes que abriría un caso para examinar si las directrices del gigante de las redes sociales sobre vídeos e imágenes alterados podrían “resistir los desafíos actuales y futuros”.
La investigación, la primera de este tipo sobre las políticas de “medios manipulados” de Meta, ha sido impulsada por una versión editada de un vídeo durante las elecciones intermedias de 2022 en Estados Unidos. En el clip original, Biden coloca una pegatina que dice “Yo voté” en el pecho de su nieta adulta y la besa en la mejilla.
En una publicación de Facebook de mayo de este año, una versión alterada de siete segundos del clip repite el metraje para repetir el momento en que la mano de Biden hace contacto con su pecho. La leyenda adjunta llama a Biden “un pedófilo enfermo” y a quienes votaron por él “mentalmente enfermos”. El clip todavía está en el sitio de Facebook.
Aunque el vídeo de Biden fue editado sin el uso de inteligencia artificial, la junta argumenta que su revisión y sus fallos también sentarán un precedente para el contenido generado por IA y editado por humanos.
“Afecta la cuestión mucho más amplia de cómo los medios manipulados podrían afectar las elecciones en todos los rincones del mundo”, dijo Thomas Hughes, director de la administración de la Junta de Supervisión.
“La libertad de expresión es de vital importancia, es la piedra angular de la gobernanza democrática”, dijo Hughes. “Pero hay preguntas complejas sobre cuáles deberían ser las responsabilidades de Meta en materia de derechos humanos con respecto al contenido de video que ha sido alterado para crear una impresión engañosa de una figura pública”.
Añadió: “Es importante que analicemos qué desafíos y mejores prácticas debería adoptar Meta cuando se trata de autenticar contenido de video a escala”.
La investigación de la junta se produce cuando el contenido alterado por IA, a menudo descrito como deepfakes, se está volviendo cada vez más sofisticado y ampliamente utilizado. Existe la preocupación de que el contenido falso pero realista de los políticos, en particular, pueda influir en la votación en las próximas elecciones. Estados Unidos acudirá a las urnas en poco más de un año.
El caso de Biden surgió cuando un usuario denunció el vídeo a Meta, que no eliminó la publicación y confirmó su decisión de dejarlo en línea luego de un proceso de apelación de Facebook. A principios de septiembre, el vídeo tenía menos de 30 visitas y no había sido compartido.
El usuario no identificado apeló entonces la decisión ante el consejo de supervisión. Meta confirmó que su decisión de dejar el contenido en la plataforma fue correcta.
El caso Biden se suma al creciente número de investigaciones de la junta sobre la moderación de contenidos en torno a elecciones y otros eventos cívicos.
Este año, la junta anuló una decisión de Meta de dejar un video en Facebook que mostraba a un general brasileño, a quien el junta no nombró, luego de elecciones que potencialmente incitaron a la violencia callejera. Las evaluaciones anteriores se centraron en la decisión de bloquear al expresidente estadounidense Donald Trump en Facebook, así como en un vídeo en el que el primer ministro camboyano, Hun Sen, amenaza con violencia a sus oponentes políticos.
Una vez que la junta haya completado su revisión, puede emitir recomendaciones de políticas no vinculantes a Meta, que debe responder en un plazo de dos meses. La junta ha invitado a presentar presentaciones del público, que pueden realizarse de forma anónima.
En una publicación del martes, Meta reiteró que el video fue “simplemente editado para eliminar ciertas partes” y, por lo tanto, no es un deepfake atrapado por sus políticas de medios manipulados.
“Implementaremos la decisión de la junta una vez que haya terminado de deliberar y actualizaremos esta publicación en consecuencia”, dijo, y agregó que el video tampoco violaba sus políticas de discurso de odio o intimidación.
Información adicional de Hannah Murphy en San Francisco