Los anuncios políticos deben revelar alteraciones digitales, dice Meta


Desbloquea el Editor’s Digest gratis

Meta exigirá a los anunciantes que revelen cuándo crean o modifican digitalmente anuncios políticos para publicarlos en sus plataformas, en medio de preocupaciones de que la nueva tecnología de inteligencia artificial facilite una avalancha de deepfakes y desinformación en el período previo a las elecciones presidenciales estadounidenses de 2024.

Los anunciantes deben revelar cuándo crean o modifican digitalmente anuncios políticos que representan a personas reales diciendo o haciendo algo que no hicieron, así como cuándo los eventos o las personas son completamente inventados, anunció la plataforma de redes sociales el miércoles. De manera similar, se deben divulgar imágenes alteradas de eventos reales, al igual que audio o video generado digitalmente destinado a representar un evento que supuestamente ocurrió.

La política global, que entrará en vigor el próximo año, también se aplica a la publicidad sobre temas sociales.

La política se produce después de que Meta, propietaria de Instagram, Facebook y WhatsApp, presentara el mes pasado herramientas de inteligencia artificial generativa que permiten a los anunciantes generar automáticamente nuevos fondos, variaciones de texto y ajustar el tamaño de su anuncio para que se ajuste a múltiples formatos. Meta ha prohibido a los anunciantes políticos utilizar estas herramientas, una medida que Reuters informó por primera vez.

Las plataformas de redes sociales han invertido en IA generativa en un intento por capitalizar el revuelo en torno al ChatGPT de OpenAI, un chatbot orientado al consumidor lanzado el año pasado.

Pero ha habido temores crecientes de que la tecnología pueda usarse para difundir información errónea y desinformación relacionada con las elecciones, particularmente antes de las elecciones estadounidenses del próximo año. La semana pasada, el presidente de Estados Unidos, Joe Biden, emitió una orden ejecutiva sobre inteligencia artificial que ordena al departamento de comercio que elabore directrices sobre el etiquetado del contenido generado por inteligencia artificial en un intento por abordar el “fraude y el engaño”, incluidos los deepfakes.

En septiembre, Google, matriz de YouTube, fue la primera gran plataforma de publicidad digital en exigir a los anunciantes que «revelen de manera destacada cuando sus anuncios contienen contenido sintético que representa de manera no auténtica personas o eventos reales o de apariencia realista».

A principios de octubre, la senadora estadounidense Amy Klobuchar e Yvette Clarke, miembro de la Cámara de Nueva York, escribieron una carta al director ejecutivo de Meta, Mark Zuckerberg, exigiendo información sobre los «esfuerzos de la compañía para abordar estas amenazas a nuestras elecciones libres y justas». Linda Yaccarino, directora ejecutiva de X, también recibió la carta y se reunió con legisladores para discutir el tema, según una persona familiarizada con el asunto. Sin embargo, X, anteriormente Twitter, no ha realizado ningún cambio en sus políticas. X no respondió a una solicitud de comentarios.

Si los anunciantes infringen repetidamente las reglas de divulgación de Meta, podrían enfrentar sanciones. Sin embargo, los requisitos no se aplican si el contenido se genera o modifica de manera intrascendente o irrelevante para las afirmaciones hechas en el anuncio (por ejemplo, si una imagen ha sido recortada o enfocada).



ttn-es-56