Google exigirá que los anuncios electorales «divulguen de forma destacada» el contenido de IA


Reciba actualizaciones gratuitas de inteligencia artificial

Google exigirá a los anunciantes verificados que «revelen de manera destacada» cuando un anuncio de campaña «represente de manera no auténtica» personas o eventos, en un intento por combatir la difusión de imágenes manipuladas digitalmente con fines políticos, dijo la compañía el miércoles.

Google listado ejemplos de anuncios que requerirían la divulgación, incluidos aquellos que hacen que «parezca como si una persona estuviera diciendo o haciendo algo que no dijo o hizo» y aquellos que cambian imágenes para «representar escenas que en realidad no tuvieron lugar».

La empresa de tecnología dijo que la política entraría en vigor a mediados de noviembre, un año antes de las elecciones presidenciales y del Congreso de Estados Unidos.

El anuncio se produce apenas una semana antes de que los principales ejecutivos de tecnología, incluido el director ejecutivo de Google, Sundar Pichai, el jefe de Microsoft, Satya Nadella, y el ex director de Microsoft, Bill Gates, asistan a un foro sobre inteligencia artificial organizado por el líder de la mayoría del Senado, Chuck Schumer, en Washington, que probablemente se convierta en el base de la legislación sobre IA. Otros asistentes al AI Insight Forum a puerta cerrada serán Elon Musk y Mark Zuckerberg.

El auge de la IA ha aumentado los temores de que el contenido alterado engañe a los votantes en las elecciones estadounidenses de 2024. En julio, un anuncio de Never Back Down, un grupo de recaudación de fondos que apoya al gobernador de Florida, Ron DeSantis, pareció usar inteligencia artificial para recrear la voz del expresidente Donald Trump leyendo un mensaje que publicó en las redes sociales.

Un reciente auge de los modelos de IA generativa, como ChatGPT y Midjourney, significa que los usuarios pueden crear fácilmente vídeos e imágenes falsos convincentes.

Mandiant, una empresa de seguridad cibernética propiedad de Google, dijo el mes pasado que había visto un aumento en el uso de IA para realizar campañas de información manipuladora en línea, pero agregó que el impacto hasta ahora había sido limitado. Su informe decía que había rastreado campañas de grupos vinculados al gobierno de Rusia, China y otras naciones.

Google ha estado bajo presión para restringir la información errónea en su motor de búsqueda (una de las fuentes de información más utilizadas) y otras plataformas, como YouTube, durante años. En 2017, anunció su primer intento de detener la circulación de “noticias falsas” en su motor de búsqueda con herramientas que permitían a los usuarios denunciar contenidos engañosos.

En junio, la UE ordenó a plataformas como Google y Meta que mejoraran sus esfuerzos para luchar contra la información falsa, incluso añadiendo etiquetas al contenido generado por IA.

Facebook, que es una de las mayores plataformas de anuncios políticos, actualizó su política para los vídeos publicados en sus plataformas en 2020, que prohibía los «medios manipulativos engañosos» que hubieran sido «sintetizados», incluidos los «deepfakes», en los que una persona ha sido alterado digitalmente para aparecer como otra persona. No tiene una política específica para los anuncios políticos generados por IA.

X, anteriormente Twitter, revocó el mes pasado una política que había prohibido todos los anuncios políticos a nivel mundial desde 2019, lo que generó preocupaciones sobre la desinformación antes de las elecciones de 2024.

La Comisión Federal Electoral se negó a comentar sobre la nueva política de Google.



ttn-es-56