X bloquea las búsquedas de Taylor Swift después de que videos falsos de IA se vuelven virales


X de Elon Musk ha bloqueado las búsquedas de Taylor Swift después de que imágenes sexualmente explícitas de la estrella del pop creadas con inteligencia artificial se difundieran ampliamente en la plataforma.

El incidente es el ejemplo más reciente de cómo los grupos de redes sociales se esfuerzan por abordar los llamados deepfakes: imágenes y audio realistas, generados mediante inteligencia artificial, de los que se puede abusar para retratar a personas prominentes en situaciones comprometedoras o engañosas sin su consentimiento.

Cualquier búsqueda de términos como “Taylor Swift” o “Taylor AI” en X arrojó un mensaje de error durante varias horas durante el fin de semana, después de que imágenes pornográficas de la cantante generadas por IA proliferaran en línea en los últimos días. El cambio significa que incluso el contenido legítimo sobre una de las estrellas más populares del mundo es más difícil de ver en el sitio.

“Esta es una acción temporal y se hace con mucha precaución, ya que priorizamos la seguridad en este tema”, dijo Joe Benarroch, jefe de operaciones comerciales de X.

Swift no ha comentado públicamente sobre el asunto.

X fue comprado por 44 mil millones de dólares en octubre de 2022 por el empresario multimillonario Musk, quien recortó los recursos dedicados a controlar el contenido y aflojó sus políticas de moderación, citando sus ideales de libertad de expresión.

Su uso del mecanismo de moderación contundente este fin de semana se produce cuando X y sus rivales Meta, TikTok y YouTube de Google enfrentan una presión cada vez mayor para abordar el abuso de una tecnología deepfake cada vez más realista y de fácil acceso. Ha surgido un dinámico mercado de herramientas que permite a cualquiera utilizar la IA generativa para crear un vídeo o una imagen con la imagen de una celebridad o un político con varios clics.

Aunque la tecnología deepfake ha estado disponible desde hace varios años, los avances recientes en la IA generativa han hecho que las imágenes sean más fáciles de crear y más realistas. Los expertos advierten que las imágenes pornográficas falsas son uno de los abusos emergentes más comunes de la tecnología deepfake, y también señalan su uso cada vez mayor en campañas de desinformación política durante un año de elecciones en todo el mundo.

En respuesta a una pregunta sobre las imágenes de Swift el viernes, la secretaria de prensa de la Casa Blanca, Karine Jean-Pierre, dijo que la circulación de imágenes falsas era “alarmante”, y añadió: “Aunque las empresas de medios sociales toman sus propias decisiones independientes sobre la gestión de contenidos, creemos Tienen un papel importante que desempeñar en el cumplimiento de sus propias reglas”. Instó al Congreso a legislar sobre el tema.

El miércoles, ejecutivos de redes sociales, incluidos Linda Yaccarino de X, Mark Zuckerberg de Meta y Shou Zi Chew de TikTok, se enfrentarán a un interrogatorio en una audiencia del comité judicial del Senado de EE. UU. sobre explotación sexual infantil en línea, tras las crecientes preocupaciones de que sus plataformas no hacen lo suficiente para proteger a los niños.

El viernes, la cuenta oficial de seguridad de X dijo en un declaración que publicar “imágenes de desnudos no consensuales (NCN)” estaba “estrictamente prohibido” en la plataforma, que tiene una “política de tolerancia cero hacia dicho contenido”.

Añadió: “Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas apropiadas contra las cuentas responsables de publicarlas. Estamos monitoreando de cerca la situación para asegurarnos de que cualquier infracción adicional se aborde de inmediato y se elimine el contenido”.

Sin embargo, los agotados recursos de moderación de contenido de X no han podido evitar que las imágenes falsas de Swift sean vistas millones de veces antes de eliminarlas, lo que obligó a la compañía a recurrir al bloqueo de búsquedas de una de las estrellas más grandes del mundo.

Un informe del sitio de noticias de tecnología 404 Media encontró que las imágenes parecían originarse en un tablón de anuncios anónimo 4chan y un grupo en la aplicación de mensajería Telegram, dedicado a compartir imágenes abusivas de mujeres generadas por IA, a menudo hechas con una herramienta de Microsoft. Telegram y Microsoft no respondieron de inmediato a las solicitudes de comentarios.





ttn-es-56