YouTube: las herramientas para gestionar sus recomendaciones no son muy efectivas


La Fundación Mozilla ha hecho un vasto estudio para determinar si las herramientas que YouTube pone a disposición de los usuarios para controlar sus recomendaciones están funcionando. Los resultados no dejan lugar a dudas: son, la mayoría de las veces, ineficaces.

Un estudio de siete meses

Los investigadores analizaron siete meses de actividad en YouTube entre 22.722 voluntarios. Su objetivo, evaluar las cuatro formas en que los usuarios de la plataforma propiedad de Google pueden ajustar sus recomendaciones: haciendo clic en “ No me gusta », « No interesado », « Eliminar del historial » Dónde » No recomiendo este canal «.

En la misma categoría

El Capitolio de los Estados Unidos.

Estados Unidos: Reguladores piden justicia para reestablecer denuncia contra Meta

Para recopilar los datos necesarios, pidieron a los participantes que usaran la extensión RegretsReporter de Mozilla. Esto agrega un botón Ya no recomiendo en la parte superior de cada video de YouTube. Al presionarlo, se activa automáticamente una de las cuatro respuestas de ajuste del algoritmo, lo que ha hecho que analizar los datos sea más fácil para los investigadores y encontrarlos menos halagüeños para el gigante del video.

» La gente siente que usar los controles de usuario de YouTube no cambia sus recomendaciones. “, escriben en su informe. De hecho, haga clic en No me gusta «, la forma más visible de dar una crítica negativa en la plataforma, detiene solo el 12% de las malas recomendaciones, mientras que la opción » No interesado tiene solo un 11% de efectividad.

Las herramientas que mejor funcionan son las que le dan una orden a YouTube. Por ejemplo, » Eliminar del historial redujo las recomendaciones no deseadas en un 29%, mientras que No recomiendo este canal elimina el 43% de las malas recomendaciones. Si estas dos funciones son las más eficientes, todavía están lejos de ser perfectas con una eficiencia que se sitúa por debajo del 50%.

Recomendaciones en YouTube.Recomendaciones en YouTube.

Es probable que las recomendaciones de un usuario contengan contenido que no le interese. Fotografía: Temas de NordWood / Unsplash

El algoritmo de YouTube sigue siendo muy opaco

» YouTube debe respetar los comentarios que los usuarios comparten sobre su experiencia, tratándolos como señales significativas sobre cómo las personas quieren pasar su tiempo en la plataforma. dicen los investigadores. Obviamente, este no es el caso: durante los siete meses de estudio, establecieron que un video rechazado resultó, en promedio, en aproximadamente 115 malas recomendaciones, es decir, videos que se parecían mucho a los participantes que ya habían dicho a YouTube que no querían ver. .

Peor aún, el estudio determinó que el contenido que parecía violar las políticas de YouTube aún se recomendaba activamente a los usuarios, incluso después de que enviaran comentarios negativos. Por ejemplo, algunos de ellos notaron que los videos de un canal que solicitaron silenciar aún pueden aparecer en sus sugerencias.

La portavoz de YouTube, Elena Hernández, dice que parte de este comportamiento es intencional por parte de YouTube porque la plataforma no busca bloquear todo el contenido relacionado con un solo tema, sino que procede caso por caso según los videos. Ella, sin embargo, criticó el informe publicado por Mozilla, diciendo que no tiene en cuenta cómo están diseñados los algoritmos de control de YouTube:

“Es importante tener en cuenta que nuestros controles no filtran temas o puntos de vista completos, ya que esto podría tener efectos negativos para los espectadores, como la creación de cámaras de eco. Damos la bienvenida a la investigación académica a nuestra plataforma, por lo que recientemente ampliamos el acceso a la API de datos a través de nuestro programa de investigación de YouTube. El informe de Mozilla no tiene en cuenta cómo funcionan realmente nuestros sistemas, por lo que es difícil para nosotros obtener mucha información».

Como lo señaló Revisión de tecnología del MIT, el funcionamiento del algoritmo de YouTube es muy desconocido para las personas que no evolucionan dentro del gigante estadounidense, por lo que es lógico que Mozilla no tenga todo el conocimiento sobre este tema, pero la fundación está tratando de entender por qué las acciones de la los usuarios de la plataforma no tienen el resultado esperado. Además, redes sociales como Twitter, TikTok e Instagram también han introducido herramientas similares para ayudar a los usuarios a entrenar el algoritmo para que les muestre contenido relevante.

Sin embargo, los usuarios a menudo se quejan de que incluso cuando indican que no quieren ver algo en particular, persisten las recomendaciones de contenido similar. Según Becca Ricks, investigadora de Mozilla, el problema es que la mayoría de las plataformas no son del todo transparentes sobre cómo hacen esto, lo que deja a los usuarios en la oscuridad.

Un impacto real en los usuarios

Los resultados del estudio son aún más preocupantes ya que varios informes anteriores han demostrado que la práctica de YouTube de recomendar videos con los que el usuario probablemente esté de acuerdo y de recompensar el contenido controvertido podría endurecer las opiniones de las personas y llevarlas a la radicalización política. Recientemente, 80 organizaciones de verificación de hechos denunciaron la información falsa que abunda en YouTube y dijeron que la plataforma se había convertido en uno de los principales motores de desinformación en el mundo.

El estudio sugiere que YouTube prioriza el tiempo de visualización sobre la satisfacción del usuario. Sin embargo, si la plataforma quiere que los usuarios tengan más control, debería permitirles entrenar de manera proactiva el algoritmo al excluir palabras clave y tipos de contenido de los videos recomendados, en lugar de videos específicos. Por supuesto, es un trabajo duro para YouTube, que tiene que admitir miles de millones de videos de diferentes países e idiomas.

En términos generales, la opacidad de los gigantes tecnológicos en sus algoritmos, aunque han desplegado más herramientas para moderar contenidos, afecta a los usuarios. De hecho, no pueden controlar el contenido al que están expuestos y, por lo tanto, se enfrentan a videos a veces violentos o traumáticos en contra de su voluntad.

» Nuestra principal recomendación es que YouTube debería permitir que las personas den forma a lo que ven. Los controles de usuario de YouTube deben ser fáciles de entender y usar. Los usuarios deben recibir información clara sobre las acciones que pueden realizar para influir en sus recomendaciones y deben poder utilizar estas herramientas. Mozilla concluye.



ttn-es-4