Entrevista: ¿cuál es el balance de Arcom de su primer año?


Miembro del colegio Arcom, Benoît Loutrel preside el grupo de trabajo “Supervisión de plataformas en línea” del nuevo regulador audiovisual y digital francés nacido de la fusión de CSA y Hadopi en enero de 2022. Siècle Digital l’ se reunió con motivo de la publicación del informe anual sobre la lucha contra la manipulación de la información en línea.

En esta primera parte de la entrevista, vuelve a contarnos sus principales conclusiones y hace un balance del primer año de trabajo de Arcom, marcado en particular por las elecciones presidenciales y legislativas. Una segunda parte que se publicará más adelante estará dedicada a la implementación de la regulación europea sobre servicios digitales por parte de Arcom.

En la misma categoría

Irlanda multa a Meta con 390 millones de euros

Publicado a finales de noviembre, este tercer informe de Arcom sobre los medios implementados por las plataformas contra la manipulación de la información elabora una observación cuanto menos preocupante. Con base en las declaraciones de las 12 plataformas sujetas a este ejercicio por su tamaño crítico, entre ellas Meta, Twitter y Snapchat, denuncia “repetidos vacíos” en la comunicación de información y cifras. En particular, la “ausencia de información tangible” transmitida por TikTok, Yahoo y, en menor medida, Google impide evaluar la pertinencia y eficacia de las medidas tomadas por estas plataformas.

Siècle Digital: Las conclusiones del informe Arcom sobre la lucha contra la manipulación de la información son bastante edificantes. ¿Cómo ve las respuestas de los operadores de la plataforma a su cuestionario sobre los medios implementados contra la manipulación de la información?

benoit loutrel : Las respuestas de algunos operadores siguen siendo insuficientes desde nuestro punto de vista. Es cierto que hay progreso en comparación con el año pasado, pero esperamos aún más transparencia de ellos. Hay mucho en juego, los ciudadanos deben tener confianza en su ecosistema de información. Es un elemento importante de la cohesión de la sociedad.

Nos gustaría que las plataformas se comuniquen sobre las políticas que implementan en términos de moderación, desmonetización o desaceleración de la difusión de contenido problemático. Las plataformas también deben esta transparencia al mundo de la investigación, que debería poder hacer su propia valoración de la moderación: ¿han tenido estas medidas el efecto deseado? ¿Hubo efectos secundarios no deseados?

La manipulación de la información es un tema complejo que requiere el uso de muchas fuentes. Como tal, seguimos de cerca el trabajo de la comunidad académica o de la sociedad civil, que alimenta nuestras propias reflexiones.

SD: En su informe, lamenta que las plataformas no sean lo suficientemente transparentes. ¿Cree que la legislación vigente contra la manipulación de la información en la que confía le proporciona medios suficientes para actuar?

licenciado en Derecho : La ley de 2018 establece que los servicios de plataformas en línea tienen el deber de cooperar con el regulador. Deben poner en marcha herramientas para luchar contra la manipulación de la información. La ley les obliga a responder preguntas de Arcom, que hace públicas estas declaraciones en un informe anual.

Fue una muy buena ley entrar en la regulación de estos jugadores. Nos permitió mejorar nuestras habilidades. Ahora es necesario poder exigir una mayor transparencia a todas las plataformas. Esta es una de las contribuciones de la DSA. Nos permitirá, colectivamente, ser más ambiciosos y exigentes.

SD: El DSA será el tema de la segunda parte de nuestra entrevista. Antes de eso, me gustaría saber más sobre su colaboración con las plataformas en el día a día. ¿Qué relación laboral tienes con ellos?

licenciado en Derecho : Tenemos un marco formal de discusión con las plataformas, como fue el caso para establecer este informe anual sobre la lucha contra las fake news. Les enviamos un cuestionario específico e imponemos un plazo para su respuesta. Si no hay respuesta, lo decimos y no dudamos en nombrar y avergonzar. En este informe, designamos a los actores cuando consideramos que sus respuestas no son satisfactorias. [ndlr : TikTok, Yahoo et Google en particulier] o, por el contrario, cuando nuestro diálogo con ellos ha avanzado, como es el caso, por ejemplo, de Snapchat.

Y luego, más allá de este diálogo formal, tenemos muchos intercambios informales. Este fue en gran medida el caso durante el período electoral, durante el cual las plataformas digitales desempeñaron un papel importante en la prevención de la interferencia extranjera y ayudaron en el trabajo de los verificadores de datos que verifican la información en línea relacionada con la campaña.

En particular, nos dijeron durante una de nuestras reuniones que un algoritmo de moderación había funcionado mal y había bloqueado por error las cuentas de los miembros de un equipo de campaña. Les recordamos que tenían la obligación de corregir el problema, pero también de ser transparentes y explicarse. Por lo tanto, se comunicaron públicamente sobre este episodio.

SD: Arcom publicó recientemente un relación sobre las elecciones de 2022 en las que haces recomendaciones con respecto a las redes sociales. En su opinión, ¿las plataformas deberían tener obligaciones de equidad o igualdad durante las elecciones como los medios audiovisuales?

licenciado en Derecho : No, ese no es el deseo de Arcom. Las estaciones de radio y televisión controlan sus ofertas editoriales, que de alguna manera se imponen a su audiencia. Por lo tanto, deben esforzarse por representar toda la gama de corrientes de pensamiento. Por eso se les exige, por ejemplo, que respeten criterios de equidad y luego de igualdad de tiempo de palabra entre los candidatos en las últimas semanas de la elección presidencial.

En las redes sociales, los internautas son más activos. Si está suscrito a la cuenta del Sr. Mélenchon y el Sr. Zemmour, consultará el contenido del Sr. Mélenchon y el Sr. Zemmour. Usted tomó la decisión de suscribirse a estas cuentas. Realmente estamos en diferentes tipos de medios. Por otro lado, las plataformas deben ser transparentes con sus usuarios sobre las razones por las que se les “empuja” tal o cual contenido.

SD: ¿Qué pasa con los usuarios? En su informe, por ejemplo, recomienda aclarar las obligaciones de los usuarios, como los equipos de campaña y los influencers.

licenciado en Derecho : Hay dos temas diferentes. La primera es permitir que los candidatos y sus seguidores hagan campaña libremente en las redes sociales. Es parte de la democracia. Pero, por supuesto, deben hacerlo de conformidad con las normas legales, en particular las que protegen la propiedad intelectual. No tienes derecho a publicar una obra o música sin haber obtenido el acuerdo de los titulares de los derechos. En YouTube, cuando has incumplido esta regla tres veces, tu canal se cierra. Los clips de la campaña deben seguir estas reglas. [ndlr : le clip de d’Eric Zemmour annonçant sa candidature a fait l’objet d’une exception sur YouTube malgré de nombreux signalements pour violation de la propriété intellectuelle. Sa vidéo a finalement été retirée quelques mois plus tard suite à sa condamnation par le tribunal judiciaire de Paris.]

La segunda es que en Francia, el Código Electoral también se aplica a los influencers. Prevé un período de silencio desde el viernes por la noche hasta el cierre de la última mesa electoral el domingo. Los medios de comunicación dejan de informar sobre política y los candidatos ya no hacen campaña. Este año, la Comisión encargada del seguimiento de la campaña presidencial está intervenido para pedir a las plataformas que eliminen contenido de personas influyentes que hablaron sobre política durante este período.

Esta es la primera vez que esto sucede, porque las redes sociales y los influencers han tomado una nueva importancia, que no tenían hace cinco años.



ttn-es-4