À partir de 2024, YouTube offrira aux maisons de disques davantage d’outils pour supprimer les vidéos contenant des clones vocaux d’artistes. Mais tout n’est pas simplement supprimé.
Les maisons de disques pourront bientôt contacter YouTube si elles estiment que leurs artistes et groupes ont été clonés sans autorisation grâce à l’intelligence artificielle. Le service vidéo enquête sur les plaintes et prend ensuite une décision. « Tous les contenus ne seront pas supprimés de YouTube », prévient le service dans un communiqué annonce.
Selon YouTube, il s’agit spécifiquement de « musique générée par l’IA dans laquelle la voix chantée ou rappante d’un artiste est imitée ». La société examine si la vidéo fait partie d’un reportage d’actualité, d’une analyse ou d’une critique des faux votes, avant de la supprimer potentiellement. Si les chansons IA n’en font pas partie, alors dans la pratique, une maison de disques sera probablement en mesure de supprimer assez rapidement les voix clonées.
On peut déjà trouver beaucoup de fausses musiques sur YouTube
Il existe de nombreuses vidéos sur YouTube qui imitent le style d’artistes célèbres. Il y a beaucoup de discussions à ce sujet. La conversation à ce sujet a commencé lorsqu’un compte anonyme TikTok appelé Ghostwriter a publié en ligne une chanson qui aurait été composée par Drake et The Weeknd.
Dans cette édition, Avoir le coeur sur la main, les voix des artistes sont utilisées. Cela donne l’impression qu’ils rappent et chantent de nouvelles paroles, alors qu’en réalité ils ne l’ont jamais fait.
Tout cela est réalisé grâce à l’intelligence artificielle. Le logiciel analyse les voix et l’intonation des artistes et peut les utiliser pour créer de nouvelles chansons dans le même style.
La loi ne contient pas encore de règles claires sur le clonage de l’IA
Avec les nouvelles mesures, YouTube est en avance sur la réglementation et répond aux souhaits des maisons de disques. Parce qu’il n’a pas encore été fixé dans la loi où se situent exactement les limites de ce qui est autorisé ou non avec les clones vocaux d’artistes.
D’ailleurs, YouTube souhaite plus de transparence sur l’IA dans les vidéos à partir de l’année prochaine. L’entreprise écrit qu’à partir de maintenant, les créateurs doivent utiliser des étiquettes s’ils ont utilisé des images réalistes de l’IA.
On ne sait pas encore exactement ce qui relève exactement de la définition d’une image réaliste d’IA. Le service indique que les fausses images peuvent induire les téléspectateurs en erreur, surtout s’il n’est pas précisé que les vidéos ne contiennent pas d’images réelles.