L’IA vient pour notre colère


Restez informé avec des mises à jour gratuites

Je suis un être humain, bon sang ! Ma vie a de la valeur ! . . . Je suis complètement en colère et je ne vais plus supporter ça !

Howard Beale, le prophétiquement anti-héros furieux du film de 1976 Réseau, était certainement très en colère. De plus en plus, selon enquêtes Gallup successives de l’état émotionnel du monde, nous le sommes tous.

Mais peut-être pas pour très longtemps si l’intelligence artificielle a son mot à dire. L’IA arrivait déjà pour nos emplois ; maintenant, il vient pour notre fureur. La question est de savoir si quelque chose a le droit d’éprouver cette fureur sans autorisation, et si quelqu’un est prêt à se battre pour notre droit à la rage.

Ce mois-ci, la branche mobile de l’empire technologique SoftBank de Masayoshi Son, cotée séparément, a révélé qu’elle développait un système basé sur l’IA pour protéger les travailleurs intimidés dans les centres d’appels contre les diatribes en aval et la large palette de violences verbales qui relèvent de la définition. de harcèlement des clients.

On ne sait pas si SoftBank cherchait délibérément à évoquer la dystopie lorsqu’il a nommé ce projet, mais « EmotionCancelling Voice Conversion Engine » a une tristesse qui ferait tourner George Orwell au vert.

La technologie, développée dans un institut de recherche en IA créé par SoftBank et l’Université de Tokyo, est encore en phase de R&D, et la première version de démonstration suggère qu’il y a encore beaucoup de travail à faire. Mais le principe fonctionne déjà en quelque sorte, et c’est aussi étrange qu’on pourrait s’y attendre.

En théorie, l’IA qui modifie la voix modifie en temps réel le discours d’un appelant humain en colère afin que la personne à l’autre bout du fil n’entende qu’une version adoucie et anodine. Le vocabulaire original de l’appelant reste intact (pour l’instant ; donnez à la dystopie le temps de résoudre celui-là). Mais, sur le plan tonal, la rage est effacée. La commercialisation et l’installation dans les centres d’appels, estime SoftBank, peuvent être attendues avant mars 2026.

L’IA de modification de la voix de SoftBank

Comme pour beaucoup de ces projets, les humains ont collaboré contre de l’argent avec leurs futurs seigneurs de l’IA. Le moteur EmotionCancelling a été formé à l’aide d’acteurs qui ont interprété un large éventail de phrases de colère et toute une gamme de façons de donner libre cours à la colère, comme des cris et des hurlements. Ceux-ci fournissent à l’IA les hauteurs et les inflexions à détecter et à remplacer.

Mettez de côté les différents paysages infernaux évoqués par cette technologie. Les moins imaginatifs d’entre nous peuvent voir comment l’altération de la voix en temps réel pourrait ouvrir de nombreuses voies périlleuses. Le problème, pour l’instant, est celui de la propriété : l’évolution fulgurante de l’IA met déjà sérieusement à l’épreuve les questions de propriété de la voix par les célébrités et autres ; L’expérience de SoftBank teste l’appropriation de l’émotion.

Le projet de SoftBank était clairement bien intentionné. L’idée est apparemment venue à l’un des ingénieurs en IA de l’entreprise qui regardait un film sur les abus croissants des clients japonais à l’égard des travailleurs du secteur des services – un phénomène que certains attribuent à l’irrégularité d’une population vieillissante et à l’érosion des normes de service en raison d’une grave pénurie de main-d’œuvre.

Le moteur EmotionCancelling est présenté comme une solution au fardeau psychologique intolérable imposé aux opérateurs des centres d’appels et au stress des cris. En plus de retirer aux discours leur ton effrayant, l’IA interviendra pour mettre fin aux conversations qu’elle juge trop longues ou viles.

Mais la protection des travailleurs ne devrait pas être la seule considération ici. La colère peut être une chose très désagréable et effrayante à recevoir, mais elle peut être légitime et il faut faire preuve de prudence avant de l’écrire artificiellement hors du script de la relation client – en particulier si elle ne fait qu’augmenter lorsque le client se rend compte que sa colère exprimée est réprimée par un machine.

Partout dans le monde, les entreprises peuvent mettre en garde leurs clients contre les abus envers leur personnel, et le font effectivement. Mais supprimer la colère de la voix de quelqu’un sans sa permission (ou en enterrant cette permission en petits caractères) dépasse une ligne importante, surtout lorsque l’IA est chargée de la suppression.

La ligne franchie est celle où l’émotion d’une personne, ou un certain ton de voix, est marchandisée pour être traitée et neutralisée. La colère est une cible facile à éliminer, mais pourquoi ne pas faire appel à l’IA pour protéger les opérateurs des centres d’appels de la déception, de la tristesse, de l’urgence, du désespoir ou même de la gratitude ? Et s’il était décidé que certains accents régionaux étaient plus menaçants que d’autres et poncés par des algorithmes à l’insu de leurs propriétaires ?

Dans une vaste série d’essais publié la semaine dernièreLeopold Aschenbrenner, un ancien chercheur d’OpenAI qui a travaillé sur la protection de la société contre la technologie, a averti que même si tout le monde parlait de l’IA, « peu d’entre eux ont la moindre lueur de ce qui est sur le point de les frapper ».

Notre meilleure stratégie, face à tout cela, est peut-être de rester aussi fou que l’enfer.

[email protected]



ttn-fr-56