Des outils de productivité basés sur l’IA qui peuvent rendre la vie plus difficile


Sourd depuis sa naissance, Paul Meyer a eu recours à des interprètes et à des sous-titreurs humains pour communiquer avec ses collègues au cours de ses près de trois décennies de carrière dans le recrutement RH et technique.

Mais lorsque les entreprises ont commencé à recourir davantage à la vidéoconférence pendant la pandémie, il a remarqué une tendance inquiétante. À mesure que les réunions se déroulaient en ligne, les entreprises ont commencé à utiliser régulièrement des logiciels de transcription basés sur l’IA. Et comme cette technologie est devenue partie intégrante du quotidien, certains employeurs ont pensé qu’elle pourrait être déployée dans d’autres cas, par exemple pour remplacer les interprètes humains.

Le problème, selon Meyer, est qu’il existe des défauts dans la technologie dont les employeurs ne sont pas conscients et qui rendent la vie plus difficile aux travailleurs sourds.

« L’entreprise pensait que la technologie d’IA pour le sous-titrage était parfaite. Ils ne comprenaient pas pourquoi je manquais beaucoup d’informations.

Certains contenus n’ont pas pu être chargés. Vérifiez votre connexion Internet ou les paramètres de votre navigateur.

La technologie de reconnaissance vocale, devenue disponible sur les lieux de travail dans les années 1990, s’est considérablement améliorée et a créé de nouvelles opportunités pour les personnes handicapées d’avoir des conversations lorsqu’un interprète n’est pas disponible.

Il est désormais de plus en plus utilisé par les personnes entendantes comme outil de productivité pouvant aider les équipes à résumer des notes ou à générer des transcriptions pour des réunions, par exemple. Selon Forrester Research, 39 % des travailleurs interrogés dans le monde ont déclaré que leurs employeurs avaient commencé à utiliser ou prévoyaient d’intégrer l’IA générative dans la vidéoconférence. Six personnes sur dix utilisent désormais la conférence en ligne ou la vidéoconférence chaque semaine, un chiffre qui a doublé depuis 2020.

Cette histoire a été réalisée en partenariat avec le Centre Pulitzer Réseau de responsabilité IA

Cette prévalence accrue présente de nombreux avantages pour les travailleurs sourds, mais certains préviennent que ces outils pourraient être préjudiciables aux personnes handicapées si les employeurs ne comprennent pas leurs limites. L’une des préoccupations concerne l’hypothèse selon laquelle l’IA pourrait remplacer les interprètes et les sous-titreurs humains qualifiés. L’inquiétude est aggravée par le manque historique de participation des personnes handicapées aux produits d’IA, même ceux commercialisés comme technologies d’assistance.

Les modèles de reconnaissance vocale ne parviennent souvent pas à comprendre les personnes dont la parole est irrégulière ou accentuée et peuvent avoir de mauvais résultats dans des environnements bruyants.

« Les gens pensent à tort que l’IA est parfaite pour nous. Ce n’est pas parfait pour nous », dit Meyer. Il a été licencié et estime que le manque de logements adéquats a fait de lui une cible facile lorsque l’entreprise a réduit ses effectifs.

Certains contenus n’ont pas pu être chargés. Vérifiez votre connexion Internet ou les paramètres de votre navigateur.

Citation de Paul Meyer disant : « Les gens ont de fausses idées selon lesquelles l'IA est parfaite pour nous. Ce n’est pas parfait pour nous. Sa voix retranscrite par Google Speech to Text dit

Certaines entreprises cherchent désormais à améliorer la technologie de reconnaissance vocale, notamment en formant leurs modèles sur un spectre vocal plus large.

Google, par exemple, a commencé à collecter des échantillons vocaux plus diversifiés en 2019 après avoir reconnu que ses propres modèles ne fonctionnaient pas pour tous ses utilisateurs. Il a publié l’application Project Relate sur Android en 2021, qui collecte des échantillons de voix individuels pour créer une transcription en temps réel du discours d’un utilisateur. L’application est destinée aux personnes ayant une parole non standard, notamment celles ayant un accent sourd, la SLA, la maladie de Parkinson, une fente palatine et le bégaiement.

En 2022, quatre autres entreprises technologiques – Amazon, Apple, Meta et Microsoft – ont rejoint Google dans une recherche menée par l’Institut Beckman de l’Université de l’Illinois à Urbana-Champaign pour collecter davantage d’échantillons vocaux qui seront partagés entre elles et d’autres chercheurs.

Le chercheur de Google, Dimitri Kanevsky, qui a un accent russe et un discours non standard, affirme que l’application Relate lui a permis d’avoir des conversations impromptues avec des contacts, comme d’autres participants à une conférence de mathématiques.

«Je suis devenu beaucoup plus social. Je pouvais communiquer avec n’importe qui à tout moment et n’importe où et ils pouvaient me comprendre », explique Kanevsky, qui a perdu l’audition à l’âge de trois ans. « Cela m’a donné un incroyable sentiment de liberté. »

Certains contenus n’ont pas pu être chargés. Vérifiez votre connexion Internet ou les paramètres de votre navigateur.

Citation de Dimitri Kanevsky disant : « Je suis devenu beaucoup plus social. Je pouvais communiquer avec n'importe qui à tout moment et en tout lieu et ils pouvaient me comprendre. Cela m’a donné un incroyable sentiment de liberté. Sa voix transcrite par Google Speech to Text dit : « Devenu beaucoup plus social. Je pouvais communiquer avec n’importe quel budget, à tout moment et n’importe où, et ils pouvaient me comprendre et me donnaient un incroyable sentiment de liberté. Sa voix transcrite à l'aide de Project Relate correspond à sa citation.

Une poignée de start-ups dirigées par des sourds – comme OmniBridge, soutenue par Intel, et Sign-Speak, financé par Techstars – travaillent sur des produits axés sur la traduction entre l’American Sign Language (ASL) et l’anglais. Adam Munder, le fondateur d’OmniBridge, déclare que même s’il a eu la chance chez Intel d’avoir accès à des traducteurs tout au long de la journée, y compris lors de ses déplacements au bureau et à la cantine, il sait que de nombreuses entreprises n’offrent pas un tel accès.

« Avec OmniBridge, il pourrait remplir les conversations dans les couloirs et à la cafétéria », explique Munder.

Mais malgré les progrès réalisés dans ce domaine, le manque de représentation des personnes handicapées dans le développement de certains outils de traduction plus courants suscite des inquiétudes. « Beaucoup de personnes entendantes ont trouvé des solutions ou ont essayé de faire des choses en supposant qu’elles savent ce dont les personnes sourdes ont besoin, en supposant qu’elles connaissent la meilleure solution, mais elles ne comprennent peut-être pas vraiment toute l’histoire », explique Munder.

Chez Google, où 6,5 % des employés s’identifient comme ayant un handicap, Jalon Hall, la seule femme noire du groupe d’employés sourds et malentendants de Google, a dirigé un projet lancé en 2021 pour mieux comprendre les besoins des utilisateurs noirs sourds. . Beaucoup de ceux qu’elle parlait utilisaient l’ASL noir, une variante de la langue des signes américaine qui a divergé en grande partie en raison de la ségrégation des écoles américaines aux 19e et 20e siècles. Elle affirme que les personnes à qui elle a parlé n’ont pas trouvé que les produits de Google fonctionnaient aussi bien pour elles.

« Il y a beaucoup d’utilisateurs sourds techniquement compétents, mais ils ont tendance à ne pas être inclus dans les dialogues importants. Ils n’ont pas tendance à être inclus dans les produits importants lors de leur développement », explique Hall. « Cela signifie qu’ils seront encore plus laissés pour compte. »

Dans un article récentune équipe de cinq chercheurs sourds ou malentendants a découvert qu’une majorité des études sur la langue des signes récemment publiées n’incluaient pas les perspectives des sourds. Ils n’ont pas non plus utilisé d’ensembles de données représentant les personnes sourdes et ont inclus des décisions de modélisation qui perpétuent des préjugés incorrects sur la langue des signes et la communauté sourde. Ces préjugés pourraient devenir un problème pour les futurs travailleurs sourds.

« Ce que les entendants, qui ne signent pas, considèrent comme ‘assez bien’, pourrait conduire à ce que le niveau de référence pour la mise sur le marché des produits devienne assez bas », explique Maartje De Meulder, chercheur principal à l’Université des Sciences Appliquées d’Utrecht aux Pays-Bas. qui a co-écrit l’article. « Il est préoccupant que la technologie ne soit tout simplement pas assez performante ou qu’elle ne soit pas adoptée volontairement par les travailleurs sourds, alors qu’ils sont obligés, voire forcés, de l’utiliser. »

A terme, les entreprises devront donner la priorité à l’amélioration de ces outils destinés aux personnes handicapées. Google n’a pas encore intégré les avancées de ses modèles de synthèse vocale dans ses produits commerciaux, malgré les rapports des chercheurs. réduire son taux d’erreur d’un tiers.

Hall dit qu’elle a reçu des commentaires positifs de la part des hauts dirigeants sur son travail, mais aucune certitude quant à savoir si cela affectera les décisions de Google en matière de produits.

Quant à Meyer, il espère voir davantage de représentations des sourds et des outils conçus pour les personnes handicapées. « Je pense que le problème de l’IA est que les gens pensent qu’elle leur permettra de nous parler plus facilement, mais il ne sera peut-être pas facile pour nous de leur parler », explique Meyer.

Certains contenus n’ont pas pu être chargés. Vérifiez votre connexion Internet ou les paramètres de votre navigateur.

Citation de Paul Meyer disant : « Je pense que le problème de l'IA est que les gens pensent qu'elle leur permettra de nous parler plus facilement. Mais ce n’est peut-être pas facile pour nous de leur parler. Sa voix transcrite par Google Speech to Text dit : « Lève-toi et vois ce que nos gens pourraient aider à leur permettre de nous parler plus facilement, mais aussi de les détecter. »

Travail de conception par Caroline Nevitt



ttn-fr-56