La herramienta es utilizada por más de 30.000 trabajadores hospitalarios en Estados Unidos.
Caja de colores
La herramienta de transcripción Whisper utilizada en hospitales ha demostrado ser problemática. La herramienta debería facilitar la vida cotidiana de los empleados del hospital, pero sus alucinaciones y errores pueden causar problemas importantes en la atención sanitaria.
informó al respecto Prensa asociada (AP).
La herramienta desarrollada por OpenAI sirve de base para varias aplicaciones de inteligencia artificial. Por ejemplo, la aplicación de inteligencia artificial de Nabla para transcribir es utilizada por más de 30 mil trabajadores hospitalarios en Estados Unidos. Nabla estima que la aplicación se ha utilizado en aproximadamente 7 millones de visitas al médico.
Aunque Whisper se utiliza en varios hospitales de EE. UU., la propia OpenAI no recomienda su uso en situaciones hospitalarias. La compañía ha dicho que no recomienda el uso de la herramienta “en entornos de toma de decisiones donde los errores de transcripción pueden dar lugar a errores evidentes en los resultados”.
La recomendación de OpenAI se debe a las tendencias alucinatorias de la herramienta. AP informa que las alucinaciones de Whisper han aparecido en varios estudios. Los estudios han encontrado cientos de errores en las transcripciones realizadas por la herramienta.
Las alucinaciones pueden deberse a pausas en la conversación. La música y los sonidos de fondo pueden confundir completamente la transcripción de la herramienta, pero aún no se conoce la causa exacta de los errores de transcripción.
Alondra Nelson, quien dirigió la Oficina de Política Científica y Tecnológica de la Casa Blanca, considera preocupante el fenómeno. Le dijo a Associated Press que los errores de transcripción pueden dar lugar a “sanciones realmente graves”.
– Nadie quiere un diagnóstico equivocado. El listón debería ser más alto, dijo Nelson a la agencia de noticias.