Manténgase informado con actualizaciones gratuitas
Simplemente regístrate en Inteligencia artificial myFT Digest: entregado directamente a su bandeja de entrada.
En su última llamada sobre resultados como director ejecutivo de la empresa de secuenciación genética Illumina, Francis deSouza hizo todo lo posible por mantener una actitud positiva.
Una polémica adquisición por valor de 8.000 millones de dólares del negocio de detección de cáncer Grail había provocado una campaña del inversionista activista Carl Icahn, peleas con las autoridades de competencia en ambos lados del Atlántico y críticas de los directores fundadores de Grail.
DeSouza dijo a los analistas que el drama sólo afectaba a “una parte muy pequeña de la empresa”.
Pero cada vez que le preguntaron sobre Grial, hubo cambios en la velocidad, el tono y el volumen de su discurso, según Speech Craft Analytics, que utiliza inteligencia artificial para analizar grabaciones de audio. También hubo un aumento en las palabras de relleno como “um” y “ah” e incluso un trago audible.
La combinación “demuestra signos de ansiedad y tensión específicamente al abordar este tema delicado”, según David Pope, científico jefe de datos de Speech Craft Analytics.
DeSouza dimitió menos de dos meses después.
La idea de que las grabaciones de audio puedan proporcionar pistas sobre las verdaderas emociones de los ejecutivos ha llamado la atención de algunos de los mayores inversores del mundo.
Muchos fondos ya utilizan algoritmos para rastrear transcripciones de llamadas sobre resultados y presentaciones de empresas para obtener señales de la elección de palabras de los ejecutivos, un campo conocido como “Procesamiento del lenguaje natural” o PNL. Ahora están tratando de encontrar más mensajes en la forma en que se pronuncian esas palabras.
“La idea es que el audio capture algo más que lo que está en el texto”, dijo Mike Chen, jefe de investigación alfa alternativa en Robeco, el gestor de activos. “Incluso si tienes una máquina semántica sofisticada, sólo captura la semántica”.
Las vacilaciones y las palabras de relleno tienden a quedar fuera de las transcripciones, y la IA también puede detectar algunos “microtemblores” que son imperceptibles para el oído humano.
Robeco, que gestiona más de 80 mil millones de dólares en fondos impulsados algorítmicamente, lo que lo convierte en uno de los mayores quants, comenzó a agregar señales de audio captadas a través de IA a sus estrategias a principios de este año. Chen dijo que había aumentado la rentabilidad y que esperaba que más inversores hicieran lo mismo.
El uso del audio representa un nuevo nivel en el juego del gato y el ratón entre gestores de fondos y ejecutivos.
“Encontramos un valor tremendo en las transcripciones”, dijo Yin Luo, jefe de investigación cuantitativa de Wolfe Research. “El problema que nos ha creado a nosotros y a muchos otros es que el sentimiento general es cada vez más positivo. . .[because]La dirección de la empresa sabe que sus mensajes están siendo analizados”.
Múltiples artículos de investigación han descubierto que las presentaciones se han vuelto cada vez más positivas desde la aparición de la PNL, a medida que las empresas ajustan su lenguaje para jugar con los algoritmos.
Un artículo coescrito por Luo a principios de este año encontró que combinar la PNL tradicional con el análisis de audio era una forma eficaz de diferenciar entre empresas a medida que sus presentaciones se vuelven cada vez más “estandarizadas”.
Aunque los costos han bajado, el enfoque todavía puede resultar relativamente costoso. Robeco pasó tres años invirtiendo en una nueva infraestructura tecnológica antes incluso de comenzar a trabajar en la incorporación del análisis de audio.
Chen pasó años intentando utilizar audio antes de unirse a Robeco, pero descubrió que la tecnología no estaba lo suficientemente avanzada. Y si bien los conocimientos disponibles han mejorado, todavía existen limitaciones.
Para evitar sacar conclusiones precipitadas basadas en diferentes personalidades (algunos ejecutivos pueden ser más efusivos por naturaleza que otros), el análisis más confiable proviene de comparar diferentes discursos del mismo individuo a lo largo del tiempo. Pero eso puede hacer que sea más difícil juzgar el desempeño de un nuevo líder, posiblemente en un momento en el que el conocimiento sería particularmente útil.
“Una limitación incluso en la PNL es que un cambio de director ejecutivo arruina el sentimiento general [analysis]”, dijo un ejecutivo de una empresa que ofrece análisis de PNL. “Este efecto de disrupción tiene que ser más fuerte con la voz”.
Los desarrolladores también deben evitar agregar sus propios prejuicios a los algoritmos basados en audio, donde diferencias como género, clase o raza pueden ser más obvias que en el texto.
“Somos muy cuidadosos a la hora de asegurarnos de que los prejuicios conscientes de los que somos conscientes no aparezcan, pero aún podría haber prejuicios subconscientes”, dijo Chen. “Contar con un equipo de investigación amplio y diverso en Robeco ayuda”.
Los algoritmos pueden dar resultados engañosos si intentan analizar a alguien que habla en un idioma no nativo, y una interpretación que funciona en un idioma puede no funcionar en otro.
Así como las empresas han tratado de adaptarse al análisis de texto, Pope predijo que los equipos de relaciones con inversionistas comenzarían a entrenar a los ejecutivos para monitorear el tono de voz y otros comportamientos que las transcripciones pasan por alto. El análisis de voz tiene dificultades con actores capacitados que puedan mantenerse convincentemente en el personaje, pero replicar eso puede ser más fácil para los ejecutivos decirlo que hacerlo.
“Muy pocos de nosotros somos buenos modulando nuestra voz”, dijo. “Es mucho más fácil para nosotros elegir nuestras palabras con cuidado. Hemos aprendido a hacer esto desde que éramos muy pequeños para evitar meternos en problemas”.