Los peligros de dejar suelta a la IA en las finanzas


En las últimas décadas, ha surgido un conjunto de rituales distintivos en las finanzas en torno al fenómeno conocido como “Fedspeak”. Cada vez que un banquero central hace un comentario, los economistas (y los periodistas) se apresuran a analizarlo mientras los comerciantes hacen apuestas de inversión.

Pero si los economistas de la Reserva Federal de Richmond tienen razón, este ritual podría cambiar pronto. Recientemente le pidieron a la herramienta de inteligencia artificial generativa ChatGPT que analizara las declaraciones de la Reserva Federal, y concluyó que “demuestra[s] un sólido desempeño en la clasificación de las oraciones de Fedspeak, especialmente cuando se ajustan con precisión”. Además, «el rendimiento de los modelos GPT supera al de otros métodos de clasificación populares», incluidas las llamadas herramientas de «análisis de sentimiento» que ahora utilizan muchos comerciantes (que analizan las reacciones de los medios para predecir los mercados).

Sí, leyó bien: los robots ahora podrían ser mejores para descifrar la mente de Jay Powell, presidente de la Fed, que otros sistemas disponibles, según algunos miembros del personal humano de la Fed.

¿Es esto algo bueno? Si usted es un fondo de cobertura que busca una ventaja competitiva, podría decir «sí». Lo mismo sucede si es un gerente de finanzas que espera optimizar su personal. El documento de Richmond enfatiza que ChatGPT solo debe usarse actualmente con supervisión humana, ya que si bien puede responder correctamente el 87 por ciento de las preguntas en una «prueba estandarizada de conocimiento económico», «no es infalible». [and] aún puede clasificar erróneamente las oraciones o no capturar los matices que un evaluador humano con experiencia en el dominio podría capturar”.

Este mensaje se repite en el torrente de otros documentos financieros de AI ahora cayendo, que analizan tareas que van desde la selección de valores a enseñanza de la economía. Aunque estos señalan que ChatGPT podría tener potencial como «asistente», para citar el documento de Richmond, también enfatizan que confiar en la IA a veces puede fallar, en parte porque su conjunto de datos es limitado y desequilibrado.

Sin embargo, todo esto podría cambiar, ya que ChatGPT mejora. Entonces, como era de esperar, algo de esto nueva investigación también advierte que los trabajos de algunos economistas pronto podrían verse amenazados. Lo cual, por supuesto, hará las delicias de los reductores de costos (aunque no de los economistas humanos reales).

Pero si quiere tener otra perspectiva sobre las implicaciones de esto, vale la pena echarle un vistazo a papel profético on AI coescrito por Lily Bailey y Gary Gensler, presidente de la Comisión de Bolsa y Valores, en 2020, mientras era académico en el MIT.

El documento no causó un gran revuelo en ese momento, pero es sorprendente, ya que argumenta que, si bien la IA generativa podría brindar beneficios increíbles para las finanzas, también crea tres grandes riesgos para la estabilidad (al margen de la preocupación actual de que los robots inteligentes podrían querer matarnos, que no abordan.)

Una es la opacidad: las herramientas de IA son absolutamente misteriosas para todos excepto para sus creadores. Y aunque podría ser posible, en teoría, rectificar esto exigiendo a los creadores y usuarios de IA que publiquen sus pautas internas de manera estandarizada (como la luminaria tecnológica Tim O’Reilly ha propuesto sensatamente), parece poco probable que esto suceda pronto.

Y muchos inversores (y reguladores) tendrían dificultades para comprender dichos datos, incluso si surgiera. Por lo tanto, existe un riesgo creciente de que “los resultados inexplicables puedan conducir a una disminución en la capacidad de los desarrolladores, ejecutivos de la sala de juntas y reguladores para anticipar las vulnerabilidades del modelo. [in finance]”, como escribieron los autores.

El segundo problema es el riesgo de concentración. Quienquiera que gane las batallas actuales entre Microsoft y Google (o Facebook y Amazon) por la participación de mercado en IA generativa, es probable que solo un par de jugadores dominen, junto con un rival (o dos) en China. Luego se construirán numerosos servicios sobre esa base de IA. Pero la similitud de cualquier base podría crear un «aumento de monocultivos en el sistema financiero debido a que los agentes optimizan usando las mismas métricas», como observó el documento.

Eso significa que si surge un error en esa base, podría envenenar todo el sistema. E incluso sin este peligro, los monocultivos tienden a crear rebaños digitales, o computadoras que actúan de la misma manera. Esto, a su vez, aumentará los riesgos de prociclicidad (o cambios de mercado que se refuerzan a sí mismos), como Mark Carney, ex gobernador del Banco de Inglaterra, ha notado.

“¿Qué pasa si un modelo de IA generativa que escucha Fedspeak tiene un contratiempo? [and infected all the market programs]?” Gensler me dice. “¿O si todo el mercado hipotecario depende de la misma capa base y algo salió mal?”

El tercer problema gira en torno a las «brechas regulatorias»: un eufemismo por el hecho de que los reguladores financieros parecen estar mal equipados para entender la IA, o incluso para saber quién debería monitorearla. De hecho, ha habido muy poco debate público sobre los temas desde 2020, aunque Gensler dice que los tres que identificó ahora se están volviendo más, no menos, serios a medida que prolifera la IA generativa, creando «riesgos reales de estabilidad financiera».

Esto no impedirá que los financieros se apresuren a adoptar ChatGPT en su intento de analizar Fedspeak, elegir acciones o cualquier otra cosa. Pero debería dar a los inversores y reguladores una pausa para pensar.

El colapso de Silicon Valley Bank brindó una lección horrible sobre cómo la innovación tecnológica puede cambiar inesperadamente las finanzas (en este caso al intensificar el pastoreo digital). Los recientes colapsos repentinos ofrecen otra. Sin embargo, estos son probablemente un pequeño anticipo del futuro de los bucles de retroalimentación viral. Los reguladores deben despertar. También deben hacerlo los inversores y los adictos a Fedspeak.

[email protected]



ttn-es-56