EY afirma tener éxito en el uso de la IA para encontrar fraudes de auditoría


Cuando la firma contable de las Cuatro Grandes, EY, probó un sistema de inteligencia artificial entrenado para reconocer el fraude en las cuentas de algunos de sus clientes de auditoría del Reino Unido a principios de este año, los resultados fueron sorprendentes.

Según Kath Barrow, socia gerente de aseguramiento de EY en el Reino Unido e Irlanda, el nuevo sistema detectó actividad sospechosa en dos de las primeras 10 empresas revisadas. Posteriormente, los clientes confirmaron que ambos casos habían sido fraudes.

Este éxito inicial ilustra por qué algunos en la industria creen que la IA tiene un gran potencial para mejorar la calidad de las auditorías y reducir las cargas de trabajo. Esperan que la capacidad de los sistemas impulsados ​​por IA para ingerir y analizar grandes cantidades de datos podría proporcionar una nueva y poderosa herramienta para alertar a los auditores sobre signos de irregularidades y otros problemas.

Sin embargo, los auditores discrepan marcadamente sobre hasta qué punto pueden confiar en una tecnología que aún no ha sido ampliamente probada y que a menudo no se comprende bien.

Algunas empresas de auditoría se muestran escépticas en cuanto a que los sistemas de inteligencia artificial puedan recibir suficiente información de alta calidad para detectar de manera confiable las múltiples formas potenciales de fraude. También existen algunas preocupaciones sobre la privacidad de los datos, si los auditores utilizan información confidencial de los clientes para desarrollar la IA.

Las preguntas significan que existen claras diferencias de enfoque entre las grandes firmas de auditoría del Reino Unido. Si bien EY se negó a revelar los detalles de su software o la naturaleza de los fraudes que había descubierto, Barrow dijo que los resultados sugerían que la tecnología tenía “patas” para realizar auditorías.

“Eso parece algo que deberíamos desarrollar o explorar”, dijo.

Sin embargo, Simon Stephens, director de IA para auditoría y aseguramiento en la empresa británica Deloitte, otra de las cuatro grandes firmas de auditoría, señaló que los fraudes eran relativamente raros y tendían a diferir entre sí. Eso significaría que no necesariamente había patrones reveladores que los sistemas de IA pudieran detectar.

“Los fraudes son. . . Son únicos y cada uno se perpetra de una manera ligeramente diferente”, dijo Stephens. “Por naturaleza, están diseñados para eludir las salvaguardias mediante usos novedosos de la tecnología o la explotación de nuevas debilidades, y la IA no funciona bien en este sentido en este momento”.

Es probable que los reguladores tengan la última palabra sobre cómo implementar la tecnología. Jason Bradley, jefe de tecnología de aseguramiento del Consejo de Información Financiera del Reino Unido, el organismo de control de auditorías, dijo que la IA presentaba oportunidades para “apoyar una mejor calidad y eficiencia de las auditorías” si se usaba apropiadamente.

Pero advirtió que las empresas necesitarían la experiencia para garantizar que los sistemas funcionaran según los estándares correctos. “A medida que crece el uso de la IA, los auditores deben tener las habilidades para criticar los sistemas de IA, garantizando que el uso de los resultados sea preciso y que sean capaces de implementar herramientas que cumplan con los estándares”, dijo.

Si bien se debe indicar al software de auditoría tradicional qué patrones de datos indican fraude u otros problemas, los sistemas de inteligencia artificial están capacitados para detectar problemas utilizando aprendizaje automático y datos de múltiples casos de mala conducta conocidos en el pasado. Con el tiempo, deberían hacerlo mejor a medida que acumulen experiencia.

La tecnología podría resultar especialmente útil si reduce la carga de trabajo de los auditores. Empresas de todo el mundo luchan por formar y contratar personal. También podría ayudar a elevar los estándares: en los últimos años los auditores han pasado por alto graves problemas financieros que han causado el colapso de empresas como la subcontratista Carillion, el minorista BHS y la cadena de cafeterías Patisserie Valerie.

El experimento de EY, según Barrow, utilizó una herramienta de aprendizaje automático que había sido entrenada en “montones, montones de esquemas de fraude”, extraída tanto de información disponible públicamente como de casos anteriores en los que la empresa había estado involucrada. Si bien el software existente y ampliamente utilizado busca transacciones sospechosas, EY dijo que su sistema asistido por IA era más sofisticado. Ha sido capacitado para buscar las transacciones que normalmente se utilizan para encubrir fraudes, así como las transacciones sospechosas en sí. Detectó los dos esquemas de fraude en los 10 clientes de prueba iniciales porque había patrones similares en los datos de capacitación, dijo la firma.

“Lo único que hace es decir: esto es algo que deberían explorar más a fondo”, dijo Barrow sobre el sistema de inteligencia artificial, al que describió como un “copiloto” para los auditores. “Enfoca nuestros esfuerzos en comprender más”.

Sin embargo, otras empresas dudan de que los sistemas de inteligencia artificial sean lo suficientemente inteligentes como para detectar fraudes sofisticados. KPMG UK, otro auditor de las Cuatro Grandes, se hizo eco de las preocupaciones de Stephens en Deloitte.

“El fraude, por su naturaleza, es impredecible y, por lo tanto, utilizar casos de fraude conocidos para entrenar modelos de aprendizaje automático es un desafío”, dijo KPMG.

Stephens reconoció que la tecnología tenía sus usos en la auditoría. Pero vio un papel mucho más limitado para ello. “La IA puede automatizar algunas de las tareas más mundanas y repetibles y permite a nuestros auditores centrarse en las áreas de mayor riesgo”, afirmó.

Actualmente, Deloitte restringe el uso de la IA a tareas menos complejas y proporciona instrucciones claras sobre qué tipos de anomalías buscar en las cuentas de la empresa.

Un problema, dijo Stephens, era que una empresa podría considerar sus datos financieros detallados como información patentada. Eso dificultaría el uso de esa información privada para entrenar un sistema que posteriormente auditaría a otra empresa.

“Cualquiera que desarrolle IA debe ser consciente de ello”, afirmó.

Barrow reconoció que había desafíos. Dijo que era vital que los auditores comprendieran cómo funcionaba la codificación del sistema de IA, el significado real de los resultados que producía y la naturaleza de los datos que se habían utilizado para entrenarlo.

“Necesitamos complementarlo con. . . aplicando esa lente de auditor del escepticismo, para que podamos tener claro que es adecuado para el propósito”, dijo.

También reconoció el problema que plantea el uso de información corporativa patentada para entrenar sistemas de inteligencia artificial. Pero dijo que había suficiente información disponible públicamente para complementar el propio trabajo de casos de EY y proporcionar una capacitación significativa para los propios sistemas de inteligencia artificial de la empresa.

“La tecnología ya se aplica en gran medida para ayudarnos con la evaluación de riesgos, con la identificación de riesgos”, dijo Barrow. “La IA será cada vez más una herramienta más a nuestra disposición para lograrlo”.



ttn-es-56