EY affirme avoir réussi à utiliser l’IA pour détecter les fraudes à l’audit


Lorsque le cabinet comptable Big Four EY a testé plus tôt cette année un système d’intelligence artificielle conçu pour reconnaître la fraude sur les comptes de certains de ses clients d’audit britanniques, les résultats ont été frappants.

Selon Kath Barrow, associée directrice de l’assurance chez EY au Royaume-Uni et en Irlande, le nouveau système a détecté des activités suspectes dans deux des dix premières sociétés contrôlées. Les clients ont ensuite confirmé que les deux cas étaient des fraudes.

Ce premier succès illustre pourquoi certains acteurs du secteur estiment que l’IA a un grand potentiel pour améliorer la qualité de l’audit et réduire la charge de travail. La capacité des systèmes basés sur l’IA à ingérer et analyser de grandes quantités de données pourrait, espèrent-ils, fournir un nouvel outil puissant pour alerter les auditeurs des signes d’actes répréhensibles et d’autres problèmes.

Pourtant, les auditeurs sont fortement en désaccord sur la mesure dans laquelle ils peuvent s’appuyer sur une technologie qui n’a pas encore été largement testée et qui est souvent mal comprise.

Certains cabinets d’audit doutent que les systèmes d’IA puissent recevoir suffisamment d’informations de haute qualité pour détecter de manière fiable les multiples formes potentielles de fraude. Il existe également certaines inquiétudes concernant la confidentialité des données, si les auditeurs utilisent des informations confidentielles sur les clients pour développer l’IA.

Ces questions signifient qu’il existe de nettes différences d’approche entre les grands cabinets d’audit du Royaume-Uni. Bien qu’EY ait refusé de révéler les détails de son logiciel ou la nature des fraudes découvertes, Barrow a déclaré que les résultats suggéraient que la technologie avait des « jambes » pour l’audit.

«Cela semble être quelque chose que nous devrions développer ou explorer», a-t-elle déclaré.

Cependant, Simon Stephens, responsable de l’IA pour l’audit et l’assurance chez Deloitte au Royaume-Uni, un autre des quatre grands cabinets d’audit, a souligné que les fraudes étaient relativement rares et avaient tendance à différer les unes des autres. Cela signifierait qu’il n’y avait pas nécessairement de modèles révélateurs que les systèmes d’IA pourraient détecter.

« Les fraudes sont. . . unique et chacune est perpétrée d’une manière légèrement différente », a déclaré Stephens. « Par nature, ils sont conçus pour contourner les mesures de protection grâce à de nouvelles utilisations de la technologie ou à l’exploitation de nouvelles faiblesses, et l’IA ne fonctionne pas bien dans ce domaine pour le moment. »

Les régulateurs auront probablement le dernier mot sur la manière dont la technologie peut être déployée. Jason Bradley, responsable de la technologie d’assurance au Financial Reporting Council du Royaume-Uni, l’organisme de surveillance de l’audit, a déclaré que l’IA présentait des opportunités pour « soutenir une qualité et une efficacité améliorées de l’audit » si elle était utilisée de manière appropriée.

Mais il a prévenu que les entreprises auraient besoin de l’expertise nécessaire pour garantir que les systèmes fonctionnent selon les bonnes normes. « À mesure que l’utilisation de l’IA se développe, les auditeurs doivent avoir les compétences nécessaires pour critiquer les systèmes d’IA, s’assurer que l’utilisation des résultats est précise et qu’ils sont capables de déployer des outils de manière conforme aux normes », a-t-il déclaré.

Alors que les logiciels d’audit traditionnels doivent savoir quels modèles de données indiquent une fraude ou d’autres problèmes, les systèmes d’IA sont formés pour détecter les problèmes grâce à l’apprentissage automatique et aux données de plusieurs cas d’inconduite connus. Au fil du temps, ils devraient s’améliorer à mesure qu’ils accumulent de l’expérience.

La technologie pourrait être particulièrement utile si elle réduit la charge de travail des auditeurs. Les entreprises du monde entier ont du mal à former et à recruter du personnel. Cela pourrait également contribuer à élever les normes : ces dernières années, les auditeurs ont négligé de graves problèmes financiers qui ont provoqué l’effondrement d’entreprises, notamment le sous-traitant Carillion, le détaillant BHS et la chaîne de cafés Pâtisserie Valerie.

L’expérience d’EY, selon Barrow, utilisait un outil d’apprentissage automatique qui avait été formé sur « de très nombreux stratagèmes frauduleux », tiré à la fois d’informations accessibles au public et de cas antérieurs dans lesquels l’entreprise avait été impliquée. Alors que les logiciels existants et largement utilisés recherchent les transactions suspectes, EY a déclaré que son système assisté par IA était plus sophistiqué. Il a été formé pour rechercher les transactions généralement utilisées pour dissimuler les fraudes, ainsi que les transactions suspectes elles-mêmes. Il a détecté les deux stratagèmes de fraude chez les 10 clients initiaux car il y avait des schémas similaires dans les données de formation, a indiqué la société.

« Tout ce qu’il fait, c’est dire : c’est quelque chose que vous devriez explorer plus en profondeur », a déclaré Barrow à propos du système d’IA, qu’elle a décrit comme un « copilote » pour les auditeurs. « Cela concentre nos efforts pour mieux comprendre. »

Pourtant, d’autres entreprises doutent que les systèmes d’IA soient suffisamment intelligents pour détecter les fraudes sophistiquées. KPMG UK, un autre auditeur des Big Four, a fait écho aux préoccupations de Stephens chez Deloitte.

« La fraude, de par sa nature, est imprévisible et il est donc difficile d’utiliser des cas de fraude connus pour former des modèles d’apprentissage automatique », a déclaré KPMG.

Stephens a reconnu que la technologie avait son utilité en matière d’audit. Mais il lui voyait un rôle bien plus limité. « L’IA peut automatiser certaines des tâches les plus banales et reproductibles et permet à nos auditeurs de se concentrer sur les domaines présentant le plus grand risque », a-t-il déclaré.

Deloitte limite actuellement l’utilisation de l’IA à des tâches moins complexes, fournissant des instructions claires sur les types d’anomalies à rechercher dans les comptes de l’entreprise.

Selon Stephens, l’un des problèmes était qu’une entreprise pouvait considérer ses données financières détaillées comme des informations exclusives. Cela rendrait difficile l’utilisation de ces informations privées pour former un système qui auditerait ensuite une autre entreprise.

« Quiconque développe l’IA doit en être conscient », a-t-il déclaré.

Barrow a reconnu qu’il y avait des défis. Elle a déclaré qu’il était essentiel que les auditeurs comprennent comment fonctionnait le codage du système d’IA, la signification réelle des résultats qu’il produisait et la nature des données qui avaient été utilisées pour le former.

« Nous devons le compléter avec . . . appliquer la lentille du scepticisme de l’auditeur, afin que nous puissions être clairs que cela est adapté à l’objectif », a-t-elle déclaré.

Elle a également reconnu le problème lié à l’utilisation d’informations exclusives d’entreprise pour former des systèmes d’IA. Mais elle a déclaré qu’il y avait suffisamment d’informations accessibles au public pour compléter le travail d’EY et fournir une formation significative pour les systèmes d’IA de l’entreprise.

« La technologie est déjà largement appliquée pour nous aider à évaluer et à identifier les risques », a déclaré Barrow. « L’IA sera de plus en plus un autre outil à notre disposition pour y parvenir. »



ttn-fr-56