L’ancien avocat de Donald Trump a révélé ce qu’il faisait sur son ordinateur – On s’est moqué de lui


Les inventions de l’intelligence artificielle sont allées entièrement à l’ancien avocat. Comme ils n’ont même pas été interrogés par son propre avocat, le lapin créé par l’intelligence artificielle a finalement été également présenté au juge.

Michael Cohen a admis avoir confondu un robot à intelligence artificielle avec un moteur de recherche. MICHAEL REYNOLDS

Président celui de Donald Trump un ancien avocat Michael Cohen est une agence de presse Reuters y compris se retrouver pris dans un problème embarrassant lié à l’utilisation de l’intelligence artificielle.

Cohen a été condamné à la prison en 2018 pour avoir avoué une fraude fiscale et bancaire et un abus de financement de campagne, mais a depuis été libéré. Il est cependant toujours sous la surveillance des autorités.

Cohen, qui a perdu son permis d’avocat, a récemment tenté de faire appel à un juge pour mettre fin à la surveillance, mais a commis une erreur qui pourrait devenir de plus en plus courante à l’avenir.

IA mal utilisée

Cohen a tenté de justifier ses affirmations avec trois précédents trouvés en ligne. Le problème, cependant, était que ces précédents n’existaient pas réellement, mais avaient été inventés par l’intelligence artificielle.

Lorsque le juge a demandé une explication sur les précédents inventés, Cohen a déclaré qu’il avait demandé l’aide du robot Bard AI de Google tout en effectuant un travail de fond pour son application. Cohen a déclaré qu’il pensait que Bard était un « moteur de recherche amélioré », admettant qu’il avait tort.

Selon Cohen, il ne se considère pas sur la carte du développement technologique et des menaces qui y sont liées car il n’est pas actuellement avocat.

– Je ne savais pas que Google Bard est un service de texte génératif capable de produire du contenu qui semble authentique, mais qui ne l’est pas, a déclaré Cohen.

En outre, Cohen s’est défendu en affirmant qu’il ne croyait pas que son propre avocat utiliserait du contenu créé par l’intelligence artificielle dans des documents soumis au tribunal sans vérifier au préalable les faits.

L’ex-avocat de Trump a déclaré qu’il avait utilisé Bard dans le passé avec succès et a assuré qu’il n’avait pas l’intention d’induire le tribunal en erreur.

Erreurs similaires avant

Nous vous avons expliqué l’été dernier comment les avocats Stephen A. Schwartz et Peter LoDuca s’est retrouvé dans une situation embarrassante à cause de ChatGPT. Ils pensaient chercher des informations sur les précédents en utilisant l’intelligence artificielle, sans se rendre compte que le chatbot les nourrissait de saule.

Le juge s’est vu présenter six « cas précédents » trouvés par les avocats, qui ont été créés par l’intelligence artificielle.

Les avocats ont reconnu qu’ils n’avaient pas étudié les précédents plus en détail ni vérifié leur exactitude.

– Je ne savais pas que ChatGPT pouvait falsifier les précédents, déclarait Schwartz à l’époque.



ttn-fr-54