Michael Cohen a utilisé l’IA de Google pour rechercher des cas juridiques à citer dans son appel. L’IA les a hallucinés.

Michael Cohen a utilisé l'IA de Google pour rechercher des cas juridiques à citer dans son appel.  L’IA les a hallucinés.
  • Michael Cohen recherchait des dossiers pour étayer ses allégations juridiques. Il s’est donc tourné vers le chatbot IA de Google, Bard.
  • Mais ces cas étaient faux.
  • L’avocat de Cohen n’a jamais vérifié que les cas existaient réellement avant d’en parler au tribunal.

La dernière victime d’une erreur d’IA ? L’ancien fixateur de Donald Trump, Michael Cohen, et son avocat.

Cohen a admis dans une déclaration sous serment devant un tribunal fédéral de Manhattan qu’il avait utilisé Google Bard, un chatbot génératif d’IA similaire à ChatGPT, pour trouver des affaires juridiques étayant ses arguments sur les raisons pour lesquelles il devrait être libéré plus tôt que prévu de sa libération surveillée.

Mais Cohen n’a pas réalisé un des principaux pièges de l’IA : parfois, elle ne fait qu’inventer des choses.

Cohen a écrit qu’il avait mal compris Google Bard comme un moteur de recherche, et non comme un service d’IA générative comme ChatGPT, et qu’il faisait confiance à son avocat pour vérifier les cas.

« J’ai compris qu’il s’agissait d’un moteur de recherche surpuissant et je l’avais utilisé à plusieurs reprises dans d’autres contextes pour trouver (avec succès) des informations précises en ligne », a écrit Cohen. « Je ne savais pas que Google Bard pouvait générer des cas inexistants. »

Cohen a transmis les résultats hallucinés de Bard à son avocat de l’époque, David Schwartz, qui en a inclus trois dans son dossier du 29 novembre sans vérifier que les cas étaient réellement légitimes, selon les documents judiciaires.

Le dépôt légal de vendredi était le premier rapporté par Matthew Russell Lee d’Inner City Press.

Cohen, dans les documents judiciaires, rejette la faute sur son avocat pour ne pas avoir vérifié ce qu’il a envoyé.

« Il ne m’est pas venu à l’esprit à l’époque – et cela me surprend encore aujourd’hui – que M. Schwartz abandonnerait les dossiers en bloc sans même confirmer leur existence », a écrit Cohen dans le dossier.

Cohen a plaidé coupable en 2018 pour violations du financement de campagne et a purgé une peine de prison avant d’être placé en liberté surveillée.

Les documents déposés devant le tribunal faisaient valoir qu’il avait respecté toutes les conditions de sa libération et que sa surveillance devait désormais prendre fin.

Le juge de district américain Jesse Furman, qui supervise l’affaire, a demandé à Schwartz « d’expliquer pourquoi il ne devrait pas être sanctionné pour avoir cité des cas qui semblent ne pas exister », ce qui a conduit Cohen à expliquer sa version de l’histoire.

Schwartz, dans son propre dossier judiciaire, a déclaré qu’il avait inclus les cas hallucinés comme citations parce qu’il avait compris à tort qu’ils provenaient d’un autre des avocats de Cohen, Danya Perry, plutôt que de Cohen lui-même. Perry travaille toujours pour tenter de mettre fin à la libération surveillée de Cohen et affirme qu’il ne devrait pas souffrir du prétendu faux pas de son avocat.

L’incident pourrait avoir des conséquences sur l’une des affaires pénales engagées contre l’ancien président Donald Trump.

Cohen devrait être un témoin vedette dans le procès du procureur du district de Manhattan contre Trump, alléguant qu’il a falsifié des documents commerciaux pour dissimuler des paiements d’argent secrets à Stormy Daniels avant les élections de 2016.

Trump et ses avocats soutiennent depuis longtemps qu’on ne pouvait pas faire confiance à Cohen, compte tenu de ses antécédents criminels, qui lui ont également valu de perdre sa propre licence légale. Avec le snafu de l’IA, ils pourraient avoir encore un autre exemple à présenter devant un jury pour tenter de le discréditer.

A lire également