L’IA pourrait devenir la plus grande aide des avocats dans les salles d’audience

L'IA pourrait devenir la plus grande aide des avocats dans les salles d'audience

Cet article fait partie de « Construit le, » une série sur les tendances de la technologie numérique qui perturbent les industries.

En décembre, Michael Cohen, l’avocat qui s’est fait connaître en travaillant pour Donald Trump, a demandé à un juge fédéral d’ignorer sa dernière transgression : citer des cas fabriqués de toutes pièces par l’IA générative. Cohen avait utilisé Google Bard, un prédécesseur de Google Gemini, pour citer des cas qui n’existaient pas. Cohen a affirmé son ignorance, affirmant qu’il avait mal compris le chatbot « comme étant un moteur de recherche suralimenté ».

Cohen n’était pas le seul avocat à commettre cette erreur. L’année dernière, un juge fédéral a infligé une amende de 5 000 $ à deux avocats pour avoir invoqué des cas fictifs. Et en février, un tribunal a imposé des sanctions de 10 000 dollars suite à un appel citant près de deux douzaines de faux cas.

Ces échecs pourraient suggérer que l’IA n’a pas sa place dans la pratique du droit. Mais certains avocats et experts juridiques ont déclaré à BI que ce n’est pas toujours le cas. La précision de l’IA générative peut en faire un champ de mines, mais la complexité croissante du secteur juridique incite de nombreux avocats à l’utiliser pour obtenir de l’aide.

Danielle Benecke, responsable de l’apprentissage automatique au sein du cabinet d’avocats international Baker McKenzie, a déclaré que les modèles d’IA devenaient efficaces pour « interpréter et générer un langage juridique complexe », un élément essentiel de l’entreprise.

Le copilote d’un avocat

Fondé en 1949, Baker McKenzie compte plus de 6 500 avocats répartis dans 70 bureaux à travers le monde. Benecke a déclaré que l’intérêt de l’entreprise pour l’IA était antérieur à l’IA générative, mais que l’arrivée récente de grands modèles de langage, ou LLM, a lancé une vague d’innovation. Le travail du cabinet visant à développer l’IA générative pour produire des projets de conseils juridiques sur des questions de droit du travail à grand volume a récemment remporté un prix de Law.com.

Benecke a déclaré que les outils d’IA étaient particulièrement utiles pour gérer les conséquences juridiques de problèmes courants tels que les incidents de cybersécurité. Même un incident mineur peut submerger une entreprise d’exigences de conformité réglementaire qui nécessitent plusieurs jours de travail d’une petite équipe d’avocats, accumulant des honoraires élevés.

Le summum des applications de l’IA dans les cinq à dix prochaines années sera l’autonomisation des avocats.
Cecilia Ziniti, PDG et cofondatrice de GC AI

Benecke a déclaré que les outils du cabinet ont été conçus pour fournir des conseils précis afin de réduire considérablement le temps que les avocats consacrent à se familiariser avec les exigences réglementaires d’un client.

Benecke a souligné que l’objectif de l’entreprise est la qualité et non l’efficacité. Elle a déclaré que le temps gagné à trier les exigences réglementaires est mieux utilisé pour élaborer une stratégie sur la réponse du client à l’incident.

Cecilia Ziniti, PDG et cofondatrice de GC AI, a prédit que cette dynamique finirait par dominer les discussions sur l’IA dans la profession juridique. « Le summum des applications de l’IA dans les cinq à dix prochaines années sera l’autonomisation des avocats », a-t-elle déclaré. « C’est un copilote avocat. »

Les médias populaires se concentrent souvent sur les aspects les plus romantiques du droit, comme un procureur qui interroge un accusé à la barre ou un avocat travailleur qui élabore une nouvelle stratégie juridique. Mais la réalité, selon Ziniti, est souvent moins glamour, dans la mesure où le secteur juridique couvre une « très longue traîne » de tâches fastidieuses.

Ziniti, comme Benecke, a donné l’exemple des exigences réglementaires. En janvier, la Federal Trade Commission a envoyé une demande d’informations à cinq entreprises, dont Microsoft et OpenAI, leur demandant notamment des courriers électroniques pouvant contenir des centaines de documents. Cette demande a été faite dans le cadre de l’enquête de la FTC sur la concurrence dans le secteur de l’IA.

Répondre à une telle demande peut nécessiter des centaines d’heures de travail, les avocats passant au crible les documents pour trouver les informations pertinentes. Il s’agit d’un travail important – un non-respect peut être sanctionné par de lourdes sanctions et un examen plus approfondi – mais il est également répétitif, ennuyeux et prend du temps.

Ziniti a déclaré qu’un « copilote » d’IA permettait aux avocats « de faire ce que nous appelons exercer au sommet de notre licence », ce qui signifie que « nous pouvons faire les choses que nous sommes le plus capables de faire, c’est la partie amusante ».

GPT-4 entre dans la salle d’audience

L’attrait d’un outil qui fouille inlassablement dans les documents au nom d’un avocat est significatif, mais éclipsé par le plus gros bug de l’IA : l’hallucination.

IBM décrit une hallucination comme lorsque le LLM d’un outil d’IA perçoit des modèles inexistants et génère « des résultats absurdes ou totalement inexacts ». Comme Cohen l’a découvert, cela peut se produire lorsqu’un chatbot IA est invité à répondre à une requête spécifique qui n’est pas bien représentée dans ses données de formation.

Il pourrait être surprenant que les outils d’IA conçus pour les avocats n’utilisent généralement pas de modèles spécifiquement formés pour le secteur. La plupart s’appuient sur les mêmes LLM généralisés auxquels tout le monde peut accéder, et le GPT d’OpenAI est de loin le plus populaire. « Il n’existe actuellement pas de modèle plus puissant que GPT-4 », a déclaré Ziniti.

CoCounsel, un produit d’assistant juridique basé sur l’IA, affirme qu’il faut plusieurs étapes pour réduire les hallucinations. Il utilise la génération augmentée par récupération, une technique pour ancrer la réponse d’une IA dans les documents qui lui sont fournis, en combinaison avec des instructions invitées pour que le LLM garde ses réponses centrées sur le contenu des documents.

OpenAI exploite un ensemble de serveurs dédiés à CoCounsel, donnant aux ingénieurs de CoCounsel plus de contrôle sur la sortie du modèle. Cela contribue également à la conformité réglementaire, car les informations fournies à CoCounsel ne sont pas partagées plus largement.

Jake Heller, responsable produit de CoCounsel chez Thomson Reuters, a déclaré que Thomson Reuters avait mis en place une « équipe de confiance » composée d’avocats et d’ingénieurs en IA pour garantir que CoCounsel « obtienne la bonne réponse ». L’assistant IA fournit également des liens de citation pour atténuer les problèmes d’exactitude.

L’IA ne remplacera pas les avocats

Il existe une autre peur susceptible de pousser les avocats vers l’IA : les autres avocats.

Heller a déclaré que tous les cabinets d’avocats et les avocats existent dans une « dynamique concurrentielle ». Les cabinets d’avocats se disputent un bassin limité de clients, et les plaignants et les défendeurs rivalisent pour gagner les procès. Ziniti a décrit la pratique du droit comme un « système contradictoire » destiné à pousser chaque avocat à présenter le meilleur dossier possible au nom de son client.

Pour cette raison, il est peu probable que l’IA supprime les emplois d’avocat. L’IA pourrait plutôt être considérée comme une extension des tendances ancrées à l’aube de l’ère informatique.

« Nous avions l’habitude d’examiner physiquement chaque document dans chaque cas », a déclaré Heller. « Même tous les e-mails potentiellement pertinents, nous les imprimions physiquement, et ils se retrouvaient dans des boîtes bancaires au sous-sol. »

D’une certaine manière, le problème avance parallèlement à la solution.
Danielle Benecke, responsable de la pratique d’apprentissage automatique chez Baker McKenzie

Les temps ont changé. L’examen électronique a remplacé l’examen manuel dans la mesure du possible. Le secteur juridique dispose d’un sous-domaine entier, la découverte électronique, dédié à la recherche et au tri de documents électroniques.

Les avocats pourraient également se tourner vers l’IA pour lutter contre une force censée l’apprivoiser : la réglementation. Benecke a déclaré que la complexité de la réglementation gouvernementale était « sur une courbe exponentielle », ajoutant : « D’une certaine manière, le problème avance en tandem avec la solution ». Ceci est particulièrement pertinent pour un cabinet international comme Baker McKenzie, qui conseille des clients dans des dizaines de pays.

En fin de compte, l’adoption de l’IA dans le secteur juridique se résume à une réalité : le nombre d’heures dans une journée est limité. Même si l’examen manuel de chaque document susceptible d’être pertinent pour une affaire peut sembler intéressant, ce n’est souvent pas la meilleure utilisation du temps d’un avocat.

« Je pense que dans trois à cinq ans, ne pas utiliser l’IA pour le travail juridique équivaudrait aujourd’hui à refuser d’utiliser la recherche en ligne pour le travail juridique », a déclaré Ziniti.

Elle a ajouté que les avocats ont la responsabilité professionnelle d’éviter de gonfler les heures facturables. Cette responsabilité est codifiée par de nombreuses organisations juridiques, dont l’American Bar Association.

A lire également