Passer au contenu

L’IA générative en droit : Le Bon, la Brute et le Truand

La technologie de l’IA générative peut faciliter et accélérer le travail juridique de nombreuses façons, mais elle comporte des risques avec lesquels les juristes doivent composer.

A lawyer and the scales of justice
iStock

Plus tôt cette année, un cabinet juridique du New York a fait les manchettes après avoir été fustigé par un juge parce qu’il avait eu recours à ChatGPT pour estimer ses honoraires.

Parmi les documents que soumettait le cabinet Cuddy au tribunal se trouvait une analyse de l’outil d’intelligence artificielle (IA) générative d’OpenAI. Les juristes du cabinet avaient demandé au robot conversationnel le montant à facturer à leur client pour la cause qu’ils venaient de gagner et avaient tenté de l’utiliser pour justifier les 113 484,62 dollars qu’ils demandaient, ce qui n’a pas plu au juge Paul Engelmayer. De son avis, ChatGPT n’était pas un outil adéquat pour calculer les frais juridiques, car la plateforme ne dispose pas des bonnes informations pour prendre une décision éclairée. Il a qualifié cette décision de totalement et étrangement peu convaincante.

Alors que les entreprises de technologie juridique commercialisent des outils, les juristes sont encore dans le flou en ce qui concerne l’utilisation de l’IA générative, sans parler des meilleures façons d’y avoir recours.

Toutefois, même si cette technologie est toujours en évolution, il existe des moyens d’utiliser l’IA générative pour faciliter le travail juridique.

Outils d’IA générative sur le marché

L’IA générative fait référence à la technologie qui génère du contenu en fonction d’invites saisies dans le système. Par exemple, un outil comme ChatGPT peut générer des questions à poser à un client sur un formulaire d’admission ou créer une image pour un billet de blogue traitant de la façon de trouver des juristes.

ChatGPT est peut-être l’outil d’IA dont on parle le plus, mais ce n’est pas le seul offert sur le marché. Pour les cabinets juridiques, les outils les plus courants sont CoPilot de Microsoft, qui est intégré à Office 365, Gemini de Google, et Claude AI d’Anthropic, qui est en concurrence avec OpenAI lorsqu’il s’agit de l’outil d’IA qui s’apparente le plus aux humains.

Les entreprises de technologie juridique adoptent rapidement des outils d’IA générative, comme CoCounsel, un assistant juridique qui peut examiner des documents, contribuer à la rédaction de communications et faire de la recherche dans les documents.

Il y a aussi Lexis AI+, de LexisNexis, qui peut créer des sommaires de la jurisprudence, aider à rédiger des courriels pour des clients et rechercher des causes.

Au Canada, CanLII propose un outil d’IA générative qui résume la jurisprudence, les lois et les décisions de tribunaux administratifs. Il est offert en Alberta, en Saskatchewan, au Manitoba, à l’Île-du-Prince-Édouard et au Yukon.

Ce qui différencie ces outils d’IA juridiques de ChatGPT, c’est qu’ils sont construits sur des bases de données juridiques existantes afin de garantir l’obtention d’informations plus précises.

Jennifer Wondracek, professeure à la faculté de droit et directrice de la bibliothèque de droit de la Capital University, en Ohio, a récemment fait une présentation devant l’American Bar Association lors de son ABA TECHSHOW sur la façon dont les juristes devraient utiliser l’IA générative.

« L’IA existe depuis 1955, dit-elle. Nous avons Siri, Alexa et de nombreux autres produits d’IA à notre disposition. Ce qui importe, c’est de trouver ce dont vous avez besoin et de comprendre comment fonctionne l’IA. »

Mme Wondracek recommande de lire les conditions générales de tout outil d’IA générative avant de l’utiliser, car il peut y avoir des problèmes de confidentialité et de protection de la vie privée. Ces outils s’articulent autour de l’utilisation de données, et l’origine de ces données est le principal obstacle pour les grands modèles de langage comme ChatGPT et CoPilot. Actuellement aux États-Unis, OpenAI, Anthropic et Google font l’objet de poursuites pour violation de droits d’auteur.

Les utilisateurs doivent également recourir à une option de retrait pour s’assurer que leurs données ne servent pas à former le logiciel. Là encore, il peut y avoir des échappatoires. Des cabinets juridiques ont récemment découvert que la politique de confidentialité de Microsoft permet aux employés de l’entreprise de lire des invites d’IA pour trouver du contenu haineux ou violent.

Bien que l’accès à certains de ces outils soit gratuit, ces versions ne protègent pas les données.

« Vous devez acheter des licences parce que les politiques en matière de vie privée sont plus robustes, explique Mme Wondracek. Néanmoins, puisque même les licences personnelles payantes peuvent ne pas avoir les dispositions de protection des données dont vous avez besoin pour effectuer du travail juridique, vous devez rechercher des licences professionnelles ou commerciales. »

Sanjay Khanna a accepté le poste de directeur de l’information chez Сox & Palmer l’année dernière, au début de l’engouement pour ChatGPT. La technologie suscite son enthousiasme, mais il souhaite que les cabinets réfléchissent à la gouvernance et à la conformité avant de prendre des décisions sur ce qu’ils vont utiliser.

« Le secteur juridique peut grandement bénéficier de l’IA générative en raison de la quantité de données qui peuvent être utilisées dans la création de nouveau contenu touchant des questions juridiques et non juridiques, explique M. Khanna. Il est important que les cabinets évaluent et analysent les données utilisées et s’assurent du respect des normes de protection de la vie privée des clients ainsi que de réglementation juridique. »

Il croit également qu’il faut de l’organisation pour obtenir les meilleurs résultats possibles avec l’IA générative. Chez Сox & Palmer, cela va de pair avec la rationalisation des processus de gestion de l’information en ce qui a trait au stockage, à la recherche et à la récupération de documents.

Comment utiliser l’IA générative dans le domaine du droit

L’essentiel, c’est que l’efficacité de l’IA générative dépend des tâches que vous lui confiez. C’est pourquoi la rédactique est rapidement en train de devenir l’une des compétences que réclament les entreprises technologiques. Cela consiste en la création de requêtes pour que les outils d’IA produisent des résultats optimaux. C’est plus sophistiqué que la recherche d’une phrase ou d’une suite de mots, car la plupart des outils d’IA générative permettent aussi aux utilisateurs de télécharger des documents.

« Réfléchissez au résultat souhaité et à la formulation de votre demande, explique Mme Wondracek. Quand j’effectue des recherches sur des enfants âgés de moins de 18 ans, je dois penser aux différentes façons dont nous nommons les gens de cet âge : mineurs, enfants, nourrissons, etc. Il faut également penser au domaine de la recherche. »

Ensuite, il y a la question des hallucinations, le phénomène en vertu duquel les outils d’IA générative créent de fausses informations pour combler les lacunes dans la base de données du système. Alors que certaines entreprises d’IA juridique prétendent que ce phénomène n’existe pas dans les services qu’elles offrent, Mme Wondracek est d’avis que ce problème ne peut être complètement éliminé.

« Les entreprises d’IA juridique ont accès à de vastes bases de données juridiques, ce qui leur permet d’atténuer ce problème », dit-elle, ajoutant que, en fin de compte, les hallucinations sont indissociables de ces logiciels.

« C’est un compromis. Vous pouvez modifier les commandes sous-jacentes utilisées pour récupérer des données, mais des hallucinations se produiront toujours. »

Un des conseils qu’elle prodigue est de toujours vérifier votre travail. Les lignes directrices des barreaux de la Colombie-Britannique, de l’Alberta et de la Saskatchewan exigent des juristes qu’ils vérifient ce qu’ils génèrent à partir d’outils d’IA. Les juristes doivent aussi s’assurer que les renseignements confidentiels des clients ne sont pas saisis dans des systèmes d’IA générative.

Mme Wondracek dit que la vérification des informations passe par la lecture de chaque affaire citée pour veiller à ce que la bonne loi soit laissée en référence et pour confirmer l’existence des affaires judiciaires mentionnées.

Quel est le fil conducteur quand des juristes se font prendre à utiliser de fausses citations? Ils ont tous utilisé ChatGPT pour faire de la recherche juridique, une pratique à éviter à tout prix, selon Mme Wondracek.

Les juristes devraient plutôt voir l’IA générative comme un excellent endroit pour commencer ou terminer (méthode sandwich) du travail juridique. Par exemple, commencez votre travail en créant des questions à poser à l’aide d’outils d’IA générative ou ayez-y recours lorsque vous avez terminé l’ébauche d’arguments oraux pour les rendre plus convaincants.

« Vous pouvez demander au logiciel de rédiger une note de service de haut niveau ou d’examiner des clauses contractuelles. Vous pouvez lui fournir de longs PDF et lui poser des questions en lien avec le document. Il existe de nombreuses tâches banales que l’IA générative peut accomplir », croit Mme Wondracek, qui dit l’utiliser lors de la création de listes de contrôle pour l’intégration de nouveaux employés.

« Cependant, ChatGPT n’est pas conçu pour faire de la recherche. »

Bien que la réalisation de ces tâches banales ne soit possiblement pas aussi grisante qu’une technologie qui effectue tout le travail, il peut aider les juristes à faciliter et à accélérer certaines obligations liées à leur pratique.

« Il y a beaucoup d’autres choses que l’IA générative peut faire. Les juristes doivent explorer et comprendre ce qui leur convient. »