Passer au contenu

Divulguer l’utilisation de l’IA

Deux tribunaux canadiens ont émis des instructions relatives à la pratique concernant l’IA. Est-ce toutefois réellement nécessaire?

Chatgpt research

Au fur et à mesure que les programmes d’intelligence artificielle comme ChatGPT gagnent en popularité, des juristes tentent d’utiliser ces programmes comme outils de recherche, et les résultats sont parfois désastreux. Aux États-Unis, deux juristes ont récemment reçu une amende pour avoir soumis à un tribunal des citations de cas inexistants générées par ChatGPT. En réponse à ces problèmes, des cours supérieures au Manitoba et au Yukon ont émis des instructions relatives à la pratique exigeant que les juristes divulguent l’utilisation d’outils d’IA dans leurs soumissions.

Cependant, Amy Salyzyn, professeure de droit à l’Université d’Ottawa, craint que les directives ne soient trop générales.

« C’est merveilleux de voir les tribunaux se pencher sur ces questions relatives à la technologie et à l’incidence de la technologie sur le déroulement des affaires judiciaires et réfléchir aux meilleures pratiques, déclare Me Salyzyn. Il existe toutefois des préoccupations pratiques liées à l’imprécision des directives, ajoute-t-elle. Le terme “intelligence artificielle” est un terme technique. Il ne s’agit pas d’une définition technique précise et il n’y a pas toujours de consensus sur ce que ce terme désigne. Il existe toutes sortes de technologies utilisées par les juristes qui correspondent à des définitions fréquentes de l’IA, que ce soient des bases de données de recherches juridiques utilisées couramment, des programmes de correction de la grammaire ou même l’utilisation de Google pour chercher l’adresse d’un tribunal, comme l’a mentionné une personne à titre d’exemple. »

Toutes ces technologies peuvent être décrites comme des formes d’IA, ce qui signifie qu’une interprétation simple des instructions exigerait que les juristes divulguent leur utilisation de ces technologies. Selon MeSalyzyn, les instructions ne précisent pas clairement ce que les juristes doivent divulguer. S’agit-il de l’utilisation de l’outil lui-même, de son fonctionnement ou de ses fonctions? « Cela complique les choses, car les juristes ne disposent pas forcément de cette expertise et pourraient fournir des explications qui ne correspondent pas exactement aux fonctions réelles de la technologie utilisée. »

Maroussia Lévesque, avocate formée au Canada et candidate au doctorat en sciences juridiques à la Faculté de droit de Harvard effectuant des recherches sur la gouvernance de l’IA, affirme que la divulgation est un bon début et que les juges aux États-Unis n’ont pas vu d’un bon œil le recours à des références générées par l’IA.

« Il n’est pas trop tôt pour commencer à réfléchir à la manière de faire face à l’arrivée de ChatGPT et d’autres outils de génération dans le domaine du droit, affirme Me Lévesque. Il ne revient peut-être pas aux juges de prendre toutes les décisions, et nous avons besoin d’une discussion plus large sur les implications de l’IA, mais je crois tout de même qu’il s’agit d’une première étape judicieuse de leur part d’exiger une divulgation afin que les parties adverses et les juges sachent à quoi s’attendre. »

MLévesque est également d’avis que la divulgation de tout outil qui « dépend de l’IA pour la préparation de documents » ou de « recherche juridique » est une instruction un peu générale et elle précise qu’il faut différencier la technologie juridique frontale et dorsale.

« La technologie dorsale comprend toutes les technologies, de l’investigation numérique à l’analyse prédictive, qui aident les juristes à faire leur travail sans les remplacer, affirme Me Lévesque. Il existe déjà des produits sur le marché qui peuvent donner un aperçu du taux des requêtes antérieures d’un ou d’une juge, soit un point de données parmi d’autres qui pourra être utilisé par les juristes pour déterminer leur stratégie. Ces outils sont déjà utilisés. »

Me Lévesque fait toutefois remarquer que ChatGPT ou d’autres solutions prêtes à être utilisées peuvent facilement générer des conseils et des références juridiques, par exemple, en rédigeant un mémoire. Les services comme DoNotPay aux États-Unis ont des plans ambitieux pour plaider devant la Cour suprême en transmettant des arguments dans l’oreillette d’un « avocat factice » physiquement présent. « C’est ce qui préoccupe les juges et, dans cette optique, le libellé est un peu vague, car il semble s’appliquer aux utilisations frontales et dorsales de l’IA », indique Me Lévesque.

Me Salyzyn se demande toujours quel est le problème que les instructions du tribunal sont censées résoudre :

« S’agit-il du problème des fausses affaires qui est survenu ailleurs? Si c’est le cas, je m’interroge sur la nécessité de cette directive. Les juristes ont déjà l’obligation professionnelle de s’assurer que les renseignements soumis au tribunal ne sont ni trompeurs ni mensongers. »

De plus, les tribunaux doivent faire preuve de diligence raisonnable en ce qui concerne la jurisprudence citée et s’assurer que les juristes s’appuient sur celle-ci correctement.

« Les juristes peuvent utiliser un outil d’IA pour introduire le sujet d’un factum, pour trouver des preuves dans une transcription ou même pour générer un tableau permettant de présenter les preuves d’une certaine manière. Je ne suis pas certaine de comprendre en quoi cela concerne le tribunal », souligne MSalyzyn.

« Si les fausses affaires posent un réel problème, je me demande s’il ne serait pas préférable pour les juges d’avertir les juristes qu’ils et elles sont au courant de ce risque et que l’utilisation de ces outils ne sera pas acceptée pour présenter des cas. »

MLévesque suggère une modification du libellé des instructions pour inclure les « recherches juridiques ou les soumissions qui relèvent de la pratique du droit » afin de reconnaître que le véritable problème survient lorsque les outils accomplissent des tâches qui devraient être réservées aux juristes.

Elle ajoute toutefois qu’il est raisonnable de privilégier la prudence en confiant le fardeau aux juristes afin qu’ils et elles fassent preuve d’une transparence totale.

Selon Me Lévesque, « si on laisse aux juges le soin de séparer le bon grain de l’ivraie, ils et elles comprendront probablement qu’il est acceptable pour les juristes d’avoir recours à l’investigation informatique. Cela n’interdit pas l’utilisation de ces outils et permet d’entamer une discussion sur leur utilisation, car nous ne comprenons pas entièrement les enjeux. Selon le contexte, les juges prendront des décisions éclairées sur l’importance accordée aux soumissions. »