Passer au contenu

Utiliser l’IA en toute sécurité

La profession juridique doit se préparer à de nouvelles règles venant de toutes parts concernant l’utilisation de l’IA dans la pratique du droit.

AI safety concept

Alors que l’intelligence artificielle (IA) générative continue de façonner l’innovation dans le secteur juridique, les autorités de réglementation s’efforcent de déterminer comment fournir des conseils déontologiques aux juristes tout en veillant à ce que les membres du public soient protégés. Les entreprises d’IA œuvrent dans un environnement incertain où elles doivent faire preuve d’anticipation et se préparer en vue d’un paysage réglementaire changeant.

Bien que l’IA promette d’améliorer la productivité dans tous les secteurs, le fait que des juristes aient présenté des documents judiciaires générés par l’IA contenant des erreurs ou citant de fausses affaires est devenu une source d’inquiétude, car une utilisation irresponsable peut nuire à la clientèle.

Le premier élément législatif à surveiller est la loi sur l’IA de l’Union européenne, qui a un rôle crucial dans la réglementation de l’utilisation de l’IA. Cette loi repose sur un système de catégorisation dans le cadre duquel les systèmes d’IA sont réglementés en fonction du niveau de risque qu’ils représentent pour la santé, la sécurité et les droits fondamentaux des personnes. Selon Teresa Scassa, titulaire de la chaire de recherche du Canada en politiques et droit de l’information à l’Université d’Ottawa, la mesure législative européenne obligera les entreprises technologiques du domaine du droit à se conformer en ce qui a trait aux préoccupations en matière de protection de la vie privée et de sécurité.

« Nous avons de plus en plus d’attentes en matière de sécurité et de déontologie, dit-elle. Les règlements de l’UE obligeront les entreprises technologiques du domaine du droit à suivre ces nouveaux principes, comme elles l’ont fait avec le RGPD. Cela aura une incidence sur le développement de l’IA. »

Au Canada, la Loi sur l’intelligence artificielle et les données (LIAD) fait partie d’un ensemble de lois présentées dans le cadre du projet de loi C-27, avec la Loi sur la protection de la vie privée des consommateurs, qui moderniserait les lois canadiennes sur la protection de la vie privée dans le secteur privé, et la Loi sur le Tribunal de la protection des renseignements personnels et des données, qui établirait un tribunal d’appel pour les décisions rendues par le Commissariat à la protection de la vie privée. Des voix se sont élevées pour séparer la LIAD du projet de loi C-27 afin de ralentir son adoption et de permettre au gouvernement d’examiner adéquatement les responsabilités juridiques et les risques que présente l’IA. 

Entretemps, les autorités de réglementation s’efforcent de donner davantage d’indications sur ce que les juristes doivent rechercher. La Law Society of British Columbia a récemment publié des lignes directrices sur la responsabilité professionnelle et l’IA générative, couvrant les thèmes habituels de la confidentialité, de la sécurité et de la compétence. La règle 3.2.2 du code de déontologie juridique de la Colombie-Britannique exige que les juristes fassent preuve d’honnêteté et de franchise avec leur clientèle. Les lignes directrices stipulent ce qui suit : [traduction] « En gardant cette obligation à l’esprit, il est prudent d’informer votre clientèle de la manière dont vous comptez utiliser les outils d’IA générative dans le cadre de votre pratique, de manière générale, ainsi que dans le cadre des dossiers particuliers. » 

La Californie est à l’avant-garde de la réglementation en matière d’IA aux États-Unis. En novembre, le barreau de l’État est devenu l’un des premiers du pays à approuver des lignes directrices sur l’IA générative. Les juristes doivent éviter d’entrer des renseignements confidentiels dans les outils d’IA générative. Les juristes doivent aussi passer en revue les conditions d’utilisation pour s’assurer que les tierces parties n’utilisent pas les données entrées pour former les outils d’IA. L’obligation de compétence, qui inclut la compréhension des biais de l’IA, est également décrite. On s’attend à ce que les juristes supervisent l’utilisation de l’IA générative dans leur cabinet. Les juristes peuvent facturer à leur clientèle les coûts associés à l’IA générative, mais il leur faut expliquer comment l’IA générative est utilisée. 

L’Association du Barreau de Floride envisage de mettre en place des lignes directrices similaires et a publié une proposition d’avis consultatif en novembre. Les juristes et le public avaient jusqu’au 2 janvier pour faire part de leurs commentaires. La proposition d’avis consultatif couvre les mêmes questions qui ont été couvertes en Californie, à savoir la confidentialité, la supervision du personnel utilisant l’IA et la divulgation à la clientèle. 

L’American Bar Association, qui a créé un groupe de travail sur l’IA plus tôt cette année, travaille également sur des mesures réglementaires. 

Le Royaume-Uni a récemment publié un document de consultation sur les lois relatives à l’IA. La Law Society of England and Wales a présenté des recommandations mettant l’accent sur la confidentialité et la supervision humaine. Elle recommande d’intégrer des responsables de l’IA aux organisations, avec des rôles similaires à celui des responsables de la protection de la vie privée. Elle propose de renforcer la transparence et de garantir le droit à un recours humain contre les décisions prises par les systèmes d’IA, en particulier dans le domaine à risques et à enjeux élevés du système judiciaire.

Il reste à voir comment les entreprises technologiques réagiront. Des litiges sont en cours concernant les droits d’auteur et d’autres questions liées à l’IA. S’il y a une leçon à tirer du récent drame au sein du conseil d’administration d’OpenAI, c’est que les cabinets juridiques doivent être prudents quant au choix de leurs fournisseurs de technologies juridiques. 

Selon Jillian Bommarito, experte en technologie juridique, cet incident nous rappelle qu’il ne faut pas trop compter sur un seul produit. OpenAI a éprouvé des problèmes en Italie au début de l’année, lorsque le gouvernement a temporairement interdit ChatGPT pour des raisons de protection de la vie privée.

« Ces incidents ne devraient pas surprendre », déclare Mme Bommarito, directrice de la gestion des risques de 273 Ventures, une société de conseil en technologie juridique. « Si l’IA fait partie de votre chaîne d’approvisionnement, qu’elle ait ou non un effet direct sur vos processus de sécurité, il faut vous préparer. Les cabinets juridiques devraient disposer d’un processus d’approvisionnement tenant compte des risques de ce type. »