Passer au contenu

Réglementation de l'IA: Le Canada hésite

Et le doute plane sur l’indépendance d'un futur commissaire.

Thinking about AI

C’est une vérité au moins aussi vieille que l’imprimerie : les technologies perturbatrices ont le don de chambouler le paysage juridique. Et de fait, les autorités de réglementation peinent à suivre l’une des dernières en date : l’intelligence artificielle, laquelle se veut foncièrement évolutive.

Les systèmes d’IA gagnent en puissance et en sophistication à une vitesse qui semble prendre au dépourvu bien des génies de notre époque. Lorsque le gouvernement fédéral a proposé la Loi sur l’intelligence artificielle et les données (LIAD) dans le cadre du projet de loi C-27 en 2022, il voyait l’encadrement de l’IA comme une question de politique commerciale – il voulait tempérer les craintes et les attentes en vue de l’édification d’une industrie canadienne.

En moins d’un an, le ton a changé radicalement dans le discours mondial. Un pionnier du domaine, le développeur Geoffrey Hinton, a quitté Google en dénonçant les capacités alarmantes des robots conversationnels et leur menace d’éclipser les capacités humaines. Un son de cloche repris et amplifié par toute une vague de scientifiques et d’ingénieurs brillants, qui voient ici une menace pour l’ordre public – voire pour le genre humain. « Si dans six mois vous me dites que ça ne vous f*** pas la peur au ventre, je vous paie le resto » a lancé le fondateur de SeedAI, Austin Carson, devant public au Texas voilà deux mois. Cette semaine, d’éminents chercheurs et chefs d’entreprise du milieu de l’IA ont appelé dans une lettre ouverte à ce que la prise en main du risque d’extinction que pose cette technologie devienne une priorité planétaire.

Si le gouvernement fédéral partage ces craintes, il s’en cache bien. En tant qu’instrument législatif, la LIAD est une coquille vide. Son but affirmé est de venir encadrer les « systèmes d’IA à incidence élevée », mais la définition de ce qu’elle entend par là, ainsi que pratiquement tous les autres aspects du plan canadien visant à maintenir l’IA sur les rails, est laissée sur la planche à dessin pour l’étape de la rédaction des règlements. Ottawa défend cette approche, la disant « agile » et adaptable à l’évolution rapide de notre climat technologique.

Cela s’inscrit possiblement aussi dans la longue tradition canadienne d’attendre de voir ce que feront les autres. L’Union européenne a été la première puissance occidentale à proposer, deux ans plus tôt, un train de règles pour encadrer l’IA. C’était toutefois avant que ChatGPT et ses consorts commencent à faire trembler les ingénieurs. Le Parlement européen est venu modifier cette législation au début du mois de mai pour la resserrer considérablement.

Les modifications interdisent les usages « intrusifs » et « discriminatoires » de l’IA, comme l’identification biométrique en temps réel dans les espaces publics. Sont aussi prohibés la biométrie utilisant des données « sensibles », comme la race et le genre, ainsi que les systèmes prédictifs pour les forces de l’ordre. La législation proscrit la récupération aveugle de données biométriques depuis les médias sociaux ou les vidéos de surveillance pour l’alimentation de bases de données de reconnaissance faciale – une mesure qui s’attaque directement au modèle d’affaires controversé de Clearview AI. Enfin, elle force les entités à l’origine des « modèles de fondation » qu’emploient les technologies d’IA génératives – comme ChatGPT – à appliquer des contrôles de sécurité et à atténuer les risques avant de mettre leurs produits en marché.

« L’Union européenne est plus prescriptive dans son projet de loi sur l’IA, affirme Chris Ferguson, un associé au cabinet Fasken qui se spécialise dans la technologie, la vie privée et la cybersécurité. Ici au Canada, on tend à laisser davantage place à interprétation, pour venir plus tard déterminer les concepts importants par voie de règlement. »

Le Canada s’en tient à une législation vague, tandis que les Européens adoptent une approche détaillée. Les Américains, eux… tendent plus vers le va-comme-je-te-pousse.

La réponse de Washington à la grogne des concepteurs américains quant à la décision de l’Europe d’interdire aux entreprises de fournir un accès à distance par API aux modèles génératifs d’IA? Charger les agences d’évaluer par elles-mêmes leur utilisation de l’IA. Selon un article récent de Brent Orrell, associé principal à l’American Enterprise Institute, c’est près de 90 % des agences gouvernementales qui n’avaient toujours par soumis leurs plans d’utilisation à la fin de 2022.

Il s’interroge : « Les organismes fédéraux, qui sont eux-mêmes incapables de rendre compte ne serait-ce que de leur propre utilisation des produits d’IA, sont-ils mêmes en mesure d’établir un cadre réglementaire qui sera gage de sûreté, de confidentialité et de sécurité pour le reste d’entre nous? »

Bref, tout cela pour dire que l’Europe a une énorme longueur d’avance sur le reste du monde développé en ce qui concerne l’encadrement juridique de l’IA. Et cela risque de poser problème.

« La LIAD a été annoncée en juin, et le comité d’étude n’a pas encore commencé son travail – ça ira à l’automne. Ensuite, il faudra rédiger les règlements. C’est un an et demi de perdu », se désole Christelle Tessono, une diplômée de l’Université McGill qui travaille maintenant comme chercheuse émergente au Center for Information Technology Policy de l’Université Princeton.

« Et les discussions au pays se sont principalement faites à huis clos, car il n’y a pas eu de consultations publiques sur le projet de la LIAD.

« Le risque qui se pose est que la technologie évolue si vite que les dégâts seront déjà faits avant que l’infrastructure nécessaire à la réglementation ne soit en place. »

Le manque de précision de la LIAD vise à laisser une marge de manœuvre au Canada, explique Me Ferguson – on veut pouvoir adapter la loi aux nouveaux développements, ou encore la faire cadrer avec la législation étrangère, par la révision de la réglementation. Mais ce procédé peut aussi dissuader les investisseurs et les entreprises, qui ont besoin de certitude.

« C’est à double tranchant, n’est-ce pas? La LIAD est certes adaptable, mais aussi floue, ce qui complique la vie des entreprises pour planifier leur mise en conformité et saisir les répercussions du projet de loi sur leurs activités. »

Ce flou cause déjà des maux de tête aux entreprises canadiennes qui cherchent à obtenir des services d’IA. Les participants à une récente table ronde organisée par McCarthy Tétrault ont été avertis qu’ils devront obtenir de leurs fournisseurs des explications détaillées sur leur méthodologie d’IA afin de se conformer à une réglementation qui n’existera pas avant encore des années.

Pendant ce temps, les nouvelles règles européennes en matière d’IA sont extraterritoriales – elles s’appliquent à tous ceux qui produisent ou déploient des produits d’IA en territoire européen, et ce, où que soit leur siège social. Étant donné que l’Union européenne est très en avance sur la réglementation de l’IA, et vu la taille du marché qu’elle représente, de nombreux observateurs prédisent un « effet Bruxelles » qui verrait les États-Unis tenter d’influencer les règlements de l’Union européenne avant d’enfin les adopter.

Il est peu probable que le Canada reste les bras croisés pendant ce bras de fer. Christelle Tessono croit que le pays ne devrait pas tergiverser et simplement adopter dès maintenant la philosophie prescriptive de l’Union européenne.

À commencer, selon elle, par la nomination d’un commissaire à l’IA réellement indépendant. Dans sa version actuelle, la LIAD prévoit que le poste relève du ministre de l’Industrie, lequel a le mandat de développer le secteur de l’IA et non de l’encadrer.

« Concentrer le pouvoir entre les mains du ministre, c’est demander à avoir des problèmes, croit-elle. Un commissaire qui a les mains libres et est bien doté en ressources, voilà qui pourra intervenir rapidement lorsque des problèmes émergeront. C’est d’ailleurs ce qu’a fait le Commissariat à la protection de la vie privée lorsqu’il a lancé sa propre enquête sur ChatGPT le mois dernier.

« C’est le Commissariat qui a agi de sa propre initiative. Pas de celle du ministre de l’Innovation, des Sciences et de l’Industrie. C’est ça que ça donne, avoir un commissaire indépendant. »