Le Canada, futur chef de file mondial de la réglementation de l’IA?
À l’heure où les États-Unis tendent vers la déréglementation, l’adoption d’une politique d’IA englobant la protection de la vie privée, l’innovation et la cybersécurité donnerait aux entreprises la certitude dont elles ont grandement besoin

La nouvelle administration américaine s’est fait un devoir de tout chambouler. En janvier, le président Donald Trump a émis un décret-loi touchant l’intelligence artificielle qui s’éloigne d’un développement et d’une utilisation sécuritaires, sûrs et fiables.
Ce décret-loi, intitulé « Removing Barriers to American Leadership in Artificial Intelligence » (éliminer les obstacles au leadership des États-Unis en matière d’intelligence artificielle), a eu pour effet de révoquer un décret-loi signé par l’ex-président Joe Biden en 2023 afin que les organismes fédéraux revoient leur utilisation de l’IA et que le National Institute of Standards and Technology (NIST) prépare des directives de sécurité concernant l’IA.
En cette ère où l’on nage déjà dans l’incertitude, le président Trump change les règles du jeu, estimant que les actuelles politiques restreignent l’innovation. Son décret-loi est là pour « soutenir et renforcer la domination des États-Unis en matière d’IA » et obtenir un plan d’action national d’IA en 180 jours. David Sacks, ancien membre de la direction de PayPal, aujourd’hui conseiller spécial du gouvernement en IA et en cryptomonnaie, fera partie de l’équipe qui produira ce plan.
Le décret-loi manque de détails, et reste à voir quels en seront les résultats. Ce qui est clair toutefois, c’est la tendance grandissante vers la déréglementation des politiques d’IA, et la nécessité pour le Canada de réagir.
« Cette mesure de Donald Trump marque un retour aux partenariats public-privé », observe Ana Brandusescu, doctorante en gouvernance de l’IA à l’Université McGill et chercheuse à la Balsillie School of International Affairs.
« Elle établit un régime qui affaiblit la supervision de l’État en matière d’IA, ce qui pose problème, car les entreprises d’IA sont là pour faire des profits et ne cessent d’agrandir et d’étendre leur empire et leurs capitaux. »
« Elle élimine aussi d’importants éléments mis en place par l’administration Biden, notamment la protection contre la discrimination liée à l’emploi et au logement attribuable aux biais algorithmiques, la promotion de l’égalité des chances, les lois antidiscrimination et l’étude d’autres moyens de protéger les consommateurs contre les biais d’IA. Au contraire, le décret-loi de Trump insiste sur le besoin de développer l’IA en s’affranchissant “des partis-pris idéologiques et des constructions politico-sociales”.
« On sonne ainsi le glas de la responsabilisation gouvernementale quant aux préjugés comme ceux liés à la race ou au genre », poursuit-elle.
Déjà, les implications sautent aux yeux. Mme Brandusescu rapporte que la Commission de l’égalité des chances en emploi des États-Unis a retiré de son site Web des documents concernant l’IA et les lois fédérales antidiscrimination.
« En pareille conjoncture, souligne-t-elle, c’est important d’organiser et de créer de nouveaux groupes incluant des protections particulières contre les biais et les torts causés par l’IA dans la vie des travailleurs. »
Depuis quelques années, le Canada et l’Union européenne adoptent des orientations opposées dans leurs politiques sur l’IA. En effet, le Canada a entrepris la création d’un cadre, des travaux qui ont débouché sur la proposition d’édicter la Loi sur l’intelligence artificielle et les données (LIAD) comme partie du projet de loi C-27, pour modifier les lois sur la protection du consommateur et de la vie privée. La LIAD a été critiquée pour son manque de clarté quant au type de technologie d’IA qui serait régie par cette loi et pour l’absence de consultation publique durant la rédaction.
L’Union européenne (UE) demeure chef de file de la réglementation technologique. La Loi sur l’intelligence artificielle, promulguée l’an dernier, resserre la réglementation encadrant les systèmes d’IA à risque élevé, notamment ceux liés à l’infrastructure publique (réseaux d’aqueduc et d’électricité), à l’éducation, à l’emploi, au maintien de l’ordre, aux processus démocratiques (élections), aux assurances et aux banques. Les fournisseurs de services d’IA sont légalement tenus d’avoir un système de gestion du risque, des documents techniques sur le fonctionnement de ce système, une supervision humaine, de l’information sur les données d’entraînement des algorithmes et un cadre de gestion de la qualité.
À certains points de vue, le décret-loi de Trump reflète une tendance grandissante en matière de sécurité nationale et de réglementation technologique, estime Renee Sieber, qui a étudié la géographie et l’informatique. Mme Sieber analyse la contribution du public aux politiques sur l’IA à l’Université McGill dans le cadre du projet « AI for the Rest of Us ». Plus d’un pays déréglemente, constate-t-elle.
En février, elle s’est rendue à Paris pour assister au Sommet pour l’action sur l’intelligence artificielle, le premier congrès international d’importance sur l’IA depuis que l’administration Trump a annoncé son changement de cap.
« Tout le monde au Sommet a dit sans réserve craindre la réglementation technologique, car l’adopter nous ramènerait en arrière », explique Mme Sieber, professeure agrégée de géographie à l’Université McGill.
« Les pays se soucient davantage des effets de la technologie sur la souveraineté nationale et les conflits, à un niveau de détail très poussé. »
Ils sont occupés à développer chez eux une main-d’œuvre ayant les compétences nécessaires pour créer des systèmes d’IA et les utiliser pour influencer les puissances étrangères. Dans cette lutte, il s’agit d’empêcher les autres États d’user de leur dominance en IA pour espionner les internautes. Par exemple, les gouvernements du Canada et des États-Unis craignent que la Chine utilise DeepSeek, un robot conversationnel gratuit doté de l’IA générative, pour voler des données sensibles au sujet de leurs citoyens.
C’est un problème complexe, car la plupart des entreprises d’IA sont des multinationales qui recueillent des données d’une foule de pays, puis confient l’entraînement de ces systèmes à des travailleurs aux quatre coins du monde.
Selon Mme Sieber, la protection des données des Canadiens passe avant tout par une réforme de la réglementation encadrant la propriété intellectuelle, et par une revue de la dépendance du Canada aux logiciels américains, comme AWS d’Amazon ou Azure de Microsoft.
« La protection de la propriété intellectuelle est depuis longtemps problématique au Canada. Il est temps pour le gouvernement d’aller plus loin que l’autoréglementation », résume-t-elle.
« Il faut protéger nos données par la législation et privilégier le soutien de la technologie canadienne. »
L’objectif pour le Canada devrait être d’assurer sa souveraineté en contrôlant ses données, leur stockage et leur utilisation, de la même manière que le gouvernement fédéral a jugé bon que le pays se dote des ressources nécessaires pour produire lui-même des vaccins contre la COVID-19. D’après Mme Sieber, protéger nos données est prioritaire.
« Les technologies et les données sont des ressources nationales et l’État doit y faire valoir sa souveraineté, poursuit-elle. Nous devons contrôler le transfert des données et le choix des données d’entraînement d’un système. »
Le décret-loi de Trump concernant l’IA annonce aussi la fin du développement de la législation américaine à ce sujet, ce qui transfère le fardeau aux États, dont les législatures ont présenté près de 700 projets de loi en 2024; une mosaïque législative visant une infinité d’objectifs, comme celui d’encadrer l’utilisation de l’IA dans le marché de l’emploi ou d’obliger les développeurs d’IA à garder des traces de la manière dont ils préviennent les biais algorithmiques. Pour les entreprises canadiennes, cela signifie devoir naviguer dans cet assemblage hétéroclite de règlements. Les PME n’ont pas les ressources nécessaires pour suivre tout cela.
David Krebs, associé chez Miller Thomson et leader national en matière de protection de la vie privée, gouvernance des données et cybersécurité, décrit la situation comme similaire à celle de la législation américaine sur la protection de la vie privée : plusieurs États ont des lois sur la protection de la vie privée des consommateurs et la protection des données, mais il n’y a rien de tel à l’échelon fédéral. Dans ce climat d’incertitude réglementaire, les entreprises seront frileuses à l’idée de pénétrer de nouveaux marchés.
« On voit déjà des géants de la technologie se faire imposer des amendes draconiennes dans l’Union européenne », dit-il.
« Une brèche de sécurité peut torpiller une petite entreprise. Les grandes entreprises, elles, se tiennent déjà au courant de la réglementation et peuvent passer à autre chose. »
C’est peut-être le bon moment pour le Canada de devenir chef de file mondial en réglementation de l’IA. Une politique globale régissant la protection de la vie privée, l’innovation et la cybersécurité procurerait aux entreprises cette certitude dont elles ont si grand besoin dans cet environnement où tout bouge vite.
« Aux yeux de certaines entreprises, le Règlement général sur la protection des données de l’UE est un fardeau excessif et un poison pour les affaires », dit Me Krebs.
Si on arrive à bien réglementer l’IA, cela pourrait aider à gagner la confiance du consommateur et en favoriser l’adoption. Cela aiderait les entreprises qui sont ouvertement méfiantes quand il s’agit de conformité réglementaire.
Les cabinets juridiques jouissent en quelque sorte d’une certitude réglementaire. Ils sont intervenus avec les tribunaux pour ce qui est de réglementer l’utilisation de l’IA générative par les juristes. Le problème, c’est que le développement des systèmes d’IA est peu réglementé. Les biais systémiques dans les données d’entraînement et le manque de consultation publique dans l’élaboration des politiques constituent des obstacles majeurs à la création de systèmes dignes de confiance pour le public. À l’heure où l’administration américaine déréglemente et où la réglementation canadienne reste embryonnaire, les cabinets juridiques doivent décider de la bonne façon d’utiliser cette technologie.
« La mauvaise réglementation nuit à l’avancement technologique. Quand on fait usage de l’IA en technologie juridique, on doit avoir une pleine confiance dans ce qu’on utilise. Les codes de conduite volontaires ne suffisent pas », conclut Me Krebs.