Passer au contenu

Négociations internationales en vue d’un traité sur l'IA

Des sections de l’ABC commentent l’approche proposée pour réglementer l’intelligence artificielle.

AI and justice

Le Canada participe à des négociations internationales en vue d’un traité sur l’intelligence artificielle, les droits de la personne et la primauté du droit au Conseil de l’Europe. La Section du droit de la vie privée et de l’accès à l’information, la Section du droit de l’immigration et le Sous-comité de déontologie et de responsabilité professionnelle de l’Association du Barreau canadien, dans un mémoire exhaustif (disponible uniquement en anglais; les citations qui en sont tirées sont des traductions), expriment leur soutien à l’approche proposée et offrent un point de vue utile sur les questions de sondage contenues dans le document de consultation du gouvernement.

Les sections affirment d’emblée que l’IA modifie rapidement notre conception de la réalité. Le traité proposé représente un effort essentiel pour mettre en place une législation universelle régissant l’IA dans le but de protéger les droits de la personne, la démocratie et la primauté du droit.

Le traité proposé est compatible avec les champs d’intérêt et les valeurs du Canada, et cette proposition de législation globale servirait bien le pays.

Comme les citoyens et les citoyennes ne peuvent pas se soustraire à leurs relations avec leurs administrations publiques, il est essentiel que le traité s’applique à ce secteur. « Les citoyens et les citoyennes qui sont insatisfaits de l’utilisation de l’IA par leurs gouvernements ne peuvent pas choisir de faire affaire avec quelqu’un d’autre comme ils peuvent le faire dans le cadre de leurs relations avec les entreprises du secteur privé. Le devoir de prudence et de diligence est donc plus élevé. »

Bien entendu, le traité doit également s’appliquer au secteur privé. « Les lois doivent jouer un rôle central pour combler le fossé croissant entre l’éthique et le juridique, et donner une nouvelle vie à nos droits, nos libertés et nos protections juridiques fondamentaux alors que nous réorientons notre existence dans un monde numérique », peut-on lire dans le mémoire.

L’une des critiques formulées à l’encontre du traité proposé est qu’il ne souligne pas le fait que les personnes migrantes constituent un segment vulnérable de la population mondiale qui est grandement touché par le déploiement de l’IA, compte tenu de la manière dont celle-ci contribue à aggraver les fossés et les discriminations raciaux, socioéconomiques et politiques. Les personnes migrantes devraient être identifiées comme groupe vulnérable à l’article 17.

« Comme l’IA influence de plus en plus les décisions majeures en matière d’immigration, il devient important d’accorder la priorité au bien-être et aux droits individuels », écrivent les sections. La définition de l’IA figurant à l’article 3 du traité proposé est complète et tient compte des nuances de la technologie.

Comme le soulignent les sections, pour respecter l’article 20 du traité proposé sur les compétences numériques, nous devons nous assurer que tout le monde a un accès égal aux outils, comme des téléphones fiables, des ordinateurs et Internet. « L’accès est essentiel pour respecter les principes fondamentaux d’équité et d’égalité devant la loi et prévenir le développement d’un fossé numérique » dans le cadre de l’évaluation de l’application de l’IA aux dossiers d’immigration. En outre, les procédures devraient être ouvertes et transparentes en ce qui concerne les raisons et les mesures prises pour évaluer chaque dossier.

L’article 7 du traité proposé, qui traite de la transparence et du contrôle, devrait également aborder l’explicabilité. « En fonction du mécanisme de transparence, les algorithmes devraient être conçus pour permettre d’expliquer leur processus et leurs décisions, écrivent les sections. Les utilisateurs peuvent ainsi voir le raisonnement et contester les décisions si une étape ou une procédure est contraire à la loi. »

Reconnaissance faciale, biométrie et droits de la personne

Le mémoire de l’ABC note qu’à ce sujet, la Loi sur l’intelligence artificielle de l’Union européenne recoupe dans une certaine mesure le traité proposé, en cherchant à établir une norme et des règles mondiales en matière de reconnaissance faciale, de surveillance biométrique et d’autres applications de l’IA. Ce cadre prévoit quatre niveaux de risque : inacceptable, élevé, limité et minime.

Selon les sections, l’hypertrucage et la désinformation numérique constituent des menaces importantes. « À mesure que la technologie d’hypertrucage se raffine et que l’authenticité devient plus difficile à déterminer, nous risquons de voir les fondements de la loi et de la société s’éroder. » C’est pourquoi l’article 4 du traité proposé doit faire l’objet d’une plus grande attention et envisager la nécessité d’un moratoire sur ce type de technologie.

Responsabilité civile et pénale

« Nous ne pouvons pas nous en tenir à des sanctions civiles pour les préjudices et la discrimination numériques, souligne le mémoire de l’ABC. Des conséquences pénales doivent être mises au point et appliquées dans les cas où elles sont nécessaires. » À cet égard, nous devrions nous inspirer des pouvoirs conférés à un tribunal par la Loi sur l’immigration et la protection des réfugiés pour engager la responsabilité pénale dans le but de dissuader les délits en matière d’IA et d’envoyer un message clair selon lequel la mauvaise gestion de l’IA et du numérique ont des conséquences graves.

Autres questions

Les sections estiment que l’utilisation croissante du profilage numérique nécessite une attention immédiate, car, combinée à l’apprentissage automatique, elle ouvre la porte d’une nouvelle ère de racisme scientifique. « Les principes fondamentaux de l’apprentissage automatique en matière de compréhension des images indiquent comment les ordinateurs analysent les caractéristiques physiques au moyen de calculs précis basés sur les images, en mettant l’accent sur l’approche d’apprentissage supervisé avec des exemples étiquetés, écrivent les sections. Les nuances techniques comme le réglage des paramètres, le rajustement excessif et la relation complexe entre le nombre de paramètres et les données d’apprentissage requises sont également des éléments à considérer. »

Enfin, les sections suggèrent de renforcer certaines définitions du traité proposé, comme celles de la « primauté du droit » et des « ingérence » avec les droits de la personne et les libertés fondamentales.

Le mémoire de l’ABC conclut en formulant l’espoir qu’un cadre réglementaire complet comme le traité proposé « contribuera à exploiter le potentiel de l’IA tout en réduisant le plus possible ses risques ».