Passer au contenu

Oui, robot

Mais pas au détriment des humains.

Decision flow-chart
iStock

Le recours à l’intelligence artificielle pour accroître l’efficience est une pratique sensée puisque l’automatisation des tâches routinières permet de se concentrer davantage sur celles de nature plus complexe.

Dans le contexte de l’immigration en particulier, on ne devrait jamais oublier quel est le meilleur moyen, qu’il s’agisse d’une personne ou d’une chose, de parvenir au résultat souhaité.

La Section du droit de l’immigration affirme, dans une lettre adressée au ministre de l’Immigration (uniquement en anglais), que le fait de permettre aux outils technologiques de devenir des décideurs de substitution pourrait sonner le glas du pouvoir discrétionnaire. L’intelligence artificielle et l’apprentissage machine devraient permettre aux humains de prendre des décisions en connaissance de cause et non pas se substituer à eux.

« Nous craignons que les outils de prise de décision automatisée puissent se fier à des critères fondés sur la discrimination et les stéréotypes tels que l’apparence, la religion ou les habitudes de déplacement, comme des substituts viciés à des données plus pertinentes et personnalisées, intégrant des préjudices dans un outil apparemment neutre », écrit la section.

« Les décideurs automatisés pourraient ne pas saisir la nature nuancée et complexe d’un grand nombre de demandes de statut de réfugié ou d’immigration, ce qui pourrait conduire à de graves violations des droits de la personne, tels que le droit à la protection des renseignements personnels, à l’application régulière de la loi et à l’égalité. »

Le gouvernement fédéral utilise l’intelligence artificielle et l’apprentissage machine depuis 2014 pour effectuer des tâches jusque-là assumées par des agents d’immigration, et pour appuyer le processus d’évaluation des demandes de certains immigrants et visiteurs.

Une directive gouvernementale sur la prise de décision automatisée, entrée en vigueur en avril, vise à garantir que l’intelligence artificielle est utilisée de manière à réduire les risques et à donner lieu à « une prise de décisions plus efficace, exacte et conforme, qui peut être interprétée ». Le gouvernement a également créé un outil d’évaluation de l’incidence algorithmique pour aider les ministères fédéraux à comprendre les risques liés à la prise de décision automatisée.

« Alors que nous considérons que la directive et l’évaluation de l’incidence algorithmique représentent des évolutions positives, la prise de décision automatisée dans le contexte de l’immigration nous préoccupe », déclare la section dans une lettre adressée au ministre de l’Immigration.

Selon la section, tant la directive que l’évaluation de l’incidence algorithmique devraient comporter une définition plus détaillée du concept de « biais imprévus » et tendre à éliminer le préjudice fondé sur des éléments tels que le genre, la religion, la race et le pays d’origine, visés par le droit de la protection des droits de la personne.

La section exhorte Immigration, Réfugiés et Citoyenneté Canada à veiller à ce que des critères de sélection « sensibles et spécifiques » soient insérés dans les outils technologiques et tenus à jour au regard des évolutions de la législation, des instructions ministérielles et du contexte social. Elle suggère en outre un contrôle minutieux et permanent de ces outils afin de protéger les renseignements personnels des personnes qui déposent des demandes.

La section recommande également au gouvernement d’établir un organisme indépendant « doté du pouvoir et de la compétence nécessaires pour surveiller et contrôler tous les recours à la prise de décision automatisée par le gouvernement fédéral, y compris le caractère approprié des pratiques d’approvisionnement et des tractations avec le secteur privé de la technologie ».