L’ASFC utilisera la reconnaissance faciale pour les personnes menacées d’expulsion

Anja Karadeglija, La Presse Canadienne
L’ASFC utilisera la reconnaissance faciale pour les personnes menacées d’expulsion

OTTAWA — L’Agence des services frontaliers du Canada (ASFC) prévoit mettre en œuvre une application qui utilise la technologie de reconnaissance faciale pour suivre les personnes qui ont reçu l’ordre d’être expulsées du pays.

L’application mobile de signalement utiliserait la biométrie pour confirmer l’identité d’une personne et enregistrerait ses données de localisation lorsqu’elle utilise l’application pour s’enregistrer. Des documents obtenus grâce à la Loi sur l’accès à l’information indiquent que l’ASFC a proposé une telle application dès 2021.

Une porte-parole a confirmé qu’une application appelée ReportIn sera lancée cet automne.

Les experts signalent de nombreuses inquiétudes, remettant en question la validité du consentement de l’utilisateur et le secret potentiel entourant la façon dont la technologie prend ses décisions.

Chaque année, environ 2000 personnes qui ont reçu l’ordre de quitter le pays ne se présentent pas, ce qui signifie que l’ASFC «doit consacrer des ressources considérables à enquêter, localiser et, dans certains cas, détenir ces clients», indique un document de 2021.

L’agence a présenté une application pour téléphone intelligent comme une «solution idéale».

Des mises à jour régulières

L’application permet à l’ASFC de recevoir régulièrement des mises à jour sur l’adresse résidentielle, l’emploi, la situation familiale, entre autres, d’une personne, ce qui lui permettra de disposer d’informations pertinentes qui pourront être utilisées pour contacter et surveiller le client afin de détecter tout indicateur précoce de non-conformité.

«De plus, grâce à l’automatisation, il est plus probable que le client se sente impliqué et reconnaisse le niveau de visibilité de l’ASFC sur son dossier», a-t-on ajouté.

Le document indique également: «Si un client ne se présente pas pour son renvoi, les informations recueillies sur l’application fourniront de bonnes pistes d’enquête pour localiser le client.»

Une évaluation de l’impact algorithmique du projet, qui n’a pas encore été publiée sur le site web du gouvernement fédéral, indique que la technologie vocale biométrique que l’ASFC a essayé d’utiliser est en voie d’élimination en raison d’une «technologie défaillante», et qu’elle a développé l’application ReportIn pour la remplacer.

Elle indique que les «données biométriques faciales et la localisation d’une personne, fournies par des capteurs et/ou le GPS de l’appareil mobile/téléphone intelligent» sont enregistrées sur l’application ReportIn puis envoyées au système de l’ASFC. Une fois que les personnes soumettent des photos, un «algorithme de comparaison faciale» génère un score de similarité avec une photo de référence.

Si le système ne confirme pas une correspondance faciale, il déclenche un processus permettant aux agents d’enquêter sur l’affaire.

«La localisation des individus est également collectée à chaque fois qu’ils se présentent et si l’individu ne respecte pas ses conditions», est-il indiqué. Le document précise que les individus ne seront pas «constamment suivis».

Amazon se veut rassurant

L’application utilise la technologie d’Amazon Web Services. C’est un choix qui a retenu l’attention de Brenda McPhail, directrice du programme de politique publique dans la société numérique de l’Université McMaster.

Elle a déclaré que si de nombreuses entreprises de reconnaissance faciale soumettent leurs algorithmes à des tests auprès du National Institute of Standards and Technology des États-Unis, Amazon ne l’a jamais fait volontairement.

Un porte-parole d’Amazon Web Services a déclaré que sa technologie Amazon Rekognition est «testée de manière approfondie, notamment par des tiers comme Credo AI, une entreprise spécialisée dans l’IA responsable, et iBeta Quality Assurance».

Le porte-parole a ajouté qu’Amazon Rekognition est un «système nuagique à grande échelle et qu’il n’est donc pas téléchargeable comme décrit dans les directives de participation du (National Institute of Standards and Technology)».

«C’est pourquoi notre Rekognition Face Liveness a plutôt été soumis à des tests par rapport aux normes de l’industrie au laboratoire iBeta», qui est agréé par l’institut en tant que laboratoire de test indépendant, a déclaré le porte-parole.

Un algorithme secret

Le document de l’ASFC indique que l’algorithme utilisé sera un secret commercial. Dans une situation qui pourrait avoir des conséquences qui pourraient changer la vie, Mme McPhail s’est demandé s’il était «approprié d’utiliser un outil protégé par des secrets commerciaux ou des secrets exclusifs et qui prive les gens du droit de comprendre comment les décisions les concernant sont réellement prises».

Kristen Thomasen, professeure agrégée et titulaire de la Chaire de droit, de robotique et de société à l’Université de Windsor, a déclaré que la référence aux secrets commerciaux est un signal qu’il pourrait y avoir des obstacles juridiques bloquant les informations sur le système.

On craint depuis des années que les personnes soumises à des erreurs dans les systèmes soient légalement interdites d’obtenir plus d’informations en raison de la protection de la propriété intellectuelle, a-t-elle expliqué.

Maria Ladouceur, porte-parole de l’ASFC, a déclaré que l’agence «a développé cette application pour téléphone intelligent pour permettre aux ressortissants étrangers et aux résidents permanents soumis à des conditions d’application de la loi en matière d’immigration de se présenter sans se rendre en personne dans un bureau de l’ASFC».

Elle a déclaré que l’agence «a travaillé en étroite collaboration» avec le Commissariat à la protection de la vie privée sur l’application.

«L’inscription à ReportIn sera volontaire et les utilisateurs devront consentir à la fois à l’utilisation de l’application et à l’utilisation de leur image pour vérifier leur identité».

Petra Molnar, directrice adjointe du Laboratoire de droit des réfugiés de l’Université York, a déclaré qu’il existe un déséquilibre de pouvoir entre l’agence qui met en œuvre l’application et les personnes qui la reçoivent.

«Une personne peut-elle vraiment consentir dans cette situation où il existe un énorme différentiel de pouvoir?»

Si une personne ne consent pas à participer, elle peut se présenter en personne comme alternative, a indiqué Mme Ladouceur.

Des risques d’erreur

Kristen Thomasen a également averti qu’il existe un risque d’erreur avec la technologie de reconnaissance faciale, et que ce risque est plus élevé pour les personnes racialisées et les personnes à la peau plus foncée. Mme Molnar estime qu’il est «très troublant qu’il n’y ait pratiquement aucune discussion sur les impacts sur les droits de la personne dans les documents».

La porte-parole de l’ASFC a noté que Credo AI avait examiné le logiciel pour déceler les biais à l’encontre des groupes démographiques et avait constaté un taux de correspondance faciale de 99,9 % dans six groupes démographiques différents, ajoutant que l’application «sera continuellement testée après son lancement pour évaluer sa précision et ses performances».

La décision finale sera prise par un humain, les agents supervisant toutes les soumissions, mais les experts ont noté que les humains ont tendance à faire confiance aux jugements rendus par la technologie.

Mme Thomasen dit qu’il existe une «tendance psychologique assez largement reconnue chez les gens à s’en remettre à l’expertise du système informatique», ce dernier étant perçu comme étant moins biaisé ou plus précis.

Partager cet article
S'inscrire
Me notifier des
guest
0 Commentaires
Inline Feedbacks
Voir tous les commentaires