La CCLA et Privacy International ont collaboré pour soumettre une réponse conjointe à la consultation du Commissaire à la protection de la vie privée du Canada sur leurs projets de lignes directrices concernant l’utilisation de la technologie de reconnaissance faciale par la police.

Nos soumissions soulignent nos préoccupations selon lesquelles, en l’absence d’un cadre juridique protégeant adéquatement les personnes contre les atteintes à la vie privée et les impacts discriminatoires que facilite la reconnaissance faciale, et en l’absence d’un débat public approfondi non pas sur le « comment » mais sur le « si » cette technologie a un rôle à jouer dans les applications de sécurité publique, ces lignes directrices risquent de légitimer un outil très dangereux.

Comme nous le notons dans les soumissions :

Par conséquent, bien que nous répondions de manière constructive dans cette soumission aux questions concernant le texte du projet de lignes directrices, nous tenons à préciser dès le départ que nous croyons qu’il devrait y avoir un moratoire sur la RFT à des fins policières en l’absence d’une législation complète et efficace

  • fournit un cadre juridique clair à son utilisation,
  • comprend des dispositions rigoureuses sur la responsabilité et la transparence,
  • nécessite une surveillance indépendante, et
  • crée des moyens efficaces d’application en cas de non-conformité.

Nous adoptons également la position que l’utilisation de la TRF à des fins de surveillance de masse, c’est-à-dire la reconnaissance faciale largement déployée dans des espaces publics ou accessibles au public pour identifier les individus, présente un tel potentiel d’abus et crée un risque si grave pour les droits humains qu’il n’existe aucun cadre, ni technique ni juridique, qui pourrait éradiquer la menace.

Pour en savoir plus :

Comment la reconnaissance faciale est-elle utilisée au Canada? Lisez notre rapport.
Que disent les organisations de défense des droits à travers le monde à propos de la reconnaissance faciale?
Qu’est-ce que la CCLA a fait d’autre en lien avec la reconnaissance faciale?
Plus d’informations de Privacy International sur la reconnaissance faciale.

Téléchargez ici les soumissions complètes de la consultation.

 

Réponse à la consultation : Projet de lignes directrices sur la confidentialité concernant la reconnaissance faciale pour les agences
policières21 octobre 2021

Brenda McPhail
, Ph.D. Directrice
de la vie privée, Association
canadienne des libertés civiles, 90, avenue Eglinton E., Suite 900, Toronto
, ON, M4P, 2Y3
, Téléphone : 416-646-1406
www.ccla.org

Lucie Audibert
, agente
juridique, Confidentialité International
, 62 Britton Street
EC1M 5UY Londres
, Royaume-Uni
, www.privacyinternational.org

Introduction

L’Association canadienne des libertés civiles (« CCLA ») et Privacy International (« PI ») accueillent favorablement l’occasion de fournir cette réponse au projet de directives sur la reconnaissance faciale pour les services policiers.

La CCLA est une organisation indépendante, non gouvernementale, non partisane et à but non lucratif, qui défend les libertés civiles à l’échelle nationale. Fondée en 1964, la CCLA et ses membres promeuvent le respect et la reconnaissance des droits humains fondamentaux et des libertés civiles. Depuis cinquante ans, la CCLA plaide des causes d’intérêt public devant les cours d’appel, aide les gouvernements canadiens dans l’élaboration de la législation et publie des commentaires d’experts sur l’état du droit canadien. La technologie de reconnaissance faciale aborde les questions de vie privée, de surveillance, d’égalité et potentiellement d’autres libertés fondamentales, y compris les droits à la liberté d’expression, de réunion et d’association, qui sont tous au cœur de notre mandat.

En tant qu’organisation de la société civile, la perspective de la CCLA sur la technologie de reconnaissance faciale, ou comme on l’appelle souvent, l’empreinte faciale, repose sur notre mandat de protection des droits et libertés des individus. Notre expérience inclut l’engagement, par l’entremise de nos réseaux internationaux, dans les débats généralisés qui ont lieu dans des juridictions à travers le monde concernant les risques et bénéfices qui pourraient découler de la prolifération des applications de reconnaissance faciale dans les applications des forces de l’ordre et de sécurité nationale.1 Nous sommes heureux d’avoir l’occasion de collaborer avec des collègues de Privacy International pour soumettre cette soumission à cette consultation.

Privacy International (« PI ») est une organisation à but non lucratif et non gouvernementale basée à Londres qui mène des recherches, défend et plaide à l’échelle mondiale contre les abus gouvernementaux et corporatifs des données et de la technologie. PI est fréquemment sollicité pour fournir des témoignages d’experts devant des comités parlementaires et gouvernementaux à travers le monde sur des questions de vie privée et a conseillé et rapporté, entre autres, au Parlement britannique, au Conseil de l’Europe, au Parlement européen, à l’OCDE et à l’ONU. PI agit également régulièrement comme demandeur ou intervenant dans des affaires impliquant le droit à la vie privée, ayant déjà agi devant les tribunaux du Royaume-Uni, de la Colombie, du Kenya, de la France, de l’Allemagne, des États-Unis, ainsi qu’à la Cour européenne des droits de l’homme.

PI collabore régulièrement avec les autorités au Royaume-Uni et à l’étranger pour avertir des risques liés à la technologie de reconnaissance faciale et pour s’assurer que toute utilisation est légale et respecte les droits fondamentaux.2 Plus récemment, nous avons déposé des plaintes juridiques auprès des autorités de protection des données dans cinq pays européens contre la société de web scraping et de reconnaissance faciale Clearview AI, ainsi que contre l’utilisation de sa technologie par les autorités policières.3 Nous saluons les efforts du Commissaire pour renforcer ce cadre concernant l’utilisation de la reconnaissance faciale par la police, et nous sommes très reconnaissants envers le Commissaire et la CCLA pour cette opportunité de partager nos points de vue.

Nos réponses répondent de manière sélective aux questions soulevées dans l’avis de consultation.

Cadre de l’initiative

Ces lignes directrices présentent à la fois des opportunités et des risques. Les organismes canadiens d’application de la loi ont été un peu plus prudents dans l’adoption de la technologie de reconnaissance faciale (FRT) que leurs pairs aux États-Unis ou au Royaume-Uni, mais comme l’a démontré le fiasco de l’IA de Clearview4, il existe un intérêt important à expérimenter et à intégrer cette technologie dans une gamme d’activités policières dans les forces à travers le Canada. Il est opportun que le Bureau du commissaire à la protection de la vie privée du Canada et ses collègues provinciaux saisissent l’occasion de publier des directives afin de s’assurer que l’approvisionnement, les tests et l’utilisation de la TRF par les services policiers respectent les lois sur la vie privée, respectent la Charte des droits et libertés, et ne sont menés qu’avec une attention particulière aux meilleures pratiques et principes en matière de vie privée. Le risque d’émettre de telles lignes directrices est cependant que la conversation se concentre ensuite sur la « manière » d’utiliser la technologie de manière respectueuse des droits, plutôt que sur le « si » il est possible de le faire. Chez CCLA et PI, nous croyons que la question du « si » devrait toujours être au cœur des débats publics sur cette technologie controversée, risquée et souvent raciste.5 C’est particulièrement vrai compte tenu de la prise de conscience canadienne du racisme systémique qui a suivi le meurtre de George Floyd, qui a eu des répercussions au Canada jusqu’à la revitalisation des débats sur la réaffectation et le retrait des fonds à la police.6

Par conséquent, bien que nous répondions de manière constructive dans cette soumission aux questions concernant le texte du projet de lignes directrices, nous tenons à préciser dès le départ que nous croyons qu’il devrait y avoir un moratoire sur la RFT à des fins policières en l’absence d’une législation complète et efficace

  • fournit un cadre juridique clair à son utilisation,
  • comprend des dispositions rigoureuses sur la responsabilité et la transparence,
  • nécessite une surveillance indépendante, et
  • crée des moyens efficaces d’application en cas de non-conformité.

Nous soutenons en outre que l’utilisation de la TFR à des fins de surveillance de masse, c’est-à-dire la reconnaissance faciale largement déployée dans les espaces publics ou accessibles au public pour identifier les individus, présente un potentiel d’abus si élevé et crée un risque si grave pour les droits humains qu’il n’existe aucun cadre, ni technique ni juridique, qui pourrait éradiquer cette menace.7 Nous notons que le Parlement européen, dans le cadre de ses délibérations autour de la proposition de Loi sur l’intelligence artificielle8, a récemment voté en faveur de l’interdiction de la surveillance de masse biométrique et a appelé à interdire l’utilisation de bases de données privées de reconnaissance faciale.9

Répondre aux questions de consultation

Cette directive aura-t-elle l’effet escompté d’aider à s’assurer que l’utilisation des FR par les services policiers est légale et atténue adéquatement les risques pour la vie privée? Si tu ne crois pas que ça arrivera, pourquoi?
Ces directives peuvent-elles être mises en œuvre de façon concrète?

Ces directives peuvent aider en demandant aux corps policiers de considérer une série de facteurs importants et de principes fondamentaux en matière de vie privée dans l’ensemble des autorités légales pertinentes à l’utilisation de la TVR. Il est rendu nécessaire mais insuffisant par la réalité que la législation canadienne actuelle est lamentablement insuffisante pour traiter les préjudices potentiels à la vie privée, ainsi que les préjudices aux droits et libertés pour lesquels la vie privée sert de seuil ou de droit d’entrée, de cette technologie. Et c’est dans cette affirmation que réside le problème; bien que les directives puissent aider à garantir que l’utilisation de la FRT par les agences policières soit légale dans le contexte juridique actuel, la simple conformité légale sera insuffisante pour atténuer pleinement les risques pour les droits, y compris les droits à la vie privée, liés à l’ensemble des usages potentiels de la FR dans la police.

Cette mise en garde est devenue évidente lorsque la CCLA a eu le privilège de participer à une réunion organisée par le Commissaire à l’information et à la vie privée de l’Ontario le 16 septembre 2021, accompagné de représentants des corps policiers et des ministères du procureur général et du solliciteur général. Bien que ce résumé direct nuise à la conversation constructive qui a eu lieu, il n’est pas déraisonnable de décrire une division brutale entre les participants universitaires et de la société civile, qui se demandaient si les lignes directrices allaient assez loin, et ceux ayant une responsabilité plus directe en matière de police, qui exprimaient généralement des préoccupations que les lignes directrices allaient plus loin à certains égards que ce que justifiait la législation actuelle.

Ce n’est pas une raison de réduire les aspects aspirants des lignes directrices ou des recommandations fondées sur les meilleures pratiques en matière de vie privée, y compris l’importance d’une analyse de nécessité et de proportionnalité lorsqu’on considère une surveillance publique intrusive. Mais cela indique que la mise en œuvre pratique peut être, au mieux, incohérente. C’est particulièrement vrai étant donné que le conseil aux corps policiers pour naviguer dans l’ensemble véritablement complexe d’autorités juridiques, incluant l’autorité statutaire et de common law pour les pouvoirs policiers, les lois fédérales ou provinciales pertinentes sur la vie privée, et la Charte des droits et libertés, est de consulter un avocat. À titre pragmatique, cela a du sens. En tant que stratégie efficace d’atténuation des risques pour les droits, elle échoue pour deux raisons.

Premièrement, tout conseil de ce type sera soumis au secret professionnel entre avocat et client et, à ce titre, sera entièrement tenu à l’écart de la vue publique. De tels conseils peuvent être bons ou excellents (ou ni l’un ni l’autre), ils peuvent être efficaces et strictement respectés ou ignorés, ils peuvent reposer sur une évaluation rigoureuse des protections accordées par chaque autorité juridique à analyse, ou se heurter à la jurisprudence sous-développée dans ce domaine, ce qui semble susceptible de rendre la certitude juridique quant aux nuances de l’utilisation de la TTF insaisissable pour un avenir prévisible. Mais le public ne le saura jamais. Au mieux, comme dans l’affaire Cadillac Fairview, il faudra une enquête de l’OPC pour révéler qu’il y a eu une interprétation discutable de la loi sur la vie privée de la part d’un acteur du secteur privé.10 Au pire, il n’y aura ni plainte, ni enquête, ni réparation pour une infraction fondée sur de telles interprétations privilégiées. En effet, l’opacité prédite des évaluations juridiques que les lignes directrices indiquent devant avoir lieu avant l’utilisation de la FRT laisserait le public sans aucune compréhension des façons dont les organes policiers ont accordé une considération raisonnable aux droits humains, y compris les droits à la vie privée, et aucun moyen d’évaluer si ces considérations se sont ou non appliquées aux processus d’acquisition et d’utilisation de la technologie.

Deuxièmement, dans tous ces cas, il existe une véritable question quant à la cohérence avec laquelle les directives peuvent être interprétées dans de telles circonstances. À cet égard, la CCLA salue la soumission à la consultation actuelle des professeures Lisa Austin et Andrea Slane, qui expliquent la complexité du paysage juridique pertinent à l’utilisation de la TTR par la police.11 Les personnes à travers le Canada méritent des protections égales et cohérentes pour leurs droits si les forces policières utilisent la TRV. Une obligation de « demander à votre avocat » dans cet environnement juridique incertain, pour cette technologie controversée et en évolution, ne suffira pas.

Quelles mesures ou pratiques les agences policières peuvent-elles mettre en œuvre pour s’assurer que les tiers impliqués dans les initiatives FR opèrent avec une autorité légale?

La CCLA estime qu’il est important de souligner, premièrement, que les lignes directrices sont tout à fait justes en plaçant la responsabilité sur les organismes d’application de la loi utilisant la TRF afin de s’assurer que les outils qu’ils choisissent sont conformes à toutes les lois canadiennes pertinentes. La résistance de la Gendarmerie royale du Canada (GRC) à accepter la responsabilité de s’assurer que les fournisseurs tiers respectent la loi sur la vie privée, documentée dans les conclusions de l’enquête concernant l’utilisation par la GRC de la technologie de reconnaissance faciale IA Clearview, souligne clairement la nécessité de cette disposition.12 Elle doit faire partie de chaque processus d’approvisionnement, se poursuivre jusqu’à la mise en œuvre et se poursuivre pendant toute la durée de l’utilisation de l’outil. Compte tenu du potentiel de changements technologiques dans les logiciels tiers, une diligence continue concernant la conformité est particulièrement importante. Le manque d’expertise interne pour faire de telles évaluations peut et doit être comblé par une consultation externe indépendante avec des experts, incluant un large éventail d’intervenants communautaires. Au paragraphe 69 des directives, dernier point, nous demanderions que la participation d’experts techniques et de groupes de parties prenantes soit considérée comme obligatoire plutôt qu’une simple option, comme le suggère actuellement la formulation « peut inclure »; Nous suggérons également que les agences policières soient tenues de démontrer dans leur rapport PIA comment elles ont collaboré avec ces experts et parties prenantes communautaires. Les directives devraient également exiger que l’évaluation de la conformité juridique et la consultation avec les parties prenantes externes soient effectuées, complétées et rapportées avant tout procès impliquant des membres du public, et bien sûr avant tout contrat et déploiement effectif d’une technologie. Les ressources nécessaires au financement de cette consultation doivent être considérées comme faisant partie des coûts d’acquisition et budgétisées en conséquence. Les organismes responsables de l’application de la loi doivent être manifestement conformes à la loi dans toutes leurs affaires si l’on veut que la confiance publique soit acquise ou méritée.

À ce sujet, PI tient à souligner que s’assurer que les tiers impliqués dans les initiatives liées à la reconnaissance faciale opèrent avec une autorité légale n’est pas la seule chose dont les agences policières devraient se rassurer. Dans ses travaux, PI observe que, alors que les autorités du monde entier cherchent à élargir leurs capacités de surveillance et à exploiter la puissance des données pour fournir des services publics, elles ont souvent recours aux services d’entreprises technologiques privées, par le biais de partenariats public-privé (« PPP »).13 Ces partenariats soulèvent de sérieuses questions en matière de droits humains concernant l’implication des acteurs privés dans l’utilisation de technologies de surveillance invasives et l’exercice de pouvoirs qui ont traditionnellement été compris comme la prérogative de l’État.

Grâce à son travail d’enquête et à celui de ses partenaires à travers le monde, PI a identifié plusieurs problèmes communs aux PPP liés à la technologie de surveillance et/ou au traitement massif des données. Pour répondre à ces enjeux, les PI ont défini des garanties correspondantes qu’ils recommandent pour leur mise en œuvre par les autorités publiques et les entreprises qui souhaitent conclure de tels partenariats. Classés entre les principes de transparence, d’approvisionnement approprié, de légalité, de nécessité et de proportionnalité, de responsabilité, de surveillance et de recours, ils cherchent ensemble à défendre les droits humains et à restaurer la confiance dans les fonctions publiques de l’État, qui sont de plus en plus externalisées à des mains privées. Les garanties visent à être aveugles à la juridiction, afin de pouvoir s’appliquer aussi largement que possible à l’échelle mondiale. Nous invitons humblement le Commissaire à examiner ces garanties proposées (et les exemples d’abus qu’ils cherchent à remédier) et à envisager comment elles pourraient être intégrées et maintenues dans ces directives pour l’utilisation de la TRF par les services policiers au Canada. Les mesures de protection n’ont pas encore été officiellement lancées et nous sollicitons actuellement les commentaires de certains partenaires avec lesquels nous travaillons à travers le monde, mais veuillez trouver un brouillon presque final comme pièce à conviction 1 de cette soumission.

Prévoyez-vous des conséquences négatives découlant des recommandations énoncées dans ces directives, et si oui, quelles sont-elles?

Dans nos commentaires d’ouverture pour cette soumission, nous avons exprimé une réserve que la simple publication de ces lignes directrices, qui abordent plus complètement le « comment » que le « si », la FRT a un rôle à jouer dans l’application de la loi respectueuse des droits, pourrait changer l’orientation des conversations publiques vers la recherche de la « meilleure » façon de permettre l’utilisation de la FRT par la police.

C’est particulièrement important à considérer, car bien que ces lignes directrices soient appropriées adressées aux organismes policiers, elles jouent aussi un rôle important dans l’éducation des citoyens sur leurs droits en lien avec la TRF. Une fois formellement en place, les lignes directrices seront utilisées par le public pour mieux comprendre les autorités légales sous lesquelles la police peut utiliser le FRT, les facteurs que la police devrait devoir évaluer avant d’acquérir le FRT, et les garanties qu’elles devraient mettre en place pour garantir que toute utilisation de la technologie soit légale. éthique et équitable.

Mais il y a un risque sérieux que mettre l’attention du public sur ces questions du « comment » empêche ou supplante un questionnement rigoureux des questions du « si » ou du « quand » qui n’ont toujours pas reçu suffisamment d’attention au Canada. Et ça compte, beaucoup, parce que la TRF est vraiment dangereuse. Sa source de données est nos visages, le signe extérieur de qui nous sommes. Elle peut fonctionner cachée, derrière des caméras, dans des infrastructures utilisées depuis assez longtemps pour être largement invisibles grâce à leur familiarité, ou en conjonction avec des bases de données d’images, comme les photos d’identité judiciaire, dont la collection est régie au moins en partie par des lois qui n’ont pas pris en compte les capacités quantitativement et qualitativement différentes de la TRF en ce qui concerne leur utilisation.14 Encore une fois, Cela est particulièrement pertinent dans le contexte de la sursurveillance systémique des peuples racialisés, qui sont par la suite plus susceptibles d’être représentés dans de telles bases de données.15

La TRF est suffisamment puissante pour avoir le potentiel de changer fondamentalement la relation entre les résidents et l’État. Elle a des implications qui vont au-delà des limites du droit de la vie privée dans le secteur public, jusqu’aux impacts sociaux de la surveillance, au marécage éthique entourant l’intelligence artificielle, à l’estompage (ou artificiellement revendiqué mais pratiquement inexistant) des frontières entre la collecte et l’utilisation de l’information dans le secteur public et privé, ainsi que les relations interconnectées entre le big data, le tri et le profilage social, et la discrimination. Une stricte adhésion à une définition technique et juridique de la vie privée, fondée sur des informations personnelles identifiables, est profondément insuffisante pour traiter les risques interconnectés pour ces droits

au départ, ils s’appuyent sur la capacité de se déplacer dans le monde sans surveillance régulière de l’État. Pourtant, les lignes directrices qui dépassent ces limites légales seront prévisiblement contestées et seront difficiles, voire impossibles, à appliquer.

Nous reconnaissons qu’il y a un rocher d’un côté et un enclume de l’autre, et ces lignes directrices se situent entre les deux. L’appétit pour l’expérimentation avec Clearview AI (41 entités au Canada étaient listées dans les données internes de l’entreprise comme ayant utilisé ce logiciel) témoigne du fait que les forces policières à travers le pays souhaitent aller de l’avant avec une forme de FRT.16 À Toronto, le Conseil des services policiers envisage une politique d’IA qui englobe la FRT et l’utilise depuis 2018. Calgary a été la première force au Canada à adopter le FRT en 2014. D’autres forces à travers le Canada ont alloué des fonds dans leur budget, exprimé de l’intérêt pour la technologie ou ont récemment finalisé des contrats avec des fournisseurs.17

Les risques de la TTF ne devraient jamais être considérés uniquement en regardant la technologie en elle-même (comme le font les lignes directrices), mais toujours en tenant compte du contexte dans lequel elle est déployée et des nombreux biens sociaux qu’elle menace. Par exemple, la technologie de Clearview AI n’est pas une simple base de données de visages consultable. C’est un outil dystopique qui libère la capacité à quiconque d’identifier quelqu’un, tant en ligne que dans le monde physique, et de combiner l’information en ligne et du monde physique pour traquer, surveiller et potentiellement traquer ou harceler de façon beaucoup plus efficace.18 Nous reconnaissons bien sûr et accueillons favorablement la conclusion du commissaire selon laquelle l’utilisation par la GRC de la technologie Clearview AI était illégale, Mais nous craignons qu’une technologie légèrement différente, déployée en meilleure conformité aux garanties procédurales, ne coche toutes les cases des directives, tout en ayant les mêmes effets inacceptables sur les droits fondamentaux.

Bien que des lignes directrices rigoureuses et complètes, comme celles-ci, semblent pragmatiquement préférables à pas de directives, le risque que leur simple existence empêche les discussions sur la question de savoir si la police devrait ou non utiliser la TRF est réel et inquiétant. C’est particulièrement vrai parce que les discussions concernant une série de demandes d’accès à l’information soumises par la CCLA concernant l’utilisation du FRT par la police à travers le pays ont indiqué que de nombreuses forces attendent l’arrivée de ces directives avant d’aller de l’avant dans l’acquisition de la technologie.

Il y a le risque lié que les lignes directrices, une fois mises en œuvre, réduisent aussi l’urgence d’un nouveau régime juridique indispensable pour régir la collecte et l’utilisation des identifiants biométriques au Canada.

Dans ce contexte, PI souhaite attirer l’attention du commissaire sur les répercussions d’un jugement de la Cour d’appel d’Angleterre et du Pays de Galles dans l’affaire Bridges c. South Wales Police.19 La Cour a conclu dans cette affaire que le déploiement de la technologie de reconnaissance faciale automatisée par la police du Sud du Pays de Galles violait plusieurs lois sur la protection des données et les lois sur l’égalité, et qu’il y avait des « lacunes fondamentales » 20 dans le cadre juridique entourant l’utilisation de la technologie. Bien que nous ayons salué ce jugement, nous avons observé que diverses forces policières s’y appuient par la suite, car elles prévoient que leur utilisation de la technologie de reconnaissance faciale peut être légale si elles développent de meilleures politiques, comme « qui » peut être placé sur une liste de surveillance et « où » la technologie peut être déployée. Les forces de police au Royaume-Uni n’ont donc pas été dissuadées d’utiliser cette technologie et certaines déploient actuellement la reconnaissance faciale en direct.21 Nous craignons donc que, malgré de nombreuses affirmations fortes sur les dangers de la TTR et la nécessité et la proportionnalité dans son utilisation, les préoccupations « faciles à corriger » et les directives sur la façon de les corriger nuisent en réalité à l’examen des questions plus sérieuses et fondamentales sur la place d’une telle technologie dans les sociétés démocratiques.

L’utilisation policière de la Règle Reçue est-elle correctement réglementée au Canada selon la loi en vigueur? Sinon, quelles sont vos préoccupations concernant la façon dont l’utilisation des FR par la police est actuellement réglementée, et quels changements devraient être apportés au cadre juridique actuel?

La CCLA soutient que l’utilisation policière de la TRF n’est pas correctement réglementée au Canada selon la législation en vigueur. Le patchwork d’instruments juridiques jugés pertinents dans les lignes directrices est insuffisant en termes de dispositions de surveillance, insuffisant dans les options d’application et insuffisant pour protéger les droits fondamentaux menacés par la surveillance biométrique, notamment la vie privée, la liberté d’expression, la liberté d’association et l’égalité.

Une loi intersectorielle sur la protection des données, fondée largement sur un cadre des droits de la personne, serait plus pertinente, surtout dans un contexte où les secteurs privé et public utilisent les mêmes technologies (souvent à des fins différentes) mais sont désormais soumis à des exigences juridiques différentes. Des lois ciblées régissant la biométrie ou, plus largement, des technologies axées ou pilotées par des algorithmes à forte intensité de données pourraient être encore mieux adaptées à leur usage, et il existe plusieurs exemples à l’échelle mondiale où une telle législation a récemment été adoptée ou est à l’étude.22 Au Canada, nous avons déjà une loi spécifique régissant l’utilisation de l’ADN par la police, donc

Le précédent a été établi concernant des données de nature très sensible et personnelle.23

Surveillance

La surveillance responsable, un terme utilisé dans un article récent du Bureau du commissaire aux caméras de surveillance du Royaume-Uni (qui est lui-même un exemple de modèle possible), est de plus en plus nécessaire à appliquer dans un monde où de nouvelles options de suivi, de surveillance et d’identification prolifèrent.24 Il y a un manque d’exigences efficaces et indépendantes de surveillance (pas seulement d’examen) et de transparence publique dans le cadre juridique actuel, ce qui laisse des écarts importants en matière de responsabilité.

Un facteur clé est un mécanisme de surveillance complet pour l’utilisation policière des technologies de surveillance, qui apporte une gamme de perspectives, y compris des forces de l’ordre et des parties prenantes civiles, pour répondre à l’ensemble des questions pertinentes à l’examen de l’utilisation potentielle de la TRF et d’autres technologies de surveillance envahissantes et basées sur les données. À cet égard, la CCLA adopte les suggestions concernant « Élaborer un cadre de surveillance adéquat » contenues dans la soumission à cette consultation des professeurs Austin et Slane pour la création d’un organisme de surveillance indépendant et externe ainsi que des processus corrélés.25

Application de la loi

L’application de la loi est un domaine susceptible d’être amélioré dans le cadre des lois actuelles sur la vie privée. Bien que la police soit une responsabilité provinciale et que la plupart des forces policières soient régies par des lois provinciales ou municipales sur la vie privée, les lois fédérales régissent la GRC. Ici, nous ne traitons que des améliorations requises à la législation fédérale pertinente sur la vie privée.

Le Bureau du commissaire à la protection de la vie privée du Canada, seul et en collaboration avec les commissaires provinciaux, a récemment mené trois enquêtes concernant l’analyse faciale et la technologie de reconnaissance faciale, et a tiré des conclusions détaillées. Dans chacun de ces cas, il y avait des dispositions dans nos lois fédérales actuelles sur le secteur public et privé qui s’appliquaient et permettaient des conclusions ciblées, mais aucune conséquence autre que de nommer et de faire honte. Dans chaque cas, les personnes sous enquête ont contesté ou contesté des recommandations, et le manque de pouvoirs d’exécution, y compris l’absence de pouvoirs contraignants pour l’ordonnance, pour le commissaire fédéral signifiait qu’aucune sanction administrative ne pouvait être appliquée. Le projet de loi C-11 n’aurait pas résolu ce problème et il reste à voir si la prochaine loi sur la confidentialité du secteur privé proposée sera adaptée à cette fin.

La récente consultation concernant la modernisation de la Loi canadienne sur la protection de la vie privée a soulevé des questions concernant la nécessité de donner au commissaire à la protection de la vie privée le pouvoir d’émettre des ordonnances, d’élargir la compétence de contrôle de la Cour fédérale pour englober les questions relatives à la collecte, à l’utilisation, à la divulgation, à la conservation et à la protection des renseignements personnels, et à l’ajout de nouvelles infractions pour les violations graves de la Loi.26 Ces mesures sont nécessaires pour la fonction de révision de la police nationale canadienne par l’OPC, la GRC, pour gagner en efficacité.

Protection des droits fondamentaux

Il existe des risques pour les droits inhérents à la RFT, et plus largement, à la prise de décision axée sur des algorithmes, aux algorithmes inférentiels, et à une gamme d’autres technologies biométriques potentielles qui pourraient être utilisées pour faciliter la surveillance à distance, et dont les impacts vont au-delà de la vie privée pour potentiellement porter atteinte à un large éventail de droits protégés par la Charte. Un accent mis sur la régulation de l’utilisation d’informations individuelles et personnellement identifiables ne peut pas totalement atténuer ces risques, qui peuvent aussi s’appliquer à des groupes socialement triés à partir d’une gamme de données personnelles et inférées, et soumis à un traitement différencié de manière subtile et cumulative plutôt que directe et ciblée. La gamme recommandée de perspectives nécessaires à considérer pour déterminer comment réglementer les impacts diffus et socialement corrosifs de la surveillance sans restriction est bien exprimée par le commissaire actuel aux caméras de surveillance au Royaume-Uni :

  1. Ce qui est technologiquement possible (ce qui peut être fait)
  2. Ce qui est légalement permis (ce qui doit ou ne doit pas être fait) et
  3. Ce qui est socialement acceptable (ce que les communautés toléreront et soutiendront).27

La nécessité d’un cadre pour soutenir les protections des droits fondamentaux au-delà du seul champ des droits à la vie privée appuie l’appel à un organisme de surveillance indépendant, externe et multidisciplinaire pour l’utilisation policière des technologies de surveillance basées sur les données, y compris la TRF, comme recommandé ci-dessus.

L’utilisation de la RF par la police, y compris la collecte d’empreintes faciales, devrait-elle être limitée à un ensemble défini d’objectifs (comme des crimes graves ou des raisons humanitaires, par exemple des personnes disparues)? Devraient-ils pouvoir utiliser ou conserver des empreintes faciales au-delà de celles des personnes arrêtées ou condamnées?

Le FRT devrait être illégal s’il est déployé en masse ou de manière indiscriminée (c’est-à-dire en adoptant une approche de surveillance de masse).

Y a-t-il des circonstances où la police ne devrait jamais être autorisée à utiliser la RF, ou des applications spécifiques de la FR qui ne devraient pas être permises (par exemple, des « zones interdites » comme le grattage indiscriminé d’images d’Internet)? Devrait-il y avoir des règles spéciales (ou une interdiction contre) l’application du FR aux jeunes?

Une « zone interdite » serait aussi l’utilisation par les agences policières de systèmes FRT déployés en privé et des listes de surveillance. Par exemple, l’an dernier, PI a dénoncé les partenariats entre les forces de police au Royaume-Uni et la société Facewatch, qui vend des logiciels FRT aux magasins de détail et autres commerces et leur permet de télécharger des photos de « sujets d’intérêt » (« SOI ») afin qu’ils soient alertés lorsqu’ils entrent dans leurs locaux.28 Facewatch centralise même les listes des SOI que leurs abonnés téléchargent et peut les partager avec les entreprises abonnées environnantes. Le problème d’un tel partenariat est double : (1) il confère les pouvoirs policiers à des acteurs privés, leur permettant de décider qui est suspect ou criminel potentiel; et (2) elle élargit les domaines de la surveillance en permettant à la police d’étendre la portée de sa surveillance aux espaces privés. Nous invitons le Commissaire à mettre en garde contre l’utilisation de tels partenariats public-privé qui tendent à contourner les procédures d’approvisionnement établies et à opérer en dehors du cadre légal régissant les pouvoirs policiers, et nous nous référons à ce sujet aux garanties proposées à l’Exhibit 1 (présenté ci-dessus).

La CCLA note que cette question, ainsi que d’autres qui portent sur des permissions et protections spécifiques pour les usages de la TTR (c’est-à-dire : Quelles protections devraient être accordées aux personnes dont les informations biométriques sont incluses dans une base de données d’empreintes faciales? L’utilisation de la RF par la police, y compris la collecte d’empreintes faciales, devrait-elle être limitée à un ensemble défini d’objectifs (comme des crimes graves ou des raisons humanitaires, par exemple des personnes disparues)? Devraient-ils pouvoir utiliser ou conserver des empreintes faciales autres que celles des personnes arrêtées ou condamnées?) ce sont précisément le genre de questions que le Canada a besoin d’une autorité de surveillance indépendante, créée par la loi et multipartite, pour considérer, conformément à nos recommandations et à celles d’Austin et Slane dans la section « surveillance » ci-dessus. S’inspirant du tout nouveau Conseil législatif de la justice criminelle du Vermont en ce qui concerne la politique du FRT,29 de telles questions nécessitent une réflexion approfondie de la part d’un groupe multidisciplinaire disposant du temps, des ressources et d’un mandat spécifique pour mobiliser l’ensemble des parties prenantes afin de déterminer les bonnes réponses, pour les gens au Canada, maintenant et pour l’avenir.

La CCLA recommande en outre, comme c’est le cas au Vermont, un moratoire sur la technologie de reconnaissance faciale par les agents des forces de l’ordre jusqu’à ce que l’organisme de surveillance proposé ait eu la chance d’examiner et de répondre à ces questions et à d’autres, et ait formulé ses recommandations pour une politique fédérale/provinciale/territoriale concernant l’acquisition et l’utilisation de la FRT par les forces de l’ordre.

Y a-t-il d’autres questions politiques importantes qui devraient être abordées en lien avec l’utilisation de la FR par la police?

Cela inclut, par exemple, des enjeux juridiques, éthiques ou sociaux émergents liés au développement et à la mise en œuvre de bases de données d’empreintes faciales par la police. Si oui, quels sont ces enjeux et comment recommandez-vous qu’ils devraient être abordés?

Felix Stalder, dans un article d’opinion judicieusement intitulé « La vie privée n’est pas l’antidote à la surveillance », note que la surveillance est « un problème structurel du pouvoir politique. » 30 Nous accordons à nos agences d’application de la loi des pouvoirs extraordinaires d’enquête, d’arrestation et de détention pour faire respecter l’état de droit. En retour, la reddition de comptes efficace et la transparence doivent constituer un élément clé de la structure qui soutient la police dans ses pouvoirs. La TTF et d’autres technologies de surveillance intensives en données ont le potentiel d’anéantir la vie privée, de rendre impossible la circulation dans l’espace public sans surveillance, non catégorisée, non identifiée.

Il est raisonnable de noter ici, dans une section finale sur les enjeux émergents liés au développement de bases de données d’empreintes faciales par la police, les cinq caractéristiques distinctives de la TTR par Woodrow Hartzog et Evan Selinger qui la distinguent des autres technologies de biométrie et de surveillance basée sur les données. Premièrement, ils notent que les visages sont difficiles à cacher, difficiles à modifier, ne peuvent pas être chiffrés et peuvent être capturés à distance, de manière discrète et à distance. Deuxièmement, il existe un ensemble existant de bases de données héritées contenant des images, incluant des permis de conduire, des passeports, des photos d’arrestation, des profils sur les réseaux sociaux, tous créés à d’autres fins, légalement autorisés ou consentis, tous potentiellement exploitables. Troisièmement, les données saisies sont des images facilement collectées par la technologie actuelle — caméras de surveillance, caméras corporelles, caméras embarquées — des outils sur le terrain en ce moment. Cela peut se produire derrière la technologie de caméra que le public voit et connaît, de façon invisible. Quatrièmement, il identifie le risque de « glipping point creep » comme un passage d’une analyse statique, après coup, à une analyse préventive en direct, est technologiquement relativement simple et probable, à mesure que l’acculturation sociale à la technologie se produit. Enfin, les visages font partie de notre identité fondamentale, en ligne et hors ligne, reliant ce que Hartzog et Selinger appellent nos « activités de vrai nom, anonymes et pseudonymes ». 31

Ces cinq caractéristiques mettent en lumière la puissance structurelle potentielle de la technologie FR, utilisée par les forces de l’ordre. Le FRT utilise notre visage contre nous dans les contextes policiers. Ça peut, et va généralement arriver, de façon secrète. Il s’appuie sur une gamme de bases de données héritées; Les bases de données de photos d’identité judiciaire en particulier portent leur propre héritage en raison des arrestations et accusations disproportionnées bien documentées des personnes noires et autochtones.32 Cela peut être en direct ou rétroactif; Si c’est le second cas, toute image prise à tout moment dans n’importe quelle circonstance pourrait être utilisée comme comparateur dans des contextes où, même si l’acquisition était « légale » au moment et dans les circonstances, elle aurait pu se produire sans aucune compréhension ou anticipation publique d’une telle utilisation.

Il y a une tendance inquiétante dans les discussions autour de l’utilisation de la FRT par les forces de l’ordre à parler d’usages « non controversés » ou même « courants », comme la comparaison d’images capturées avec une base de données de photos d’identité judiciaire, par opposition à des usages « controversés » comme l’utilisation de FRT en lieu public. Mais les usages actuels ne sont pas « sans controverse », les organismes d’application de la loi se sont tout simplement débrouillés jusqu’à présent. Par exemple, à Toronto, tout a commencé avec un projet pilote secret qui est devenu public lorsqu’un journaliste a remarqué un reportage dans un ensemble de polices techniquement publiques, mais pratiquement obscures

Procès-verbal du conseil. Au moment où cela a été révélé, le Service de police de Toronto avait déjà décidé de procéder à une mise en œuvre complète de la technologie.33 Il peut y avoir un éventail d’utilisations, un concept qui a émergé lors de la table ronde du Code indien de l’Ontario mentionnée précédemment, mais aucune partie de ce spectre ne soit exempte de risques pour la vie privée ou de questions sociales pressantes sur les impacts discriminatoires.

Le Canada a besoin d’un débat public sur le FRT. Les discussions autour des lignes directrices qui font l’objet de cette consultation ont amorcé ce processus, mais seulement auprès d’un petit groupe de forces de l’ordre, d’acteurs de la société civile, d’universitaires et de régulateurs de la vie privée, et non de nos représentants démocratiquement élus, ni du grand public. Il faut en savoir plus. Comme prochaine étape de cette consultation, la CCLA estime que l’OPC est bien placée pour initier et diriger certaines de ces consultations publiques nécessaires, qui doivent inclure une composante de l’éducation publique.

La CCLA et le directeur principal sont tous deux reconnaissants d’avoir l’occasion de faire cette soumission et attendent avec impatience les discussions en cours sur la technologie de reconnaissance faciale ainsi que sur ses contraintes et réglementations appropriées.

Notes de bas de page

À propos de l’Association canadienne des libertés civiles

La CCLA est une organisation indépendante à but non lucratif avec des partisans de partout au pays. Fondée en 1964, la CCLA est une organisation nationale de défense des droits humains engagée à défendre les droits, la dignité, la sécurité et les libertés de toutes les personnes au Canada.

Pour les médias

Pour plus de commentaires, veuillez nous contacter à media@ccla.org.

Pour des mises à jour en direct

Veuillez continuer à consulter cette page et nos plateformes de médias sociaux. Nous sommes sur Instagram, Facebook, Twitter et Blue Sky.

DONATE
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.