Clearview AI a enfreint la loi canadienne en fouillant sur Internet 3 milliards de photos de personnes, dont possiblement des millions de Canadiens, en créant des identifiants biométriques à partir de ces photos, et en vendant son outil de reconnaissance faciale aux forces de police partout au Canada. C’était une surveillance de masse. C’était illégal. Voici les conclusions de l’enquête conjointe menée par les commissaires fédéraux, de la Colombie-Britannique, de l’Alberta et du Québec à la protection de la vie privée, publiée le 3 février 2021. Et les forces de police à travers le pays utilisaient les outils de reconnaissance faciale Clearview, sans diligence raisonnable ni transparence publique.
Le rapport d’enquête d’aujourd’hui est accablant et explicite : Clearview AI est responsable d’avoir vendu un outil qui viole flagrantement la loi canadienne. Cela repose en partie sur le concept de consentement significatif et éclairé, un principe au cœur de notre droit. Extraire des images, contrairement aux conditions d’utilisation de plusieurs plateformes, et les utiliser à des fins que les personnes qui publient une photo pour grand-maman ne pourraient jamais imaginer, subvertit le consentement. Il n’est pas vrai que toute l’information publiée en ligne est libre et permise pour des usages secondaires. Quand les gens publient de l’information, ils le font en s’attendant raisonnablement à ce que les règles de la plateforme soient respectées et que leurs informations soient utilisées à des fins convenues, et non récupérées par des tiers aléatoires pour des fins complètement différentes. Le rapport indique clairement : « Les informations recueillies sur des sites publics, tels que les médias sociaux ou les profils professionnels, puis utilisées à des fins non liées, ne relèvent pas de l’exception « accessible au public » de la PIPEDA, PIPA AB ou PIPA BC. Cette information n’est pas non plus « publique par la loi », ce qui l’exempterait de la loi québécoise sur le secteur privé… ». En d’autres mots, toutes les lois sur la vie privée du secteur privé au Canada exigeraient le consentement, et Clearview ne l’avait pas.
L’autre conclusion clé est que Clearview a utilisé des renseignements personnels de personnes au Canada (y compris des enfants) à des fins inappropriées, ce qui signifie que même si elles avaient obtenu leur consentement (et ce n’est pas le cas), l’utilisation resterait illégale. Les commissaires ont déclaré que « la collecte massive d’images… représente l’identification et la surveillance massives d’individus par une entité privée dans le cadre d’une activité commerciale » à des fins « qui « seront souvent au détriment de la personne dont les images sont capturées » et « créeront un risque significatif de préjudice pour ces individus, dont la grande majorité n’a jamais été et ne sera jamais impliquée dans un crime. »
Les commissaires ont recommandé à Clearview de cesser d’offrir son outil de reconnaissance faciale au Canada; cesser de collecter, d’utiliser ou de divulguer des images et des réseaux biométriques faciaux provenant d’individus au Canada; et supprimer les images et les représentations faciales de ces individus. Clearview a expressément contesté les conclusions et ne s’est pas engagé à suivre les recommandations, bien qu’ils aient annoncé leur retrait du marché canadien avant la publication de ce rapport.
L’enquête du commissaire s’est concentrée sur Clearview et sa culpabilité. Mais il faut noter que les forces policières à travers le Canada sont aussi responsables, d’avoir adopté l’outil sans évaluer sa légalité, et d’avoir induit le public en erreur à ce sujet. Lorsque le New York Times a révélé l’affaire des pratiques commerciales de Clearview AI en janvier 2020, de nombreuses forces de police canadiennes ont demandé si elles l’utilisaient ont répondu non. Lorsque la CCLA a déposé une série de demandes d’accès à l’information pour vérifier ces allégations, nous commencions à recevoir des réponses indiquant qu’il n’y avait « aucun dossier réactif » à peu près au même moment où une faille de sécurité survenait chez Clearview. Leur liste de clients a fuité, prouvant que l’entreprise comptait plusieurs clients canadiens en Nouvelle-Écosse, en Alberta et en Ontario. Le Service de police de Toronto, la PPO et la GRC font partie de ceux qui l’ont utilisée. Certaines forces ont affirmé que ce sont des agents ou des unités individuels qui ont expérimenté des versions d’essai du logiciel distribué lors de conférences, à l’insu des chefs de police qui avaient initialement publié des déclarations indiquant que la technologie n’avait pas été acquise ni utilisée.
Il ne s’agit donc pas seulement d’une histoire sur un mauvais acteur technologique, mais aussi d’une crise de responsabilité concernant l’utilisation par la police d’une technologie de surveillance controversée et intrinsèquement intrinsèque. Bien que le monde en ligne soit sous-réglementé et que nos lois soient dépassées face au potentiel des technologies émergentes, nous avons des lois sur la vie privée qui régissent les termes et la nature du consentement pour l’utilisation de nos renseignements personnels. La demande de Clearview ne fonctionne pas dans un monde entièrement sans loi, juste dans un monde où la loi semble être ignorée, par l’entreprise et par les forces de l’ordre qui ont utilisé le produit.
Comme je l’ai écrit lorsque l’affaire a éclaté, cela met en lumière tout le débat social sur la reconnaissance faciale — si elle était interdite, y a-t-il des cas où les avantages l’emportent sur les risques de son utilisation, comment peut-elle être réglementée (ou simplement, peut-elle être efficacement réglementée) — — sur le plan clair et urgent. Non seulement la reconnaissance faciale facilite une forme de surveillance de masse profondément dangereuse pour les droits humains dans notre démocratie, mais c’est aussi une technologie fondamentalement défaillante. Des entreprises plus grandes et plus responsables ont eu peur de lancer cette technologie dans le monde pour cette raison; en effet, Amazon, IBM et Microsoft ont cessé de vendre leurs outils de reconnaissance faciale à la police, reconnaissant qu’ils sont trop enclins à faciliter la discrimination en raison de leur inexactitude sur des visages noirs, bruns, autochtones, féminins, jeunes, c’est-à-dire non masculins et blancs. Avant que la pandémie ne frappe, le Comité permanent parlementaire sur l’accès à l’information, la vie privée et l’éthique planifiait une étude sur la technologie de reconnaissance faciale, ce qui constituerait un bon début pour une réflexion plus large et approfondie sur les nombreuses questions qu’elle soulève.
Parce que le rapport d’enquête, publié aujourd’hui, clarifie une chose. Il doit être une priorité d’entamer les conversations publiques difficiles mais nécessaires qui se demandent d’abord s’il existe des contextes où cette technologie est appropriée pour une démocratie qui valorise la liberté face à la surveillance routinière du secteur privé ou de l’État alors que nous circulons dans nos rues publiques et faisons des affaires dans des espaces privés.
Un ensemble de conversations tout aussi urgentes est nécessaire sur les types de responsabilité et de transparence que le public mérite et exige en retour de la part des policiers qui souhaitent utiliser des technologies de surveillance de plus en plus puissantes et intrusives. La licence sociale pour exercer les pouvoirs que nous accordons à nos forces de l’ordre ne peut exister que dans une relation de confiance, et avant même d’aborder la question de savoir s’il y a un avantage social à permettre à la police d’utiliser la technologie de reconnaissance faciale et, si oui, si un avantage l’emporte sur les risques sociaux, nous avons besoin d’une assurance que nos organismes d’application de la loi s’engagent à utiliser des outils légalement conçus et mis en œuvre.
Le fiasco de l’IA de Clearview et le rapport qui le met à nu nous rappellent important tout ce que nous avons à perdre si nous ne faisons pas face aux risques des nouvelles technologies tout en restant ouverts à ses bénéfices. La CCLA réitère notre appel à un moratoire sur les logiciels de reconnaissance faciale jusqu’à ce que le Canada, en tant que nation, ait eu la chance de discuter, débattre et contester d’abord , si, alors, seulement si nous dépassons cette question, quand et comment cette technologie devrait être utilisée dans une démocratie respectueuse des droits.



