Clearview AI est une entreprise technologique qui , selon le New York Times , a récupéré 3 milliards de photos de personnes sur Internet, créé un système de reconnaissance faciale pour exploiter cette base de données, et commercialise l’accès aux forces de police. 600 forces policières, y compris, selon l’entreprise, certaines forces canadiennes de police, utilisent cet outil non réglementé et peu surveillé. Cela met en lumière tout le débat social sur la reconnaissance faciale — si elle est interdite, y a-t-il des cas où les avantages l’emportent sur les risques de son utilisation, comment peut-elle être réglementée (ou simplement, peut-elle être efficacement réglementée) — sur une lumière claire et urgente. Parce que, alors que les entreprises plus grandes et responsables ont eu peur de lancer cette technologie dans le monde, pendant que les gens réfléchissent et que les décideurs délitent, un « fake it, brick it » ou « make it startup » vient tout simplement de sortir discrètement et de créer ce que nous craignions tous voir voir — un système qui exploite les images personnelles que nous partageons sur des plateformes sur lesquelles nous comptons et en qui nous avons confiance alors que nous participons au monde moderne — et qui les vend Police. Qui l’achète.

Expliquons pourquoi c’est un problème.

Pour commencer, examinons pourquoi les citoyens d’une démocratie ont besoin d’une protection contre la reconnaissance faciale sans entrave. La réponse? Parce que c’est une menace à la liberté humaine, pure et simplement. La reconnaissance faciale utilise les caractéristiques physiques de notre visage pour créer un modèle mathématique qui nous est unique, qui nous identifie, tout comme une empreinte digitale. Au CCLA, nous pensons qu’il est vraiment utile de parler de l’empreinte faciale plutôt que de la reconnaissance, car cela donne une impression plus précise de ce dont nous parlons vraiment, un identifiant inextricablement lié à notre corps. Poussée à l’extrême, la reconnaissance faciale lâchée dans nos rues signifierait l’anéantissement de l’anonymat, une incapacité totale à se déplacer dans le monde et à être un visage dans la foule. Cela donnerait à quiconque y a accès un grand pouvoir. Les entreprises pourraient nous suivre et utiliser ce qu’elles apprennent pour influencer notre comportement de consommateur. Les politiciens pourraient utiliser cette même information pour influencer notre comportement politique. Les harceleurs pouvaient s’en servir pour avoir une connaissance parfaite de l’endroit où se trouvent leurs victimes. Les États pourraient l’utiliser pour suivre n’importe qui, des criminels présumés aux manifestants, ou, tout le monde, au cas où. C’est une vision dystopique, mais c’est en fait une vision que beaucoup de gens, y compris le PDG de Google, Sundar Pichai, s’accordent à dire qu’elle pourrait arriver à moins d’être très prudents et réfléchis non seulement au moment, mais aussi au SI utiliser la technologie.

Un argument en réponse à cela est que c’est de notre propre faute. Après tout, nous partageons tous des informations, y compris des photos, en participant volontairement à la vie moderne. Quand on partage une photo sur Facebook, par exemple, la plupart d’entre nous ont un public en tête. Si nous choisissons de sauter les paramètres de confidentialité et de permettre à quiconque utilise la plateforme de voir la photo, nous pourrions avoir de bonnes raisons de le faire — peut-être voulons-nous publier des images qui permettent aux employeurs potentiels de voir à quel point nous serions un bon employé, responsable et orienté vers la famille, ou peut-être aimons-nous l’idée que des gens du monde entier puissent voir et interagir avec nos publications et photos. Ou peut-être qu’on ne pense tout simplement pas à qui d’autre pourrait le voir. Quelle qu’en soit la raison, il est tout simplement faux que lorsque nous publions même une photo publique sur une plateforme de médias sociaux, nous acceptions que tout le monde devrait pouvoir faire ce qu’il veut avec cette information. Les conditions d’utilisation de ces sites sont à sens unique, des contrats à sens unique, mais ce sont des contrats, et la plupart des sites réputés interdisent le scraping en gros à des fins commerciales par des tiers. Nous avons très peu de protection contre les plateformes qui utilisent nos informations comme elles veulent, mais elles nous promettent généralement une protection contre les autres. Nous avons aussi des lois sur la vie privée qui régissent les modalités et la nature du consentement pour l’utilisation de nos renseignements personnels. Ainsi, même si le monde en ligne est sous-réglementé et que nos lois sont dépassées face au potentiel des technologies émergentes, l’application de Clearview ne fonctionne pas dans un monde sans loi, mais dans un monde où la loi semble être ignorée.

Pourquoi est-ce particulièrement problématique pour un outil utilisé (secrètement) par les forces de l’ordre? Tout simplement, parce que dans une démocratie, la police ne peut pas être au-dessus ni au-delà de la loi. Il y a un débat public qui doit désespérément avoir lieu autour des outils de surveillance de masse, sur les avantages et les risques d’utiliser la collecte d’informations indiscriminées sur tout le monde pour attraper les rares criminels dans une mer de passants innocents vaquant à leurs occupations. Mais ce que l’histoire de Clearview AI, c’est qu’il y a un débat tout aussi urgent que nous devons avoir sur la responsabilité en matière de surveillance policière. C’est une technologie non examinée qu’il est possible d’argumenter qu’elle utilise des images obtenues illégalement — il y a certainement des questions qui doivent être posées et répondues. Cependant, ces questions ne sont pas posées et répondues publiquement lorsque des technologies de surveillance sont acquises et utilisées en secret, comme c’est le cas avec Clearview AI. Aucune force policière interrogée par la CBC dans leur recherche de l’angle canadien de cette histoire ne confirmerait leur utilisation de cet outil. Pourtant, nous savons que les services canadiens l’utilisent : il y a même une citation d’un officier « des forces de l’ordre canadiennes » non identifié sur le site web de l’entreprise Clearview AI. La police soutient souvent que cela compromet leur travail si les outils d’enquête qu’ils utilisent sont connus du public. Cependant, la licence sociale d’exercer les pouvoirs que nous accordons à nos forces de l’ordre ne peut exister que dans une relation de fiducie, et avant même d’en venir à la question de savoir s’il y a un avantage social à permettre à la police d’utiliser la technologie et, si oui, si elle l’emporte sur les risques sociaux, nous avons besoin d’une assurance que nos organismes d’application de la loi s’engagent à utiliser des outils conçus et mis en œuvre légalement.

Dans une démocratie, nous faisons des choix difficiles sur ce que la police peut ou ne peut pas faire en permanence. Au Canada, nous avons une Charte des droits et libertés qui définit des droits fondamentaux que nous avons tous — et méritons — simplement parce que nous sommes humains. Parfois, respecter ces droits rend le travail des agents de police plus difficile, cela rend les enquêtes moins efficaces, il est essentiel de suivre les règles. C’est un compromis auquel nous avons convenu; En tant que société libre, nous croyons que nos agences de sécurité publique ne peuvent pas vraiment assurer la sécurité de nous si elles ne sont pas elles-mêmes régies par la loi et obligées de respecter nos valeurs fondamentales dans le cadre de tout processus d’enquête.

En tant que défenseur de la vie privée, on me demande tout le temps si ça vaut la peine de s’énerver pour ce genre d’histoires, ou si on devrait simplement abandonner la vie privée parce que le cheval est déjà sorti de l’écurie.

Ma réponse : « Le cheval est sorti de l’écurie » est une métaphore absurde et tout propriétaire de bétail serait d’accord — parce que si un cheval s’éloignait, on ne se contente pas de rester là à dire : hé, ce cheval précieux est parti maintenant, tant pis : vous allez chercher la bête. Et quand tu la trouves, tu la ramènes à la maison et tu répares la porte de la stalle, ou la porte de la grange, ou la porte du corral — ou les trois, parce que tu as besoin du cheval et ça vaut la peine de prendre soin d’elle. Donc, avec notre intimité. C’est précieux. C’est un droit humain. Ça vaut la peine d’être pris en charge, et ça vaut la peine de se battre pour ça. Ça vaut la peine de le traquer, de le ramener à la maison et de trouver de nouvelles façons de protéger.

Espérons que l’histoire de l’IA de Clearview soit un autre moment Cambridge Analytica, un moment qui cristallise tout ce que nous avons à perdre si nous ne faisons pas face aux risques des nouvelles technologies tout en restant ouverts à ses avantages. La CCLA réitère notre appel à un moratoire sur les logiciels de reconnaissance faciale jusqu’à ce que le Canada, en tant que nation, ait eu la chance de discuter, débattre et contester d’abord , si, alors, seulement si nous dépassons cette question, quand et comment cette technologie devrait être utilisée dans une démocratie respectueuse des droits.

À propos de l’Association canadienne des libertés civiles

La CCLA est une organisation indépendante à but non lucratif avec des partisans de partout au pays. Fondée en 1964, la CCLA est une organisation nationale de défense des droits humains engagée à défendre les droits, la dignité, la sécurité et les libertés de toutes les personnes au Canada.

Pour les médias

Pour plus de commentaires, veuillez nous contacter à media@ccla.org.

Pour des mises à jour en direct

Veuillez continuer à consulter cette page et nos plateformes de médias sociaux. Nous sommes sur Instagram, Facebook, Twitter et Blue Sky.

DONATE
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.