Aujourd’hui marque la Journée de la protection des données (ou, comme on l’appelle dans certaines régions du monde, la Journée de la protection des données), un moment pour réfléchir à l’état de la protection de la vie privée au Canada et partout dans le monde.
Nous tenons presque pour acquis de nos jours que la vie privée est sous pression, alors que les technologies émergentes trouvent de nouvelles façons de transformer les récits d’avertissement d’hier en réalités vécues d’aujourd’hui. Cela fait en effet presque deux décennies que notre plus haute cour a reconnu que, bien que les craintes de George Orwell d’une société de surveillance n’aient pas encore été pleinement réalisées, il a certainement été un observateur avisé des premiers observateurs de la direction que prenaient les choses, et le paysage de la vie privée n’a fait que décliner depuis.
Parmi le bassin croissant de menaces à la vie privée à l’horizon, l’une mérite une attention particulière — une série de neurotechnologies développent la capacité de lire les pensées mêmes des gens, plaçant l’un des derniers refuges privés encore existants sur la grille technologique.
Dès 2017, un groupe de chercheurs de premier plan a publié un manifeste sur la technologie dans Nature avertissant que « les lignes directrices éthiques existantes sont insuffisantes pour ce domaine », tandis qu’un rapport de CIGI de 2024 s’inquiète de ce qui arrivera si les gens sont soumis à une manipulation basée sur la pensée alors que cette technologie commence à évoluer vers une adoption massive non médicale. Ces préoccupations sont malheureusement pertinentes — la persuasion basée sur les données, où chaque interaction numérique est surveillée et utilisée pour nous manipuler, est déjà devenue une caractéristique bien trop familière de notre écosystème en ligne.
Si la technologie de lecture cérébrale est le cauchemar dystopique de la semaine prochaine, l’IA est sans aucun doute celle d’aujourd’hui. Les systèmes d’IA exploitent nos données personnelles pour remodeler tout , de nos écoles à nos milieux de travail en passant par nos interactions avec le gouvernement. Au Canada et ailleurs dans le monde, cette dépendance à l’automatisation alimentée par les données obscurcit la manière dont les décisions sont prises, un examen significatif n’ayant souvent lieu qu’après que la vie de nombreuses personnes ait été ruinée.
Trop souvent, les systèmes d’IA sont sujets aux erreurs et intègrent la discrimination dans leurs évaluations automatisées. Les systèmes de reconnaissance faciale, par exemple, identifient à tort les femmes autochtones 120 fois plus fréquemment que les hommes blancs. Malgré cette tendance, les systèmes d’IA sont adoptés à une vitesse fulgurante et avec peu de réflexion sur les implications qui en découlent.
Certains de ces algorithmes prétendent prédire ce que les gens vont faire, avec des conséquences potentielles graves comme des séjours plus longs en prison ou le refus du statut d’immigration.
L’IA change aussi la nature du maintien de l’ordre en suralimentant les anciennes capacités de surveillance. Les flux vidéo en direct des caméras de circulation ou des caméras de surveillance municipales sont en train d’être transformés (par la police de Montréal et d’autres) en réseaux automatisés capables de nous suivre et constamment à l’affût des menaces perçues.
La police d’Edmonton a récemment annoncé qu’elle testerait la reconnaissance faciale sur les flux vidéo en direct de leurs caméras corporelles, transformant ce qui était autrefois un mécanisme de reddition de comptes policier en une puissante capacité de surveillance, quoique défaillante.
Les impacts de ces changements deviendront plus sévères à mesure que nous avançons vers un monde où la police s’appuie sur des évaluations technologiques opaques en temps réel.
En octobre dernier encore, un adolescent sans méfiance à Baltimore a été encerclé par des policiers, armes à la main, après qu’un outil d’IA a confondu un sachet de croustilles avec une arme à feu lors d’un flux vidéo en direct et a déployé la police locale. Heureusement, personne n’a été blessé, mais on peut s’attendre à d’autres incidents de ce genre.
L’adoption et l’utilisation de cet arsenal de capacités se font de manière négligente, sans cadre significatif, et l’approche « adoption d’abord » du gouvernement fédéral envers l’IA laisse peu de place aux règles nécessaires pour limiter les nombreuses implications négatives de la technologie.
Bien au contraire – une disposition enfouie dans le projet de loi C-15 (la proposition budgétaire fédérale) pourrait exempter toute entreprise, fonctionnaire ou organisme gouvernemental de se conformer à toute loi fédérale (autre que le Code criminel) pendant jusqu’à 6 ans, tant que le gouvernement croit qu’elle encouragerait l’innovation, la concurrence ou la croissance économique. Dans sa précipitation à adopter l’IA, le gouvernement pourrait utiliser cette vaste disposition pour éliminer les limites minimales à la vie privée ou autres obstacles juridiques déjà en place et mener des tests d’IA dans le monde réel, touchant des millions de personnes.
Le gouvernement est aussi en train d’exempter les partis politiques fédéraux des lois provinciales sur la vie privée, sans mettre en place de règles fédérales significatives. À une époque où la campagne politique basée sur les données et l’IA crée déjà des occasions dangereuses de manipulation politique, cette mesure visant à immuniser les partis politiques contre des protections juridiques de base est préoccupante.
Mais il y a aussi des développements encourageants.
Déjà en 2026, le commissaire à la protection de la vie privée de l’Ontario et la Commission des droits de la personne ont conjointement publié un cadre pour guider l’utilisation responsable de l’IA, et le commissaire à la protection de la vie privée de la Colombie-Britannique a empêché la ville de Richmond de construire un réseau de caméras au nom de la GRC en l’absence d’une autorité légale claire. La Commission du droit de l’Ontario dirige également un projet visant à orienter la manière dont ces outils puissants sont adoptés et utilisés dans le système de justice pénale.
La semaine dernière, la CCLA a rejoint une vaste initiative de la société civile en lançant une consultation publique sur l’IA afin de mieux comprendre toutes les différentes façons dont l’IA influence la vie des gens.
Nous sollicitons également l’avis du public et des experts sur les types de contrôles nécessaires pour garantir que l’IA soit adoptée de manière à respecter les libertés civiles et à réduire les conséquences négatives de la technologie.
Les solutions à nos innombrables défis en matière de vie privée ne sont pas simples.
Alors, en cette Journée de la protection des données, prenez un moment pour lire les défis posés par l’IA et partager vos réflexions sur les implications de cette technologie émergente.



