La forme la plus populaire d’intelligence artificielle (IA) aujourd’hui – l’apprentissage automatique – est souvent appelée une boîte noire parce que les humains ne peuvent pas voir à l’intérieur pour comprendre ses décisions. Selon une nouvelle audience devant le régulateur national des communications, les Canadiens pourraient être encore plus exclus, laissés dans l’ignorance à cause des règles proposées sur la confidentialité. Le résultat testera si les nouveaux systèmes d’IA peuvent être responsables d’une surveillance démocratique via les instruments traditionnels du droit public.

Le Conseil de la radiodiffusion et des télécommunications canadiennes (CRTC) est un organisme administratif quasi-judiciaire qui s’appuie sur des procédures publiques publiques pour établir un dossier de preuve publique sur lequel il prend finalement ses décisions. Les décisions du CRTC sont fondées sur le dossier public qu’il a établi à la suite d’un avis de consultation et peuvent faire l’objet d’un appel devant la Cour d’appel fédérale (FCA) et/ou le Gouverneur en conseil (GiC), selon le fondement de l’appel (c’est-à-dire erreur de droit contre politique respectivement).

L’été dernier, Bell Canada a demandé à utiliser un système d’apprentissage automatique confidentiel pour filtrer les appels téléphoniques frauduleux et frauduleux. Le CRTC a approuvé la demande d’essai du système et, le mois dernier, Bell a demandé à le mettre en place à perpétuité. Nous avons initialement participé parce que nous voulions développer une meilleure surveillance publique de l’IA. En raison du niveau inhabituel de secret de Bell et de l’incapacité à répondre à nos demandes d’information dans le dossier public, nous sommes de plus en plus préoccupés par les implications en matière de vie privée et de sécurité du système de Bell pour les Canadiens.

La demande de Bell Canada a été fortement expurgée, fournissant peu d’informations sur le type d’informations qu’elle recueille auprès des Canadiens pour entraîner son système d’IA et classifier les appels. Un tel secret, soutient Bell, est nécessaire pour éviter d’alerter les « mauvais acteurs ». Nous nous opposons. Cette affaire établit un précédent inquiétant pour le premier cas connu d’IA dans les systèmes de communication réglementés du Canada. L’IA est déjà difficile à expliquer sans le secret supplémentaire.

Maintenant, au lieu d’un débat public ouvert sur les avantages et les risques du système de Bell, l’audience du CRTC est devenue un débat sur l’avenir des preuves publiques et la participation publique aux procédures réglementaires publiques. Bell a présenté aux intervenants ce qu’elle appelle un « compromis », selon lequel les intervenants « légitimes » ont la possibilité de signer une entente de confidentialité (NDA) avec Bell s’ils souhaitent consulter des preuves secrètes fournies au CRTC.

Avec si peu d’informations sur les éléments de base du système dans le dossier public, les intervenants qui ne signent pas la NDA par principe n’auront aucune idée du fonctionnement du système, des types d’informations qu’il recueille, de son potentiel à bloquer des appels légitimes et des risques pour la vie privée des Canadiens. Le hic, c’est que signer le NDA Bell pour nous limiterait la publicité d’une procédure publique. Si nous signions la NDA de Bell pour voir les preuves présentées au CRTC, nous ne pourrions pas discuter des risques potentiels dans le dossier public ni informer le public comme nous le faisons ici. Du point de vue du processus juridique, il n’est pas clair comment des décisions fondées en première instance sur des informations secrètes par le CRTC peuvent être contestées ultérieurement en cour publique et/ou par l’entremise des mécanismes d’appel du Gouverneur en Conseil (GiC) que le Parlement a mis en place pour assurer la reddition de comptes des décisions réglementaires.

Nous avons récemment déposé notre opposition au système NDA proposé par Bell. Le CRTC a jusqu’à présent accepté l’approche proposée par Bell, mais nous espérons qu’elle changera d’avis. Nous pensons que notre intervention contribue à révéler la question fondamentale en jeu dans cette procédure. Elle explique en quoi l’utilisation des NDA dans les procédures publiques est incompatible avec les objectifs fondamentaux du Parlement qui exige des audiences publiques et une prise de décision administrative fondée sur des preuves. Si les systèmes d’IA ne peuvent être discutés qu’en toute confiance, alors ils sont en décalage avec les principes de la gouvernance démocratique et deviendront de plus en plus inresponsables face aux souhaits collectifs des humains, tels que reflétés dans nos lois publiques et institutions qui les appliquent.

Vous voulez en savoir plus? Voici la soumission au CRTC

Fenwick McKelvey est professeur agrégé en politique des technologies de l’information et de la communication au département d’études de la communication de l’Université Concordia.

Reza Rajabiun (MA, LLM, PhD) est un expert en politique de concurrence et stratégie télécom, avec des intérêts de recherche dans la fourniture d’infrastructures à large bande, l’évaluation de la qualité des réseaux à large bande et la connectivité rurale.

Ce blogue rapporte les travaux réalisés pour un projet financé par le SSHRC, Media Goverance After AI, auquel participe la CCLA.

À propos de l’Association canadienne des libertés civiles

La CCLA est une organisation indépendante à but non lucratif avec des partisans de partout au pays. Fondée en 1964, la CCLA est une organisation nationale de défense des droits humains engagée à défendre les droits, la dignité, la sécurité et les libertés de toutes les personnes au Canada.

Pour les médias

Pour plus de commentaires, veuillez nous contacter à media@ccla.org.

Pour des mises à jour en direct

Veuillez continuer à consulter cette page et nos plateformes de médias sociaux. Nous sommes sur Instagram, Facebook, Twitter et Blue Sky.

DONATE
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.