Jonathan A. Obar, PhD, est professeur agrégé au département de communication et d’études des médias de l’Université York. Ses recherches et son enseignement portent sur la politique de l’information et de la communication, ainsi que sur la relation entre les technologies numériques, les libertés civiles et l’inclusivité des cultures publiques. Les publications académiques abordent le big data et la vie privée, les interfaces de consentement en ligne, la transparence de la confidentialité des données corporatives et l’activisme numérique.
Les ensembles de données pour l’entraînement de l’intelligence artificielle (IA) peuvent être remplis d’informations obtenues sans consentement significatif. Qu’une organisation recueille des données directement auprès des utilisateurs ou d’une autre organisation, il est essentiel d’assurer le consentement significatif des personnes représentées dans les données. Alors que le gouvernement canadien débat du projet de loi C-27 et remet en question l’avenir de l’IA éthique, cette question doit être une priorité.
Les développeurs peuvent tenter d’entraîner des systèmes d’IA pour aider un magasin à vendre des produits, une banque pour déterminer les hypothèques, une compagnie d’assurance pour estimer les primes, la police pour identifier les suspects ou un juge pour calculer les taux de récidive. Dans chacun de ces cas — et bien d’autres — si les personnes dont les données alimentent ces systèmes n’ont pas consenti à ce que leurs données soient utilisées dans le développement de l’IA, cela constitue une violation potentielle des libertés civiles. De plus, le manque de surveillance associé à un consentement significatif pourrait entraîner des préjudices associés à la discrimination liée aux big data.
Écrivant sur la collecte et l’utilisation problématiques de données par les développeurs d’IA, Kate Crawford, une chercheuse de premier plan en IA, met en garde :
L’industrie de l’IA a favorisé une forme de pragmatisme impitoyable, avec un minimum de contexte, de prudence ou de pratiques de données basées sur le consentement, tout en promettant l’idée que la collecte massive de données est nécessaire et justifiée pour créer des systèmes d’« intelligence » computationnelle rentables (p. 95).
Quand quelqu’un partage une photo en ligne, est-ce qu’il est d’accord que la photo peut entraîner l’IA pour les ressources humaines? Quand les gens ouvrent la porte d’un centre commercial, conviennent-ils que les images des caméras de surveillance peuvent entraîner la prise de décision automatisée pour les systèmes de justice pénale? Déplacer les données d’un contexte à un autre soulève des inquiétudes quant au rôle du consentement comme mécanisme de surveillance. Les personnes qui tentent de donner leur consentement après avoir téléchargé une application comprennent-elles comment les informations personnelles peuvent circuler au sein d’une organisation? Par exemple, du programme PC Optimum de Loblaws aux entreprises de santé et de services financiers au sein de l’organisation Loblaw? D’une organisation à une autre, comme du suivi de localisation mobile de Foursquare à KFC? Dans les deux cas, la réponse est probablement non si les gens ne lisent pas les conditions d’utilisation et les politiques de confidentialité.
Consentement significatif et « Le plus grand mensonge sur Internet »
Un consentement significatif suggère que les individus prennent conscience et compréhension de la façon dont les informations personnelles sont utilisées sur le moment, ainsi que des implications pour l’avenir. Développer cette compréhension peut être difficile si les développeurs d’IA refusent d’enseigner aux gens les pratiques de l’industrie, et impossible si les gens ignorent les occasions d’engagement et d’apprentissage.
Évoquant une « logique extractive » centrale dans la façon dont les développeurs d’IA collectent et utilisent les données, Crawford écrit : « Il est devenu tellement normalisé dans l’industrie de prendre et d’utiliser tout ce qui est disponible que peu de gens prennent le temps de remettre en question la politique sous-jacente » (p. 93).
Ces politiques sous-jacentes incluent ce qu’on appelle « le plus grand mensonge d’Internet », connu sous le nom de « j’accepte les termes et conditions » (voir : www.biggestlieonline.com). Ce mème internet suggère que les gens « mentent » en acceptant les conditions de service sans y accéder, les lire ou les comprendre. La taille (c’est-à-dire « la plus grande ») est due à l’omniprésence des services numériques, dont les conditions sont acceptées tout le temps.
Dans deux études tentant de démêler « le plus grand mensonge d’Internet », des étudiants de premier cycle et des adultes de 50+ ans se sont vu présenter un processus de consentement fictif en ligne pour un site de médias sociaux fictif. Dans les deux études, les participants ont systématiquement ignoré et précipité le processus de consentement en ligne, soit en sautant les politiques sans y accéder, soit en passant peu de temps à les lire. Pour évaluer si les participants comprenaient les implications de l’accord, les termes du service incluaient des « clauses pièges ». Dans l’étude de premier cycle, les termes du service incluaient une clause « premier enfant », exigeant que les participants abandonnent un enfant pour utiliser le service de médias sociaux. Sur les 543 participants, 93% étaient d’accord. Dans l’étude sur les personnes âgées, 83,4% des 500 participants ont accepté de céder un rein pour utiliser un service de médias sociaux similaire. Dans les deux études, lorsqu’on leur a demandé s’il y avait quelque chose d’inquiétant dans les politiques, plus de 98% des participants, dans ces deux études, n’ont pas identifié ces clauses problématiques.
Si les personnes dans les deux études pouvaient manquer les clauses de piège et ne pas identifier deux implications très extrêmes du soi-disant accord, il est probable qu’elles manquent aussi des occasions d’apprendre sur le partage de données pour le développement de l’IA.
Il y a de nombreuses raisons à « le plus grand mensonge d’Internet », notamment la longueur et la complexité des politiques de services numériques, ainsi que la démission et le désintérêt de l’individu. Ce qui préoccupe particulièrement est le clickwrap (voir ci-dessus), la porte d’entrée vers les écosystèmes numériques façonnés et exploités par les capitalistes de la surveillance et d’autres bénéficiaires de l’IA. Au lieu d’innovations de conception pour soutenir la sensibilisation et la compréhension, cette interface utilisateur trompeuse encourage à ignorer les comportements – accélérant les processus de consentement en ligne vers les parties des services numériques qui génèrent des revenus.
Recommandations
Le gouvernement canadien semble maintenir la position selon laquelle un consentement significatif est fondamental à la protection des renseignements personnels. Le consentement est central dans la législation actuelle sur la vie privée et semble central dans le projet de loi C-27. Mais il y a une différence considérable entre le consentement implicite ou explicite et le consentement significatif. Se fier au consentement implicite facilite un manque d’autorégulation organisationnelle, rendant difficile pour les gens de prendre conscience des implications des accords, car il n’y a pas de notification que l’acceptation des politiques a lieu. Le consentement explicite, souvent manifesté par des accords clickwrap, pose également problème, puisque la recherche suggère (voir la vidéo ci-dessus) que les clickwraps encouragent des comportements ignorant les termes de service au bénéfice des développeurs d’IA.
La seule voie éthique à suivre est le consentement significatif.
Que les données pour le développement de l’IA soient obtenues directement auprès d’individus ou d’une autre organisation, tout effort lié à la construction de l’IA doit s’engager à garantir que l’information soit obtenue par consentement significatif. Les organisations doivent améliorer les processus de consentement en ligne en s’attaquant aux accords problématiques du clickwrap. Ils doivent investir dans des stratégies réfléchies et engageantes pour informer et éduquer le public sur le développement de l’IA. Cela aidera les gens à comprendre les implications d’un accord et à réduire « le plus gros mensonge sur Internet ». Sans ces efforts, un avenir défini par l’intelligence artificielle réalisé par un manque de surveillance publique pourrait apporter des bénéfices aux promoteurs et aux investisseurs, au détriment de la surveillance individuelle et des libertés civiles.
Pour plus d’informations, veuillez visiter www.biggestlieonline.com. Financé par le Bureau du commissaire à la protection de la vie privée du Canada, le Conseil de recherches en sciences sociales et humanités, et l’Université York.
À propos de l’Association canadienne des libertés civiles
La CCLA est une organisation indépendante à but non lucratif avec des partisans de partout au pays. Fondée en 1964, la CCLA est une organisation nationale de défense des droits humains engagée à défendre les droits, la dignité, la sécurité et les libertés de toutes les personnes au Canada.
Pour les médias
Pour plus de commentaires, veuillez nous contacter à media@ccla.org.
Pour des mises à jour en direct
Veuillez continuer à consulter cette page et nos plateformes de médias sociaux. Nous sommes sur Instagram, Facebook, Twitter et Blue Sky.



