Auteurs : Jonathan Obar et David Gelb, Université York

Jonathan A. Obar est professeur agrégé au département de communication et d’études médiatiques de l’Université York. Ses recherches et son enseignement portent sur la politique de l’information et de la communication, ainsi que sur la relation entre les technologies numériques, les libertés civiles et l’inclusivité des cultures publiques. Les publications académiques abordent le big data et la vie privée, les interfaces de consentement en ligne, la transparence de la confidentialité des données corporatives et l’activisme numérique.

David Gelb est professeur agrégé au département de design de l’Université York. Ses recherches portent sur les interfaces éthiques et la pédagogie du design. Il enseigne le design centré sur l’utilisateur, le design de communication visuelle et la théorie du design d’interaction au premier cycle et aux cycles supérieurs. Au cœur de sa pratique professionnelle se trouve la recherche sur l’expérience utilisateur pour des clients des secteurs des sciences de la santé, de l’éducation et de la culture.

La conception d’un processus de consentement en ligne est essentielle pour permettre aux individus de décider eux-mêmes de la protection de leurs renseignements

Les décisions de consentement pertinentes exigent l’accès à de l’information (c’est-à-dire des documents d’avis) concernant l’organisation qui tente d’obtenir le consentement d’une personne. En ce qui concerne l’intelligence artificielle (IA), ces documents d’avis devraient contenir, au minimum, des informations sur les données utilisées pour entraîner une IA, les algorithmes qui guident les analyses et les résultats automatisés menant à la prise de décision organisationnelle. Si ces détails sont disponibles, c’est une étape pour aider les gens à envisager s’ils doivent consentir aux pratiques organisationnelles en question, ainsi qu’aux implications d’un contrat de durée de service.

Comme l’IA est envisagée pour la prise de décision automatisée par les employeurs, les institutions financières, les universités, les spécialistes du marketing et au-delà, les individus ont besoin d’informations accessibles et utiles pour bénéficier des protections de surveillance. Les menaces de discrimination liée au big data et les inégalités liées à l’IA sont des préoccupations croissantes, surtout pour les membres des communautés marginalisées.

Cependant, rendre l’information accessible au public n’est pas la même chose que s’assurer que les individus puissent accéder ou comprendre ces informations.

Le défi des avis textuels

Les « documents d’avis » désignent souvent les conditions d’utilisation et les politiques de confidentialité communiquées publiquement via des sites web statiques et riches en textes. Les recherches suggèrent que peu de gens lisent des avis textuels. Les raisons varient. Les politiques basées sur le texte sont souvent longues, compliquées et ennuyeuses. Les conceptions d’interfaces utilisateur trompeuses détournent l’attention des politiques pour attirer les boutons « accepter » via les clics. Les gens sont pressés de s’inscrire rapidement à des services, de magasiner, de jouer, de réseauter socialement et n’ont pas envie de passer des heures à lire sur le processus algorithmique d’une organisation.

Dans ses Lignes directrices pour obtenir un consentement significatif, le Bureau du commissaire à la protection de la vie privée du Canada (OPC) appelle les organisations à « faire preuve d’innovation et de créativité » lors de la conception des processus de consentement en ligne. L’objectif est de rendre les documents d’annonce plus attrayants, engageants et dynamiques. L’OPC est claire : « les organisations devraient faire plus que simplement transposer en format numérique leurs politiques papier à partir de l’environnement hors ligne ». De nouvelles recherches préliminaires financées par l’OPC suggèrent que les vidéos de type médias sociaux pourraient offrir des améliorations notables qui contribuent réellement à la sensibilisation individuelle essentielle à des protections significatives du consentement en ligne.

Conception de suppléments d’avis vidéo

« Des vidéos plutôt que des documents n’importe quel jour » – un commentaire d’un participant à l’étude abordé dans un rapport préliminaire de chercheurs de l’Université York. De nombreux participants ont exprimé des opinions similaires, suggérant que les avis vidéo sont préférés aux avis textuels.

Réunispar le Bureau du commissaire à la protection de la vie privée du Canada et le Conseil de recherches en sciences humaines et en sciences humaines, les conclusions préliminaires sont incluses dans un rapport intitulé Conception d’avis vidéo pour soutenir un consentement significatif en ligne : une analyse des vidéos sur les médias sociaux sur l’intelligence artificielle et la vie privée, hébergé sur le nouveau site web du projet AI In Focus.

Note : La couverture d’un nouveau rapport sur les documents d’avis vidéo de l’Université York, financé par l’OPC et le SSHRC. Rapport disponible à https://ainfocus.net. Design graphique par Hannah Palmier Blizzard.

Les chercheurs ont créé quatre vidéos de style TikTok conçues pour compléter les politiques de confidentialité textuelles et les rendre plus faciles à comprendre. Chaque vidéo abordait une question de confidentialité liée au développement et à l’utilisation de l’IA. Les participants aux groupes de discussion ont été interrogés sur ce qu’ils pensaient des vidéos et comment elles contribuent à des processus de consentement significatifs en ligne.

Les résultats préliminaires des groupes de discussion ont été organisés en recommandations à considérer par les organisations intéressées à concevoir des avis vidéo. Le rapport souligne que, selon les réponses des participants, il y a une préférence pour des suppléments vidéo courts (moins d’une minute) en prises de vues réelles plutôt que des politiques de confidentialité basées sur le texte. La possibilité que les vidéos puissent compléter les supports d’avis textuels était évidente, les participants notant que les vidéos non seulement attirent leur attention sur les détails de l’IA, mais pourraient aussi inciter à un examen plus approfondi des documents textuels. Bien que les préférences de durée des vidéos posent des défis pour expliquer en détail les systèmes d’IA, les résultats suggèrent que des vidéos de type médias sociaux devraient être créées pour aider à informer les systèmes d’IA.

Une autre recommandation de rapport souligne l’importance d’assurer la représentation des communautés marginalisées dans les documents d’avis vidéo. Les participants aux groupes de discussion ont suggéré que cette représentation à l’écran pourrait contribuer à la notification ainsi qu’à établir des liens avec le contenu. En effet, il est essentiel de s’assurer que le contenu vidéo communique les risques et implications de l’IA pour les membres des groupes les plus susceptibles de subir des inégalités liées à l’IA.

Enfin, le rapport recommande que les vidéos de type médias sociaux exploitent les mèmes tendance pour attirer l’attention sur les contenus d’observation liés à l’IA. Contrairement aux avis textuels ennuyeux, le contenu tendance peut aider à lancer le processus de notification et contribuer à la compréhension essentielle pour un consentement significatif. Créer une série de vidéos itératives s’inscrit dans cette approche et peut aider à relever le défi de tenter de transmettre les complexités de l’IA en moins d’une minute.

Les décideurs en IA devraient prioriser les améliorations notables dans tous les contextes de l’IA

La Loi canadienne sur l’intelligence artificielle et les données (AIDA) impose aux organisations privées de distribuer et d’utiliser une IA « à fort impact » pour transmettre publiquement de l’information sur le système sur un site web. Cette composante du projet de loi C-27 indique que des explications en langage clair sont nécessaires, décrivant comment fonctionne l’IA, le contenu et les décisions produites, ainsi que les procédures d’atténuation.

Les exigences d’avis devraient aller bien au-delà des systèmes dits d’IA « à fort impact », car divers systèmes dits dits « à faible impact » peuvent aussi causer des dommages. Cela signifie que toute organisation souhaitant bénéficier de l’IA devrait investir dans des améliorations significatives notables.

Améliorer les documents d’avis et les processus de consentement significatif associés nécessite plus que du texte statique sur un site web caché derrière un clic-wrap trompeur. Comme le souligne la Maison-Blanche dans son plan directeur pour une Déclaration des droits de l’IA, « [vous] devriez savoir qu’un système automatisé est utilisé et comprendre comment et pourquoi il contribue à des résultats qui vous impactent ». Bien que davantage de recherches soient nécessaires pour comprendre comment la vidéo de type médias sociaux peut guider les individus au-delà de la notification à l’explication, les décideurs en IA engagés à soutenir des protections significatives du consentement devraient prioriser la création de documents d’avis que les gens examineront réellement.

Remerciements : Merci à Desirée de Jesús, Guilherme Cavalcante Silva, Hannah Palmier Blizzard, Grace Noua, Sam Loiselle et Brenda McPhail. Merci aussi à la CCLA pour sa collaboration sur ce projet.

À propos de l’Association canadienne des libertés civiles

La CCLA est une organisation indépendante à but non lucratif avec des partisans de partout au pays. Fondée en 1964, la CCLA est une organisation nationale de défense des droits humains engagée à défendre les droits, la dignité, la sécurité et les libertés de toutes les personnes au Canada.

Pour les médias

Pour plus de commentaires, veuillez nous contacter à media@ccla.org.

Pour des mises à jour en direct

Veuillez continuer à consulter cette page et nos plateformes de médias sociaux. Nous sommes sur Instagram, Facebook, Twitter et Blue Sky.

DONATE
This site is registered on wpml.org as a development site. Switch to a production site key to remove this banner.