Alors que le phénomène d’addiction aux réseaux sociaux et aux écrans est entré dans le langage courant, les Etats Unis ont récemment fait le choix de réguler l’utilisation des techniques qui permettent d’adapter les interfaces numériques à nos biais cognitifs dans le but de capter notre attention, provoquer un sentiment de frustration, de plaisir, ou de gratification sociale. Cette actualité amène à s’interroger sur l’opportunité d’une régulation nationale voire européenne de l’exploitation de nos biais cognitifs par les concepteurs d’interfaces numériques.
L’adoption le 15 mars 2021 du nouveau California Consumer Privacy Act1 a fait de la Californie le premier Etat à bannir l’utilisation des « dark patterns » par les concepteurs d’interfaces numériques. Le 8 juin 20212 l’Etat du Colorado lui emboîtait le pas et la version actuellement discutée du Washington Privacy Act3 prévoit des dispositions similaires à l’encontre des « dark patterns ».
Nombreux sont ceux qui n’ont jamais entendu parler des « dark patterns », ce terme a été utilisé pour la première fois en 2010 par un designer « user experience » londonien, Harry Brignull pour désigner les interfaces utilisateurs exploitant les biais cognitifs humains afin qu’un utilisateur fasse des choix sans en avoir conscience.
Les biais cognitifs sont des réflexes de pensée humaine faussement logiques, inconscients et systématiques. A l’origine, leur fonction est de permettre au cerveau humain d’économiser du temps et de l’énergie en développant des raccourcis mentaux. Le concept de biais cognitif a d’abord été introduit par les psychologues Daniel Kahneman (prix Nobel d’économie en 2002) et Amos Tversky pour expliquer certaines tendances vers des décisions irrationnelles dans le domaine économique. Depuis, une multitude de biais intervenant dans plusieurs domaines ont été identifiés par la recherche en psychologie cognitive et sociale.
Les « dark patterns » s’appuient sur plusieurs techniques dont les « nudges » qui adaptent la communication d’une entreprise à nos biais cognitifs dans le but de capter notre attention, provoquer un sentiment de frustration, de plaisir, ou de gratification sociale et nous conduire à livrer nos données personnelles sans y réfléchir ou effectuer des achats compulsifs.
Ces techniques appartenant à la science de la « captologie »4 ne sont pas nouvelles et sont utilisées de longue date par les publicitaires dans le but de vendre leurs produits et services. Cependant, le numérique change considérablement la donne puisqu’il permet aux algorithmes de s’ajuster en temps réel et continu à nos réactions et donc de s’y adapter par rétroaction. En 2016 déjà, Tristan Harris, un ancien ingénieur de Google alertait sur les pratiques d’interception des signaux perçus par nos cerveaux, utilisées par les grands groupes de la Silicon Valley afin de nous manipuler5.
Pour s’en convaincre il suffit d’observer la recrudescence de comportements relevant de l’addiction suscités par les plateformes et réseaux sociaux, qui ont donné lieu à de multiples rapports alertant sur les effets délétères d’une surexposition aux écrans6 ces dernières années. En outre, le marché de l’exploitation des biais cognitifs humains et en plein essor et certaines entreprises n’hésitent pas à proposer ce type de service sans aucune ambiguïté à l’instar de Dopamine Labs qui proposait à ses clients, « Connectez votre application smartphone à notre “IA de persuasion”, et augmentez l’engagement et vos revenus de 30%, en donnant à vos utilisateurs nos parfaits shots de dopamine »7.
L’un des premiers objectifs de l’utilisation des techniques de captologie au sein d’interfaces opérées par des algorithmes intelligents est de capter notre attention à notre insu, car plus nous passons de temps sur un interface, plus nous sommes susceptibles d’y effectuer des dépenses. Il est important de noter que derrière la captation de notre attention ne se cache pas seulement des chances de profits pour les industriels mais également un risque de dérégulation de notre capacité à repérer des stimuli dans l’environnement, y répondre, les trier, les ignorer ou nous concentrer sur certains d’entre eux. C’est à la fois notre capacité et notre incapacité à lire le monde qui nous entoure et y réagir qui est en jeu8.
Ces phénomènes ne font actuellement l’objet d’aucune régulation globale. La CNIL a cependant évoqué le sujet des « dark patterns » dans son « Cahier IP Innovation & Prospective n°06 » du 18 janvier 20199 au sein duquel la question de l’utilisation des techniques de captologie incluses dans les interfaces est abordée.
L’exemple des changements récents adoptés aux Etats-Unis nous montre qu’un mouvement vers une régulation de l’utilisation de techniques de captologie au sein d’interfaces opérées par des algorithmes intelligents est à l’œuvre. En Europe il est d’ores et déjà possible d’observer l’émergence de deux tendances (I) l’une sanctionnant l’exploitation de nos biais cognitifs sur le fondement du droit de la consommation et la seconde (II) plaidant pour la création d’un « droit à la protection de l’attention ».
A l’instar des nouveaux Consumer Privacy Act adoptés dans les Etats de Californie et du Colorado, c’est sur le fondement du droit de la consommation que pourrait être assurée la protection des utilisateurs afin d’éviter que l’ergonomie des services numériques ne crée un déséquilibre significatif à leur détriment en biaisant leur consentement.
Le 5 février 2020, une proposition de loi visant à garantir le libre choix du consommateur dans le cyberespace10 a été adoptée à l’unanimité par la commission des affaires économiques du Sénat. Cette proposition de loi vise notamment à intégrer dans le Code de la consommation un chapitre sur la sincérité des interfaces utilisateurs afin de lutter contre l’utilisation des « dark patterns » en s’assurant de la clarté et de la lisibilité de ces interfaces. Selon la commission, cet amendement s’inscrit dans l’esprit du Code de la consommation qui, dans son article L211-1, énonce que
« les clauses des contrats proposés par les professionnels aux consommateurs doivent être présentées et rédigées de façon claire et compréhensible ».
Le contentieux naissant s’agissant du contrôle des clauses abusives dans les conditions générales d’utilisation de certains réseaux sociaux permet de corroborer la tendance d’une sanction de l’exploitation de nos biais cognitifs sur le fondement du droit de la consommation.
Récemment, le Tribunal de grande instance de Paris a jugé illicites un certain nombre de clauses figurant dans les « Conditions d’utilisation » et les « Règles de confidentialité » proposées aux utilisateurs dans le cadre de la souscription à Google et Twitter dans deux décisions11.
Ces deux décisions apportent un éclairage déterminant sur l’articulation du droit de la consommation et du droit de la protection des données à caractère personnel. Le tribunal confirme d’une part l’application de l’article L212-1 du Code de la consommation relatif aux clauses abusives nonobstant le titre onéreux ou gratuit du contrat et le fait qu’il soit adressé à des consommateurs mais également à des professionnels. D’autre part, le tribunal estime qu’en tant que responsables de traitement, les plateformes sont soumises aux dispositions de la loi n°78-17 du 6 janvier 1978 « Informatique et Libertés » et que les principes de cette loi concourent parfaitement avec les objectifs du droit de la consommation qui visent à protéger les consommateurs « dans leurs différentes activités de consommation ».
Il semble donc exister une volonté tant législative que jurisprudentielle de rapprochement de la législation sur les données à caractère personnel et relative au droit de la consommation dans le but de sanctionner les pratiques abusives exploitant nos biais cognitifs. Les prochains développements en droit de la consommation seront donc à suivre de près par les concepteurs d’interfaces numériques, au même titre que les actualités dans le domaine de la protection des données à caractère personnel.
En 2019, un article publié par Célia Zolynski, Marylou Le Roy et François Levin intitulé « L’économie de l’attention saisie par le droit »12 jette un pavé dans la marre en plaidant pour la création d’un droit à la protection de l’attention. L’impulsion autour d’un nouveau droit à la protection de l’attention s’est poursuivi avec la publication de la synthèse de consultation des Etats généraux du numérique en mai 2020 qui mentionne la création d’un « droit à la maîtrise de l’attention »13. Enfin les 15 avril, 12 mai et 2 juin derniers se sont tenus des débats-ateliers sur le sujet de savoir « Comment le droit du numérique peut-il réguler la crise de l’attention ? ».
La reconnaissance d’un droit à la protection de l’attention numérique se fonde sur des règles déjà bien connues, telle que la loyauté des plateformes. Cette obligation impose aux opérateurs de plateformes numériques une information complète des utilisateurs sur les contenus potentiellement addictogènes qui pourrait inclure une information sur les procédés de captologie utilisés par les plateformes. L’obligation d’information pourrait également donner accès aux métriques de captation de l’attention numérique utilisés par les plateformes pour une parfaite information de l’utilisateur.
Une fois l’utilisateur informé de la présence de « dark patterns » sur l’interface numérique, il pourrait lui être donné la possibilité de personnaliser les paramètres du service utilisé, dans la même logique que celle de la personnalisation de la collecte des données à caractère personnel et du dépôt de cookies sur les sites web.
Toujours sur le modèle du Règlement européen sur la protection des données, qui prône le « privacy by design » qui consiste à adopter dès la conception des mesures organisationnelles et techniques qui permettent d’assurer la conformité des traitements de données, la conception des interfaces numériques pourrait advenir dans le respect d’un principe d’« ethics by design ». Cette méthode de conception aurait pour conséquence l’élaboration d’interfaces respectueuses de l’attention de ses utilisateurs.
Enfin, encore dans le prolongement des principes encadrant le traitement des données à caractère personnel, il pourrait être envisagé un principe de finalité de captation de l’attention (notamment la collecte de l’attention à des fins déterminées, explicites et légitimes et l’absence de traitement ultérieur de manière incompatible avec les finalités initialement prévues).
Ainsi, au moment où les entreprises conçoivent leurs interfaces clients et utilisateurs, ainsi que leurs demandes de consentement, il semble bien avisé de tenir compte de l’attention grandissante accordée à la question des « dark patterns » et à l’exploitation de nos biais cognitifs sur les interfaces numériques par les régulateurs, les législateurs et les chercheurs.
[1] https://www.theverge.com/2021/3/16/22333506/california-bans-dark-patterns-opt-out-selling-data
[4] Le terme « captology » a été inventé en 1998 par B.J. Fogg à Stanford, vulgarisé dans son ouvrage publié en 2003 « Persuasive Technologie, Comment faire pour que les ordinateurs puissent changer ce que pensent et font les gens ? »
[6] https://www.academie-sciences.fr/pdf/rapport/appel_090419.pdf https://cnnumerique.fr/files/uploads/2020/CNNum%20-%20EGNum%20-%20Surexposition%20aux%20e%CC%81crans.pdf
[7] https://usbeketrica.com/fr/article/dopamine-labs-renforcer-addiction-smartphones-notre-bien
[8] Le sociologue et membre de l’Académie des technologies ainsi que de l’Académie nationale de médecine Gérald Bronner propose une synthèse de la « dérégulation du marché cognitif » dans son ouvrage « Apocalypse Cognitive » Puf, 2021
[11] TGI Paris, 12 février 2019, Google / UFC-Que Choisir, n° 14/07224 et TGI Paris, 7 août 2018, Twitter / UFC-Que Choisir n° 14/07300
[12] L’économie de l’attention saisie par le droit – Célia Zolynski – Marylou Le Roy – François Levin – Dalloz IP/IT 2019.