Le rapport Bronner remis le 11 janvier 2022 avait pour mission de formuler des recommandations relatives à la dérégulation du marché de l’information en ligne et notamment la circulation de fausses informations.
Les travaux de la commission Bronner insistent sur de nombreux points d’ores et déjà visés par des textes législatifs achevés ou en cours d’élaboration mais se distingue par ses recommandations relatives au contrôle des logiques algorithmiques et à l’assèchement du financement de certains sites web via la publicité ciblée ainsi que ses recommandations préconisant la formation à l’esprit critique afin de se prémunir contre la désinformation en ligne.
Lancée par le Président de la République, la commission « Les Lumières à l’ère Numérique » avait pour mission de formuler des recommandations relatives à la dérégulation du marché de l’information en ligne, elle a remis son rapport le 11 janvier 2022.
Les travaux de la commission ont été dirigés par le sociologue Gérald Bronner. Ce dernier s’attache de longue date à souligner les risques induits par l’interaction des développements de l’ère d’Internet avec les mécanismes de psychologie cognitive du cerveau humain, notamment dans le domaine de la désinformation1.
Le rapport de la commission Bronner présente donc tout d’abord une analyse des mécanismes psychosociaux de la désinformation et explique que l’état de saturation du marché de l’information en ligne met à rude épreuve notre capacité de vigilance épistémique. En effet, le nombre de contenus auxquels nous sommes confrontés est tel que nous ne qui nous rend d’avantage perméables aux fausses informations. En outre, bien que les fausses informations soient minoritaires parmi l’ensemble des contenus d’actualité sur le web, leur viralité est démultipliée puisqu’un contenu provoquant un sentiment de panique ou de révolte est très susceptible de retenir l’attention des internaute2.
Enfin, la structure de l’information en ligne et notamment les « partages » de contenus rendus possibles par les réseaux sociaux accentuent notre propension à croire de fausses informations puisque de nombreuses études montrent que plus une information - qu’elle soit vraie ou fausse - est répétée à un individu, plus ce dernier aura tendance à la croire vraie3.
A la suite de publication de ce rapport, le Président de la République a annoncé le lancement d’une série de chantiers qui ont vocation à « faire de la France un pays pionnier dans la lutte contre la désinformation et la régulation des grandes plateforme ». Les différents chantiers porteront nommément sur (1) le renforcement de l’éducation à l’esprit critique, (2) l’intensification de la recherche sur les phénomènes de désinformation, (3) le contrôle du financement des acteurs qui nuisent à l’information et (4) l’intensification des pressions sur les plateformes en ligne4.
Le rapport5 remis par la commission Bronner détaille diverses recommandations dans la continuité d’actions d’ores et déjà engagées au niveau international et national (I) mais se distingue par ses propositions relatives au contrôle des logiques algorithmiques et au contrôle du financement de certains sites web via la publicité ciblée (II) ainsi que ses recommandations relatives à la formation à l’esprit critique (III).
Le rapport Bronner préconise plusieurs mesures dans la continuité d’actions engagées au niveau national et européen afin de lutter contre la haine sur les réseaux sociaux et réguler les grandes plateformes en ligne. Au niveau national, il est possible de citer la loi contre les manipulations de l’information, la loi dite « Avia » contre les contenus haineux, ou la loi confortant le respect des principes de la république. Au niveau européen, le projet de règlement Digital Services Act, adopté par le parlement européen en décembre 2021 a vocation à être une législation horizontale introduisant des obligations de modération de contenus pour les plateformes.
Les propositions les plus notables concernent le renforcement des pouvoirs de contrôle de l’ARCOM (ancien CSA). Le rapport suggère la création d’une procédure formalisée de signalement ouverte à tout citoyen à l’instar de la procédure de signalement des contenus audiovisuels. Il est ainsi proposé de modifier l’article 17-2 de la loi n° 86-1067 du 30 septembre 1986 pour que l’ARCOM puisse « être saisie par toute personne ayant rencontré une difficulté pour obtenir l’intervention et la coopération d’une plateforme afin de prévenir ou stopper la diffusion massive d’un contenu susceptible de véhiculer une fausse nouvelle pouvant troubler l’ordre public »6. Cette procédure de signalement est louable, cependant, contrairement à la diffusion des contenus audiovisuels sur les chaînes télévisées ou à la radio qui est par essence limitée, la diffusion de fausses informations sur les plateformes est illimitée. Dans ces conditions, l’hypothèse d’une saturation de l’ARCOM face à un trop fort afflux de signalements n’est pas à négliger.
En outre, le rapport Bronner propose de mobiliser la responsabilité civile des personnes propageant sciemment des fausses nouvelles7. La flexibilité du fondement devrait permettre que
« le juge civil prenne en compte deux variables pour proportionner sa sanction : celle de la viralité de la diffusion et celle de l’influence relative de celui qui diffuse ou relaye la diffusion fautive » (Rapp. p. 81).
A l’heure actuelle, une telle disposition n’a encore jamais été envisagée. Si l’efficacité de la responsabilité civile n’est pas contestée, il est permis de penser que le volume et la rapidité du partage des fausses nouvelles ne permettra pas d’attraire tous ses auteurs devant un juge.
Ainsi, face à la structure particulière d’Internet, nombre de méthodes de prévention et de sanction traditionnelles semblent difficiles à appliquer. Ce constat a poussé les rédacteurs du rapport Bronner à se pencher sur d’autres pistes innovantes afin de lutter contre la désinformation en ligne.
La commission Bronner dresse au préalable un état des lieux des flux des échanges d’actualités en ligne et constate que s’il est bien une promesse non tenue d’Internet, c’est celle de l’élargissement qualitatif de l’offre tout autant que de la demande. En effet, l’observation des échanges de flux d’actualité en ligne révèle que le marché cognitif y est animé par des effets de concentration d’attention brefs, soudains et massifs, communément appelés « buzz ». Partant, sur Internet la compétition fait rage pour attirer l’attention combien fugace et l’attrait que nous pouvons avoir collectivement pour un sujet.
Face à ce constat, le rapport Bronner recommande de réglementer la conception des logiques algorithmiques qui régissent l’organisation de l’information en ligne. La commission Bronner suggère notamment de permettre aux utilisateurs de mieux se représenter l’état de prévalence réelle des opinions en désactivant par défaut les métriques de popularité des posts sur les réseaux sociaux (ex : likes) tout en mettant en avant des métriques permettant de juger de la qualité épistémique des contenus (ex : historiques de partage). Il est également recommandé d’encourager les plateformes à accorder une attention plus particulière à la modération des posts publiés par les influenceurs dont la visibilité peut dépasser leur représentativité sur certains sujets8.
Le rapport Bronner évoque également le sujet des « dark patterns » présents sur les interfaces numériques, qui sont des moyens de manipuler ou tromper les utilisateurs et capter leur attention afin de dégager un profit. Dans le sillage de nombreux travaux initiés ces dernières années, pour partie repris par la proposition de règlement Digital Service Act, le rapport Bronner insiste sur l’importance d’ouvrir une réflexion sur la logique qui oriente la conception des interfaces numériques9.
Enfin, la commission Bronner évoque un sujet encore peu relié à la diffusion de fausses informations en ligne : la publicité programmatique. Ce type de publicité utilise des algorithmes générés par une intelligence artificielle afin de déterminer le meilleur emplacement publicitaire par type de produits et de public cible grâce à un système d’enchères en temps réel. A l’heure actuelle, les prestataires de publicité programmatique sont invités à communiquer à l’annonceur
« toutes les mesures mises en œuvre [...] pour éviter la diffusion de messages publicitaires sur des supports illicites ou dans des univers de diffusion signalés par l’annonceur comme étant préjudiciables à l’image de sa marque et à sa réputation »10.
Cependant rien ne les oblige à communiquer la liste exhaustive des sites sur lesquels leurs publicités peuvent se trouver.
Or le rapport Bronner constate qu’il est apparu depuis plusieurs années que les publicités programmatiques se retrouvent fréquemment sur des sites propageant notoirement et souvent de manière répétée de la désinformation caractérisée et susceptible de troubler l’ordre public. Le rapport préconise donc de responsabiliser les acteurs de publicité programmatique en encourageant le recours à des listes d’exclusion et d’inclusion de sites web telles que celles élaborées par NewsGuard ou Global Disinformation Index afin d’assécher le financement des sites de désinformation11.
Pour finir, le rapport de la commission Bronner propose des solutions au-delà du droit, qui a lui seul, ne semble pouvoir suffire à endiguer le phénomène de la propagation de fausses informations en ligne. Aux termes du rapport, la vigilance cognitive et le développement de l’esprit analytique de chaque individu constituent probablement les meilleurs remparts individuels face à la diffusion de fausses informations. Chaque être humain aurait en lui les ressources pour éviter de tomber dans le piège que constituent la désinformation et les erreurs de raisonnement.
Le rapport Bronner se veut prudent quant aux recommandations concrètes sur la méthode à adopter afin d’enseigner l’esprit critique aux plus jeunes, ayant probablement conscience des enjeux éthiques et politiques cruciaux qui y sont attachés. Cependant, les recommandations préconisent de mandater un organisme dont le but serait de réunir les données existantes, de penser des protocoles standardisés et de mettre en place l’évaluation du matériel pédagogique et des dispositifs de formation ainsi que solliciter l’expérience des enseignants sur ce sujet12.
En outre, la commission Bronner juge opportun la systématisation et l’homogénéisation de l’enseignement de l’Éducation aux Médias et à l’Information (EMI) inscrite dans la Loi d’Orientation pour la Refondation de l’École du 8 juillet 2013. Actuellement, seuls les élèves du premier et du second degré bénéficient de cet enseignement que le rapport Bronner propose d’étendre à l’université, au monde culturel et à l’entreprise13.
Cet aspect du rapport remis au Président de la République semble avoir retenu toute l’attention de ce dernier qui a cité le renforcement de l’esprit critique comme le premier des différents chantiers qui ont été lancés à la suite de la remise des travaux de la commission Bronner. Il convient donc de rester attentif aux prochains développements qui en découleront.
[1]Voir p. ex. Gérald Bronner, La Démocratie des crédules, Paris, PUF, 2013.
[2] Voir p. ex. CSA (2020). La propagation des fausses informations sur les réseaux sociaux : étude de la plateforme Twitter https://www.csa.fr/Informer/Collections-du-CSA/Focus-Toutes-les-etudes-et-les-comptes-rendus-synthetiques-proposant-un-zoom-sur-un-sujet-d-actualite/La-propagation-des-fausses-informations-sur-les-reseaux-sociaux-etude-de-la-plateforme-Twitter
[3] Pour une méta-analyse de ces études, voir Dechêne, A., Stahl, C., Hansen, J., et Wänke, M. (2010). The truth about the truth : A meta-analytic review of the truth effect. Personality and Social Psychology Review, 14(2), 238-257.
[4] https://www.elysee.fr/emmanuel-macron/2022/01/11/remise-du-rapport-de-la-commission-bronner
[6] Rapp., recomm. 19, p.84.
[7] Rapp., recomm. 18., p.82.
[8] Rapp., recomm. 4, 5 et 6, p. 50 et 51.
[9] Rapp., recomm. 2, p.46.
[10] Article 3 du décret n° 2017-159 du 9 février 2017 relatif aux prestations de publicité digitale.
[11] Rapp., recomm. 8, p.109.
[12] Rapp., recomm. 24 et 25, p. 93.
[13] Rapp., recomm. 27 et 29, p. 97 et 98.