II. LES RÉSEAUX SOCIAUX À LA SOURCE DU PROBLÈME ?

A. UNE NOUVELLE MODALITÉ DE DÉSINFORMATION

1. Un espace d'expression pour les désinformateurs

Les réseaux sociaux ont radicalement transformé la manière dont l'information est diffusée et partagée. Contrairement aux médias traditionnels, qui ne permettent qu'à un nombre restreint d'acteurs sélectionnés de s'exprimer, ces plateformes offrent à tous une liberté d'expression quasi totale. Quel que soit son niveau d'expertise, chacun peut y exprimer sa propre vision des faits sur un même pied d'égalité et accéder à un auditoire large. Aussi, les réseaux sociaux offrent un mode d'expression aux désinformateurs, qui n'avaient auparavant que faiblement voix au chapitre dans les médias traditionnels. Ils peuvent toucher de nouveaux publics mais également identifier des personnes partageant les mêmes idées afin de s'organiser sous forme de réseaux.

2. Un mode d'expression surexploité par les désinformateurs

Si les réseaux sociaux offrent une possibilité d'expression équitable à tout internaute, le recours à cette opportunité fait apparaître de fortes disparités.

La motivation à s'exprimer sur les réseaux sociaux sur une thématique donnée est davantage liée à la force des convictions que l'on est susceptible d'avoir qu'à la connaissance de celle-ci. L'effet Dunning-Kruger entraînerait même, chez les personnes les moins qualifiées, une surestimation de leurs compétences et, par conséquent, une surexpression, à l'opposé des experts appréciant plus justement les limites de leurs savoirs.

On voit ainsi émerger des « super contributeurs »362(*), qui vont être à l'origine d'une part importante du contenu disponible et bénéficier d'un important pouvoir d'influence, en dépit de leur faible légitimité. Une étude académique portant sur un échantillon de 2,7 millions de tweets a montré que 75 % des liens dirigeant vers des sites web connus pour publier des informations erronées n'avaient été partagés que par 1 % des contributeurs363(*).

De même, une analyse du contenu anti-vaccin publié sur Facebook et Twitter pendant la pandémie a identifié que 65 % de celui-ci proviendrait de douze personnes seulement364(*). On observe une situation similaire sur la thématique climatique, où un faible nombre d'acteurs produisent une part importante des contenus climatosceptiques365(*).

Ces sur-contributions se traduisent par une sur-représentation de certains points de vue. Avant la pandémie, une étude avait montré que les pages anti-vaccins occupaient une place disproportionnée sur Facebook366(*), une tendance qui serait également observée sur d'autres sujets de santé et sur d'autres plateformes367(*). Les réseaux sociaux agissent donc comme un miroir déformant, accentuant la visibilité d'individus aux positions extrêmes, pourtant peu représentatifs de la société dans son ensemble.

3. Des mécanismes qui favorisent certains contenus et n'encouragent pas à la vigilance

Cette asymétrie d'expression est accentuée par l'éditorialisation des contenus effectuée par les plateformes. La manière dont les informations se propagent sur les réseaux sociaux est en effet dictée par leur architecture : face au nombre important de contributions, ce sont les algorithmes de ces plateformes qui déterminent les contenus mis en avant.

Or, cette éditorialisation répond à des enjeux économiques et a pour principal objectif d'encourager l'attention et l'engagement des utilisateurs. Aussi, les algorithmes tendent à promouvoir les contenus sensationnels et clivants, susceptibles de susciter des émotions négatives comme l'indignation ou la colère et d'entraîner de l'engagement368(*), plutôt que des informations mesurées et vérifiées. Une étude menée sur Facebook lors de l'élection présidentielle américaine de 2020 a ainsi montré que les messages de mésinformation entraînaient six fois plus d'engagement que les autres369(*).

En France, les publications Facebook contenant des liens vers des sites d'information non fiables représentaient 23 % de tous les engagements avec des médias entre 2017 et 2021, alors que ces sites représentaient moins de 5 % des visites de sites d'information sur cette même période370(*). De même, d'après le Center for Countering Digital Hate (Centre de lutte contre la haine numérique), les messages critiques à l'égard des vaccins bénéficieraient d'une visibilité importante et croissante sur les réseaux sociaux371(*). Plusieurs études ont également montré que les plateformes avaient tendance à favoriser des contenus climatosceptiques372(*).

En outre, les algorithmes sont conçus pour proposer des contenus en accord avec nos préférences individuelles, favorisant l'homophilie et enfermant dans des bulles numériques qui agissent comme des chambres d'écho idéologiques373(*). L'absence de contradiction qui en découle ne favorise pas une remise en question critique des informations rencontrées et peut laisser croire à l'existence d'un consensus sur des sujets pourtant controversés. En renforçant les opinions préconçues à l'intérieur de communautés virtuelles, les plateformes peuvent encourager une sorte de radicalisation374(*).

Enfin, les réseaux sociaux seraient susceptibles de troubler notre système de traitement de l'information. D'après Laurent Cordonier, les réseaux sociaux, qui seraient fréquentés principalement dans une optique récréative pour consommer du divertissement, encourageraient un traitement de l'information « intuitif » qui se traduirait par un défaut de vigilance vis-à-vis des informations rencontrées. Il a notamment été montré que les internautes avaient tendance à partager des contenus sans nécessairement juger de l'exactitude de l'information375(*), renforçant la circulation de fausses informations.


* 362 G. Bronner, Les Lumières à l'ère numérique, 2022

( https://www.vie-publique.fr/files/rapport/pdf/283201.pdf).

* 363 En ce qui concerne les liens pointant vers des sites Internet réputés fiables, seuls 30 % des liens sont partagés par le 1 % des contributeurs les plus actifs. Voir : M. Osmundsen et al., Am. Political Sci. Rev. 2021, 115, 999 ( https://doi.org/10.1017/S0003055421000290).

* 364 Center for Countering Digital Hate, The Disinformation Dozen, 2021 ( https://counterhate.com/research/the-disinformation-dozen/).

* 365 Institute for Strategic Dialogue, Deny, deceive, delay. Documenting and responding to climate disinformation at COP26 and beyond, 2022 ( https://www.isdglobal.org/isd-publications/deny-deceive-delay-documenting-and-responding-to-climate-disinformation-at-cop26-and-beyond-full/).

* 366 N. F. Johnson et al., Nature 2020, 582, 230 ( https://doi.org/10.1038/s41586-020-2281-1).

* 367 Y. Wang et al., Soc. Sci. Med. 2019, 240, 112552 ( https://doi.org/10.1016/j.socscimed.2019.112552).

* 368 D'après les révélations des « Facebook Files », l'algorithme de Facebook attribuerait 5 fois plus de poids à l'émoticône « colère » qu'au simple « j'aime ». Voir : J. B Merryl et al., Five points for anger, one for a `like' : How Facebook's formula fostered rage and misinformation, 2021 ( https ://www.washingtonpost.com/technology/2021/10/26/facebook-angry-emoji-algorithm/).
Voir également : W. J. Brady
et al., Proc. Natl. Acad. Sci. USA 2017, 114, 7313 ( https://doi.org/10.1073/pnas.1618923114).

* 369 L. Edelson et al., IMC `21 2021, 444 ( https://doi.org/10.1145/3487552.3487859).

* 370 S. Altay et al., JQD:DM 2022, 2, 1 ( https://doi.org/10.51685/jqd.2022.020).

* 371 Center for Countering Digital Hate, Failure to Act. How Tech Giants Continue to Defy Calls to Rein in Vaccine Misinformation, 2020 ( https://www.counterhate.com/failure-to-act).

* 372 Une étude a par exemple montré que, face à des recherches sur la thématique climatique, YouTube proposait majoritairement des vidéos qui s'opposent au consensus établi. Voir : J. Allgaier, Front. Commun. 2019, 4, 36 ( https://doi.org/10.3389/fcomm.2019.00036). Voir également : Institute for Strategic Dialogue, Deny, deceive, delay (vol. 2). Exposing New Trends in Climate. Mis- and Disinformation at COP27, 2023 ( https://www.isdglobal.org/isd-publications/deny-deceive-delay-vol-2-exposing-new-trends-in-climate-mis-and-disinformation-at-cop27/).

* 373 a) M. Del Vicario et al., Proc. Natl. Acad. Sci. USA 2016, 113, 554 ( https://doi.org/10.1073/pnas.1517441113) ; b) M. Del Vicario et al., Sci. Rep. 2016, 6, 37825 ( https://doi.org/10.1038/srep37825) ; c) M. Cinelli et al., Proc. Natl. Acad. Sci. USA 2021, 118, e20233011 ( https://doi.org/10.1073/pnas.2023301118).
Un effet similaire a pu être observé avec les moteurs de recherche. Voir : K. Aslett
et al., Nature 2024, 625, 548 ( https://doi.org/10.1038/s41586-023-06883-y).

* 374 G. Bronner, Les Lumières à l'ère numérique, 2022

( https://www.vie-publique.fr/files/rapport/pdf/283201.pdf).

* 375 a) G. Pennycook et al., Nature 2021, 592, 590 ( https://doi.org/10.1038/s41586-021-03344-2) ; b) G. Pennycook et al., Trends Cogn. Sci. 2021, 25, 388 ( https://doi.org/10.1016/j.tics.2021.02.007).

Les thèmes associés à ce dossier

Partager cette page