LONDRES : Selon une étude, les messages diffusés sur les réseaux sociaux qui véhiculent des informations erronées, des manipulations, des mensonges et des tromperies - autrement appelés "fake news" - ont généré six fois plus de clics, de likes, de partages et d'interactions sur Facebook par comparaison aux sources d'information traditionnelles entre août 2020 et janvier 2021.
L'étude à paraître, qui a été évaluée par des pairs, a été menée conjointement par l'Université de New York et l'Université Grenoble Alpes en France. Elle a porté sur le comportement des utilisateurs de Facebook lors de l'élection présidentielle américaine de 2020.
L'expression "fake news" a pris forme mi-2016 pendant la course à la présidence de Donald Trump et s'est essentiellement transformée en une virulente insulte politique pendant le premier mandat de Trump et sa campagne de réélection infructueuse quatre ans plus tard.
Facebook n'est certainement pas la seule plateforme de réseaux sociaux à profiter de l'exploration des "fake news", l'expression étant très vite entrée dans le lexique américain.
"Ce rapport examine surtout la façon dont les personnes interagissent avec le contenu, ce qui ne doit pas être confondu avec le nombre de personnes qui le voient réellement sur Facebook", a déclaré Joe Osborne, porte-parole de la société.
"Lorsque vous regardez le contenu qui obtient la plus grande portée sur Facebook, il ne correspond pas du tout à ce que cette étude suggère."
Cependant, le nombre de personnes qui consultent réellement une certaine publication, connu sous le nom d'impressions, n'est pas disponible pour les chercheurs ou le public.
Selon Osborne, Facebook dispose de vérificateurs de faits qui limitent les publications contenant des informations erronées.
Début août, Facebook aurait désactivé les comptes personnels des chercheurs de l'Université de New York impliqués dans l'étude, arguant que le groupe publiait des études académiques sur la plateforme "aux dépens de la vie privée des personnes".
Toutefois, selon les experts, cette étude valide la critique selon laquelle les algorithmes de Facebook alimentent la diffusion de désinformation et de "fake news" au détriment d'informations plus fiables.
Facebook et d'autres sociétés de médias sociaux ont récemment tenté de renforcer la surveillance des informations erronées et de la désinformation partagées sur leurs plateformes. En août, Facebook a annoncé qu'il avait démantelé 53 comptes et 51 pages diffusant des informations erronées sur son site.
La société multinationale, basée à Menlo Park, en Californie, a été fondée en 2004 par Mark Zuckerberg et quatre autres étudiants de Harvard College. Aujourd'hui, Mark Zuckerberg est le PDG, président et actionnaire majoritaire de Facebook.
"Il est clair maintenant que nous n'avons pas fait assez pour empêcher que ces outils soient également utilisés pour nuire", a déclaré Mark Zuckerberg lors de son témoignage devant une commission conjointe du Sénat américain, près de deux ans avant l'élection présidentielle de 2020.
"Cela vaut pour les fake news, l'ingérence étrangère dans les élections et les discours de haine, ainsi que pour les développeurs et la confidentialité des données. Nous n'avons pas eu une vision suffisamment large de notre responsabilité, et c'était une grave erreur. C'était mon erreur, et je suis désolé. J'ai créé Facebook, je le dirige, et je suis responsable de ce qui se passe ici."