WASHINGTON : Facebook s'était préparé à faire face à des campagnes massives d'influence, comme celles qui ont entaché les élections américaines de 2016, mais pas forcément à contrer la multitude d'acteurs qui ont adopté le même genre de tactiques, à moindre échelle, jusqu'à la veille de la présidentielle.
« Il y a quatre ans, il y avait un petit nombre d'acteurs malveillants, responsables de la majorité de la désinformation », constate Laura Edelson, chercheuse à l'université de New York (NYU). « Maintenant, il y a de nombreux annonceurs qui regardent ce qui s'est passé en 2016 et y voient une bonne stratégie ».
Le groupe californien avait pourtant pris de nombreuses précautions, comme l'interdiction des nouvelles publicités politiques pendant les sept derniers jours de la campagne. Mais plusieurs failles ont été exposées ces derniers jours.
Le Wall Street Journal a révélé au cours du weekend que certains messages de soutien au président Donald Trump, contenant de fausses informations sur son rival démocrate Joe Biden, avaient été partagées par un groupe conservateur, le « American Principles Project », alors qu'ils avaient été bannis auparavant.
Facebook les a de nouveau supprimés après l'article du quotidien américain. Ils prétendaient, à tort, que Joe Biden soutenait le mouvement d'extrême-gauche Antifa et qu'il était favorable à la chirurgie transgenre pour les enfants.
Le temps que le réseau social intervienne, certains messages avaient déjà été partagés plus de 3 millions de fois, notamment dans des Etats-clés pour le scrutin, d'après Laura Edelson, responsable d'un observatoire de la publicité à NYU.
Trous dans le filet
En cause: Facebook n'a pas automatiquement bloqué les copies des publicités interdites.
La plateforme « ne permet pas la diffusion d'objets identiques mais quelqu'un peut les recréer », explique la chercheuse, qui assure aussi avoir vu « le même groupe reposter la même annonce ».
« Lorsqu'un vérificateur détermine qu'une publicité est mensongère, nous l'étiquetons comme telle, nous la rétrogradons et nous lui retirons le statut de publicité », a indiqué un porte-parole de Facebook. « Nous avons vérifié ces publicités et nous agissons contre ceux qui enfreignent nos règles tout en tâchant d'améliorer notre système de détection de publicités similaires à celles déjà évaluées ».
Aux problèmes révélés dimanche s'ajoutent d'autres incohérences. La semaine dernière, des publicités ont été suspendues « par erreur », a dû reconnaître un responsable des outils publicitaires sur Facebook, après de nombreuses plaintes de démocrates.
L'entreprise a aussi été accusée d'avoir laissé passer des annonces de l'équipe de campagne de Donald Trump prétendant que le jour des élections était mardi dernier. Selon un article du Financial Times, le réseau a retiré ces messages, mais après qu'ils aient été vus par environ 200.000 personnes, principalement en Floride, Arizona et Géorgie.
Difficile d'évaluer les conséquences concrètes.
« En 2016, beaucoup de personnes ont été prises par surprise » par l'étendue de la désinformation, note Bret Schafer, un chercheur de l'ONG Alliance for Securing Democracy.
Aujourd'hui, « nous sommes mieux préparés en tant que société mais encore très loin de l'immunité. Donc cela pourrait avoir un impact », ajoute-t-il.
« Jeu de la taupe »
Pas d'autre choix que de policer les plateformes, donc. Mais « les modérateurs et les systèmes automatisés de Facebook n'arrivent pas à suivre le rythme et le volume des méthodes employées par différents acteurs pour contourner les restrictions », constate-t-il.
Traumatisés par les scandales de 2016, quand la plateforme avait été utilisée à des fins de propagande pro-Trump, le géant des réseaux sociaux sait que sa gestion de l'élection est suivie de près.
Mark Zuckerberg, le patron du groupe, a admis jeudi dernier que ce serait un « test ».
Le groupe a massivement investi dans un programme de vérification par des tiers, auquel participent une soixantaine de médias dans le monde.
« Notre boulot consiste un peu en une version moins drôle du jeu de la taupe à assommer », remarque Aaron Sharockman, directeur de PolitiFact, un des partenaires.
« Quand nous démontons une théorie conspirationniste, nous en voyons apparaître dix à la place. C'est la nature de ce travail et ce n'est pas surprenant que les acteurs malveillants trouvent des points faibles ou des failles à exploiter ».
Mais de nombreuses associations et politiques accusent le réseau de manquer de volonté plus que de moyens.
« Techniquement, ce n'est pas difficile d'empêcher les mêmes contenus d'être remis en ligne », note Laura Edelson au sujet des publicités mensongères rediffusées malgré l'interdiction. " »Cela montre qu'ils ne prennent pas au sérieux l'application des règles ».