PARIS: 2024, année de tous les dangers: le spectre de la désinformation n'a jamais autant plané sur des élections, par dizaines ces prochains mois dans le monde, alors que l'intelligence artificielle (IA) vient encore compliquer la donne.
Près de la moitié de la population mondiale est concernée par un scrutin en 2024. Première élection aux enjeux internationaux, la présidentielle, le 15 janvier, à Taïwan, a vu déferler des vidéos trompeuses visant essentiellement les candidats favorables à l'indépendance.
"Un des enjeux les plus forts sera de voir si les progrès notamment en matière d'IA seront vraiment utilisés à une échelle suffisamment critique pour modifier le cours des votes. C'est une inconnue majeure", souligne auprès de l'AFP Julien Nocetti, chercheur associé au Centre Russie/Eurasie de l'Institut français des relations internationales (Ifri).
En jeu: "la capacité de résistance du modèle démocratique aux attaques d'acteurs" extérieurs.
Polarisation des opinions, délitement de la confiance dans les médias, défiance envers les dirigeants, conflits majeurs (Ukraine, Israël/Hamas): le contexte est porteur pour la désinformation, qui consiste essentiellement à attiser dissensions et sujets clivants (inflation, immigration, sujets religieux...).
Avec désormais une force de frappe potentiellement démultipliée par l'IA générative, qui permet de créer facilement des images de toutes pièces ou d'imiter des voix, et dont l'usage s'est largement démocratisé.
Comme, ces derniers mois, des images d'une arrestation de Donald Trump ou de fausses vidéos montrant un Joe Biden annonçant une mobilisation générale pour soutenir l'effort de guerre de l'Ukraine. La voix d'Emmanuel Macron a aussi fait l'objet de plusieurs faux sur internet.
«Sophistication»
Chine et Russie en particulier sont dans les radars.
La campagne d'influence à Taïwan avant la présidentielle était selon des experts orchestrée par Pékin, qui revendique l'île comme partie intégrante de son territoire.
Aux Etats-Unis, qui voteront en novembre, "Russie, Chine, Iran, militants violents et hackers vont très probablement conduire des campagnes d'influence à divers niveaux de magnitude et de sophistication pour façonner ou perturber" le scrutin, anticipe l'Insikt Group, entité de la société de renseignement Recorded Future, dans un rapport en décembre.
En dénigrant les candidats, en jetant le doute sur le processus électoral et en suscitant l'abstention, la désinformation sape la légitimité des résultats, avec des conséquences parfois dangereuses pour la démocratie, comme l'ont montré les allégations récurrentes de Donald Trump sur de prétendues fraudes électorales qui avait chauffé à blanc ses partisans partis à l'assaut du Capitole le 6 janvier 2021.
Pour Julien Nocetti, l'UE pourrait être confrontée lors des européennes de juin à des campagnes "délégitimant la cohésion et le projet européen, et le soutien apporté à l'Ukraine", des narratifs déjà récurrents ces derniers mois.
Meta (Facebook, Whatsapp et Instagram) et les autorités françaises ont vu la main de groupes proches du Kremlin dans l'opération "Doppelgänger" consistant à usurper l'identité de médias pour distiller des infox, anti-Ukraine en particulier.
Paradoxe, certains régimes répressifs pourraient aussi prendre prétexte de la lutte contre la désinformation pour imposer des mesures attentatoires aux droits humains, alerte par ailleurs le Forum économique mondial dans un rapport récent.
«Automatisation» de la lutte
Les Etats tentent de se mettre en ordre de bataille, mais le temps politique est plus lent que celui des réseaux sociaux et de la technologie.
Le "Digital India Act" du gouvernement indien manquera le rendez-vous des législatives du printemps.
Dans l'UE, la législation sur les services numériques ("Digital Services Act") impose aux plateformes le respect d'obligations, notamment agir "promptement" pour retirer un contenu signalé comme illégal ou de suspendre les utilisateurs bravant régulièrement les interdictions.
"Améliorations utiles mais limitées", juge la chercheuse Federica Marconi dans une étude pour l'Istituto Affari Internazionale et le European Policy Centre publiée fin 2023.
Quant à l'"AI Act" européen, premier projet de législation visant à réguler spécifiquement l'IA, il ne devrait pas entrer en vigueur avant... 2026.
Aux Etats-Unis, Joe Biden a bien signé fin octobre un décret sur des règles et orientations aux entreprises du numérique - notamment la transmission des résultats des tests de sécurité des modèles d'IA générative. Mais pas de loi fédérale contraignante.
Exhortés à agir, les géants du secteur insistent sur de nouvelles initiatives: mention obligatoire de l'utilisation de l'IA dans les publicités chez Meta, outil Microsoft permettant aux candidats d'authentifier leurs contenus avec un filigrane numérique.
Mais elles "confient de plus en plus les taches de modération à des IA, dans une automatisation de la lutte contre la désinformation qui ne semble pas la meilleure voie si on veut comprendre les stratégies hostiles" de ses relais, souligne Julien Nocetti.