SAN FRANCISCO : Facebook a donné plus d'outils de modération aux administrateurs des groupes, un nouvel effort pour assurer des échanges plus civils sur le réseau social régulièrement accusé d'encourager les la propagation de la haine dans la société.
Le groupe californien a dévoilé mercredi une nouvelle option, baptisée "Admin Assist", qui permet aux personnes en charge de déterminer avec des critères ce qui est acceptable ou non sur le groupe, et de vérifier automatiquement les contenus et commentaires potentiellement problématiques.
Les administrateurs peuvent aussi utiliser les outils pour supprimer les messages comportant des liens vers des contenus non désirables, pour ralentir les conversations trop animées ou imposer aux utilisateurs une période minimum sur Facebook ou dans un groupe donné avant de pouvoir participer aux conversations.
"Ces options automatisent des choses que les administrateurs faisaient manuellement avant", a précisé Tom Alison, un vice-président de la société.
La plateforme a pris de nombreuses mesures depuis des années pour assainir les échanges et tenter d'éradiquer les contenus qui enfreignent ses règlements, de l'incitation à la violence, à la désinformation et au racisme.
Les groupes Facebook, pour la plupart non publics, sont perçus comme les derniers bastions où les insultes et opinions extrémistes risquent de fuser sans retenue, même s'ils sont initialement constitués autour de passions et intérêts communs (musique, parents d'un même quartier, etc).
"Certains de ces groupes comptent des millions de personnes", fait remarquer Tom Alison. Selon lui, plus d'1,8 milliard de personnes en utilisent tous les mois, sous les offices de 70 millions d'administrateurs.
Grâce aux technologies d'intelligence artificielle (IA), les systèmes automatisés de Facebook scannent déjà les échanges sur les groupes pour retirer les infractions.
Le géant des réseaux sociaux teste aussi des outils d'IA qui devront repérer des conversations sur le point de dégénérer, quand le rythme des réponses s'accélère par exemple, et avertir les modérateurs.
"Certains administrateurs apprécient le débat, d'autres non", note Tom Alison.
Selon Brian Anderson, un administrateur de "Dads With Daughters" ("Pères et filles"), les outils fournis récemment par Facebook ont déjà permis de réduire le nombre de modérateurs nécessaires pour policer les échanges sur ce groupe de 127.000 personnes, où les papas partagent des conseils pour élever leurs filles.
Les modérateurs ont notamment donné le ton en s'opposant fermement aux contenus relevant de la "masculinité toxique" - des images humoristiques montrant des pères avec des armes à feu pour soi-disant protéger leurs filles des soupirants.