LONDRES : WhatsApp serait utilisé pour cibler les Palestiniens par le biais du système d'intelligence artificielle israélien controversé, Lavender, qui a été associé à la mort de civils palestiniens à Gaza, ont révélé des rapports récents.
Au début du mois, la publication israélo-palestinienne +972 Magazine et le journal en hébreu Local Call ont publié un rapport du journaliste Yuval Abraham, exposant l'utilisation par l'armée israélienne d'un système d'intelligence artificielle capable d'identifier des cibles associées au Hamas ou au Jihad islamique palestinien.
Cette révélation, corroborée par six officiers des services de renseignement israéliens impliqués dans le projet, a suscité l'indignation de la communauté internationale, car elle suggère que Lavender a été utilisé par l'armée pour cibler et éliminer des militants présumés, entraînant souvent des pertes civiles.
Dans un récent billet de blog, l'ingénieur logiciel et activiste Paul Biggar a souligné la dépendance de Lavender à l'égard de WhatsApp.
Il a indiqué comment l'appartenance à un groupe WhatsApp contenant un militant présumé peut influencer le processus d'identification de Lavender, soulignant le rôle essentiel que jouent les plateformes de messagerie dans le soutien des systèmes de ciblage d'IA tels que Lavender.
« Un détail peu discuté dans l'article sur l'IA Lavender est qu'Israël tue des personnes sur la base de leur appartenance au même groupe WhatsApp qu'un militant présumé », a écrit Bigger. « Il y a beaucoup de choses qui ne vont pas ».
Il explique que les utilisateurs se retrouvent souvent dans des groupes avec des inconnus ou des connaissances.
Paul Biggar a également suggéré que la société mère de WhatsApp, Meta, pourrait être complice, sciemment ou non, de ces opérations.
Il a accusé Meta d'avoir potentiellement violé le droit humanitaire international et ses propres engagements en matière de droits de l'homme, soulevant des questions sur les revendications de confidentialité et de cryptage du service de messagerie de WhatsApp.
Cette révélation n'est que la dernière en date des tentatives de Meta pour réduire au silence les voix pro-palestiniennes.
Avant même le début du conflit, le géant de Menlo Park a été accusé de faire deux poids deux mesures en faveur d'Israël.
En février, le Guardian a révélé que Meta envisageait d'étendre sa politique d'incitation à la haine au terme « sioniste ».
Plus récemment, Meta a discrètement introduit une nouvelle fonctionnalité sur Instagram qui limite automatiquement l'exposition des utilisateurs à ce qu'elle considère comme un contenu « politique », une décision critiquée par les experts comme un moyen de censurer systématiquement le contenu pro-palestinien.
Répondant aux demandes de commentaires, un porte-parole de WhatsApp a déclaré que l'entreprise ne pouvait pas vérifier l'exactitude du rapport, mais a assuré que « WhatsApp n'a pas de portes arrière et ne fournit pas d'informations en vrac à un gouvernement. »
Ce texte est la traduction d'un article paru sur Arabnews.com