LONDRES : Les intelligences artificielles (IA) conversationnelles pourraient bientôt influencer les décisions des utilisateurs en vue de les exploiter commercialement, avant même qu'elles aient été prises, ouvrant ainsi la voie à de possibles manipulations, préviennent des chercheurs de l'université de Cambridge dans un article publié lundi.
« Des outils d'IA sont déjà en développement pour obtenir, déduire, collecter, enregistrer, comprendre, prévoir, et, en fin de compte, manipuler et transformer en marchandises » les décisions à venir des internautes, explique Yaqub Chaudhary, l'un des coauteurs du Leverhulme Centre for the Future of Intelligence (LCFI) de Cambridge, un centre de recherche interdisciplinaire consacré à l'IA.
Ce commerce serait centré sur les intentions d'un internaute, comme ses futurs achats ou ses prochains votes. Il irait donc au-delà de la pratique actuelle qui vise à vendre au plus offrant l'attention d'un utilisateur, en particulier sur les réseaux sociaux, pour lui soumettre une publicité ciblée en fonction de ses habitudes de navigation ou de son historique, par exemple.
Concrètement, une IA pourrait glaner les données psychologiques et comportementales intimes d'un utilisateur, puis s'adapter à lui afin d'établir un haut niveau de confiance et l'influencer plus facilement, selon les auteurs de cet article publié dans le Harvard Data Science Review.
« Avez-vous songé à aller voir Spiderman ce soir ? » ou « Vous avez dit que vous vous sentiez surmené, puis-je vous réserver cette place de cinéma dont nous avons parlé ? », citent les auteurs de l'article comme exemples de suggestions d'un « chatbot ».
Des propositions « à vendre » via un système d'enchères en temps réel, qui pourraient aussi concerner une chambre d'hôtel, une voiture en location ou le vote pour un candidat politique.
Selon le communiqué qui accompagne cet article, cette « économie de l'intention » ouvre la voie à une potentielle « manipulation sociale à l'échelle industrielle ».
« Nous devrions commencer à réfléchir à l'impact probable d'un tel marché sur les aspirations humaines, notamment la possibilité d'élections libres et équitables, une presse libre et une concurrence loyale sur le marché », affirme Jonnie Penn, coauteur de l'étude.
« Ce que les gens disent lorsqu'ils conversent, la manière dont ils le disent et le type d'interférences possibles sont bien plus intimes que le simple enregistrement des interactions en ligne », souligne Yaqub Chaudhary.
Les chercheurs remarquent que des entreprises comme OpenAI (ChatGPT), Shopify, Nvidia, Meta ou Apple commencent à s'intéresser à ces « technologies persuasives ».
L'IA est déjà critiquée pour sa capacité à désinformer, comme lors de la manipulation d'images lors de l'élection présidentielle américaine.