GENEVE: L'intelligence artificielle (IA) générative pourrait révolutionner les soins de santé en accélérant par exemple le dépistage de maladies, mais sa mise en oeuvre précipitée et sans garde-fou comporte des dangers, alerte l'OMS.
Dans un document publié jeudi, l'Organisation mondiale de la santé analyse les dangers et les avantages de l'utilisation des grands modèles multimodaux (dits LMM) - un type de technologie d'IA générative - en matière de santé.
Ces LMM peuvent utiliser plusieurs types de données, y compris du texte, des images et des vidéos, et générer des résultats qui ne se limitent pas au type de données introduites dans l'algorithme.
"Certains affirment que cela imite la pensée et le comportement des humains, et la façon dont ces derniers résolvent des problèmes de façon interactive", a indiqué Alain Labrique, directeur de la santé numérique et de l'innovation à l'OMS, en conférence de presse.
Selon l'OMS, les LMM devraient à l'avenir être largement utilisés dans les domaines de la santé, de la recherche scientifique et de la mise au point de médicaments.
L'organisation définit cinq domaines qui pourraient utiliser cette technologie : le dépistage; la recherche scientifique et le développement de médicaments; l'enseignement médical et infirmier; les tâches administratives; et l'examen des symptômes.
Si cette technologie présente un grand potentiel, l'OMS souligne que ces LMM peuvent produire des résultats "faux, inexacts, biaisés, ou incomplets".
"Alors que les LMM sont de plus en plus utilisés dans les soins et la médecine, les erreurs, les mauvais usages et, en fin de compte, les préjudices causés aux individus sont inévitables", relève l'OMS.
Géants de la tech
Le document de l'OMS présente de nouvelles orientations sur l'éthique et la gouvernance des LMM, formulant plus de 40 recommandations à l'intention des gouvernements, des entreprises technologiques et des prestataires de soins de santé sur la manière de tirer parti de cette technologie en toute sécurité.
L'organisation estime qu'il ne faut pas attendre que cette technologie soit déployée dans les centres de santé pour en découvrir les failles et les corriger.
"Les technologies d'IA générative ont le potentiel d'améliorer les soins mais seulement si ceux qui développent, réglementent et utilisent ces technologies identifient et prennent pleinement en compte les risques associés", souligne le scientifique en chef de l'OMS, Jeremy Farrar.
"Nous avons besoin d'informations et de politiques transparentes pour gérer la conception, le développement et l'utilisation des LMM afin d'obtenir de meilleurs résultats en matière de santé et pour surmonter les inégalités persistantes en matière de santé", ajoute-t-il.
L'OMS lance un appel à la mis en place de garanties "que les usagers lésés par un LMM soient correctement indemnisés ou disposent d'autres formes de recours".
L'IA est utilisée en santé publique et en médecine clinique depuis plus d'une décennie, par exemple en radiologie, mais selon l'OMS les LMM présentent "des risques que les sociétés, les systèmes de santé et les utilisateurs finaux ne sont peut-être pas encore prêts à affronter pleinement".
Elle souligne également que la conformité des LMM avec les réglementations existantes, notamment en matière de protection des données, suscitait aussi des inquiétudes.
Par ailleurs, le fait que les LMM soient souvent développés et déployés par les géants de la technologie suscite également des inquiétudes et risque d'asseoir la domination de ces entreprises, selon l'OMS.
L'organisation recommande donc que les LMM soient développés non seulement par les scientifiques et les ingénieurs, mais aussi par les professionnels de la santé et les patients.
L'OMS met également en garde contre la vulnérabilité des LMM aux risques en matière de cybersécurité, qui pourraient mettre en péril les informations relatives aux patients, voire la fiabilité des soins de santé.
Enfin, elle conclut que les gouvernements devraient charger des autorités de régulation d'approuver l'utilisation des LMM dans le domaine de la santé, et demande la mise en place d'audits afin d'évaluer l'impact de cette technologie.