Prise de position de l’OMS en matière d’IA générative en santé. Mot d’ordre: prudence !

publié le 23 mai 2023

“Prudence en matière d’utilisation des outils liés aux grands modèles de langage générés par l’intelligence artificielle (IA) afin de protéger et de promouvoir le bien-être, la sécurité humaine et l’autonomie, et de préserver la santé publique”. Telle est la prise de position publiée récemment par l’Organisation mondiale de la Santé (OMS).

Sont plus spécifiquement visés les plates-formes telles que ChatGPT (et tous ses petits cousins actuels et à venir – Bard, Bert et consorts) qui s’appuient sur cette nouvelle génération de grands modèles de langage (Large Language Model, en anglais) qui imitent la compréhension, le traitement et la production de communications humaines 

“Il est impératif que les risques soient examinés attentivement lors de l’utilisation de ces modèles pour améliorer l’accès à l’information sanitaire, en tant qu’outil d’aide à la décision, ou même pour renforcer la capacité de diagnostic dans les contextes où les moyens sont insuffisants afin de protéger la santé des personnes et de réduire les inégalités”.

Certes l’OMS salue l’utilité de certaines nouvelles technologies avancées mais juge dans le même temps “préoccupant de constater que le principe de précaution exercé habituellement à toute nouvelle technologie ne s’applique pas de manière systématique dans le cas des grands modèles de langage”. L’Organisation pointe notamment la légèreté affichée en matière de respect de certaines valeurs-clé. Et de citer “la transparence, l’inclusion, la participation du public, la supervision par des experts et l’évaluation rigoureuse”.

Et de poursuivre dans son communiqué: “L’adoption précipitée de systèmes qui n’ont pas été testés pourrait entraîner des erreurs de la part des personnels de santé, nuire aux patients, saper la confiance dans l’intelligence artificielle et ainsi compromettre (ou retarder) les avantages et les utilisations potentiels à long terme de ces technologies dans le monde entier.”

La liste des risques pointés est longue: biais dans les données utilisées pour entraîner les algorithmes, “produisant des informations trompeuses ou inexactes susceptibles de poser des risques pour la santé, l’équité et l’inclusion” ; des réponses générées par l’IA “qui peuvent sembler faire autorité et sont plausibles pour un utilisateur final” mais “peuvent être complètement incorrectes ou contenir de graves erreurs” ; l’absence potentielle de consentement initial des personnes concernées dont les données sont utilisées par les modèles de langage ; l’absence de protection des données sensibles ; le risque de voir les grands modèles de langage “être utilisés à mauvais escient pour produire et diffuser de fausses informations très convaincantes sous la forme de contenu textuel, audio ou vidéo qu’il est difficile pour le public de différencier d’un contenu de santé fiable”.

D’où l’appel à la prudence et à “l’élaboration de politiques afin d’assurer la sécurité et la protection des patients” ainsi qu’à l’application des principes d’éthique et d’une gouvernance appropriée, tels qu’énoncé dans le document “Guidance on the ethics and governance of AI for health”.

Autre appel : “que des données attestant clairement des avantages soient évaluées avant leur utilisation généralisée dans le cadre des soins de santé généraux et de la médecine, que ce soit par les individus, les prestataires de soins ou les administrateurs et décideurs du système de santé”.

Lien vers le document “Guidance on the ethics and governance of AI for health” publié en 2021 par l’OMS.