De la nécessité d’expliquer et former les utilisateurs (professionnels et patients) au fonctionnement des outils numériques

publié le 22 décembre 2021

Alain Mille, professeur émérite à l’université Claude Bernard de Lyon et membre de l’équipe  Tweak (Traces, Web, Education, Adaptation, Knowledge) du Laboratoire d’informatique en image et systèmes d’information du CNRS, accordait récemment une interview au média français Hospitalia, à l’occasion de laquelle il est revenu sur l’importance de la compréhensibilité des outils numériques, en ce compris l’intelligence artificielle, et de leur appropriation par les premiers intéressés – professionnels de santé et patients.

Extraits choisis…

Les travaux de l’équipe Tweak se concentrent notamment sur la manière de rendre visibles les actions qu’effectuent les utilisateurs avec et au sein des outils et solutions numériques auxquels ils ont recours: « Nous travaillons sur la visibilité de leurs actions au sein du dispositif numérique. Leur permettre de visualiser et comprendre ces « traces » me semble essentiel pour qu’ils se représentent le fonctionnement de ces outils, qu’ils en comprennent le raisonnement. Ils leur font ainsi davantage confiance et peuvent mieux se les approprier. »

[…] « L’apprentissage à partir de données est une possibilité qui connaît aussi des limites, notamment sur les plans de la quantité et de la qualité. Le Web fourmille de données qui, pour être traitées, doivent être temporalisées, localisées et nettoyées. Avoir des données utilisables mathématiquement impose un énorme travail de préparation à réaliser en amont. Une fois celui-ci effectué, l’algorithme peut rechercher des similitudes, des cohérences, des regroupements stables… et procéder à l’étiquetage des données dès lors qu’un schéma récurrent ressort.
Ce mode de fonctionnement, totalement différent d’un cerveau humain, n’est pas facile à identifier par ses utilisateurs. C’est pourquoi il doit être expliqué, pour être compris et accepté. »

[…] « Au-delà de sa dimension clinique, toute application médicale nous confronte à des enjeux vitaux, déontologiques et éthiques, et impose donc une explication de son fonctionnement. Un radiologue qui, par exemple, ne comprendrait pas le raisonnement de son logiciel d’IA, préférera certainement repasser en exercice manuel.
Un tel processus est certes nécessaire au principe de garantie humaine, mais il ne doit pas être dû à une incompréhension ou une fausse conception des utilisateurs. La pédagogie est ici nécessaire. La société doit pouvoir s’approprier cette science. »

[…] « La déontologie propre à la profession, et plus largement au monde des soins, pourrait à l’avenir bénéficier des apports de l’IA. On pourrait très bien imaginer une aide pour l’information des patients et de leurs familles, ou pour mieux détailler les différentes conséquences possibles d’une situation.
Mais, une fois de plus, comprendre le raisonnement et les recommandations de ces outils est essentiel pour décider de les utiliser et pouvoir les expliquer aux autres.
Ce dernier point est important, puisqu’il implique un échange raisonné et éclairé. Aussi foisonnantes soient-elles, les explications en amont ne garantissent pas une adhésion à 100%. Notre société sur-informée reste mal informée et l’enjeu principal sera de créer des liens entre sachants et usagers. »