Du federated learning (IA) pour concevoir des modèles de diagnostic automatisé respectueux de la privacy

publié le 8 juin 2021

Comment effectuer des développements en IA (modèles analytiques, algorithmes) au service de la médecine et de nouvelles solutions sans enfreindre les règles de respect de la vie privée? Comment utiliser efficacement les données sans mettre à mal la confidentialité?

Il a déjà été démontré que les techniques d’anonymisation et de pseudonymisation ne suffisent pas à garantir la protection des données personnelles, de simples recoupements avec d’autres bases de données suffisant souvent à ré-identifier les personnes auxquelles se réfèrent les données…

Une équipe de recherche de l’Université technique de Munich (TUM), de l’Imperial College London et de la communauté open source OpenMined a mis au point une solution basée sur le principe de “federated learning” (apprentissage fédéré) qui, affirme-t-elle, résout le problème. Nom de baptême: PriMIA (Privacy-preserving Medical Image Analysis).

La solution d’aide au diagnostic radiologique procède par combinaison d’images radiologiques, en recourant à trois techniques:l’agrégation sécurisée (via chiffrement – les modèles sont entraînés dans différents hôpitaux en utilisant leurs données, avant consolidation des résultats des entraînements en un modèle unique ; le décryptage n’intervient qu’une fois les modèles entraînés par les différentes institutions participantes) ; la confidentialité différentielle (ajout d’un bruit statistique – données aléatoires – aux données individuelles avant transfert) ; etla corrélation statistique (aucune extraction de données des personnes individuelles).

Les travaux de ces chercheurs ont fait l’objet d’un article “End-to-end privacy preserving deep learning on multi-institutional medical imaging”, publié dans la revue Nature.