Explication des modèles des réseaux profonds en problèmes de classification, d'amélioration et d’interprétation des images et des signaux/données (GdR ISIS, GdR IG-RV)


Date
oct. 11, 2021 10:00 AM — 5:00 PM
Lieu
Salle CNRS VilleJuif

L’apprentissage profond, un des outils-phares de l’Intelligence Artificielle, a remporté un grand succès dans de nombreux domaines en traitement et analyse des images, des vidéos, de l’information multimodale. Cependant, l’aspect boîte noire des réseaux de neurones profonds est devenu l’un des principaux obstacles à leur large acceptation dans des applications critiques telles que le diagnostic médical et la thérapie, voire la conduite autonome. Au lieu de développer et d’utiliser les réseaux de neurones profonds comme des boîtes noires et d’adapter des architectures connues à une variété de problèmes, le but de l’apprentissage profond explicable est de proposer des méthodes pour “comprendre” et “expliquer” comment ces systèmes produisent leurs décisions. L’explication des décisions des réseaux profonds comporte deux aspects: l’analyse des décisions et la présentation des explications à l’utilisateur. Elle fait donc intervenir deux communautés scientifiques Intelligence artificielle/Image et Visualisation de l’information. L’objectif de cette deuxième journée du GDR-ISIS est de rassembler la communauté des chercheurs qui travaillent sur la question de l’amélioration de l’explicabilité des algorithmes et systèmes d’IA dans le domaine image-signal et de visualisation de l’information.

Les principaux sujets que nous proposons de traiter sont les suivants mais peuvent être étendus :

  • explication des caractéristiques générées par des couches de convolution des réseaux profonds convolutionnels,
  • les mécanismes d’attention dans les réseaux neuronaux profonds et leur explication ;
  • pour les données temporelles, l’explication des caractéristiques et des moments les plus importants pour la prédiction et des intervalles de temps où la contribution de chaque donnée est importante ;
  • comment l’explication peut aider à rendre les architectures d’apprentissage profond plus parcimonieuses et plus légères ;
  • lors de l’utilisation de données multimodales, comment les prédictions dans les flux de données sont corrélées et s’expliquent entre elles ;
  • la génération automatique d’explications / justifications des décisions des algorithmes et des systèmes ;
  • visualisation des explications de manière interprétable pour les utilisateurs;
  • évaluation des explications générées par l’apprentissage profond et d’autres systèmes d’IA:

Cette journée est organisée conjointement par le thème B Image et vision et le thème T conjointement avec GDR IGRV . Le programme comporte 2 conférences invitées :

“Une analyse théorique de la méthode LIME”, Damien Garreau, Laboratoire J.A. Dieudonné UMR CNRS 7351 Université de Nice Côte d’Azur “Reasoning vs. bias exploitation: X-raying high-capacity deep networks” Chrisian Wolf, LIRIS UMR 5205, INSA Lyon

Organisateurs :

GDR-ISIS

Nicolas Thome : nicolas.thome@cnam.fr Jenny Benois-Pineau : jenny.benois-pineau@u-bordeaux.fr Alexandre Benoit : alexandre.benoit@univ-smb.fr

GDR-IGRV

Romain Vuillemot : romain.vuillemot@ec-lyon.fr Romain Bourqui : romain.bourqui@u-bordeaux.fr

Propositions des exposés sont à envoyer aux organisateurs de la journée.

Romain Vuillemot
Romain Vuillemot
Co-responsable GT-Visu