Journée des axes Images/Systèmes Complexes/DAC sur l’explicabilité le 26/05/2026
Les axes « Images », « Systèmes Complexes » et « Données, Apprentissage, Connaissances » de la fédération Normastic organisent le mardi 26 mai 2026 une journée commune sur l’explicabilité en IA.
Elle est ouverte à tous les membres du GREYC et du LITIS (collègues, doctorants, post-doctorants, master…).
Le programme est en cours de construction, mais nous aurons le plaisir d’accueillir 2 ou 3 exposés invités, ainsi que des présentations de travaux menés au GREYC et au LITIS.
Cette journée aura lieu à l’université de Rouen Normandie sur le site de l’UFR des Sciences et Techniques du Madrillet, dans l’amphi D.
Exposés invités (en cours de finalisation) :
- Amaia Cardiel (Valeo.ai et LIG – Université Grenoble Alpes) (https://scholar.google.com/citations?user=QKdN4SAAAAAJ)
Titre (provisoire) : Explaining autonomous driving systems: from Vision Classifiers to Large Language Models
Résumé : As autonomous driving systems evolve from ‘simple’ modules (i.e., Vision Classifiers) to large systems (i.e., Large Language Models (LLMs)), understanding their decision-making processes remains a critical challenge. Standard Vision Classifiers can be explained using ‘counterfactual explanations’, a method that identifies minimal input perturbations to flip the predicted class, offering insights into decision boundaries. As this approach remains local, hard to interpret, and ambiguous, we introduce GIFT, a framework designed to aggregate local counterfactuals into global, coherent, human-readable explanations. Crucially, it includes a verification stage that quantitatively assesses the causal effect of each proposed hypothesis, filtering out noise and confounding factors from driving scenes.
Transitioning to recent LLM-based planning, local counterfactual methods do not exist off-the-shelf. Furthermore, relying on the native natural language explanations of LLMs for interpretability is risky, as they can act as unfaithful rationalization of predictions. We thus propose DRIV-EX, a method that generates valid counterfactual driving scenes that can flip an LLM’s decision. By uncovering biases, this method demonstrates how to extend causally-grounded model auditing to the next generation of autonomous driving systems.
- Ali Ayadi (ICube – Université de Strasbourg) (https://scholar.google.com/citations?user=yGn8v_kAAAAJ&hl=fr)
Titre : Vers des explications contrefactuelles sémantiques : génération, validation et enrichissement par ontologies modulaires
Résumé : Les explications contrefactuelles constituent un moyen intuitif d’expliquer les prédictions des modèles d’intelligence artificielle, en identifiant les changements nécessaires pour obtenir une décision ou une estimation différente. Cependant, les contrefactuels générés automatiquement peuvent être valides du point de vue du modèle tout en étant peu plausibles, difficilement interprétables ou incohérents avec les connaissances du domaine. Dans cette présentation, je présenterai un pipeline de génération, de validation et d’enrichissement sémantique d’explications contrefactuelles guidé par une ontologie modulaire. Cette ontologie comporte un module générique dédié aux propriétés attendues d’une explication contrefactuelle, telles que la validité, la proximité, la parcimonie et la diversité, ainsi qu’un module de domaine permettant de vérifier la conformité des contrefactuels avec des connaissances expertes, des contraintes physiques ou des spécifications métier.
L’objectif est de montrer comment l’intégration d’une ontologie dans le processus d’explication permet de produire des contrefactuels non seulement efficaces pour modifier la sortie du modèle, mais aussi sémantiquement cohérents, interprétables et exploitables par les experts du domaine. Cette approche ouvre la voie à des explications contrefactuelles dites sémantiques, dans lesquelles les changements proposés sont reliés à des concepts, contraintes et phénomènes du domaine.
- Jules Soria (CEA LIST – Université Paris-Saclay) (https://scholar.google.com/citations?user=1Qctec0AAAAJ&hl=en)
Titre : Formal Abductive Latent Explanations for Prototype-Based Networks
Résumé : Case-based reasoning networks are machine-learning models that make predictions based on similarity between the input and prototypical parts of training samples, called prototypes. Such models are able to explain each decision by pointing to the prototypes that contributed the most to the final outcome. As the explanation is a core part of the prediction, they are often qualified as « interpretable by design ». While promising, such explanations are sometimes misleading, which hampers their usefulness in safety-critical contexts. In particular, several instances may lead to different predictions and yet have the same explanation. Drawing inspiration from the field of formal eXplainable AI (FXAI), we propose Abductive Latent Explanations (ALEs), a formalism to express sufficient conditions on the intermediate (latent) representation of the instance that imply the prediction. Our approach combines the inherent interpretability of case-based reasoning models and the guarantees provided by formal XAI. We propose a solver-free and scalable algorithm for generating ALEs based on three distinct paradigms, compare them, and present the feasibility of our approach on diverse datasets for both standard and fine-grained image classification.
Programme (en construction) :
9h30 : accueil café
10h00 : Exposé Invité 1
10h50 : Pausé Café / Discussions
11h10 : Exposé Invité 2
12:00 : Déjeuner (Plateaux Repas offerts)
13:30 : Exposé Invité 3
14:20 – 16:30 : Exposés LITIS/GREYC et échanges
Fin vers 16h30
Inscription (nécessaire pour l’organisation).
Comme pour toute journée d’animation de la fédération, les frais de déplacement, repas et pauses café des membres du GREYC et du LITIS sont pris en charge par la fédération.
Comité d’organisation de la journée (à contacter si vous souhaitez contribuer) :
- caroline.petitjean@univ-rouen.fr
- cecilia.zanni-merk@insa-rouen.fr
- aleite@insa-rouen.fr
- bruno.cremilleux@unicaen.fr
- sebastien.adam@univ-rouen.fr