BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Normastic - ECPv6.15.20//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-ORIGINAL-URL:https://www.normastic.fr
X-WR-CALDESC:Évènements pour Normastic
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:Europe/Paris
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20250330T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20251026T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20260329T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20261025T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20270328T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20271031T010000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20260526T093000
DTEND;TZID=Europe/Paris:20260526T170000
DTSTAMP:20260502T144641
CREATED:20260427T082955Z
LAST-MODIFIED:20260429T112005Z
UID:17904-1779787800-1779814800@www.normastic.fr
SUMMARY:Journée des axes Images/Systèmes Complexes/DAC sur l'explicabilité le 26/05/2026
DESCRIPTION:Les axes « Images »\,  « Systèmes Complexes » et « Données\, Apprentissage\, Connaissances » de la fédération Normastic organisent le mardi 26 mai 2026 une journée commune sur l’explicabilité en IA.  \nElle est ouverte à tous les membres du GREYC et du LITIS (collègues\, doctorants\, post-doctorants\, master…). \nLe programme est en cours de construction\, mais nous aurons le plaisir d’accueillir 2 ou 3 exposés invités\, ainsi que des présentations de travaux menés au GREYC et au LITIS. \nCette journée aura lieu à l’université de Rouen Normandie sur le site de l’UFR des Sciences et Techniques du Madrillet\, dans l’amphi D. \nExposés invités (en cours de finalisation) :\n\nAmaia Cardiel (Valeo.ai et LIG – Université Grenoble Alpes) (https://scholar.google.com/citations?user=QKdN4SAAAAAJ)\n\nTitre (provisoire) : Explaining autonomous driving systems: from Vision Classifiers to Large Language Models \nRésumé : As autonomous driving systems evolve from ‘simple’ modules (i.e.\, Vision Classifiers) to large systems (i.e.\, Large Language Models (LLMs))\, understanding their decision-making processes remains a critical challenge. Standard Vision Classifiers can be explained using ‘counterfactual explanations’\, a method that identifies minimal input perturbations to flip the predicted class\, offering insights into decision boundaries. As this approach remains local\, hard to interpret\, and ambiguous\, we introduce GIFT\, a framework designed to aggregate local counterfactuals into global\, coherent\, human-readable explanations. Crucially\, it includes a verification stage that quantitatively assesses the causal effect of each proposed hypothesis\, filtering out noise and confounding factors from driving scenes. \nTransitioning to recent LLM-based planning\, local counterfactual methods do not exist off-the-shelf. Furthermore\, relying on the native natural language explanations of LLMs for interpretability is risky\, as they can act as unfaithful rationalization of predictions. We thus propose DRIV-EX\, a method that generates valid counterfactual driving scenes that can flip an LLM’s decision. By uncovering biases\, this method demonstrates how to extend causally-grounded model auditing to the next generation of autonomous driving systems. \n\nAli Ayadi  (ICube – Université de Strasbourg)  (https://scholar.google.com/citations?user=yGn8v_kAAAAJ&hl=fr)\n\nTitre : Vers des explications contrefactuelles sémantiques : génération\, validation et enrichissement par ontologies modulaires \nRésumé : Les explications contrefactuelles constituent un moyen intuitif d’expliquer les prédictions des modèles d’intelligence artificielle\, en identifiant les changements nécessaires pour obtenir une décision ou une estimation différente. Cependant\, les contrefactuels générés automatiquement peuvent être valides du point de vue du modèle tout en étant peu plausibles\, difficilement interprétables ou incohérents avec les connaissances du domaine. Dans cette présentation\, je présenterai un pipeline de génération\, de validation et d’enrichissement sémantique d’explications contrefactuelles guidé par une ontologie modulaire. Cette ontologie comporte un module générique dédié aux propriétés attendues d’une explication contrefactuelle\, telles que la validité\, la proximité\, la parcimonie et la diversité\, ainsi qu’un module de domaine permettant de vérifier la conformité des contrefactuels avec des connaissances expertes\, des contraintes physiques ou des spécifications métier.\nL’objectif est de montrer comment l’intégration d’une ontologie dans le processus d’explication permet de produire des contrefactuels non seulement efficaces pour modifier la sortie du modèle\, mais aussi sémantiquement cohérents\, interprétables et exploitables par les experts du domaine. Cette approche ouvre la voie à des explications contrefactuelles dites sémantiques\, dans lesquelles les changements proposés sont reliés à des concepts\, contraintes et phénomènes du domaine. \n\nJules Soria (CEA LIST – Université Paris-Saclay) (https://scholar.google.com/citations?user=1Qctec0AAAAJ&hl=en)\n\nTitre :  Formal Abductive Latent Explanations for Prototype-Based Networks \nRésumé : Case-based reasoning networks are machine-learning models that make predictions based on similarity between the input and prototypical parts of training samples\, called prototypes. Such models are able to explain each decision by pointing to the prototypes that contributed the most to the final outcome. As the explanation is a core part of the prediction\, they are often qualified as « interpretable by design ». While promising\, such explanations are sometimes misleading\, which hampers their usefulness in safety-critical contexts. In particular\, several instances may lead to different predictions and yet have the same explanation. Drawing inspiration from the field of formal eXplainable AI (FXAI)\, we propose Abductive Latent Explanations (ALEs)\, a formalism to express sufficient conditions on the intermediate (latent) representation of the instance that imply the prediction. Our approach combines the inherent interpretability of case-based reasoning models and the guarantees provided by formal XAI. We propose a solver-free and scalable algorithm for generating ALEs based on three distinct paradigms\, compare them\, and present the feasibility of our approach on diverse datasets for both standard and fine-grained image classification. \nProgramme (en construction) :\n9h30 : accueil café \n10h00 : Exposé Invité 1 \n10h50 : Pausé Café / Discussions \n11h10 : Exposé Invité 2 \n12:00 : Déjeuner (Plateaux Repas offerts) \n13:30 : Exposé Invité 3 \n14:20 – 16:30 : Exposés LITIS/GREYC et échanges \nFin vers 16h30 \nInscription (nécessaire pour l’organisation). \nComme pour toute journée d’animation de la fédération\, les frais de déplacement\, repas et pauses café des membres du GREYC et du LITIS sont pris en charge par la fédération. \nComité d’organisation de la journée (à contacter si vous souhaitez contribuer) : \n\ncaroline.petitjean@univ-rouen.fr\ncecilia.zanni-merk@insa-rouen.fr\naleite@insa-rouen.fr\nbruno.cremilleux@unicaen.fr\nsebastien.adam@univ-rouen.fr
URL:https://www.normastic.fr/event/journee-des-axes-images-systemes-complexes-dac-sur-lexplicabilite-le-26-05-2026/
LOCATION:UFR S&T – Site du Madrillet – Université de Rouen Normandie\, avenue de l'université\, Saint-Étienne-du-Rouvray\, 76801\, France
END:VEVENT
END:VCALENDAR