BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Normastic - ECPv6.15.18//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALNAME:Normastic
X-ORIGINAL-URL:https://www.normastic.fr
X-WR-CALDESC:Évènements pour Normastic
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:Europe/Paris
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20210328T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20211031T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20220327T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20221030T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20230326T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20231029T010000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20220408T093000
DTEND;TZID=Europe/Paris:20220408T123000
DTSTAMP:20260411T162404
CREATED:20220223T092958Z
LAST-MODIFIED:20250708T133509Z
UID:14695-1649410200-1649421000@www.normastic.fr
SUMMARY:Journée de l'axe Image sur le "Deep Learning" (08/04/2022)
DESCRIPTION:08 avril 2022 9h30 \nAnnonce :\nLe développement des technologies de l’apprentissage profond en image est un domaine en pleine effervescence. Plusieurs aspects peuvent être considérés.\nL’objectif principal de cette journée est d’établir un état des lieux des travaux menés en Normandie. Les contributions attendues peuvent aussi bien traiter les aspects théoriques que les aspects applicatifs de ce domaine. \nCet évènement NormaSTIC aura lieu en distanciel par visio conférence. \nAppel à contributions\nLes personnes souhaitant présenter leurs travaux (20 minutes) sont priées d’envoyer un titre et un résumé d’une page maximum (format pdf) avant le 16 mars 2022 aux organisatrices : \nAmal Mahboubi \nCaroline Petitjean \nNous vous attendons nombreux. \nApprentissage profond en image\nProgramme\n\n09h30-09h40 Accueil\n09h40-10h00 Thibault Durand\, GREYC :\nRéseaux de Neurones Multi-Echelle pour le traitement d’images stylisé\nDurand_thibault_beamer_normastic \nRésumé : \nLes algorithmes pour le traitement d’images (Super-Résolution\, Inpainting\, Débruitage\, etc) ont beaucoup progressé ces dernières années. L’utilisation de réseaux convolutifs profonds fournit actuellement les résultats les plus impressionnants. Cependant\, très peu de ces techniques sont utilisées en pratique dans des logiciels d’infographie\, du fait de pré-requis techniques importants (taille des réseaux en mémoire\, calculs nécessitant des GPUs)\, mais aussi parce que l’utilisateur n’a que tr`es peu de contrôle sur le résultat généré. Pour pallier ces problèmes\, nous proposons une approche de super-résolution en deux temps\, baptisée Super-Résolution stylisée\, qui repose sur une architecture multi-échelle composée de branches convolutives parallèles et indépendantes pour la génération d’images. Notre contribution est ainsi double\, avec la description : i. d’un réseau léger inspiré des méthodes de filtrage classiques de traitement d’images\, facilement utilisable sur des systèmes sans GPU et à capacité mémoire limitée ; ii. d’un réseau polyvalent et personnalisable\, autorisant un contrôle fin de la stylisation du rendu. \n10h00-10h10 Débat avec l’orateur \n\n\n\n\n\n10h10-10h30 Antoine Mauri\, LITIS :\nRéseau Convolutif léger dédié à la Détection Temps-réel d’Objets 3D pour la Smart Mobilité Multimodale Routière et Ferroviaire.\n\n\n\nRésumé : \nNous présenterons 2 approches pour la détection d’objets en 3D (une approche en 2 étages et l’autre en 1 étage). Nos 2 méthodes ont été entrainées et validées à la fois sur le dataset routier KITTI mais aussi sur notre propre dataset routier/ferroviaire acquis en exploitant un jeu vidéo. Enfin nous présenterons nos travaux en cours pour acquérir une base de données d’images réelle routière/ferroviaire. \n10h30-10h40 Débat avec l’orateur \n \n\nPause 10h40-10h50\n10h50-11h10 Atif Anwer \, LITIS :\nSHMGAN – Specular Highlight Mitigation GAN using Multi-Input Polarimetric Images \n\nCette présentation n’a pas eu lieu. \nRésumé : \nSpecular highlights in images pose a significant challenge in algorithms for image segmentation\, object detection and other image-based decision making systems. However\, most systems ignore this particular scenario and neglect input images with specular highlights instead of mitigating it in the pre-processing stage. \n In this paper\, we leverage deep neural networks and take advantage of the varying illumination information in polarimetric images for synthesising specular free images. For this\, we propose a multi-domain attention-based Specular Highlight Mitigation Generative Adversarial Network (SHMGAN) trained using multiple polarimetric images simultaneously. The proposed network uses a dynamically generated attention mask and requires no manual input for segmenting specular pixels. The network is able to learn the illumination variation between the four polarimetric images and a pseudo-diffuse image without requiring extensive training data or time. Once trained\, SHMGAN is able to generate specular-free images from a single RGB image as input; without requiring any additional external or pixel labels.\nThe proposed network is trained and tested on self-acquired and publicly available datasets of real-world images. SHMGAN is able to accurately identify the specularity affected pixels and  generates high visual quality images with mitigated specular reflections. The generated images are realistic and have very low noise\, distortions and aberrations as compared to the existing state of the art methods for specular highlight removal.\n11h10-11h20 Débat avec l’orateur \n\n11h20-11h40 Guillaume Jeanneret Sanmiguel\, GREYC :\nModels de Diffusion pour des Examples Contrafactuelles \nDiffusion Models for Counterfactual Explanations presentation \nRésumé : \nLes exemples contrefactuels ont démontré des résultats encourageants en tant que méthodologie pour expliquer a posteriori des classificateurs (on parle alors de méthode post-hoc). Dans ce papier\, nous proposons DiME\, une méthode pour générer des images contrefactuelles utilisant les récents modèles de diffusion. Utilisant le processus dit de diffusion guidée\, notre méthodologie montre comment utiliser les gradients du classificateur à l’étude et ce pour la génération des explications contrefactuelles. En outre\, nous analysons les évaluations de détection de facteurs de confusion et\, afin d’améliorer ces évaluations\, nous proposons une nouvelle métrique : la Différence de Corrélation. Notre validation expérimentale indique que DiME dépasse l’état de l’art vis à vis de 5 sur 6 métriques classiques pour le dataset CelebA. \nCette présentation sera en anglais \n11h40-11h50 Débat avec l’orateur\n\n\n11h50-12h10 Thomas Dargent\, LITIS :\n\nOrthogonalité et diversité dans les filtres de ConvNet pour la segmentation \npresentationNormastic-ThomasDargent \nRésumé : \nOn commencera par un bref état de l’art de l’utilisation de contraintes d’orthogonalité en deep learning\, et l’intérêt de telles contraintes. On expliquera ensuite les mesures de similarités inter filtres. On présentera des résultats obtenus en segmentation d’images médicales et on présentera également des  perspectives sur les attaques adversariales et l’explicabilité des réseaux deep. \n12h10-12h20 Débat avec l’orateur \n\n12h20-12h30 Proposition de collaborations\, discussion\, vie de l’axe (échange pour le montage de nouveaux projets\, groupe de travail\, appel à projets NormaSTIC\,…)\n12h30 Clôture.\n\nLieu\nVisio conférence : le lien sera : https://webconference.unicaen.fr/b/ama-x18-qpx-d89 \nCompte Rendu \nLa demi journée d’étude « Apprentissage profond » était structurée en une session. Les différentes interventions ont permis d’établir un état des lieux des travaux menés au LITIS et au GREYC. Les mesures d’audiences sont présentées dans la figure suivante :
URL:https://www.normastic.fr/event/apprentissageimage/
CATEGORIES:Analyse et Traitement d'Images
END:VEVENT
END:VCALENDAR