BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Normastic - ECPv6.15.18//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-ORIGINAL-URL:https://www.normastic.fr
X-WR-CALDESC:Évènements pour Normastic
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:Europe/Paris
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20150329T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20151025T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20160327T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20161030T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20170326T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20171029T010000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20160628T090000
DTEND;TZID=Europe/Paris:20160628T170000
DTSTAMP:20260411T123804
CREATED:20160528T140442Z
LAST-MODIFIED:20250708T131808Z
UID:13446-1467104400-1467133200@www.normastic.fr
SUMMARY:Journée de l'axe DAC sur le "Deep Learning" (28/06/2016)
DESCRIPTION:Mardi 28 juin 2016 \nCette journée est consacrée au au « Deep Learning » et plus généralement à l’apprentissage automatique. Elle comporte un tutoriel de Romain Hérault (équipe App\, LITIS) sur les réseaux de neurones profonds et plusieurs exposés illustrant différents aspects de ces domaines de recherche. Que vous soyez novice ou expérimenté dans ces domaines\, cette journée est faite pour vous ! Le programme inclut aussi une intervention de Luc Brun sur le labx MinMacs (Mathématiques et sciences de l’Information en Normandie). \nLa journée se déroulera au GREYC (Caen) :\n– matin : amphi S3 045 (rez de chasusée du bâtiment S3)\n– après-midi : salle S3 351. \nProgramme : \n\n9h30 : accueil/café\n10h00 : « Learning Deep Neural Network » (Romain Hérault\, LITIS). Diapos. Voir résumé ci-dessous.\n11h00 : « Deep Multi-Task Learning with evolving weights » (Soufiane Belharbi\, LITIS). Diapos. Voir résumé ci-dessous.\n11h30 : « Labex MinMacs » (Luc Brun). Présentation et discussion.\nDéjeuner\n14h15 : «Soft Pooling of Learned Parts for Image Classification » Kulkarni Praveen (Technicolor).  Diapos. Voir résumé ci-dessous.\n14h45 : « Fully Convolutional Networks for Vehicule Detection in Aerial Imagery » Jean Ogier du Terrrail (Safran Electronics & Defense et GREYC). Diapos. Voir résumé ci-dessous.\n15h15 : « Cascade de réseaux BLSTM vérifiée par le lexique pour la reconnaissance d’écriture manuscrite » (Clément Chatelain\, LITIS). Diapos. Voir résumé ci-dessous.\n15h45 : conclusion de la journée et vie de l’axe DAC (groupes de travail\, bilan de l’appel à projets 2016\, préparation de l’appel à projets 2017 et modification financière\,…)\nfin de la journée vers 16h30\n\n Titles and abstracts / Titres et résumés des présentations: \nRomain Hérault (LITIS) « Learning Deep Neural Network » \nAbstract: In this talk we will addresses the problem of learning Deep Neural Network (DNN) through the use of smart initializations or regularizations:\n– Introduction to perceptron\, multilayer perceptron and back-propagation\n– Deep Neural Network and the vanishing gradient problem\n– Smart initializations and topologies (stacked autoencoders\, convolutional neural networks)\n– Regularizing (denoising and contractive AE\, dropout\, multi-objects \n  \nSoufiane Belharbi (LITIS) « Deep Multi-Task Learning with evolving weights » \nAbstract: Pre-training of deep neural networks has been abandoned in the last few years. The main reason is the difficulty to control the over-fitting and tune the consequential raised number of hyper-parameters. In this paper we use a multi-task learning framework that gathers weighted supervised and unsupervised tasks. We propose to evolve the weights along the learning epochs in  order to avoid the break in the sequential transfer learning used in the pre-training scheme. This framework allows the use of unlabeled data. Extensive experiments on MNIST showed interesting results. \n  \nKulkarni Praveen (Technicolor) « Soft Pooling of Learned Parts for Image Classification » \nAbstract:   The aggregation of images statistics – the so-called pooling step of image classification algorithms – as well as the construction of part-based models are two distinct and well-studied topics in the litera- ture. The former aims at leveraging a whole set of local descriptors an image can contain (through spatial pyramids or Fisher vectors for instance) while the latter argues that only a few of the regions an image contains are actually useful for its classification. This paper bridges the two worlds by proposing a new pooling framework based on the discovery of useful parts involved in the pooling of local representations. The key contribution lies in a model integrating a boosted non-linear part classifier as well as a parametric soft-max pooling component\, both trained jointly with the image classifier. The whole system has been implanted as a part of deep neural architecture. The experimental validation shows that the proposed model not only consistently surpasses standard pooling approaches but also improves over state-of-the-art part-based models\, on several different and challenging classification tasks. \n  \n Jean Ogier du Terrrail (Safran Electronics & Defense et GREYC) « Fully Convolutional Networks for Vehicule Detection in Aerial Imagery » \nAbstract: Until recently detecting objects in images often involved scanning all possible locations of the target in the image using a sliding window and manually extracting descriptors or features (SIFT\,HOG\,Fisher vectors\,…). Thanks to deep learning not only can we learn features transformation and classification jointly but we can also remove the expensive sliding window step from the pipeline without any loss of performance. We will explain the detection process thoroughly. \n  \nClément Chatelain (LITIS) « Cascade de réseaux BLSTM vérifiée par le lexique pour la reconnaissance d’écriture manuscrite » \nRésumé: La reconnaissance de l’écriture manuscrite est une tâche difficile alliant le traitement d’image et le traitement de la langue. Récemment des modèles de réseaux de neurones récurrents à base de LSTM ont permis des progrès significatifs dans ce domaine. Ces réseaux sont généralement couplés avec des connaissances lexicales et linguistiques au moment du processus de décodage afin de corriger les erreurs de reconnaissance au niveau caractère\, typiquement à l’aide d’un décodage dirigé par le lexique. Pourtant les performances élevées des réseaux LSTM laissent entrevoir la possibilité de les utiliser en s’affranchissant de ce type de processus. Nous proposons dans ce travail un décodage sans lexique que nous couplons à une méthode de vérification par le lexique. Cette méthode de contrôle par le lexique présente des propriétés intéressantes et nous permet de combiner efficacement des réseaux LSTM en les mettant en cascade. Cette approche permet d’accélérer le décodage\, tout en étant peu sensible au changement de taille de lexique. Notre approche présente des résultats prometteurs\, permettant d’avoir une erreur faible\, en concédant une part de rejets. Ces rejets peuvent être finalement traités par un décodage classique dirigé par le lexique\, permettant de nous placer proches des meilleures méthodes à l’état de l’art. \n 
URL:https://www.normastic.fr/event/journee-de-laxe-donnees-apprentissage-connaissances/
LOCATION:Université de Caen\, Campus 2\, 6 Boulevard du Maréchal Juin\, Caen\, 14000\, France
CATEGORIES:Données, Apprentissage, Connaissances
ATTACH;FMTTYPE=image/jpeg:https://www.normastic.fr/wp-content/uploads/2014/12/journeeDAC280616.jpg
ORGANIZER;CN="Laurent Heutte et Bruno Cremilleux":MAILTO:Laurent.Heutte@univ-rouen.fr
END:VEVENT
END:VCALENDAR