BEGIN:VCALENDAR
VERSION:2.0
PRODID:-//Normastic - ECPv6.15.18//NONSGML v1.0//EN
CALSCALE:GREGORIAN
METHOD:PUBLISH
X-WR-CALNAME:Normastic
X-ORIGINAL-URL:https://www.normastic.fr
X-WR-CALDESC:Évènements pour Normastic
REFRESH-INTERVAL;VALUE=DURATION:PT1H
X-Robots-Tag:noindex
X-PUBLISHED-TTL:PT1H
BEGIN:VTIMEZONE
TZID:UTC
BEGIN:STANDARD
TZOFFSETFROM:+0000
TZOFFSETTO:+0000
TZNAME:UTC
DTSTART:20220101T000000
END:STANDARD
END:VTIMEZONE
BEGIN:VTIMEZONE
TZID:Europe/Paris
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20220327T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20221030T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20230326T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20231029T010000
END:STANDARD
BEGIN:DAYLIGHT
TZOFFSETFROM:+0100
TZOFFSETTO:+0200
TZNAME:CEST
DTSTART:20240331T010000
END:DAYLIGHT
BEGIN:STANDARD
TZOFFSETFROM:+0200
TZOFFSETTO:+0100
TZNAME:CET
DTSTART:20241027T010000
END:STANDARD
END:VTIMEZONE
BEGIN:VEVENT
DTSTART;VALUE=DATE:20230904
DTEND;VALUE=DATE:20231112
DTSTAMP:20260411T150814
CREATED:20230831T125801Z
LAST-MODIFIED:20250704T095418Z
UID:16552-1693785600-1699747199@www.normastic.fr
SUMMARY:Appel à Projets Normastic 2024
DESCRIPTION:La fédération NormaSTIC a le plaisir de lancer son AppelProjetsNormaSTIC2024. \nCet appel porte sur des événements associant le GREYC et le LITIS ainsi qu’entre ces laboratoires et les laboratoires normands de mathématiques. Le but est de développer les collaborations et la recherche entre ces partenaires. \nCet appel se veut souple et la liste suivante d’activités pouvant être financées par NormaSTIC n’est ni exhaustive ni rangée par ordre de priorité : \n\nstages de master co-encadrés entre deux laboratoires ;\norganisation de journées scientifiques\, de réunions thématiques de recherche ;\ninvitation de chercheuses et chercheurs ;\nvisites de jeunes chercheurs\, chercheurs\, enseignants-chercheurs dans un autre laboratoire (y compris hors Normandie);\norganisation de conférences\, d’écoles thématiques ;\nmontage de projets (InterReg\, RIN\, ANR\, ERC\, IUF…)\nactivités liées à la médiation scientifique (déplacements\, matériel…)\nactions liées aux responsabilités sociétales ou à fort impact sociétal (promotion de la parité\, développement durable\, désinformation…).\n\nLa date limite de dépôt des demandes est le 10 novembre 2023. Des précisions sont données dans le pdf associé : lien \nVous avez une question\, besoin de plus d’information : n’hésitez pas à entrer en contact\, avec les responsables d’axes ou d’actions transverses associés à la thématique scientifique de la demande que vous envisagez (noms dans le document en pièce jointe) ou nous-mêmes.
URL:https://www.normastic.fr/event/appel-a-projets-normastic-2024/
CATEGORIES:NormaSTIC
END:VEVENT
BEGIN:VEVENT
DTSTART;TZID=Europe/Paris:20231019T100000
DTEND;TZID=Europe/Paris:20231019T170000
DTSTAMP:20260411T150814
CREATED:20230831T123814Z
LAST-MODIFIED:20250708T134154Z
UID:16550-1697709600-1697734800@www.normastic.fr
SUMMARY:Journée des axes DAC/Image sur les mécanismes d'attention (19/10/2023)
DESCRIPTION:Les axes DAC et Image de la fédération Normastic organisent le 19 octobre prochain à l’INSA Rouen (salle MA.B.RC.17) une journée sur les mécanismes de l’attention en deep learning. \nDans le cadre des réseaux de neurones récurrents\, l’attention permet de mettre en valeur des parties spécifiques de l’entrée qui peuvent être considérées comme étant importantes\, ce qui améliore la performance du modèle. Les mécanismes de l’attention sont au cœur des Transformers (le T de GPT) et ont beaucoup contribué au succès des méthodes exploitant les LLM (Large Language Model). Les transformers ont également obtenu des performances prometteuses en vision par ordinateur\, offrant une alternative aux réseaux convolutifs. \nCette journée sera l’occasion de découvrir ces mécanismes de l’attention et leurs applications. \nLe programme devrait être le suivant : \n– 10:00 François Rioult\, GREYC : Tutoriel sur l’attention\n– 10:45 Denis Coquenet\, IRISA Rennes : Attention is all you need to read\n– 12:00 Clément Rambour\, CEDRIC Paris : Adaptation de modèles visuels pour la segmentation d’images fortement résolues \n(Pause déjeuner) \n– 14:00 Éric Gaussier\, MIAI Grenoble : De l’attention à ChatGPT : retour sur quelques limitations des grands modèles de langue\n– 14:45 Jose Moreno\, IRIT Toulouse : Extraction d’information avec des modèles pré-entraînées et grand modèles de langage\n– 15:30 Kirill Milintsevich\, GREYC Caen : How to Encode Long Sequences with Self-Attention? \nProgramme détaillé :\n\nÉric Gaussier\, MIAI Grenoble : De l’attention à ChatGPT : retour sur quelques limitations des grands modèles de langue\nSi les grands modèles de langue ont permis des avancées importantes dans diverses applications\, en particulier celles liées au traitement automatique des langues et de la recherche d’information\, certaines de leurs caractéristiques intrinsèques limitent leur utilisation dans certains cadres. Leur capacité de généralisation est ainsi limitée\, tout comme leur capacité à traiter des documents longs. Nous passerons en revue certaines de ces limitations et mentionnerons les solutions envisagées à l’heure actuelle pour les dépasser.\n\n\nJose Moreno\, IRIT Toulouse : Extraction d’information avec des modèles pré-entraînés et grand modèles de langage\nL’enrichissement de grandes collections de documents textuels est une composante primaire pour améliorer l’accès numérique à ce type de contenu. Les techniques récentes pour enrichir des documents sont des modèles de langues neuronaux qui adressent des tâches d’extraction d’information comme l’identification des entités nommées\, la liaison référentielle\, l’extraction de relation et la détection d’événements. Dans cette présentation\, nous allons explorer des travaux récents pour l’extraction d’information ainsi que les améliorations envisageables par les grands modèles de langage et/ou l’introduction de la recherche d’information comme un moyen efficace pour élargir le contexte d’un document.\nFrançois Rioult\, GREYC : Tutoriel sur l’attention\nPour un.e non-spécialiste\, les mécanismes de l’attention sont attirants car ils offrent la promesse d’un focus sur une partie de l’information. Mais que sont vraiment ces mécanismes\, leur intérêt\, leurs limites ?\nDenis Coquenet\, IRISA Rennes : Attention is all you need to read\nCette présentation est dédiée à l’utilisation des mécanismes d’attention dans des architectures d’apprentissage profond\, pour la reconnaissance d’écriture manuscrite. Différents types d’attention seront abordés : récurrente\, hybride\, 1D\, 2D\, parallélisée. Nous verrons l’utilité de ce type d’approche\, et comment cela a permis de faire avancer l’état de l’art dans ce domaine.\nClément Rambour\, CEDRIC Paris : Adaptation de modèles visuels pour la segmentation d’images fortement résolues\nCes dernières années ont vu l’état de l’art pour de nombreuses tâches de vision par ordinateur être dominé par des approches basées sur des architectures dites transformers. ViT et ses variantes ont été les premiers modèles présentant une architecture entièrement basée sur des transformers à surpasser les meilleurs modèles convolutif en classification. Ces performances sont toutefois accompagnées d’une complexité quadratique par rapport au nombre de patchs dans l’image nécessitant des stratégies pour leur application à d’autres données et/ou tâches. L’une des premières et des plus simples adaptation proposée en vision est d’introduire une décomposition multi-échelle des images et cartes d’activations. De façon similaire aux réseaux convolutifs profonds\, ces transformers organisés en « pyramide » permettent d’étendre le champs réceptif à l’ensemble de l’entrée tout en contrôlant la complexité. Ces approches (eg. Swin ou PvT) ne peuvent toutefois plus modéliser d’interactions en haute résolution. Au delà de la présentation de ces modèles et de leur application à l’imagerie médicale\, nous verrons dans cette présentation une extension de ces modèles introduisant des tokens appris pour indirectement approcher des interactions longues portées en haute résolution.\nKirill Milintsevich\, GREYC Caen : How to Encode Long Sequences with Self-Attention?\nTransformers have rapidly become a state-of-the-art solution for many NLP problems. However\, the standard self-attention mechanism\, which is the heart of transformer architecture\, is usually limited to the input length of 512 tokens. This is due to the fact that it is highly computationally expensive to compute self-attention the way it was originally proposed. In this presentation\, we will talk about different ways to overcome this\, and how to efficiently extend the input length up to 4096 tokens and beyond.
URL:https://www.normastic.fr/event/journee-attention-de-laxe-dac-image-de-normastic-le-19-octobre/
LOCATION:INSA Rouen Normandie
CATEGORIES:Analyse et Traitement d'Images,Données, Apprentissage, Connaissances
END:VEVENT
END:VCALENDAR