ArchDL (Architectures du deep learning)

Responsable :

Objectif :

L'objectif de cette formation est de familiariser les participants à une diversité d'architectures de réseaux de neurones adaptées à des données variées telles que des images, du son, du texte, ou encore des graphs.

Public concerné :

Cette formation est conçue pour les personnes ayant eu un premier contact avec le deep learning et les réseaux de neurones, qu'il s'agisse d'une expérience autodidacte, professionnelle, ou académique. Elle est particulièrement adaptée pour ceux qui ont suivi la formation “IPDL”, leur ayant fourni les bases nécessaires pour appréhender les concepts plus avancés d'ArchDL. IPDL et ArchDL sont systématiquement tenues à la suite l'une de l'autre permettant l'inscription aux deux formations.

Les profils visés incluent des ingénieurs, chercheurs, développeurs, techniciens, doctorants, et chefs de projet qui souhaitent approfondir leur compréhension des architectures du deep learning.

Pré-requis :

Les participants doivent posséder une compréhension des bases en algèbre et en statistiques, ainsi qu'une connaissance de la syntaxe de Python, nécessaires pour les sessions pratiques.

De plus, un premier contact avec le deep learning est essentiel, que ce soit à travers la formation “IPDL” ou une autre formation initiale équivalente, comme les premières séquences de FIDLE. Cette expérience préalable en deep learning est cruciale pour une assimilation efficace des concepts avancés abordés dans ArchDL.

Durée et modalités:

Cette formation dure 2 jours.

Elle a lieu uniquement en présentiel dans les locaux de l'IDRIS à Orsay (91)

Assistance :

Minimale : 10 personnes ; maximale : 18 personnes.

Contenu de la formation :

Cette formation présente différentes architectures de modèles pour offrir une perspective étendue sur le deep learning. Les participants exploreront des architectures clés telles que les réseaux neuronaux convolutifs (CNN), les réseaux neuronaux récurrents (RNN), les Transformers, et d'autres.

Des exercices pratiques en Python avec Pytorch, ainsi que des démonstrations sur le supercalculateur Jean Zay, permettront de mettre en application ces concepts.

Plan :

1. Réseau neuronal convolutif (CNN)

2. Réseau neuronal récurrent (RNN)

3. Transformers

4. Graph neural network (GNN)

5. Diffusion models

Équipement :

Pour une exécution efficace des parties pratiques, celles-ci se dérouleront sur le supercalculateur Jean Zay.

Intervenants :

Membres de l'équipe support de l'IDRIS.

S’inscrire à cette formation :

Votre inscription est gratuite via notre serveur web : https://cours.idris.fr

Pensez à consulter la formation IPDL et à vous y inscrire au besoin si vous n'avez pas ce prérequis.