Page du cours d'architectures de réseaux de neurones avancées

Description

Ce cours présentera les architectures avancées de réseaux de neurones. Il permettra d’aborder les dernières avancées en deep Learning et ses applications. Cela ira des réseaux de convolutions tels que ResNet ou GoogleNet pour les images, jusqu’au Transformers et aux mécanismes d’attention, en passant par les LSTM et autres GRU pour le traitement des séries chronologiques et le traitement automatique des langues.

Les cours/Tds seront basés sur les articles de référence de chaque domaine. L’approche consiste à présenter en cours les fondements puis, comme projets lors des TPs, de coder « from scratch » les architectures décrites dans les articles.

Cours 1 - GPU vs CPU, Dataloaders, Frameworks (keras vs PyTorch vs Pytorch Lightning)

Cours 2 - Réseaux de neurones simples : MLP, CNN, RNN

Cours 3.1 - Réseaux de convolution pour la classification des images

Cours 3.2 - Réseaux de convolution pour la segmentation des images

Cours 4 - Modèles génératifs

Cours 5 - GNN

Cours 6 - NLP et transformers

Cours 7 - Modèles de diffusion

Cours 8 - CLIP (Contrastive Language-Image Pre-training)

Quelques références (à compléter)