Page du cours d'architectures de réseaux de neurones avancées
Description
Ce cours présentera les architectures avancées de réseaux de neurones. Il permettra d’aborder les dernières avancées en deep Learning et ses applications. Cela ira des réseaux de convolutions tels que ResNet ou GoogleNet pour les images, jusqu’au Transformers et aux mécanismes d’attention, en passant par les LSTM et autres GRU pour le traitement des séries chronologiques et le traitement automatique des langues.
Les cours/Tds seront basés sur les articles de référence de chaque domaine. L’approche consiste à présenter en cours les fondements puis, comme projets lors des TPs, de coder « from scratch » les architectures décrites dans les articles.
Cours 1 - GPU vs CPU, Dataloaders, Frameworks (keras vs PyTorch vs Pytorch Lightning)
- Slides
- Fichier .py à compléter (GPU vs CPU)
- Fichier .py à compléter (Dataloaders)
- Fichier .py à compléter (Frameworks)
Cours 2 - Réseaux de neurones simples : MLP, CNN, RNN
Cours 3.1 - Réseaux de convolution pour la classification des images
Cours 3.2 - Réseaux de convolution pour la segmentation des images
Cours 4 - Modèles génératifs
- Autoencodeurs Slides
- Sources du TP sur les autoencodeurs