Informations administratives
Titre | Traitement par lots |
Durée | 60 minutes |
Module | B |
Type de leçon | Conférence |
Focus | Technique — Deep Learning |
Sujet | Traitement par lots |
Mots-clés
Lot, minibatch, Epoch,
Objectifs d’apprentissage
- Comprendre les mécanismes derrière le traitement par lots et la propagation du dos
- Gradient Descent, Batch vs minibatch vs Epoch
Préparation prévue
Événements d’apprentissage à compléter avant
Obligatoire pour les étudiants
Aucun.
Optionnel pour les étudiants
Aucun.
Références et antécédents pour les étudiants
Recommandé pour les enseignants
Aucun.
Matériel de leçon
Instructions pour les enseignants
Voir le matériel de conférence pour des informations et des exemples de questions de classe.
Esquisse
Durée (min) | Description |
---|---|
10 | Illustration de Descente Gradient |
10 | Récapitulation de la fonction de perte |
10 | Idée et raisons de Batching |
5 | Descente par lots Gradient |
5 | Descente stochastique Gradient |
5 | Descente Gradient Mini-Batch |
10 | Algorithme pour une époque |
5 | Résumé et questions |
Remerciements
Monica Zuccarini, Maddalena Molaro & Carlo Sansone
Le programme de master IA centré sur l’humain a été cofinancé par le mécanisme pour l’interconnexion en Europe de l’Union européenne dans le cadre de la subvention CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.