Informations administratives
Titre | Réseaux neuronaux |
Durée | 60 |
Module | A |
Type de leçon | Conférence |
Focus | Pratique — Modélisation de l’IA |
Sujet | Modélisation de l’IA |
Mots-clés
Réseau neuronal, rétropropagation, optimisation,
Objectifs d’apprentissage
- Les apprenants comprennent l’architecte MLP
- Les apprenants peuvent construire des réseaux neuronaux avec des couches entièrement connectées et diverses fonctions d’activation
- Les apprenants comprennent l’idée de base de la rétropropagation et des méthodes basées sur les gradients
Préparation prévue
Événements d’apprentissage à compléter avant
Obligatoire pour les étudiants
- Examen de l’algèbre linéaire et du calcul vectoriel.
Optionnel pour les étudiants
Aucun.
Références et antécédents pour les étudiants
Recommandé pour les enseignants
- Familiarisez-vous avec les matériaux de démonstration.
Matériel de leçon
Instructions pour les enseignants
Couvrir les sujets dans le plan de la leçon et démontrer les concepts à l’aide des ordinateurs portables interactifs (forme de la fonction de perte w.r.t. différents régularisateurs, algorithmes d’optimisation basés sur des gradients). Donnez un bref aperçu du code.
Esquisse/horaire
Durée (min) | Description | Concepts |
---|---|---|
5 | De la régression logistique au perceptron | entrée, poids, biais, fonction sigmoïde |
10 | Multicouches perceptrons et multiplications matricielles | couche d’entrée, couche cachée, couche de sortie |
20 | Calcul du régime de rétropropagation | descente en gradient, taux d’apprentissage, rétropropagation |
10 | Fonctions d’activation | ReLU, sigmoïde, tanh, softmax etc. |
10 | Fonctions de perte pour la classification et la régression | MSE, l’entropie croisée binaire et catégorique |
5 | Démonstration |
Remerciements
Le programme de master IA centré sur l’humain a été cofinancé par le mécanisme pour l’interconnexion en Europe de l’Union européenne dans le cadre de la subvention CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.