[cette page sur wiki][index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Tutoriel: Fondamentaux de l’apprentissage profond

Informations administratives

Titre Tutoriel: Fondamental de l’apprentissage profond
Durée 180 min (60 min par tutoriel)
Module B
Type de leçon Tutoriel
Focus Technique — Deep Learning
Sujet Vers l’avant et rétropropagation

Mots-clés

propagation vers l’avant, rétropropagation, réglage hyperparamètre,

Objectifs d’apprentissage

Préparation prévue

Événements d’apprentissage à compléter avant

Obligatoire pour les étudiants

  • John D Kelleher et Brain McNamee. (2018), Fondamentals of Machine Learning for Predictive Data Analytics, MIT Press.
  • Michael Nielsen. (2015), Réseaux neuronaux et apprentissage profond, 1. Presse de détermination, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Réseaux neuronaux et apprentissage profond, 1. Springer
  • Antonio Gulli, Sujit Pal. Apprentissage profond avec Keras, Packt, [ISBN: 9781787128422].

Optionnel pour les étudiants

  • Multiplication des matrices
  • Commencer avec Numpy
  • Connaissance de la régression linéaire et logistique

Références et antécédents pour les étudiants

Aucun.

Recommandé pour les enseignants

Aucun.

Matériel de leçon

Aucun.

Instructions pour les enseignants

Cet événement d’apprentissage se compose de trois séries de tutoriels couvrant des sujets fondamentaux d’apprentissage profond. Cette série de tutoriels consiste à fournir une vue d’ensemble d’une passe avant, la dérivation de la rétropropagation et l’utilisation du code pour fournir une vue d’ensemble pour les étudiants sur ce que fait chaque paramètre, et comment il peut affecter l’apprentissage et la convergence d’un réseau de neurones:

  1. Propagation vers l’avant: Exemples de stylo et de papier, et exemples de python utilisant Numpy (pour les fondamentaux) et Keras montrant un module de haut niveau (qui utilise Tensorflow 2.X).
  2. Dérivation et application de la rétropropagation: Exemples de stylo et de papier, et exemples de python utilisant Numpy (pour les fondamentaux) et Keras montrant un module de haut niveau (qui utilise Tensorflow 2.X).
  3. Réglage hyperparamètre: Des exemples de Keras mettant en évidence des diagrammes diagnostiques exemplaires basés sur les effets de la modification d’hyperparamètres spécifiques (en utilisant un exemple HCAIM ensemble de données ensemble de données pour l’enseignement de l’IA éthique (ensemble de données de recensement).

Notes pour la livraison (selon les conférences)

Tutoriel 1 — propagation en avant

Instructions de l’enseignant

Réseau neuronal.png

Heure: 60 minutes

Esquisse/horaire
Durée (min) Description
20 Problème 1: Mise en œuvre du stylo et du papier d’un pass avant (exemple de la conférence)
20 Problème 2: Développer un réseau neuronal à partir de zéro en utilisant Numpy (exemple de la conférence)
10 Problème 3: Développer un réseau de neurones à partir de l’utilisation de Keras (exemple de la conférence avec des poids définis et des poids aléatoires)
10 Récapitulation du processus de transmission de l’avance

Tutoriel 2 — Dérivation et application de la rétropropagation

Instructions de l’enseignant

Heure: 60 minutes

Esquisse/horaire
Durée (min) Description
20 (facultatif) Problème 1: calcul de la formule de rétropropagation en utilisant la fonction Sigmoid pour les fonctions d’activation interne et externe et MSE comme fonction de perte (facultatif)
20 Problème 2: Les étudiants appliqueront trois fonctions d’activation pour une seule mise à jour du poids (backpropagation SGD), en utilisant le stylo et le papier pour (20 minutes):
20 Problème 3: Les étudiants développeront un réseau neuronal à partir de zéro en utilisant uniquement le module Numpy, où l’utilisateur peut sélectionner parmi l’une des trois fonctions d’activation de couches cachées où le code peut préformer la rétropropagation.
10 Problème 4: Les étudiants utiliseront le module Tensorflow 2.X avec le module Keras inbuild, préformer la rétropropagation à l’aide de SGD.
10 Récapitulation du processus de transmission de l’avance

Tutoriel 3 — Tuning Hyperparamètre

Instructions de l’enseignant

Heure: 60 minutes

Esquisse/horaire
Durée (min) Description
5 Prétraitement des données
10 Capacité et profondeur de tunning (sous et sur ajustement)
10 Époques (sous et sur la formation)
10 Tailles de lots (pour la suppression du bruit)
10 Fonctions d’activation (et leurs effets sur les performances — temps et précision)
10 Taux d’apprentissage (vanille, LR Decay, Momentum, Adaptatif)
5 Récapituler certains hyperparamètres de base (ReLu, Adam) et le tunning d’autres (capacité et profondeur).

Remerciements

Keith Quille (TU Dublin, campus de Tallaght) http://keithquille.com

Le programme de master IA centré sur l’humain a été cofinancé par le mécanisme pour l’interconnexion en Europe de l’Union européenne dans le cadre de la subvention CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.