[cette page sur wiki][index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Conférence: Propagation vers l’avant

Informations administratives

Titre Propagation vers l’avant
Durée 60
Module B
Type de leçon Conférence
Focus Technique — Deep Learning
Sujet Laissez-passer vers l’avant

Mots-clés

Passe avant, perte,

Objectifs d’apprentissage

Préparation prévue

Événements d’apprentissage à compléter avant

Aucun.

Obligatoire pour les étudiants

Aucun.

Optionnel pour les étudiants

  • Multiplication des matrices
  • Commencer avec Numpy
  • Connaissance de la régression linéaire et logistique (à partir de la période A Machine Learning: Conférence: Régression linéaire, GLR, GAD)

Références et antécédents pour les étudiants

  • John D Kelleher et Brain McNamee. (2018), Fondamentals of Machine Learning for Predictive Data Analytics, MIT Press.
  • Michael Nielsen. (2015), Réseaux neuronaux et apprentissage profond, 1. Presse de détermination, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Réseaux neuronaux et apprentissage profond, 1. Springer
  • Antonio Gulli, Sujit Pal. Apprentissage profond avec Keras, Packt, [ISBN: 9781787128422].

Recommandé pour les enseignants

Aucun.

Matériel de leçon

Instructions pour les enseignants

Cette conférence introduira aux étudiants les fondamentaux de la propagation vers l’avant pour un réseau de neurones artificiels. Cela introduira les étudiants à la topologie (poids, synapses, fonctions d’activation et fonctions de perte). Les étudiants seront alors en mesure de faire un pass vers l’avant en utilisant le stylo et le papier, en utilisant Python avec seulement la bibliothèque Numpy (pour la manipulation des matrices) puis en utilisant KERAS dans le cadre du tutoriel associé à ce LE. Cela permettra de comprendre fondamentalement quelles fonctions d’activation s’appliquent à des contextes de problèmes spécifiques et comment les fonctions d’activation diffèrent en termes de complexité informatique. Dans la conférence, la fonction d’activation de la couche externe et les fonctions de perte correspondantes seront examinées pour des cas d’utilisation tels que la classification binomiale, la régression et la classification multiclasse.

Note:

Esquisse

Réseau neuronal utilisé dans cette série de conférences d’introduction
Calendrier
Durée (min) Description
10 Définition des composantes du réseau neuronal
15 Poids et fonctions d’activation (Sigmoid, TanH et ReLu)
15 Fonctions de perte (régression, classification binomiale et activation multiclasse)
15 Utilisation de matrices pour une passe avant
5 Récapitulation sur la passe avant

Remerciements

Le programme de master IA centré sur l’humain a été cofinancé par le mécanisme pour l’interconnexion en Europe de l’Union européenne dans le cadre de la subvention CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.