[cette page sur wiki][index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Conférence: Réglage hyperparamètre

Informations administratives

Titre Réglage hyperparamètre
Durée 60
Module B
Type de leçon Conférence
Focus Technique — Deep Learning
Sujet Réglage hyperparamètre

Mots-clés

Réglage hyperparamètre, fonctions d’activation, perte, époques, taille du lot,

Objectifs d’apprentissage

Préparation prévue

Obligatoire pour les étudiants

Aucun.

Optionnel pour les étudiants

Aucun.

Références et antécédents pour les étudiants

  • John D Kelleher et Brain McNamee. (2018), Fondamentals of Machine Learning for Predictive Data Analytics, MIT Press.
  • Michael Nielsen. (2015), Réseaux neuronaux et apprentissage profond, 1. Presse de détermination, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Réseaux neuronaux et apprentissage profond, 1. Springer
  • Antonio Gulli, Sujit Pal. Apprentissage profond avec Keras, Packt, [ISBN: 9781787128422].

Recommandé pour les enseignants

Aucun.

Matériel de leçon

Instructions pour les enseignants

Cette conférence introduira les étudiants aux fondamentaux de l’accordage hyperparamètre. Nous utiliserons l’ensemble de données du recensement comme exemples de l’utilisation et des résultats de l’accordage de divers hypermètres. L’ensemble de données du recensement des adultes est un problème de classification binaire. Plus sur cet ensemble de données dans le tutoriel correspondant. L’objectif de cette conférence est d’introduire plusieurs hyperparamètres avec des exemples de la façon dont la modification de ces hyperparamètres peut aider ou entraver l’apprentissage. En outre, nous fournissons des exemples de gain de sous-ajustement, de nez et de performance (temps d’entraînement et, dans certains cas, précision/perte) lorsque chacun des hyperparamètres est réglé. Nous utiliserons des parcelles diagnostiques pour évaluer l’effet du tunning hyperparamètre et en particulier une focalisation sur la perte, où il convient de noter que le module que nous utilisons pour tracer la perte est matplotlib.pyplot, donc l’axe est mis à l’échelle. Cela peut signifier que des différences significatives peuvent apparaître non significatives ou vice versa lorsque l’on compare la perte des données d’entraînement ou de test. En outre, certaines libertés pour l’échafaudage sont présentées, comme l’utilisation d’Epochs d’abord (presque comme technique de régularisation) tout en maintenant la taille du lot constant. Idéalement, ceux-ci seraient réglés ensemble, mais pour cette conférence, ils sont séparés.

Esquisse

Hpt.png
Calendrier
Durée (min) Description
5 Vue d’ensemble des données
10 Capacité et profondeur de tunning (sous et sur ajustement)
10 Époques (sous et sur la formation)
10 Tailles de lots (pour la suppression du bruit)
10 Fonctions d’activation (et leurs effets sur les performances — temps et précision)
10 Taux d’apprentissage (vanille, LR Decay, Momentum, Adaptatif)
5 Récapitulation du processus de transmission de l’avance

Remerciements

Le programme de master IA centré sur l’humain a été cofinancé par le mécanisme pour l’interconnexion en Europe de l’Union européenne dans le cadre de la subvention CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.