[denne side på wiki][indeks][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Forelæsning: Indstilling af hyperparameter

Administrative oplysninger

Titel Indstilling af hyperparameter
Varighed 60
Modul B
Lektionstype Forelæsning
Fokus Teknisk — Dyb læring
Emne Indstilling af hyperparameter

Nøgleord

Hyperparameter tuning, aktivering funktioner, tab, epoker, batch størrelse,

Læringsmål

Forventet forberedelse

Obligatorisk for studerende

Ingen.

Valgfrit for studerende

Ingen.

Referencer og baggrund for studerende

  • John D. Kelleher og Brain McNamee. (2018), Fundamentals of Machine Learning for Predictive Data Analytics, MIT Press.
  • Michael Nielsen. (2015), Neural Networks and Deep Learning, 1. Beslutsomhed presse, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Neural Networks and Deep Learning, 1. Springer
  • Antonio Gulli, Sujit Pal. Dyb læring med Keras, Packt, [ISBN: 9781787128422].

Anbefalet til lærerne

Ingen.

Undervisningsmaterialer

Instruktioner til lærerne

Dette foredrag vil introducere de studerende til de grundlæggende elementer i hyperparameter tuning. Vi vil bruge Census Dataset som eksempler på brug og resultater fra tuning af forskellige hypermetre. Adult Census datasættet er et binært klassifikationsproblem. Mere om dette datasæt i den tilsvarende tutorial. Formålet med dette foredrag er at introducere flere hyperparametre med eksempler på, hvordan ændring af disse hyperparametre kan hjælpe eller hindre læring. Derudover giver vi eksempler på under- og overmontering, næse- og præstationsgevinster (træningstid og i nogle tilfælde nøjagtighed/tab), når hver af hyperparametrene er tunet. Vi vil bruge diagnostiske plots til at evaluere effekten af hyperparameter tunning og især fokus på tab, hvor det skal bemærkes, at det modul, vi bruger til at afbilde tabet er matplotlib.pyplot, således aksen er skaleret. Dette kan betyde, at væsentlige forskelle kan forekomme ikke signifikante eller omvendt, når man sammenligner tabet af trænings- eller testdata. Derudover præsenteres nogle friheder for stilladser, såsom brugen af ​​Epochs først (næsten som en regulariseringsteknik), samtidig med at batchstørrelsen holdes konstant. Ideelt set ville disse blive tunet sammen, men til dette foredrag er de adskilt.

Omrids

Hpt.png
Tidsplan
Varighed (min.) Beskrivelse
5 Oversigt over data
10 Kapacitet og dybdeindstilling (under og over montering)
10 Epoker (under og over uddannelse)
10 Batchstørrelser (til støjdæmpning)
10 Aktiveringsfunktioner (og deres virkninger på ydeevne — tid og nøjagtighed)
10 Læringshastigheder (vanilje, LR Decay, Momentum, Adaptive)
5 Opsummering af forward pass-processen

Anerkendelser

Programmet Human-Centered AI Masters blev samfinansieret af Connecting Europe-faciliteten i Den Europæiske Union under tilskud CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.