[ta stran na wikiju][indeks][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Predavanje: Nastavitev hiperparametrov

Upravne informacije

Naslov Nastavitev hiperparametrov
Trajanje 60
Modul B
Vrsta lekcije Predavanje
Osredotočenost Tehnično – poglobljeno učenje
Tema Nastavitev hiperparametrov

Ključne besede

Hiperparameter tuning, aktivacijske funkcije, izguba, epohe, velikost serije,

Učni cilji

Pričakovana priprava

Obvezno za študente

Nobenega.

Neobvezno za študente

Nobenega.

Reference in ozadje za študente

  • John D Kelleher in Brain McNamee. (2018), Osnove strojnega učenja za napovedno podatkovno analitiko, MIT Press.
  • Michael Nielsen. (2015), Neural Networks and Deep Learning, 1. Odločni tisk, San Francisco CA ZDA.
  • Charu C. Aggarwal. (2018), Neural Networks and Deep Learning, 1. Springer
  • Antonio Gulli, Sujit Pal. Globoko učenje s Kerasom, Packt, [ISBN: 9781787128422].

Priporočeno za učitelje

Nobenega.

Gradivo za učne ure

Navodila za učitelje

To predavanje bo učencem predstavilo osnove hiperparametrskega tuninga. Uporabili bomo Census Dataset kot primere uporabe in rezultatov uglaševanja različnih hipermetrov. Podatkovni niz popisa odraslih je binarni problem klasifikacije. Več o tem naboru podatkov v ustrezni vadnici. Cilj tega predavanja je predstaviti več hiperparametrov s primeri, kako lahko spreminjanje teh hiperparametrov pomaga ali ovira učenje. Poleg tega navajamo primere premajhnega in prekomernega opremljanja, nosu in učinkovitosti (čas treninga in v nekaterih primerih natančnost/izguba), ko so vsi hiperparametri uglašeni. Uporabili bomo diagnostične ploskve za oceno učinka hiperparametrskega tunninga in še posebej poudarek na izgubi, kjer je treba opozoriti, da je modul, ki ga uporabljamo za risanje izgube, matplotlib.pyplot, zato se os zmanjša. To lahko pomeni, da se pri primerjavi izgube podatkov o usposabljanju ali testu lahko pojavijo pomembne razlike ali obratno. Poleg tega so predstavljene nekatere svoboščine za odre, kot je uporaba Epohs najprej (skoraj kot tehnika regularizacije), hkrati pa ohranja konstanto velikosti košare. Idealno bi bilo, da bi jih uskladili skupaj, vendar so za to predavanje ločeni.

Obris

Hpt.png
Časovni razpored
Trajanje (mini) Opis
5 Pregled podatkov
10 Nastavitev zmogljivosti in globine (pod in nad vgradnjo)
10 Epohe (pod in nad usposabljanjem)
10 Velikosti serij (za preprečevanje hrupa)
10 Aktivacijske funkcije (in njihovi učinki na učinkovitost – čas in natančnost)
10 Stopnje učenja (vanilla, LR Decay, Momentum, Adaptive)
5 Ponovite postopek prednjega prehoda

Priznanja

Program Masters umetne inteligence, ki je bil vključen v človeka, je bil sofinanciran z instrumentom za povezovanje Evrope Evropske unije v okviru nepovratnih sredstev (CEF-TC-2020–1 Digital Skills 2020-EU-IA-0068).