[ez az oldal a wikiben][index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Előadás: Hiperparaméter tuning

Adminisztratív információk

Cím Hiperparaméter tuning
Időtartam 60
Modul B
Lecke típusa Előadás
Fókusz Technikai – Mély tanulás
Téma Hiperparaméter tuning

Kulcsszó

Hiperparaméter tuning, aktiválási funkciók, veszteség, korszakok, tételméret,

Tanulási célok

Várható előkészítés

Kötelező a diákok számára

Egy sem.

Választható diákok számára

Egy sem.

Referenciák és háttér a diákok számára

  • John D Kelleher és Brain McNamee. (2018), A gépi tanulás alapjai a prediktív adatelemzéshez, MIT Press.
  • Michael Nielsen vagyok. (2015), Neural Networks and Deep Learning, 1. Eltökélt sajtó, San Francisco CA USA.
  • Charu C. Aggarwal vagyok. (2018), Neural Networks and Deep Learning, 1. Springer
  • Antonio Gulli, Sujit Pal. Mély tanulás Keras, Packt, [ISBN: 9781787128422].

Ajánlott tanároknak

Egy sem.

Leckeanyagok

Utasítások tanároknak

Ez az előadás bemutatja a hallgatókat a hiperparaméter tuning alapjaira. A Census Dataset használjuk a különböző hiperméterek használatának és eredményeinek példájaként. A Felnőtt népszámlálás adatkészlete bináris osztályozási probléma. További információ erről az adatkészletről a megfelelő bemutatóban. Ennek az előadásnak az a célja, hogy számos hiperparamétert mutasson be, amelyek példákkal szolgálnak arra, hogy e hiperparaméterek módosítása hogyan segítheti vagy gátolhatja a tanulást. Emellett példákkal szolgálunk az alul- és túlillesztésre, az orr- és teljesítménynövekedésre (edzési idő és bizonyos esetekben a pontosság/veszteség), amikor az egyes hiperparaméterek be vannak húzva. Diagnosztikai parcellákat használunk a hiperparaméter tunning hatásának értékelésére, különös tekintettel a veszteségre, ahol meg kell jegyezni, hogy a veszteség ábrázolására használt modul a matplotlib.pyplot, így a tengely skálázódik. Ez azt jelentheti, hogy a jelentős különbségek nem tűnnek jelentősnek, vagy fordítva a képzés vagy a tesztadatok elvesztésének összehasonlításakor. Emellett bemutatnak néhány, az állványzatra vonatkozó szabadságot is, például először az Epochs használatát (majdnem rendezési technikaként), miközben a Batch méretét állandónak tartják. Ideális esetben ezeket összefűznék, de erre az előadásra különválasztják őket.

Vázlat

Hpt.png
Időbeosztás
Időtartam (min) Leírás
5 Az adatok áttekintése
10 Kapacitás és mélység tunning (alul és felül)
10 Korszakok (képzés alatt és felett)
10 Tételméretek (zajcsökkentéshez)
10 Aktiválási funkciók (és hatásuk a teljesítményre – idő és pontosság)
10 Tanulási arányok (vanilla, LR Decay, Momentum, Adaptív)
5 Összefoglaló az előrehaladási folyamatról

Visszaigazolások

A Human-Centered AI Masters programot az Európai Unió Európai Hálózatfinanszírozási Eszköze (CEF-TC-2020–1 Digitális készségek 2020 EU-IA-0068) társfinanszírozta.