[deze pagina op wiki][index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Lezing: Hyperparameter tuning

Administratieve informatie

Titel Hyperparameter tuning
Looptijd 60
Module B
Type les Lezing
Focus Technisch — diep leren
Onderwerp Hyperparameter tuning

Sleutelwoorden

Hyperparameter tuning, activeringsfuncties, verlies, tijdperken, batchgrootte,

Leerdoelen

Verwachte voorbereiding

Verplicht voor studenten

Geen.

Optioneel voor studenten

Geen.

Referenties en achtergronden voor studenten

  • John D Kelleher en Brain McNamee. (2018), Fundamentals of Machine Learning voor Predictive Data Analytics, MIT Press.
  • Michael Nielsen. (2015), Neural Networks en Deep Learning, 1. Determinatiepers, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Neural Networks en Deep Learning, 1. Springer
  • Antonio Gulli, Sujit Pal. Diep leren met Keras, Packt, [ISBN: 9781787128422].

Aanbevolen voor docenten

Geen.

Lesmateriaal

Instructies voor docenten

Deze lezing zal studenten kennis laten maken met de fundamenten van de hyperparameter tuning. We zullen de Census Dataset gebruiken als voorbeelden van het gebruik en de uitkomsten van het afstemmen van verschillende hypermeters. De Adult Census dataset is een binair classificatieprobleem. Meer over deze dataset in de bijbehorende tutorial. Het doel van deze lezing is om verschillende hyperparameters te introduceren met voorbeelden van hoe het aanpassen van deze hyperparameters het leren kan helpen of belemmeren. Daarnaast geven we voorbeelden van onder- en overmontage, neus- en prestatiewinsten (trainingstijd en in sommige gevallen nauwkeurigheid/verlies) wanneer elk van de hyperparameters wordt afgesteld. We zullen diagnostische plots gebruiken om het effect van de hyperparameter af te stemmen en in het bijzonder een focus op verlies, waar moet worden opgemerkt dat de module die we gebruiken om het verlies te plotten is matplotlib.pyplot, dus de as wordt geschaald. Dit kan betekenen dat significante verschillen niet significant lijken of vice versa bij het vergelijken van het verlies van de trainings- of testgegevens. Daarnaast worden enkele vrijheden voor steigers gepresenteerd, zoals het gebruik van Epochs eerst (bijna als een regularisatietechniek) terwijl de Batch-grootte constant blijft. Idealiter zouden deze op elkaar worden afgestemd, maar voor deze lezing zijn ze gescheiden.

Omtrek

Hpt.png
Tijdschema
Duur (Min) Omschrijving
5 Overzicht van de gegevens
10 Capaciteit en dieptetuning (onder en boven montage)
10 Periodes (onder en boven opleiding)
10 Batchgroottes (voor geluidsonderdrukking)
10 Activeringsfuncties (en hun effecten op prestaties — tijd en nauwkeurigheid)
10 Leerpercentages (vanille, LR Decay, Momentum, Adaptief)
5 Samenvatting van het forward pass-proces

Erkenningen

Het Human-Centered AI Masters-programma werd mede gefinancierd door de Connecting Europe Facility van de Europese Unie in het kader van de subsidie CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.