[deze pagina op wiki][index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Tutorial: Fundamenten van deep learning

Administratieve informatie

Titel Tutorial: De basis van deep learning
Looptijd 180 min (60 min per tutorial)
Module B
Type les Tutorial
Focus Technisch — diep leren
Onderwerp Voor- en achterpropagatie

Sleutelwoorden

forward propagation, backpropagation,hyperparameter tuning,

Leerdoelen

Verwachte voorbereiding

Leren van gebeurtenissen die moeten worden voltooid voordat

Verplicht voor studenten

  • John D Kelleher en Brain McNamee. (2018), Fundamentals of Machine Learning voor Predictive Data Analytics, MIT Press.
  • Michael Nielsen. (2015), Neural Networks en Deep Learning, 1. Determinatiepers, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Neural Networks en Deep Learning, 1. Springer
  • Antonio Gulli, Sujit Pal. Diep leren met Keras, Packt, [ISBN: 9781787128422].

Optioneel voor studenten

  • Vermenigvuldiging van matrices
  • Aan de slag met Numpy
  • Kennis van lineaire en logistieke regressie

Referenties en achtergronden voor studenten

Geen.

Aanbevolen voor docenten

Geen.

Lesmateriaal

Geen.

Instructies voor docenten

Dit Learning Event bestaat uit drie sets van tutorials over fundamentele deep learning onderwerpen. Deze tutorial serie bestaat uit het geven van een overzicht van een voorwaartse pas, de afleiding van backpropagation en het gebruik van code om studenten een overzicht te geven van wat elke parameter doet, en hoe deze het leren en convergentie van een neuraal netwerk kan beïnvloeden:

  1. Voorwaartse vermeerdering: Pen- en papiervoorbeelden en pythonvoorbeelden met behulp van Numpy (voor fundamentals) en Keras met een module op hoog niveau (die gebruik maakt van Tensorflow 2.X).
  2. Het afleiden en toepassen van backpropagation: Pen- en papiervoorbeelden en pythonvoorbeelden met behulp van Numpy (voor fundamentals) en Keras met een module op hoog niveau (die gebruik maakt van Tensorflow 2.X).
  3. Hyperparameter tuning: Keras voorbeelden van voorbeeldige diagnostische plots op basis van de effecten voor het veranderen van specifieke hyperparameters (met behulp van een HCAIM voorbeeld dataset Dataset voor het onderwijzen van ethische AI (Census Dataset).

Opleveringsnota’s (volgens lezingen)

Tutorial 1 — Voorwaartse voortplanting

Instructies van de leraar

Neurale netwerk.png

Tijd: 60 minuten

Overzicht/tijdschema
Duur (Min) Omschrijving
20 Probleem 1: Pen en Paper implementatie van een forward pass (voorbeeld van de lezing)
20 Probleem 2: Het ontwikkelen van een neuraal netwerk vanaf nul met behulp van Numpy (voorbeeld uit de lezing)
10 Probleem 3: Ontwikkelen van een neuraal netwerk van het gebruik van Keras (voorbeeld uit de lezing met vaste gewichten en willekeurige gewichten)
10 Samenvatting van het forward pass-proces

Tutorial 2 — Afleiding en toepassing van backpropagation

Instructies van de leraar

Tijd: 60 minuten

Overzicht/tijdschema
Duur (Min) Omschrijving
20 (optioneel) Probleem 1: afleiding van de backpropagatieformule met behulp van de Sigmoid-functie voor de activeringsfuncties binnen en buiten en MSE als verliesfunctie (optioneel)
20 Probleem 2: Studenten passen drie activeringsfuncties toe voor een enkele gewichtsupdate (SGD-backpropagation), met pen en papier (20 minuten):
20 Probleem 3: Studenten zullen vanaf nul een neuraal netwerk ontwikkelen met alleen de Numpy-module, waar de gebruiker kan kiezen uit een van de drie verborgen laagactiveringsfuncties waar de code backpropagation kan voorvormen
10 Probleem 4: Studenten zullen gebruik maken van de Tensorflow 2.X module met de inbuild Keras module, preform backpropagation met behulp van SGD.
10 Samenvatting van het forward pass-proces

Tutorial 3 — Hyperparameter tuning

Instructies van de leraar

Tijd: 60 minuten

Overzicht/tijdschema
Duur (Min) Omschrijving
5 Voorverwerking van de gegevens
10 Capaciteit en dieptetuning (onder en boven montage)
10 Periodes (onder en boven opleiding)
10 Batchgroottes (voor geluidsonderdrukking)
10 Activeringsfuncties (en hun effecten op prestaties — tijd en nauwkeurigheid)
10 Leerpercentages (vanille, LR Decay, Momentum, Adaptief)
5 Neem een samenvatting van sommige niet-hyperparameters (ReLu, Adam) en het afstemmen van anderen (capaciteit en diepte).

Erkenningen

Keith Quille (TU Dublin, Tallaght Campus) http://keithquille.com

Het Human-Centered AI Masters-programma werd mede gefinancierd door de Connecting Europe Facility van de Europese Unie in het kader van de subsidie CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.