[den här sidan på wiki][index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Handledning: Grunderna för djupinlärning

Administrativ information

Titel Handledning: Grunden för djupinlärning
Varaktighet 180 min (60 min per handledning)
Modul B
Typ av lektion Handledning
Fokus Tekniskt – Djupt lärande
Ämne Fram- och Backpropagation

Nyckelord

framåtförökning, backpropagation, hyperparameterinställning,

Lärandemål

Förväntad förberedelse

Lärande händelser som ska slutföras innan

Obligatoriskt för studenter

  • John D Kelleher och Brain McNamee. (2018), Grundläggande maskininlärning för prediktiv dataanalys, MIT Press.
  • Michael Nielsen. (2015), Neurala nätverk och djupt lärande, 1. Beslutande press, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Neurala nätverk och djupt lärande, 1. Springer
  • Antonio Gulli och Sujit Pal. Djupinlärning med Keras, Packt, [ISBN: 9781787128422].

Valfritt för studenter

  • Multiplikation av matriser
  • Komma igång med Numpy
  • Kunskap om linjär och logistisk regression

Referenser och bakgrund för studenter

Ingen.

Rekommenderas för lärare

Ingen.

Lektionsmaterial

Ingen.

Instruktioner för lärare

Denna inlärningshändelse består av tre uppsättningar handledning som täcker grundläggande djupinlärning ämnen. Denna handledningsserie består av att ge en översikt över ett framåtpass, härledning av backpropagation och användningen av kod för att ge en översikt för eleverna om vad varje parameter gör, och hur det kan påverka inlärning och konvergens av ett neuralt nätverk:

  1. Förökning framåt: Exempel på penna och papper och pythonexempel med Numpy (för grundämnen) och Keras som visar en högnivåmodul (som använder Tensorflow 2.X).
  2. Härleda och tillämpa återutbredning: Exempel på penna och papper och pythonexempel med Numpy (för grundämnen) och Keras som visar en högnivåmodul (som använder Tensorflow 2.X).
  3. Hyperparameterinställning: Keras exempel belyser exemplariska diagnostiska tomter baserat på effekterna för att ändra specifika hyperparametrar (med hjälp av ett HCAIM- exempeldataset Datauppsättningar för undervisning i etisk AI (Census Dataset).

Anteckningar för leverans (enligt föreläsningar)

Handledning 1 – Framåt förökning

Lärarinstruktioner

Neurala nätverk.png

Tid: 60 minuter

Skiss/tidsschema
Varaktighet (min) Beskrivning
20 Problem 1: Penna och pappersimplementering av ett framåtpass (exempel från föreläsningen)
20 Problem 2: Utveckla ett neuralt nätverk från grunden med hjälp av Numpy (exempel från föreläsningen)
10 Problem 3: Utveckla ett neuralt nätverk från att använda Keras (exempel från föreläsningen med inställda vikter och slumpmässiga vikter)
10 Sammanfattning av processen för framåtpass

Handledning 2 – Derivering och tillämpning av backpropagation

Lärarinstruktioner

Tid: 60 minuter

Skiss/tidsschema
Varaktighet (min) Beskrivning
20 (valfritt) Problem 1: härledning av ryggpropagationsformeln med hjälp av Sigmoid-funktionen för de inre och yttre aktiveringsfunktionerna och MSE som förlustfunktion (Valfritt)
20 Problem 2: Eleverna kommer att tillämpa tre aktiveringsfunktioner för en enda viktuppdatering (SGD backpropagation), med penna och papper i (20 minuter):
20 Problem 3: Eleverna kommer att utveckla ett neuralt nätverk från grunden med hjälp av endast Numpy modulen, där användaren kan välja från någon av tre dolda lager aktiveringsfunktioner där koden kan förforma tillbakapropagation
10 Problem 4: Eleverna kommer att använda Tensorflow 2.X modulen med inbuild Keras modul, preform backpropagation med SGD.
10 Sammanfattning av processen för framåtpass

Tutorial 3 – Hyperparameterjustering

Lärarinstruktioner

Tid: 60 minuter

Skiss/tidsschema
Varaktighet (min) Beskrivning
5 Förbehandling av data
10 Kapacitet och djup tunnning (under och över montering)
10 Epok (under och över träning)
10 Satsstorlekar (för bullerdämpning)
10 Aktiveringsfunktioner (och deras effekter på prestanda – tid och noggrannhet)
10 Inlärningsfrekvens (vanilj, LR Decay, Momentum, Adaptive)
5 Recap på några stapelhyperparametrar (ReLu, Adam) och tunnning av andra (kapacitet och djup).

Erkännanden

Keith Quille (TU Dublin, Tallaght Campus) http://keithquille.com

Masterprogrammet Human-Centered AI har samfinansierats av Fonden för ett sammanlänkat Europa i Europeiska unionen inom ramen för Grant CEF-TC-2020–1 Digital Skills 2020 EU-IA-0068.