Administrativ information
Titel | Neurala nätverk |
Varaktighet | 60 |
Modul | A |
Typ av lektion | Föreläsning |
Fokus | Praktiskt – AI-modellering |
Ämne | AI-modellering |
Nyckelord
Neurala nätverk, backpropagation, optimering,
Lärandemål
- Eleverna förstår MLP-arkitekten
- Eleverna kan bygga neurala nätverk med helt anslutna lager och olika aktiveringsfunktioner
- Eleverna förstår den grundläggande idén om backpropagation och gradientbaserade metoder
Förväntad förberedelse
Lärande händelser som ska slutföras innan
Obligatoriskt för studenter
- Översyn av linjär algebra och vektorkalkyl.
Valfritt för studenter
Ingen.
Referenser och bakgrund för studenter
Rekommenderas för lärare
- Bekanta sig med demonstrationsmaterialen.
Lektionsmaterial
Instruktioner för lärare
Täcka ämnena i lektionens skiss och visa begreppen med hjälp av interaktiva anteckningsböcker (form av förlustfunktionen w.r.t. olika regularizers, gradientbaserade optimeringsalgoritmer). Ge en kort översikt över koden.
Skiss/tidsschema
Längd (min) | Beskrivning | Begrepp |
---|---|---|
5 | Från logistisk regression till perceptron | inmatning, vikter, bias, sigmoidfunktion |
10 | Multilayer perceptron och matrismultiplikationer | inmatningslager, dolt lager, utgångslager |
20 | Härledning av systemet för återutbredning | gradient nedstigning, inlärningshastighet, backpropagation |
10 | Aktiveringsfunktioner | ReLU, sigmoid, tanh, softmax etc. |
10 | Förlustfunktioner för klassificering och regression | Mikro- och småföretag, binär och kategorisk korsentropi |
5 | Demonstration |
Erkännanden
Masterprogrammet Human-Centered AI har samfinansierats av Fonden för ett sammanlänkat Europa i Europeiska unionen inom ramen för Grant CEF-TC-2020–1 Digital Skills 2020 EU-IA-0068.