Administrativ information
Titel | Modellmontering och optimering |
Varaktighet | 60 |
Modul | A |
Typ av lektion | Föreläsning |
Fokus | Tekniska – Grunderna för AI |
Ämne | Grunderna för AI |
Nyckelord
logistisk regression, modellmontering, optimering, gradientnedstigning, Newtons metod, numerisk stabilitet,
Lärandemål
- Att få påvisbar kunskap om vad logistisk regression är
- Att förvärva påvisbar kunskap om ML-inferens i icke-konjugat modeller via gradient härkomst
- Att förvärva påvisbar kunskap om design och implementering av gradientbaserade optimeringsalgoritmer
Förväntad förberedelse
Lärande händelser som ska slutföras innan
Obligatoriskt för studenter
- Granska grunderna för Bayesian inference och maximal sannolikhet
- Granska elementär vektorkalkyl
Valfritt för studenter
Ingen.
Referenser och bakgrund för studenter
Ingen.
Rekommenderas för lärare
- Bekanta sig med demonstrationsmaterialet
Lektionsmaterial
Instruktioner för lärare
Ta upp ämnena i lektionens skiss och visa begreppen med hjälp av den interaktiva anteckningsboken (förhållande mellan antalet iterationer, förlustvärde och beslutsgräns, visa olika algoritmer och effekten av inlärningshastigheten). Ge en kort översikt över koden.
Skiss/tidsschema
Längd (min) | Beskrivning | Begrepp |
---|---|---|
5 | Introduktion till linjär klassificering | binär klassificering, beslutsgräns |
15 | Definiera en logistisk regressionsmodell | klassvillkorad densitet, sigmoidfunktion, logistisk regression |
15 | Maximal sannolikhetsuppskattning | binär korsentropi, inlärningshastighet, gradient härkomst |
10 | Genomförandedetaljer och numerisk stabilitet | numerisk stabilitet, överflöde |
10 | Avancerade algoritmer | Newtons metod, linjesökning |
5 | Demonstration |
Erkännanden
Masterprogrammet Human-Centered AI har samfinansierats av Fonden för ett sammanlänkat Europa i Europeiska unionen inom ramen för Grant CEF-TC-2020–1 Digital Skills 2020 EU-IA-0068.