Administrative oplysninger
Titel | Montering og optimering af modellen |
Varighed | 60 |
Modul | A |
Lektionstype | Forelæsning |
Fokus | Teknisk — Grundlæggelser af kunstig intelligens |
Emne | Fundamentet for AI |
Nøgleord
logistisk regression, modelmontering, optimering, gradient nedstigning, Newtons metode, numerisk stabilitet,
Læringsmål
- At erhverve påviselig viden om, hvad logistisk regression er
- At erhverve påviselig viden om ML inferens i ikke-konjugerede modeller via gradient nedstigning
- At erhverve påviselig viden om design og implementering af gradientbaserede optimeringsalgoritmer
Forventet forberedelse
Læringsbegivenheder, der skal fuldføres før
Obligatorisk for studerende
- Gennemgå det grundlæggende i Bayesian inferens og maksimal sandsynlighed
- Gennemgå elementær vektor calculus
Valgfrit for studerende
Ingen.
Referencer og baggrund for studerende
Ingen.
Anbefalet til lærerne
- Gør sig bekendt med demonstrationsmaterialet
Undervisningsmaterialer
Instruktioner til lærerne
Dække emnerne i lektionsoversigten og demonstrere begreberne ved hjælp af den interaktive notesbog (forholdet mellem antallet af iterationer, tabsværdi og beslutningsgrænsen, viser forskellige algoritmer og effekten af læringshastigheden). Giv et kort overblik over koden.
Oversigt/tidsplan
Varighed (min) | Beskrivelse | Koncepter |
---|---|---|
5 | Introduktion til lineær klassificering | binær klassifikation, beslutningsgrænse |
15 | Definition af en logistisk regressionsmodel | klassebetinget tæthed, sigmoidfunktion, logistisk regression |
15 | Maksimal sandsynlighedsestimering | binær crossentropi, læringshastighed, gradient nedstigning |
10 | Nærmere oplysninger om gennemførelse og numerisk stabilitet | numerisk stabilitet, overløb |
10 | Avancerede algoritmer | Newtons metode, linjesøgning |
5 | Demonstration |
Anerkendelser
Programmet Human-Centered AI Masters blev samfinansieret af Connecting Europe-faciliteten i Den Europæiske Union under tilskud CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.