Administrative oplysninger
Titel | Forelæsning: SVM'er og Kernels |
Varighed | 60 |
Modul | A |
Lektionstype | Forelæsning |
Fokus | Praktisk — modellering af kunstig intelligens |
Emne | Modellering af kunstig intelligens |
Nøgleord
maksimal marginklassifikation, støttevektor, kernetrick,
Læringsmål
- At vide, hvad en støttevektor er, og hvordan man finder den i et funktionsrum
- At vide, hvordan en lineær SVM fungerer
- At forstå begrebet kernefunktion i forbindelse med SVM
- At vide, hvordan kernetricket gør det muligt at udføre ikke lineær klassificering med lineær SVM
Forventet forberedelse
Læringsbegivenheder, der skal fuldføres før
Obligatorisk for studerende
- Gennemgang af analytisk geometri (f.eks. afstanden af et punkt til et plan).
Valgfrit for studerende
Ingen.
Referencer og baggrund for studerende
- Biskop, Christopher M. (2006). Mønstergenkendelse og maskinlæring, kapitel 7
Anbefalet til lærerne
- Gør sig bekendt med demonstrationsmaterialet.
Undervisningsmaterialer
Instruktioner til lærerne
Dække emnerne i lektionsoversigten og demonstrere effekten af kompleksitetsparameteren og RBF-parameteren ved hjælp af de interaktive notesbøger. Vis et eksempel på underfitting. Giv et kort overblik over koden.
Oversigt/tidsplan
Varighed (min) | Beskrivelse | Koncepter |
---|---|---|
15 | Maksimale margenklassifikatorer | funktionsplads, adskillelse af hyperplane, margin, støttevektor |
10 | Soft-margin formulering | Slack variabler, model kompleksitet |
10 | Dobbelt formulering og optimering | Lagrange multiplikatorer, primære og dobbelte problemer |
10 | Støtte vektorer og forudsigelser | dobbelte parametre og støttevektorer |
15 | Ikke-linearisering og kernen trick | kernefunktion |
Anerkendelser
Programmet Human-Centered AI Masters blev samfinansieret af Connecting Europe-faciliteten i Den Europæiske Union under tilskud CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.