Verwaltungsinformationen
Titel | Vortrag: SVMs und Kernels |
Dauer | 60 |
Modulen | A |
Unterrichtstyp | Vortrag |
Fokussierung | Praktisch – KI-Modellierung |
Themenbereich | KI-Modellierung |
Suchbegriffe
maximaler Margin-Klassifikator, Unterstützungsvektor, Kerneltrick,
Lernziele
- Um zu wissen, was ein Unterstützungsvektor ist und wie man ihn in einem Feature-Raum findet
- Um zu wissen, wie eine lineare SVM funktioniert
- Das Konzept der Kernelfunktion im Kontext von SVM zu verstehen
- Um zu wissen, wie der Kernel-Trick die nicht lineare Klassifikation mit linearer SVM ermöglicht
Erwartete Vorbereitung
Lernveranstaltungen, die vorab abgeschlossen werden müssen
Obligatorisch für Studenten
- Überprüfung der analytischen Geometrie (z. B. Abstand eines Punkts zu einer Ebene).
Optional für Studenten
Keine.
Referenzen und Hintergründe für Studierende
- Bischof, Christopher M. (2006). Mustererkennung und maschinelles Lernen, Kapitel 7
Empfohlen für Lehrer
- Machen Sie sich mit dem Demonstrationsmaterial vertraut.
Unterrichtsmaterialien
Anleitung für Lehrer
Decken Sie die Themen in der Unterrichtsskizze ab und zeigen Sie anhand der interaktiven Notizbücher die Wirkung des Komplexitätsparameters und des RBF-Parameters. Zeigen Sie ein Beispiel für Underfitting. Geben Sie einen kurzen Überblick über den Code.
Gliederung/Zeitplan
Dauer (min) | Beschreibung | Konzepte |
---|---|---|
15 | Klassifikatoren für maximale Margen | Funktionsraum, Trennen von Hyperebene, Rand, Unterstützungsvektor |
10 | Soft-Margin-Formulierung | Slack-Variablen, Modellkomplexität |
10 | Duale Formulierung und Optimierung | Lagrange Multiplikatoren, Ur- und Doppelprobleme |
10 | Unterstützung von Vektoren und Vorhersagen | duale Parameter und Unterstützungsvektoren |
15 | Nichtlinearisierung und der Kernel-Trick | Kernel-Funktion |
Danksagung
Das Human-Centered AI Masters-Programm wurde von der Fazilität „Connecting Europe“ der Europäischen Union im Rahmen des Zuschusses „CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068“ kofinanziert.