Verwaltungsinformationen
Titel | Neuronale Netze |
Dauer | 60 |
Modulen | A |
Unterrichtstyp | Vortrag |
Fokussierung | Praktisch – KI-Modellierung |
Themenbereich | KI-Modellierung |
Suchbegriffe
Neuronales Netzwerk, Backpropagation, Optimierung,
Lernziele
- Die Lernenden verstehen das MLP Architectre
- Lernende können neuronale Netze mit vollständig verbundenen Schichten und verschiedenen Aktivierungsfunktionen bauen
- Die Lernenden verstehen die Grundidee von Backpropagation und Gradienten-basierten Methoden
Erwartete Vorbereitung
Lernveranstaltungen, die vorab abgeschlossen werden müssen
Obligatorisch für Studenten
- Übersicht über lineare Algebra und Vektorrechnung.
Optional für Studenten
Keine.
Referenzen und Hintergründe für Studierende
Empfohlen für Lehrer
- Machen Sie sich mit den Demonstrationsmaterialien vertraut.
Unterrichtsmaterialien
Anleitung für Lehrer
Decken Sie die Themen in der Unterrichtsskizze ab und demonstrieren Sie die Konzepte mit den interaktiven Notizbüchern (Form der Verlustfunktion w.r.t. verschiedene Regularizer, gradientenbasierte Optimierungsalgorithmen). Geben Sie einen kurzen Überblick über den Code.
Gliederung/Zeitplan
Dauer (min) | Beschreibung | Konzepte |
---|---|---|
5 | Von der logistischen Regression zum Perceptron | Eingabe, Gewichte, Bias, Sigmoid-Funktion |
10 | Multilayer-Perceptron- und Matrix-Multiplikationen | Eingangsebene, versteckte Ebene, Ausgabeschicht |
20 | Ableitung des Rückvermehrungsschemas | Gradientenabstieg, Lernrate, Backpropagation |
10 | Aktivierungsfunktionen | ReLU, Sigmoid, Tanh, Softmax etc. |
10 | Verlustfunktionen für Klassifikation und Regression | MSE, binäre und kategorische Kreuzentropie |
5 | Demonstration |
Danksagung
Das Human-Centered AI Masters-Programm wurde von der Fazilität „Connecting Europe“ der Europäischen Union im Rahmen des Zuschusses „CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068“ kofinanziert.