[diese Seite im Wiki][Index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Vortrag: Ableitung und Anwendung der Backpropagation

Verwaltungsinformationen

Titel Ableitung und Anwendung der Backpropagation
Dauer 60
Modulen B
Unterrichtstyp Vortrag
Fokussierung Technisches – Deep Learning
Themenbereich Ableitung und Durchführung von Backpropagation

Suchbegriffe

Backpropagation, Aktivierungsfunktionen, Dieivation,

Lernziele

Erwartete Vorbereitung

Lernveranstaltungen, die vorab abgeschlossen werden müssen

Obligatorisch für Studenten

  • Kalkulationsrevision (Derivate, Teilderivate, Kettenregel)

Optional für Studenten

Keine.

Referenzen und Hintergründe für Studierende

  • John D. Kelleher und Brain McNamee. (2018), Grundlagen des maschinellen Lernens für Predictive Data Analytics, MIT Press.
  • Michael Nielsen. (2015), Neural Networks and Deep Learning, 1. Ermittlungspresse, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Neurale Netze und Deep Learning, 1. Springer
  • Antonio Gulli, Sujit Pal. Deep Learning mit Keras, Packt, [ISBN: 9781787128422].

Empfohlen für Lehrer

Keine.

Unterrichtsmaterialien

Anleitung für Lehrer

Diese Vorlesung wird die Studierenden in die Grundlagen des Backpropagation Algorithmus einführen. Dieser Vortrag beginnt mit dem Begriff des Fluchs der Dimensionalität, der zur Notwendigkeit eines heuristischen Ansatzes führt – gefolgt von der Übersicht, wie Gradienten zur Anpassung der Gewichte verwendet werden können. Dies führt dann den Backpropagation Algorithmus ein. Wir führen dann auch den Hyperparameter der Lernrate und einen kurzen Überblick über den Einfluss großer und kleiner Werte ein (dies wird in der Vorlesung 3 erweitert). Dann verwenden wir das gleiche Einführungsnetzwerk aus Lektion 1, leiten wir die äußere Schicht Backpropagation Formel ab, und dann werden wir schließlich den inneren Schicht-Backpropagation-Algorithmus ableiten. Dieser Vortrag schließt mit Beispielen verschiedener Aktivierungsfunktionen ab und wie der Algorithmus angewendet werden kann. Das entsprechende Tutorial enthält zusätzliche Stift- und Papierableitungen, praktische Beispiele und die Verwendung von Code (nur Numpy und KERAS), um den Backpropagation-Algorithmus zu implementieren.

Gliederung

Zeitplan
Dauer (Min.) Beschreibung
5 Einführung in Lernen, Gradient und Lernrate
20 Ableitung des Rückvermehrungsalgorithmus für die äußere Schicht (Sigmoid)
20 Ableitung des Backpropagierungsalgorithmus für die versteckte Schicht (Sigmoid)
10 Implementierung des Backpropagation-Algorithmus und Verwendung verschiedener Aktivierungsfunktionen für jede Schicht
5 Rückblick auf den Backpropagationsalgorithmus

Danksagung

Das Human-Centered AI Masters-Programm wurde von der Fazilität „Connecting Europe“ der Europäischen Union im Rahmen des Zuschusses „CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068“ kofinanziert.