[diese Seite im Wiki][Index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Vortrag: Weiterverbreitung

Verwaltungsinformationen

Titel Weiterverbreitung
Dauer 60
Modulen B
Unterrichtstyp Vortrag
Fokussierung Technisches – Deep Learning
Themenbereich Vorwärtspass

Suchbegriffe

Vorwärtspass, Verlust,

Lernziele

Erwartete Vorbereitung

Lernveranstaltungen, die vorab abgeschlossen werden müssen

Keine.

Obligatorisch für Studenten

Keine.

Optional für Studenten

  • Matrizen Multiplikation
  • Erste Schritte mit Numpy
  • Kenntnisse der linearen und logistischen Regression (aus Period A Machine Learning: Vortrag: Lineare Regression, GLRs, GADs)

Referenzen und Hintergründe für Studierende

  • John D. Kelleher und Brain McNamee. (2018), Grundlagen des maschinellen Lernens für Predictive Data Analytics, MIT Press.
  • Michael Nielsen. (2015), Neural Networks and Deep Learning, 1. Ermittlungspresse, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Neurale Netze und Deep Learning, 1. Springer
  • Antonio Gulli, Sujit Pal. Deep Learning mit Keras, Packt, [ISBN: 9781787128422].

Empfohlen für Lehrer

Keine.

Unterrichtsmaterialien

Anleitung für Lehrer

In diesem Vortrag werden die Studierenden in die Grundlagen der Forward-Propagation für ein künstliches neuronales Netz eingeführt. Dies wird den Studierenden die Topologie (Gewichte, Synapsen, Aktivierungsfunktionen und Verlustfunktionen) näher bringen. Die Schüler können dann einen Vorwärtspass mit Stift und Papier machen, indem sie Python nur mit der Numpy-Bibliothek verwenden (für Matrizenmanipulation) und dann KERAS als Teil des Tutorials verwenden, das mit diesem LE verbunden ist. Dies wird ein grundlegendes Verständnis dafür schaffen, welche Aktivierungsfunktionen für bestimmte Problemkontexte gelten und wie sich die Aktivierungsfunktionen in der Rechenkomplexität unterscheiden. In der Vorlesung werden die äußere Schichtaktivierungsfunktion und entsprechende Verlustfunktionen für Anwendungsfälle wie binomiale Klassifikation, Regression und Mehrklassenklassifikation untersucht.

Anmerkung:

Gliederung

Neuronales Netz, das in diesen Einführungsvorlesungen verwendet wird
Zeitplan
Dauer (Min.) Beschreibung
10 Definition neuronaler Netzkomponenten
15 Gewichte und Aktivierungsfunktionen (Sigmoid, TanH und ReLu)
15 Verlustfunktionen (Regression, binomiale Klassifikation und Mehrklassenaktivierung)
15 Verwenden von Matrizen für einen Vorwärtspass
5 Rückblick auf den Vorwärtspass

Danksagung

Das Human-Centered AI Masters-Programm wurde von der Fazilität „Connecting Europe“ der Europäischen Union im Rahmen des Zuschusses „CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068“ kofinanziert.