[diese Seite im Wiki][Index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Vortrag: Wiederkehrende neuronale Netze

Verwaltungsinformationen

Titel Wiederkehrende neuronale Netze
Dauer 60 Minuten
Modulen B
Unterrichtstyp Vortrag
Fokussierung Technisches – Deep Learning
Themenbereich Multiple (Recurrent Neural Networks (RNN), Backpropagation Through Time (BPTT), Long Short-Term Memory (LSTM))

Suchbegriffe

Recurrent Neural Networks (RNN), Backpropagation Trough Time (BPTT), Long Short-Term Memory (LSTM),

Lernziele

Erwartete Vorbereitung

Lernveranstaltungen, die vorab abgeschlossen werden müssen

Obligatorisch für Studenten

Optional für Studenten

Keine.

Referenzen und Hintergründe für Studierende

Keine.

Empfohlen für Lehrer

Keine.

Unterrichtsmaterialien

Anleitung für Lehrer

Zu Beginn wird eine allgemeine Übersicht der sequentiellen Daten empfohlen. Hier können Sie die Hauptchallange der Modellierung sequentieller Daten (einschließlich empfängliches Feld, Multidimensionalität und mehrskalige Natur) besprechen.

Später stellen wir RNNs zuerst mit den Grundprinzipien vor und zeigen, dass das Training von RNNs nach der Entfaltung dem Training von MLPs sehr ähnlich ist, aber die Input-, Recurrent- und Output-Gewichtsmatrizen werden geteilt.

Wir stellen BPTT (Backpropagation through time) und die verkürzte Version vor.

Als nächstes diskutieren wir, wie das verschwindende Gradientenproblem RNNs unpraktisch macht.

Um den verschwindenden Gradienten zu lösen, stellen wir die LSTM-Architektur vor, die einen inneren Gedächtnisteil (auch als Speicherzelle bezeichnet) hat, der kein Aktivatoin aufweist – so tritt hier kein verschwindender Gradient auf. Bitte machen Sie wirklich klar, dass der Gating-Mechanismus wirklich von den Daten kontrolliert wird.

Im letzten Teil des Vortrags zeigen wir, dass LSTM (und RNN, in der Tat) Schichten mit ein oder zwei Richtungen aufeinander gestapelt werden können. (uni- und bidirektionale Netze)

Gliederung

Zeitplan
Dauer (Min.) Beschreibung
10 Sequenzielle Dateneinführung
15 Wiederkehrende neuronale Netze und Rückvermehrung durch die Zeit
5 Verschwindende Steigungen in RNNs
20 LSTMs
5 Stapeln von RNN/LSTM-Schichten
5 Schlussfolgerungen

Danksagung

Balint Gyires-Tóth (Budapest University of Technology and Economics)

Das Human-Centered AI Masters-Programm wurde von der Fazilität „Connecting Europe“ der Europäischen Union im Rahmen des Zuschusses „CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068“ kofinanziert.