[diese Seite im Wiki][Index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Vortrag: Transformatornetzwerke

Verwaltungsinformationen

Titel Transformatornetzwerke
Dauer 60 Minuten
Modulen B
Unterrichtstyp Vortrag
Fokussierung Technisches – Deep Learning
Themenbereich Transformator

Suchbegriffe

Sequenz-zu-Sequenz-Lernen, seq2seq, Aufmerksamkeitsmechanismus, Selbstaufmerkungsmechanismus, Transformatornetzwerk,

Lernziele

Erwartete Vorbereitung

Lernveranstaltungen, die vorab abgeschlossen werden müssen

Optional für Studenten

Keine.

Referenzen und Hintergründe für Studierende

Keine.

Empfohlen für Lehrer

Keine.

Unterrichtsmaterialien

Anleitung für Lehrer

Im Vortrag wiederholen wir zunächst kurz, was wir zuvor über sequentielle Daten gelernt haben (z. B. in der RNN-Vorlesung). Dann besprechen wir, dass wir heute drei Hauptkonzepte kennenlernen werden: Sequenz-zu-Sequenz-Modelle, Aufmerksamkeitsmechanismus und Transformator. Die ersten beiden sind notwendig, um das Konzept des Transformators zu verstehen. Sie können die Originalpapiere vorbereiten und den Teilnehmern zeigen.

Seq2seq: wir besprechen nur kurz die wichtigsten Konzepte. Der Unterschied zwischen Lehrerzwang (Ausbildung) und Instanz-für-Instanz (Inferenzen) sollte hervorgehoben werden.

Die Quellcodes sollten im Detail diskutiert werden, Zeile für Zeile, so dass das Konzept von den Schülern in einer Codeebene verstanden werden kann.

In der zweiten Hälfte des Vortrags wird die Transformatorarchitektur vorgestellt. Die Kernelemente werden getrennt diskutiert.

Wenn Sie am Ende der Vorlesung noch etwas Zeit haben, können Sie das TensorFlow-Tutorial zum Transformator öffnen (Link auf dieser Seite und in den Folien).

Gliederung

Zeitplan
Dauer (Min.) Beschreibung
5 Sequenzielle Dateneinführung
7.5 Sequenz-zu-Sequenz-Modelle
7.5 Aufmerksamkeitsmechanismus
15 Quellcodes
20 Transformator
5 Zusammenfassung und Schlussfolgerungen

Danksagung

Balint Gyires-Tóth (Budapest University of Technology and Economics)

Das Human-Centered AI Masters-Programm wurde von der Fazilität „Connecting Europe“ der Europäischen Union im Rahmen des Zuschusses „CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068“ kofinanziert.