[diese Seite im Wiki][Index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Tutorial: Grundlagen des Deep Learning

Verwaltungsinformationen

Titel Tutorial: Grundlagen des Deep Learning
Dauer 180 min (60 min pro Tutorial)
Modulen B
Unterrichtstyp Anleitung
Fokussierung Technisches – Deep Learning
Themenbereich Forward und Backpropagation

Suchbegriffe

Vorwärtsausbreitung, Backpropagation, Hyperparameter-Tuning,

Lernziele

Erwartete Vorbereitung

Lernveranstaltungen, die vorab abgeschlossen werden müssen

Obligatorisch für Studenten

  • John D. Kelleher und Brain McNamee. (2018), Grundlagen des maschinellen Lernens für Predictive Data Analytics, MIT Press.
  • Michael Nielsen. (2015), Neural Networks and Deep Learning, 1. Ermittlungspresse, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Neurale Netze und Deep Learning, 1. Springer
  • Antonio Gulli, Sujit Pal. Deep Learning mit Keras, Packt, [ISBN: 9781787128422].

Optional für Studenten

  • Matrizen Multiplikation
  • Erste Schritte mit Numpy
  • Kenntnisse der linearen und logistischen Regression

Referenzen und Hintergründe für Studierende

Keine.

Empfohlen für Lehrer

Keine.

Unterrichtsmaterialien

Keine.

Anleitung für Lehrer

Dieses Lernereignis besteht aus drei Sätzen von Tutorials, die grundlegende Deep-Learning-Themen abdecken. Diese Tutorial-Serie besteht darin, einen Überblick über einen Vorwärtspass, die Ableitung von Backpropagation und die Verwendung von Code zu geben, um den Schülern einen Überblick darüber zu geben, was jeder Parameter tut und wie er das Lernen und die Konvergenz eines neuronalen Netzwerks beeinflussen kann:

  1. Weiterverbreitung: Stift- und Papierbeispiele und Python-Beispiele mit Numpy (für Grundlagen) und Keras, die ein High-Level-Modul zeigen (das Tensorflow 2.X verwendet).
  2. Ableitung und Anwendung von Backpropagation: Stift- und Papierbeispiele und Python-Beispiele mit Numpy (für Grundlagen) und Keras, die ein High-Level-Modul zeigen (das Tensorflow 2.X verwendet).
  3. Hyperparameter-Tuning: Keras-Beispiele, die exemplare diagnostische Diagramme hervorheben, die auf den Effekten für die Änderung bestimmter Hyperparameter basieren (unter Verwendung eines HCAIM -Beispieldatensatzes Datensätze für die Lehre ethischer KI (Zensus Dataset).

Lieferscheine (gemäß Vorlesungen)

Tutorial 1 – Weiterverbreitung

Anleitung des Lehrers

Neuronales Netzwerk.png

Uhrzeit: 60 Minuten

Gliederung/Zeitplan
Dauer (Min.) Beschreibung
20 Problem 1: Pen & Paper Umsetzung eines Forward Pass (Beispiel aus der Vorlesung)
20 Problem 2: Entwicklung eines neuronalen Netzwerks von Grund auf mit Numpy (Beispiel aus der Vorlesung)
10 Problem 3: Entwicklung eines neuronalen Netzes aus Keras (Beispiel aus der Vorlesung mit eingestellten Gewichten und Zufallsgewichten)
10 Rückblick auf den Forward-Pass-Prozess

Tutorial 2 – Ableitung und Anwendung der Backpropagation

Anleitung des Lehrers

Uhrzeit: 60 Minuten

Gliederung/Zeitplan
Dauer (Min.) Beschreibung
20 (optional) Problem 1: Ableitung der Rückvermehrungsformel unter Verwendung der Sigmoid-Funktion für die inneren und äußeren Aktivierungsfunktionen und MSE als Verlustfunktion (Optional)
20 Problem 2: Die Schüler werden drei Aktivierungsfunktionen für ein einzelnes Gewichtsupdate (SGD-Backpropagation) anwenden, wobei Stift und Papier für (20 Minuten) verwendet werden:
20 Problem 3: Die Schüler werden ein neuronales Netzwerk von Grund auf mit nur dem Numpy-Modul entwickeln, wo der Benutzer aus einer der drei versteckten Schichtaktivierungsfunktionen auswählen kann, bei denen der Code Backpropagation vorformen kann.
10 Problem 4: Die Schüler werden das Tensorflow 2.X-Modul mit dem inbuild Keras-Modul, Preform Backpropagation mit SGD verwenden.
10 Rückblick auf den Forward-Pass-Prozess

Tutorial 3 – Hyperparameter-Tuning

Anleitung des Lehrers

Uhrzeit: 60 Minuten

Gliederung/Zeitplan
Dauer (Min.) Beschreibung
5 Vorverarbeitung der Daten
10 Kapazitäts- und Tiefenabstimmung (Unter- und Überbestückung)
10 Epochen (unter und über Ausbildung)
10 Losgrößen (zur Geräuschunterdrückung)
10 Aktivierungsfunktionen (und ihre Auswirkungen auf die Leistung – Zeit und Genauigkeit)
10 Lernraten (Vanille, LR Decay, Momentum, Adaptiv)
5 Rekapitulieren Sie einige grundlegende Hyperparameter (ReLu, Adam) und die Einstellung anderer (Kapazität und Tiefe).

Danksagung

Keith Quille (TU Dublin, Tallaght Campus) http://keithquille.com

Das Human-Centered AI Masters-Programm wurde von der Fazilität „Connecting Europe“ der Europäischen Union im Rahmen des Zuschusses „CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068“ kofinanziert.