[questa pagina su wiki][indice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Tutorial: Fondamenti del deep learning

Informazioni amministrative

Titolo Tutorial: Fondamentale del deep learning
Durata 180 min (60 min per tutorial)
Modulo B
Tipo di lezione Esercitazione
Focus Tecnico — Apprendimento profondo
Argomento Avanti e indietropropagazione

Parole chiave

propagazione in avanti, retropropagazione, sintonizzazione dell'iperparametro,

Obiettivi di apprendimento

Preparazione prevista

Eventi di apprendimento da completare prima

Obbligatorio per gli studenti

  • John D. Kelleher e Brain McNamee (2018), Fondamenti dell'apprendimento automatico per l'analisi predittiva dei dati, MIT Press.
  • Michael Nielsen. (2015), Reti neurali e apprendimento profondo, 1. Pressa di determinazione, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Reti neurali e apprendimento profondo, 1. Springer
  • Antonio Gulli, Sujit Pal. Apprendimento profondo con Keras, Packt, [ISBN: 9781787128422].

Facoltativo per gli studenti

  • Moltiplicazione delle matrici
  • Iniziare con Numpy
  • Conoscenza della regressione lineare e logistica

Referenze e background per gli studenti

Nessuno.

Consigliato per gli insegnanti

Nessuno.

Materiale didattico

Nessuno.

Istruzioni per gli insegnanti

Questo evento di apprendimento è composto da tre serie di tutorial che coprono argomenti fondamentali di apprendimento profondo. Questa serie di tutorial consiste nel fornire una panoramica di un forward pass, la derivazione della backpropagation e l'uso del codice per fornire una panoramica per gli studenti su ciò che fa ogni parametro e come può influenzare l'apprendimento e la convergenza di una rete neurale:

  1. Propagazione in avanti: Esempi di penna e carta, ed esempi di python utilizzando Numpy (per i fondamentali) e Keras che mostrano un modulo di alto livello (che utilizza Tensorflow 2.X).
  2. Derivare e applicare la retropropagazione: Esempi di penna e carta, ed esempi di python utilizzando Numpy (per i fondamentali) e Keras che mostrano un modulo di alto livello (che utilizza Tensorflow 2.X).
  3. Sintonizzazione dell'iperparametro: Esempi di Keras evidenziano diagrammi diagnostici esemplari basati sugli effetti della modifica di specifici iperparametri (utilizzando un esempio HCAIM Dataset set di dati per l'insegnamento dell'IA etica (Census Dataset).

Note per la consegna (secondo le lezioni)

Tutorial 1 — Propagazione in avanti

Istruzioni per l'insegnante

Rete neurale.png

Tempo: 60 minuti

Schema/orario
Durata (min) Descrizione
20 Problema 1: Applicazione penna e carta di un forward pass (esempio dalla lezione)
20 Problema 2: Sviluppo di una rete neurale da zero utilizzando Numpy (esempio dalla lezione)
10 Problema 3: Sviluppo di una rete neurale dall'utilizzo di Keras (esempio dalla lezione con pesi impostati e pesi casuali)
10 Riepilogo sul processo forward pass

Tutorial 2 — Derivazione e applicazione della retropropagazione

Istruzioni per l'insegnante

Tempo: 60 minuti

Schema/orario
Durata (min) Descrizione
20 (facoltativo) Problema 1: derivazione della formula backpropagation utilizzando la funzione Sigmoid per le funzioni di attivazione interna ed esterna e MSE come funzione di perdita (Opzionale)
20 Problema 2: Gli studenti applicheranno tre funzioni di attivazione per un singolo aggiornamento del peso (SGD backpropagation), utilizzando penna e carta per (20 minuti):
20 Problema 3: Gli studenti svilupperanno una rete neurale da zero utilizzando solo il modulo Numpy, dove l'utente può selezionare da una delle tre funzioni di attivazione dei livelli nascosti in cui il codice può preformare la backpropagation
10 Problema 4: Gli studenti utilizzeranno il modulo Tensorflow 2.X con il modulo Keras inbuild, preformando la retropropagazione utilizzando SGD.
10 Riepilogo sul processo forward pass

Tutorial 3 — Tuning iperparametrico

Istruzioni per l'insegnante

Tempo: 60 minuti

Schema/orario
Durata (min) Descrizione
5 Pre-trattamento dei dati
10 Regolazione della capacità e della profondità (sotto e sopra il montaggio)
10 Epoche (sotto e oltre l'allenamento)
10 Dimensioni dei lotti (per la soppressione del rumore)
10 Funzioni di attivazione (e i loro effetti sulle prestazioni — tempo e precisione)
10 Tassi di apprendimento (vaniglia, LR Decay, Momentum, Adaptive)
5 Ricapitolare su alcuni iperparametri di base (ReLu, Adam) e il tunning di altri (capacità e profondità).

Riconoscimenti

Keith Quille (TU Dublino, Tallaght Campus) http://keithquille.com

Il programma Human-Centered AI Masters è stato co-finanziato dal meccanismo per collegare l'Europa dell'Unione europea nell'ambito della sovvenzione CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.