[questa pagina su wiki][indice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Lezione: Propagazione in avanti

Informazioni amministrative

Titolo Propagazione in avanti
Durata 60
Modulo B
Tipo di lezione Lezione
Focus Tecnico — Apprendimento profondo
Argomento Pass in avanti

Parole chiave

Passaggio in avanti, perdita,

Obiettivi di apprendimento

Preparazione prevista

Eventi di apprendimento da completare prima

Nessuno.

Obbligatorio per gli studenti

Nessuno.

Facoltativo per gli studenti

  • Moltiplicazione delle matrici
  • Iniziare con Numpy
  • Conoscenza della regressione lineare e logistica (dal Periodo A Machine Learning): Lezione: Regressione lineare, GLR, GADs)

Referenze e background per gli studenti

  • John D. Kelleher e Brain McNamee (2018), Fondamenti dell'apprendimento automatico per l'analisi predittiva dei dati, MIT Press.
  • Michael Nielsen. (2015), Reti neurali e apprendimento profondo, 1. Pressa di determinazione, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Reti neurali e apprendimento profondo, 1. Springer
  • Antonio Gulli, Sujit Pal. Apprendimento profondo con Keras, Packt, [ISBN: 9781787128422].

Consigliato per gli insegnanti

Nessuno.

Materiale didattico

Istruzioni per gli insegnanti

Questa lezione introdurrà gli studenti ai fondamenti della propagazione in avanti per una rete neurale artificiale. Ciò introdurrà gli studenti alla topologia (peso, sinapsi, funzioni di attivazione e funzioni di perdita). Gli studenti saranno quindi in grado di fare un passaggio in avanti usando penna e carta, usando Python con solo la libreria Numpy (per la manipolazione delle matrici) e quindi utilizzando KERAS come parte del tutorial associato a questa LE. Ciò creerà una comprensione fondamentale di ciò che le funzioni di attivazione si applicano a specifici contesti problematici e di come le funzioni di attivazione differiscono nella complessità computazionale. Nella lezione verranno esaminate la funzione di attivazione dello strato esterno e le corrispondenti funzioni di perdita per i casi d'uso come la classificazione binomiale, la regressione e la classificazione multi-classe.

Nota:

Contorno

Rete neurale utilizzata in queste serie di lezioni introduttive
Calendario
Durata (min) Descrizione
10 Definizione di componenti di rete neurale
15 Pesi e funzioni di attivazione (Sigmoid, TanH e ReLu)
15 Funzioni di perdita (regressione, classificazione binomiale e attivazione multiclasse)
15 Utilizzo di matrici per un passaggio in avanti
5 Riepilogo sul pass in avanti

Riconoscimenti

Il programma Human-Centered AI Masters è stato co-finanziato dal meccanismo per collegare l'Europa dell'Unione europea nell'ambito della sovvenzione CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.