[questa pagina su wiki][indice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Lezione: Reti neurali ricorrenti

Informazioni amministrative

Titolo Reti neurali ricorrenti
Durata 60 minuti
Modulo B
Tipo di lezione Lezione
Focus Tecnico — Apprendimento profondo
Argomento Multiplo (Recurrent Neural Networks (RNN), Backpropagation Through Time (BPTT), Long Short-Term Memory (LSTM)

Parole chiave

Reti neurali ricorrenti (RNN), Backpropagation Trough Time (BPTT), lunga memoria a breve termine (LSTM),

Obiettivi di apprendimento

Preparazione prevista

Eventi di apprendimento da completare prima

Obbligatorio per gli studenti

Facoltativo per gli studenti

Nessuno.

Referenze e background per gli studenti

Nessuno.

Consigliato per gli insegnanti

Nessuno.

Materiale didattico

Istruzioni per gli insegnanti

All'inizio si raccomanda una panoramica generale dei dati sequenziali. Qui, puoi discutere le principali sfide della modellazione dei dati sequenziali (tra cui campo ricettivo, multidimensionalità e natura multiscala).

Successivamente introduciamo prima le RNN, con i principi di base e dimostriamo che l'allenamento RNN dopo lo svolgimento è molto simlar per l'allenamento MLP, ma le matrici di peso in ingresso, ricorrente e in uscita sono condivise.

Introduciamo BPTT (Backpropagation through time) e la versione troncata.

Successivamente, discutiamo di come il problema del gradiente che svanisce rende le RNN impraticabili.

Al fine di risolvere il gradiente che svanisce, introduciamo l'architettura LSTM, che ha una parte di memoria interna (anche affermata come cella di memoria), che non ha alcuna attivatoina — quindi il gradiente scomparente non si verifica qui. Si prega di rendere davvero chiaro, che il meccanismo di gating è veramente controllato dai dati.

Nella parte finale della lezione, mostriamo che gli strati LSTM (e RNN, in effetti) possono essere impilati l'uno sull'altro con una o due direzioni. (reti unidirezionali e bidirezionali)

Contorno

Calendario
Durata (min) Descrizione
10 Introduzione sequenziale dei dati
15 Reti neurali ricorrenti e Backpropagation nel tempo
5 Gradienti scomparsi in RNNs
20 LSTM
5 Sovrapposizione di strati RNN/LSTM
5 Conclusioni

Riconoscimenti

Balint Gyires-Tóth (Università di Tecnologia ed Economia di Budapest)

Il programma Human-Centered AI Masters è stato co-finanziato dal meccanismo per collegare l'Europa dell'Unione europea nell'ambito della sovvenzione CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.