[questa pagina su wiki][indice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Lezione: Reti di trasformatori

Informazioni amministrative

Titolo Reti di trasformatori
Durata 60 minuti
Modulo B
Tipo di lezione Lezione
Focus Tecnico — Apprendimento profondo
Argomento Trasformatore

Parole chiave

apprendimento sequenza-a-sequenza, seq2seq, meccanismo di attenzione, meccanismo di auto-attenzione, rete del trasformatore,

Obiettivi di apprendimento

Preparazione prevista

Eventi di apprendimento da completare prima

Facoltativo per gli studenti

Nessuno.

Referenze e background per gli studenti

Nessuno.

Consigliato per gli insegnanti

Nessuno.

Materiale didattico

Istruzioni per gli insegnanti

Nella lezione prima ripetiamo brevemente ciò che abbiamo imparato sui dati sequenziali in precedenza (ad esempio nella lezione RNN). Poi discutiamo, che impareremo a conoscere tre concetti principali oggi: modelli da sequenza a sequenza, meccanismo di attenzione e trasformatore. I primi due sono necessari per comprendere il concetto del trasformatore. È possibile preparare i documenti originali e mostrarli ai partecipanti.

Seq2seq: abbiamo appena discusso brevemente i concetti principali. La differenza tra l'insegnante forzante (formazione) e istanza per caso (inferenza) dovrebbe essere sottolineata.

I codici sorgente dovrebbero essere discussi in dettaglio, linea per linea, in modo che il concetto possa essere compreso dagli studenti in un livello di codice.

Nella seconda metà della lezione viene introdotta l'architettura del trasformatore. Gli elementi fondamentali sono discussi separatamente.

Se hai ancora del tempo alla fine della lezione, puoi aprire il tutorial TensorFlow sul trasformatore (link su questa pagina e anche nelle diapositive).

Contorno

Calendario
Durata (min) Descrizione
5 Introduzione sequenziale dei dati
7.5 Modelli da sequenza a sequenza
7.5 Meccanismo di attenzione
15 Codici sorgente
20 Trasformatore
5 Sintesi e conclusioni

Riconoscimenti

Balint Gyires-Tóth (Università di Tecnologia ed Economia di Budapest)

Il programma Human-Centered AI Masters è stato co-finanziato dal meccanismo per collegare l'Europa dell'Unione europea nell'ambito della sovvenzione CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.