Informazioni amministrative
Titolo | Reti neurali |
Durata | 60 |
Modulo | A |
Tipo di lezione | Lezione |
Focus | Pratiche — AI Modelling |
Argomento | Modellizzazione dell'IA |
Parole chiave
Rete neurale, retropropagazione, ottimizzazione,
Obiettivi di apprendimento
- Gli studenti capiscono l'architetto MLP
- Gli studenti possono costruire reti neurali con livelli completamente connessi e varie funzioni di attivazione
- Gli studenti comprendono l'idea di base di backpropagation e metodi basati sul gradiente
Preparazione prevista
Eventi di apprendimento da completare prima
Obbligatorio per gli studenti
- Revisione dell'algebra lineare e del calcolo vettoriale.
Facoltativo per gli studenti
Nessuno.
Referenze e background per gli studenti
Consigliato per gli insegnanti
- Familiarizzare con i materiali dimostrativi.
Materiale didattico
Istruzioni per gli insegnanti
Coprire gli argomenti della lezione e dimostrare i concetti utilizzando i notebook interattivi (forma della funzione di perdita w.r.t. diversi regolarizzatori, algoritmi di ottimizzazione basati su gradiente). Fornire una breve panoramica del codice.
Schema/orario
Durata (min) | Descrizione | Concetti |
---|---|---|
5 | Dalla regressione logistica al percettore | input, pesi, bias, funzione sigmoide |
10 | Moltiplicazioni multistrato del percettore e della matrice | livello di ingresso, strato nascosto, livello di uscita |
20 | Derivazione del sistema di retropropagazione | gradiente discesa, tasso di apprendimento, backpropagation |
10 | Funzioni di attivazione | ReLU, sigmoid, tanh, softmax ecc. |
10 | Funzioni di perdita per la classificazione e la regressione | MSE, cross-entropia binaria e categorica |
5 | Dimostrazione |
Riconoscimenti
Il programma Human-Centered AI Masters è stato co-finanziato dal meccanismo per collegare l'Europa dell'Unione europea nell'ambito della sovvenzione CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.