Informazioni amministrative
| Titolo | Sintonizzazione dell'iperparametro |
| Durata | 60 |
| Modulo | B |
| Tipo di lezione | Lezione |
| Focus | Tecnico — Apprendimento profondo |
| Argomento | Sintonizzazione dell'iperparametro |
Parole chiave
Sintonizzazione dell'iperparametro, funzioni di attivazione, perdita, epoche, dimensioni dei lotti,
Obiettivi di apprendimento
- Studiare gli effetti sulla capacità e la profondità
- Esperto con diverse epoche e dimensioni dei lotti
- Prova diverse funzioni di attivazione e tassi di apprendimento
Preparazione prevista
Eventi di apprendimento da completare prima
Obbligatorio per gli studenti
Nessuno.
Facoltativo per gli studenti
Nessuno.
Referenze e background per gli studenti
- John D. Kelleher e Brain McNamee (2018), Fondamenti dell'apprendimento automatico per l'analisi predittiva dei dati, MIT Press.
- Michael Nielsen. (2015), Reti neurali e apprendimento profondo, 1. Pressa di determinazione, San Francisco CA USA.
- Charu C. Aggarwal. (2018), Reti neurali e apprendimento profondo, 1. Springer
- Antonio Gulli, Sujit Pal. Apprendimento profondo con Keras, Packt, [ISBN: 9781787128422].
Consigliato per gli insegnanti
Nessuno.
Materiale didattico
Istruzioni per gli insegnanti
Questa lezione introdurrà gli studenti ai fondamenti della messa a punto dell'iperparametro. Useremo il set di dati del censimento come esempi di utilizzo e risultati della messa a punto di vari ipermetri. Il dataset del censimento degli adulti è un problema di classificazione binaria. Ulteriori informazioni su questo set di dati nel tutorial corrispondente. L'obiettivo di questa lezione è quello di introdurre diversi iperparametri con esempi di come modificare questi iperparametri può aiutare o ostacolare l'apprendimento. Inoltre forniamo esempi di sotto e overfitting, aumento del naso e delle prestazioni (tempo di allenamento e in alcuni casi accuratezza/perdita) quando ciascuno degli iperparametri è sintonizzato. Utilizzeremo diagrammi diagnostici per valutare l'effetto dell'iperparametro tunning e in particolare un focus sulla perdita, dove va notato che il modulo che usiamo per tracciare la perdita è matplotlib.pyplot, quindi l'asse viene scalato. Ciò può significare che le differenze significative possono apparire non significative o viceversa quando si confronta la perdita dei dati di allenamento o di prova. Inoltre vengono presentate alcune libertà per i ponteggi, come l'uso di Epochs prima (quasi come tecnica di regolarizzazione) mantenendo costante la dimensione del Batch. Idealmente questi sarebbero stati messi insieme, ma per questa lezione sono separati.
Contorno

| Durata (min) | Descrizione |
|---|---|
| 5 | Panoramica dei dati |
| 10 | Regolazione della capacità e della profondità (sotto e sopra il montaggio) |
| 10 | Epoche (sotto e oltre l'allenamento) |
| 10 | Dimensioni dei lotti (per la soppressione del rumore) |
| 10 | Funzioni di attivazione (e i loro effetti sulle prestazioni — tempo e precisione) |
| 10 | Tassi di apprendimento (vaniglia, LR Decay, Momentum, Adaptive) |
| 5 | Riepilogo sul processo forward pass |
Riconoscimenti
Il programma Human-Centered AI Masters è stato co-finanziato dal meccanismo per collegare l'Europa dell'Unione europea nell'ambito della sovvenzione CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.
