[questa pagina su wiki][indice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Tutorial: Sintonizzazione dell'iperparametro

Informazioni amministrative

Titolo Sintonizzazione dell'iperparametro
Durata 60
Modulo B
Tipo di lezione Esercitazione
Focus Tecnico — Apprendimento profondo
Argomento Sintonizzazione dell'iperparametro

Parole chiave

Sintonizzazione dell'iperparametro, funzioni di attivazione, perdita, epoche, dimensione del lotto,

Obiettivi di apprendimento

Preparazione prevista

Obbligatorio per gli studenti

Nessuno.

Facoltativo per gli studenti

Nessuno.

Referenze e background per gli studenti

  • John D. Kelleher e Brain McNamee (2018), Fondamenti dell'apprendimento automatico per l'analisi predittiva dei dati, MIT Press.
  • Michael Nielsen. (2015), Reti neurali e apprendimento profondo, 1. Pressa di determinazione, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Reti neurali e apprendimento profondo, 1. Springer
  • Antonio Gulli, Sujit Pal. Apprendimento profondo con Keras, Packt, [ISBN: 9781787128422].

Consigliato per gli insegnanti

Nessuno.

Materiale didattico

Istruzioni per gli insegnanti

Contorno

Calendario
Durata (min) Descrizione
5 Pre-trattamento dei dati
10 Regolazione della capacità e della profondità (sotto e sopra il montaggio)
10 Epoche (sotto e oltre l'allenamento)
10 Dimensioni dei lotti (per la soppressione del rumore)
10 Funzioni di attivazione (e i loro effetti sulle prestazioni — tempo e precisione)
10 Tassi di apprendimento (vaniglia, LR Decay, Momentum, Adaptive)
5 Ricapitolare su alcuni iperparametri di base (ReLu, Adam) e il tunning di altri (capacità e profondità).

Riconoscimenti

Il programma Human-Centered AI Masters è stato co-finanziato dal meccanismo per collegare l'Europa dell'Unione europea nell'ambito della sovvenzione CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.