[această pagină pe wiki][indice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Tutorial: Fundamentele învățării profunde

Informații administrative

Titlu Tutorial: Fundamentul învățării profunde
Durată 180 min (60 min per tutorial)
Modulul B
Tipul lecției Tutorial
Focalizare Tehnică – Învățare profundă
Subiect Înainte și Backpropagation

Cuvinte cheie

propagare înainte, contrapropagare, tuning hiperparametru,

Obiective de învățare

Pregătirea preconizată

Evenimente de învățare care urmează să fie finalizate înainte

Obligatoriu pentru studenți

  • John D Kelleher și Brain McNamee. (2018), Fundamentals of Machine Learning for Predictive Data Analytics, MIT Press.
  • Michael Nielsen. (2015), Neural Networks and Deep Learning (Rețele neuronale și învățare profundă), 1. Presa de determinare, San Francisco CA SUA.
  • Charu C. Aggarwal. (2018), Neural Networks and Deep Learning (Rețele neuronale și învățare profundă), 1. Springer
  • Antonio Gulli, Sujit Pal. Deep Learning cu Keras, Packt, [ISBN: 9781787128422].

Opțional pentru studenți

  • Multiplicarea matricelor
  • Noțiuni de bază cu Numpy
  • Cunoașterea regresiei liniare și logistice

Referințe și context pentru studenți

Nici unul.

Recomandat pentru profesori

Nici unul.

Materiale de lecție

Nici unul.

Instrucțiuni pentru profesori

Acest eveniment de învățare constă din trei seturi de tutoriale care acoperă subiecte fundamentale de învățare profundă. Această serie de tutoriale constă în furnizarea unei imagini de ansamblu a unui pas înainte, derivarea backpropagation și utilizarea codului pentru a oferi studenților o imagine de ansamblu asupra a ceea ce face fiecare parametru și modul în care poate afecta învățarea și convergența unei rețele neuronale:

  1. Propagare înainte: Exemple de stilou și hârtie și exemple de python folosind Numpy (pentru fundamente) și Keras care prezintă un modul de nivel înalt (care utilizează Tensorflow 2.X).
  2. Derivarea și aplicarea retropropagation: Exemple de stilou și hârtie și exemple de python folosind Numpy (pentru fundamente) și Keras care prezintă un modul de nivel înalt (care utilizează Tensorflow 2.X).
  3. Reglarea hiperparametrului: Exemplele Keras care evidențiază parcele de diagnosticare exemplare bazate pe efectele modificării hiperparametrilor specifici (folosind un exemplu HCAIM seturi de date pentru predarea IA etice (Census Dataset).

Note pentru livrare (conform prelegerilor)

Tutorial 1 – Înainte de propagare

Instrucțiuni pentru profesori

Rețea neuronală.png

Ora: 60 de minute

Schiță/program de timp
Durată (min) Descriere
20 Problema 1: Punerea în aplicare a unui pas înainte (exemplu din prelegere)
20 Problema 2: Dezvoltarea unei rețele neuronale de la zero folosind Numpy (exemplu din prelegere)
10 Problema 3: Dezvoltarea unei rețele neuronale de la utilizarea Keras (exemplu din prelegere cu greutăți stabilite și greutăți aleatorii)
10 Recapitularea procesului de trecere înainte

Tutorial 2 – Derivarea și aplicarea backpropagation

Instrucțiuni pentru profesori

Ora: 60 de minute

Schiță/program de timp
Durată (min) Descriere
20 (opțional) Problema 1: derivarea formulei de backpropagare utilizând funcția Sigmoid pentru funcțiile de activare interioară și exterioară și MSE ca funcție de pierdere (opțional)
20 Problema 2: Elevii vor aplica trei funcții de activare pentru o singură actualizare a greutății (SGD backpropagation), folosind stiloul și hârtia pentru (20 de minute):
20 Problema 3: Elevii vor dezvolta o rețea neuronală de la zero folosind doar modulul Numpy, în cazul în care utilizatorul poate selecta din oricare dintre cele trei funcții de activare strat ascuns în cazul în care codul poate preforma backpropagation
10 Problema 4: Elevii vor utiliza modulul Tensorflow 2.X cu modulul inbuild Keras, preforma backpropagation folosind SGD.
10 Recapitularea procesului de trecere înainte

Tutorial 3 – Tuning de hiperparametru

Instrucțiuni pentru profesori

Ora: 60 de minute

Schiță/program de timp
Durată (min) Descriere
5 Pre-prelucrarea datelor
10 Capacitatea și adâncimea de reglare (sub și peste montare)
10 Epoci (sub și peste formare)
10 Dimensiuni lot (pentru suprimarea zgomotului)
10 Funcțiile de activare (și efectele lor asupra performanței – timp și precizie)
10 Ratele de învățare (vanilla, LR Decay, Momentum, Adaptive)
5 Recapitulați pe unii hiperparametri de bază (ReLu, Adam) și pe reglarea altora (capacitate și adâncime).

Confirmări

Keith Quille (TU Dublin, Tallaght Campus) http://keithquille.com

Programul de masterat AI centrat pe om a fost cofinantat de Mecanismul pentru interconectarea Europei al Uniunii Europene sub Grantul CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.