[această pagină pe wiki][indice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Prelegere: Propagare înainte

Informații administrative

Titlu Propagare înainte
Durată 60
Modulul B
Tipul lecției Prelegere
Focalizare Tehnică – Învățare profundă
Subiect Pas înainte

Cuvinte cheie

Înainte pas, Pierdere,

Obiective de învățare

Pregătirea preconizată

Evenimente de învățare care urmează să fie finalizate înainte

Nici unul.

Obligatoriu pentru studenți

Nici unul.

Opțional pentru studenți

  • Multiplicarea matricelor
  • Noțiuni de bază cu Numpy
  • Cunoașterea regresiei liniare și logistice (din Perioada A Machine Learning): Prelegere: Regresie liniară, GLR-uri, GAD-uri)

Referințe și context pentru studenți

  • John D Kelleher și Brain McNamee. (2018), Fundamentals of Machine Learning for Predictive Data Analytics, MIT Press.
  • Michael Nielsen. (2015), Neural Networks and Deep Learning (Rețele neuronale și învățare profundă), 1. Presa de determinare, San Francisco CA SUA.
  • Charu C. Aggarwal. (2018), Neural Networks and Deep Learning (Rețele neuronale și învățare profundă), 1. Springer
  • Antonio Gulli, Sujit Pal. Deep Learning cu Keras, Packt, [ISBN: 9781787128422].

Recomandat pentru profesori

Nici unul.

Materiale de lecție

Instrucțiuni pentru profesori

Această prelegere va introduce studenții la fundamentele propagării înainte pentru o rețea neuronală artificială. Acest lucru va introduce elevii la topologie (greutăți, sinapse, funcții de activare și funcții de pierdere). Elevii vor putea apoi să facă o trecere înainte folosind stiloul și hârtia, folosind Python numai cu biblioteca Numpy (pentru manipularea matricelor) și apoi folosind KERAS ca parte a tutorialului asociat cu acest LE. Acest lucru va construi o înțelegere fundamentală a funcțiilor de activare care se aplică contextelor de probleme specifice și a modului în care funcțiile de activare diferă în ceea ce privește complexitatea computațională. În prelegere, funcția de activare a stratului exterior și funcțiile de pierdere corespunzătoare vor fi examinate pentru cazuri de utilizare, cum ar fi clasificarea binomială, regresia și clasificarea în mai multe clase.

Notă:

Contur

Rețea neuronală utilizată în aceste serii introductive de prelegeri
Orarul
Durată (min) Descriere
10 Definirea componentelor rețelei neuronale
15 Greutăți și funcții de activare (Sigmoid, TanH și ReLu)
15 Funcții de pierdere (regresie, clasificare binomială și activare în mai multe clase)
15 Utilizarea matricelor pentru o trecere înainte
5 Recapitulare pe pasa înainte

Confirmări

Programul de masterat AI centrat pe om a fost cofinantat de Mecanismul pentru interconectarea Europei al Uniunii Europene sub Grantul CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.