Adminisztratív információk
Cím | Előre történő szaporítás |
Időtartam | 60 |
Modul | B |
Lecke típusa | Bemutató |
Fókusz | Technikai – Mély tanulás |
Téma | Előrehaladott bérlet |
Kulcsszó
Előre passz,Loss,
Tanulási célok
- Ismerje meg az előremenet folyamatát
- Értsd meg, hogyan lehet kiszámítani az előremeneti előrejelzést, valamint a veszteséget kihúzva
- A Pythonban lévő modulok nélkül (kivéve a Numpy-t) dolgozzon ki egy forward pass-ot.
- Dolgozzon ki egy előre bérletet a Keras segítségével
Várható előkészítés
Az előtt befejezendő tanulási események
Kötelező a diákok számára
Egy sem.
Választható diákok számára
- Mátrixok szorzata
- Kezdés a Numpy- val
- Lineáris és logisztikai regresszió ismerete ([előadás: Lineáris regresszió]
Referenciák és háttér a diákok számára
- John D Kelleher és Brain McNamee. (2018), A gépi tanulás alapjai a prediktív adatelemzéshez, MIT Press.
- Michael Nielsen vagyok. (2015), Neural Networks and Deep Learning, 1. Eltökélt sajtó, San Francisco CA USA.
- Charu C. Aggarwal vagyok. (2018), Neural Networks and Deep Learning, 1. Springer
- Antonio Gulli, Sujit Pal. Mély tanulás Keras, Packt, [ISBN: 9781787128422].
Ajánlott tanároknak
Egy sem.
Leckeanyagok
- [1. probléma (Kép)]
- [2. probléma és 3. probléma (HTML)]
- 2. és 3. probléma (.ipynb)
Utasítások tanároknak
- Ez a bemutató bemutatja a hallgatókat a mesterséges neurális hálózat előreterjedésének alapjaira. Ez a bemutató áll egy előre pass segítségével toll és papír, Python használata csak a Numpy könyvtár (mátrix manipuláció), majd használja a KERAS. Ez arra az alapvető megértésre épül, hogy milyen aktiválási függvények vonatkoznak az adott problémakörnyezetre, és hogy az aktiválási funkciók hogyan különböznek a számítási összetettségben és az alkalmazásban a tolltól és a papírtól a kódig a Numpy használatával, majd egy magas szintű modul használatával -> Keras.
- A diákok három problémával szembesülnek:
- Probléma: (Példa az előadásból -> Kép a WIKI RHS-jéről) és kérte, hogy az alábbi paraméterekkel (20 perc kitöltésig) végezzen előre passzt:
- Szigmoid aktiváló funkció a rejtett réteghez
- Szigmoid aktiváló funkció a külső réteg számára
- MSE veszteség funkció
- Probléma: (Példa 1 az előadásból), a hallgatókat felkérik (az előzetes kódolási tapasztalattól függő útmutatással), hogy csak a Numpy modul segítségével fejlesszenek ki egy neurális hálózatot, és az 1. probléma súlyait és aktiválási funkcióit (amelyek megegyeznek az 1. példával az előadásból (20 perc a befejezésig).
- Probléma: (Példa az előadásból, és ugyanazzal a példával, de véletlenszerű súlyokkal), a hallgatókat felkérik (az előzetes kódolási tapasztalattól függő útmutatással), hogy fejlesszenek ki egy neurális hálózatot a Tensorflow 2.X modul használatával az inbuild Keras modullal, valamint az 1. probléma súlyait és aktiválási funkcióit, majd véletlenszerű súlyokat (amelyek megegyeznek az előadás 1. példájával: 20 perc a befejezésig).
- Probléma: (Példa az előadásból -> Kép a WIKI RHS-jéről) és kérte, hogy az alábbi paraméterekkel (20 perc kitöltésig) végezzen előre passzt:
- Ennek a három problémának az alcéljai az, hogy a hallgatók hozzászokjanak az alapvető fogalmak (aktivációs funkciók, topológia és veszteségfüggvények) felépítéséhez és alkalmazásához a mély tanuláshoz.
- A Keras és a TensorFlow 2.X minden jövőbeli példához használható.
Vázlat
Időtartam (min) | Leírás |
---|---|
20 | Probléma: Toll és papír egy előrehaladott bérlet végrehajtása (példa az előadásból) |
20 | Probléma: Neurális hálózat fejlesztése a semmiből Numpy segítségével (példa az előadásból) |
10 | Probléma: Neurális hálózat fejlesztése Keras használatával (példa az előadásból, meghatározott súlyokkal és véletlenszerű súlyokkal) |
10 | Összefoglaló az előrehaladási folyamatról |
Visszaigazolások
A Human-Centered AI Masters programot az Európai Unió Európai Hálózatfinanszírozási Eszköze (CEF-TC-2020–1 Digitális készségek 2020 EU-IA-0068) társfinanszírozta.