Informazzjoni Amministrattiva
Titlu | Propagazzjoni ‘l quddiem |
Tul ta’ żmien | 60 |
Modulu | B |
Tip ta’ lezzjoni | Lekċer |
Fokus | Tekniku — Tagħlim Profond |
Suġġett | Pass’il quddiem |
Kliem prinċipali
Pass’il quddiem, Telf,
Għanijiet ta’ Tagħlim
- Jifhmu l-proċess ta ‘pass’il quddiem
- Jifhmu kif tikkalkula tbassir pass quddiem, kif ukoll telf unplugged
- Żvilupp ta’ pass’il quddiem bl-użu ta’ ebda moduli f’Python (għajr Numpy)
- Żviluppa pass’il quddiem bl-użu ta’ Keras
Preparazzjoni mistennija
Avvenimenti ta’ Tagħlim li għandhom jiġu Mlestija Qabel
Xejn.
Obbligatorju għall-Istudenti
Xejn.
Fakultattiv għall-Istudenti
- Multiplikazzjoni tal-matriċijiet
- Kif tibda bil Numpy
- Għarfien ta’ rigressjoni lineari u loġistika (minn Perjodu A Tagħlim Magni: Lekċer: Rigressjoni lineari, GLRs, GADs)
Referenzi u sfond għall-istudenti
- John D Kelleher u Brain McNamee. (2018), Fundamentals of Machine Learning for Predictive Data Analytics, MIT Press.
- Michael Nielsen. (2015), Netwerks Neurali u Tagħlim Deep, 1. Stampa ta’ determinazzjoni, San Francisco CA USA.
- Charu C. Aggarwal. (2018), Networks Neural u Tagħlim Profond, 1. Springer
- Antonio Gulli, Sujit Pal. Tagħlim fil-fond ma’ Keras, Packt, [ISBN: 9781787128422].
Rakkomandat għall-Għalliema
Xejn.
Materjali tal-lezzjoni
Struzzjonijiet għall-Għalliema
Din il-lekċer se tintroduċi lill-istudenti fl-elementi fundamentali tal-propagazzjoni ‘l quddiem għal netwerk newrali artifiċjali. Dan se jintroduċi lill-istudenti fit-topoloġija (piżijiet, synapses, funzjonijiet ta’ attivazzjoni u funzjonijiet ta’ telf). l-istudenti mbagħad ikunu jistgħu jagħmlu pass’il quddiem billi jużaw il-pinna u l-karta, bl-użu ta’ Python bil-librerija Numpy biss (għall-manipulazzjoni tal-matriċi) u mbagħad jużaw il-KERAS bħala parti mit-tutorja assoċjata ma’ din l-LE. Dan se jibni fehim fundamentali ta ‘liema funzjonijiet ta’ attivazzjoni japplikaw għal kuntesti problematiċi speċifiċi u kif il-funzjonijiet ta ‘attivazzjoni jvarjaw fil-kumplessità komputazzjonali. Fil-lekċer il-funzjoni ta’ attivazzjoni tas-saff ta’ barra u l-funzjonijiet ta’ telf korrispondenti se jiġu eżaminati għal każijiet ta’ użu bħall-klassifikazzjoni binomjali, ir-rigressjoni u l-klassifikazzjoni ta’ diversi klassijiet.
- Ħarsa ġenerali lejn netwerk newrali
- Definizzjoni ta’ termini/komponenti
- Piżijiet u funzjonijiet ta’ attivazzjoni
- Funzjonijiet tat-telf, li wieħed għalihom il-kuntest tal-problema
- Bl-użu matriċi biex twettaq pass quddiem
Nota:
- l-użu ta’ Sigmoid fis-saff ta’ barra u l-MSE bħala l-funzjoni tat-telf.
- B’limitazzjonijiet tat-tin, intgħażel approċċ/topoloġija/kuntest ta’ problema singulari. Tipikament, wieħed jibda b’rigressjoni għal pass’il quddiem (bl-MSE bħala l-funzjoni tat-telf), u għad-derivazzjoni tal-backpropagation (u b’hekk ikollu funzjoni ta’ attivazzjoni lineari fis-saff tal-output, fejn dan inaqqas il-kumplessità tad-derivazzjoni tal-funzjoni ta’ backpropagation), Imbagħad wieħed tipikament jimxi għal funzjoni ta’ klassifikazzjoni binarja, b’sigmoid fis-saff tal-output, u funzjoni ta’ telf inkroċjat binarju. Bil-limitazzjonijiet ta ‘żmien dan is-sett ta’ lekċers se tuża tliet funzjonijiet ta ‘attivazzjoni moħbija ta’ eżempju differenti, iżda se tuża kuntest problema ta ‘rigressjoni. Biex tiżdied il-kumplessità ta ‘funzjoni ta’ attivazzjoni sigmoid fis-saff tal-output, il-problema ta ‘rigressjoni użata fl-ewwel żewġ lekċers ta’ dan is-sett, l-eżempju tal-problema huwa bbażat fuq valur fil-mira normalizzat (0–1 ibbażat fuq problema ta ‘grad perċentwali 0–100 %), b’hekk sigmoid jintuża bħala funzjoni ta’ attivazzjoni fis-saff tal-output. Dan l-approċċ jippermetti lill-istudenti li faċilment jemigraw bejn rigressjoni u problemi ta ‘klassifikazzjoni binarja, billi sempliċiment tbiddel il-funzjoni tat-telf jekk problema ta’ klassifikazzjoni binarja, jew jekk qed tintuża problema ta ‘rigressjoni mhux normalizzata, l-istudent sempliċiment ineħħi l-funzjoni ta’ attivazzjoni tas-saff ta ‘barra.
- Il-komponenti ewlenin huma l-applikazzjoni ta’, bl-użu ta’ librerija ta’ livell għoli, f’dan il-każ KERAS permezz tal-librerija TensorFlow 2.X.
- Il-pinna u l-karta huma fakultattivi u jintużaw biss biex juru d-derivazzjoni u l-applikazzjoni tal-pass’il quddiem u tal-propagazzjoni (bl-użu tal-eżempji mis-slajds tal-lekċers).
- Il-kodiċi Python mingħajr l-użu ta’ libreriji ta’ livell għoli, jintuża biex juri kemm sempliċi xibka newrali (bl-użu tal-eżempji mis-slajds tal-lekċers). Dan jippermetti wkoll għal diskussjoni dwar fast numeriku/matrices multiplikazzjoni u jintroduċu għaliex nużaw GPUs/TPUs bħala element fakultattiv.
- Keras u TensorFlow 2.X jintużaw u se jintużaw għall-eżempji futuri kollha.
Deskrizzjoni fil-qosor
Tul ta’ żmien (Min) | Deskrizzjoni |
---|---|
10 | Definizzjoni ta’ Komponenti tan-Netwerk Newtrali |
15 | Piżijiet u funzjonijiet ta’ Attivazzjoni (Sigmoid, TanH u ReLu) |
15 | Funzjonijiet ta ‘telf (Regressjoni, klassifikazzjoni binomjali, u attivazzjoni ta’ diversi klassijiet) |
15 | l-użu ta’ matriċijiet għal pass’il quddiem |
5 | Erġa’ għatti l-għatu fuq il-pass’il quddiem |
Rikonoxximenti
Il-programm Masters tal-IA Ċentrata mill-Bniedem ġie kofinanzjat mill-Faċilità Nikkollegaw l-Ewropa tal-Unjoni Ewropea Taħt l-Għotja CEF-TC-2020–1 Ħiliet Diġitali 2020-EU-IA-0068.