Administrativne informacije
Naslov | Propagiranje prema naprijed |
Trajanje | 60 |
Modul | B |
Vrsta lekcija | Predavanje |
Fokus | Tehničko – dubinsko učenje |
Tema | Propusnica prema naprijed |
Ključne riječi
Naprijed prolaz, gubitak,
Ciljevi učenja
- Razumjeti proces naprijed propusnice
- Razumjeti kako izračunati predviđanje unaprijed prolaza, kao i gubitak isključen
- Razviti napredni prolaz bez modula u Pythonu (osim Numpyja)
- Razviti naprijed prolaz pomoću Keras
Očekivana priprema
Edukativni događaji koji će biti završeni prije
Nijedan.
Obvezno za studente
Nijedan.
Neobvezno za studente
- Množenje matrica
- Započnite s Numpyjem
- Poznavanje linearne i logističke regresije (iz razdoblja A strojnog učenja: Predavanje: Linearna regresija, GLR-ovi, GAD-ovi)
Preporuke i pozadina za studente
- John D Kelleher i Brain McNamee. (2018.), Fundamentals of Machine Learning for Predictive Data Analytics (Osnove strojnog učenja za prediktivnu analizu podataka), MIT Press.
- Michael Nielsen. (2015.), Neuralne mreže i duboko učenje, 1. Resorni tisak, San Francisco CA SAD.
- Charu C. Aggarwal. (2018.), Neuralne mreže i duboko učenje, 1. Springer
- Antonio Gulli, Sujit Pal. Dubinsko učenje s Kerasom, Packtom, [ISBN: 9781787128422].
Preporučeno nastavnicima
Nijedan.
Nastavni materijali
Upute za učitelje
Ovo predavanje će upoznati studente s osnovama propagacije prema naprijed za umjetnu neuronsku mrežu. Time će se učenici upoznati s topologijom (težine, sinapse, aktivacijske funkcije i funkcije gubitka). Studenti će tada moći napraviti naprijed prolaz pomoću olovke i papira, koristeći Python samo s Numpy bibliotekom (za manipulaciju matricama), a zatim pomoću KERAS-a kao dijela vodiča povezanog s ovim LE-om. Time će se izgraditi temeljno razumijevanje o tome koje se funkcije aktivacije primjenjuju na specifične problematične kontekste i kako se funkcije aktivacije razlikuju u računskoj složenosti. U predavanju će se ispitati aktivacijska funkcija vanjskog sloja i odgovarajuće funkcije gubitka za slučajeve uporabe kao što su binomska klasifikacija, regresija i višeklasna klasifikacija.
- Pregled neuronske mreže
- Definicija pojmova/sastavnih dijelova
- Utezi i aktivacijske funkcije
- Funkcije gubitka, za koje je problem kontekst
- Korištenje matrica za provođenje naprijed prolaza
Napomena:
- Primjena Sigmoida u vanjskom sloju i MSE-a kao funkcije gubitka.
- S ograničenjima kosine odabran je jedinstveni pristup/topologija/problem kontekst. Tipično, počet će s regresijom za naprijed prolaz (s MSE kao funkcijom gubitka), a za izvođenje backpropagation (stoga ima linearnu funkciju aktivacije u izlaznom sloju, gdje to smanjuje složenost izvedenosti funkcije backpropagacije), Tada bi se obično prebacio na binarnu klasifikacijsku funkciju, sa sigmoidom u izlaznom sloju, i binarnom funkcijom gubitka križne entropije. S vremenskim ograničenjima ovaj skup predavanja koristit će tri različite primjere skrivenih aktivacijskih funkcija, ali će koristiti kontekst problema regresije. Da bi se u izlaznom sloju dodala složenost funkcije aktivacije sigmoida, regresijski problem korišten u dva prva predavanja ovog skupa, primjer problematike temelji se na normaliziranoj ciljnoj vrijednosti (0 – 1 na temelju postotnog razreda problema 0 – 100 %), čime se sigmoid koristi kao aktivacijska funkcija u izlaznom sloju. Ovaj pristup omogućuje studentima da lako migriraju između regresije i binarnih klasifikacijskih problema, jednostavno mijenjajući funkciju gubitka samo ako je binarni klasifikacijski problem ili ako se koristi nenormalizirani regresijski problem, student jednostavno uklanja funkciju aktivacije vanjskog sloja.
- Osnovne komponente su primjena, koristeći biblioteku visoke razine, u ovom slučaju KERAS putem TensorFlow 2.X biblioteke.
- Olovka i papir su neobavezni i koriste se samo za prikazivanje naprijed i backpropagation derivacije i primjene (koristeći primjere iz slajdova predavanja).
- Python kod bez korištenja biblioteka visoke razine koristi se kako bi se pokazalo koliko je jednostavna neuronska mreža (koristeći primjere iz slajdova predavanja). Time se omogućuje i rasprava o brzom umnožavanju brojčanika/matricesa te se navodi zašto upotrebljavamo GPU-ove/TPU-ove kao neobavezni element.
- Keras i TensorFlow 2.X koriste se i koristit će se za sve buduće primjere.
Nacrt
Trajanje (min) | Opis |
---|---|
10 | Definicija sastavnih dijelova neuronske mreže |
15 | Funkcije utega i aktivacije (Sigmoid, TanH i ReLu) |
15 | Funkcije gubitka (regresija, binomna klasifikacija i aktivacija više razreda) |
15 | Korištenje matrica za prolaz naprijed |
5 | Recap na naprijed propusnicu |
Priznanja
Diplomski studij umjetne inteligencije usmjeren na čovjeka sufinanciran je Instrumentom za povezivanje Europe Europske unije u okviru bespovratnih sredstava CEF-TC-2020 – 1 Digital Skills 2020-EU-IA-0068.