Administrativne informacije
Naslov | Skupna obrada |
Trajanje | 60 minuta |
Modul | B |
Vrsta lekcija | Predavanje |
Fokus | Tehničko – dubinsko učenje |
Tema | Skupna obrada |
Ključne riječi
Serija, mini serija, epoha,
Ciljevi učenja
- Razumjeti mehanizme koji stoje iza serijske obrade i ponovnog širenja
- Gradijent Descent, Batch vs minibatch vs Epoch
Očekivana priprema
Edukativni događaji koji će biti završeni prije
Obvezno za studente
Nijedan.
Neobvezno za studente
Nijedan.
Preporuke i pozadina za studente
Preporučeno nastavnicima
Nijedan.
Nastavni materijali
Upute za učitelje
Pogledajte materijale za predavanja za informacije i primjer pitanja klase.
Nacrt
Trajanje (min) | Opis |
---|---|
10 | Ilustracija Gradient Descent |
10 | Rekapitulacija gubitka funkcije |
10 | Ideja i razlozi za Batching |
5 | Sirovi Gradient Descent |
5 | Stohastički Gradient Descent |
5 | Mini-Batch Gradient Descent |
10 | Algoritam za jednu epohu |
5 | Završetak i pitanja |
Priznanja
Monica Zuccarini, Maddalena Molaro & Carlo Sansone
Diplomski studij umjetne inteligencije usmjeren na čovjeka sufinanciran je Instrumentom za povezivanje Europe Europske unije u okviru bespovratnih sredstava CEF-TC-2020 – 1 Digital Skills 2020-EU-IA-0068.