Informacje administracyjne
Tytuł | Sieci neuronowe |
Czas trwania | 60 |
Moduł | A |
Rodzaj lekcji | Wykład |
Skupienie | Praktyczne – modelowanie AI |
Temat | Modelowanie sztucznej inteligencji |
Słowa kluczowe
Sieć neuronowa, backpropagacja, optymalizacja,
Cele w zakresie uczenia się
- Uczniowie rozumieją architekta MLP
- Uczniowie mogą budować sieci neuronowe z w pełni podłączonymi warstwami i różnymi funkcjami aktywacji
- Uczniowie rozumieją podstawową ideę backpropagacji i metod opartych na gradientach
Oczekiwane przygotowanie
Wydarzenia edukacyjne, które należy ukończyć przed
Obowiązkowe dla studentów
- Przegląd algebry liniowej i rachunku wektorowego.
Opcjonalne dla studentów
Brak.
Referencje i tło dla studentów
Zalecane dla nauczycieli
- Zapoznaj się z materiałami demonstracyjnymi.
Materiały do lekcji
Instrukcje dla nauczycieli
Omówienie tematów w zarysu lekcji i zademonstrowanie pojęć za pomocą interaktywnych notebooków (kształt funkcji strat w.r.t. różnych regularizatorów, algorytmów optymalizacji opartych na gradientach). Podaj krótki przegląd kodu.
Zarys/harmonogram czasu
Czas trwania (min) | Opis | Koncepcje |
---|---|---|
5 | Od regresji logistycznej do perceptronu | wejście, waga, stronniczość, funkcja sigmoidalna |
10 | Wielowarstwowe mnożenie perceptronu i matrycy | warstwa wejściowa, warstwa ukryta, warstwa wyjściowa |
20 | Wyprowadzenie programu propagacji wstecznej | zejście gradientu, szybkość uczenia się, propagacja wsteczna |
10 | Funkcje aktywacji | ReLU, sigmoid, tanh, softmax itp. |
10 | Funkcje utraty w klasyfikacji i regresji | MSE, binarne i kategoryczne cross-entropia |
5 | Demonstracja |
Potwierdzenia
Program Masters zorientowany na człowieka został współfinansowany przez instrument „Łącząc Europę” Unii Europejskiej w ramach grantu CEF-TC-2020-1 Umiejętności cyfrowe 2020-EU-IA-0068.