[ta strona na wiki][index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Wykład: Propagacja do przodu

Informacje administracyjne

Tytuł Propagacja do przodu
Czas trwania 60
Moduł B
Rodzaj lekcji Wykład
Skupienie Techniczne – głębokie uczenie się
Temat Przepustka do przodu

Słowa kluczowe

Przepustka do przodu, strata,

Cele w zakresie uczenia się

Oczekiwane przygotowanie

Wydarzenia edukacyjne, które należy ukończyć przed

Brak.

Obowiązkowe dla studentów

Brak.

Opcjonalne dla studentów

  • Mnożenie matryc
  • Zacznij od Numpy
  • Znajomość regresji liniowej i logistycznej (od period A Machine Learning: Wykład: Regresja liniowa, GLR, GAD)

Referencje i tło dla studentów

  • John D Kelleher i Mózg McNamee. (2018), Podstawy uczenia maszynowego dla Predictive Data Analytics, MIT Press.
  • Michael Nielsen. (2015), Sieć neuronowa i głębokie uczenie się, 1. Prasa determinacyjna, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Sieci neuronowe i głębokie uczenie się, 1. Springer
  • Antonio Gulli, Sujit Pal. Głębokie uczenie się z Keras, Packt, [ISBN: 9781787128422].

Zalecane dla nauczycieli

Brak.

Materiały do lekcji

Instrukcje dla nauczycieli

Wykład ten wprowadzi studentów do podstaw propagacji do przodu dla sztucznej sieci neuronowej. Wprowadzi to uczniów do topologii (wagi, synapsy, funkcje aktywacyjne i funkcje utraty). Studenci będą mogli wykonać przepustkę do przodu za pomocą pióra i papieru, używając Pythona tylko z biblioteką Numpy (do manipulacji matrycami), a następnie używając KERAS jako części tutorialu związanego z tym LE. Pozwoli to na fundamentalne zrozumienie tego, jakie funkcje aktywacyjne mają zastosowanie do konkretnych kontekstów problemowych i w jaki sposób funkcje aktywacji różnią się złożonością obliczeniową. W wykładzie zostanie zbadana funkcja aktywacji warstwy zewnętrznej i odpowiadające jej funkcje utraty pod kątem przypadków użycia, takich jak klasyfikacja dwumianowa, regresja i klasyfikacja wieloklasowa.

Uwaga:

Zarys

Sieć neuronowa używana w tych wstępnych seriach wykładów
Harmonogram
Czas trwania (min) Opis
10 Definicja Neural Network Components
15 Wagi i funkcje aktywacji (Sigmoid, TanH i ReLu)
15 Funkcje utraty (regresja, klasyfikacja dwumianowa i aktywacja wielu klas)
15 Używanie matryc do przepustki do przodu
5 Podsumowanie przepustki do przodu

Potwierdzenia

Program Masters zorientowany na człowieka został współfinansowany przez instrument „Łącząc Europę” Unii Europejskiej w ramach grantu CEF-TC-2020-1 Umiejętności cyfrowe 2020-EU-IA-0068.