[ta strona na wiki][index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Poradnik: Podstawy głębokiego uczenia się

Informacje administracyjne

Tytuł Poradnik: Podstawa głębokiego uczenia się
Czas trwania 180 min (60 min na samouczek)
Moduł B
Rodzaj lekcji Tutorial
Skupienie Techniczne – głębokie uczenie się
Temat Do przodu i Backpropagation

Słowa kluczowe

propagacja do przodu, propagacja pleców, strojenie hiperparametrów,

Cele w zakresie uczenia się

Oczekiwane przygotowanie

Wydarzenia edukacyjne, które należy ukończyć przed

Obowiązkowe dla studentów

  • John D Kelleher i Mózg McNamee. (2018), Podstawy uczenia maszynowego dla Predictive Data Analytics, MIT Press.
  • Michael Nielsen. (2015), Sieć neuronowa i głębokie uczenie się, 1. Prasa determinacyjna, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Sieci neuronowe i głębokie uczenie się, 1. Springer
  • Antonio Gulli, Sujit Pal. Głębokie uczenie się z Keras, Packt, [ISBN: 9781787128422].

Opcjonalne dla studentów

  • Mnożenie matryc
  • Zacznij od Numpy
  • Znajomość regresji liniowej i logistycznej

Referencje i tło dla studentów

Brak.

Zalecane dla nauczycieli

Brak.

Materiały do lekcji

Brak.

Instrukcje dla nauczycieli

To wydarzenie edukacyjne składa się z trzech zestawów samouczków obejmujących podstawowe tematy głębokiego uczenia się. Ta seria samouczków polega na przedstawieniu przeglądu przepustki do przodu, wyprowadzaniu wstecznej propagacji i wykorzystaniu kodu, aby zapewnić uczniom przegląd tego, co robi każdy parametr i jak może to wpłynąć na uczenie się i konwergencję sieci neuronowej:

  1. Propagacja do przodu: Przykłady pióra i papieru oraz przykłady pytonowe przy użyciu Numpy (dla podstaw) i Keras pokazujące moduł wysokiego poziomu (który używa Tensorflow 2.X).
  2. Wyprowadzenie i zastosowanie backpropagacji: Przykłady pióra i papieru oraz przykłady pytonowe przy użyciu Numpy (dla podstaw) i Keras pokazujące moduł wysokiego poziomu (który używa Tensorflow 2.X).
  3. Strojenie hiperparametrów: Przykłady Keras podkreślające przykładowe wykresy diagnostyczne oparte na efektach zmiany określonych hiperparametrów (przy użyciu przykładowego zestawu danych HCAIM do nauczania etycznej sztucznej inteligencji (zestawdanych spisowych).

Notatki do dostawy (zgodnie z wykładami)

Poradnik 1 – Propagacja do przodu

Instrukcje dla nauczycieli

Sieć neuronowa.png

Czas: 60 minut

Zarys/harmonogram czasu
Czas trwania (min) Opis
20 Problem 1: Długopis i papier implementacja przepustki do przodu (przykład z wykładu)
20 Problem 2: Rozwój sieci neuronowej od podstaw za pomocą Numpy (przykład z wykładu)
10 Problem 3: Rozwój sieci neuronowej z wykorzystaniem Keras (przykład z wykładu z ustalonymi wagami i losowymi wagami)
10 Podsumowanie procesu przejścia do przodu

Tutorial 2 – Pochodzenie i zastosowanie backpropagation

Instrukcje dla nauczycieli

Czas: 60 minut

Zarys/harmonogram czasu
Czas trwania (min) Opis
20 (opcjonalnie) Problem 1: wyprowadzenie formuły propagacji wstecznej przy użyciu funkcji Sigmoid dla funkcji aktywacji wewnętrznej i zewnętrznej oraz MSE jako funkcji straty (opcjonalnie)
20 Problem 2: Studenci będą stosować trzy funkcje aktywacji dla pojedynczej aktualizacji wagi (backpropagation SGD), używając pióra i papieru przez 20 minut:
20 Problem 3: Studenci będą rozwijać sieć neuronową od podstaw przy użyciu tylko modułu Numpy, w którym użytkownik może wybrać jedną z trzech funkcji aktywacji ukrytych warstw, w których kod może preformować wsteczną propagację
10 Problem 4: Studenci będą korzystać z modułu Tensorflow 2.X z modułem inbuild Keras, preform backpropagation przy użyciu SGD.
10 Podsumowanie procesu przejścia do przodu

Tutorial 3 – Dostrajanie hiperparametrów

Instrukcje dla nauczycieli

Czas: 60 minut

Zarys/harmonogram czasu
Czas trwania (min) Opis
5 Wstępne przetwarzanie danych
10 Strojenie pojemności i głębokości (pod i nad montażem)
10 Epoki (pod i nad treningiem)
10 Wielkość partii (do tłumienia hałasu)
10 Funkcje aktywacji (i ich wpływ na wydajność – czas i dokładność)
10 Wskaźniki uczenia się (vanilla, LR Decay, Momentum, Adaptive)
5 Podsumowanie niektórych podstawowych hiperparametrów (ReLu, Adam) i strojenie innych (pojemność i głębokość).

Potwierdzenia

Keith Quille (TU Dublin, Tallaght Campus) http://keithquille.com

Program Masters zorientowany na człowieka został współfinansowany przez instrument „Łącząc Europę” Unii Europejskiej w ramach grantu CEF-TC-2020-1 Umiejętności cyfrowe 2020-EU-IA-0068.