[den här sidan på wiki][index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Föreläsning: Återkommande neurala nätverk

Administrativ information

Titel Återkommande neurala nätverk
Varaktighet 60 minuter
Modul B
Typ av lektion Föreläsning
Fokus Tekniskt – Djupt lärande
Ämne Multipel (Recurrent Neural Networks (RNN), Backpropagation Through Time (BPTT), Long Short-Term Memory (LSTM))

Nyckelord

Återkommande neurala nätverk (RNN), Backpropagation Trough Time (BPTT), Long Short-Term Memory (LSTM),

Lärandemål

Förväntad förberedelse

Lärande händelser som ska slutföras innan

Obligatoriskt för studenter

Valfritt för studenter

Ingen.

Referenser och bakgrund för studenter

Ingen.

Rekommenderas för lärare

Ingen.

Lektionsmaterial

Instruktioner för lärare

I början rekommenderas en allmän översikt över sekventiella data. Här kan du diskutera de viktigaste utmaningarna för modellering sekventiella data (inklusive mottagliga fält, multidimensionellitet och multiskala natur).

Senare introducerar vi RNNs först, med de grundläggande principerna och visar att träning av RNN efter utveckling är mycket förenklad att träna MLP, men input, återkommande och utmatningsvikt matriser delas.

Vi introducerar BPTT (Backpropagation genom tiden) och den trunkerade versionen.

Därefter diskuterar vi hur det försvinnande gradientproblemet gör RNNs opraktiska.

För att lösa den försvinnande gradienten introducerar vi LSTM-arkitekturen, som har en inre minnesdel (även kallad minnescell), som inte har någon aktivatoin – så försvinnande gradient förekommer inte här. Vänligen gör det verkligen klart, att gating mekanismen verkligen kontrolleras av data.

Vid den sista delen av föreläsningen visar vi att LSTM (och RNN, faktiskt) lager kan staplas på varandra med en eller två riktningar. (envägsnät och dubbelriktade nät)

Konturer

Tidsplan
Varaktighet (min) Beskrivning
10 Inledning av sekventiella uppgifter
15 Återkommande neurala nätverk och Backpropagation genom tiderna
5 Försvinnande gradienter i RNN
20 LSTM
5 Stapling av RNN/LSTM lager
5 Slutsatser

Erkännanden

Balint Gyires-Tóth (Budapest University of Technology and Economics)

Masterprogrammet Human-Centered AI har samfinansierats av Fonden för ett sammanlänkat Europa i Europeiska unionen inom ramen för Grant CEF-TC-2020–1 Digital Skills 2020 EU-IA-0068.