[den här sidan på wiki][index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Föreläsning: Förökning framåt

Administrativ information

Titel Förökning framåt
Varaktighet 60
Modul B
Typ av lektion Föreläsning
Fokus Tekniskt – Djupt lärande
Ämne Framåtpass

Nyckelord

Framåtpass, förlust,

Lärandemål

Förväntad förberedelse

Lärande händelser som ska slutföras innan

Ingen.

Obligatoriskt för studenter

Ingen.

Valfritt för studenter

  • Multiplikation av matriser
  • Komma igång med Numpy
  • Kunskap om linjär och logistisk regression (från Period A Machine Learning: Föreläsning: Linjär regression, GLR, GAD)

Referenser och bakgrund för studenter

  • John D Kelleher och Brain McNamee. (2018), Grundläggande maskininlärning för prediktiv dataanalys, MIT Press.
  • Michael Nielsen. (2015), Neurala nätverk och djupt lärande, 1. Beslutande press, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Neurala nätverk och djupt lärande, 1. Springer
  • Antonio Gulli och Sujit Pal. Djupinlärning med Keras, Packt, [ISBN: 9781787128422].

Rekommenderas för lärare

Ingen.

Lektionsmaterial

Instruktioner för lärare

Denna föreläsning kommer att introducera eleverna till grunderna för framåtförökning för ett artificiellt neuralt nätverk. Detta kommer att introducera eleverna till topologin (vikter, synapser, aktiveringsfunktioner och förlustfunktioner). Eleverna kommer då att kunna göra ett framåtpass med penna och papper, använda Python med endast Numpy-biblioteket (för matrismanipulation) och sedan använda KERAS som en del av handledningen i samband med detta LE. Detta kommer att bygga grundläggande förståelse för vilka aktiveringsfunktioner som gäller för specifika problemsammanhang och hur aktiveringsfunktionerna skiljer sig åt i beräkningskomplexitet. I föreläsningen kommer den yttre skiktsaktiveringsfunktionen och motsvarande förlustfunktioner att undersökas för användningsfall som binomialklassificering, regression och flerklassklassificering.

Anmärkning:

Konturer

Neurala nätverk som används i dessa inledande föreläsningsserier
Tidsplan
Varaktighet (min) Beskrivning
10 Definition av neurala nätverkskomponenter
15 Vikter och aktiveringsfunktioner (Sigmoid, TanH och ReLu)
15 Förlustfunktioner (Regression, binomialklassificering och aktivering av flera klasser)
15 Använda matriser för ett framåtpass
5 Recap på framåtpasset

Erkännanden

Masterprogrammet Human-Centered AI har samfinansierats av Fonden för ett sammanlänkat Europa i Europeiska unionen inom ramen för Grant CEF-TC-2020–1 Digital Skills 2020 EU-IA-0068.