[deze pagina op wiki][index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Lezing: Voorwaartse vermeerdering

Administratieve informatie

Titel Voorwaartse vermeerdering
Looptijd 60
Module B
Type les Lezing
Focus Technisch — diep leren
Onderwerp Voorwaartse pas

Sleutelwoorden

Voorwaartse pas, verlies,

Leerdoelen

Verwachte voorbereiding

Leren van gebeurtenissen die moeten worden voltooid voordat

Geen.

Verplicht voor studenten

Geen.

Optioneel voor studenten

  • Vermenigvuldiging van matrices
  • Aan de slag met Numpy
  • Kennis van lineaire en logistieke regressie (uit periode A Machine Learning): Lezing: Lineaire regressie, GLR’s, GAD’s)

Referenties en achtergronden voor studenten

  • John D Kelleher en Brain McNamee. (2018), Fundamentals of Machine Learning voor Predictive Data Analytics, MIT Press.
  • Michael Nielsen. (2015), Neural Networks en Deep Learning, 1. Determinatiepers, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Neural Networks en Deep Learning, 1. Springer
  • Antonio Gulli, Sujit Pal. Diep leren met Keras, Packt, [ISBN: 9781787128422].

Aanbevolen voor docenten

Geen.

Lesmateriaal

Instructies voor docenten

Deze lezing zal studenten kennis laten maken met de fundamenten van voorwaartse verspreiding voor een kunstmatig neuraal netwerk. Dit zal studenten kennis laten maken met de topologie (gewichten, synapsen, activeringsfuncties en verliesfuncties). Studenten kunnen dan een voorwaartse pas doen met behulp van pen en papier, met Python met alleen de Numpy-bibliotheek (voor matricesmanipulatie) en vervolgens KERAS gebruiken als onderdeel van de tutorial die aan deze LE is gekoppeld. Dit zal een fundamenteel begrip opbouwen van welke activeringsfuncties van toepassing zijn op specifieke probleemcontexten en hoe de activeringsfuncties verschillen in computationele complexiteit. In de lezing worden de buitenste laagactiveringsfunctie en de bijbehorende verliesfuncties onderzocht voor gebruiksgevallen zoals binomiale classificatie, regressie en classificatie met meerdere klassen.

Opmerking:

Omtrek

Neurale netwerk gebruikt in deze introductie lezing serie
Tijdschema
Duur (Min) Omschrijving
10 Definitie van neurale netwerkcomponenten
15 Gewichten en Activeringsfuncties (Sigmoid, TanH en ReLu)
15 Verliesfuncties (regressie, binomiale classificatie en activering van meerdere klassen)
15 Matrices gebruiken voor een voorwaartse pas
5 Samenvatting op de voorwaartse pas

Erkenningen

Het Human-Centered AI Masters-programma werd mede gefinancierd door de Connecting Europe Facility van de Europese Unie in het kader van de subsidie CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.