[denne side på wiki][indeks][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Forelæsning: Generative modeller, transformere dyb læring og hybrid læringsmodeller

Administrative oplysninger

Titel Generative modeller, transformere dyb læring og hybrid læringsmodeller
Varighed 45-60
Modul C
Lektionstype Forelæsning
Fokus Teknisk — fremtidig kunstig intelligens
Emne Fremskridt i ML-modeller gennem en HC-linse — En resultatorienteret undersøgelse

Nøgleord

Generative modeller,Attention Detection,Query-Key-Value,Transform modeller,Hybrid Modeller,

Læringsmål

Forventet forberedelse

Obligatorisk for studerende

  • Introduktion til machine learning og deep learning koncepter givet i tidligere foredrag

Anbefalet til lærerne

Ingen.

Undervisningsmaterialer

Instruktioner til lærerne

I dette foredrag er vores primære mål tredobbelt. For det første sigter vi mod en omfattende forståelse af Generative Modeller med fokus på deres underliggende mekanismer og kernefunktioner. For det andet vil vi diskutere betydningen af Transformer Architectures, især i forbindelse med Natural Language Processing (NLP). Endelig vil forelæsningen uddybe den forskellige konfiguration af hybridmodeller, der understreger fusionen af ​​forskellige elementer for at forbedre maskinindlæring ydeevne.

Omrids

Varighed Beskrivelse Koncepter
15 min. Introduktion til Generative Modeller, Klassifikation af Generative Modeller Hvad er generative modeller?Hvorfor er de vigtige? Hvad kan de bruges til? Klassificering, Nøgleegenskaber, Eksempler
20 min. Introduktion til Transformer-arkitekturerne Transformerarkitektur, state-of-the-art transformere som BERT og GTP
10 min. Introduktion til hybrid læring Hvad er hybrid læring?Hvorfor er det vigtigt?Hvad kan de bruges til?
5 min. Konklusion, spørgsmål og svar Sammendrag

Anerkendelser

Programmet Human-Centered AI Masters blev samfinansieret af Connecting Europe-faciliteten i Den Europæiske Union under tilskud CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.