[cette page sur wiki][index][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Conférence: Réseaux de transformateurs

Informations administratives

Titre Réseaux de transformateurs
Durée 60 minutes
Module B
Type de leçon Conférence
Focus Technique — Deep Learning
Sujet Transformateur

Mots-clés

apprentissage séquence-séquence, seq2seq, mécanisme d’attention, mécanisme d’autoattention, réseau de transformateurs,

Objectifs d’apprentissage

Préparation prévue

Événements d’apprentissage à compléter avant

Optionnel pour les étudiants

Aucun.

Références et antécédents pour les étudiants

Aucun.

Recommandé pour les enseignants

Aucun.

Matériel de leçon

Instructions pour les enseignants

Dans la conférence d’abord, nous répétons brièvement ce que nous avons appris sur les données séquentielles précédemment (par exemple dans la conférence RNN). Ensuite, nous discutons, que nous allons apprendre sur trois concepts principaux aujourd’hui: modèles séquence-séquence, mécanisme d’attention et transformateur. Les deux premiers sont nécessaires pour comprendre le concept du transformateur. Vous pouvez préparer les papiers originaux et les montrer aux participants.

Seq2seq: nous venons de discuter brièvement des principaux concepts. La différence entre le forçage de l’enseignant (formation) et l’instance par instance (inférieure) doit être soulignée.

Les codes sources doivent être discutés en détail, ligne par ligne, de sorte que le concept peut être compris par les élèves dans un niveau de code.

Dans la seconde moitié de la conférence, l’architecture du transformateur est introduite. Les éléments de base sont discutés séparément.

S’il vous reste du temps à la fin de la conférence, vous pouvez ouvrir le tutoriel TensorFlow sur transformateur (lien sur cette page et dans les diapositives aussi).

Esquisse

Calendrier
Durée (min) Description
5 Introduction des données séquentielles
7.5 Modèles séquence-séquence
7.5 Mécanisme d’attention
15 Codes sources
20 Transformateur
5 Résumé et conclusions

Remerciements

Balint Gyires-Tóth (Université de technologie et d’économie de Budapest)

Le programme de master IA centré sur l’humain a été cofinancé par le mécanisme pour l’interconnexion en Europe de l’Union européenne dans le cadre de la subvention CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068.