[esta página en wiki][índice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Conferencia: Redes neuronales recurrentes

Información administrativa

Título Redes neuronales recurrentes
Duración 60 minutos
Módulo B
Tipo de lección Conferencia
Enfoque Técnico — Aprendizaje profundo
Tema Múltiples (redes neuronales recurrentes (RNN), retropropagación a través del tiempo (BPTT), memoria a largo plazo (LSTM))

Keywords

Redes neuronales recurrentes (RNN), tiempo de trough de retropropagación (BPTT), memoria a corto plazo a largo plazo (LSTM),

Objetivos de aprendizaje

Preparación prevista

Eventos de aprendizaje que se completarán antes

Obligatorio para los estudiantes

Opcional para estudiantes

Ninguno.

Referencias y antecedentes para estudiantes

Ninguno.

Recomendado para profesores

Ninguno.

Material didáctico

Instrucciones para profesores

Al principio se recomienda una visión general de los datos secuenciales. Aquí, puede discutir los principales desafíos de modelar datos secuenciales (incluyendo campo receptivo, multidimensionalidad y naturaleza multiescala).

Más tarde introducimos las RNN primero, con los principios básicos y demostramos que el entrenamiento de RNNs después de desplegarse es muy simlar para entrenar MLPs, pero las matrices de peso de entrada, recurrente y de salida se comparten.

Presentamos BPTT (Backpropagation through time) y la versión truncada.

A continuación, discutimos cómo el problema de gradiente de desaparición hace que las RNN sean poco prácticas.

Con el fin de resolver el gradiente de desaparición, presentamos la arquitectura LSTM, que tiene una parte de memoria interna (también referida como celda de memoria), que no tiene ninguna activatoína, por lo que el gradiente de desaparición no ocurre aquí. Por favor, deje muy claro que el mecanismo de fijación está realmente controlado por los datos.

En la parte final de la conferencia, mostramos que las capas LSTM (y RNN, de hecho) se pueden apilar entre sí con una o dos direcciones. (redes unidireccionales y bidireccionales)

Esquema

Horario
Duración (Min) Descripción
10 Introducción secuencial de datos
15 Redes neuronales recurrentes y retropropagación a través del tiempo
5 Gradientes en desvanecimiento en RNNs
20 LSTMs
5 Apilamiento de capas RNN/LSTM
5 Conclusiones

Reconocimientos

Balint Gyires-Tóth (Universidad de Tecnología y Economía de Budapest)

El programa de maestría en IA centrada en el ser humano fue cofinanciado por el Mecanismo «Conectar Europa» de la Unión Europea en virtud de la subvención «CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068».