[esta página en wiki][índice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Tutorial: Fundamentos del aprendizaje profundo

Información administrativa

Título Tutorial: Fundamental del aprendizaje profundo
Duración 180 min (60 min por tutorial)
Módulo B
Tipo de lección Tutorial
Enfoque Técnico — Aprendizaje profundo
Tema Avance y retropropagación

Keywords

propagación hacia adelante, retropropagación, sintonización de hiperparámetros,

Objetivos de aprendizaje

Preparación prevista

Eventos de aprendizaje que se completarán antes

Obligatorio para los estudiantes

  • John D Kelleher y Brain McNamee. (2018), Fundamentos del aprendizaje automático para análisis de datos predictivos, MIT Press.
  • Michael Nielsen. (2015), Redes neuronales y aprendizaje profundo, 1. Prensa de determinación, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Redes neuronales y aprendizaje profundo, 1. Springer
  • Antonio Gulli, Sujit Pal. Aprendizaje profundo con Keras, Packt, [ISBN: 9781787128422].

Opcional para estudiantes

  • Multiplicación de matrices
  • Empezar con Numpy
  • Conocimiento de la regresión lineal y logística

Referencias y antecedentes para estudiantes

Ninguno.

Recomendado para profesores

Ninguno.

Material didáctico

Ninguno.

Instrucciones para profesores

Este Evento de Aprendizaje consta de tres conjuntos de tutoriales que cubren temas fundamentales de aprendizaje profundo. Esta serie de tutoriales consiste en proporcionar una visión general de un pase hacia adelante, la derivación de la retropropagación y el uso de código para proporcionar una visión general para los estudiantes sobre lo que hace cada parámetro y cómo puede afectar el aprendizaje y la convergencia de una red neuronal:

  1. Propagación a plazo: Ejemplos de lápiz y papel, y ejemplos de pitón usando Numpy (para fundamentos) y Keras mostrando un módulo de alto nivel (que utiliza Tensorflow 2.X).
  2. Derivación y aplicación de la retropropagación: Ejemplos de lápiz y papel, y ejemplos de pitón usando Numpy (para fundamentos) y Keras mostrando un módulo de alto nivel (que utiliza Tensorflow 2.X).
  3. Sintonización de hiperparámetros: Ejemplos de Keras que destacan gráficos de diagnóstico ejemplares basados en los efectos para cambiar hiperparámetros específicos (usando un conjunto de datos de ejemplo HCAIM conjuntos de datos para la enseñanza de IA ética (Census Dataset).

Notas para la entrega (según conferencias)

Tutorial 1 — Proliferación a futuro

Instrucciones del profesor

Red neuronal.png

Tiempo: 60 minutos

Esquema/horario de tiempo
Duración (Min) Descripción
20 Problema 1: Implementación del bolígrafo y el papel de un pase hacia adelante (ejemplo de la conferencia)
20 Problema 2: Desarrollar una red neuronal desde cero usando Numpy (ejemplo de la conferencia)
10 Problema 3: Desarrollar una red neuronal a partir del uso de Keras (ejemplo de la conferencia con pesos establecidos y pesos aleatorios)
10 Resumen del proceso de pase hacia adelante

Tutorial 2 — Derivación y aplicación de la retropropagación

Instrucciones del profesor

Tiempo: 60 minutos

Esquema/horario de tiempo
Duración (Min) Descripción
20 (opcional) Problema 1: derivación de la fórmula de retropropagación utilizando la función Sigmoid para las funciones de activación interna y externa y MSE como función de pérdida (Opcional)
20 Problema 2: Los estudiantes aplicarán tres funciones de activación para una sola actualización de peso (backpropagation SGD), utilizando lápiz y papel para (20 minutos):
20 Problema 3: Los estudiantes desarrollarán una red neuronal desde cero utilizando solo el módulo Numpy, donde el usuario puede seleccionar entre cualquiera de las tres funciones de activación de capas ocultas donde el código puede preformar la retropropagación
10 Problema 4: Los estudiantes utilizarán el módulo Tensorflow 2.X con el módulo inbuild Keras, preformando la retropropagación usando SGD.
10 Resumen del proceso de pase hacia adelante

Tutorial 3 — Sintonización de hiperparámetros

Instrucciones del profesor

Tiempo: 60 minutos

Esquema/horario de tiempo
Duración (Min) Descripción
5 Preprocesamiento de los datos
10 Ajuste de capacidad y profundidad (ajuste por debajo y sobre)
10 Épocas (bajo y más entrenamiento)
10 Tamaños de lote (para supresión de ruido)
10 Funciones de activación (y sus efectos en el rendimiento — tiempo y precisión)
10 Tasas de aprendizaje (vanilla, LR Decay, Momentum, Adaptive)
5 Recapitula en algunos hiperparámetros grapas (ReLu, Adam) y la sintonización de otros (capacidad y profundidad).

Reconocimientos

Keith Quille (TU Dublín, Tallaght Campus) http://keithquille.com

El programa de maestría en IA centrada en el ser humano fue cofinanciado por el Mecanismo «Conectar Europa» de la Unión Europea en virtud de la subvención «CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068».