[esta página en wiki][índice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Conferencia: Propagación a plazo

Información administrativa

Título Propagación a plazo
Duración 60
Módulo B
Tipo de lección Conferencia
Enfoque Técnico — Aprendizaje profundo
Tema Pase hacia delante

Keywords

Pase hacia adelante, Pérdida,

Objetivos de aprendizaje

Preparación prevista

Eventos de aprendizaje que se completarán antes

Ninguno.

Obligatorio para los estudiantes

Ninguno.

Opcional para estudiantes

  • Multiplicación de matrices
  • Empezar con Numpy
  • Conocimiento de la regresión lineal y logística (del Período A Machine Learning: Conferencia: Regresión lineal, GLRs, GADs)

Referencias y antecedentes para estudiantes

  • John D Kelleher y Brain McNamee. (2018), Fundamentos del aprendizaje automático para análisis de datos predictivos, MIT Press.
  • Michael Nielsen. (2015), Redes neuronales y aprendizaje profundo, 1. Prensa de determinación, San Francisco CA USA.
  • Charu C. Aggarwal. (2018), Redes neuronales y aprendizaje profundo, 1. Springer
  • Antonio Gulli, Sujit Pal. Aprendizaje profundo con Keras, Packt, [ISBN: 9781787128422].

Recomendado para profesores

Ninguno.

Material didáctico

Instrucciones para profesores

Esta conferencia presentará a los estudiantes los fundamentos de la propagación hacia adelante para una red neuronal artificial. Esto introducirá a los estudiantes a la topología (pesos, sinapsis, funciones de activación y funciones de pérdida). Los estudiantes podrán hacer un pase hacia adelante usando lápiz y papel, usando Python con solo la biblioteca Numpy (para la manipulación de matrices) y luego usando KERAS como parte del tutorial asociado con este LE. Esto generará una comprensión fundamental de qué funciones de activación se aplican a contextos de problemas específicos y cómo las funciones de activación difieren en la complejidad computacional. En la conferencia se examinará la función de activación de la capa externa y las correspondientes funciones de pérdida para casos de uso tales como clasificación binomial, regresión y clasificación multiclase.

Nota:

Esquema

Red neuronal utilizada en estas series de conferencias introductorias
Horario
Duración (Min) Descripción
10 Definición de Componentes de Red Neural
15 Pesos y funciones de activación (Sigmoid, TanH y ReLu)
15 Funciones de pérdida (regresión, clasificación binomial y activación multiclase)
15 Uso de matrices para un pase delantero
5 Recapitulación en el pase delantero

Reconocimientos

El programa de maestría en IA centrada en el ser humano fue cofinanciado por el Mecanismo «Conectar Europa» de la Unión Europea en virtud de la subvención «CEF-TC-2020-1 Digital Skills 2020-EU-IA-0068».