[esta página na wiki][índice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Palestra: Propagação para a frente

Informações administrativas

Titulo Propagação para a frente
Duração 60
Módulo B
Tipo de aula Palestra
Foco Técnico — Aprendizagem Aprofundada
Tópico Passe para a frente

Palavras-chave

Passe para a frente, perda,

Objetivos de aprendizagem

Preparação prevista

Eventos de aprendizagem a serem concluídos antes

Nenhuma.

Obrigatório para os Estudantes

Nenhuma.

Facultativo para Estudantes

  • Multiplicação das matrizes
  • Começar a usar Numpy
  • Conhecimento de regressão linear e logística (do Período A Machine Learning): Palestra: Regressão linear, GLRs, GADs)

Referências e antecedentes para estudantes

  • John D. Kelleher e Cérebro McNamee. (2018), Fundamentals of Machine Learning for Predictive Data Analytics, MIT Press.
  • Michael Nielsen. (2015), Redes Neurais e Aprendizagem Profunda, 1. Imprensa de determinação, São Francisco CA EUA.
  • Charu C. Aggarwal. (2018), Redes Neurais e Aprendizagem Profunda, 1. Springer
  • António Gulli, Sujit Pal. Aprendizagem profunda com Keras, Packt, [ISBN: 9781787128422].

Recomendado para professores

Nenhuma.

Materiais das aulas

Instruções para os professores

Esta palestra irá apresentar aos alunos os fundamentos da propagação para a frente para uma rede neural artificial. Isto irá introduzir os alunos à topologia (pesos, sinapses, funções de ativação e funções de perda). Os alunos poderão então fazer um passe para a frente usando caneta e papel, usando Python apenas com a biblioteca Numpy (para manipulação de matrizes) e depois usando o KERAS como parte do tutorial associado a este LE. Isto irá construir uma compreensão fundamental do que as funções de ativação se aplicam a contextos de problemas específicos e como as funções de ativação diferem na complexidade computacional. Na palestra, a função de ativação da camada exterior e as funções de perda correspondentes serão examinadas para casos de uso como classificação binomial, regressão e classificação multiclasse.

Nota:

Esboço

Rede neural utilizada nesta série de palestras introdutórias
Calendário
Duração (Min) Descrição
10 Definição de Componentes da Rede Neural
15 Pesos e funções de ativação (Sigmoid, TanH e ReLu)
15 Funções de perda (regressão, classificação binomial e ativação multiclasse)
15 Utilizar matrizes para um passe para a frente
5 Recapitular sobre o passe para a frente

Agradecimentos

O programa de mestrado em IA centrado no ser humano foi cofinanciado pelo Mecanismo Interligar a Europa da União Europeia ao abrigo de subvenções CEF-TC-2020-1 Competências Digitais 2020-EU-IA-0068.