[esta página na wiki][índice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Tutorial: Fundamentos da aprendizagem profunda

Informações administrativas

Titulo Tutorial: Fundamental da aprendizagem profunda
Duração 180 min (60 min por tutorial)
Módulo B
Tipo de aula Tutorial
Foco Técnico — Aprendizagem Aprofundada
Tópico Antecipação e retropropagação

Palavras-chave

propagação para a frente, retropropagação, afinação do hiperparâmetro,

Objetivos de aprendizagem

Preparação prevista

Eventos de aprendizagem a serem concluídos antes

Obrigatório para os Estudantes

  • John D. Kelleher e Cérebro McNamee. (2018), Fundamentals of Machine Learning for Predictive Data Analytics, MIT Press.
  • Michael Nielsen. (2015), Redes Neurais e Aprendizagem Profunda, 1. Imprensa de determinação, São Francisco CA EUA.
  • Charu C. Aggarwal. (2018), Redes Neurais e Aprendizagem Profunda, 1. Springer
  • António Gulli, Sujit Pal. Aprendizagem profunda com Keras, Packt, [ISBN: 9781787128422].

Facultativo para Estudantes

  • Multiplicação das matrizes
  • Começar a usar Numpy
  • Conhecimento da regressão linear e logística

Referências e antecedentes para estudantes

Nenhuma.

Recomendado para professores

Nenhuma.

Materiais das aulas

Nenhuma.

Instruções para os professores

Este Evento de Aprendizagem consiste em três conjuntos de tutoriais que abrangem tópicos fundamentais de aprendizagem profunda. Esta série de tutoriais consiste em fornecer uma visão geral de um passe avançado, a derivação da retropropagação e o uso de código para fornecer uma visão geral para os alunos sobre o que cada parâmetro faz, e como isso pode afetar a aprendizagem e convergência de uma rede neural:

  1. Propagação para a frente: Exemplos de caneta e papel, e exemplos de python que utilizam Numpy (para fundamentos) e Keras que mostram um módulo de alto nível (que utiliza Tensorflow 2.X).
  2. Derivação e aplicação de retropropagação: Exemplos de caneta e papel, e exemplos de python que utilizam Numpy (para fundamentos) e Keras que mostram um módulo de alto nível (que utiliza Tensorflow 2.X).
  3. Sintonização hiperparâmetro: Exemplos de Keras que destacam gráficos de diagnóstico exemplares com base nos efeitos da alteração de hiperparametros específicos (utilizando um exemplo de conjunto de dados HCAIM conjuntos de dados para o ensino de IA ética (Census Dataset).

Notas para entrega (de acordo com as palestras)

Tutorial 1 — Propagação para a frente

Instruções do professor

Rede neural.png

Tempo: 60 minutos

Calendário/horário
Duração (Min) Descrição
20 Problema 1: Implementação de um passe para a frente (exemplo da palestra)
20 Problema 2: Desenvolver uma rede neural a partir do zero usando Numpy (exemplo da palestra)
10 Problema 3: Desenvolver uma rede neural a partir da utilização de Keras (exemplo da palestra com pesos definidos e pesos aleatórios)
10 Recapitular sobre o processo de passagem para a frente

Tutorial 2 — Derivação e aplicação da retropropagação

Instruções do professor

Tempo: 60 minutos

Calendário/horário
Duração (Min) Descrição
20 (opcional) Problema 1: derivação da fórmula de retropropagação utilizando a função Sigmoid para as funções de ativação interior e exterior e MSE como função de perda (opcional)
20 Problema 2: Os alunos aplicarão três funções de ativação para uma única atualização de peso (SGD backpropagation), utilizando caneta e papel durante (20 minutos):
20 Problema 3: Os alunos desenvolverão uma rede neural a partir do zero usando apenas o módulo Numpy, onde o utilizador pode selecionar a partir de qualquer uma das três funções de ativação de camada oculta onde o código pode pré-formar a retropropagação.
10 Problema 4: Os alunos usarão o módulo Tensorflow 2.X com o módulo Keras inbuild, pré-formar a retropropagação usando SGD.
10 Recapitular sobre o processo de passagem para a frente

Tutorial 3 — Afinação do hiperparâmetro

Instruções do professor

Tempo: 60 minutos

Calendário/horário
Duração (Min) Descrição
5 Pré-tratamento dos dados
10 Afinação da capacidade e da profundidade (sob e sobremontagem)
10 Épocas (sob e sobreformação)
10 Tamanhos dos lotes (para supressão do ruído)
10 Funções de ativação (e seus efeitos no desempenho — tempo e precisão)
10 Taxas de aprendizagem (vanilla, LR Decay, Momentum, Adaptive)
5 Recapitular alguns hiperparâmetros básicos (ReLu, Adam) e afinação de outros (capacidade e profundidade).

Agradecimentos

Keith Quille (TU Dublin, Tallaght Campus) http://keithquille.com

O programa de mestrado em IA centrado no ser humano foi cofinanciado pelo Mecanismo Interligar a Europa da União Europeia ao abrigo de subvenções CEF-TC-2020-1 Competências Digitais 2020-EU-IA-0068.