[esta página na wiki][índice][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Palestra: Compressão de Modelo — Edge Computing

Informações administrativas

Titulo Compressão de Modelo — Edge Computing
Duração 45 mins
Módulo C
Tipo de aula Palestra
Foco Técnico — Futura IA
Tópico Avanços em modelos ML através de uma lente HC — Um Estudo Orientado a Resultados

Palavras-chave

compressão do modelo, poda, quantificação, destilação do conhecimento,

Objetivos de aprendizagem

Preparação prevista

Eventos de aprendizagem a serem concluídos antes

Obrigatório para os Estudantes

  • Conhecimento da teoria da aprendizagem supervisionada
  • Introdução à aprendizagem automática e conceitos de aprendizagem profunda dadas por palestras anteriores

Facultativo para Estudantes

  • Conhecimento dos hiperparâmetros mais comuns envolvidos no processo de construção de redes neurais

Referências e antecedentes para estudantes

  • Destilação do conhecimento — Fácil
  • Canção Han, et al. «Learning Weights and Connections for Efficient Neural Networks» (em inglês). Corr abs/1506.02626. (2015).
  • Canção Han, et al. «Compressão profunda: Comprimir a Rede Neural Profundo com Poda, Quantização Treinada e Codificação Huffman." 4.ª Conferência Internacional sobre Representações de Aprendizagem, ICLR 2016, San Juan, Porto Rico, 2-4 de maio de 2016, Proceedings Conference Track Proceedings. 2016. Yanzhi Wang, et al. Poda de peso não estruturada DNN — É benéfica em qualquer plataforma? Corr abs/1907.02124. (2019).
  • O Cheong e o Daniel. «transformers.zip: Comprimir transformadores com poda e Quantização.
  • Canção Han, et al. «Learning Weights and Connections for Efficient Neural Networks» (em inglês). Corr abs/1506.02626. (2015).
  • Davis W. Blalock, et al. «What is the State of Neural Network Pruning?» ( Proceedings of Machine Learning and Systems 2020), MLSys 2020, Austin, TX, EUA, 2-4 de março de 2020. mlsys.org, 2020.
  • https://github.com/kingreza/quantization
  • Canção Han, et al. «Compressão profunda: Compressing Deep Neural Network with Pruning, Trained Quantization and Huffman Coding." 4.ª Conferência Internacional sobre Representações de Aprendizagem, ICLR 2016, San Juan, Porto Rico, 2-4 de maio de 2016, Conferência de Processos. 2016.
  • Zhi Gang Liu, et al. «Learning Low-Precision Neural Networks Without Straight-Through Estimator (STE)» (Aprender Redes Neurais de Baixa Precisão sem Estimador Direto (STE)). Atas da Vigésima Oitava Conferência Conjunta Internacional sobre Inteligência Artificial, CAI 2019, Macau, China, 10 a 16 de agosto de 2019 ijcai.org, 2019.
  • Peiqi Wang, et al. «HitNet: Rede Neural Recorrente Hibrida Ternária." Avanços em Sistemas de Processamento de Informação Neural 31: Conferência Anual sobre Sistemas de Processamento de Informação Neural 2018, NeurIPS 2018, 3-8 de dezembro de 2018, Montréal, Canadá. 2018.
  • Cristian Bucila, et al. «Compressão modelo.» Proceedings of the XII ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, Filadélfia, PA, EUA, 20-23 de agosto de 2006. ACM, 2006.
  • Geoffrey E. Hinton, et al. «Destilar o Conhecimento numa Rede Neural». Corr abs/1503.02531. (2015).
  • https://towardsdatascience.com/knowledge-distillation-simplified-dd4973dbc764
  • https://www.ttic.edu/dl/dark14.pdf
  • https://josehoras.github.io/knowledge-distillation/

Recomendado para professores

Materiais das aulas

Instruções para os professores

A palestra pode referir-se aos tipos de modelo, avaliação do modelo, encaixe do modelo e otimização do modelo

Esboço

Duração Descrição Conceitos Atividade
0-10 min Introdução às técnicas de compressão de modelos: para que é, para que serve, quando e por que é necessário Compressão do modelo Introdução aos principais conceitos
10-20 min Poda: conceitos e técnicas. Principais abordagens à poda Poda Sessão ensinada e exemplos
20-30 min Quantificação: conceitos e técnicas. Principais abordagens para a quantificação Quantização Sessão ensinada e exemplos
30-40 min Destilação de conhecimentos: conceitos e técnicas. Principais abordagens para a destilação do conhecimento Destilação de conhecimentos Sessão ensinada e exemplos
40-45 min Conclusão, perguntas e respostas Sumário Conclusões

Agradecimentos

Cada autor das fontes citadas nos slides.

O programa de mestrado em IA centrado no ser humano foi cofinanciado pelo Mecanismo Interligar a Europa da União Europeia ao abrigo de subvenções CEF-TC-2020-1 Competências Digitais 2020-EU-IA-0068.