[тази страница в уики][индекс][EN][BG][CS][DA][DE][EL][ES][ET][FI][FR][GA][HR][HU][IT][MT][NL][PL][PT][RO][SK][SL][SV]

Урок: Основи на дълбокото учене

Административна информация

Дял Урок: Фундамент на дълбокото учене
Продължителност 180 мин (60 мин на урок)
Модул Б
Вид на урока Урок
Фокус Технически — задълбочено обучение
Тема Напред и обратно разпространение

Ключови думи

разпространение напред, обратно размножаване, настройка на хиперпараметъра,

Учебни цели

Очаквана подготовка

Обучение на събития, които трябва да бъдат завършени преди

Задължително за студентите

  • Джон Келър и Мозък Макнами. (2018 г.), Fundamentals of Machine Learning for Predictive Data Analytics, MIT Press.
  • Майкъл Нилсън. (2015 г.), „Неврални мрежи и задълбочено обучение“, 1. Преса за решителност, Сан Франциско, САЩ.
  • Чару С. Агарвал. (2018 г.), невронни мрежи и задълбочено обучение, 1. Спрингър
  • Антонио Гули, Суджит Пал. Дълбоко обучение с Keras, Packt, [ISBN: 9781787128422].

Незадължително за студенти

  • Умножение на матрици
  • Да започнем с Numpy
  • Познаване на линейната и логистичната регресия

Референции и фон за студенти

Няма.

Препоръчва се за учители

Няма.

Материали за уроци

Няма.

Инструкции за учители

Това Учебно събитие се състои от три набора от уроци, обхващащи основни теми за дълбоко обучение. Тази поредица от уроци се състои в предоставяне на преглед на напред пас, извличане на обратно размножаване и използването на код, за да се предостави общ преглед на учениците за това какво прави всеки параметър и как може да повлияе на ученето и конвергенцията на невронната мрежа:

  1. Разпространение напред: Примери за писалка и хартия, както и питонни примери, използващи Numpy (за основи) и Keras, показващи модул на високо ниво (който използва Tensorflow 2.X).
  2. Извличане и прилагане на обратно размножаване: Примери за писалка и хартия, както и питонни примери, използващи Numpy (за основи) и Keras, показващи модул на високо ниво (който използва Tensorflow 2.X).
  3. Настройка на хиперпараметъра: Примери от Keras, които подчертават примерни диагностични графики въз основа на ефектите за промяна на специфични хиперпараметри (като се използва примерен набор от данни за HCAIM за преподаване на етичен ИИ (набор от данни от преброяването).

Бележки за доставка (според лекциите)

Урок 1 — напред размножаване

Инструкции за учителя

Невронна мрежа.png

Време: 60 минути

Описание/времеви график
Продължителност (минимум) Описание
20 Проблем 1: Прилагане на перо и хартия за напред (пример от лекцията)
20 Проблем 2: Разработване на невронна мрежа от нулата с помощта на Numpy (пример от лекцията)
10 Проблем 3: Разработване на невронна мрежа от използването на Keras (пример от лекцията с определени тежести и случайни тегла)
10 Обобщение на процеса на преминаване напред

Урок 2 — Деривация и прилагане на обратно размножаване

Инструкции за учителя

Време: 60 минути

Описание/времеви график
Продължителност (минимум) Описание
20 (незадължително) Проблем 1: извличане на формулата за обратно размножаване, като се използва сигмоидната функция за вътрешните и външните функции за активиране и MSE като функция за загуба (по избор)
20 Проблем 2: Студентите ще прилагат три функции за активиране за една актуализация на теглото (SGD обратно размножаване), като използват писалка и хартия за (20 минути):
20 Проблем 3: Студентите ще разработят невронна мрежа от нулата, като използват само модула Numpy, където потребителят може да избере от някоя от трите скрити функции за активиране на слоя, където кодът може предварително да формира обратно размножаване
10 Проблем 4: Студентите ще използват модула Tensorflow 2.X с вградения модул Keras, предварително формиране на обратно размножаване с помощта на SGD.
10 Обобщение на процеса на преминаване напред

Урок 3 — Хиперпараметър тунинг

Инструкции за учителя

Време: 60 минути

Описание/времеви график
Продължителност (минимум) Описание
5 Предварителна обработка на данните
10 Капацитет и дълбочина тунинг (под и над монтаж)
10 Епохи (под и над обучение)
10 Размери на партидите (за потискане на шума)
10 Функции за активиране (и тяхното въздействие върху производителността — време и точност)
10 Степен на обучение (ванилия, LR Decay, момент, адаптивен)
5 Прегледайте някои основни хиперпараметри (ReLu, Adam) и тунинга на други (капацитет и дълбочина).

Потвърждения

Keith Quille (TU Dublin, Tallaght Campus) http://keithquille.com

Магистърската програма по ИИ, насочена към човека, беше съфинансирана от Механизма за свързване на Европа на Европейския съюз под формата на безвъзмездни средства № CEF-TC-2020—1 Digital Skills 2020-EU-IA-0068.