Основы глубинного обучения — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
(Семинары)
(Правила выставления оценок)
Строка 31: Строка 31:
 
В курсе предусмотрено несколько форм контроля знания:
 
В курсе предусмотрено несколько форм контроля знания:
 
* Практические домашние работы на Python
 
* Практические домашние работы на Python
 +
* Проверочные работы на лекциях
 
* Контрольная где-то в середине курса
 
* Контрольная где-то в середине курса
 
* Письменный экзамен
 
* Письменный экзамен
Строка 36: Строка 37:
 
Итоговая оценка вычисляется по формуле:
 
Итоговая оценка вычисляется по формуле:
  
Округление(0.5 * ДЗ + 0.2 * КР + 0.3 * Э)
+
Округление(0.4 * ДЗ + 0.1 * ПР + 0.2 * КР + 0.3 * Э)
  
 
ДЗ — средняя оценка за практические домашние задания
 
ДЗ — средняя оценка за практические домашние задания
 +
 +
ПР — средняя оценка за проверочные работы
  
 
КР — оценка за контрольную работу
 
КР — оценка за контрольную работу

Версия 16:51, 8 сентября 2021

О курсе

Курс читается для студентов 3-го курса майнора ИАД в 1-2 модулях.

Проводится с 2015 года.

Лектор — Соколов Евгений Андреевич

Занятия проходят онлайн по четвергам на второй паре (11:10 - 12:30).

Полезные ссылки

Карточка курса и программа

Репозиторий с материалами: https://github.com/hse-ds/iad-deep-learning

Домашние задание сдаются в Anytask:

Канал в telegram для объявлений: https://t.me/hs_iad_2021

Чат в telegram (осторожно, риск флуда и отсутствия ответов на содержательные вопросы): https://t.me/joinchat/Vuq4Lgi98RG22fQP

Таблица с оценками

Вопросы по курсу можно задавать в телеграм лектору (@esokolov), семинаристу, в чатах групп или в issues на гитхабе.

Семинары

Правила выставления оценок

В курсе предусмотрено несколько форм контроля знания:

  • Практические домашние работы на Python
  • Проверочные работы на лекциях
  • Контрольная где-то в середине курса
  • Письменный экзамен

Итоговая оценка вычисляется по формуле:

Округление(0.4 * ДЗ + 0.1 * ПР + 0.2 * КР + 0.3 * Э)

ДЗ — средняя оценка за практические домашние задания

ПР — средняя оценка за проверочные работы

КР — оценка за контрольную работу

Э — оценка за экзамен

Правила сдачи заданий

При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.

При наличии уважительной причины дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.

Лекции

Лекция 1 (10.09.2020). Введение в глубинное обучение. Полносвязные слои. [Слайды] [Запись лекции]

Лекция 2 (17.09.2020). Метод обратного распространения ошибки. Свёртки и свёрточные слои. [Слайды] [Запись лекции]

Лекция 3 (24.09.2020). Поле восприятия. Преобразования в свёрточных сетях. Типичная архитектура свёрточной нейронной сети. Выходы последних слоёв свёрточных сетей как дескрипторы изображений. [Слайды] [Запись лекции]

Лекция 4 (01.10.2020). Стохастический градиентный спуск. Mini-batch. Momentum, AdaGrad, RMSProp, Adam. Регуляризация нейронных сетей и Dropout. Batch normalization. [Слайды] [Запись лекции]

Лекция 5 (08.10.2020). Инициализация весов и аугментация. Архитектуры свёрточных сетей: LeNet, AlexNet, VGG, Inception, ResNet. Tranfer learning. [Слайды] [Запись лекции]

Лекция 6 (15.10.2020). Интерпретация нейронных сетей. Задача семантической сегментации. Метрики качества сегментации, categorical cross-entropy. Fully Convolutional Networks. U-Net. Dilated convolutions. [Слайды] [Запись лекции]

Лекция 7 (29.10.2020). Детекция объектов. Двухшаговые (R-CNN, Fast R-CNN, Faster R-CNN) и одношаговые (YOLO) методы. [Слайды] [Запись лекции]

Лекция 8 (05.11.2020). Идентификация объектов. Триплетная функция потерь и обучение расстояний. Обучение без учителя и автокодировщики. Denoising autoencoders. [Слайды] [Запись лекции]

Лекция 9 (12.11.2020). Представления слов. word2vec и fasttext. Свёрточные архитектуры для последовательностей. Основы рекуррентных нейронных сетей. [Слайды] [Запись лекции]

Лекция 10 (26.11.2020). Обучение рекуррентных сетей, BPTT. Проблема затухания градиентов в рекуррентных сетях, LSTM. Seq2seq-модели. Механизм внимания. [Слайды] [Запись лекции]

Семинары

Семинар 1 (17.09.2020). Знакомство с pytorch. Тензоры, градиенты, датасеты, даталоадеры. Моя первая нейросеть. [Запись (Руслан Хайдуров)]

Практические задания

Домашние задания выкладываются в репозиторий курса. За каждый день просрочки мягкого дедлайна снимается два балла. После жёсткого дедлайна задания не принимаются.

Контрольная работа

Контрольная работа состоится 3 декабря во время лекции (11:10 - 12:30).

Вопросы для подготовки

В варианте будет 4 вопроса. Обратите внимание на примеры типовых задач в списке вопросов.

Экзамен

[Вопросы для подготовки]