Основы глубинного обучения — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
(Правила выставления оценок)
(Лекции)
Строка 54: Строка 54:
  
 
==Лекции==
 
==Лекции==
 
Лекция 1 (10.09.2020). Введение в глубинное обучение. Полносвязные слои. [[https://github.com/hse-ds/iad-deep-learning/blob/master/lectures/lecture01-intro.pdf Слайды]] [[https://www.youtube.com/watch?v=mwjQaNt8qxk Запись лекции]]
 
 
Лекция 2 (17.09.2020). Метод обратного распространения ошибки. Свёртки и свёрточные слои. [[https://github.com/hse-ds/iad-deep-learning/blob/master/lectures/lecture02-convnets.pdf Слайды]] [[https://www.youtube.com/watch?v=kKwrhvSATQg Запись лекции]]
 
 
Лекция 3 (24.09.2020). Поле восприятия. Преобразования в свёрточных сетях. Типичная архитектура свёрточной нейронной сети. Выходы последних слоёв свёрточных сетей как дескрипторы изображений. [[https://github.com/hse-ds/iad-deep-learning/blob/master/lectures/lecture03-convnets.pdf Слайды]] [[https://www.youtube.com/watch?v=EhVLDAOejlM Запись лекции]]
 
 
Лекция 4 (01.10.2020). Стохастический градиентный спуск. Mini-batch. Momentum, AdaGrad, RMSProp, Adam. Регуляризация нейронных сетей и Dropout. Batch normalization. [[https://github.com/hse-ds/iad-deep-learning/blob/master/lectures/lecture04-optimization.pdf Слайды]] [[https://youtu.be/V_rv-z4Y87o Запись лекции]]
 
 
Лекция 5 (08.10.2020). Инициализация весов и аугментация. Архитектуры свёрточных сетей: LeNet, AlexNet, VGG, Inception, ResNet. Tranfer learning. [[https://github.com/hse-ds/iad-deep-learning/blob/master/lectures/lecture05-convnets.pdf Слайды]] [[https://www.youtube.com/watch?v=fGodAVUHPmQ Запись лекции]]
 
 
Лекция 6 (15.10.2020). Интерпретация нейронных сетей. Задача семантической сегментации. Метрики качества сегментации, categorical cross-entropy. Fully Convolutional Networks. U-Net. Dilated convolutions. [[https://github.com/hse-ds/iad-deep-learning/blob/master/lectures/lecture06-vision.pdf Слайды]] [[https://www.youtube.com/watch?v=gnwG5agGsJ4 Запись лекции]]
 
 
Лекция 7 (29.10.2020). Детекция объектов. Двухшаговые (R-CNN, Fast R-CNN, Faster R-CNN) и одношаговые (YOLO) методы. [[https://github.com/hse-ds/iad-deep-learning/blob/master/lectures/lecture07-vision.pdf Слайды]] [[https://www.youtube.com/watch?v=H2USdVCoZt0 Запись лекции]]
 
 
Лекция 8 (05.11.2020). Идентификация объектов. Триплетная функция потерь и обучение расстояний. Обучение без учителя и автокодировщики. Denoising autoencoders. [[https://github.com/hse-ds/iad-deep-learning/blob/master/lectures/lecture08-unsupervised.pdf Слайды]] [[https://www.youtube.com/watch?v=yqkja2262Fc Запись лекции]]
 
 
Лекция 9 (12.11.2020). Представления слов. word2vec и fasttext. Свёрточные архитектуры для последовательностей. Основы рекуррентных нейронных сетей. [[https://github.com/hse-ds/iad-deep-learning/blob/master/lectures/lecture09-sequences.pdf Слайды]] [[https://www.youtube.com/watch?v=AXb2BfdfPfo Запись лекции]]
 
 
Лекция 10 (26.11.2020). Обучение рекуррентных сетей, BPTT. Проблема затухания градиентов в рекуррентных сетях, LSTM. Seq2seq-модели. Механизм внимания. [[https://github.com/hse-ds/iad-deep-learning/blob/master/lectures/lecture10-sequences.pdf Слайды]] [[https://www.youtube.com/watch?v=vG1gXhx0tRc Запись лекции]]
 
  
 
==Семинары==
 
==Семинары==

Версия 16:51, 8 сентября 2021

О курсе

Курс читается для студентов 3-го курса майнора ИАД в 1-2 модулях.

Проводится с 2015 года.

Лектор — Соколов Евгений Андреевич

Занятия проходят онлайн по четвергам на второй паре (11:10 - 12:30).

Полезные ссылки

Карточка курса и программа

Репозиторий с материалами: https://github.com/hse-ds/iad-deep-learning

Домашние задание сдаются в Anytask:

Канал в telegram для объявлений: https://t.me/hs_iad_2021

Чат в telegram (осторожно, риск флуда и отсутствия ответов на содержательные вопросы): https://t.me/joinchat/Vuq4Lgi98RG22fQP

Таблица с оценками

Вопросы по курсу можно задавать в телеграм лектору (@esokolov), семинаристу, в чатах групп или в issues на гитхабе.

Семинары

Правила выставления оценок

В курсе предусмотрено несколько форм контроля знания:

  • Практические домашние работы на Python
  • Проверочные работы на лекциях
  • Контрольная где-то в середине курса
  • Письменный экзамен

Итоговая оценка вычисляется по формуле:

Округление(0.4 * ДЗ + 0.1 * ПР + 0.2 * КР + 0.3 * Э)

ДЗ — средняя оценка за практические домашние задания

ПР — средняя оценка за проверочные работы

КР — оценка за контрольную работу

Э — оценка за экзамен

Правила сдачи заданий

При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.

При наличии уважительной причины дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.

Лекции

Семинары

Семинар 1 (17.09.2020). Знакомство с pytorch. Тензоры, градиенты, датасеты, даталоадеры. Моя первая нейросеть. [Запись (Руслан Хайдуров)]

Практические задания

Домашние задания выкладываются в репозиторий курса. За каждый день просрочки мягкого дедлайна снимается два балла. После жёсткого дедлайна задания не принимаются.

Контрольная работа

Контрольная работа состоится 3 декабря во время лекции (11:10 - 12:30).

Вопросы для подготовки

В варианте будет 4 вопроса. Обратите внимание на примеры типовых задач в списке вопросов.

Экзамен

[Вопросы для подготовки]