Intro to DL Blended — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
 
(не показано 13 промежуточных версии этого же участника)
Строка 1: Строка 1:
'''Course program:'''
+
'''О чем курс?'''
 
+
Курс расскажет о современных нейронных сетях и возможностях их применения в работе с компьютерным зрением и естественными языками.
 
https://www.hse.ru/data/2018/06/05/1150113338/program-2129241367-JndYcQjSAq.pdf
 
https://www.hse.ru/data/2018/06/05/1150113338/program-2129241367-JndYcQjSAq.pdf
  
'''Grading:'''
+
'''Как будет проходить курс?'''
 +
Видеолекции доступны на Coursera по ссылке (https://www.coursera.org/learn/intro-to-deep-learning).
 +
Зайдите на платформу с вышкинской почты и начинайте обучение.
 +
Семинары пройдут на неделях 10-14 февраля, 24-28 февраля и 9-13 марта.
 +
В курсе также будут домашние и проверочные работы.
  
Cumulative grade = 80% online course + 20% additional project
+
'''Что нужно делать сейчас?'''
 +
Нужно пройти первые три недели онлайн-курса до 10 февраля (до первого семинара).
  
Final grade = 75% cumulative grade + 25% final exam
+
'''Как складывается оценка?'''
 +
Итоговая оценка рассчитывается по формуле: '''0.5 Coursera + 0.3 ДЗ + 0.2 проверочные'''.
  
'''Additional project:'''
+
'''Домашка:'''
  
Homework with Kaggle competition
+
Homework with Kaggle competition: https://docs.google.com/document/d/1kTMYq21UFqZOqftjKAPq8G7RRkO7kX3MomsVIVhW830/edit?usp=sharing
  
Release date: 10-03-2019
+
Release date: 18-02-2020 00:00
  
Deadline: 24-03-2019
+
Deadline: 09-03-2020 23:59
  
'''Exam:'''
+
'''Комиссия:'''
  
 
In writing, theoretical questions, for instance:
 
In writing, theoretical questions, for instance:
 
# SGD variations: Moment, RMSProp, Adam with explanation
 
# SGD variations: Moment, RMSProp, Adam with explanation
# Description of backprop and proof of its efficiency
+
# Description of backprop and proof of its efficiency (линейное время работы)
 
# Gradient of a dense layer in matrix notation (with proof)
 
# Gradient of a dense layer in matrix notation (with proof)
 
# Typical CNN architecture, purpose of each layer, how to do backprop
 
# Typical CNN architecture, purpose of each layer, how to do backprop
Строка 28: Строка 34:
 
# Gradient of RNN cell (with proof)
 
# Gradient of RNN cell (with proof)
  
'''Семинары:'''
+
FAQ:
 +
 
 +
- Курсеру нужно добить до начала сессии
 +
 
 +
- Домашка всего одна
  
1. Keras Tutorial https://colab.research.google.com/drive/1HoEsK580KAzMGuvFyYwUFdnRzuZ_hC13
+
- Дедлайн для всех групп по домашке одинаковый

Текущая версия на 01:16, 4 марта 2020

О чем курс? Курс расскажет о современных нейронных сетях и возможностях их применения в работе с компьютерным зрением и естественными языками. https://www.hse.ru/data/2018/06/05/1150113338/program-2129241367-JndYcQjSAq.pdf

Как будет проходить курс? Видеолекции доступны на Coursera по ссылке (https://www.coursera.org/learn/intro-to-deep-learning). Зайдите на платформу с вышкинской почты и начинайте обучение. Семинары пройдут на неделях 10-14 февраля, 24-28 февраля и 9-13 марта. В курсе также будут домашние и проверочные работы.

Что нужно делать сейчас? Нужно пройти первые три недели онлайн-курса до 10 февраля (до первого семинара).

Как складывается оценка? Итоговая оценка рассчитывается по формуле: 0.5 Coursera + 0.3 ДЗ + 0.2 проверочные.

Домашка:

Homework with Kaggle competition: https://docs.google.com/document/d/1kTMYq21UFqZOqftjKAPq8G7RRkO7kX3MomsVIVhW830/edit?usp=sharing

Release date: 18-02-2020 00:00

Deadline: 09-03-2020 23:59

Комиссия:

In writing, theoretical questions, for instance:

  1. SGD variations: Moment, RMSProp, Adam with explanation
  2. Description of backprop and proof of its efficiency (линейное время работы)
  3. Gradient of a dense layer in matrix notation (with proof)
  4. Typical CNN architecture, purpose of each layer, how to do backprop
  5. Inception V3 architecture choices
  6. Description of auto-encoder, application to images
  7. Gradient of RNN cell (with proof)

FAQ:

- Курсеру нужно добить до начала сессии

- Домашка всего одна

- Дедлайн для всех групп по домашке одинаковый