Intro to DL Blended — различия между версиями
Zimovnov (обсуждение | вклад) |
Zimovnov (обсуждение | вклад) |
||
(не показано 9 промежуточных версии этого же участника) | |||
Строка 1: | Строка 1: | ||
− | ''' | + | '''О чем курс?''' |
− | + | Курс расскажет о современных нейронных сетях и возможностях их применения в работе с компьютерным зрением и естественными языками. | |
https://www.hse.ru/data/2018/06/05/1150113338/program-2129241367-JndYcQjSAq.pdf | https://www.hse.ru/data/2018/06/05/1150113338/program-2129241367-JndYcQjSAq.pdf | ||
− | ''' | + | '''Как будет проходить курс?''' |
+ | Видеолекции доступны на Coursera по ссылке (https://www.coursera.org/learn/intro-to-deep-learning). | ||
+ | Зайдите на платформу с вышкинской почты и начинайте обучение. | ||
+ | Семинары пройдут на неделях 10-14 февраля, 24-28 февраля и 9-13 марта. | ||
+ | В курсе также будут домашние и проверочные работы. | ||
− | + | '''Что нужно делать сейчас?''' | |
+ | Нужно пройти первые три недели онлайн-курса до 10 февраля (до первого семинара). | ||
− | + | '''Как складывается оценка?''' | |
+ | Итоговая оценка рассчитывается по формуле: '''0.5 Coursera + 0.3 ДЗ + 0.2 проверочные'''. | ||
− | ''' | + | '''Домашка:''' |
Homework with Kaggle competition: https://docs.google.com/document/d/1kTMYq21UFqZOqftjKAPq8G7RRkO7kX3MomsVIVhW830/edit?usp=sharing | Homework with Kaggle competition: https://docs.google.com/document/d/1kTMYq21UFqZOqftjKAPq8G7RRkO7kX3MomsVIVhW830/edit?usp=sharing | ||
− | Release date: | + | Release date: 18-02-2020 00:00 |
− | Deadline: | + | Deadline: 09-03-2020 23:59 |
− | ''' | + | '''Комиссия:''' |
In writing, theoretical questions, for instance: | In writing, theoretical questions, for instance: | ||
# SGD variations: Moment, RMSProp, Adam with explanation | # SGD variations: Moment, RMSProp, Adam with explanation | ||
− | # Description of backprop and proof of its efficiency | + | # Description of backprop and proof of its efficiency (линейное время работы) |
# Gradient of a dense layer in matrix notation (with proof) | # Gradient of a dense layer in matrix notation (with proof) | ||
# Typical CNN architecture, purpose of each layer, how to do backprop | # Typical CNN architecture, purpose of each layer, how to do backprop | ||
Строка 28: | Строка 34: | ||
# Gradient of RNN cell (with proof) | # Gradient of RNN cell (with proof) | ||
− | + | FAQ: | |
+ | |||
+ | - Курсеру нужно добить до начала сессии | ||
+ | |||
+ | - Домашка всего одна | ||
− | + | - Дедлайн для всех групп по домашке одинаковый |
Текущая версия на 01:16, 4 марта 2020
О чем курс? Курс расскажет о современных нейронных сетях и возможностях их применения в работе с компьютерным зрением и естественными языками. https://www.hse.ru/data/2018/06/05/1150113338/program-2129241367-JndYcQjSAq.pdf
Как будет проходить курс? Видеолекции доступны на Coursera по ссылке (https://www.coursera.org/learn/intro-to-deep-learning). Зайдите на платформу с вышкинской почты и начинайте обучение. Семинары пройдут на неделях 10-14 февраля, 24-28 февраля и 9-13 марта. В курсе также будут домашние и проверочные работы.
Что нужно делать сейчас? Нужно пройти первые три недели онлайн-курса до 10 февраля (до первого семинара).
Как складывается оценка? Итоговая оценка рассчитывается по формуле: 0.5 Coursera + 0.3 ДЗ + 0.2 проверочные.
Домашка:
Homework with Kaggle competition: https://docs.google.com/document/d/1kTMYq21UFqZOqftjKAPq8G7RRkO7kX3MomsVIVhW830/edit?usp=sharing
Release date: 18-02-2020 00:00
Deadline: 09-03-2020 23:59
Комиссия:
In writing, theoretical questions, for instance:
- SGD variations: Moment, RMSProp, Adam with explanation
- Description of backprop and proof of its efficiency (линейное время работы)
- Gradient of a dense layer in matrix notation (with proof)
- Typical CNN architecture, purpose of each layer, how to do backprop
- Inception V3 architecture choices
- Description of auto-encoder, application to images
- Gradient of RNN cell (with proof)
FAQ:
- Курсеру нужно добить до начала сессии
- Домашка всего одна
- Дедлайн для всех групп по домашке одинаковый