Глубинное обучение 1 23/24 — различия между версиями
(→Преподаватели и ассистенты) |
(→МОП) |
||
Строка 79: | Строка 79: | ||
=== МОП === | === МОП === | ||
+ | |||
+ | # Backpropagation algorithm, fully-connected networks: [https://youtu.be/DXZK3rpDp4U?si=UpS9dkXpNXB4uF0Q запись] [https://github.com/isadrtdinov/intro-to-dl-hse/blob/2023-2024/lecture-notes/notes-01-mlp.pdf доска] | ||
+ | # Cross-entropy loss, Dropout, Batch Normalization: [https://youtu.be/SWD-Zk4P1j0?si=hzIUcGtfzrx27FGC запись] [https://github.com/isadrtdinov/intro-to-dl-hse/blob/2023-2024/lecture-notes/notes-02-dropout-batchnorm.pdf доска] | ||
=== Не МОП === | === Не МОП === |
Версия 10:29, 8 октября 2023
Содержание
О курсе
Это страничка курсов 2023-2024 года (1-3 модуль 3 курса ПМИ):
- Глубинное обучение 1 (для групп МОП: 211-213)
- Введение в глубинное обучение (группы 214 (ТИ), 217 (АПР) и 218 (АДИС)).
Курс посвящен глубинному обучению – самой активно развивающейся области машинного обучения. Слушатели курса узнают, какие задачи машинного обучения можно решать с помощью нейронных сетей и какие виды нейронных сетей находят свои применения на сегодняшний день. Курс имеет явную практическую направленность, студентам предлагаются задания на обучение нейронных сетей на фреймворке PyTorch языка программирования Python. В курсе обзорно, но достаточно для ознакомления разбираются задачи на изображения и тексты.
Цели освоения курса
- Знать принцип работы и уметь обучать следующие виды нейронных сетей: полносвязные, сверточные, рекуррентные, трансформеры.
- Владение фреймворком PyTorch для обучения нейронных сетей.
- Понимание различных задач, которые решаются с применением глубинного обучения.
- Умение обрабатывать данные и составлять пайплайны для обучения нейронных сетей.
Полезные ссылки
- Репозиторий курса: https://github.com/isadrtdinov/intro-to-dl-hse
- Таблица с оценками: https://docs.google.com/spreadsheets/d/1D0m5CFlj6CJPUhYPTsCAhD-euPCV31iZGDnib08SGuI/edit?usp=sharing
- Anytask: https://anytask.org/course/1054
- Чат с обсуждением (МОП): +NO2tyNRZtYUyOGRi (добавить после хттпс://т.ме/)
- Чат с обсуждением (не МОП): TBA (добавить после хтппс://т.ме/)
Преподаватели и ассистенты
Лекции (МОП); кому писать, если кажется, что все пропало: Ильдус Садртдинов
Группа | Семинарист | Ассистенты | Инвайт в anytask |
---|---|---|---|
211 (МОП) | Морозов Никита Витальевич | Березовский Валерий Максутова Айза | 7wB0jXP |
212 (МОП) | Биршерт Алексей Дмитриевич | Максимов Ян Аксёнов Ярослав | uvtz7mP |
213 (МОП) | Шипилов Фома Александрович | Гусев Михаил Екатерина Дмитриева | 1Jn1jST |
ГО-1 не МОП ПМИ | любой из трех выше | см. таблицу с оценками | YFuosZt |
214 (ТИ) + 217 (АПР) | TBA | TBA | TBA |
218 (АДИС) | TBA | TBA | TBA |
Формулы оценок
МОП
Итог = Округление(0.3 * БДЗ + 0.25 * МДЗ + 0.15 ПР + 0.3 * Э)
- БДЗ - оценка за большие домашние задания
- МДЗ - оценка за маленькие домашние задания
- ПР - оценка за проверочные работы (проводятся на семинарах)
- Э - оценка за экзамен
Округление арифметическое. Определим накопленную оценку как Накоп = Округление((0.3 * БДЗ + 0.25 МДЗ + 0.15 * ПР) / 0.7). Если Накоп >= 8, то студент может получить Накоп в качестве итоговой оценки, не приходя на экзамен.
Формат экзамена: письменный, в аудитории, материалами пользоваться не разрешается, 2 часа.
Формат пересдачи: накопленная оценка сохраняется, формат аналогичен экзамену.
Не МОП
Итог = Округление(0.7 * МДЗ + 0.3 * ПР)
- МДЗ - оценка за маленькие домашние задания
- ПР - оценка за проверочные работы (проводятся на семинарах)
Округление арифметическое.
Формат экзамена: экзамен не предусмотрен.
Формат пересдачи: досдача МДЗ.
Лекции
МОП
- Backpropagation algorithm, fully-connected networks: запись доска
- Cross-entropy loss, Dropout, Batch Normalization: запись доска