Глубинное обучение 1 — различия между версиями
Материал из Wiki - Факультет компьютерных наук
Строка 56: | Строка 56: | ||
|- | |- | ||
| style="background:#eaecf0;" | '''8''' [[https://www.youtube.com/watch?v=YNmafNf1-aM&list=PLmA-1xX7IuzB9_Ftp0pLFIVsqBOr0XrUI Запись]] || [[https://drive.google.com/drive/folders/12WxBHcAAvkqsXeNTZxEvREUliFosE7N9?usp=drive_link Папка с ноутбуком, скриптами и данными]] Дистилляция, квантизация, прунинг || 07.06.23 || [https://youtu.be/Jc-wbLCHtns Лекция (Ильдус)] || | | style="background:#eaecf0;" | '''8''' [[https://www.youtube.com/watch?v=YNmafNf1-aM&list=PLmA-1xX7IuzB9_Ftp0pLFIVsqBOr0XrUI Запись]] || [[https://drive.google.com/drive/folders/12WxBHcAAvkqsXeNTZxEvREUliFosE7N9?usp=drive_link Папка с ноутбуком, скриптами и данными]] Дистилляция, квантизация, прунинг || 07.06.23 || [https://youtu.be/Jc-wbLCHtns Лекция (Ильдус)] || | ||
− | |||
− | |||
|- | |- | ||
| style="background:#eaecf0;" | '''9''' [[https://www.youtube.com/watch?v=HJ0eksYQxrc&list=PLmA-1xX7IuzB9_Ftp0pLFIVsqBOr0XrUI Запись]] || [[https://colab.research.google.com/drive/1x08lOROtbePfECOos5jj5tdJdX3WMRuq?usp=sharing Ноутбук]] Трансформеры 1 || 06.09.23 || [https://www.youtube.com/watch?v=wLUJVRqzEyM Лекция (Алексей Биршерт)] || Статьи [http://jalammar.github.io/illustrated-transformer/ "The Illustrated Transformer"] и [https://jalammar.github.io/visualizing-neural-machine-translation-mechanics-of-seq2seq-models-with-attention/ Visualizing A Neural Machine Translation Model (Mechanics of Seq2seq Models With Attention)], Jay Alammar | | style="background:#eaecf0;" | '''9''' [[https://www.youtube.com/watch?v=HJ0eksYQxrc&list=PLmA-1xX7IuzB9_Ftp0pLFIVsqBOr0XrUI Запись]] || [[https://colab.research.google.com/drive/1x08lOROtbePfECOos5jj5tdJdX3WMRuq?usp=sharing Ноутбук]] Трансформеры 1 || 06.09.23 || [https://www.youtube.com/watch?v=wLUJVRqzEyM Лекция (Алексей Биршерт)] || Статьи [http://jalammar.github.io/illustrated-transformer/ "The Illustrated Transformer"] и [https://jalammar.github.io/visualizing-neural-machine-translation-mechanics-of-seq2seq-models-with-attention/ Visualizing A Neural Machine Translation Model (Mechanics of Seq2seq Models With Attention)], Jay Alammar | ||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
|- | |- | ||
|} | |} | ||
==Формула оценивания== | ==Формула оценивания== | ||
− | Оценка | + | Оценка = 0.15*О<sub>тесты</sub> + 0.25*О<sub>экзамен</sub> + 0.6*О<sub>ДЗ</sub> |
− | + | ||
− | + | ||
== Домашние задания == | == Домашние задания == | ||
− | <strike>Инвайт в Anytask: '' | + | <strike>Инвайт в Anytask: ''...''</strike> |
− | # Полносвязные нейронные сети <br/> Часть 1 "Автоматическое дифференцирование" (5 бонусных баллов)| [[https://github.com/isadrtdinov/intro-to-dl-hse/tree/2022-2023/homeworks-small/shw-01-mlp Материалы]] <br/> Часть 2 "Полносвязные нейронные сети" (основная, 10 баллов) | [[https://github.com/isadrtdinov/intro-to-dl-hse/blob/2022-2023/homeworks-small/shw-01-mlp-light.ipynb Ноутбук]] <br/> '''Дедлайн: | + | # Полносвязные нейронные сети <br/> Часть 1 "Автоматическое дифференцирование" (5 бонусных баллов)| [[https://github.com/isadrtdinov/intro-to-dl-hse/tree/2022-2023/homeworks-small/shw-01-mlp Материалы]] <br/> Часть 2 "Полносвязные нейронные сети" (основная, 10 баллов) | [[https://github.com/isadrtdinov/intro-to-dl-hse/blob/2022-2023/homeworks-small/shw-01-mlp-light.ipynb Ноутбук]] <br/> '''Дедлайн: ...''' |
− | # Свёрточные нейронные сети | [[https://github.com/isadrtdinov/intro-to-dl-hse/blob/2022-2023/homeworks-small/shw-02-cnn.ipynb Ноутбук]] | '''Дедлайн: | + | # Свёрточные нейронные сети | [[https://github.com/isadrtdinov/intro-to-dl-hse/blob/2022-2023/homeworks-small/shw-02-cnn.ipynb Ноутбук]] | '''Дедлайн: ...''' |
− | + | # Рекуррентные нейронные сети | [https://drive.google.com/drive/folders/1cB7C0MlqRU-LdYsASP2Uy_gD-kbwx0Fg?usp=drive_link Языковые модели (RNN, LSTM)] | '''Дедлайн: ...''' | |
− | + | ||
− | + | ||
− | + | ||
− | + | ||
− | + | ||
− | + | ||
− | + | ||
− | + | ||
== Тесты и неоцениваемые теоретические ДЗ == | == Тесты и неоцениваемые теоретические ДЗ == | ||
Строка 102: | Строка 78: | ||
# [https://docs.google.com/forms/d/e/1FAIpQLSciENvCmNFJOusYOQzrP86gNDjOsEF4S-WaE72YLQWV4FiU-w/viewform?usp=sf_link Векторные представления текстов. RNN, LSTM], выдан 09.06.23, '''дедлайн - 13.06.23 (Вт) 23:59 GMT+3''', ''досдать можно со штрафом в 2 балла до 20.06'' | # [https://docs.google.com/forms/d/e/1FAIpQLSciENvCmNFJOusYOQzrP86gNDjOsEF4S-WaE72YLQWV4FiU-w/viewform?usp=sf_link Векторные представления текстов. RNN, LSTM], выдан 09.06.23, '''дедлайн - 13.06.23 (Вт) 23:59 GMT+3''', ''досдать можно со штрафом в 2 балла до 20.06'' | ||
# [https://forms.gle/HrU5gZhfox1pGMi5A Трансформеры и BERT], '''дедлайн: 30.09.23 (Сб), 23:59 (МСК)'''<br/> | # [https://forms.gle/HrU5gZhfox1pGMi5A Трансформеры и BERT], '''дедлайн: 30.09.23 (Сб), 23:59 (МСК)'''<br/> | ||
− | |||
− | |||
− | |||
− | |||
* <small>[https://github.com/isadrtdinov/intro-to-dl-hse/blob/2022-2023/homeworks-theory/thw-01-mlp.pdf Теоретическое ДЗ-1] "Полносвязные НС" (не оценивается)</small> | * <small>[https://github.com/isadrtdinov/intro-to-dl-hse/blob/2022-2023/homeworks-theory/thw-01-mlp.pdf Теоретическое ДЗ-1] "Полносвязные НС" (не оценивается)</small> |
Версия 20:05, 2 апреля 2024
Содержание
О курсе
Занятия проводятся в [... Zoom] 'по ...
Контакты
Чат курса в TG: [... channel link]
Преподаватель: Садртдинов Ильдус Рустемович
Ассистенты | Контакты |
---|---|
Имя Фамилия | [телеграм] |
Имя Фамилия | [телеграм] |
Имя Фамилия | [телеграм] |
Материалы курса
Ссылка на плейлист курса на YouTube: [...]
Ссылка на GitHub с материалами курса: GitHub (ПМИ)
Ссылка на GDrive c заполненными семинарскими ноутбуками: GDrive
Занятие | Тема | Дата | Материалы для самоподготовки к семинарам | Дополнительные материалы |
---|---|---|---|---|
1 [Запись] | [Ноутбук] Полносвязные нейронные сети | 12.04.23 |
Лекции Е. Соколова с ИАДа: 1 и 2 (до свёрток) или/и Лекция Ильдуса про полносвязные нейросети. Почитать можно раздел 5 "Введение в глубинное обучение" в учебнике ШАДа |
|
2 [Запись] | [Ноутбук] Полносвязные нейронные сети (продолжение) | 19.04.23 | Лекция "Оптимизации нейронных сетей" | |
3 [Запись] | [Ноутбук] Свёрточные нейронные сети | 26.04.23 |
Лекции Е. Соколова: 1 (с 54:30) и 2 или/и Лекция Ильдуса (с 40:50) |
|
4 [Запись] | [Ноутбук] Свёрточные нейронные сети (продолжение) | 10.05.23 | Лекция Ильдуса, Лекции Е. Соколова: [1] (с 46:00) и [2] (до 53:30) | Данные к семинару |
5 [Запись] | Ноутбук Сегментация и детекция | 19.05.23 | Лекции Соколова [1] (с 53:50) и [2], Лекция Ильдуса | |
6 [Запись] | [Ноутбук] Нейросетевые векторные представления слов | 26.05.23 | Лекция c ИАДа (читает Антон Семенкин), Лекция Ильдуса | |
7 [Запись] | [Ноутбук] Рекуррентные нейронные сети, LSTM, архитектура Decoder-Encoder | 31.05.23 | Лекция Е. Соколова, Лекция Ильдуса | Данные к первой части семинара |
8 [Запись] | [Папка с ноутбуком, скриптами и данными] Дистилляция, квантизация, прунинг | 07.06.23 | Лекция (Ильдус) | |
9 [Запись] | [Ноутбук] Трансформеры 1 | 06.09.23 | Лекция (Алексей Биршерт) | Статьи "The Illustrated Transformer" и Visualizing A Neural Machine Translation Model (Mechanics of Seq2seq Models With Attention), Jay Alammar |
Формула оценивания
Оценка = 0.15*Отесты + 0.25*Оэкзамен + 0.6*ОДЗ
Домашние задания
Инвайт в Anytask: ...
- Полносвязные нейронные сети
Часть 1 "Автоматическое дифференцирование" (5 бонусных баллов)| [Материалы]
Часть 2 "Полносвязные нейронные сети" (основная, 10 баллов) | [Ноутбук]
Дедлайн: ... - Свёрточные нейронные сети | [Ноутбук] | Дедлайн: ...
- Рекуррентные нейронные сети | Языковые модели (RNN, LSTM) | Дедлайн: ...
Тесты и неоцениваемые теоретические ДЗ
Возможны изменения в числе тестов в большую сторону
- "Полносвязные нейронные сети. Введение в pytorch", выдан 27.04.23, дедлайн -
30.04.23 (Вс)02.05.23 (Вт) 20:59 GMT+3 - "Сверточные нейронные сети", выдан 26.06.23, дедлайн - 29.05.23(Пн) 23:59 GMT+3, досдать можно со штрафом в 2 балла до 20.06
- Векторные представления текстов. RNN, LSTM, выдан 09.06.23, дедлайн - 13.06.23 (Вт) 23:59 GMT+3, досдать можно со штрафом в 2 балла до 20.06
- Трансформеры и BERT, дедлайн: 30.09.23 (Сб), 23:59 (МСК)
- Теоретическое ДЗ-1 "Полносвязные НС" (не оценивается)
За решение теоретических ДЗ возможно будут предусмотрены бонусы
Экзамен
...
Литература
- Гудфеллоу Я. − Глубокое обучение
- Christopher M. Bishop - Pattern Recognition and Machine Learning
- Стивенс Э. - PyTorch. Освещая глубокое обучение