Глубинное обучение-МОиВС-2022 — различия между версиями
Arorlov (обсуждение | вклад) (hw1 fix) |
м (add 'lost' seminar) |
||
Строка 25: | Строка 25: | ||
# К третьему (27.04.22): [https://youtu.be/aSTwlPjJfso?list=PLEwK9wdS5g0qa3PIhR6HBDJD_QnrfP8Ei&t=2665 Lecture 2. CNN-1], [https://www.youtube.com/watch?v=4nKWQno1vG8&list=PLEwK9wdS5g0qa3PIhR6HBDJD_QnrfP8Ei&index=11 Lecture 3. CNN-2], [https://youtu.be/7ljQTZ8HT-A?list=PLEwK9wdS5g0qa3PIhR6HBDJD_QnrfP8Ei&t=3639 Lecture 5. ConvNets Augmentation, Dropouts and Normalization] | # К третьему (27.04.22): [https://youtu.be/aSTwlPjJfso?list=PLEwK9wdS5g0qa3PIhR6HBDJD_QnrfP8Ei&t=2665 Lecture 2. CNN-1], [https://www.youtube.com/watch?v=4nKWQno1vG8&list=PLEwK9wdS5g0qa3PIhR6HBDJD_QnrfP8Ei&index=11 Lecture 3. CNN-2], [https://youtu.be/7ljQTZ8HT-A?list=PLEwK9wdS5g0qa3PIhR6HBDJD_QnrfP8Ei&t=3639 Lecture 5. ConvNets Augmentation, Dropouts and Normalization] | ||
# К четвёртому (11.05.22): [https://www.youtube.com/watch?v=yL0KLqEwfv4&list=PLEwK9wdS5g0qa3PIhR6HBDJD_QnrfP8Ei&index=31 Lecture 6, ConvNets Architectures], [https://www.youtube.com/watch?v=vWl-vlmsomI&list=PLEwK9wdS5g0qa3PIhR6HBDJD_QnrfP8Ei&index=40 Lecture 7. CV tasks], [https://www.youtube.com/watch?v=Z-e_71h1Oew&list=PLEwK9wdS5g0qa3PIhR6HBDJD_QnrfP8Ei&index=41 Lecture 8. CV] | # К четвёртому (11.05.22): [https://www.youtube.com/watch?v=yL0KLqEwfv4&list=PLEwK9wdS5g0qa3PIhR6HBDJD_QnrfP8Ei&index=31 Lecture 6, ConvNets Architectures], [https://www.youtube.com/watch?v=vWl-vlmsomI&list=PLEwK9wdS5g0qa3PIhR6HBDJD_QnrfP8Ei&index=40 Lecture 7. CV tasks], [https://www.youtube.com/watch?v=Z-e_71h1Oew&list=PLEwK9wdS5g0qa3PIhR6HBDJD_QnrfP8Ei&index=41 Lecture 8. CV] | ||
− | # К пятому (19.05.22): [https://www.coursera.org/learn/intro-to-deep-learning/home/week/4 Coursera, Week4. Autoencoders and GANs], [https://www.youtube.com/watch?v=rZufA635dq4 Лекция MIT (дополнительно, если осталось время)], [https://towardsdatascience.com/understanding-variational-autoencoders-vaes-f70510919f73 Хорошая статья по VAE] | + | # К пятому (16.05.22): |
− | # К | + | # К шестому (19.05.22): [https://www.coursera.org/learn/intro-to-deep-learning/home/week/4 Coursera, Week4. Autoencoders and GANs], [https://www.youtube.com/watch?v=rZufA635dq4 Лекция MIT (дополнительно, если осталось время)], [https://towardsdatascience.com/understanding-variational-autoencoders-vaes-f70510919f73 Хорошая статья по VAE] |
− | # К | + | # К седьмому (25.05.22): [https://www.youtube.com/watch?v=_Gnh8Z2Pn_o, Lecture 9.Word Embeddings] |
− | + | # К восьмому (01.06.22): [https://www.youtube.com/watch?v=bAnx1E45rrE&list=PLEwK9wdS5g0qa3PIhR6HBDJD_QnrfP8Ei&index=48, Lecture 10. Recurrent neural networks] | |
=== Материалы по курсу (во время семинаров) === | === Материалы по курсу (во время семинаров) === |
Версия 10:12, 1 июня 2022
Содержание
О курсе
Преподаватель:
Тихонова Мария Ивановна
Семинары
Канал курса в Telegram: Присоединиться к каналу в Телеграм
Чат курса: Присоединиться к чату
Занятия проводятся в Zoom по средам в 18:00: [1]
Все материалы занятий находятся здесь: Ссылка на GitHub-репозиторий курса
Репозиторий с материалами прошлого года: Ссылка на GitHub-репозиторий курса
Материалы к курсу (перед семинарами)
Плейлист курса Е.Соколова "Основы Глубинного обучения": YouTube
- Посмотреть к первому занятию (12.04.22): Lecture 1, Введение, Lecture 2. Backprop, Convolutions
- Ко второму (20.04.22): Всё то же введение от Е. Соколова, Lecture 4. CNNs, Оптимизация в DL
- К третьему (27.04.22): Lecture 2. CNN-1, Lecture 3. CNN-2, Lecture 5. ConvNets Augmentation, Dropouts and Normalization
- К четвёртому (11.05.22): Lecture 6, ConvNets Architectures, Lecture 7. CV tasks, Lecture 8. CV
- К пятому (16.05.22):
- К шестому (19.05.22): Coursera, Week4. Autoencoders and GANs, Лекция MIT (дополнительно, если осталось время), Хорошая статья по VAE
- К седьмому (25.05.22): Lecture 9.Word Embeddings
- К восьмому (01.06.22): Lecture 10. Recurrent neural networks
Материалы по курсу (во время семинаров)
- Занятие 1: Статья про разные методы оптимизации
- Занятие 2: Colab-Ноутбук, Cheatsheet "Torch equivalents of numpy functions"
- Занятие 3: Distill - Latest articles about ML (Clear, Dynamic and Vivid)
- Занятие 4: Подробнейшая статья про Свёртки для CV
- Занятие 5:
- Занятие 6:
- Занятие 7:
Ссылки на видеозаписи занятий
Записи занятий: Записи занятий на YouTube
Расписание
Группа | Ссылка | Преподаватель | Учебный ассистент | Инвайт в anytask |
Время | Zoom | Мария Тихонова | Артем Червяков | PKivb1Q |
Правила выставления оценок
В курсе предусмотрено несколько форм контроля знания:
- Первое обязательное домашнее задание;
- Второе обязательное домашнее задание;
- Третье обязательное домашнее задание.
В каждом модуле оценка выставляется отдельно.
O4_модуль = Х * Обязательное ДЗ №1 + Y * Обязательное ДЗ №2
O5_модуль = Z * Обязательное ДЗ №3
Семинары
Материалы семинаров: GitHub
Домашние задания
Все домашние работы необходимо сдавать в Anytask.
Инвайт для Anytask | PKivb1Q |
Домашнее задание №1 (Обязательное)
Вам предстоит решить домашнее задание по сверточным нейронным сетям (CNN). Ссылка на ноутбук с заданием.
Задание состоит из двух частей: написание сверточной нейронной сети "с нуля" и файнтюнинг предобученной модели.
Части оцениваются совместно - максимум за работу 10 баллов.
Жесткий дедлайн - 26.05 (Чт) 9:00
Домашнее задание №2 (Обязательное)
Крайнее в четвёртом модуле задание