Глубинное обучение-МОиВС-2022 — различия между версиями
м (add competition info) |
м (add hw1 data link) |
||
Строка 80: | Строка 80: | ||
=== Домашнее задание №1 ''(Обязательное)'' === | === Домашнее задание №1 ''(Обязательное)'' === | ||
− | Вам предстоит решить домашнее задание по сверточным нейронным сетям (CNN). [https://github.com/hse-ds/iad-deep-learning/blob/master/2021/homeworks/hw02/hw2.ipynb Ссылка на ноутбук с заданием.] | + | Вам предстоит решить домашнее задание по сверточным нейронным сетям (CNN). [https://github.com/hse-ds/iad-deep-learning/blob/master/2021/homeworks/hw02/hw2.ipynb Ссылка на ноутбук с заданием.], [https://www.dropbox.com/s/ewf7m59iksdezbk/dataset.zip данные] |
Задание состоит из двух частей: написание сверточной нейронной сети "с нуля" и файнтюнинг предобученной модели. | Задание состоит из двух частей: написание сверточной нейронной сети "с нуля" и файнтюнинг предобученной модели. |
Версия 10:22, 1 июня 2022
Содержание
О курсе
Преподаватель:
Тихонова Мария Ивановна
Семинары
Канал курса в Telegram: Присоединиться к каналу в Телеграм
Чат курса: Присоединиться к чату
Занятия проводятся в Zoom по средам в 18:00: [1]
Все материалы занятий находятся здесь: Ссылка на GitHub-репозиторий курса
Репозиторий с материалами прошлого года: Ссылка на GitHub-репозиторий курса
Материалы к курсу (перед семинарами)
Плейлист курса Е.Соколова "Основы Глубинного обучения": YouTube
- Посмотреть к первому занятию (12.04.22): Lecture 1, Введение, Lecture 2. Backprop, Convolutions
- Ко второму (20.04.22): Всё то же введение от Е. Соколова, Lecture 4. CNNs, Оптимизация в DL
- К третьему (27.04.22): Lecture 2. CNN-1, Lecture 3. CNN-2, Lecture 5. ConvNets Augmentation, Dropouts and Normalization
- К четвёртому (11.05.22): Lecture 6, ConvNets Architectures, Lecture 7. CV tasks, Lecture 8. CV
- К пятому (16.05.22):
- К шестому (19.05.22): Coursera, Week4. Autoencoders and GANs, Лекция MIT (дополнительно, если осталось время), Хорошая статья по VAE
- К седьмому (25.05.22): Lecture 9.Word Embeddings
- К восьмому (01.06.22): Lecture 10. Recurrent neural networks
Материалы по курсу (во время семинаров)
- Занятие 1: Статья про разные методы оптимизации
- Занятие 2: Colab-Ноутбук, Cheatsheet "Torch equivalents of numpy functions"
- Занятие 3: Distill - Latest articles about ML (Clear, Dynamic and Vivid)
- Занятие 4: Подробнейшая статья про Свёртки для CV
- Занятие 5:
- Занятие 6:
- Занятие 7: Соревнование по CV от ods.ai
- Занятие 8:
Ссылки на видеозаписи занятий
Записи занятий: Записи занятий на YouTube
Расписание
Группа | Ссылка | Преподаватель | Учебный ассистент | Инвайт в anytask |
Время | Zoom | Мария Тихонова | Артем Червяков | PKivb1Q |
Правила выставления оценок
В курсе предусмотрено несколько форм контроля знания:
- Первое обязательное домашнее задание;
- Второе обязательное домашнее задание;
- Третье обязательное домашнее задание.
В каждом модуле оценка выставляется отдельно.
O4_модуль = Х * Обязательное ДЗ №1 + Y * Обязательное ДЗ №2
O5_модуль = Z * Обязательное ДЗ №3
Семинары
Материалы семинаров: GitHub
Домашние задания
Все домашние работы необходимо сдавать в Anytask.
Инвайт для Anytask | PKivb1Q |
Домашнее задание №1 (Обязательное)
Вам предстоит решить домашнее задание по сверточным нейронным сетям (CNN). Ссылка на ноутбук с заданием., данные
Задание состоит из двух частей: написание сверточной нейронной сети "с нуля" и файнтюнинг предобученной модели.
Части оцениваются совместно - максимум за работу 10 баллов.
Жесткий дедлайн - 26.05 (Чт) 9:00
Домашнее задание №2 (Обязательное)
Крайнее в четвёртом модуле задание
Вся необходимая информация собрана в [репозитории], ссылки для скачивания датасета: [train], [test]
Дедлайн: 23 июня 2022, 9:00