Машинное обучение на матфаке 2022 — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
(Семинары)
Строка 122: Строка 122:
 
| Свёрточные нейросети
 
| Свёрточные нейросети
 
| [https://youtu.be/qeLzwi1b_rk Видо лекции], [http://cs231n.github.io/convolutional-networks/  convolutional networks] (англ.)
 
| [https://youtu.be/qeLzwi1b_rk Видо лекции], [http://cs231n.github.io/convolutional-networks/  convolutional networks] (англ.)
 +
|-
 +
| 11.04
 +
| Обработка последовательностей: свёртки и RNN
 +
| [https://youtu.be/3ySXTvZ--LI Видео лекции], [http://colah.github.io/posts/2015-08-Understanding-LSTMs/ пост про RNN и LSTM]
 
|}
 
|}
  

Версия 21:30, 12 апреля 2022

О курсе

Курс читается для студентов факультета математики ВШЭ в 3-4 модулях.

Лектор: Щуров Илья Валерьевич

Новости и объявления

Семинары

Группа Преподаватель Расписание
1 Екатерина Глазкова четверг 10:00 — 11:20, ауд. 318
2 Тимур Петров понедельник 16:20 — 17:40, ауд. 318

Система оценивания

Формула оценки

Результирующая оценка по дисциплине рассчитывается по формуле:

Oитог = 0.2 * Окр + 0.29 * Опрак дз + 0.29 * Отеор дз + 0.22 * Оэкз

Правила вычисления оценок

Оценка за практические/теоретические домашние задания вычисляется как сумма баллов по всем практическим/теоретическим домашним заданиям, переведенная в 10-балльную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, контрольную и экзамен) могут быть не целыми и не округляются. Итоговая оценка округляется по стандартным правилам, оценка вида (k+1/2), где k — целое число округляется вверх.

Правила сдачи заданий

Если вы сдаёте работу позже срока, её оценка умножается на exp(-t / 86400), где t — число секунд, прошедшее с дедлайна. Иными словами, опоздать на пару секунд не страшно, но опоздав на сутки, вы поделите свой результат на e. Сдать после срока можно только один раз, а если вы сдали работу вовремя, досдать после срока какие-либо задачи уже нельзя. Это не касается соревнований: там есть жесткое время окончания соревнования, и после него уже ничего отправить нельзя.

Все письменные работы выполняются самостоятельно. Вам запрещено смотреть в чужие решения (в том числе в чужой код), до тех пор, пока вы не сделали и не сдали эту задачу сами. Это касается решений и кода, написанного вашими однокурсниками, написанного предшествующими поколениями или найденного где-либо ещё. Из этого, в частности, следует, что вам запрещено целенаправленно искать решение вашей задачи в интернете. (Хотя, конечно, вы можете использовать поиск в интернете, чтобы разобраться в том, как работают те или иные инструменты или как сделать конкретное действие, если это действие не является само по себе решением задачи.) Вам также запрещено показывать свои решения другим студентам. При обнаружении плагиата или иных нарушений академической этики оценки за соответствующее домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат.

При наличии уважительной причины (предоставляется справка, подтвержденная учебным офисом) вес контрольной работы может быть перенесён на экзамен; также может быть перенесён дедлайн по домашнему заданию (за исключением соревнований). Для согласования обращаться к лектору.

Теоретические домашние задания можно сдавать в виде Jupyter Notebook (.ipynb; там поддерживаются формулы в LaTeX), в виде отдельных PDF-документов, набранных в LaTeX или с помощью любого другого инструмента, поддерживающего вёрстку формул, либо в виде аккуратного скана аккуратно написанного от руки решения, также в формате PDF. В случае, если решение написано неаккуратно с точки зрения проверяющего, работа может получить штраф в 5% от оценки, либо, если работа вызывает существенные трудности для чтения, отправлена на доработку без продления срока сдачи.

Материалы

Семинары

Номер Дата Тема Материалы семинара Видео
1 10.01 / 13.01 Введение в numpy, pandas, matplotlib Ноутбук семинар Сони Дымченко с прошлого года
2 18.01 / 20.01 KNN Ноутбук семинар Кати
3 24.01 / 27.01 KNN из коробки, кросс-валидация Ноутбук семинар Кати
4 31.01 / 3.02 Линейная регрессия, градиентный спуск, коэффициент детерминации Ноутбук семинар Тимура, семинар Кати
5 07.02 / 10.02 Линейная регрессия, отбор признаков, регуляризация Ноутбук семинар Тимура, семинар Кати
6 14.02 / 17.02 Логистическая регрессия, метрики классификации Ноутбук семинар Руслана Хайдурова с прошлого года
7 21.02 / 24.02 Работа с текстами Ноутбук семинар Кати
8 28.02 / 03.03 Решающие деревья Ноутбук Ноутбук (solved) семинар Тимура
9 07.03 / 11.03 Случайный лес Ноутбук семинар Тимура, семинар Кати
10 14.03 / 18.03 Градиентный бустинг Ноутбукsolved семинар Кати
11 21.03 / 25.03 Введение в pytorch Ноутбук семинар Кати
12 04.04 / 07.04 Работа с изображениями, сверточные сети, регуляризация, fine-tuning Ноутбук, solved семинар Кати
13 11.04 / 14.04 RNN Ноутбук Solved

Лекции

Дата Тема Ссылки
14.01 Задачи и методы машинного обучения Видео прошлого года
17.01 Оценка качества предсказаний предиктивных моделей. Введение в статистическую теорию принятия решений. Метод k ближайших соседей. Конспект, видео прошлого года. Дополнительные конспекты: об условных вероятностях (англ.), напоминание про теорию вероятностей
24.01 Разложение ошибки на шум, смещение и разброс Конспекты: состоятельность и несмещенность статистических оценок, шум, смещение и разброс, видео лекции
31.01 Линейная регрессия, метод наименьших квадратов Конспект, видео лекции
07.02 Ещё о линейной регрессии: дисперсия МНК-оценки Конспект, видео лекции
14.02 Ещё о линейной регрессии: регуляризация. Логистическая регрессия Видео лекции, конспекты Е. Соколова: Ещё о линейных регрессиях, логистическая регрессия
21.02 Ещё о логистической регрессии Видео лекции, конспекты Е. Соколова: логистическая регрессия, многоклассовая классификация
28.02 Метод опорных векторов. Решающие деревья Видео лекции, конспекты Е. Соколова: метод опорных векторов (см. часть 2), решающие деревья
7.03 Ансамбли. Случайные леса Видео лекции, конспекты Е. Соколова: решающие леса
14.03 Градиентный бустинг Видео лекции, конспекты Е. Соколова: градиентный бустинг (мы не обсуждали AdaBoost)
21.03 Нейросети Видео лекции, Конспекты Е. Соколова: Графы вычислений и элементы глубинного обучения. Дополнительный материал: теорема об универсальной аппроксимации (англ.)
5.04 Свёрточные нейросети Видо лекции, convolutional networks (англ.)
11.04 Обработка последовательностей: свёртки и RNN Видео лекции, пост про RNN и LSTM

Домашние задания

  • ДЗ№1 (теоретическое), срок сдачи 25 января, 23:59:59, сдавать сюда.
  • ДЗ№2 (практическое), срок сдачи 23 февраля, 23:59:59, сдавать сюда.

Полезные ссылки