Машинное обучение 1/2023 2024 — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
м (Ekononova переименовал страницу Машинное обучение 1 в Машинное обучение 1/2023 2024: Прошлогодний курс)
 
(не показано 318 промежуточных версии 45 участников)
Строка 8: Строка 8:
  
 
'''Лектор:''' [http://www.hse.ru/staff/esokolov Соколов Евгений Андреевич]
 
'''Лектор:''' [http://www.hse.ru/staff/esokolov Соколов Евгений Андреевич]
 
Лекции проходят по пятницам, 12:10 - 13:30, ауд. 317.
 
  
  
Строка 18: Строка 16:
 
=== Полезные ссылки ===
 
=== Полезные ссылки ===
  
[https://www.hse.ru/ba/ami/courses/219888994.html Карточка курса и программа]
+
[https://www.hse.ru/edu/courses/646510131 Карточка курса и программа]
  
 
[https://github.com/esokolov/ml-course-hse Репозиторий с материалами на GitHub]
 
[https://github.com/esokolov/ml-course-hse Репозиторий с материалами на GitHub]
  
Почта для сдачи домашних заданий (на самом деле задания сдаются в AnyTask, но если он не работает, то присылайте на почту): hse.cs.ml+<номер группы>@gmail.com (например, hse.cs.ml+161@gmail.com)
+
[https://www.youtube.com/watch?v=OBG6EUSRC9g&list=PLEqoHzpnmTfDwuwrFHWVHdr1-qJsfqCUX Видеозаписи лекций 18/19 года]
 +
 
 +
Почта для сдачи домашних заданий (на самом деле задания сдаются в AnyTask, но если он не работает, то присылайте на почту): hse.cs.ml+<номер группы>@gmail.com (например, hse.cs.ml+171@gmail.com)
  
Канал в telegram для объявлений: https://t.me/joinchat/AAAAAEprV-8gsyFBkYbvkg
+
Канал в telegram для объявлений: https://t.me/+8Q3FOPazf-kwOWM6
  
Чат в telegram для обсуждений: https://t.me/joinchat/A5rlQE2eFY0LN0AWcGH3qA
+
Чат в telegram для обсуждений (предназначение чата до конца не ясно, вопросы может быть правильнее задавать в чатах групп): https://t.me/+068EETxxsvYxM2Qy
  
Ссылка на курс в Anytask: https://anytask.org/course/390
+
Ссылка на курс в Anytask: [https://anytask.org/course/1062 Ссылка]
  
[https://docs.google.com/spreadsheets/d/1u832G7b9aRyayoncaKXr7XPD6WisDr85AYRBKSVCMq0/edit?usp=sharing Таблица с оценками]
+
[https://docs.google.com/spreadsheets/d/1SXEMnqS2aKEeZsAEKPk6Lxxmxm1DHONWmofufe0jvmg/edit?usp=sharing Таблица с оценками]
  
 
Оставить отзыв на курс: [https://goo.gl/forms/5CddG0gc75VZvqi52 форма]
 
Оставить отзыв на курс: [https://goo.gl/forms/5CddG0gc75VZvqi52 форма]
  
'''Вопросы''' по курсу можно задавать на почту курса, а также в телеграм лектору (esokolov@) или семинаристу.
+
'''Вопросы''' по курсу можно задавать в телеграм лектору (esokolov@) или семинаристу.
Вопросы по материалам лекций/семинаров и по заданиям лучше всего оформлять в виде [https://github.com/esokolov/ml-course-hse/issues Issue] в [https://github.com/esokolov/ml-course-hse github-репозитории курса].
+
Вопросы по материалам лекций/семинаров и по заданиям лучше всего задавать на [https://github.com/esokolov/ml-course-hse/discussions форуме].
  
 
=== Семинары ===
 
=== Семинары ===
Строка 41: Строка 41:
 
{| class="wikitable"
 
{| class="wikitable"
 
|-
 
|-
! Группа !! Преподаватель !! Учебный ассистент !! Страница !! Расписание
+
! Группа !! Преподаватель !! Ссылка на чат в телеграме !! Код инвайта на энитаск
 
|-
 
|-
| 161 (МОП) || [https://www.hse.ru/org/persons/165212870 Зиннурова Эльвира Альбертовна] || [https://t.me/mryab Рябинин Максим] || || пятница, 10:30 - 11:50, ауд. 503
+
| 211 (МОП) || [https://www.hse.ru/org/persons/225560347 Морозов Никита Витальевич] || || 9SD8UZw
 
|-
 
|-
| 162 (МОП) || [https://www.hse.ru/org/persons/191263008 Неклюдов Кирилл Олегович] || [http://t.me/bazpasha Хрушков Павел] || ||  
+
| 212 (МОП) || [https://www.hse.ru/staff/esokolov Соколов Евгений Андреевич] || || p7xUNm6
 
|-
 
|-
| 163 (АДИС) || [https://t.me/despairazure Кохтев Вадим Михайлович] || [http://t.me/marka_17 Маркович Александр] || || пятница, 10:30 - 11:50, ауд. 400
+
| 213 (МОП) || [Еленик Константин] || || BQJIqvE
 
|-
 
|-
| 164 (АДИС) || [https://www.hse.ru/org/persons/137283751 Атанов Андрей Игоревич] || [http://t.me/liza_s Свитанько Лиза] || ||  
+
| 214 (ТИ) + 217 (АПР) || [Сендерович Александра] || https://t.me/+KZTbPhO6JR9hZjRi || 5QBsIpt
 
|-
 
|-
| 165 (РС) || [https://www.hse.ru/org/persons/209813459 Каюмов Эмиль Марселевич] || [http://t.me/akiiino Попов Никита] || || вторник, 9:00 – 10:20, ауд. 311
+
| 215 (РС) || [Орлов Александр] || https://t.me/+Nwx3IQMQiE82NzQy || H4L7odY
 
|-
 
|-
| 166 (РС) || [https://www.hse.ru/org/persons/192085968 Яшков Даниил Дмитриевич] || [http://t.me/Saigetsu Хайдуров Руслан] || ||  
+
| 216 (РС) || [https://www.hse.ru/org/persons/225544191 Коган Александра] || https://t.me/+d0dSIctKNRg1MzUy || dgZTdtM
 
|-
 
|-
| Магистратура ФТиАД || [https://www.hse.ru/org/persons/191576735 Чиркова Надежда Александровна] || [https://t.me/nbagiyan Багиян Нерсес] ||  ||  
+
| 218 (АДИС) || [Ульянкин Филипп] || || DMyEAZA
 
|-
 
|-
 +
| 2110 (ПР) || [Иванов Семен] || || NkV8Do3
 +
|-
 +
| ФЭН1 || [Багиров Гейдар] || || ZdRjV35
 +
|-
 +
| ФЭН2 || [Баранов Михаил] || || ev5RYXy
 +
|-
 +
| КНАД || [Косакин Даниил] || https://t.me/+Z4WfCB778mI0ZjI6 || AxaC2TP
 
|}
 
|}
  
=== Консультации ===
+
=== Ассистенты ===
 +
 
 +
{| class="wikitable"
 +
|-
 +
! Группа !! Ассистент
 +
|-
 +
| 211 (МОП) || [https://t.me/TheDullestPageOnTelegram Петренко Максим], [https://t.me/tutugarin Ершов Иван]
 +
|-
 +
| 212 (МОП) || [https://t.me/mishlen25 Исаков Михаил], [https://t.me/kemmeritocracy Кеммер Анастасия]
 +
|-
 +
| 213 (МОП) || [https://t.me/kvdmitrieva Дмитриева Екатерина], [https://t.me/@mdeil007 Данил Иванов]
 +
|-
 +
| 214 (ТИ) + 217 (АПР) || [https://t.me/rey_arzhan Аржанцев Андрей], [https://t.me/artem_babak Бабак Артем Юрьевич]
 +
|-
 +
| 215 (РС) || [https://t.me/aiziks Максутова Айза]
 +
|-
 +
| 216 (РС) || [https://t.me/afnastya Афанасьева Анастасия]
 +
|-
 +
| 218 (АДИС) || [https://t.me/elineii Костромина Алина], [https://t.me/dogfew Перепелкин Владимир]
 +
|-
 +
| 2110 (ПР) || [https://t.me/cocosinca Неудачина Ева]
 +
|-
 +
| ФЭН1 || [https://t.me/jeembogod Березовский Валерий], [https://t.me/amsilevich Силевич Артем]
 +
|-
 +
| ФЭН2 || [https://t.me/manukyan077 Манукян Айк]
 +
|-
 +
| КНАД || [https://t.me/pauchara0 Петров Олег]
 +
|}
  
 
=== Правила выставления оценок ===
 
=== Правила выставления оценок ===
  
 
В курсе предусмотрено несколько форм контроля знания:
 
В курсе предусмотрено несколько форм контроля знания:
* Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций
+
* Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций и семинаров
 
* Практические домашние работы на Python
 
* Практические домашние работы на Python
* Контрольная работа
+
* Письменная контрольная работа
 
* Письменный экзамен
 
* Письменный экзамен
  
 
Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:
 
Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:
  
O<sub>итоговая</sub> = 0.7 * O<sub>накопленная</sub> + 0.3 * О<sub>экз</sub>
+
Итог = Округление(0.15 * ПР + 0.4 * ДЗ + 0.15 * КР + 0.3 * Э)
  
Оценка за работу в семестре вычисляется по формуле
+
ПР — средняя оценка за самостоятельные работы на семинарах
  
O<sub>накопленная</sub> = 0.2 * O<sub>самостоятельные</sub> + 0.6 * О<sub>практические дз</sub> + 0.2 * О<sub>контрольная</sub>
+
ДЗ — средняя оценка за практические домашние работы на Python
  
Оценка за самостоятельную работу вычисляется как среднее по всем самостоятельным, оценка за домашнюю работу — как среднее по всем практическим заданиям и соревнованиям.
+
КР — оценка за контрольную работу
  
Накопленная, экзаменационная и итоговая оценки округляются арифметически.
+
Э — оценка за экзамен
 +
 
 +
Округление арифметическое.
  
 
=== Правила сдачи заданий ===
 
=== Правила сдачи заданий ===
  
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются.
+
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются. Даже при опоздании на одну секунду. Сдавайте заранее.
 +
 
 +
Два раза студент может сдать домашнее задание после мягкого дедлайна (но до жёсткого) без штрафов.
  
 
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.
 
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.
  
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок). Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.
+
Использовать генеративные модели (ChatGPT, GitHub Copilot и прочие) можно. Но если вы их применяете, то обязательно нужно сделать следующее:
  
== Лекции ==
+
1. Указывать, какие части ДЗ выполнены с использованием генеративных моделей.
  
'''Лекция 1''' (3 сентября). Введение в машинное обучение. Основные термины, постановки задач и примеры применения. [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture01-intro.pdf Конспект]]
+
2. Добавить в конец вашего решения небольшой раздел с рефлексией, где вы описываете, как подбирали промпты, какие заметили преимущества и недостатки генеративных моделей при выполнении данного ДЗ.
  
'''Лекция 2''' (14 сентября). Линейная регрессия. Метрики качества регрессии. Градиентный спуск и способы оценивания градиента. Продвинутые градиентные методы. [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture02-linregr.pdf Конспект]]
+
Также мы в любом случае оставляем за собой право пригласить студента для защиты своего ДЗ, если заподозрим плагиат.
  
'''Лекция 3''' (21 сентября). Переобучение и регуляризация. Разреженные линейные модели. Квантильная регрессия. Подготовка признаков. [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture03-linregr.pdf Конспект]]
+
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.
  
'''Лекция 4''' (28 сентября). Линейная классификация. Отступ и верхние оценки на пороговую функцию потерь. Метрики качества классификации. [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture04-linclass.pdf Конспект]]
+
== Лекции ==
  
'''Лекция 5''' (1 октября). Линейная классификация. Логистическая регрессия и оценки вероятности классов. Метод опорных векторов. [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture05-linclass.pdf Конспект]]
+
Ко всем конспектам на GitHub есть исходники. Исправления и дополнения всячески приветствуются!
  
'''Лекция 6''' (12 октября). Многоклассовая классификация, сведение к бинарным задачам. Многоклассовая логистическая регрессия. Классификация с пересекающимися классами. Метрики качества многоклассовой классификации. Категориальные признаки: хэширование и счётчики. [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture06-linclass.pdf Конспект]]
+
'''Лекция 1''' (8 сентября). Введение в машинное обучение. Основные термины, постановки задач и примеры применения. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/lecture-notes/lecture01-intro.pdf Конспект]] [[https://youtu.be/n_2_eq6Y-c8 Запись лекции]]
  
'''Лекция 7''' (19 октября). Решающие деревья. Жадный алгоритм построения. Выбор лучшего разбиения с помощью критерия информативности. Критерии информативности для регрессии и классификации. Учёт пропусков в деревьях. Решающие деревья и категориальные признаки. [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture07-trees.pdf Конспект]]
+
'''Лекция 2''' (15 сентября). Линейная регрессия. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/lecture-notes/lecture02-linregr.pdf Конспект]] [[https://youtu.be/n69ER7RJLys Запись лекции]]
  
'''Лекция 8''' (2 ноября). Бутстрап и бэггинг. Разложение ошибки на смещение и разброс (bias-variance decomposition). Случайный лес. Вычисление расстояний с помощью лесов. [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture08-ensembles.pdf Конспект]]
+
'''Лекция 3''' (22 сентября). Обобщающая способность, градиентные методы. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/lecture-notes/lecture03-linregr.pdf Конспект]] [[https://youtu.be/43sSNZPHBxI Запись лекции]]
  
'''Лекция 9''' (16 ноября). Градиентный бустинг. Регуляризация. Особенности бустинга над деревьями. Взвешивание объектов в градиентном бустинге. [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture09-ensembles.pdf Конспект]]
+
'''Лекция 4''' (29 сентября). Модификации градиентного спуска, регуляризация. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/lecture-notes/lecture04-linregr.pdf Конспект]] [[https://youtu.be/AJYcKzlFg1A Запись лекции]]
  
'''Лекция 10''' (23 ноября). Оптимизация второго порядка в градиентном бустинге. Регуляризация деревьев. XGBoost. Стекинг.
+
'''Лекция 5''' (6 октября). Регуляризация, разреженные модели, линейная классификация. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/lecture-notes/lecture05-linclass.pdf Конспект]] [[https://youtu.be/TXZsyWq_WKo Запись лекции]]
  
'''Лекция 11''' (30 ноября). Графы вычислений, их обучение и метод обратного распространения ошибки. Полносвязные, свёрточные и рекуррентные слои. Возможности аппроксимации.
+
'''Лекция 6''' (13 октября). Метрики качества классификации. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/lecture-notes/lecture06-linclass.pdf Конспект]] [[https://youtu.be/jNebp1-XxMw Запись лекции]]
  
'''Лекция 12''' (7 ноября). Обучение без учителя. Кластеризация: метрики качества, K-Means, иерархический и графовый подходы. Визуализация, t-SNE. Обучение представлений. word2vec.
+
'''Лекция 7''' (20 октября). Логистическая регрессия. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/lecture-notes/lecture06-linclass.pdf Конспект]] [[https://www.youtube.com/watch?v=6FAXXihxbRQ Запись лекции]]
  
'''Лекция 13''' (14 декабря). Метод главных компонент, его связь с матричными разложениями. Рекомендательные системы: постановка задачи, коллаборативные методы, матричные разложения, контентные методы.
+
'''Лекция 8''' (27 октября). SVM, многоклассовая классификация. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/lecture-notes/lecture07-linclass.pdf Конспект]] [[https://www.youtube.com/watch?v=lTmBBppJGmM Запись лекции]]
  
== Семинары ==
+
'''Лекция 9''' (3 ноября). Решающие деревья. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/lecture-notes/lecture08-trees.pdf Конспект]] [[https://youtu.be/5wvbnQbRS-E Запись лекции]]
  
'''Семинар 1.''' [https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/seminars/sem01-intro.ipynb Ноутбук].
+
'''Лекция 10''' (10 ноября). Решающие деревья, разложение ошибки на смещение и разброс. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/lecture-notes/lecture09-ensembles.pdf Конспект]] [[https://youtu.be/MUSQhD9TLUw Запись лекции]]
  
'''Семинар 2.''' [https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/seminars/sem02-sklearn.ipynb Ноутбук].
+
'''Лекция 11''' (17 ноября). Бэггинг, градиентный бустинг. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/lecture-notes/lecture10-ensembles.pdf Конспект]] [[https://youtu.be/UxWTb1XDh4c Запись лекции]]
  
'''Семинар 3.''' [https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/seminars/sem03-linregr.pdf Конспект], [https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/seminars/sem03-linregr.ipynb ноутбук].
+
'''Лекция 12''' (24 ноября). Градиентный бустинг. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/lecture-notes/lecture11-ensembles.pdf Конспект]] [[https://www.youtube.com/watch?v=pDxkheswP0w Запись лекции]]
  
'''Семинар 4.''' [https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/seminars/sem04-linregr.pdf Конспект].
+
'''Лекция 13''' (15 декабря). Градиентный бустинг. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/lecture-notes/lecture11-ensembles.pdf Конспект]] [[https://youtu.be/zfJ_GFeLGJc Запись лекции]]
  
'''Семинар 5.''' [https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/seminars/sem05-linclass-metrics.pdf Конспект].
+
== Семинары ==
  
'''Семинар 6.''' [https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/seminars/sem06.pdf Конспект], [https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/seminars/sem06.ipynb ноутбук].
+
'''Семинар 1'''. pandas. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem01-pandas.ipynb Ноутбук]]
  
'''Семинар 7.''' [https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/seminars/sem07-trees.ipynb Ноутбук].
+
'''Семинар 2'''. sklearn и линейная регрессия. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem02-sklearn-linregr.ipynb Ноутбук]]
  
'''Семинар 8.''' [https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/seminars/sem08-bvd.pdf Конспект].
+
'''Семинар 3'''. Матрично-векторное диффернцирование. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem03-vector-diff.pdf Конспект]]
  
== Практические задания ==
+
'''Семинар 4'''. Работа с данными и признаками. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem04-features.ipynb Ноутбук]]
  
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются. В течение семестра каждый студент может не более 2 раз сдать задание после жёсткого дедлайна.  
+
'''Семинар 5'''. Метрики классификации. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem05-linclass-metrics.pdf Конспект]]
  
'''Задание 1.''' Работа с Pandas и Matplotlib.
+
'''Семинар 6'''. Калибровка вероятностей. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem06-calibration.ipynb Ноутбук]][[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem06-probs-quantile.pdf Конспект]]
+
Мягкий дедлайн: 07:59 15.09.2018.  
+
  
Жесткий дедлайн: 23:59 16.09.2018.
+
'''Семинар 7'''. Решающие деревья. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem07-trees.ipynb Ноутбук]][[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem07-trees.pdf Конспект]]
  
[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/homeworks-practice/homework-practice-01.ipynb Github].
+
'''Семинар 8'''. Разложение ошибки на смещение и разброс. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem08-bvd.pdf Конспект]]
  
'''Задание 2.''' Numpy. Линейная регрессия.
+
'''Семинар 9'''. Градиентный бустинг. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem09-gbm-part1.pdf Конспект]]
  
Дата выдачи: 17.09.2018
+
'''Семинар 10'''. Виды градиентного бустинга: XGB, LightGBM, CatBoost. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem10-gbm.pdf Конспект]]
  
Мягкий дедлайн:  2:59MSK 24.09.2018
+
'''Семинар 11'''. Кластеризация. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem11_clustering.ipynb Ноутбук]]
  
Жесткий дедлайн: 23:59MSK 26.09.2018.
+
'''Семинар 12'''. Методы понижения размерности: PCE, tSNE. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem12-pca.pdf Конспект]][[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem12_pca_tsne.ipynb Ноутбук]]
  
[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/homeworks-practice/homework-practice-02.ipynb Условие],
+
== Практические задания ==
[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/homeworks-practice/homework-practice-02-templates.zip архив с шаблонами],
+
[https://contest.yandex.ru/contest/9148/enter/ соревнование в Яндекс.Контесте],
+
[https://official.contest.yandex.ru/contest/9148/enter/ альтернативная ссылка на соревнование в Яндекс.Контесте].
+
  
'''Задание 3.''' Регуляризация. Градиентный спуск.
+
'''Задание 1.''' Pandas и распределение студентов ПМИ по элективам.
 +
 +
Мягкий дедлайн: 23:59 02.10.2023
  
Дата выдачи: 22.09.2018
+
Жесткий дедлайн: 23:59 06.10.2023
  
Мягкий дедлайн: 7:59MSK 02.10.2018
+
[[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/homeworks-practice/homework-practice-01-pandas.ipynb Ноутбук с заданием]]
  
Жесткий дедлайн: 23:59MSK 03.10.2018.
 
  
[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/homeworks-practice/homework-practice-03.ipynb Условие],
+
'''Задание 2.''' Exploratory Data Analysis и линейная регрессия.
[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/homeworks-practice/data/homework-practice-03-data.csv данные],
+
[https://contest.yandex.ru/contest/9247 соревнование в Яндекс.Контесте],
+
[https://official.contest.yandex.ru/contest/9247 альтернативная ссылка на соревнование в Яндекс.Контесте].
+
  
'''Задание 4.''' Калибровка вероятностей, обработка категориальных признаков.
+
Мягкий дедлайн: 23:59 18.10.2023
  
Дата выдачи: 12.10.2018
+
Жесткий дедлайн: 23:59 22.10.2023
  
Мягкий дедлайн: 7:59MSK 20.10.2018
+
[[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/homeworks-practice/homework-practice-02-linregr.ipynb Ноутбук с заданием]]
  
Жесткий дедлайн: 23:59MSK 21.10.2018.
 
  
[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/homeworks-practice/homework-practice-04.ipynb Условие]
+
'''Задание 3.''' Градиентный спуск и линейная регрессия.
  
 +
Мягкий дедлайн: 23:59 08.11.2023
  
'''Задание 5.''' Решающие деревья.
+
Жесткий дедлайн: 23:59 12.11.2023
  
Дата выдачи: 08.11.2018
+
[[https://github.com/esokolov/ml-course-hse/tree/master/2023-fall/homeworks-practice/homework-practice-03-gd Файлы]]
  
Мягкий дедлайн:  7:59MSK 18.11.2018
 
  
Жесткий дедлайн: 23:59MSK 19.11.2018.
+
'''Задание 4.''' Классификация и калибровка вероятностей.
  
[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/homeworks-practice/homework-practice-05/homework-practice-05.ipynb Условие]
+
Мягкий дедлайн: 23:59 22.11.2023
  
'''Задание 6.''' Разложение ошибки на смещение и разброс.
+
Жесткий дедлайн: 23:59 26.11.2023
  
Дата выдачи: 20.11.2018
+
[[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/homeworks-practice/homework-practice-04-linclass.ipynb Ноутбук с заданием]]
  
Мягкий дедлайн: 6:00MSK 27.11.2018
 
  
Жесткий дедлайн: 23:59MSK 29.11.2018
+
'''Задание 5.''' Решающие деревья.
  
[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/homeworks-practice/homework-practice-06.ipynb Условие]
+
Мягкий дедлайн: 23:59 12.12.2023
  
== Соревнования ==
+
Жесткий дедлайн: 23:59 14.12.2023
  
===Правила участия и оценивания===
+
[[https://github.com/esokolov/ml-course-hse/tree/master/2023-fall/homeworks-practice/homework-practice-05-trees Файлы]]
В соревновании по анализу данных вам предлагается по имеющимся данным решить некоторую задачу, оптимизируя указанную метрику, и отправить ответы для заданного тестового множества. Максимальное количество посылок в сутки ограничено (как правило, разрешается сделать 2 посылки), ближе к концу соревнования вам будем необходимо выбрать 2 посылки, которые вы считаете лучшими. Тестовые данные делятся на публичные и приватные в некотором соотношении, на основе которых строятся публичный и приватный лидерборды соответственно, при этом публичный лидерборд доступен в течение всего соревнования, а приватный строится после его окончания для выбранных вами посылок.
+
  
В лидербордах каждого из соревнований присутствуют несколько базовых решений (бейзлайнов), каждое из которых соответствует определённой оценке. Например, для получения оценки не ниже 8 баллов необходимо, чтобы ваше решение на '''приватном''' лидерборде оказалось лучше соответствующего бейзлайна. Далее для студента, преодолевшего бейзлайн на N_1 баллов, но не преодолевшего бейзлайн на N_2 балла, итоговая оценка за соревнование рассчитывается по равномерной сетке среди всех таких студентов в зависимости от места в приватном лидерборде среди них; если быть точными, то по следующей формуле:
+
== Теоретические домашние задания ==
  
N_2 - (N_2 - N_1) * i  / M,
+
'''Теоретическое ДЗ 1.''' Линейные модели. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/homeworks-theory/homework-theory-01-linear-models.pdf Задания]]
  
где M — количество студентов (из всех студентов, изучающих курс), преодолевших бейзлайн на N_1 баллов, но не преодолевших бейзлайн на N_2 балла;
+
'''Теоретическое ДЗ 2.''' Матрично-векторное дифференцирование и градиентный спуск. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/homeworks-theory/homework-theory-02-derivatives.pdf Задания]]
  
i — место (начиная с 1) студента в приватном лидерборде среди всех таких студентов.  
+
'''Теоретическое ДЗ 3.1.''' SVM и логистическая регрессия. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/homeworks-theory/homework-theory-03_part1-logreg-svm.pdf Задания]]
  
Единственное исключение из формулы — студенты, преодолевшие самый сильный бейзлайн, получают прибавку 1/M к своей оценке.
+
'''Теоретическое ДЗ 3.2.''' Метрики классификации. [[https://github.com/esokolov/ml-course-hse/blob/master/2023-fall/homeworks-theory/homework-theory-03_part2-clf-metrics.pdf Задания]]
  
Чтобы вас не пропустили при проверке решений соревнования, '''необходимо''' использовать следующий формат для имени команды (вкладка Team):
+
== Бонусы за соревнования ==
  
«Имя Фамилия номер_группы»
+
За успешное участие в соревнованиях по анализу данных могут быть выставлены бонусные баллы, которые можно прибавить к оценке за любое практическое или теоретическое домашнее задание, а также за самостоятельную работу. Под успешным участием понимается попадание в топ-10% мест; если соревнование особо сложное и крупное, может рассматриваться и попадание в топ-20% мест. Конкретное число баллов определяется преподавателями и зависит от сложности соревнования и занятого места. За одно соревнование можно получить не более 5 баллов. Для получения оценки необходимо предоставить краткий отчёт о решении задачи.
 
+
В течение 3 суток после окончания соревнования в соответствующее задание на anytask необходимо прислать код, воспроизводящий ответы для посылки, фигурирующей в приватном лидерборде. При оформлении кода предполагайте, что данные лежат рядом с ним в папке data, а в результате выполнения кода ответы должны быть записаны в файл solution-N-Username.csv, где N — номер соревнования, Username — ваша фамилия. У нас должна быть возможность запустить код и получить те же ответы, что и в вашей посылке, — в частности, это означает, что:
+
  
1. Если вы отправляете файл *.py, мы будем запускать его при помощи команды python *.py в вышеуказанном предположении о местонахождении данных.
+
== Контрольная работа ==
 
+
2. Если вы отправляете ноутбук *.ipynb, мы последовательно запустим все ячейки ноутбука и будем ожидать в результате его работы формирование файла с ответами.
+
  
3. Если вы отправляете код с использованием другого языка программирования, в том же письме направьте нам инструкцию по его запуску с тем, чтобы получить тот же файл с ответами.  
+
Контрольная работа состоится 8 декабря на лекции (в 11:10). Продолжительность — 80 минут.
  
В случае отсутствия кода, воспроизводящего результат, в установленный срок студенту выставляется 0 в качестве оценки за соревнование. Студенты, попавшие в топ-5 согласно приватному лидерборду, смогут получить бонусные баллы, если в течение недели после окончания соревнования пришлют на почту курса отчет о получении решения, фигурирующего в приватном лидерборде. Если не оговорено иное, использовать любые внешние данные в соревнованиях '''запрещено'''.
+
[https://docs.google.com/document/d/1tVLi0Dbkh-PHTvZR4Nn57oJi0Lt6tkkWCaRL32SoQls/edit?usp=sharing Вопросы для подготовки]
  
=== Соревнование 1: House pricing ===
+
[https://github.com/esokolov/ml-course-hse/blob/master/2020-fall/midterm-fall-2020-example.pdf Нулевой вариант]
  
Дата выдачи: 15.09.2018
+
[https://github.com/hse-ds/iad-intro-ds/blob/master/2021/kr/kr2021-var0.pdf Нулевой вариант с майнора ИАД (попроще, но всё равно полезно прорешать)]
 
+
Срок окончания соревнования: 30.09.2018 23:59MSK
+
 
+
Срок отправки кода: 03.10.2018 23:59MSK
+
 
+
Бейзлайны: на 4 и на 8 баллов
+
 
+
[https://www.kaggle.com/t/5a486fc7863548a58cfc1f702690b5c3 Ссылка на участие в соревновании]
+
 
+
=== Соревнование 2: Sentiment analysis ===
+
 
+
Дата выдачи: 15.10.2018
+
 
+
Срок окончания соревнования: 04.11.2018 23:59UTC
+
 
+
Бейзлайны: TBA
+
 
+
[https://www.kaggle.com/t/1e4f5623f3fc4f898cec6b1e21acf6b5 Ссылка на участие в соревновании]
+
 
+
В данном соревновании оцениваются только решения, полученные как результат работы [https://www.kaggle.com/kernels private kernel], к которому дан доступ для просмотра ассистенту вашей группы.
+
 
+
==Теоретические домашние задания==
+
 
+
'''Теоретическое домашнее задание 1''': линейная регрессия [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/homeworks-theory/homework-theory-01-linregr.pdf ссылка]]
+
 
+
'''Теоретическое домашнее задание 2''': линейная классификация [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/homeworks-theory/homework-theory-02-linclass.pdf ссылка]]
+
 
+
'''Теоретическое домашнее задание 3''': решающие деревья [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/homeworks-theory/homework-theory-03-trees.pdf ссылка]]
+
 
+
'''Теоретическое домашнее задание 4''': разложение ошибки на смещение и разброс [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/homeworks-theory/homework-theory-04-bvd.pdf ссылка]]
+
 
+
== Бонусы за соревнования ==
+
 
+
За успешное участие в соревнованиях по анализу данных могут быть выставлены бонусные баллы, которые можно прибавить к оценке за любое практическое или теоретическое домашнее задание, а также за самостоятельную работу. Под успешным участием понимается попадание в топ-10% мест; если соревнование особо сложное и крупное, может рассматриваться и попадание в топ-20% мест. Конкретное число баллов определяется преподавателями и зависит от сложности соревнования и занятого места. За одно соревнование можно получить не более 5 баллов. Для получения оценки необходимо предоставить краткий отчёт о решении задачи.
+
 
+
== Контрольная работа ==
+
  
 
== Экзамен ==
 
== Экзамен ==
Строка 278: Строка 266:
 
== Полезные материалы ==
 
== Полезные материалы ==
 
===Книги===
 
===Книги===
 +
* [https://academy.yandex.ru/handbook/ml Учебник по машинному обучению от ШАД]
 
* Hastie T., Tibshirani R, Friedman J. The Elements of Statistical Learning (2nd edition). Springer, 2009.
 
* Hastie T., Tibshirani R, Friedman J. The Elements of Statistical Learning (2nd edition). Springer, 2009.
 
* Bishop C. M. Pattern Recognition and Machine Learning. Springer, 2006.
 
* Bishop C. M. Pattern Recognition and Machine Learning. Springer, 2006.
Строка 288: Строка 277:
 
* [http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_%28курс_лекций%2C_К.В.Воронцов%29 Курс по машинному обучению К.В. Воронцова]
 
* [http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_%28курс_лекций%2C_К.В.Воронцов%29 Курс по машинному обучению К.В. Воронцова]
 
* [https://yandexdataschool.ru/edu-process/courses/machine-learning Видеозаписи лекций курса Школы Анализа Данных, К.В. Воронцов]
 
* [https://yandexdataschool.ru/edu-process/courses/machine-learning Видеозаписи лекций курса Школы Анализа Данных, К.В. Воронцов]
 +
* [https://www.coursera.org/specializations/machine-learning-from-statistics-to-neural-networks Coursera: Машинное обучение от статистики до нейросетей (специализация)]
 
* [https://www.coursera.org/specializations/machine-learning-data-analysis Coursera: Машинное обучение и анализ данных (специализация)]
 
* [https://www.coursera.org/specializations/machine-learning-data-analysis Coursera: Машинное обучение и анализ данных (специализация)]
 
* [https://www.coursera.org/learn/introduction-machine-learning Coursera: Введение в машинное обучение, К.В. Воронцов]
 
* [https://www.coursera.org/learn/introduction-machine-learning Coursera: Введение в машинное обучение, К.В. Воронцов]
 +
* [https://openedu.ru/course/hse/INTRML/ Введение в машинное обучение (онлайн-курс НИУ ВШЭ)]
  
 
== Страницы предыдущих лет ==
 
== Страницы предыдущих лет ==
 +
[[Машинное_обучение_1/2022_2023 | 2022/2023 учебный год]]
 +
 +
[[Машинное_обучение_1/2021_2022 | 2021/2022 учебный год]]
 +
 +
[[Машинное_обучение_1/2020_2021 | 2020/2021 учебный год]]
 +
 +
[[Машинное_обучение_1/2019_2020 | 2019/2020 учебный год]]
 +
 +
[[Машинное_обучение_1/2018_2019 | 2018/2019 учебный год]]
  
 
[[Машинное_обучение_1/2017_2018 | 2017/2018 учебный год]]
 
[[Машинное_обучение_1/2017_2018 | 2017/2018 учебный год]]
  
 
[[Машинное_обучение_1/2016_2017 | 2016/2017 учебный год]]
 
[[Машинное_обучение_1/2016_2017 | 2016/2017 учебный год]]

Текущая версия на 16:02, 11 сентября 2024

О курсе

borderless

Курс читается для студентов 3-го курса ПМИ ФКН ВШЭ в 1-2 модулях.

Проводится с 2016 года.

Лектор: Соколов Евгений Андреевич




Полезные ссылки

Карточка курса и программа

Репозиторий с материалами на GitHub

Видеозаписи лекций 18/19 года

Почта для сдачи домашних заданий (на самом деле задания сдаются в AnyTask, но если он не работает, то присылайте на почту): hse.cs.ml+<номер группы>@gmail.com (например, hse.cs.ml+171@gmail.com)

Канал в telegram для объявлений: https://t.me/+8Q3FOPazf-kwOWM6

Чат в telegram для обсуждений (предназначение чата до конца не ясно, вопросы может быть правильнее задавать в чатах групп): https://t.me/+068EETxxsvYxM2Qy

Ссылка на курс в Anytask: Ссылка

Таблица с оценками

Оставить отзыв на курс: форма

Вопросы по курсу можно задавать в телеграм лектору (esokolov@) или семинаристу. Вопросы по материалам лекций/семинаров и по заданиям лучше всего задавать на форуме.

Семинары

Группа Преподаватель Ссылка на чат в телеграме Код инвайта на энитаск
211 (МОП) Морозов Никита Витальевич 9SD8UZw
212 (МОП) Соколов Евгений Андреевич p7xUNm6
213 (МОП) [Еленик Константин] BQJIqvE
214 (ТИ) + 217 (АПР) [Сендерович Александра] https://t.me/+KZTbPhO6JR9hZjRi 5QBsIpt
215 (РС) [Орлов Александр] https://t.me/+Nwx3IQMQiE82NzQy H4L7odY
216 (РС) Коган Александра https://t.me/+d0dSIctKNRg1MzUy dgZTdtM
218 (АДИС) [Ульянкин Филипп] DMyEAZA
2110 (ПР) [Иванов Семен] NkV8Do3
ФЭН1 [Багиров Гейдар] ZdRjV35
ФЭН2 [Баранов Михаил] ev5RYXy
КНАД [Косакин Даниил] https://t.me/+Z4WfCB778mI0ZjI6 AxaC2TP

Ассистенты

Группа Ассистент
211 (МОП) Петренко Максим, Ершов Иван
212 (МОП) Исаков Михаил, Кеммер Анастасия
213 (МОП) Дмитриева Екатерина, Данил Иванов
214 (ТИ) + 217 (АПР) Аржанцев Андрей, Бабак Артем Юрьевич
215 (РС) Максутова Айза
216 (РС) Афанасьева Анастасия
218 (АДИС) Костромина Алина, Перепелкин Владимир
2110 (ПР) Неудачина Ева
ФЭН1 Березовский Валерий, Силевич Артем
ФЭН2 Манукян Айк
КНАД Петров Олег

Правила выставления оценок

В курсе предусмотрено несколько форм контроля знания:

  • Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций и семинаров
  • Практические домашние работы на Python
  • Письменная контрольная работа
  • Письменный экзамен

Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:

Итог = Округление(0.15 * ПР + 0.4 * ДЗ + 0.15 * КР + 0.3 * Э)

ПР — средняя оценка за самостоятельные работы на семинарах

ДЗ — средняя оценка за практические домашние работы на Python

КР — оценка за контрольную работу

Э — оценка за экзамен

Округление арифметическое.

Правила сдачи заданий

За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются. Даже при опоздании на одну секунду. Сдавайте заранее.

Два раза студент может сдать домашнее задание после мягкого дедлайна (но до жёсткого) без штрафов.

При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.

Использовать генеративные модели (ChatGPT, GitHub Copilot и прочие) можно. Но если вы их применяете, то обязательно нужно сделать следующее:

1. Указывать, какие части ДЗ выполнены с использованием генеративных моделей.

2. Добавить в конец вашего решения небольшой раздел с рефлексией, где вы описываете, как подбирали промпты, какие заметили преимущества и недостатки генеративных моделей при выполнении данного ДЗ.

Также мы в любом случае оставляем за собой право пригласить студента для защиты своего ДЗ, если заподозрим плагиат.

При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.

Лекции

Ко всем конспектам на GitHub есть исходники. Исправления и дополнения всячески приветствуются!

Лекция 1 (8 сентября). Введение в машинное обучение. Основные термины, постановки задач и примеры применения. [Конспект] [Запись лекции]

Лекция 2 (15 сентября). Линейная регрессия. [Конспект] [Запись лекции]

Лекция 3 (22 сентября). Обобщающая способность, градиентные методы. [Конспект] [Запись лекции]

Лекция 4 (29 сентября). Модификации градиентного спуска, регуляризация. [Конспект] [Запись лекции]

Лекция 5 (6 октября). Регуляризация, разреженные модели, линейная классификация. [Конспект] [Запись лекции]

Лекция 6 (13 октября). Метрики качества классификации. [Конспект] [Запись лекции]

Лекция 7 (20 октября). Логистическая регрессия. [Конспект] [Запись лекции]

Лекция 8 (27 октября). SVM, многоклассовая классификация. [Конспект] [Запись лекции]

Лекция 9 (3 ноября). Решающие деревья. [Конспект] [Запись лекции]

Лекция 10 (10 ноября). Решающие деревья, разложение ошибки на смещение и разброс. [Конспект] [Запись лекции]

Лекция 11 (17 ноября). Бэггинг, градиентный бустинг. [Конспект] [Запись лекции]

Лекция 12 (24 ноября). Градиентный бустинг. [Конспект] [Запись лекции]

Лекция 13 (15 декабря). Градиентный бустинг. [Конспект] [Запись лекции]

Семинары

Семинар 1. pandas. [Ноутбук]

Семинар 2. sklearn и линейная регрессия. [Ноутбук]

Семинар 3. Матрично-векторное диффернцирование. [Конспект]

Семинар 4. Работа с данными и признаками. [Ноутбук]

Семинар 5. Метрики классификации. [Конспект]

Семинар 6. Калибровка вероятностей. [Ноутбук][Конспект]

Семинар 7. Решающие деревья. [Ноутбук][Конспект]

Семинар 8. Разложение ошибки на смещение и разброс. [Конспект]

Семинар 9. Градиентный бустинг. [Конспект]

Семинар 10. Виды градиентного бустинга: XGB, LightGBM, CatBoost. [Конспект]

Семинар 11. Кластеризация. [Ноутбук]

Семинар 12. Методы понижения размерности: PCE, tSNE. [Конспект][Ноутбук]

Практические задания

Задание 1. Pandas и распределение студентов ПМИ по элективам.

Мягкий дедлайн: 23:59 02.10.2023

Жесткий дедлайн: 23:59 06.10.2023

[Ноутбук с заданием]


Задание 2. Exploratory Data Analysis и линейная регрессия.

Мягкий дедлайн: 23:59 18.10.2023

Жесткий дедлайн: 23:59 22.10.2023

[Ноутбук с заданием]


Задание 3. Градиентный спуск и линейная регрессия.

Мягкий дедлайн: 23:59 08.11.2023

Жесткий дедлайн: 23:59 12.11.2023

[Файлы]


Задание 4. Классификация и калибровка вероятностей.

Мягкий дедлайн: 23:59 22.11.2023

Жесткий дедлайн: 23:59 26.11.2023

[Ноутбук с заданием]


Задание 5. Решающие деревья.

Мягкий дедлайн: 23:59 12.12.2023

Жесткий дедлайн: 23:59 14.12.2023

[Файлы]

Теоретические домашние задания

Теоретическое ДЗ 1. Линейные модели. [Задания]

Теоретическое ДЗ 2. Матрично-векторное дифференцирование и градиентный спуск. [Задания]

Теоретическое ДЗ 3.1. SVM и логистическая регрессия. [Задания]

Теоретическое ДЗ 3.2. Метрики классификации. [Задания]

Бонусы за соревнования

За успешное участие в соревнованиях по анализу данных могут быть выставлены бонусные баллы, которые можно прибавить к оценке за любое практическое или теоретическое домашнее задание, а также за самостоятельную работу. Под успешным участием понимается попадание в топ-10% мест; если соревнование особо сложное и крупное, может рассматриваться и попадание в топ-20% мест. Конкретное число баллов определяется преподавателями и зависит от сложности соревнования и занятого места. За одно соревнование можно получить не более 5 баллов. Для получения оценки необходимо предоставить краткий отчёт о решении задачи.

Контрольная работа

Контрольная работа состоится 8 декабря на лекции (в 11:10). Продолжительность — 80 минут.

Вопросы для подготовки

Нулевой вариант

Нулевой вариант с майнора ИАД (попроще, но всё равно полезно прорешать)

Экзамен

Полезные материалы

Книги

  • Учебник по машинному обучению от ШАД
  • Hastie T., Tibshirani R, Friedman J. The Elements of Statistical Learning (2nd edition). Springer, 2009.
  • Bishop C. M. Pattern Recognition and Machine Learning. Springer, 2006.
  • Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.
  • Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.
  • Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.
  • Willi Richert, Luis Pedro Coelho. Building Machine Learning Systems with Python. Packt Publishing, 2013.

Курсы по машинному обучению и анализу данных

Страницы предыдущих лет

2022/2023 учебный год

2021/2022 учебный год

2020/2021 учебный год

2019/2020 учебный год

2018/2019 учебный год

2017/2018 учебный год

2016/2017 учебный год