|
|
Строка 45: |
Строка 45: |
| ! Группа !! Преподаватель | | ! Группа !! Преподаватель |
| |- | | |- |
− | | 191 (МОП) || Хрушков Павел Вадимович
| |
− | |-
| |
− | | 192 (МОП) || [https://www.hse.ru/staff/esokolov Соколов Евгений Андреевич]
| |
− | |-
| |
− | | 193 (МОП) || [https://www.hse.ru/org/persons/208522505 Садртдинов Ильдус Рустемович]
| |
− | |-
| |
− | | 194 (АДИС)|| [https://www.hse.ru/staff/atsvigun Цвигун Аким Олегович]
| |
− | |-
| |
− | | 195 (РС) || Каюмов Эмиль Марселевич
| |
− | |-
| |
− | | 196 (РС) || Шабалин Александр Михайлович
| |
− | |-
| |
− | | 197 (АПР) || [https://www.hse.ru/org/persons/160961881 Глазкова Екатерина Васильевна]
| |
− | |-
| |
− | | 198 (ТИ) || [https://www.hse.ru/org/persons/218009880 Ульянкин Филипп] [https://t.me/ppilif @ppilif]
| |
− | |-
| |
− | | 199 (МИ) || [https://www.hse.ru/org/persons/160995848/ Семенкин Антон Александрович]
| |
− | |-
| |
− | | 1910 (ПР) || [https://www.hse.ru/org/persons/208488544 Биршерт Алексей Дмитриевич]
| |
− | |-
| |
− | | ФЭН || [https://www.hse.ru/org/persons/190889495 Зехов Матвей Сергеевич]
| |
− | |-
| |
− | | Пермь (БИ) || [https://www.hse.ru/org/persons/343120018 Собянин Кирилл Валентинович]
| |
− | |-
| |
− | | Пермь (ПИ) || [https://www.hse.ru/org/persons/343120018 Собянин Кирилл Валентинович]
| |
| |} | | |} |
| | | |
| === Консультации === | | === Консультации === |
| | | |
− | {| class="wikitable"
| |
− | |-
| |
− | ! Учебные ассистенты
| |
− | |-
| |
− | | [https://t.me/treacker Евгений Шабалин - 191]
| |
− | |-
| |
− | | [https://t.me/madn_boi Никита Морозов - 192]
| |
− | |-
| |
− | | [https://t.me/artiloid Щербинин Артём - 193]
| |
− | |-
| |
− | | [https://t.me/sibsonya Сибагатова Софья - 193]
| |
− | |-
| |
− | | [https://t.me/khaykingleb Хайкин Глеб - 194]
| |
− | |-
| |
− | | [https://t.me/sol_arch Никита Андреев - 195]
| |
− | |-
| |
− | | [https://t.me/sabinadayanova Сабина Даянова - 195]
| |
− | |-
| |
− | | [https://t.me/ainmukh Айнур Мухамбетова - 196]
| |
− | |-
| |
− | | [https://t.me/daviddramb Драмбян Давид - 198]
| |
− | |-
| |
− | | [https://t.me/fdrose Абрахам Максим - 199]
| |
− | |-
| |
− | | [https://t.me/naumovanast Наумова Настя - 1910]
| |
− | |-
| |
− | | [https://t.me/horror_in_black Коган Саша - 197]
| |
− | |-
| |
− | | [https://t.me/cherepasska Баранов Михаил - ФЭН]
| |
− | |-
| |
− | | [https://t.me/lena_rus_21 Русакова Елена]
| |
− | |}
| |
| | | |
| === Правила выставления оценок === | | === Правила выставления оценок === |
Строка 140: |
Строка 83: |
| | | |
| Ко всем конспектам на GitHub есть исходники. Исправления и дополнения всячески приветствуются! | | Ко всем конспектам на GitHub есть исходники. Исправления и дополнения всячески приветствуются! |
− |
| |
− | '''Лекция 1''' (3 сентября). Введение в машинное обучение. Основные термины, постановки задач и примеры применения. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture01-intro.pdf Конспект]] [[https://youtu.be/HLg4EpeqZP0 Запись лекции]]
| |
− |
| |
− | '''Лекция 2''' (10 сентября). Модель линейной регрессии. Подготовка данных для линейных моделей. Измерение ошибки в задачах регрессии. Устойчивые к выбросам функции потерь. Относительные функции потерь. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture02-linregr.pdf Конспект]] [[https://youtu.be/0YugAdKXfdY Запись лекции]]
| |
− |
| |
− | '''Лекция 3''' (17 сентября). Переобучение. Отложенная выборка и кросс-валидация. Аналитическое решение для линейной регрессии и MSE. Градиентный спуск. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture03-linregr.pdf Конспект]] [[https://youtu.be/Sio_aNIxnaA Запись лекции]]
| |
− |
| |
− | '''Лекция 4''' (24 сентября). Стохастический градиентный спуск. SAG, Momentum, AdaGrad, Adam. Регуляризация линейных моделей. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture04-linregr.pdf Конспект]] [[https://www.youtube.com/watch?v=7ODlUv9W7p4 Запись лекции]]
| |
− |
| |
− | '''Лекция 5''' (1 октября). Разреженные линейные модели. Линейные классификаторы. Обучение линейных классификаторов через верхние оценки на пороговую функцию потерь. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture05-linclass.pdf Конспект]] [[https://www.youtube.com/watch?v=YtOWnaZGh7E Запись лекции]]
| |
− |
| |
− | '''Лекция 6''' (8 октября). Метрики качества классификации. Доля верных ответов. Точность, полнота, F-мера и другие способы усреднения. ROC-кривая и PR-кривая, площади под ними. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture05-linclass.pdf Конспект]] [[https://www.youtube.com/watch?v=mwUrBQoHdQM Запись лекции]]
| |
− |
| |
− | '''Лекция 7''' (15 октября). Оценивание вероятностей. Логистическая регрессия. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture06-linclass.pdf Конспект]] [[https://www.youtube.com/watch?v=2-wWxLeVd1U Запись лекции]]
| |
− |
| |
− | '''Лекция 8''' (29 октября). Метод опорных векторов. Многоклассовая классификация. Метрики качества многоклассовой классификации. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture06-linclass.pdf Конспект по SVM]] [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture07-linclass.pdf Конспект по многоклассовой классификации]] [[https://youtu.be/OsfuADBOCZY Запись лекции]]
| |
− |
| |
− | '''Лекция 9''' (5 ноября). Решающие деревья. Жадный алгоритм обучения дерева. Функционалы качества предикатов. Связь решающих деревьев и линейных моделей. Разложение ошибки на смещение и разброс. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture08-trees.pdf Конспект по деревьям]] [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture09-ensembles.pdf Конспект по BVD]] [[https://youtu.be/biDD-wAZrDQ Запись лекции]]
| |
− |
| |
− | '''Лекция 10''' (12 ноября). Бэггинг и случайные леса. Out-of-bag оценка. Градиентный бустинг. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture09-ensembles.pdf Конспект по бэггингу и RF]] [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture10-ensembles.pdf Конспект по бустингу]] [[https://youtu.be/TGevGT8qbQw Запись лекции]]
| |
− |
| |
− | '''Лекция 11''' (19 ноября). Градиентный бустинг. Сокращение шага. Стохастический градиентный бустинг. Бустинг над деревьями, дообучение прогнозов в листьях. Бустинг второго порядка. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture10-ensembles.pdf Конспект по бустингу]] [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture11-ensembles.pdf Продолжение конспекта по бустингу]] [[https://www.youtube.com/watch?v=pfT2nqR_Q24 Запись лекции]]
| |
− |
| |
− | '''Лекция 12''' (26 ноября). Бустинг второго порядка. Регуляризация деревьев в бустинге. Выбор предикатов под функционал бустинга. Разное. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture11-ensembles.pdf Конспект]] [[https://youtu.be/aoCbsALAdSU Запись лекции]]
| |
− |
| |
− | '''Лекция 13''' (10 декабря). Разбор контрольной работы. Обучение без учителя. Кластеризация. Метрики качества кластеризации. Метод K-Means. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture12-unsupervised.pdf Конспект]] [[https://youtu.be/sh3xKM4OMdw Запись лекции]]
| |
− |
| |
− | '''Лекция 14''' (17 декабря). Кластеризация. Метод DBSCAN. Визуализация и t-SNE. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture12-unsupervised.pdf Конспект]] [[https://youtu.be/U5EGXyp-G2Q Запись лекции]]
| |
| | | |
| == Семинары == | | == Семинары == |
− |
| |
− | '''Семинар 1'''. Типы данных и виды задач машинного обучения [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/seminars/sem01-data.ipynb Ноутбук]]. Библиотека pandas [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/seminars/sem01-pandas.ipynb Ноутбук]].
| |
− |
| |
− | '''Семинар 2'''. Исследование данных. Библиотека scikit-learn. Подготовка данных для линейных моделей. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/seminars/sem02-sklearn-linregr.ipynb Ноутбук]]
| |
− |
| |
− | '''Семинар 3'''. Векторное дифференцирование [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/seminars/sem03-vector-diff.pdf Конспект]]. Градиентный спуск [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/seminars/sem03-gd.ipynb Ноутбук]]. А также: [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/seminars/sem03-numpy.ipynb Ноутбук про numpy для самостоятельного изучения]].
| |
− |
| |
− | '''Семинар 4'''. Обработка данных. Работа с категориальными и текстовыми данными. Mean-target encoding. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/seminars/sem04-features.pdf Конспект]] [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/seminars/sem04-features.ipynb Ноутбук]]
| |
− |
| |
− | '''Семинар 5'''. Метрики качества классификации. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/seminars/sem05-linclass-metrics.pdf Конспект]]
| |
− |
| |
− | '''Семинар 6'''. Оценивание вероятностей классов. Калибровка вероятностей. Квантильная регрессия. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/seminars/sem06-probs-quantile.pdf Конспект]] [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/seminars/sem06-calibration.ipynb Ноутбук]]
| |
− |
| |
− | '''Семинар 7'''. Решающие деревья. Критерии информативности. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/seminars/sem07-trees.pdf Конспект]] [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/seminars/sem07-trees.ipynb Ноутбук]]
| |
− |
| |
− | '''Семинар 8'''. Разложение ошибки на смещение и разброс. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/seminars/sem08-bvd.pdf Конспект]]
| |
− |
| |
− | '''Семинар 9'''. Почему градиентный бустинг так устроен? [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/seminars/sem09-gbm-part1.pdf Конспект]] [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/seminars/sem09-gbm-part2.ipynb Ноутбук]]
| |
| | | |
| == Практические задания == | | == Практические задания == |
− |
| |
− | '''Задание 1.''' Pandas и распределение студентов ПМИ по элективам.
| |
− |
| |
− | Мягкий дедлайн: 25.09.2021 23:59 MSK.
| |
− |
| |
− | Жесткий дедлайн: 28.09.2021 23:59 MSK.
| |
− |
| |
− | [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/homeworks-practice/homework-practice-01-pandas.ipynb Ноутбук с заданием]]
| |
− |
| |
− | '''Задание 2.''' Разведочный анализ данных, линейная регрессия и разработка признаков.
| |
− |
| |
− | Мягкий дедлайн: 11.10.2021 23:59 MSK.
| |
− |
| |
− | Жесткий дедлайн: 14.10.2021 23:59 MSK.
| |
− |
| |
− | [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/homeworks-practice/homework-practice-02-linregr.ipynb Ноутбук с заданием]]
| |
− |
| |
− | '''Задание 3.''' Градиентный спуск своими руками.
| |
− |
| |
− | Мягкий дедлайн: 27.10.2021 23:59 MSK.
| |
− |
| |
− | Жесткий дедлайн: 29.10.2021 23:59 MSK.
| |
− |
| |
− | [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/homeworks-practice/homework-practice-03-gd/homework-practice-03-gd.ipynb Ноутбук с заданием]]
| |
− |
| |
− | '''Задание 4.''' Классификация.
| |
− |
| |
− | Мягкий дедлайн: 10.11.2021 23:59 MSK.
| |
− |
| |
− | Жесткий дедлайн: 13.11.2021 23:59 MSK.
| |
− |
| |
− | [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/homeworks-practice/homework-practice-04-classification.ipynb Ноутбук с заданием]]
| |
− |
| |
− | '''Задание 5.''' Решающие деревья.
| |
− |
| |
− | Мягий дедлайн: 26.11.2021 23:59 MSK.
| |
− |
| |
− | Жестокий дедлайн: 26.11.2021 23:59 MSK.
| |
− |
| |
− | [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/homeworks-practice/homework-practice-05-trees/homework-practice-05-trees.ipynb Ноутбук с заданием]]
| |
− |
| |
− | '''Задание 6.''' Разложение ошибки на смещение и разброс.
| |
− |
| |
− | Мягкий дедлайн: 23:59MSK 07.12.2021
| |
− |
| |
− | Жесткий дедлайн: 23:59MSK 10.12.2021
| |
− |
| |
− | [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/homeworks-practice/homework-practice-06-bvd.ipynb Ноутбук с заданием]]
| |
− |
| |
− | '''Задание 7.''' Обучение бустингов
| |
− |
| |
− | Мягкий дедлайн: 23:59MSK 18.12.2021
| |
− |
| |
− | Жесткий дедлайн: 23:59MSK 19.12.2021
| |
− |
| |
− | [[https://github.com/esokolov/ml-course-hse/tree/master/2021-fall/homeworks-practice/homework-practice-07-boosting Ноутбук с заданием]]
| |
| | | |
| ==Теоретические домашние задания== | | ==Теоретические домашние задания== |
− |
| |
− | [https://github.com/esokolov/ml-course-hse/tree/master/2021-fall/homeworks-theory Теоретические ДЗ] не проверяются, но задачи из них могут войти в проверочные работы на семинарах.
| |
| | | |
| == Соревнования == | | == Соревнования == |
Строка 282: |
Строка 121: |
| В некоторых соревнованиях данные взяты из завершившегося соревнования на Kaggle. | | В некоторых соревнованиях данные взяты из завершившегося соревнования на Kaggle. |
| Категорически запрещено использовать данные из оригинального соревнования для восстановления целевой переменной на тестовой выборке. | | Категорически запрещено использовать данные из оригинального соревнования для восстановления целевой переменной на тестовой выборке. |
− |
| |
− | === Соревнование 1 ===
| |
− |
| |
− | Задача: выявление мошеннических тразнакций
| |
− |
| |
− | Это соревнование на бонусные баллы, оно не является обязательным.
| |
− |
| |
− | Ссылка для участия: https://www.kaggle.com/t/bbc6f629ab1a4e4b9a79900f94dea96b
| |
− |
| |
− | Дедлайн: 13.12.2021 23:59MSK
| |
− |
| |
− | В задании всего один бейзлайн (lightgbm), ненулевые баллы получают решения, преодолевшие его на приватном лидерборде.
| |
− | Все решения выше этого бейзлайна оцениваются по равномерной шкале от 0 до 5.
| |
− |
| |
− | Обратите внимание на раздел Baselines на Kaggle — там можно найти много полезного.
| |
| | | |
| == Бонусы за соревнования == | | == Бонусы за соревнования == |
Строка 304: |
Строка 128: |
| == Контрольная работа == | | == Контрольная работа == |
| | | |
− | Контрольная работа состоится 3 декабря на лекции. Продолжительность — 80 минут. Проходит в zoom, студенты должны будут писать работу с включенным камерами и расшаренным экраном. На фотографирование и сдачу листочков дополнительно даётся 5 минут.
| |
− |
| |
− | [https://docs.google.com/document/d/1I40EZqslLoj10CSQ0LbsW17cB5uHVHooJ86kcThKewE/edit?usp=sharing Вопросы для подготовки]
| |
− |
| |
− | [https://github.com/esokolov/ml-course-hse/blob/master/2020-fall/midterm-fall-2020-example.pdf Нулевой вариант]
| |
| | | |
| == Экзамен == | | == Экзамен == |
| | | |
− | [https://docs.google.com/document/d/1hMY0QxbU4qMpGuC8aZr1sWd5qrPdPiOl97FJU0fdpSk/edit?usp=sharing Вопросы для подготовки]
| |
| | | |
| == Полезные материалы == | | == Полезные материалы == |
Версия 00:06, 2 сентября 2022
О курсе
Курс читается для студентов 3-го курса ПМИ ФКН ВШЭ в 1-2 модулях.
Проводится с 2016 года.
Лектор: Соколов Евгений Андреевич
Лекции проходят по пятницам, 11:10 - 12:30, в zoom (https://us06web.zoom.us/j/89165579433?pwd=Y1poSzZjZzN0TEFFTjdLQkxqRUxDZz09).
Полезные ссылки
Карточка курса и программа
Репозиторий с материалами на GitHub
Видеозаписи лекций 18/19 года
Почта для сдачи домашних заданий (на самом деле задания сдаются в AnyTask, но если он не работает, то присылайте на почту): hse.cs.ml+<номер группы>@gmail.com (например, hse.cs.ml+171@gmail.com)
Канал в telegram для объявлений: https://t.me/+oI2qh44oQj82MDEy
Чат в telegram для обсуждений (предназначение чата до конца не ясно, вопросы может быть правильнее задавать в чатах групп): https://t.me/+3BLmxzv63VM0OGMy
Ссылка на курс в Anytask: https://anytask.org/course/???
Таблица с оценками
Оставить отзыв на курс: форма
Вопросы по курсу можно задавать в телеграм лектору (esokolov@) или семинаристу.
Вопросы по материалам лекций/семинаров и по заданиям лучше всего задавать на форуме.
Семинары
Консультации
Правила выставления оценок
В курсе предусмотрено несколько форм контроля знания:
- Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций и семинаров
- Практические домашние работы на Python
- Письменная контрольная работа
- Письменный экзамен
Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:
Итог = Округление(0.15 * ПР + 0.4 * ДЗ + 0.15 * КР + 0.3 * Э)
ПР — средняя оценка за самостоятельные работы на семинарах
ДЗ — средняя оценка за практические домашние работы на Python
КР — оценка за контрольную работу
Э — оценка за экзамен
Округление арифметическое.
Правила сдачи заданий
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются. Даже при опоздании на одну секунду. Сдавайте заранее. Есть исключение: в течение семестра каждый студент может не более 2 раз сдать задание после жёсткого дедлайна — в этом случае за каждый день просрочки продолжает вычитаться по одному баллу (если не оговорено иное).
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.
Лекции
Ко всем конспектам на GitHub есть исходники. Исправления и дополнения всячески приветствуются!
Семинары
Практические задания
Теоретические домашние задания
Соревнования
Правила участия и оценивания
В соревновании по анализу данных вам предлагается по имеющимся данным решить некоторую задачу, оптимизируя указанную метрику, и отправить ответы для заданного тестового множества. Максимальное количество посылок в сутки ограничено (как правило, разрешается сделать 2 посылки), ближе к концу соревнования вам будем необходимо выбрать 2 посылки, которые вы считаете лучшими. Тестовые данные делятся на публичные и приватные в некотором соотношении, на основе которых строятся публичный и приватный лидерборды соответственно, при этом публичный лидерборд доступен в течение всего соревнования, а приватный строится после его окончания для выбранных вами посылок.
В лидербордах каждого из соревнований присутствуют несколько базовых решений (бейзлайнов), каждое из которых соответствует определённой оценке. Например, для получения оценки не ниже 8 баллов необходимо, чтобы ваше решение на приватном лидерборде оказалось лучше соответствующего бейзлайна. Далее для студента, преодолевшего бейзлайн на N_1 баллов, но не преодолевшего бейзлайн на N_2 балла, итоговая оценка за соревнование рассчитывается по равномерной сетке среди всех таких студентов в зависимости от места в приватном лидерборде среди них; если быть точными, то по следующей формуле:
N_2 - (N_2 - N_1) * i / M,
где M — количество студентов (из всех студентов, изучающих курс), преодолевших бейзлайн на N_1 баллов, но не преодолевших бейзлайн на N_2 балла;
i — место (начиная с 1) студента в приватном лидерборде среди всех таких студентов.
Единственное исключение из формулы — студенты, преодолевшие самый сильный бейзлайн, получают прибавку 1/M к своей оценке.
Чтобы вас не пропустили при проверке решений соревнования, необходимо использовать следующий формат для имени команды (вкладка Team):
«[ПМИ] Имя Фамилия номер_группы»
В течение 3 суток после окончания соревнования в соответствующее задание на anytask необходимо прислать код, воспроизводящий ответы для посылки, фигурирующей в приватном лидерборде. При оформлении кода предполагайте, что данные лежат рядом с ним в папке data, а в результате выполнения кода ответы должны быть записаны в файл solution-N-Username.csv, где N — номер соревнования, Username — ваша фамилия. У нас должна быть возможность запустить код и получить те же ответы, что и в вашей посылке, — в частности, это означает, что:
1. Если вы отправляете файл *.py, мы будем запускать его при помощи команды python *.py в вышеуказанном предположении о местонахождении данных.
2. Если вы отправляете ноутбук *.ipynb, мы последовательно запустим все ячейки ноутбука и будем ожидать в результате его работы формирование файла с ответами.
3. Если вы отправляете код с использованием другого языка программирования, в том же письме направьте нам инструкцию по его запуску с тем, чтобы получить тот же файл с ответами.
В случае отсутствия кода, воспроизводящего результат, в установленный срок студенту выставляется 0 в качестве оценки за соревнование. Студенты, попавшие в топ-3 согласно приватному лидерборду, смогут получить бонусные баллы, если в течение недели после окончания соревнования сдадут в anytask отчет о получении решения, фигурирующего в приватном лидерборде. Если не оговорено иное, использовать любые внешние данные в соревнованиях запрещено. Под внешними данными понимаются размеченные данные, где разметка имеет прямое отношение к решаемой задаче. Грубо говоря, сборник текстов с википедии не считается внешними данными.
В некоторых соревнованиях данные взяты из завершившегося соревнования на Kaggle.
Категорически запрещено использовать данные из оригинального соревнования для восстановления целевой переменной на тестовой выборке.
Бонусы за соревнования
За успешное участие в соревнованиях по анализу данных могут быть выставлены бонусные баллы, которые можно прибавить к оценке за любое практическое или теоретическое домашнее задание, а также за самостоятельную работу. Под успешным участием понимается попадание в топ-10% мест; если соревнование особо сложное и крупное, может рассматриваться и попадание в топ-20% мест. Конкретное число баллов определяется преподавателями и зависит от сложности соревнования и занятого места. За одно соревнование можно получить не более 5 баллов. Для получения оценки необходимо предоставить краткий отчёт о решении задачи.
Контрольная работа
Экзамен
Полезные материалы
Книги
- Hastie T., Tibshirani R, Friedman J. The Elements of Statistical Learning (2nd edition). Springer, 2009.
- Bishop C. M. Pattern Recognition and Machine Learning. Springer, 2006.
- Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.
- Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.
- Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.
- Willi Richert, Luis Pedro Coelho. Building Machine Learning Systems with Python. Packt Publishing, 2013.
Курсы по машинному обучению и анализу данных
Страницы предыдущих лет
2020/2021 учебный год
2019/2020 учебный год
2018/2019 учебный год
2017/2018 учебный год
2016/2017 учебный год