|
|
Строка 1: |
Строка 1: |
| == О курсе == | | == О курсе == |
| | | |
− | [[Файл:ML_surfaces.png|280px|borderless|left]]
| |
| | | |
− | Курс читается для студентов 3-го курса [https://cs.hse.ru/ami ПМИ ФКН ВШЭ] в 1-2 модулях.
| |
− |
| |
− | Проводится с 2016 года.
| |
− |
| |
− | '''Лектор:''' [http://www.hse.ru/staff/esokolov Соколов Евгений Андреевич]
| |
− |
| |
− | Лекции проходят по пятницам,
| |
| | | |
| === Полезные ссылки === | | === Полезные ссылки === |
| | | |
− | [https://www.hse.ru/edu/courses/646510131 Карточка курса и программа]
| |
− |
| |
− | [https://github.com/esokolov/ml-course-hse Репозиторий с материалами на GitHub]
| |
| | | |
− | [https://www.youtube.com/watch?v=OBG6EUSRC9g&list=PLEqoHzpnmTfDwuwrFHWVHdr1-qJsfqCUX Видеозаписи лекций 18/19 года]
| |
| | | |
− | Почта для сдачи домашних заданий (на самом деле задания сдаются в AnyTask, но если он не работает, то присылайте на почту): hse.cs.ml+<номер группы>@gmail.com (например, hse.cs.ml+171@gmail.com) | + | Почта для сдачи домашних заданий |
| | | |
| Канал в telegram для объявлений: | | Канал в telegram для объявлений: |
− | Чат в telegram для обсуждений (предназначение чата до конца не ясно, вопросы может быть правильнее задавать в чатах групп): https://t.me/+3BLmxzv63VM0OGMy | + | Чат в telegram для обсуждений: |
− | | + | Ссылка на курс в Anytask: |
− | Ссылка на курс в Anytask: https://anytask.org/course/970 | + | |
− | | + | |
− | [https://docs.google.com/spreadsheets/d/1Z-9POgE6dTwtw5lLWf4PmHLux116zh4LCnpk-o0MKhE/edit?usp=sharing Таблица с оценками]
| + | |
− | | + | |
− | Оставить отзыв на курс: [https://goo.gl/forms/5CddG0gc75VZvqi52 форма]
| + | |
− | | + | |
− | '''Вопросы''' по курсу можно задавать в телеграм лектору (esokolov@) или семинаристу.
| + | |
− | Вопросы по материалам лекций/семинаров и по заданиям лучше всего задавать на [https://github.com/esokolov/ml-course-hse/discussions форуме].
| + | |
| | | |
| === Семинары === | | === Семинары === |
| | | |
− | {| class="wikitable"
| |
− | |-
| |
− | ! Группа !! Преподаватель
| |
− | |-
| |
− | | 201 (МОП) || [https://t.me/amshabalin Шабалин Александр Михайлович]
| |
− | |-
| |
− | | 202 (МОП) || [https://www.hse.ru/staff/esokolov Соколов Евгений Андреевич]
| |
− | |-
| |
− | | 203 (МОП) || [https://t.me/Birshert Биршерт Алексей Дмитриевич]
| |
− | |-
| |
− | | 204 (ТИ) || [https://t.me/madn_boi Морозов Никита Витальевич]
| |
− | |-
| |
− | | 205 (РС) || [https://www.hse.ru/org/persons/218009880 Ульянкин Филипп Валерьевич]
| |
− | |-
| |
− | | 206 (РС) || [https://t.me/kostyayatsok Еленик Константин Ильич]
| |
− | |-
| |
− | | 207 (АПР) || [https://t.me/cherepasska Миша Баранов]
| |
− | |-
| |
− | | 208 (АДИС) || [https://www.hse.ru/staff/atsvigun Аким Цвигун]
| |
− | |-
| |
− | | 209 (МИ) || [https://t.me/call_me_Dory Сусла Диана Михайловна]
| |
− | |-
| |
− | | 2010 (ПР) || [https://t.me/artidoz Щербинин Артем Андреевич]
| |
− | |-
| |
− | | ФЭН || [https://www.hse.ru/org/persons/190889495 Зехов Матвей Сергеевич]
| |
− | |}
| |
| | | |
| === Ассистенты === | | === Ассистенты === |
| | | |
− | {| class="wikitable"
| |
− | |-
| |
− | ! Группа !! Ассистент
| |
− | |-
| |
− | | 201 (МОП) || [https://t.me/artempris Артем Присяжнюк], [https://t.me/ipomeya31 Александр Плахин]
| |
− | |-
| |
− | | 202 (МОП) || [https://t.me/pauchara0 Олег Петров], [https://t.me/fdrose Максим Абрахам]
| |
− | |-
| |
− | | 203 (МОП) || [https://t.me/Nikita_Ki33elev Никита Киселев], [https://t.me/sagerasimov_1 Сергей Герасимов]
| |
− | |-
| |
− | | 204 (ТИ) || [https://t.me/vslvskyy Юлия Василевская]
| |
− | |-
| |
− | | 205 (РС) || [https://t.me/defunator Семен Иванов], [https://t.me/territhing Сергей Пилипенко]
| |
− | |-
| |
− | | 206 (РС) || [https://t.me/sol_arch Никита Андреев], [https://t.me/abezrukovaa Анастасия Безрукова]
| |
− | |-
| |
− | | 207 (АПР) || [https://t.me/leksious Алексей Панков]
| |
− | |-
| |
− | | 208 (АДИС) || [https://t.me/annastep2001 Анна Степочкина], [https://t.me/aleph0naught Александр Орлов]
| |
− | |-
| |
− | | 209 (МИ) || [https://t.me/arinakosovskaia Арина Косовская]
| |
− | |-
| |
− | | 2010 (ПР) || [https://t.me/territhing Сергей Пилипенко]
| |
− | |-
| |
− | | ФЭН || [https://t.me/zhan2pac Жанту Жуматаев], [https://t.me/grandananas Антон Макаров]
| |
− | |}
| |
| | | |
| === Правила выставления оценок === | | === Правила выставления оценок === |
− |
| |
− | В курсе предусмотрено несколько форм контроля знания:
| |
− | * Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций и семинаров
| |
− | * Практические домашние работы на Python
| |
− | * Письменная контрольная работа
| |
− | * Письменный экзамен
| |
− |
| |
− | Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:
| |
− |
| |
− | Итог = Округление(0.15 * ПР + 0.4 * ДЗ + 0.15 * КР + 0.3 * Э)
| |
− |
| |
− | ПР — средняя оценка за самостоятельные работы на семинарах
| |
− |
| |
− | ДЗ — средняя оценка за практические домашние работы на Python
| |
− |
| |
− | КР — оценка за контрольную работу
| |
− |
| |
− | Э — оценка за экзамен
| |
− |
| |
− | Округление арифметическое.
| |
| | | |
| === Правила сдачи заданий === | | === Правила сдачи заданий === |
| | | |
− | За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются. Даже при опоздании на одну секунду. Сдавайте заранее.
| |
− |
| |
− | Два раза студент может сдать домашнее задание после мягкого дедлайна (но до жёсткого) без штрафов.
| |
− |
| |
− | При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.
| |
− |
| |
− | При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.
| |
| | | |
| == Лекции == | | == Лекции == |
| | | |
− | Ко всем конспектам на GitHub есть исходники. Исправления и дополнения всячески приветствуются!
| |
| | | |
− | Записи с доски можно найти [[https://www.dropbox.com/sh/f6k08r3rf0mgzcg/AACImtlxI1my8xes7MBHQaEEa?dl=0 здесь]]
| |
− |
| |
− |
| |
− | '''Лекция 1''' (2 сентября). Введение в машинное обучение. Основные термины, постановки задач и примеры применения. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture01-intro.pdf Конспект]] [[https://youtu.be/-tz5KDMKd4E Запись лекции]]
| |
− |
| |
− | '''Лекция 2''' (9 сентября). Линейная регрессия, функции потерь в регрессии. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture02-linregr.pdf Конспект]] [[https://www.youtube.com/watch?v=iNYUmd0-_UU&list=PLEwK9wdS5g0ohn4v-t8yaCOEAC0KT3EPf&index=3 Запись лекции]]
| |
− |
| |
− | '''Лекция 3''' (16 сентября). Обобщающая способность, градиентные методы обучения. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture03-linregr.pdf Конспект]] [[https://www.youtube.com/watch?v=Ydcv-fCV9EY&list=PLEwK9wdS5g0ohn4v-t8yaCOEAC0KT3EPf&index=5 Запись лекции]]
| |
− |
| |
− | '''Лекция 4''' (23 сентября). Градиентные методы, регуляризация. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture04-linregr.pdf Конспект]] [[https://www.youtube.com/watch?v=poz4wf5lALE&list=PLEwK9wdS5g0ohn4v-t8yaCOEAC0KT3EPf&index=7 Запись лекции]]
| |
− |
| |
− | '''Лекция 5''' (1 октября). Регуляризация, линейная классификация. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture05-linclass.pdf Конспект]] [[https://www.youtube.com/watch?v=2AqpyBr2Ji0&list=PLEwK9wdS5g0ohn4v-t8yaCOEAC0KT3EPf&index=8 Запись лекции]]
| |
− |
| |
− | '''Лекция 6''' (7 октября). Метрики качества классификации, логистическая регрессия. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture06-linclass.pdf Конспект]] [[https://www.youtube.com/watch?v=d0KfYeF-A9A&list=PLEwK9wdS5g0ohn4v-t8yaCOEAC0KT3EPf&index=11 Запись лекции]]
| |
− |
| |
− | '''Лекция 7''' (14 октября). Логистическая регрессия, метод опорных векторов. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture07-linclass.pdf Конспект]] [[https://www.youtube.com/watch?v=m-MUD9901J0&list=PLEwK9wdS5g0ohn4v-t8yaCOEAC0KT3EPf&index=13 Запись лекции]]
| |
− |
| |
− | '''Лекция 8''' (22 октября). Многоклассовая классификация, решающие деревья. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture08-trees.pdf Конспект]] [[https://www.youtube.com/watch?v=cB2sQeoZ2lY&list=PLEwK9wdS5g0ohn4v-t8yaCOEAC0KT3EPf&index=15 Запись лекции]]
| |
− |
| |
− | '''Лекция 9''' (6 ноября). Решающие деревья, разложение ошибки на смещение и разброс. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture09-ensembles.pdf Конспект]] [[https://www.youtube.com/watch?v=hzLT7Qn1jKw&list=PLEwK9wdS5g0ohn4v-t8yaCOEAC0KT3EPf&index=16 Запись лекции]]
| |
− |
| |
− | '''Лекция 10''' (14 ноября). Бэггинг, случайные леса. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture10-ensembles.pdf Конспект]] [[https://www.youtube.com/watch?v=HEVS8MTuIdQ&list=PLEwK9wdS5g0ohn4v-t8yaCOEAC0KT3EPf&index=17 Запись лекции]]
| |
− |
| |
− | '''Лекция 11''' (22 ноября). Градиентный бустинг. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture11-ensembles.pdf Конспект]] [[https://www.youtube.com/watch?v=u-SEdfsxOm8&list=PLEwK9wdS5g0ohn4v-t8yaCOEAC0KT3EPf&index=19 Запись лекции]]
| |
− |
| |
− | '''Лекция 12''' (24 ноября). Градиентный бустинг. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture11-ensembles.pdf Конспект]] [[https://www.youtube.com/watch?v=ya2sOjVSNRk&list=PLEwK9wdS5g0ohn4v-t8yaCOEAC0KT3EPf&index=20 Запись лекции]]
| |
− |
| |
− | '''Лекция 13''' (13 декабря). Кластеризация. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture12-unsupervised.pdf Конспект]] [[https://www.youtube.com/watch?v=a6kOoIC7KRM&list=PLEwK9wdS5g0ohn4v-t8yaCOEAC0KT3EPf&index=21 Запись лекции]]
| |
− |
| |
− | '''Лекция 14''' (16 декабря). Кластеризация и визуализация. [[https://github.com/esokolov/ml-course-hse/blob/master/2021-fall/lecture-notes/lecture12-unsupervised.pdf Конспект]] [[https://www.youtube.com/watch?v=SiJWwYXtudw&list=PLEwK9wdS5g0ohn4v-t8yaCOEAC0KT3EPf&index=22 Запись лекции]]
| |
| | | |
| == Семинары == | | == Семинары == |
| | | |
− | '''Семинар 1'''. pandas. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem01-pandas.ipynb Ноутбук]]
| |
| | | |
− | '''Семинар 2'''. sklearn и линейная регрессия. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem02-sklearn-linregr.ipynb Ноутбук]]
| |
− |
| |
− | '''Семинар 3'''. Матрично-векторное диффернцирование. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem03-vector-diff.pdf Конспект]]
| |
− |
| |
− | '''Семинар 4'''. Работа с данными и признаками. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem04-features.ipynb Ноутбук]]
| |
− |
| |
− | '''Семинар 5'''. Метрики классификации. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem05-linclass-metrics.pdf Конспект]]
| |
− |
| |
− | '''Семинар 6'''. Калибровка вероятностей. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem06-calibration.ipynb Ноутбук]][[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem06-probs-quantile.pdf Конспект]]
| |
− |
| |
− | '''Семинар 7'''. Решающие деревья. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem07-trees.ipynb Ноутбук]][[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem07-trees.pdf Конспект]]
| |
− |
| |
− | '''Семинар 8'''. Разложение ошибки на смещение и разброс. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem08-bvd.pdf Конспект]]
| |
− |
| |
− | '''Семинар 9'''. Градиентный бустинг. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem09-gbm-part1.pdf Конспект]]
| |
− |
| |
− | '''Семинар 10'''. Виды градиентного бустинга: XGB, LightGBM, CatBoost. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem10-gbm.pdf Конспект]]
| |
− |
| |
− | '''Семинар 11'''. Кластеризация. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem11_clustering.ipynb Ноутбук]]
| |
− |
| |
− | '''Семинар 12'''. Методы понижения размерности: PCE, tSNE. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem12-pca.pdf Конспект]][[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/seminars/sem12_pca_tsne.ipynb Ноутбук]]
| |
| | | |
| == Практические задания == | | == Практические задания == |
− |
| |
− | '''Задание 1.''' Pandas и распределение студентов ПМИ по элективам.
| |
− |
| |
− | Мягкий дедлайн: 22.09.2022 23:59 MSK.
| |
− |
| |
− | Жесткий дедлайн: 29.09.2022 23:59 MSK.
| |
− |
| |
− | [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/homeworks-practice/homework-practice-01-pandas.ipynb Ноутбук с заданием]]
| |
− |
| |
− | Также вы можете скачать ноутбук с заданием (если у вас установлен Wget) командой wget <ссылка на ноутбук> (скопируйте [https://raw.githubusercontent.com/esokolov/ml-course-hse/master/2022-fall/homeworks-practice/homework-practice-01-pandas.ipynb ссылку]) или из Google Colab:
| |
− |
| |
− | [[https://colab.research.google.com/github/esokolov/ml-course-hse/blob/master/2022-fall/homeworks-practice/homework-practice-01-pandas.ipynb Open In Colab]]
| |
− |
| |
− | '''Задание 2.''' Exploratory Data Analysis и линейная регрессия (садитесь заранее плиз).
| |
− |
| |
− | Дата выдачи: 25.09.2022
| |
− |
| |
− | Мягкий дедлайн: 23:59MSK 10.10.2022
| |
− |
| |
− | Жесткий дедлайн: 23:59MSK 18.10.2022
| |
− |
| |
− | [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/homeworks-practice/homework-practice-02-linregr.ipynb Ноутбук с заданием]]
| |
− |
| |
− | [[https://colab.research.google.com/github/esokolov/ml-course-hse/blob/master/2022-fall/homeworks-practice/homework-practice-02-linregr.ipynb Open In Colab]]
| |
− |
| |
− | '''Задание 3.''' Градиентный спуск своими руками.
| |
− |
| |
− | Дата выдачи: 12.10.2022
| |
− |
| |
− | Мягкий дедлайн: 23:59MSK 01.11.2022
| |
− |
| |
− | Жесткий дедлайн: 23:59MSK 08.11.2022
| |
− |
| |
− | [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/homeworks-practice/homework-practice-03-gd/homework-practice-03-gd.ipynb Ноутбук с заданием]]
| |
− |
| |
− | '''Задание 4.''' Линейная классификация, калибровка, категориальные признаки и отбор признаков.
| |
− |
| |
− | Дата выдачи: 04.11.2022
| |
− |
| |
− | Мягкий дедлайн: 23:59MSK 16.11.2022
| |
− |
| |
− | Жесткий дедлайн: 23:59MSK 23.11.2022
| |
− |
| |
− | [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/homeworks-practice/homework-practice-04-linclass.ipynb Ноутбук с заданием]]
| |
− |
| |
− | '''Задание 5.''' Решающие деревья.
| |
− |
| |
− | Дата выдачи: 18.11.2022
| |
− |
| |
− | Мягкий дедлайн: 23:59MSK 30.11.2022
| |
− |
| |
− | Жесткий дедлайн: 23:59MSK 06.12.2022
| |
− |
| |
− | [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/homeworks-practice/homework-practice-05-trees/homework-practice-05-trees.ipynb Ноутбук с заданием]]
| |
− |
| |
− | '''Задание 6.''' Разложение ошибки на смещение и разброс.
| |
− |
| |
− | Дата выдачи: 01.12.2022
| |
− |
| |
− | Мягкий дедлайн: 23:59MSK 11.12.2022
| |
− |
| |
− | Жесткий дедлайн: 23:59MSK 15.12.2022
| |
− |
| |
− | [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/homeworks-practice/homework-practice-06-bvd.ipynb Ноутбук с заданием]]
| |
− |
| |
− | '''Задание 7.''' Бустинговое.
| |
− |
| |
− | Дата выдачи: 13.12.2022
| |
− |
| |
− | Жесткий дедлайн: 23:59MSK 20.12.2022
| |
− |
| |
− | [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/homeworks-practice/homework-practice-07-boosting/homework-practice-07-boosting.ipynb Ноутбук с заданием]]
| |
− |
| |
− | ==Теоретические домашние задания==
| |
− |
| |
− | '''Теоретическое ДЗ 1.''' Линейные модели. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/homeworks-theory/homework-theory-01-linear-models.pdf Задания]]
| |
− |
| |
− | '''Теоретическое ДЗ 2.''' Матрично-векторное дифференцирование и градиентный спуск. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/homeworks-theory/homework-theory-02-derivatives.pdf Задания]]
| |
− |
| |
− | '''Теоретическое ДЗ 3.''' Логистическая регрессия и метрики классификации. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/homeworks-theory/homework-theory-03_part1-logreg-svm.pdf Часть 1]][[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/homeworks-theory/homework-theory-03_part2-clf-metrics.pdf Часть 2]]
| |
− |
| |
− | '''Теоретическое ДЗ 4.''' Разложение ошибки на смещение и разброс. [[https://github.com/esokolov/ml-course-hse/blob/master/2022-fall/homeworks-theory/homework-theory-04-bvd.pdf Задания]]
| |
| | | |
| == Соревнования == | | == Соревнования == |
| | | |
| ===Правила участия и оценивания=== | | ===Правила участия и оценивания=== |
− | В соревновании по анализу данных вам предлагается по имеющимся данным решить некоторую задачу, оптимизируя указанную метрику, и отправить ответы для заданного тестового множества. Максимальное количество посылок в сутки ограничено (как правило, разрешается сделать 2 посылки), ближе к концу соревнования вам будем необходимо выбрать 2 посылки, которые вы считаете лучшими. Тестовые данные делятся на публичные и приватные в некотором соотношении, на основе которых строятся публичный и приватный лидерборды соответственно, при этом публичный лидерборд доступен в течение всего соревнования, а приватный строится после его окончания для выбранных вами посылок.
| |
| | | |
− | В лидербордах каждого из соревнований присутствуют несколько базовых решений (бейзлайнов), каждое из которых соответствует определённой оценке. Например, для получения оценки не ниже 8 баллов необходимо, чтобы ваше решение на '''приватном''' лидерборде оказалось лучше соответствующего бейзлайна. Далее для студента, преодолевшего бейзлайн на N_1 баллов, но не преодолевшего бейзлайн на N_2 балла, итоговая оценка за соревнование рассчитывается по равномерной сетке среди всех таких студентов в зависимости от места в приватном лидерборде среди них; если быть точными, то по следующей формуле:
| |
− |
| |
− | N_2 - (N_2 - N_1) * i / M,
| |
− |
| |
− | где M — количество студентов (из всех студентов, изучающих курс), преодолевших бейзлайн на N_1 баллов, но не преодолевших бейзлайн на N_2 балла;
| |
− |
| |
− | i — место (начиная с 1) студента в приватном лидерборде среди всех таких студентов.
| |
− |
| |
− | Единственное исключение из формулы — студенты, преодолевшие самый сильный бейзлайн, получают прибавку 1/M к своей оценке.
| |
− |
| |
− | Чтобы вас не пропустили при проверке решений соревнования, '''необходимо''' использовать следующий формат для имени команды (вкладка Team):
| |
− |
| |
− | «[ПМИ] Имя Фамилия номер_группы»
| |
− |
| |
− | В течение 3 суток после окончания соревнования в соответствующее задание на anytask необходимо прислать код, воспроизводящий ответы для посылки, фигурирующей в приватном лидерборде. При оформлении кода предполагайте, что данные лежат рядом с ним в папке data, а в результате выполнения кода ответы должны быть записаны в файл solution-N-Username.csv, где N — номер соревнования, Username — ваша фамилия. У нас должна быть возможность запустить код и получить те же ответы, что и в вашей посылке, — в частности, это означает, что:
| |
− |
| |
− | 1. Если вы отправляете файл *.py, мы будем запускать его при помощи команды python *.py в вышеуказанном предположении о местонахождении данных.
| |
− |
| |
− | 2. Если вы отправляете ноутбук *.ipynb, мы последовательно запустим все ячейки ноутбука и будем ожидать в результате его работы формирование файла с ответами.
| |
− |
| |
− | 3. Если вы отправляете код с использованием другого языка программирования, в том же письме направьте нам инструкцию по его запуску с тем, чтобы получить тот же файл с ответами.
| |
− |
| |
− | В случае отсутствия кода, воспроизводящего результат, в установленный срок студенту выставляется 0 в качестве оценки за соревнование. Студенты, попавшие в топ-3 согласно приватному лидерборду, смогут получить бонусные баллы, если в течение недели после окончания соревнования сдадут в anytask отчет о получении решения, фигурирующего в приватном лидерборде. Если не оговорено иное, использовать любые внешние данные в соревнованиях '''запрещено'''. Под внешними данными понимаются размеченные данные, где разметка имеет прямое отношение к решаемой задаче. Грубо говоря, сборник текстов с википедии не считается внешними данными.
| |
− |
| |
− | В некоторых соревнованиях данные взяты из завершившегося соревнования на Kaggle.
| |
− | Категорически запрещено использовать данные из оригинального соревнования для восстановления целевой переменной на тестовой выборке.
| |
− |
| |
− | === Соревнование 1 ===
| |
− |
| |
− | Задача: классификация отзывов
| |
− |
| |
− | Это соревнование на бонусные баллы, оно не является обязательным.
| |
− |
| |
− | Ссылка для участия: https://www.kaggle.com/t/eb20383504ce4d85ba27c5b12e7767ec
| |
− |
| |
− | Дедлайн: 10.12.2022 17:00MSK
| |
− |
| |
− | В задании всего один бейзлайн, ненулевые баллы получают решения, преодолевшие его на приватном лидерборде.
| |
− | Все решения выше этого бейзлайна оцениваются по равномерной шкале от 0 до 5.
| |
− |
| |
− | '''Важно''': в соревновании запрещено использовать глубинное обучение (как свои архитектуры, так и результаты предобученных моделей вроде w2v, fasttext, bert ит.д.).
| |
| | | |
| == Бонусы за соревнования == | | == Бонусы за соревнования == |
| | | |
− | За успешное участие в соревнованиях по анализу данных могут быть выставлены бонусные баллы, которые можно прибавить к оценке за любое практическое или теоретическое домашнее задание, а также за самостоятельную работу. Под успешным участием понимается попадание в топ-10% мест; если соревнование особо сложное и крупное, может рассматриваться и попадание в топ-20% мест. Конкретное число баллов определяется преподавателями и зависит от сложности соревнования и занятого места. За одно соревнование можно получить не более 5 баллов. Для получения оценки необходимо предоставить краткий отчёт о решении задачи.
| |
| | | |
| == Контрольная работа == | | == Контрольная работа == |
| | | |
− | Контрольная работа состоится 2 декабря на лекции. Продолжительность — 80 минут.
| |
| | | |
− | [https://docs.google.com/document/d/1ZWBWIcctdA4T30Ml4MCQp3xrTn5GUU_yrQtTYc9QgJ8/edit?usp=sharing Вопросы для подготовки]
| |
| | | |
− | [https://github.com/esokolov/ml-course-hse/blob/master/2020-fall/midterm-fall-2020-example.pdf Нулевой вариант]
| + | == Экзамен == |
| | | |
− | [https://github.com/hse-ds/iad-intro-ds/blob/master/2021/kr/kr2021-var0.pdf Нулевой вариант с майнора ИАД (попроще, но всё равно полезно прорешать)]
| |
− |
| |
− | == Экзамен ==
| |
| | | |
− | [https://docs.google.com/document/d/1azsoR_l2itVB_fFDveMN5zJcXq5cj0OranAM-4esV-k/edit?usp=sharing Вопросы для подготовки]
| |
| | | |
| == Полезные материалы == | | == Полезные материалы == |
| ===Книги=== | | ===Книги=== |
− | * Hastie T., Tibshirani R, Friedman J. The Elements of Statistical Learning (2nd edition). Springer, 2009.
| + | |
− | * Bishop C. M. Pattern Recognition and Machine Learning. Springer, 2006.
| + | |
− | * Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.
| + | |
− | * Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.
| + | |
− | * Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.
| + | |
− | * Willi Richert, Luis Pedro Coelho. Building Machine Learning Systems with Python. Packt Publishing, 2013.
| + | |
| | | |
| ===Курсы по машинному обучению и анализу данных=== | | ===Курсы по машинному обучению и анализу данных=== |
− | * [http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_%28курс_лекций%2C_К.В.Воронцов%29 Курс по машинному обучению К.В. Воронцова]
| + | |
− | * [https://yandexdataschool.ru/edu-process/courses/machine-learning Видеозаписи лекций курса Школы Анализа Данных, К.В. Воронцов]
| + | |
− | * [https://www.coursera.org/specializations/machine-learning-from-statistics-to-neural-networks Coursera: Машинное обучение от статистики до нейросетей (специализация)]
| + | |
− | * [https://www.coursera.org/specializations/machine-learning-data-analysis Coursera: Машинное обучение и анализ данных (специализация)]
| + | |
− | * [https://www.coursera.org/learn/introduction-machine-learning Coursera: Введение в машинное обучение, К.В. Воронцов]
| + | |
− | * [https://openedu.ru/course/hse/INTRML/ Введение в машинное обучение (онлайн-курс НИУ ВШЭ)]
| + | |
| | | |
| == Страницы предыдущих лет == | | == Страницы предыдущих лет == |
− |
| |
− | [[Машинное_обучение_1/2021_2022 | 2021/2022 учебный год]]
| |
− |
| |
− | [[Машинное_обучение_1/2020_2021 | 2020/2021 учебный год]]
| |
− |
| |
− | [[Машинное_обучение_1/2019_2020 | 2019/2020 учебный год]]
| |
− |
| |
− | [[Машинное_обучение_1/2018_2019 | 2018/2019 учебный год]]
| |
− |
| |
− | [[Машинное_обучение_1/2017_2018 | 2017/2018 учебный год]]
| |
− |
| |
− | [[Машинное_обучение_1/2016_2017 | 2016/2017 учебный год]]
| |
Канал в telegram для объявлений:
Чат в telegram для обсуждений:
Ссылка на курс в Anytask: