Машинное обучение 2/2016 2017

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск

О курсе

borderless

Курс читается для студентов 3-го курса ПМИ ФКН ВШЭ в 3-4 модулях.

Проводится с 2016 года.

Лектор: Соколов Евгений Андреевич

Лекции проходят по вторникам, 10:30 - 11:50, ауд. 509.




Полезные ссылки

Карточка курса и программа

Репозиторий с материалами на GitHub

Почта для сдачи домашних заданий: hse.cs.ml+<номер группы>@gmail.com (например, hse.cs.ml+141@gmail.com)

Канал в telegram для объявлений: https://telegram.me/hse_cs_ml_2_course

Таблица с оценками

Оставить отзыв на курс: форма

Вопросы по курсу можно задавать на почту курса, а также в телеграм лектору (esokolov@) или семинаристу. Вопросы по материалам лекций/семинаров и по заданиям лучше всего оформлять в виде Issue в github-репозитории курса.

Семинары

Группа Преподаватель Учебный ассистент Страница Расписание
141 (МОП) Зиннурова Эльвира Альбертовна Козловская Наталия вторник, 12:10 - 13:30, ауд. 501
142 (МОП) Неклюдов Кирилл Олегович Егоров Евгений вторник, 12:10 - 13:30, ауд. 503

Консультации

Консультации с преподавателями и учебными ассистентами (если иное не оговорено на странице семинаров конкретной группы) по курсу проводятся по предварительной договорённости ввиду невостребованности регулярных консультаций.

Правила выставления оценок

В курсе предусмотрено несколько форм контроля знания:

  • Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций и выполнение теоретических домашних заданий
  • Практические домашние работы на Python
  • Соревнования по анализу данных
  • Письменный коллоквиум в конце 3-го модуля
  • Устный экзамен

Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:

Oитоговая = 0.7 * Oнакопленная + 0.3 * Оэкз

Оценка за работу в семестре вычисляется по формуле

Oнакопленная = 0.2 * Oсамостоятельные + 0.6 * Одз + 0.2 * Околлоквиум

Оценка за самостоятельную работу вычисляется как среднее по всем самостоятельным, оценка за домашнюю работу — как среднее по всем практическим заданиям и соревнованиям.

Также за каждое практическое задание и соревнование можно получить дополнительные баллы, которые влияют на освобождение от задач на экзамене.

Правила сдачи заданий

Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работа не принимаются.

При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.

При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок). Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.

Лекции

Лекция 14 (10 января). Reproducing kernel Hilbert space. Теорема о представлении. Аппроксимация спрямляющего пространства. [Конспект]

Лекция 15 (17 января). Смеси распределений. Модели со скрытыми переменными. KL-дивергения. EM-алгоритм в общем виде, его сходимость. [Конспект]

Лекция 16 (31 января). Ядровой метод главных компонент. Двойственные задачи и условия Куна-Таккера. Двойственный SVM. [Конспект]

Лекция 17 (7 февраля). Лапласианы графов. Спектральная кластеризация. Методы частичного обучения (semi-supervised learning).

Лекция 18 (14 февраля). Работа с несбалансированными выборками. Одноклассовые методы и обнаружение аномалий: статистический и метрический подходы. Одноклассовый SVM. Метод главных компонент в обнаружении аномалий. [Конспект]

Лекция 19 (21 февраля). Рекомендательные системы. Коллаборативная фильтрация: memory-based и model-based. Матричные разложения, ALS. Учёт неявной информации и модель iALS. Factorization machines. [Конспект]

Лекция 20 (28 февраля). Рекомендательные системы. Холодный старт. Метрики качества рекомендаций. [Конспект]

Лекция 21 (14 марта). Метрические методы. Метод k ближайших соседей для классификации и регрессии, его оптимальность. Измерение расстояний между текстами с помощью их внутренних представлений. Приближенные методы поиска соседей и locality sensitive hashing. [Конспект]

Лекция 22 (21 марта). Locality sensitive hashing, композиции хэш-функций. Обучение метрик, методы NCA и LMNN. [Конспект]

Лекция 23 (4 апреля). Тематическое моделирование. Методы LSA, PLSA, LDA. [Конспект]

Лекция 24 (11 апреля). Обучение ранжированию. Метрики качества ранжирования. Примеры факторов в ранжировании: BM25 и PageRank. [Конспект]

Лекция 25 (18 апреля). Обучение ранжированию. Поточечный, попарный и списочный подходы. Краудсорсинг при сборе данных, оптимальная агрегация меток. [Конспект]

Лекция 26 (30 мая). Защита данных в машинном обучении. Дифференциальная приватность. Лапласовский механизм, его применение для метода k-means. Reverse engineering для классификаторов и защита от него. Метод на основе обучения распределения на весах.

Лекция 27 (6 июня). Обучение с переносом знаний (transfer learning). Перевзвешивание выборки с помощью дополнительной модели. Адаптация текстовых классификаторов под новое распределение признаков с помощью опорных слов.

Семинары

Семинар 14 (10 января). Решение задач на ядра. Ядра на строках. [Конспект] [Домашнее задание]

Семинар 15 (17 января). Решение задач на EM-алгоритм. [Конспект] [Домашнее задание]

Семинар 16 (31 января). Решение задач на SVM. [Конспект] [Домашнее задание]

Семинар 17 (7 февраля). Лапласианы графов и спектральная кластеризация. [Конспект] [Домашнее задание]

Семинар 18 (14 февраля). Параметрические оценки плотности. Байесовская классификация, наивный байесовский подход к восстановлению плотности. [Конспект] [Домашнее задание]

Семинар 19 (28 февраля). Рекомендательные системы. Факторизационные машины и методы их обучения. [Конспект] [Домашнее задание]

Семинар 20 (14 марта). Метод k ближайших соседей, его особенности и недостатки. Способы задания расстояния на признаках. [Конспект] [Домашнее задание]

Семинар 21 (21 марта). Применение гауссовских процессов в задачах восстановления регрессии [Конспект] [Домашнее задание]

Семинар 22 (4 апреля). Анализ текстовой информации. Тематическое моделирование. [Конспект]

Практические задания

Задание 5. Ядровые методы.

Дата выдачи: 26.02.2017

Дедлайн: 13.03.2017 23:59MSK

Условие

Задание 6. ЕМ-алгоритм.

Дата выдачи: 03.04.2017

Дедлайн: 16.04.2017 23:59MSK

Условие

Задание 7. Рекомендательные системы.

Дата выдачи: 11.05.2017

Дедлайн: 28.05.2017 23:59MSK

Условие

Задание 8. Ранжирование.

Дата выдачи: 30.05.2017

Дедлайн: 07.06.2017 23:59MSK

Условие

Соревнования

В течение недели после окончания соревнования на почту курса необходимо прислать:

  • краткий отчёт с описанием решения (достаточно нескольких предложений с описанием использованных признаков и методов);
  • код, с помощью которого можно получить ответы, отправленные в качестве решения на Kaggle.

Оценка за соревнование в случае преодоления всех бейзлайнов вычисляется по формуле

10 - 9 * (i - 1) / (n - 1),

где i — номер студента в таблице результатов среди своих одногруппников, n — количество студентов в группе. В противном случае студент получает за соревнование 0 баллов.

Также за первое, второе и третье место в пределах группы студент получет 3, 2 или 1 дополнительный балл соответственно. За лучшие места в общем рейтинге также могут быть выставлены дополнительные баллы. Напоминаем, что дополнительные баллы не влияют на накопленную оценку.

Если решения всех участников окажутся тривиальными или участников будет слишком мало, то преподаватели имеют право снизить максимальную оценку или сделать шкалу более разреженной.

Студент, набравший менее 6 баллов (но при этом преодолевший бейзлайны), имеет право написать подробный отчёт по итогам соревнования и повысить свою оценку до 6 баллов (при выполнении всех требований к отчёту).

Регистрируясь на соревнование, выбирайте осмысленное имя. Рекомендованный формат: Иванов Иван (ПМИ ФКН ВШЭ, группа 141).

Соревнование 2: Разметка ресторанов по изображениям

Дата выдачи: 10.01.2017

Дедлайн: 05.02.2017

Соревнование на Kaggle InClass: https://inclass.kaggle.com/c/hse-yelp-restaurant-photo-classification-2/

Ссылка для участия: https://kaggle.com/join/hserestaurant

Требования к отчёту по соревнованию

Дедлайн по отчёту: 12.02.2017 23:59 MSK

Коллоквиум

Дата: 25.04.2017

Коллоквиум проводится с 12:10 до 13:30 в семинарских аудиториях (по расписанию).

Вопросы к коллоквиуму

Коллоквиум письменный, каждый вариант будет состоять из теоретического вопроса и нескольких задач.

Экзамен

Дата: 20.06.2017

Вопросы к экзамену

Экзамен письменный, каждый вариант будет состоять из двух теоретических вопросов.

Полезные материалы

Книги

  • Hastie T., Tibshirani R, Friedman J. The Elements of Statistical Learning (2nd edition). Springer, 2009.
  • Bishop C. M. Pattern Recognition and Machine Learning. Springer, 2006.
  • Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.
  • Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.
  • Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.
  • Willi Richert, Luis Pedro Coelho. Building Machine Learning Systems with Python. Packt Publishing, 2013.

Курсы по машинному обучению и анализу данных