Машинное обучение (фэн 2019) — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
(svd + pca link)
(Полезные материалы)
Строка 89: Строка 89:
 
[https://github.com/esokolov/ml-course-hse/raw/master/2018-fall/lecture-notes/lecture06-linclass.pdf Лекция 6 Евгения Соколова про многоклассовую классификацию]
 
[https://github.com/esokolov/ml-course-hse/raw/master/2018-fall/lecture-notes/lecture06-linclass.pdf Лекция 6 Евгения Соколова про многоклассовую классификацию]
  
'''Неделя 6''' (план, лекция 11 октября). Пять взглядов на метод главных компонент: минимизация суммы квадратов сдвигов точек, максимизация среднего квадрата выборочной корреляции, максимизация выборочной дисперсии, диагонализация ковариационной матрицы, сингулярное разложение для матрицы регрессоров.
+
'''Неделя 6''' (лекция 11 октября). Два взглядов на метод главных компонент: максимизация выборочной дисперсии, диагонализация ковариационной матрицы.
 +
 
 +
[http://web.math.ku.dk/~richard/courses/statlearn2011/pca.pdf оч удачный листок, доказывающий эквивалентность трёх подходов]
 +
 
 +
[https://www.researchgate.net/publication/318472700_Teaching_Principal_Components_Using_Correlations pca как максимизация среднего значения коэффициента детерминации]
 +
 
 +
[http://www.robots.ox.ac.uk/~cvrg/hilary2006/ppca.pdf вероятностная модель за pca]
  
 
[https://stats.stackexchange.com/questions/134282 Про связь PCA и SVD на stats.stackexchange]
 
[https://stats.stackexchange.com/questions/134282 Про связь PCA и SVD на stats.stackexchange]
  
 +
[https://stats.stackexchange.com/questions/2691 making sense of PCA]
  
 
===Книги===
 
===Книги===

Версия 00:42, 12 октября 2019

О курсе

Официальная программа

Таблица с оценками


Группа Преподаватель Учебный ассистент Username Расписание
лекции Борис Демешев R405, пятница, 9:00-10:30
... Павел Губко
... Артем Филатов
... Артур Петросян

Правила выставления оценок

В курсе предусмотрено несколько форм контроля знания:

  • Квизы (самостоятельные работы) на семинарах, проверяющие знание основных фактов с лекций и выполнение теоретических домашних заданий
  • Практические домашние работы на Python
  • Соревнование по анализу данных
  • Устный коллоквиум в конце 1-го модуля
  • Письменный экзамен

Итоговая оценка = 0.2 * Квизы + 0.3 * Домашние задания + 0.2 * Коллоквиум + 0.3 * Экзамен

Накопленная и итоговая оценки округляются арифметически. Никакие промежуточные оценки, в том числе оценки за домашние задания, самостоятельные работы или коллоквиум, не округляются.

Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности.

По курсу возможно получение оценки автоматом без сдачи экзамена. Необходимым условием для получения автомата является накопленная оценка, равная 8 или выше.

Коллоквиум и экзамен

Коллоквиум будет проведен ...

  • коллоквиум будет включать в себя теоретические вопросы и задачи
  • на подготовку и ответ будет выделено примерно по ... минут
  • пользоваться при подготовке ничем нельзя

Экзамен будет проведен ...

Полезные материалы

Задачник по машинному обучению

Неделя 1 (лекция 6 сентября). Матричный дифференциал и его свойства. Формула оценивания. Киноклуб Two minutes paper.

Матричный дифференциал

Two minutes paper

Курс по питону с курсеры

Неделя 2 (лекция 13 сентября). Второй дифференциал. Явный вывод оценок МНК в матричной форме. Проверка условий второго порядка с помощью второго дифференциала. Градиентный спуск. Методы оценки градиента: SG, SAG, momentum.

Приятная визуализация Why momentum really works?

Лекция 2 Евгения Соколова про линейную регрессию

Слайды про SG, SAG от Carnegie Mellon

Неделя 3 (лекция 20 сентября). Парадокс Штейна или зачем нужна регуляризация? Идея LASSO и гребневой регрессии.

Wikipedia, Stein's example

Richard Samworth, Stein Paradox

Лекция 3 Евгения Соколова про линейные модели

Что общего между Ridge regression и Stein paradox?

Неделя 4 (лекция 27 сентября). Задача классификации. Персептрон, обучение персептрона. Логистическая регрессия: функция правдоподобия, интерпретация коэффициентов, интерпретация с помощью полезности. Кривая точность-полнота, ROC-кривая.

Лекция 4 Евгения Соколова про линейные классификаторы

Глава 5 про персептрон и глава 9 про логистическую регрессию

Неделя 5 (лекция 04 октября). Многоклассовая классификация. Идеи: обобщение алгоритма на примере логистической регрессии, один против остальных, каждый против каждого. Создание признаков: стандартизация, one-hot кодирование, one-hot кодирование с хэш-функцией, mean-target кодирование на примере долей для дискретной зависимой переменной.

Лекция 6 Евгения Соколова про многоклассовую классификацию

Неделя 6 (лекция 11 октября). Два взглядов на метод главных компонент: максимизация выборочной дисперсии, диагонализация ковариационной матрицы.

оч удачный листок, доказывающий эквивалентность трёх подходов

pca как максимизация среднего значения коэффициента детерминации

вероятностная модель за pca

Про связь PCA и SVD на stats.stackexchange

making sense of PCA

Книги

  • Hastie T., Tibshirani R, Friedman J. The Elements of Statistical Learning (2nd edition). Springer, 2009.r, 2009.
  • Bishop C. M. Pattern Recognition and Machine Learning. Springer, 2006.
  • Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.
  • Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.
  • Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.
  • Willi Richert, Luis Pedro Coelho. Building Machine Learning Systems with Python. Packt Publishing, 2013.

Курсы по машинному обучению и анализу данных