Современные методы машинного обучения (курс майнора) ИАД4 — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
(Полезные ссылки (Будут пополняться))
 
(не показано 40 промежуточных версии этого же участника)
Строка 3: Строка 3:
  
 
На данной странице будут вывешиваться последние новости и материалы для семинарских занятий группы ИАД-4
 
На данной странице будут вывешиваться последние новости и материалы для семинарских занятий группы ИАД-4
 +
 +
'''27 октября коллоквиума не будет!''' Следите за обновлениями.
  
 
Семинарист: [[Участник:Ashestakoff | Шестаков Андрей]] [mailto:shestakoffandrey@gmail.com shestakoffandrey@gmail.com] <br/>
 
Семинарист: [[Участник:Ashestakoff | Шестаков Андрей]] [mailto:shestakoffandrey@gmail.com shestakoffandrey@gmail.com] <br/>
 
При обращении по почте, начинайте тему письма со слов ''[Майнор ИАД]''
 
При обращении по почте, начинайте тему письма со слов ''[Майнор ИАД]''
 +
 +
Перед тем как что-то спрашивать по почте, проверьте, нет ли ответа на ваш вопрос вот [https://www.google.ru/ здесь].
  
 
''' [http://wiki.cs.hse.ru/%D0%A1%D0%BE%D0%B2%D1%80%D0%B5%D0%BC%D0%B5%D0%BD%D0%BD%D1%8B%D0%B5_%D0%BC%D0%B5%D1%82%D0%BE%D0%B4%D1%8B_%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B3%D0%BE_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D1%8F_(%D0%BA%D1%83%D1%80%D1%81_%D0%BC%D0%B0%D0%B9%D0%BD%D0%BE%D1%80%D0%B0) Страница] курса''' <br/>
 
''' [http://wiki.cs.hse.ru/%D0%A1%D0%BE%D0%B2%D1%80%D0%B5%D0%BC%D0%B5%D0%BD%D0%BD%D1%8B%D0%B5_%D0%BC%D0%B5%D1%82%D0%BE%D0%B4%D1%8B_%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B3%D0%BE_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D1%8F_(%D0%BA%D1%83%D1%80%D1%81_%D0%BC%D0%B0%D0%B9%D0%BD%D0%BE%D1%80%D0%B0) Страница] курса''' <br/>
 
'''Анонимные''' комментарии, замечания и пожелания можно оставить [https://docs.google.com/forms/d/1JevHn2TS5KD83KLNbwbstDUgOjF7dZ8SaY0pLeRTTIw/viewform здесь]<br/>
 
'''Анонимные''' комментарии, замечания и пожелания можно оставить [https://docs.google.com/forms/d/1JevHn2TS5KD83KLNbwbstDUgOjF7dZ8SaY0pLeRTTIw/viewform здесь]<br/>
 +
 +
'''[https://drive.google.com/open?id=1RZEvHk_TFy3fHJ1zoLbI7isvnPHLFvPN0KQKq6cgcMs Таблица с оценками]'''
  
 
== Семинары ==
 
== Семинары ==
 
'''1) 15 Сентября 2016:''' Метод опорных векторов. Ядра. - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/1%20SVM.ipynb IPython Notebook] <br/>
 
'''1) 15 Сентября 2016:''' Метод опорных векторов. Ядра. - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/1%20SVM.ipynb IPython Notebook] <br/>
'''2) 22 Сентября 2016:''' Методы оптимизации. Градиентный спуск и КО - [IPython Notebook] <br/>
+
'''2) 22 Сентября 2016:''' Методы оптимизации. Градиентный спуск и КО - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/2_gradient_descent.ipynb IPython Notebook], [https://www.dropbox.com/s/awkl0xjdbksh9s2/data.zip?dl=0 data] <br/>
 +
'''3) 29 Сентября 2016:''' Методы предобработки данных - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/3_preproc.ipynb IPython Notebook], [https://www.dropbox.com/s/ha0cxwk27fnggpu/WineKMC.xlsx?dl=0 data] <br/>
 +
'''4) 6 Октября 2016:''' Вспоминаем градиентный спуск (см. памятку) <br/>
 +
'''5) 13 Октября 2016:''' Композиции алгоритмов, бустинг - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/5_seminar-boost.ipynb IPython Notebook] <br/>
 +
'''6) 20 Октября 2016:''' Консультация, вопросы и немного про нейронные сети (у доски) <br/>
 +
'''7) 10 Ноября 2016:''' Пробуем нейронные сети - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/6_keras_nn_tutorial.ipynb IPython Notebook 1], [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/6_keras_rnn.ipynb IPython Notebook 2] <br/>
 +
'''8) 17 Ноября 2016:''' Доверительные интервалы - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/7_stats_basic1.ipynb Stats.Basics 1], [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/7_stats_basic2.ipynb Stats.Basics 2], [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/7_stats_confidence.ipynb Доверительные интервалы], [https://www.dropbox.com/s/gls3vji6tacfqwi/data.zip?dl=0 Данные]  <br/>
 +
'''9) 24 Ноября 2016:''' Проверка статистических гипотез - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/8_stats_hypo.ipynb Практика], [https://www.dropbox.com/s/2tte9h09bjyi1nw/8_stats_hypo_help.zip?dl=0 help],<br/>
 +
'''10) 1 Декабря 2016:''' Оценка зависимостей - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/9_stats_corr.ipynb IPython Notebook], [https://www.dropbox.com/s/vtgi5b4he9g7c8p/foodmart.sales.tsv?dl=0 data1], [https://www.dropbox.com/s/xt1sp3ov0emz7yd/foodmart.products.tsv?dl=0 data2],<br/>
 +
'''11) 8 Декабря 2016:''' Линейная регрессия - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/11_stats_regression.ipynb IPython Notebook], [https://www.dropbox.com/s/wdz0rsxecqa9e42/beauty.csv?dl=0 data2],<br/>
 +
'''12) 15 Декабря 2016:''' Прогнозирование временных рядов - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/12-stats-timeseries.ipynb IPython Notebook],<br/>
  
 
== Домашние Задания ==
 
== Домашние Задания ==
[http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/hw1-svm.ipynb ДЗ 1.], [https://www.dropbox.com/s/mc2u2r8spel5jo1/data.zip?dl=0 data] ''Срок - 30 Сентября 2016'' <br/>
+
1) [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/hw1-svm.ipynb ДЗ 1.], [https://www.dropbox.com/s/mc2u2r8spel5jo1/data.zip?dl=0 data] ''Срок - 30 Сентября 2016'' <br/>
 +
1.1) [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/4_gradient_descent_pt2_sol.ipynb Памятка по градиентному спуску + мини задание], [https://www.dropbox.com/sh/1uxmj384gpu9zwq/AAA8oMPwG-ZzKA_tHFAU9TYna?dl=0 data] ''Срок - 14 Октября 2016'' <br/>
 +
2) [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/hw2-trees.ipynb ДЗ 2.], [https://www.dropbox.com/s/yr4v0ylz0adtcnx/student.zip?dl=0 data] ''Срок - 23 Октября 2016'' <br/>
 +
3) [https://kaggle.com/join/8qoUDtE07A Соревнование Kaggle] - ''Срок - 15 Ноября 2016'' <br/>
 +
4) [[Современные методы машинного обучения (курс майнора)/ДЗ3|ДЗ 3 (click me!)]] - ''Срок - 24 Ноября 2016'' <br/>
 +
5) [[Современные методы машинного обучения (курс майнора)/ДЗ4|ДЗ 4 (click me!)]] - ''Срок - 4 Декабря 2016'' <br/>
 +
6) [[Современные методы машинного обучения (курс майнора)/ДЗ5|ДЗ 5 (click me!)]] - ''Срок - 20 Декабря 2016 23:59'' <br/>
  
 
== Полезные ссылки (Будут пополняться) ==
 
== Полезные ссылки (Будут пополняться) ==
 +
'''Семинар 12 '''
 +
# [https://www.otexts.org/fpp Forecasting: principles and practice]
 +
 +
''' Семинар 9 '''
 +
# [http://www.cs.cornell.edu/~asampson/blog/statsmistakes.html Statistical Mistakes and How to Avoid Them]
 +
 +
''' Семинар 7 '''
 +
# [http://playground.tensorflow.org Neural Network interactive playground]
 +
# [https://jakebian.github.io/quiver/ Conv NN Layer Visualization]
 +
 +
''' Семинар 5 '''
 +
# [http://arogozhnikov.github.io/2016/07/05/gradient_boosting_playground.html Gradient boosting interactive playground]
 +
# [http://www.slideshare.net/ShangxuanZhang/kaggle-winning-solution-xgboost-algorithm-let-us-learn-from-its-author About XGBoost]
 +
 
''' Семинар 2 '''
 
''' Семинар 2 '''
 
# [http://sebastianruder.com/optimizing-gradient-descent/ Про методы оптимизации в МО]
 
# [http://sebastianruder.com/optimizing-gradient-descent/ Про методы оптимизации в МО]

Текущая версия на 17:47, 17 декабря 2016

Майнор по "Современным методам машинного обучения" - 2016/2017 учебный год - ИАД-4

На данной странице будут вывешиваться последние новости и материалы для семинарских занятий группы ИАД-4

27 октября коллоквиума не будет! Следите за обновлениями.

Семинарист: Шестаков Андрей shestakoffandrey@gmail.com
При обращении по почте, начинайте тему письма со слов [Майнор ИАД]

Перед тем как что-то спрашивать по почте, проверьте, нет ли ответа на ваш вопрос вот здесь.

Страница курса
Анонимные комментарии, замечания и пожелания можно оставить здесь

Таблица с оценками

Семинары

1) 15 Сентября 2016: Метод опорных векторов. Ядра. - IPython Notebook
2) 22 Сентября 2016: Методы оптимизации. Градиентный спуск и КО - IPython Notebook, data
3) 29 Сентября 2016: Методы предобработки данных - IPython Notebook, data
4) 6 Октября 2016: Вспоминаем градиентный спуск (см. памятку)
5) 13 Октября 2016: Композиции алгоритмов, бустинг - IPython Notebook
6) 20 Октября 2016: Консультация, вопросы и немного про нейронные сети (у доски)
7) 10 Ноября 2016: Пробуем нейронные сети - IPython Notebook 1, IPython Notebook 2
8) 17 Ноября 2016: Доверительные интервалы - Stats.Basics 1, Stats.Basics 2, Доверительные интервалы, Данные
9) 24 Ноября 2016: Проверка статистических гипотез - Практика, help,
10) 1 Декабря 2016: Оценка зависимостей - IPython Notebook, data1, data2,
11) 8 Декабря 2016: Линейная регрессия - IPython Notebook, data2,
12) 15 Декабря 2016: Прогнозирование временных рядов - IPython Notebook,

Домашние Задания

1) ДЗ 1., data Срок - 30 Сентября 2016
1.1) Памятка по градиентному спуску + мини задание, data Срок - 14 Октября 2016
2) ДЗ 2., data Срок - 23 Октября 2016
3) Соревнование Kaggle - Срок - 15 Ноября 2016
4) ДЗ 3 (click me!) - Срок - 24 Ноября 2016
5) ДЗ 4 (click me!) - Срок - 4 Декабря 2016
6) ДЗ 5 (click me!) - Срок - 20 Декабря 2016 23:59

Полезные ссылки (Будут пополняться)

Семинар 12

  1. Forecasting: principles and practice

Семинар 9

  1. Statistical Mistakes and How to Avoid Them

Семинар 7

  1. Neural Network interactive playground
  2. Conv NN Layer Visualization

Семинар 5

  1. Gradient boosting interactive playground
  2. About XGBoost

Семинар 2

  1. Про методы оптимизации в МО
  2. Gradient Descent Demo

Семинар 1

  1. Пример работы полиномиального ядра
  2. Описание ядер
  3. Еще про SVM

Pandas & Seaborn

  1. Pandas
  2. Effective Pandas
  3. Pandas Cheat-Sheet
  4. Pandas Visualization
  5. Seaborn

Наборы данных

  1. Портал Открытых Данных РФ
  2. Funny Datasets
  3. Сборник Открытых Данных (!!!)
  4. Еще наборы данных

FYI

  1. Spurious Correlations
  2. Correlation

Python

  1. PEP-8 Code Style Guide Cheat-sheet
  2. Python Tutorials Point
  3. Matplotlib Tutorial
  4. Matrix Manipulation Cheat-sheet
  5. Ipython Notebook
  6. Beaker Notebook
  7. yhat Rodeo

Ресурсы и Книги

  1. James, Witten, Hastie, Tibshirani — An Introduction to Statistical Learning
  2. Bishop — Pattern Recognition and Machine Learning (первые главы)
  3. MachineLearning.ru
  4. Kaggle
  5. UCI Repo
  6. Visual Intro to ML

Онлайн Курсы

  1. Andrew Ng's Course
  2. Introduction to ML
  3. Learning Data Science with Python
  4. Курс от ВШЭ
  5. Обзор МООС Курсов