Современные методы машинного обучения (курс майнора) ИАД4 — различия между версиями
(→Полезные ссылки (Будут пополняться)) |
|||
(не показана одна промежуточная версия этого же участника) | |||
Строка 3: | Строка 3: | ||
На данной странице будут вывешиваться последние новости и материалы для семинарских занятий группы ИАД-4 | На данной странице будут вывешиваться последние новости и материалы для семинарских занятий группы ИАД-4 | ||
+ | |||
+ | '''27 октября коллоквиума не будет!''' Следите за обновлениями. | ||
Семинарист: [[Участник:Ashestakoff | Шестаков Андрей]] [mailto:shestakoffandrey@gmail.com shestakoffandrey@gmail.com] <br/> | Семинарист: [[Участник:Ashestakoff | Шестаков Андрей]] [mailto:shestakoffandrey@gmail.com shestakoffandrey@gmail.com] <br/> | ||
При обращении по почте, начинайте тему письма со слов ''[Майнор ИАД]'' | При обращении по почте, начинайте тему письма со слов ''[Майнор ИАД]'' | ||
+ | |||
+ | Перед тем как что-то спрашивать по почте, проверьте, нет ли ответа на ваш вопрос вот [https://www.google.ru/ здесь]. | ||
''' [http://wiki.cs.hse.ru/%D0%A1%D0%BE%D0%B2%D1%80%D0%B5%D0%BC%D0%B5%D0%BD%D0%BD%D1%8B%D0%B5_%D0%BC%D0%B5%D1%82%D0%BE%D0%B4%D1%8B_%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B3%D0%BE_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D1%8F_(%D0%BA%D1%83%D1%80%D1%81_%D0%BC%D0%B0%D0%B9%D0%BD%D0%BE%D1%80%D0%B0) Страница] курса''' <br/> | ''' [http://wiki.cs.hse.ru/%D0%A1%D0%BE%D0%B2%D1%80%D0%B5%D0%BC%D0%B5%D0%BD%D0%BD%D1%8B%D0%B5_%D0%BC%D0%B5%D1%82%D0%BE%D0%B4%D1%8B_%D0%BC%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B3%D0%BE_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D1%8F_(%D0%BA%D1%83%D1%80%D1%81_%D0%BC%D0%B0%D0%B9%D0%BD%D0%BE%D1%80%D0%B0) Страница] курса''' <br/> | ||
'''Анонимные''' комментарии, замечания и пожелания можно оставить [https://docs.google.com/forms/d/1JevHn2TS5KD83KLNbwbstDUgOjF7dZ8SaY0pLeRTTIw/viewform здесь]<br/> | '''Анонимные''' комментарии, замечания и пожелания можно оставить [https://docs.google.com/forms/d/1JevHn2TS5KD83KLNbwbstDUgOjF7dZ8SaY0pLeRTTIw/viewform здесь]<br/> | ||
+ | |||
+ | '''[https://drive.google.com/open?id=1RZEvHk_TFy3fHJ1zoLbI7isvnPHLFvPN0KQKq6cgcMs Таблица с оценками]''' | ||
== Семинары == | == Семинары == | ||
'''1) 15 Сентября 2016:''' Метод опорных векторов. Ядра. - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/1%20SVM.ipynb IPython Notebook] <br/> | '''1) 15 Сентября 2016:''' Метод опорных векторов. Ядра. - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/1%20SVM.ipynb IPython Notebook] <br/> | ||
− | '''2) 22 Сентября 2016:''' Методы оптимизации. Градиентный спуск и КО - [IPython Notebook] <br/> | + | '''2) 22 Сентября 2016:''' Методы оптимизации. Градиентный спуск и КО - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/2_gradient_descent.ipynb IPython Notebook], [https://www.dropbox.com/s/awkl0xjdbksh9s2/data.zip?dl=0 data] <br/> |
+ | '''3) 29 Сентября 2016:''' Методы предобработки данных - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/3_preproc.ipynb IPython Notebook], [https://www.dropbox.com/s/ha0cxwk27fnggpu/WineKMC.xlsx?dl=0 data] <br/> | ||
+ | '''4) 6 Октября 2016:''' Вспоминаем градиентный спуск (см. памятку) <br/> | ||
+ | '''5) 13 Октября 2016:''' Композиции алгоритмов, бустинг - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/5_seminar-boost.ipynb IPython Notebook] <br/> | ||
+ | '''6) 20 Октября 2016:''' Консультация, вопросы и немного про нейронные сети (у доски) <br/> | ||
+ | '''7) 10 Ноября 2016:''' Пробуем нейронные сети - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/6_keras_nn_tutorial.ipynb IPython Notebook 1], [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/6_keras_rnn.ipynb IPython Notebook 2] <br/> | ||
+ | '''8) 17 Ноября 2016:''' Доверительные интервалы - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/7_stats_basic1.ipynb Stats.Basics 1], [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/7_stats_basic2.ipynb Stats.Basics 2], [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/7_stats_confidence.ipynb Доверительные интервалы], [https://www.dropbox.com/s/gls3vji6tacfqwi/data.zip?dl=0 Данные] <br/> | ||
+ | '''9) 24 Ноября 2016:''' Проверка статистических гипотез - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/8_stats_hypo.ipynb Практика], [https://www.dropbox.com/s/2tte9h09bjyi1nw/8_stats_hypo_help.zip?dl=0 help],<br/> | ||
+ | '''10) 1 Декабря 2016:''' Оценка зависимостей - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/9_stats_corr.ipynb IPython Notebook], [https://www.dropbox.com/s/vtgi5b4he9g7c8p/foodmart.sales.tsv?dl=0 data1], [https://www.dropbox.com/s/xt1sp3ov0emz7yd/foodmart.products.tsv?dl=0 data2],<br/> | ||
+ | '''11) 8 Декабря 2016:''' Линейная регрессия - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/11_stats_regression.ipynb IPython Notebook], [https://www.dropbox.com/s/wdz0rsxecqa9e42/beauty.csv?dl=0 data2],<br/> | ||
+ | '''12) 15 Декабря 2016:''' Прогнозирование временных рядов - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/12-stats-timeseries.ipynb IPython Notebook],<br/> | ||
== Домашние Задания == | == Домашние Задания == | ||
− | [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/hw1-svm.ipynb ДЗ 1.], [https://www.dropbox.com/s/ | + | 1) [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/hw1-svm.ipynb ДЗ 1.], [https://www.dropbox.com/s/mc2u2r8spel5jo1/data.zip?dl=0 data] ''Срок - 30 Сентября 2016'' <br/> |
+ | 1.1) [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/4_gradient_descent_pt2_sol.ipynb Памятка по градиентному спуску + мини задание], [https://www.dropbox.com/sh/1uxmj384gpu9zwq/AAA8oMPwG-ZzKA_tHFAU9TYna?dl=0 data] ''Срок - 14 Октября 2016'' <br/> | ||
+ | 2) [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/hw2-trees.ipynb ДЗ 2.], [https://www.dropbox.com/s/yr4v0ylz0adtcnx/student.zip?dl=0 data] ''Срок - 23 Октября 2016'' <br/> | ||
+ | 3) [https://kaggle.com/join/8qoUDtE07A Соревнование Kaggle] - ''Срок - 15 Ноября 2016'' <br/> | ||
+ | 4) [[Современные методы машинного обучения (курс майнора)/ДЗ3|ДЗ 3 (click me!)]] - ''Срок - 24 Ноября 2016'' <br/> | ||
+ | 5) [[Современные методы машинного обучения (курс майнора)/ДЗ4|ДЗ 4 (click me!)]] - ''Срок - 4 Декабря 2016'' <br/> | ||
+ | 6) [[Современные методы машинного обучения (курс майнора)/ДЗ5|ДЗ 5 (click me!)]] - ''Срок - 20 Декабря 2016 23:59'' <br/> | ||
== Полезные ссылки (Будут пополняться) == | == Полезные ссылки (Будут пополняться) == | ||
+ | '''Семинар 12 ''' | ||
+ | # [https://www.otexts.org/fpp Forecasting: principles and practice] | ||
+ | |||
+ | ''' Семинар 9 ''' | ||
+ | # [http://www.cs.cornell.edu/~asampson/blog/statsmistakes.html Statistical Mistakes and How to Avoid Them] | ||
+ | |||
+ | ''' Семинар 7 ''' | ||
+ | # [http://playground.tensorflow.org Neural Network interactive playground] | ||
+ | # [https://jakebian.github.io/quiver/ Conv NN Layer Visualization] | ||
+ | |||
+ | ''' Семинар 5 ''' | ||
+ | # [http://arogozhnikov.github.io/2016/07/05/gradient_boosting_playground.html Gradient boosting interactive playground] | ||
+ | # [http://www.slideshare.net/ShangxuanZhang/kaggle-winning-solution-xgboost-algorithm-let-us-learn-from-its-author About XGBoost] | ||
+ | |||
''' Семинар 2 ''' | ''' Семинар 2 ''' | ||
# [http://sebastianruder.com/optimizing-gradient-descent/ Про методы оптимизации в МО] | # [http://sebastianruder.com/optimizing-gradient-descent/ Про методы оптимизации в МО] |
Текущая версия на 17:47, 17 декабря 2016
Содержание
Майнор по "Современным методам машинного обучения" - 2016/2017 учебный год - ИАД-4
На данной странице будут вывешиваться последние новости и материалы для семинарских занятий группы ИАД-4
27 октября коллоквиума не будет! Следите за обновлениями.
Семинарист: Шестаков Андрей shestakoffandrey@gmail.com
При обращении по почте, начинайте тему письма со слов [Майнор ИАД]
Перед тем как что-то спрашивать по почте, проверьте, нет ли ответа на ваш вопрос вот здесь.
Страница курса
Анонимные комментарии, замечания и пожелания можно оставить здесь
Семинары
1) 15 Сентября 2016: Метод опорных векторов. Ядра. - IPython Notebook
2) 22 Сентября 2016: Методы оптимизации. Градиентный спуск и КО - IPython Notebook, data
3) 29 Сентября 2016: Методы предобработки данных - IPython Notebook, data
4) 6 Октября 2016: Вспоминаем градиентный спуск (см. памятку)
5) 13 Октября 2016: Композиции алгоритмов, бустинг - IPython Notebook
6) 20 Октября 2016: Консультация, вопросы и немного про нейронные сети (у доски)
7) 10 Ноября 2016: Пробуем нейронные сети - IPython Notebook 1, IPython Notebook 2
8) 17 Ноября 2016: Доверительные интервалы - Stats.Basics 1, Stats.Basics 2, Доверительные интервалы, Данные
9) 24 Ноября 2016: Проверка статистических гипотез - Практика, help,
10) 1 Декабря 2016: Оценка зависимостей - IPython Notebook, data1, data2,
11) 8 Декабря 2016: Линейная регрессия - IPython Notebook, data2,
12) 15 Декабря 2016: Прогнозирование временных рядов - IPython Notebook,
Домашние Задания
1) ДЗ 1., data Срок - 30 Сентября 2016
1.1) Памятка по градиентному спуску + мини задание, data Срок - 14 Октября 2016
2) ДЗ 2., data Срок - 23 Октября 2016
3) Соревнование Kaggle - Срок - 15 Ноября 2016
4) ДЗ 3 (click me!) - Срок - 24 Ноября 2016
5) ДЗ 4 (click me!) - Срок - 4 Декабря 2016
6) ДЗ 5 (click me!) - Срок - 20 Декабря 2016 23:59
Полезные ссылки (Будут пополняться)
Семинар 12
Семинар 9
Семинар 7
Семинар 5
Семинар 2
Семинар 1
Pandas & Seaborn
Наборы данных
FYI
Python
- PEP-8 Code Style Guide Cheat-sheet
- Python Tutorials Point
- Matplotlib Tutorial
- Matrix Manipulation Cheat-sheet
- Ipython Notebook
- Beaker Notebook
- yhat Rodeo
Ресурсы и Книги
- James, Witten, Hastie, Tibshirani — An Introduction to Statistical Learning
- Bishop — Pattern Recognition and Machine Learning (первые главы)
- MachineLearning.ru
- Kaggle
- UCI Repo
- Visual Intro to ML
Онлайн Курсы