Современные методы машинного обучения (курс майнора) ИАД4 — различия между версиями
Строка 16: | Строка 16: | ||
'''2) 22 Сентября 2016:''' Методы оптимизации. Градиентный спуск и КО - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/2_gradient_descent.ipynb IPython Notebook], [https://www.dropbox.com/s/awkl0xjdbksh9s2/data.zip?dl=0 data] <br/> | '''2) 22 Сентября 2016:''' Методы оптимизации. Градиентный спуск и КО - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/2_gradient_descent.ipynb IPython Notebook], [https://www.dropbox.com/s/awkl0xjdbksh9s2/data.zip?dl=0 data] <br/> | ||
'''3) 29 Сентября 2016:''' Методы предобработки данных - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/3_preproc.ipynb IPython Notebook], [https://www.dropbox.com/s/ha0cxwk27fnggpu/WineKMC.xlsx?dl=0 data] <br/> | '''3) 29 Сентября 2016:''' Методы предобработки данных - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/3_preproc.ipynb IPython Notebook], [https://www.dropbox.com/s/ha0cxwk27fnggpu/WineKMC.xlsx?dl=0 data] <br/> | ||
− | '''4) | + | '''4) 6 Октября 2016:''' Вспоминаем градиентный спуск (см. памятку) <br/> |
+ | '''5) 13 Октября 2016:''' Композиции алгоритмов, бустинг - [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/5_seminar-boost.ipynb IPython Notebook] <br/> | ||
== Домашние Задания == | == Домашние Задания == | ||
1) [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/hw1-svm.ipynb ДЗ 1.], [https://www.dropbox.com/s/mc2u2r8spel5jo1/data.zip?dl=0 data] ''Срок - 30 Сентября 2016'' <br/> | 1) [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/hw1-svm.ipynb ДЗ 1.], [https://www.dropbox.com/s/mc2u2r8spel5jo1/data.zip?dl=0 data] ''Срок - 30 Сентября 2016'' <br/> | ||
1.1) [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/4_gradient_descent_pt2_sol.ipynb Памятка по градиентному спуску + мини задание], [https://www.dropbox.com/sh/1uxmj384gpu9zwq/AAA8oMPwG-ZzKA_tHFAU9TYna?dl=0 data] ''Срок - 14 Октября 2016'' <br/> | 1.1) [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/4_gradient_descent_pt2_sol.ipynb Памятка по градиентному спуску + мини задание], [https://www.dropbox.com/sh/1uxmj384gpu9zwq/AAA8oMPwG-ZzKA_tHFAU9TYna?dl=0 data] ''Срок - 14 Октября 2016'' <br/> | ||
+ | 2) [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2016_pt2/blob/master/hw2-trees.ipynb ДЗ 2.], [https://www.dropbox.com/s/yr4v0ylz0adtcnx/student.zip?dl=0 data] ''Срок - 23 Октября 2016'' <br/> | ||
== Полезные ссылки (Будут пополняться) == | == Полезные ссылки (Будут пополняться) == | ||
+ | |||
+ | ''' Семинар 5 ''' | ||
+ | # [http://arogozhnikov.github.io/2016/07/05/gradient_boosting_playground.html Gradient boosting interactive playground] | ||
+ | # [http://www.slideshare.net/ShangxuanZhang/kaggle-winning-solution-xgboost-algorithm-let-us-learn-from-its-author about XGBoost] | ||
+ | |||
''' Семинар 2 ''' | ''' Семинар 2 ''' | ||
# [http://sebastianruder.com/optimizing-gradient-descent/ Про методы оптимизации в МО] | # [http://sebastianruder.com/optimizing-gradient-descent/ Про методы оптимизации в МО] |
Версия 01:41, 13 октября 2016
Содержание
Майнор по "Современным методам машинного обучения" - 2016/2017 учебный год - ИАД-4
На данной странице будут вывешиваться последние новости и материалы для семинарских занятий группы ИАД-4
Семинарист: Шестаков Андрей shestakoffandrey@gmail.com
При обращении по почте, начинайте тему письма со слов [Майнор ИАД]
Страница курса
Анонимные комментарии, замечания и пожелания можно оставить здесь
Семинары
1) 15 Сентября 2016: Метод опорных векторов. Ядра. - IPython Notebook
2) 22 Сентября 2016: Методы оптимизации. Градиентный спуск и КО - IPython Notebook, data
3) 29 Сентября 2016: Методы предобработки данных - IPython Notebook, data
4) 6 Октября 2016: Вспоминаем градиентный спуск (см. памятку)
5) 13 Октября 2016: Композиции алгоритмов, бустинг - IPython Notebook
Домашние Задания
1) ДЗ 1., data Срок - 30 Сентября 2016
1.1) Памятка по градиентному спуску + мини задание, data Срок - 14 Октября 2016
2) ДЗ 2., data Срок - 23 Октября 2016
Полезные ссылки (Будут пополняться)
Семинар 5
Семинар 2
Семинар 1
Pandas & Seaborn
Наборы данных
FYI
Python
- PEP-8 Code Style Guide Cheat-sheet
- Python Tutorials Point
- Matplotlib Tutorial
- Matrix Manipulation Cheat-sheet
- Ipython Notebook
- Beaker Notebook
- yhat Rodeo
Ресурсы и Книги
- James, Witten, Hastie, Tibshirani — An Introduction to Statistical Learning
- Bishop — Pattern Recognition and Machine Learning (первые главы)
- MachineLearning.ru
- Kaggle
- UCI Repo
- Visual Intro to ML
Онлайн Курсы