Современные методы машинного обучения (курс майнора) ИАД2-6 — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
(Семинары)
(Семинары)
Строка 24: Строка 24:
 
'''6) 20 октября 2016:''' Multilayered Perceptron - [https://www.dropbox.com/s/pq0tsya61uljr9w/6.MLP.ipynb?dl=0 Notebook]<br/>
 
'''6) 20 октября 2016:''' Multilayered Perceptron - [https://www.dropbox.com/s/pq0tsya61uljr9w/6.MLP.ipynb?dl=0 Notebook]<br/>
 
'''7) 10 ноября 2016:''' Градиентный бустинг, Xgboost - [http://nbviewer.jupyter.org/github/cs-hse/ML_DM_HSE_minor/blob/master/module3_advanced_ML_notebooks/seminar7_boosting/part01_boosting.ipynb Notebook] <br/>
 
'''7) 10 ноября 2016:''' Градиентный бустинг, Xgboost - [http://nbviewer.jupyter.org/github/cs-hse/ML_DM_HSE_minor/blob/master/module3_advanced_ML_notebooks/seminar7_boosting/part01_boosting.ipynb Notebook] <br/>
'''10) 1 декабря 2016.''' Непараметрические тесты, корреляция. Ноутбуки: [https://github.com/grafft/hse-tasks/tree/master/minor-aml-16/sem9 1], [https://github.com/grafft/hse-tasks/tree/master/minor-aml-16/sem10 2].
+
'''10) 1 декабря 2016.''' Непараметрические тесты, корреляция. Ноутбуки: [https://github.com/cs-hse/ML_DM_HSE_minor/tree/master/module3_statistics_notebooks/seminar2_hypotheses тесты], [https://github.com/cs-hse/ML_DM_HSE_minor/tree/master/module3_statistics_notebooks/seminar3_correlations корреляция].
  
 
== Домашние Задания ==
 
== Домашние Задания ==

Версия 12:15, 1 декабря 2016

Майнор по курсу "Современные методы машинного обучения" - 2016/2017 учебный год - ИАД-2 и ИАД-6

Семинаристы: Паринов Андрей Андреевич, e-mail: aparinov@gmail.com , Кашницкий Юрий Савельевич, e-mail: yury.kashnitsky@gmail.com
Ассистент: Айбек Аланов, e-mail: alanov.aibek@gmail.com

Все новости, вопросы и обсуждения – в форуме Piazza.

Материалы – в репозитории GitHub.

Страница курса

Таблица с оценками [1]
Результирующая оценка по дисциплине рассчитывается по формуле: Oитог=0.7 Oнакопл+0.3 Oэкз
Накопленная оценка рассчитывается по формуле: Oнакопл=0.15 Oсамост+0.15 Oауд+0.5 Oдз+0.2 Oколлоквиум
Анонимные комментарии, замечания и пожелания можно оставить здесь

Семинары

1) 15 сентября 2016: Метод опорных векторов. Ядра - IPython Notebook
2) 22 сентября 2016: Стохастический градиент - Data&Notebook
3) 29 сентября 2016: Предобработка данных - Notebook
4) 6 октября 2016: Предобработка данных 2 - Notebook
5) 20 октября 2016: Bagging. RF. Boosting - Notebook
6) 20 октября 2016: Multilayered Perceptron - Notebook
7) 10 ноября 2016: Градиентный бустинг, Xgboost - Notebook
10) 1 декабря 2016. Непараметрические тесты, корреляция. Ноутбуки: тесты, корреляция.

Домашние Задания

[ДЗ 1.] Данные. Срок – 30 сентября 2016
[ДЗ 2.] Статья Срок – 26 октября 2016
[ДЗ 3.] ЦПТ. Срок – 24 ноября 2016
[ДЗ 4.] Удержание клиентов. Срок – 1 декабря 2016

Полезные ссылки

Семинар 1

  1. Пример работы полиномиального ядра
  2. Описание ядер
  3. Еще про SVM

Pandas & Seaborn

  1. Pandas
  2. Effective Pandas
  3. Pandas Cheat-Sheet
  4. Pandas Visualization
  5. Seaborn

Наборы данных

  1. Портал Открытых Данных РФ
  2. Funny Datasets
  3. Сборник Открытых Данных (!!!)
  4. Еще наборы данных

FYI

  1. Spurious Correlations
  2. Correlation

Семинар 1

Python

  1. PEP-8 Code Style Guide Cheat-sheet
  2. Python Tutorials Point
  3. Matplotlib Tutorial
  4. Matrix Manipulation Cheat-sheet
  5. Ipython Notebook
  6. Beaker Notebook
  7. yhat Rodeo

Ресурсы и Книги

  1. James, Witten, Hastie, Tibshirani — An Introduction to Statistical Learning
  2. Bishop — Pattern Recognition and Machine Learning (первые главы)
  3. MachineLearning.ru
  4. Kaggle
  5. UCI Repo
  6. Visual Intro to ML

Онлайн Курсы

  1. Andrew Ng's Course
  2. Introduction to ML
  3. Learning Data Science with Python
  4. Курс от ВШЭ
  5. Обзор МООС Курсов