Современные методы машинного обучения (курс майнора) ИАД3-7 — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
Строка 12: Строка 12:
 
== Семинары ==
 
== Семинары ==
 
'''1) 15 Сентября 2016:''' Метод опорных векторов. Ядра. <br/>
 
'''1) 15 Сентября 2016:''' Метод опорных векторов. Ядра. <br/>
[[https://github.com/grafft/hse-tasks/blob/master/minor-aml-16/sem1/1%20SVM-sem.ipynb IPython Notebook]] <br/>
+
[https://github.com/grafft/hse-tasks/blob/master/minor-aml-16/sem1/1%20SVM-sem.ipynb IPython Notebook] <br/>
  
 
'''2) 22 Сентября 2016:''' Оптимизация. Градиентный спуск. <br/>
 
'''2) 22 Сентября 2016:''' Оптимизация. Градиентный спуск. <br/>
[[https://github.com/shahurik/hse-minor-ml/blob/master/seminar-2/2_gradient_descent.ipynb Data&Notebook]] <br/>
+
[https://github.com/shahurik/hse-minor-ml/blob/master/seminar-2/2_gradient_descent.ipynb Data&Notebook] <br/>
 
[http://sebastianruder.com/optimizing-gradient-descent/index.html An overview of gradient descent optimization algorithms ] <br/>
 
[http://sebastianruder.com/optimizing-gradient-descent/index.html An overview of gradient descent optimization algorithms ] <br/>
 
[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D1%81%D1%82%D0%BE%D1%85%D0%B0%D1%81%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%BE%D0%B3%D0%BE_%D0%B3%D1%80%D0%B0%D0%B4%D0%B8%D0%B5%D0%BD%D1%82%D0%B0 Стохастический градиент на machinelearning.ru]
 
[http://www.machinelearning.ru/wiki/index.php?title=%D0%9C%D0%B5%D1%82%D0%BE%D0%B4_%D1%81%D1%82%D0%BE%D1%85%D0%B0%D1%81%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%BE%D0%B3%D0%BE_%D0%B3%D1%80%D0%B0%D0%B4%D0%B8%D0%B5%D0%BD%D1%82%D0%B0 Стохастический градиент на machinelearning.ru]

Версия 14:18, 22 сентября 2016

Майнор по курсу "Современные методы машинного обучения" - 2016/2017 учебный год - ИАД-3 и ИАД-7

На данной странице будут вывешиваться последние новости и материалы для семинарских занятий групп ИАД-3 и ИАД-7

Семинарист: Артем Грачев
Почта курса: hse.minor.dm@gmail.com
При обращении по почте, начинайте тему письма со слов [Майнор ИАД-N], где N - номер группы.

Страница курса

Семинары

1) 15 Сентября 2016: Метод опорных векторов. Ядра.
IPython Notebook

2) 22 Сентября 2016: Оптимизация. Градиентный спуск.
Data&Notebook
An overview of gradient descent optimization algorithms
Стохастический градиент на machinelearning.ru

3) 29 Сентября 2016:

Домашние Задания

Формулировка и данные [ ДЗ 1.] Срок - 30 Сентября 2016
В теме письма указывать [Майнор ИАД-N ДЗ-1], где N -- номер группы.


Полезные ссылки

Python

  1. PEP-8 Code Style Guide Cheat-sheet
  2. Python Tutorials Point
  3. Matplotlib Tutorial
  4. Matrix Manipulation Cheat-sheet
  5. Ipython Notebook
  6. Beaker Notebook
  7. yhat Rodeo

Ресурсы и Книги

  1. James, Witten, Hastie, Tibshirani — An Introduction to Statistical Learning
  2. Bishop — Pattern Recognition and Machine Learning (первые главы)
  3. MachineLearning.ru
  4. Kaggle
  5. UCI Repo
  6. Visual Intro to ML

Онлайн Курсы

  1. Andrew Ng's Course
  2. Introduction to ML
  3. Learning Data Science with Python
  4. Курс от ВШЭ
  5. Обзор МООС Курсов