Современные методы машинного обучения (курс майнора)/ИАД-7 — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
(Семинары)
Строка 26: Строка 26:
  
 
17 ноября. ''Сверточные нейронные сети для классификации изображений''. [http://keras.io Keras].
 
17 ноября. ''Сверточные нейронные сети для классификации изображений''. [http://keras.io Keras].
 +
 +
24 ноября. ''Случайные величины. Проверка гипотез, анализ зависимостей''. Ноутбуки: [https://github.com/grafft/hse-tasks/tree/master/minor-aml-16/sem9 1], [https://github.com/grafft/hse-tasks/tree/master/minor-aml-16/sem10 2].
  
 
== Домашние задания ==
 
== Домашние задания ==
Строка 36: Строка 38:
  
 
ДЗ3. Центральная предельная теорема. [http://wiki.cs.hse.ru/Современные_методы_машинного_обучения_(курс_майнора)/ДЗ3 Формулировка]. Срок сдачи: 24 ноября. Ноутбуки: [https://github.com/cs-hse/ML_DM_HSE_minor/blob/master/module3_statistics_notebooks/seminar1_random_variables_intervals/1_Случайные_величины.ipynb 1], [https://github.com/cs-hse/ML_DM_HSE_minor/blob/master/module3_statistics_notebooks/seminar1_random_variables_intervals/2_Выборки.ipynb 2].
 
ДЗ3. Центральная предельная теорема. [http://wiki.cs.hse.ru/Современные_методы_машинного_обучения_(курс_майнора)/ДЗ3 Формулировка]. Срок сдачи: 24 ноября. Ноутбуки: [https://github.com/cs-hse/ML_DM_HSE_minor/blob/master/module3_statistics_notebooks/seminar1_random_variables_intervals/1_Случайные_величины.ipynb 1], [https://github.com/cs-hse/ML_DM_HSE_minor/blob/master/module3_statistics_notebooks/seminar1_random_variables_intervals/2_Выборки.ipynb 2].
 +
 +
ДЗ4. Анализ эффективности удержания. [http://wiki.cs.hse.ru/Современные_методы_машинного_обучения_(курс_майнора)/ДЗ4 Формулировка]. Срок сдачи: 1 декабря.
  
 
== Полезные ссылки ==
 
== Полезные ссылки ==

Версия 13:49, 24 ноября 2016

Семинарист: Влад Шахуро shahurik@ya.ru
В начало темы писем добавляйте [ИАД].

Таблица с оценками

Семинары

15 сентября. Метод опорных векторов. Ядра. ноутбук

22 сентября. Оптимизация. Градиентный спуск. notebook, данные теория, пример град. спуска для линейной регрессии

29 сентября. Предобработка данных. ноутбук

6 октября. Нейронные сети. Введение. Tensorflow

13 октября. Бустинг. ноутбук

27 октября. Семинара не было.

3 ноября. Коллоквиум.

10 ноября. Бустинг, метод Ньютона. Конспект. (A short introduction to boosting, Воронцов cтр. 2-9, конспект про метод Ньютона, стр. 1).

17 ноября. Сверточные нейронные сети для классификации изображений. Keras.

24 ноября. Случайные величины. Проверка гипотез, анализ зависимостей. Ноутбуки: 1, 2.

Домашние задания

ДЗ1. SVM и ядровые функции. Формулировка и данные. Срок сдачи: 2 октября.

ДЗ2. Предобработка данных и бустинг. Формулировка и данные. Срок сдачи: 25 октября.

Соревнование. Формулировка и критерии оценивания. Срок сдачи: 23 ноября.

ДЗ3. Центральная предельная теорема. Формулировка. Срок сдачи: 24 ноября. Ноутбуки: 1, 2.

ДЗ4. Анализ эффективности удержания. Формулировка. Срок сдачи: 1 декабря.

Полезные ссылки

Python

  1. PEP-8 Code Style Guide Cheat-sheet
  2. Python Tutorials Point
  3. Matplotlib Tutorial
  4. Matrix Manipulation Cheat-sheet
  5. Ipython Notebook
  6. Beaker Notebook
  7. yhat Rodeo

Ресурсы и книги

  1. James, Witten, Hastie, Tibshirani — An Introduction to Statistical Learning
  2. Bishop — Pattern Recognition and Machine Learning (первые главы)
  3. MachineLearning.ru
  4. Kaggle
  5. UCI Repo
  6. Visual Intro to ML

Онлайн курсы

  1. Andrew Ng's Course
  2. Introduction to ML
  3. Learning Data Science with Python
  4. Курс от ВШЭ
  5. Обзор МООС Курсов