Современные методы машинного обучения (курс майнора) 2017/2018 ИАД4 — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
(Семинары)
(Полезные ссылки (Будут пополняться))
Строка 22: Строка 22:
  
 
== Полезные ссылки (Будут пополняться) ==
 
== Полезные ссылки (Будут пополняться) ==
 +
 +
''' Семинар 2 '''
 +
# [http://sebastianruder.com/optimizing-gradient-descent/ Про методы оптимизации в МО]
 +
# [https://habrahabr.ru/post/318970/] Тоже самое на русском
 +
# [https://lukaszkujawa.github.io/gradient-descent.html Gradient Descent Demo]
 
''' Семинар 1 '''
 
''' Семинар 1 '''
 
# [https://www.youtube.com/watch?v=3liCbRZPrZA Пример работы полиномиального ядра]
 
# [https://www.youtube.com/watch?v=3liCbRZPrZA Пример работы полиномиального ядра]
 
# [http://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/ Описание ядер]
 
# [http://crsouza.com/2010/03/17/kernel-functions-for-machine-learning-applications/ Описание ядер]
 
# [http://www.ccas.ru/voron/download/SVM.pdf Еще про SVM]
 
# [http://www.ccas.ru/voron/download/SVM.pdf Еще про SVM]

Версия 11:11, 21 сентября 2017

Майнор «Современные методы машинного обучения» -- ИАД-4

На данной странице будут вывешиваться последние новости и материалы для семинарских занятий группы ИАД-4

Семинарист: Шестаков Андрей shestakoffandrey@gmail.com
Ассистент: ??
При обращении по почте, начинайте тему письма со слов [Майнор ИАД-4 2017]

Чатик в телеграме

Страница курса

Анонимные комментарии, замечания и пожелания можно оставить здесь

Семинары

1) 7 Сентября 2017: Метод Опорных Векторов, Kernel Trick - IPython Notebook (Что успели)
2) 21 Сентября 2017: Методы оптимизации - IPython Notebook, Данные

Домашние Задания

ToDo

Полезные ссылки (Будут пополняться)

Семинар 2

  1. Про методы оптимизации в МО
  2. [1] Тоже самое на русском
  3. Gradient Descent Demo

Семинар 1

  1. Пример работы полиномиального ядра
  2. Описание ядер
  3. Еще про SVM