Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД 2 — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
(Семинары)
 
(не показано 26 промежуточных версии ещё одного участника)
Строка 5: Строка 5:
  
 
Семинарист: [[Участник:Ashestakoff | Шестаков Андрей]] [mailto:shestakoffandrey@gmail.com shestakoffandrey@gmail.com] <br/>
 
Семинарист: [[Участник:Ashestakoff | Шестаков Андрей]] [mailto:shestakoffandrey@gmail.com shestakoffandrey@gmail.com] <br/>
Ассистент: Чеснокова Полина <br/>
+
Ассистент: Чеснокова Полина [mailto:chepolina27@gmail.com chepolina27@gmail.com] <br/>
 
При обращении по почте, начинайте тему письма со слов ''[Майнор ИАД-2 2017]''
 
При обращении по почте, начинайте тему письма со слов ''[Майнор ИАД-2 2017]''
  
Строка 18: Строка 18:
 
'''4) 8 Февраля 2017:''' Метод kNN [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar4_knn_pract.ipynb Notebook] ([http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar4_knn_pract_proc.ipynb Что успели]) <br/>
 
'''4) 8 Февраля 2017:''' Метод kNN [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar4_knn_pract.ipynb Notebook] ([http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar4_knn_pract_proc.ipynb Что успели]) <br/>
 
'''5) 15 Февраля 2017:''' Линейная регрессия, градиентный спуск [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar5_linreg_opt.ipynb Notebook] ([http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar5_linreg_opt_proc.ipynb Что успели])<br/>
 
'''5) 15 Февраля 2017:''' Линейная регрессия, градиентный спуск [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar5_linreg_opt.ipynb Notebook] ([http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar5_linreg_opt_proc.ipynb Что успели])<br/>
'''6) 22 Февраля 2017:''' Логистическая регрессия [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar6_linclass.ipynb Notebook] ([http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar6_linclass_proc.ipynb Ничего не успели=(])
+
'''6-8) 22 Февраля, 1, 14 Марта 2017:''' Логистическая регрессия [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar6_linclass.ipynb Notebook] ([http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar6_linclass_proc.ipynb Что успели])<br/>
 +
'''9) 22 Марта 2017:''' Деревья решений, случайный лес [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar7-trees-forests.ipynb Notebook] ([http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar7-trees-forests-proc.ipynb Что успели])<br/>
 +
'''10) 5 Апреля 2017:''' Подготовка к коллоквиуму<br/>
 +
'''11) 12 Апреля 2017:''' Коллоквиум (семинара нет)<br/>
 +
'''12) 19 Апреля 2017:''' Отбор признаков, понижение размерности [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar8-dimred.ipynb Notebook] [https://cloud.mail.ru/public/8EJG/NbZ6a6oCB Данные] ([http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar8-dimred-proc.ipynb Что успели])<br/>
 +
'''13) 26 Апреля 2017:''' Методы кластеризации [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar9-clust.ipynb Notebook] [https://cloud.mail.ru/public/2gXp/KPsyPHy4y Данные] ([http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar9-clust-proc.ipynb Что успели])<br/>
 +
'''14) 10 Мая 2017:''' Переносится <br/>
 +
'''15) 17 Мая 2017:''' Продолжили методы кластеризации <br/>
 +
'''16) 24 Мая 2017:''' Рекомендательные системы [http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar14-recsys.ipynb Notebook] [https://cloud.mail.ru/public/67si/uRKsXBX1g Данные] ([http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/seminar14-recsys-proc.ipynb Что успели]) <br/>
  
 
== Домашние Задания ==
 
== Домашние Задания ==
 
'''[http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/hw0.ipynb ДЗ №0] (Необязательное, не учитывается в итоговой оценке). Срок - 12 февраля 2017. <br/>
 
'''[http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/hw0.ipynb ДЗ №0] (Необязательное, не учитывается в итоговой оценке). Срок - 12 февраля 2017. <br/>
 
+
'''[http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/hw1.ipynb ДЗ №1] Срок - ''17'' марта 2017. <br/>
 
+
'''[http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/hw2.ipynb ДЗ №2], [https://cloud.mail.ru/public/3AyQ/Pupnvo2dX Данные]  Срок - ''20'' апреля 2017. <br/>
 +
'''[http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/hw3.ipynb ДЗ №3], [https://cloud.mail.ru/public/Fcmc/1iynZ84j8 Данные] [https://cloud.mail.ru/public/NoQq/v9d93cPN6 Схема] Срок - ''4'' июня 2017 23:59 (Верить этому). <br/>
  
 
== Полезные ссылки (Будут пополняться) ==
 
== Полезные ссылки (Будут пополняться) ==
Строка 68: Строка 77:
 
# [http://beakernotebook.com/ Beaker Notebook]
 
# [http://beakernotebook.com/ Beaker Notebook]
 
# [https://www.yhat.com/products/rodeo yhat Rodeo]
 
# [https://www.yhat.com/products/rodeo yhat Rodeo]
 +
# [http://intellipaat.com/blog/tutorial/python-tutorial/ Python Tutorial]
  
 
'' Ресурсы и Книги ''  
 
'' Ресурсы и Книги ''  

Текущая версия на 09:59, 22 июня 2020

Майнор по Анализу Данных -- ИАД-2

На данной странице будут вывешиваться последние новости и материалы для семинарских занятий группы ИАД-2

Семинарист: Шестаков Андрей shestakoffandrey@gmail.com
Ассистент: Чеснокова Полина chepolina27@gmail.com
При обращении по почте, начинайте тему письма со слов [Майнор ИАД-2 2017]

Страница курса

Анонимные комментарии, замечания и пожелания можно оставить здесь

Семинары

1) 18 Января 2017: Введение + Повторение Python - IPython Notebook (Что успели)
2) 25 Января 2017: Спасательная операция по Numpy и Pandas - IPython Notebook (Что успели)
3) 1 Февраля 2017: Продолжаем спасательную операцию..
4) 8 Февраля 2017: Метод kNN Notebook (Что успели)
5) 15 Февраля 2017: Линейная регрессия, градиентный спуск Notebook (Что успели)
6-8) 22 Февраля, 1, 14 Марта 2017: Логистическая регрессия Notebook (Что успели)
9) 22 Марта 2017: Деревья решений, случайный лес Notebook (Что успели)
10) 5 Апреля 2017: Подготовка к коллоквиуму
11) 12 Апреля 2017: Коллоквиум (семинара нет)
12) 19 Апреля 2017: Отбор признаков, понижение размерности Notebook Данные (Что успели)
13) 26 Апреля 2017: Методы кластеризации Notebook Данные (Что успели)
14) 10 Мая 2017: Переносится
15) 17 Мая 2017: Продолжили методы кластеризации
16) 24 Мая 2017: Рекомендательные системы Notebook Данные (Что успели)

Домашние Задания

ДЗ №0 (Необязательное, не учитывается в итоговой оценке). Срок - 12 февраля 2017.
ДЗ №1 Срок - 17 марта 2017.
ДЗ №2, Данные Срок - 20 апреля 2017.
ДЗ №3, Данные Схема Срок - 4 июня 2017 23:59 (Верить этому).

Полезные ссылки (Будут пополняться)

Семинар 6

  1. On Logistic Regression with examples
  2. Perceptron Algorithm
  3. On Linear Classifiers

Семинар 5

  1. Про методы оптимизации в МО
  2. Gradient Descent Demo

Семинар 4

  1. Отличный блог для тех из вас, кто интересовался Computer Vision

Семинар 3

  1. Curse of Dimensionality

Семинар 2

  1. Visual Intro to ML
  2. ML in nutcell

Семинар 1 Pandas & Seaborn

  1. Pandas - На самом деле содержит всю необходимую инфу с примерами
  2. Effective Pandas - Учебник\туториал по Pandas
  3. NumPY, Pandas Cheat-Sheet
  4. Learning Data Science with Python - Неплохой практический курс по Python для анализа данных (MUST)
  5. Pandas Visualization
  6. Seaborn

Наборы данных

  1. Портал Открытых Данных РФ
  2. Funny Datasets
  3. Сборник Открытых Данных (!!!)
  4. Еще наборы данных

Python and etc.

  1. PEP-8 Code Style Guide Cheat-sheet
  2. Python Tutorials Point
  3. Matplotlib Tutorial
  4. Matrix Manipulation Cheat-sheet
  5. Ipython Notebook
  6. Beaker Notebook
  7. yhat Rodeo
  8. Python Tutorial

Ресурсы и Книги

  1. James, Witten, Hastie, Tibshirani — An Introduction to Statistical Learning
  2. Bishop — Pattern Recognition and Machine Learning (первые главы)
  3. MachineLearning.ru
  4. Kaggle
  5. GoTo Hack!
  6. UCI Repo

Онлайн Курсы

  1. Andrew Ng's Course
  2. Introduction to ML
  3. Курс от ВШЭ
  4. Обзор МООС Курсов