Майнор Анализ Данных ИАД-4 — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
(Семинар 9-10)
(Семинар 15-16)
 
(не показано 12 промежуточных версии этого же участника)
Строка 1: Строка 1:
 +
== Решения дз ==
 +
 
Решение дз 1: [https://www.dropbox.com/s/ymt5a3pbyacyrbq/Solution-1.ipynb?dl=0 тетрадка].
 
Решение дз 1: [https://www.dropbox.com/s/ymt5a3pbyacyrbq/Solution-1.ipynb?dl=0 тетрадка].
  
== Семинар 1-2 ==
+
Решение дз 2: [https://www.dropbox.com/s/1bixenwk7jsrdug/Solutions.ipynb?dl=0 тетрадка].
 +
 
 +
== Семинары ==
 +
 
 +
=== Семинар 1-2 ===
  
 
На семинаре настроили и начали работать со следующими инструментами:
 
На семинаре настроили и начали работать со следующими инструментами:
Строка 19: Строка 25:
 
[http://goo.gl/forms/EpBjdfWbZU Опрос по курсу].
 
[http://goo.gl/forms/EpBjdfWbZU Опрос по курсу].
  
== Семинар 3-4 ==
+
=== Семинар 3-4 ===
  
 
Дорешивали задание с прошлого раза. Для заданий 4 и 5 удобно использовать функцию DataFrame.groupby.
 
Дорешивали задание с прошлого раза. Для заданий 4 и 5 удобно использовать функцию DataFrame.groupby.
Строка 25: Строка 31:
 
[http://nbviewer.jupyter.org/gist/alexeyum/e7f8fdbc1b3938ec179f Решение задач семинара].
 
[http://nbviewer.jupyter.org/gist/alexeyum/e7f8fdbc1b3938ec179f Решение задач семинара].
  
== Семинар 5-6 ==
+
=== Семинар 5-6 ===
  
 
Решали [https://www.dropbox.com/s/k1xyeaeuodggioe/linear_algebra_numpy.pdf?dl=0 задачи по линейной алгебре].
 
Решали [https://www.dropbox.com/s/k1xyeaeuodggioe/linear_algebra_numpy.pdf?dl=0 задачи по линейной алгебре].
  
Обсуждали линейную регресиию, градиентный спуск, решали [https://www.dropbox.com/s/z3vdvqy6fnrimda/Optimization-problems.ipynb?dl=0 задачи по оптимизации].
+
Обсуждали линейную регрессию, градиентный спуск, решали [https://www.dropbox.com/s/z3vdvqy6fnrimda/Optimization-problems.ipynb?dl=0 задачи по оптимизации].
  
== Семинар 7-8 ==
+
=== Семинар 7-8 ===
  
 
Продолжали решать задачи по оптимизации.
 
Продолжали решать задачи по оптимизации.
  
== Семинар 9-10 ==
+
=== Семинар 9-10 ===
  
 
[https://www.dropbox.com/s/9lnyc3vlc5hsaoc/Solutions.ipynb?dl=0 Решение задач по оптимизации].
 
[https://www.dropbox.com/s/9lnyc3vlc5hsaoc/Solutions.ipynb?dl=0 Решение задач по оптимизации].
  
Решали [https://www.dropbox.com/s/5s3t2v1lf3rhblm/Probability.ipynb?dl=0 задачи по теории вероятностей].
+
Решали [https://www.dropbox.com/s/5s3t2v1lf3rhblm/Probability.ipynb?dl=0 задачи по теории вероятностей]. Можно проверить правильность по [https://www.dropbox.com/s/3nhjihc43osdyjo/Probability-answers.txt?dl=0 ответам].
  
 
Обсуждали [https://www.dropbox.com/s/0sh72fjotqm5il0/matrix_differentiation.pdf?dl=0 матричное дифференцирование].
 
Обсуждали [https://www.dropbox.com/s/0sh72fjotqm5il0/matrix_differentiation.pdf?dl=0 матричное дифференцирование].
 +
 +
=== Семинар 11-12 ===
 +
 +
Дорешивали задачи по теории вероятностей и матричному дифференцированию.
 +
 +
Обсуждали наивный байесовский классификатор. Разбирали библиотеку [https://www.dropbox.com/s/buh6c72gzpoa1tb/Sklearn-naive-bayes.ipynb?dl=0 sklearn на примере наивного байесовского классификатора].
 +
 +
Решали задачи по регрессии: [https://www.dropbox.com/s/nrf77pa45exk0ga/Regression.ipynb?dl=0 тетрадка]
 +
 +
=== Семинар 13-14 ===
 +
 +
[https://www.dropbox.com/s/739pcx5lst774cp/Solutions.ipynb?dl=0 Решение задач по терверу].
 +
 +
Закончили решать задачи по регресии: [https://www.dropbox.com/s/nrf77pa45exk0ga/Regression.ipynb?dl=0 тетрадка],
 +
[https://www.dropbox.com/s/5fhndzykol4wzv5/Regression-solution.ipynb?dl=0 решения].
 +
 +
=== Семинар 15-16 ===
 +
 +
Решали задачи по классификации: [https://www.dropbox.com/s/ck8mvpnubqc7vab/Classification.ipynb?dl=0 тетрадка] и [https://www.dropbox.com/s/xfwcncqx3mss5ax/titanik.csv?dl=0 данные]. [https://www.dropbox.com/s/5637hziatnrfn8l/Classification-solution.ipynb?dl=0 Решения].
 +
 +
Решали задачи по кластеризации: [https://www.dropbox.com/s/8f5e0fpa078va08/Clustering.ipynb?dl=0 тетрадка].
 +
 +
=== Семинар 17-18 ===
 +
 +
Дорешивали задачи по кластеризации. [https://www.dropbox.com/s/hsgwnc88c72i8mn/Clustering-solutions.ipynb?dl=0 решения].

Текущая версия на 16:25, 7 июня 2016

Решения дз

Решение дз 1: тетрадка.

Решение дз 2: тетрадка.

Семинары

Семинар 1-2

На семинаре настроили и начали работать со следующими инструментами:

  • ipython notebook
  • numpy/scipy
  • matplotlib
  • pandas

Все это есть в пакете Anaconda.

Выполняли задание.

Датасет: данные, названия признаков.

Материал в помощь.

Опрос по курсу.

Семинар 3-4

Дорешивали задание с прошлого раза. Для заданий 4 и 5 удобно использовать функцию DataFrame.groupby.

Решение задач семинара.

Семинар 5-6

Решали задачи по линейной алгебре.

Обсуждали линейную регрессию, градиентный спуск, решали задачи по оптимизации.

Семинар 7-8

Продолжали решать задачи по оптимизации.

Семинар 9-10

Решение задач по оптимизации.

Решали задачи по теории вероятностей. Можно проверить правильность по ответам.

Обсуждали матричное дифференцирование.

Семинар 11-12

Дорешивали задачи по теории вероятностей и матричному дифференцированию.

Обсуждали наивный байесовский классификатор. Разбирали библиотеку sklearn на примере наивного байесовского классификатора.

Решали задачи по регрессии: тетрадка

Семинар 13-14

Решение задач по терверу.

Закончили решать задачи по регресии: тетрадка, решения.

Семинар 15-16

Решали задачи по классификации: тетрадка и данные. Решения.

Решали задачи по кластеризации: тетрадка.

Семинар 17-18

Дорешивали задачи по кластеризации. решения.