http://wiki.cs.hse.ru/api.php?action=feedcontributions&user=Blackitten13&feedformat=atomWiki - Факультет компьютерных наук - Вклад участника [ru]2024-03-29T06:02:05ZВклад участникаMediaWiki 1.23.2http://wiki.cs.hse.ru/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85_(%D0%BC%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%90%D0%94)_2019/2020Введение в анализ данных (майнор ИАД) 2019/20202020-05-29T11:25:21Z<p>Blackitten13: /* Соревнование 1: Определение категории товара */</p>
<hr />
<div>== О курсе ==<br />
<br />
Курс читается для студентов 2-го курса [https://electives.hse.ru/minor_intel/ майнора ИАД] в 3-4 модулях.<br />
<br />
Проводится с 2015 года.<br />
<br />
'''Лектор:''' [http://www.hse.ru/staff/esokolov Соколов Евгений Андреевич]<br />
<br />
Лекции проходят по средам в 10:30 (Покровский бульвар, 11).<br />
<br />
=== Полезные ссылки ===<br />
<br />
[https://www.hse.ru/edu/courses/316531794 Карточка курса и программа]<br />
<br />
[https://github.com/hse-ds/iad-intro-ds Репозиторий с материалами на GitHub]<br />
<br />
Почта для сдачи домашних заданий (на самом деле задания сдаются в AnyTask, но если он не работает, то присылайте на почту): hse.minor.dm+<номер группы>@gmail.com (например, hse.minor.dm+3@gmail.com)<br />
<br />
Канал в telegram для объявлений: https://t.me/hse_minor_intro_dm_2020<br />
<br />
Чат в telegram для флуда: https://t.me/iad_flood<br />
<br />
Ссылка на курс в Anytask: https://anytask.org/course/607<br />
<br />
Таблица с оценками: https://docs.google.com/spreadsheets/d/1-6qKU3-5p-ZwujKqqp7QIwf1hKyagY00UyKzxZHwHq0/edit?usp=sharing<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Материалы семинаров !! Аудитория !! ДЗ<br />
|-<br />
| ИАД-1 || Кохтев Вадим || Ригвава Владимир || || || <br />
|-<br />
| ИАД-2 || Филатов Артём, Анастасия Рогачевская || Дмитрий Торилов || || || <br />
|-<br />
| ИАД-3 || Козловская Наталья || Юрий Саночкин || || D507 || [https://github.com/hse-ds/iad-intro-ds/blob/hw-01/homeworks/hw1.ipynb ДЗ-1 ]<br />
|-<br />
| ИАД-4 || Ковалев Евгений || Алвандян Нарек || [http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-4-2020 Wiki] [https://github.com/blacKitten13/minor2020-iad4 GitHub] [https://t-do.ru/joinchat/Cci01RHtt3-8NZO02cbg5A Telegram] || || <br />
|-<br />
| ИАД-5 || Чиркова Надежда || Левина Александра || [https://github.com/nadiinchi/iad2020/blob/master/materials/hw_sem1.ipynb GitHub] || || <br />
|-<br />
| ИАД-6 || Чесаков Даниил || Ольга Быстрова || [https://github.com/Danyache/minor2020-iad2 GitHub], rd5CNrr - инвайт в anytask || || <br />
|-<br />
|}<br />
<br />
=== Правила выставления оценок ===<br />
<br />
В курсе предусмотрено несколько форм контроля знания:<br />
* Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций и семинаров<br />
* Практические домашние работы на Python<br />
* Контрольная где-то в середине курса<br />
* Письменный экзамен<br />
<br />
Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:<br />
<br />
O<sub>итоговая</sub> = Округление(0.4 * ДЗ + 0.1 * ПР + 0.2 * КР + 0.3 * Э)<br />
<br />
ДЗ — средняя оценка за практические домашние задания<br />
<br />
ПР — средняя оценка за письменные проверочные работы на семинарах<br />
<br />
КР — оценка за контрольную работу<br />
<br />
Э — оценка за экзамен<br />
<br />
Округление арифметическое.<br />
<br />
=== Правила сдачи заданий ===<br />
<br />
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются. Даже при опоздании на одну секунду. Сдавайте заранее.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.<br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.<br />
<br />
== Лекции ==<br />
<br />
Лекция 1 (15.01.2020). Введение в машинное обучение и анализ данных. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture01-intro.pdf Слайды]]<br />
<br />
Лекция 2 (22.01.2020). Основные постановки задач. Метод k ближайших соседей. Измерение ошибки в задачах классификации. Параметры и гиперпараметры. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture02-knn.pdf Слайды]]<br />
<br />
Лекция 3 (05.02.2020). Оценка обобщающей способности моделей. Метод k ближайших соседей с весами. Метод k ближайших соседей для задач регрессии. Модель линейной регрессии. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture03-knn-linregr.pdf Слайды]]<br />
<br />
Лекция 4 (12.02.2020). Применимость моделей линейной регрессии. Линейная регрессия в матричной форме. Обучение линейной регрессии через аналитическое решение. Регуляризация. Вычисление важности признаков в линейных моделях. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture04-linregr.pdf Слайды]]<br />
<br />
Лекция 5 (19.02.2020). Градиент. Градиентный спуск. Стохастический градиентный спуск. Функции потерь в задачах регрессии. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture05-linregr.pdf Слайды]]<br />
<br />
Лекция 6 (26.02.2020). Линейная классификация. Обучение через верхние оценки на функцию потерь. Метрики качества классификации: доля верных ответов, точность, полнота. Способы объединения точности и полноты. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture06-linclass.pdf Слайды]]<br />
<br />
Лекция 7 (04.03.2020). Линейная классификация. Оценки качества ранжирования объектов, AUC-ROC и AUC-PRC. Оценивание вероятностей классов. Логистическая регрессия. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture07-linclass.pdf Слайды]]<br />
<br />
Лекция 8 (11.03.2020). Линейная классификация. Метод опорных векторов. Калибровка вероятностей. Многоклассовая классификация. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture08-linclass.pdf Слайды]]<br />
<br />
Лекция 9 (18.03.2020). Решающие деревья. Структура. Критерии информативности для регрессии и классификации. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture09-trees.pdf Слайды]] [[https://www.youtube.com/watch?v=9B4gpT_2tUk Запись вебинара]]<br />
<br />
Лекция 10 (25.03.2020). Решающие деревья. Жадное построение. Счётчики для кодирования категориальных признаков. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture10-trees.pdf Слайды]] [[https://www.youtube.com/watch?v=7bjSTLKxHIU Запись вебинара]]<br />
<br />
Лекция 11 (08.04.2020). Композиции моделей. Бэггинг. Смещение и разброс в бэггинге. Случайный лес. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture11-ensembles.pdf Слайды]] [[https://www.youtube.com/watch?v=4Q0CahrXIbw Запись вебинара]]<br />
<br />
Лекция 12 (15.04.2020). Композиции моделей. Градиентный бустинг. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture12-ensembles.pdf Слайды]] [[https://www.youtube.com/watch?v=5-9m_2Clcgc Запись вебинара]]<br />
<br />
Лекция 13 (29.04.2020). Отбор признаков. Одномерные методы. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture13-reduction.pdf Слайды]] [[https://www.youtube.com/watch?v=KyUTIsxr0hY Запись вебинара]]<br />
<br />
Лекция 14 (06.05.2020). Градиентный бустинг для произвольной дифференцируемой функции потерь. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture14-ensembles.pdf Слайды]] [[https://www.youtube.com/watch?v=tb7PU8YDRH8 Запись вебинара]]<br />
<br />
Лекция 15 (13.05.2020). Отбор признаков. Методы на основе моделей. Метод главных компонент. Визуализация. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture15-reduction.pdf Слайды]] [[https://www.youtube.com/watch?v=hvE3izOg9uQ Запись вебинара]]<br />
<br />
Лекция 16 (20.05.2020). Кластеризация: постановки задачи, k-means, DBSCAN. Представления слов. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture16-clustering.pdf Слайды]] [[https://www.youtube.com/watch?v=o8m0dg91pyc Запись вебинара]]<br />
<br />
Лекция 17 (27.05.2020). Рекомендательные системы. User-based рекомендации. Модели со скрытыми переменными. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture17-recommender.pdf Слайды]] [[https://www.youtube.com/watch?v=RSSalEA8OoI Запись вебинара]]<br />
<br />
== Семинары ==<br />
<br />
== Практические задания ==<br />
<br />
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются, но есть исключение. В течение семестра каждый студент может не более 2 раз сдать задание после жёсткого дедлайна — в этом случае за каждый день просрочки продолжает вычитаться по одному баллу (если не оговорено иное).<br />
<br />
В некоторых группах домашние задания могут отличаться. Уточняйте у семинариста.<br />
<br />
== Соревнования ==<br />
<br />
===Правила участия и оценивания===<br />
В соревновании по анализу данных вам предлагается по имеющимся данным решить некоторую задачу, оптимизируя указанную метрику, и отправить ответы для заданного тестового множества. Максимальное количество посылок в сутки ограничено (как правило, разрешается сделать 2 посылки), ближе к концу соревнования вам будем необходимо выбрать 2 посылки, которые вы считаете лучшими. Тестовые данные делятся на публичные и приватные в некотором соотношении, на основе которых строятся публичный и приватный лидерборды соответственно, при этом публичный лидерборд доступен в течение всего соревнования, а приватный строится после его окончания для выбранных вами посылок.<br />
<br />
Студент, занявший в соревновании место i, получает оценку<br />
<br />
10 - 10 * (i - 1) / M,<br />
<br />
где M — количество студентов, принявших участие в соревновании;<br />
<br />
i — место (начиная с 1) студента в приватном лидерборде среди всех таких студентов.<br />
<br />
Чтобы вас не пропустили при проверке решений соревнования, '''необходимо''' использовать следующий формат для имени команды (вкладка Team): <br />
<br />
«Имя Фамилия номер_группы»<br />
<br />
В течение 3 суток после окончания соревнования в соответствующее задание на anytask необходимо прислать код, воспроизводящий ответы для посылки, фигурирующей в приватном лидерборде. В случае отсутствия кода, воспроизводящего результат, в установленный срок студенту выставляется 0 в качестве оценки за соревнование. Если не оговорено иное, использовать любые внешние данные в соревнованиях '''запрещено'''. Под внешними данными понимаются размеченные данные, где разметка имеет прямое отношение к решаемой задаче. Грубо говоря, сборник текстов с википедии не считается внешними данными.<br />
<br />
=== Соревнование 1: Определение категории товара ===<br />
<br />
'''Соревнование на бонусные баллы, не входит в основную формулу оценки.''' Количество дополнительных баллов, полученных за соревнование, определяется индивидуально в каждой группе. Бонусные баллы можно прибавить к любой оценке за домашнее задание или за проверочную работу. Оценка за каждую из таких форм контроля не может превысить 10 баллов после прибавления бонусов.<br />
<br />
Алгоритм расчёта бонусной оценки описан выше.<br />
<br />
Дата выдачи: 08.04.2020<br />
<br />
Срок окончания соревнования: 16.05.2020 02:59MSK<br />
<br />
[https://www.kaggle.com/t/9f493c11e0b24931996e5a8aec870a49 Ссылка на участие в соревновании]<br />
<br />
== Контрольная работа ==<br />
<br />
Вопросы для подготовки: https://docs.google.com/document/d/1yuB17EoXyVSxqRslpFTKX97Kriuxn4lgFL5z4kQF9lU/edit?usp=sharing<br />
<br />
На контрольной будет 4 вопроса. Два из них — по теории, где нужно будет объяснить одну из тем, разобранных на лекциях, или ответить на вопросы на понимание. Два вопроса — это задачи, примеры приведены ниже.<br />
<br />
Примеры задач:<br />
* Метрические методы, kNN [[http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/colloc_knn.ipynb Примеры задач]]<br />
* Линейные методы [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_linear.pdf Примеры задач]]<br />
* Решающие деревья [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_trees.ipynb Примеры задач]]<br />
* Метрики качества [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_metrics.ipynb Примеры задач]]<br />
<br />
[https://www.youtube.com/watch?v=SVQ8mUff1V8 Видео с консультации]<br />
<br />
[https://www.dropbox.com/s/molzmwklvepjl1k/notes-cons.pdf?dl=0 Конспект с консультации]<br />
<br />
== Экзамен ==<br />
<br />
Вопросы прошлого года: https://docs.google.com/document/d/1IrRO4kbzKieTWDgJ5UhfPECyU2tvq9CZi2mXgQPzf30/edit?usp=sharing<br />
<br />
[https://github.com/esokolov/ml-minor-hse/blob/master/exam-2017/exam_problems_example.pdf Примеры задач прошлого года] (также могут войти задачи из коллоквиума)<br />
<br />
==Полезные материалы==<br />
===Курсы по машинному обучению и анализу данных===<br />
* [http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_%28курс_лекций%2C_К.В.Воронцов%29 Курс по машинному обучению К.В. Воронцова]<br />
* [https://yandexdataschool.ru/edu-process/courses/machine-learning Видеозаписи лекций курса Школы Анализа Данных, К.В. Воронцов]<br />
* [https://www.coursera.org/specializations/machine-learning-data-analysis Coursera: Машинное обучение и анализ данных (специализация)]<br />
* [https://www.coursera.org/learn/introduction-machine-learning Coursera: Введение в машинное обучение, К.В. Воронцов]<br />
* [https://www.coursera.org/learn/machine-learning Coursera: Machine Learning, Andrew Ng]<br />
<br />
===Статьи===<br />
* [http://www.toptal.com/machine-learning/machine-learning-theory-an-introductory-primer An Introduction to Machine Learning Theory and Its Applications: A Visual Tutorial with Examples]<br />
* [http://www.r2d3.us/visual-intro-to-machine-learning-part-1/ A Visual Introduction to Machine Learning]<br />
<br />
===Книги===<br />
* Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
* Boris Mirkin. Core Concepts in Data Analysis: Summarization, Correlation, Visualization. 2010.<br />
* James, Witten, Hastie, Tibshirani. An Introduction to Statistical Learning. 2013.<br />
<br />
== Страницы прошлых лет ==<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных | 2018/19 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2017-2018 | 2017/18 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2016-2017 | 2016/17 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2015-2016 | 2015/16 учебный год ]]<br />
<br />
[[Category:Майнор "Интеллектуальный анализ данных"]]</div>Blackitten13http://wiki.cs.hse.ru/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85_(%D0%BC%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%90%D0%94)_2019/2020Введение в анализ данных (майнор ИАД) 2019/20202020-05-29T11:21:57Z<p>Blackitten13: /* Правила участия и оценивания */</p>
<hr />
<div>== О курсе ==<br />
<br />
Курс читается для студентов 2-го курса [https://electives.hse.ru/minor_intel/ майнора ИАД] в 3-4 модулях.<br />
<br />
Проводится с 2015 года.<br />
<br />
'''Лектор:''' [http://www.hse.ru/staff/esokolov Соколов Евгений Андреевич]<br />
<br />
Лекции проходят по средам в 10:30 (Покровский бульвар, 11).<br />
<br />
=== Полезные ссылки ===<br />
<br />
[https://www.hse.ru/edu/courses/316531794 Карточка курса и программа]<br />
<br />
[https://github.com/hse-ds/iad-intro-ds Репозиторий с материалами на GitHub]<br />
<br />
Почта для сдачи домашних заданий (на самом деле задания сдаются в AnyTask, но если он не работает, то присылайте на почту): hse.minor.dm+<номер группы>@gmail.com (например, hse.minor.dm+3@gmail.com)<br />
<br />
Канал в telegram для объявлений: https://t.me/hse_minor_intro_dm_2020<br />
<br />
Чат в telegram для флуда: https://t.me/iad_flood<br />
<br />
Ссылка на курс в Anytask: https://anytask.org/course/607<br />
<br />
Таблица с оценками: https://docs.google.com/spreadsheets/d/1-6qKU3-5p-ZwujKqqp7QIwf1hKyagY00UyKzxZHwHq0/edit?usp=sharing<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Материалы семинаров !! Аудитория !! ДЗ<br />
|-<br />
| ИАД-1 || Кохтев Вадим || Ригвава Владимир || || || <br />
|-<br />
| ИАД-2 || Филатов Артём, Анастасия Рогачевская || Дмитрий Торилов || || || <br />
|-<br />
| ИАД-3 || Козловская Наталья || Юрий Саночкин || || D507 || [https://github.com/hse-ds/iad-intro-ds/blob/hw-01/homeworks/hw1.ipynb ДЗ-1 ]<br />
|-<br />
| ИАД-4 || Ковалев Евгений || Алвандян Нарек || [http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-4-2020 Wiki] [https://github.com/blacKitten13/minor2020-iad4 GitHub] [https://t-do.ru/joinchat/Cci01RHtt3-8NZO02cbg5A Telegram] || || <br />
|-<br />
| ИАД-5 || Чиркова Надежда || Левина Александра || [https://github.com/nadiinchi/iad2020/blob/master/materials/hw_sem1.ipynb GitHub] || || <br />
|-<br />
| ИАД-6 || Чесаков Даниил || Ольга Быстрова || [https://github.com/Danyache/minor2020-iad2 GitHub], rd5CNrr - инвайт в anytask || || <br />
|-<br />
|}<br />
<br />
=== Правила выставления оценок ===<br />
<br />
В курсе предусмотрено несколько форм контроля знания:<br />
* Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций и семинаров<br />
* Практические домашние работы на Python<br />
* Контрольная где-то в середине курса<br />
* Письменный экзамен<br />
<br />
Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:<br />
<br />
O<sub>итоговая</sub> = Округление(0.4 * ДЗ + 0.1 * ПР + 0.2 * КР + 0.3 * Э)<br />
<br />
ДЗ — средняя оценка за практические домашние задания<br />
<br />
ПР — средняя оценка за письменные проверочные работы на семинарах<br />
<br />
КР — оценка за контрольную работу<br />
<br />
Э — оценка за экзамен<br />
<br />
Округление арифметическое.<br />
<br />
=== Правила сдачи заданий ===<br />
<br />
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются. Даже при опоздании на одну секунду. Сдавайте заранее.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.<br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.<br />
<br />
== Лекции ==<br />
<br />
Лекция 1 (15.01.2020). Введение в машинное обучение и анализ данных. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture01-intro.pdf Слайды]]<br />
<br />
Лекция 2 (22.01.2020). Основные постановки задач. Метод k ближайших соседей. Измерение ошибки в задачах классификации. Параметры и гиперпараметры. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture02-knn.pdf Слайды]]<br />
<br />
Лекция 3 (05.02.2020). Оценка обобщающей способности моделей. Метод k ближайших соседей с весами. Метод k ближайших соседей для задач регрессии. Модель линейной регрессии. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture03-knn-linregr.pdf Слайды]]<br />
<br />
Лекция 4 (12.02.2020). Применимость моделей линейной регрессии. Линейная регрессия в матричной форме. Обучение линейной регрессии через аналитическое решение. Регуляризация. Вычисление важности признаков в линейных моделях. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture04-linregr.pdf Слайды]]<br />
<br />
Лекция 5 (19.02.2020). Градиент. Градиентный спуск. Стохастический градиентный спуск. Функции потерь в задачах регрессии. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture05-linregr.pdf Слайды]]<br />
<br />
Лекция 6 (26.02.2020). Линейная классификация. Обучение через верхние оценки на функцию потерь. Метрики качества классификации: доля верных ответов, точность, полнота. Способы объединения точности и полноты. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture06-linclass.pdf Слайды]]<br />
<br />
Лекция 7 (04.03.2020). Линейная классификация. Оценки качества ранжирования объектов, AUC-ROC и AUC-PRC. Оценивание вероятностей классов. Логистическая регрессия. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture07-linclass.pdf Слайды]]<br />
<br />
Лекция 8 (11.03.2020). Линейная классификация. Метод опорных векторов. Калибровка вероятностей. Многоклассовая классификация. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture08-linclass.pdf Слайды]]<br />
<br />
Лекция 9 (18.03.2020). Решающие деревья. Структура. Критерии информативности для регрессии и классификации. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture09-trees.pdf Слайды]] [[https://www.youtube.com/watch?v=9B4gpT_2tUk Запись вебинара]]<br />
<br />
Лекция 10 (25.03.2020). Решающие деревья. Жадное построение. Счётчики для кодирования категориальных признаков. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture10-trees.pdf Слайды]] [[https://www.youtube.com/watch?v=7bjSTLKxHIU Запись вебинара]]<br />
<br />
Лекция 11 (08.04.2020). Композиции моделей. Бэггинг. Смещение и разброс в бэггинге. Случайный лес. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture11-ensembles.pdf Слайды]] [[https://www.youtube.com/watch?v=4Q0CahrXIbw Запись вебинара]]<br />
<br />
Лекция 12 (15.04.2020). Композиции моделей. Градиентный бустинг. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture12-ensembles.pdf Слайды]] [[https://www.youtube.com/watch?v=5-9m_2Clcgc Запись вебинара]]<br />
<br />
Лекция 13 (29.04.2020). Отбор признаков. Одномерные методы. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture13-reduction.pdf Слайды]] [[https://www.youtube.com/watch?v=KyUTIsxr0hY Запись вебинара]]<br />
<br />
Лекция 14 (06.05.2020). Градиентный бустинг для произвольной дифференцируемой функции потерь. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture14-ensembles.pdf Слайды]] [[https://www.youtube.com/watch?v=tb7PU8YDRH8 Запись вебинара]]<br />
<br />
Лекция 15 (13.05.2020). Отбор признаков. Методы на основе моделей. Метод главных компонент. Визуализация. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture15-reduction.pdf Слайды]] [[https://www.youtube.com/watch?v=hvE3izOg9uQ Запись вебинара]]<br />
<br />
Лекция 16 (20.05.2020). Кластеризация: постановки задачи, k-means, DBSCAN. Представления слов. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture16-clustering.pdf Слайды]] [[https://www.youtube.com/watch?v=o8m0dg91pyc Запись вебинара]]<br />
<br />
Лекция 17 (27.05.2020). Рекомендательные системы. User-based рекомендации. Модели со скрытыми переменными. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2020/lectures/lecture17-recommender.pdf Слайды]] [[https://www.youtube.com/watch?v=RSSalEA8OoI Запись вебинара]]<br />
<br />
== Семинары ==<br />
<br />
== Практические задания ==<br />
<br />
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются, но есть исключение. В течение семестра каждый студент может не более 2 раз сдать задание после жёсткого дедлайна — в этом случае за каждый день просрочки продолжает вычитаться по одному баллу (если не оговорено иное).<br />
<br />
В некоторых группах домашние задания могут отличаться. Уточняйте у семинариста.<br />
<br />
== Соревнования ==<br />
<br />
===Правила участия и оценивания===<br />
В соревновании по анализу данных вам предлагается по имеющимся данным решить некоторую задачу, оптимизируя указанную метрику, и отправить ответы для заданного тестового множества. Максимальное количество посылок в сутки ограничено (как правило, разрешается сделать 2 посылки), ближе к концу соревнования вам будем необходимо выбрать 2 посылки, которые вы считаете лучшими. Тестовые данные делятся на публичные и приватные в некотором соотношении, на основе которых строятся публичный и приватный лидерборды соответственно, при этом публичный лидерборд доступен в течение всего соревнования, а приватный строится после его окончания для выбранных вами посылок.<br />
<br />
Студент, занявший в соревновании место i, получает оценку<br />
<br />
10 - 10 * (i - 1) / M,<br />
<br />
где M — количество студентов, принявших участие в соревновании;<br />
<br />
i — место (начиная с 1) студента в приватном лидерборде среди всех таких студентов.<br />
<br />
Чтобы вас не пропустили при проверке решений соревнования, '''необходимо''' использовать следующий формат для имени команды (вкладка Team): <br />
<br />
«Имя Фамилия номер_группы»<br />
<br />
В течение 3 суток после окончания соревнования в соответствующее задание на anytask необходимо прислать код, воспроизводящий ответы для посылки, фигурирующей в приватном лидерборде. В случае отсутствия кода, воспроизводящего результат, в установленный срок студенту выставляется 0 в качестве оценки за соревнование. Если не оговорено иное, использовать любые внешние данные в соревнованиях '''запрещено'''. Под внешними данными понимаются размеченные данные, где разметка имеет прямое отношение к решаемой задаче. Грубо говоря, сборник текстов с википедии не считается внешними данными.<br />
<br />
=== Соревнование 1: Определение категории товара ===<br />
<br />
'''Соревнование на бонусные баллы, не входит в основную формулу оценки.''' Бонусные баллы можно прибавить к любой оценке за домашнее задание или за проверочную работу. Оценка за каждую из таких форм контроля не может превысить 10 баллов после прибавления бонусов.<br />
<br />
Алгоритм расчёта бонусной оценки описан выше.<br />
<br />
Дата выдачи: 08.04.2020<br />
<br />
Срок окончания соревнования: 16.05.2020 02:59MSK<br />
<br />
[https://www.kaggle.com/t/9f493c11e0b24931996e5a8aec870a49 Ссылка на участие в соревновании]<br />
<br />
== Контрольная работа ==<br />
<br />
Вопросы для подготовки: https://docs.google.com/document/d/1yuB17EoXyVSxqRslpFTKX97Kriuxn4lgFL5z4kQF9lU/edit?usp=sharing<br />
<br />
На контрольной будет 4 вопроса. Два из них — по теории, где нужно будет объяснить одну из тем, разобранных на лекциях, или ответить на вопросы на понимание. Два вопроса — это задачи, примеры приведены ниже.<br />
<br />
Примеры задач:<br />
* Метрические методы, kNN [[http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/colloc_knn.ipynb Примеры задач]]<br />
* Линейные методы [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_linear.pdf Примеры задач]]<br />
* Решающие деревья [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_trees.ipynb Примеры задач]]<br />
* Метрики качества [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_metrics.ipynb Примеры задач]]<br />
<br />
[https://www.youtube.com/watch?v=SVQ8mUff1V8 Видео с консультации]<br />
<br />
[https://www.dropbox.com/s/molzmwklvepjl1k/notes-cons.pdf?dl=0 Конспект с консультации]<br />
<br />
== Экзамен ==<br />
<br />
Вопросы прошлого года: https://docs.google.com/document/d/1IrRO4kbzKieTWDgJ5UhfPECyU2tvq9CZi2mXgQPzf30/edit?usp=sharing<br />
<br />
[https://github.com/esokolov/ml-minor-hse/blob/master/exam-2017/exam_problems_example.pdf Примеры задач прошлого года] (также могут войти задачи из коллоквиума)<br />
<br />
==Полезные материалы==<br />
===Курсы по машинному обучению и анализу данных===<br />
* [http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_%28курс_лекций%2C_К.В.Воронцов%29 Курс по машинному обучению К.В. Воронцова]<br />
* [https://yandexdataschool.ru/edu-process/courses/machine-learning Видеозаписи лекций курса Школы Анализа Данных, К.В. Воронцов]<br />
* [https://www.coursera.org/specializations/machine-learning-data-analysis Coursera: Машинное обучение и анализ данных (специализация)]<br />
* [https://www.coursera.org/learn/introduction-machine-learning Coursera: Введение в машинное обучение, К.В. Воронцов]<br />
* [https://www.coursera.org/learn/machine-learning Coursera: Machine Learning, Andrew Ng]<br />
<br />
===Статьи===<br />
* [http://www.toptal.com/machine-learning/machine-learning-theory-an-introductory-primer An Introduction to Machine Learning Theory and Its Applications: A Visual Tutorial with Examples]<br />
* [http://www.r2d3.us/visual-intro-to-machine-learning-part-1/ A Visual Introduction to Machine Learning]<br />
<br />
===Книги===<br />
* Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
* Boris Mirkin. Core Concepts in Data Analysis: Summarization, Correlation, Visualization. 2010.<br />
* James, Witten, Hastie, Tibshirani. An Introduction to Statistical Learning. 2013.<br />
<br />
== Страницы прошлых лет ==<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных | 2018/19 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2017-2018 | 2017/18 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2016-2017 | 2016/17 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2015-2016 | 2015/16 учебный год ]]<br />
<br />
[[Category:Майнор "Интеллектуальный анализ данных"]]</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-4-2020Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-4-20202020-02-07T20:14:55Z<p>Blackitten13: /* Основные ссылки */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Нарек Алвандян (telegram: @narekvslife)<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01RHtt3-8NZO02cbg5A Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2020-iad4 Страница группы на github.com]<br />
<br />
Инвайт в AnyTask: zG1cIyT<br />
<br />
==События==<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* Learn Python (Python 3 tutorial): https://www.learnpython.org/<br />
* A Crash Course in Python for Scientists ('''Python 2'''): http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-4-2020Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-4-20202020-01-15T09:22:09Z<p>Blackitten13: /* Полезные ссылки */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Нарек Алвандян (telegram: @narekvslife)<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01RHtt3-8NZO02cbg5A Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2020-iad4 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* Learn Python (Python 3 tutorial): https://www.learnpython.org/<br />
* A Crash Course in Python for Scientists ('''Python 2'''): http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85_(%D0%BC%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%90%D0%94)_2019/2020Введение в анализ данных (майнор ИАД) 2019/20202020-01-15T09:07:53Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
<br />
Курс читается для студентов 2-го курса [https://electives.hse.ru/minor_intel/ майнора ИАД] в 3-4 модулях.<br />
<br />
Проводится с 2015 года.<br />
<br />
'''Лектор:''' [http://www.hse.ru/staff/esokolov Соколов Евгений Андреевич]<br />
<br />
Лекции проходят по средам в 10:30, ауд. R405 (Покровский бульвар, 11).<br />
<br />
=== Полезные ссылки ===<br />
<br />
[https://www.hse.ru/edu/courses/316531794 Карточка курса и программа]<br />
<br />
[https://github.com/esokolov/ml-minor-hse Репозиторий с материалами на GitHub]<br />
<br />
Почта для сдачи домашних заданий (на самом деле задания сдаются в AnyTask, но если он не работает, то присылайте на почту): hse.minor.dm+<номер группы>@gmail.com (например, hse.minor.dm+3@gmail.com)<br />
<br />
Канал в telegram для объявлений: https://t.me/hse_minor_intro_dm_2020<br />
<br />
Чат в telegram для флуда: https://t.me/iad_flood<br />
<br />
Ссылка на курс в Anytask: <br />
<br />
Таблица с оценками:<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Материалы семинаров<br />
|-<br />
| ИАД-1 || || || <br />
|-<br />
| ИАД-2 || || || <br />
|-<br />
| ИАД-3 || || || <br />
|-<br />
| ИАД-4 || Ковалев Евгений || Алвандян Нарек || [http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-4-2020 Wiki] [https://github.com/blacKitten13/minor2020-iad4 GitHub] [https://t-do.ru/joinchat/Cci01RHtt3-8NZO02cbg5A Telegram]<br />
|-<br />
| ИАД-5 || || || <br />
|-<br />
| ИАД-6 || || || <br />
|-<br />
|}<br />
<br />
=== Правила выставления оценок ===<br />
<br />
В курсе предусмотрено несколько форм контроля знания:<br />
* Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций и семинаров<br />
* Практические домашние работы на Python<br />
* Контрольная где-то в середине курса<br />
* Письменный экзамен<br />
<br />
Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:<br />
<br />
O<sub>итоговая</sub> = Округление(0.4 * ДЗ + 0.1 * ПР + 0.2 * КР + 0.3 * Э)<br />
<br />
ДЗ — средняя оценка за практические домашние задания<br />
<br />
ПР — средняя оценка за письменные проверочные работы на семинарах<br />
<br />
КР — оценка за контрольную работу<br />
<br />
Э — оценка за экзамен<br />
<br />
Округление арифметическое.<br />
<br />
=== Правила сдачи заданий ===<br />
<br />
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются. Даже при опоздании на одну секунду. Сдавайте заранее.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.<br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.<br />
<br />
== Лекции ==<br />
<br />
== Семинары ==<br />
<br />
== Практические задания ==<br />
<br />
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются, но есть исключение. В течение семестра каждый студент может не более 2 раз сдать задание после жёсткого дедлайна — в этом случае за каждый день просрочки продолжает вычитаться по одному баллу (если не оговорено иное).<br />
<br />
== Контрольная работа ==<br />
<br />
Вопросы прошлого года: https://docs.google.com/document/d/1kdeA730ItEqgC-4V_-U2gq_EbpX413XmmE9wMj7Wdh8/edit?usp=sharing<br />
<br />
Примеры задач:<br />
* Метрические методы, kNN [[http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/colloc_knn.ipynb Примеры задач]]<br />
* Линейные методы [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_linear.pdf Примеры задач]]<br />
* Решающие деревья [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_trees.ipynb Примеры задач]]<br />
* Метрики качества [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_metrics.ipynb Примеры задач]]<br />
<br />
== Экзамен ==<br />
<br />
Вопросы прошлого года: https://docs.google.com/document/d/1IrRO4kbzKieTWDgJ5UhfPECyU2tvq9CZi2mXgQPzf30/edit?usp=sharing<br />
<br />
[https://github.com/esokolov/ml-minor-hse/blob/master/exam-2017/exam_problems_example.pdf Примеры задач прошлого года] (также могут войти задачи из коллоквиума)<br />
<br />
==Полезные материалы==<br />
===Курсы по машинному обучению и анализу данных===<br />
* [http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_%28курс_лекций%2C_К.В.Воронцов%29 Курс по машинному обучению К.В. Воронцова]<br />
* [https://yandexdataschool.ru/edu-process/courses/machine-learning Видеозаписи лекций курса Школы Анализа Данных, К.В. Воронцов]<br />
* [https://www.coursera.org/specializations/machine-learning-data-analysis Coursera: Машинное обучение и анализ данных (специализация)]<br />
* [https://www.coursera.org/learn/introduction-machine-learning Coursera: Введение в машинное обучение, К.В. Воронцов]<br />
* [https://www.coursera.org/learn/machine-learning Coursera: Machine Learning, Andrew Ng]<br />
<br />
===Статьи===<br />
* [http://www.toptal.com/machine-learning/machine-learning-theory-an-introductory-primer An Introduction to Machine Learning Theory and Its Applications: A Visual Tutorial with Examples]<br />
* [http://www.r2d3.us/visual-intro-to-machine-learning-part-1/ A Visual Introduction to Machine Learning]<br />
<br />
===Книги===<br />
* Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
* Boris Mirkin. Core Concepts in Data Analysis: Summarization, Correlation, Visualization. 2010.<br />
* James, Witten, Hastie, Tibshirani. An Introduction to Statistical Learning. 2013.<br />
<br />
== Страницы прошлых лет ==<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных | 2018/19 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2017-2018 | 2017/18 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2016-2017 | 2016/17 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2015-2016 | 2015/16 учебный год ]]<br />
<br />
[[Category:Майнор "Интеллектуальный анализ данных"]]</div>Blackitten13http://wiki.cs.hse.ru/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85_(%D0%BC%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%90%D0%94)_2019/2020Введение в анализ данных (майнор ИАД) 2019/20202020-01-15T09:07:34Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
<br />
Курс читается для студентов 2-го курса [https://electives.hse.ru/minor_intel/ майнора ИАД] в 3-4 модулях.<br />
<br />
Проводится с 2015 года.<br />
<br />
'''Лектор:''' [http://www.hse.ru/staff/esokolov Соколов Евгений Андреевич]<br />
<br />
Лекции проходят по средам в 10:30, ауд. R405 (Покровский бульвар, 11).<br />
<br />
=== Полезные ссылки ===<br />
<br />
[https://www.hse.ru/edu/courses/316531794 Карточка курса и программа]<br />
<br />
[https://github.com/esokolov/ml-minor-hse Репозиторий с материалами на GitHub]<br />
<br />
Почта для сдачи домашних заданий (на самом деле задания сдаются в AnyTask, но если он не работает, то присылайте на почту): hse.minor.dm+<номер группы>@gmail.com (например, hse.minor.dm+3@gmail.com)<br />
<br />
Канал в telegram для объявлений: https://t.me/hse_minor_intro_dm_2020<br />
<br />
Чат в telegram для флуда: https://t.me/iad_flood<br />
<br />
Ссылка на курс в Anytask: <br />
<br />
Таблица с оценками:<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Материалы семинаров<br />
|-<br />
| ИАД-1 || || || <br />
|-<br />
| ИАД-2 || || || <br />
|-<br />
| ИАД-3 || || || <br />
|-<br />
| ИАД-4 || Ковалев Евгений || Алвандян Нарек || [http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-4-2020 Wiki] [https://github.com/blacKitten13/minor2020-iad4 GitHub]<br />
|-<br />
| ИАД-5 || || || <br />
|-<br />
| ИАД-6 || || || <br />
|-<br />
|}<br />
<br />
=== Правила выставления оценок ===<br />
<br />
В курсе предусмотрено несколько форм контроля знания:<br />
* Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций и семинаров<br />
* Практические домашние работы на Python<br />
* Контрольная где-то в середине курса<br />
* Письменный экзамен<br />
<br />
Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:<br />
<br />
O<sub>итоговая</sub> = Округление(0.4 * ДЗ + 0.1 * ПР + 0.2 * КР + 0.3 * Э)<br />
<br />
ДЗ — средняя оценка за практические домашние задания<br />
<br />
ПР — средняя оценка за письменные проверочные работы на семинарах<br />
<br />
КР — оценка за контрольную работу<br />
<br />
Э — оценка за экзамен<br />
<br />
Округление арифметическое.<br />
<br />
=== Правила сдачи заданий ===<br />
<br />
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются. Даже при опоздании на одну секунду. Сдавайте заранее.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.<br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.<br />
<br />
== Лекции ==<br />
<br />
== Семинары ==<br />
<br />
== Практические задания ==<br />
<br />
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются, но есть исключение. В течение семестра каждый студент может не более 2 раз сдать задание после жёсткого дедлайна — в этом случае за каждый день просрочки продолжает вычитаться по одному баллу (если не оговорено иное).<br />
<br />
== Контрольная работа ==<br />
<br />
Вопросы прошлого года: https://docs.google.com/document/d/1kdeA730ItEqgC-4V_-U2gq_EbpX413XmmE9wMj7Wdh8/edit?usp=sharing<br />
<br />
Примеры задач:<br />
* Метрические методы, kNN [[http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/colloc_knn.ipynb Примеры задач]]<br />
* Линейные методы [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_linear.pdf Примеры задач]]<br />
* Решающие деревья [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_trees.ipynb Примеры задач]]<br />
* Метрики качества [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_metrics.ipynb Примеры задач]]<br />
<br />
== Экзамен ==<br />
<br />
Вопросы прошлого года: https://docs.google.com/document/d/1IrRO4kbzKieTWDgJ5UhfPECyU2tvq9CZi2mXgQPzf30/edit?usp=sharing<br />
<br />
[https://github.com/esokolov/ml-minor-hse/blob/master/exam-2017/exam_problems_example.pdf Примеры задач прошлого года] (также могут войти задачи из коллоквиума)<br />
<br />
==Полезные материалы==<br />
===Курсы по машинному обучению и анализу данных===<br />
* [http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_%28курс_лекций%2C_К.В.Воронцов%29 Курс по машинному обучению К.В. Воронцова]<br />
* [https://yandexdataschool.ru/edu-process/courses/machine-learning Видеозаписи лекций курса Школы Анализа Данных, К.В. Воронцов]<br />
* [https://www.coursera.org/specializations/machine-learning-data-analysis Coursera: Машинное обучение и анализ данных (специализация)]<br />
* [https://www.coursera.org/learn/introduction-machine-learning Coursera: Введение в машинное обучение, К.В. Воронцов]<br />
* [https://www.coursera.org/learn/machine-learning Coursera: Machine Learning, Andrew Ng]<br />
<br />
===Статьи===<br />
* [http://www.toptal.com/machine-learning/machine-learning-theory-an-introductory-primer An Introduction to Machine Learning Theory and Its Applications: A Visual Tutorial with Examples]<br />
* [http://www.r2d3.us/visual-intro-to-machine-learning-part-1/ A Visual Introduction to Machine Learning]<br />
<br />
===Книги===<br />
* Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
* Boris Mirkin. Core Concepts in Data Analysis: Summarization, Correlation, Visualization. 2010.<br />
* James, Witten, Hastie, Tibshirani. An Introduction to Statistical Learning. 2013.<br />
<br />
== Страницы прошлых лет ==<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных | 2018/19 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2017-2018 | 2017/18 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2016-2017 | 2016/17 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2015-2016 | 2015/16 учебный год ]]<br />
<br />
[[Category:Майнор "Интеллектуальный анализ данных"]]</div>Blackitten13http://wiki.cs.hse.ru/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85_(%D0%BC%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%90%D0%94)_2019/2020Введение в анализ данных (майнор ИАД) 2019/20202020-01-14T23:07:56Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
<br />
Курс читается для студентов 2-го курса [https://electives.hse.ru/minor_intel/ майнора ИАД] в 3-4 модулях.<br />
<br />
Проводится с 2015 года.<br />
<br />
'''Лектор:''' [http://www.hse.ru/staff/esokolov Соколов Евгений Андреевич]<br />
<br />
Лекции проходят по средам в 10:30, ауд. R405 (Покровский бульвар, 11).<br />
<br />
=== Полезные ссылки ===<br />
<br />
[https://www.hse.ru/edu/courses/316531794 Карточка курса и программа]<br />
<br />
[https://github.com/esokolov/ml-minor-hse Репозиторий с материалами на GitHub]<br />
<br />
Почта для сдачи домашних заданий (на самом деле задания сдаются в AnyTask, но если он не работает, то присылайте на почту): hse.minor.dm+<номер группы>@gmail.com (например, hse.minor.dm+3@gmail.com)<br />
<br />
Канал в telegram для объявлений: https://t.me/hse_minor_intro_dm_2020<br />
<br />
Чат в telegram для флуда: https://t.me/iad_flood<br />
<br />
Ссылка на курс в Anytask: <br />
<br />
Таблица с оценками:<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Материалы семинаров<br />
|-<br />
| ИАД-1 || || || <br />
|-<br />
| ИАД-2 || || || <br />
|-<br />
| ИАД-3 || || || <br />
|-<br />
| ИАД-4 || Ковалев Евгений || Алвандян Нарек || [https://github.com/blacKitten13/minor2020-iad4 GitHub]<br />
|-<br />
| ИАД-5 || || || <br />
|-<br />
| ИАД-6 || || || <br />
|-<br />
|}<br />
<br />
=== Правила выставления оценок ===<br />
<br />
В курсе предусмотрено несколько форм контроля знания:<br />
* Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций и семинаров<br />
* Практические домашние работы на Python<br />
* Контрольная где-то в середине курса<br />
* Письменный экзамен<br />
<br />
Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:<br />
<br />
O<sub>итоговая</sub> = Округление(0.4 * ДЗ + 0.1 * ПР + 0.2 * КР + 0.3 * Э)<br />
<br />
ДЗ — средняя оценка за практические домашние задания<br />
<br />
ПР — средняя оценка за письменные проверочные работы на семинарах<br />
<br />
КР — оценка за контрольную работу<br />
<br />
Э — оценка за экзамен<br />
<br />
Округление арифметическое.<br />
<br />
=== Правила сдачи заданий ===<br />
<br />
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются. Даже при опоздании на одну секунду. Сдавайте заранее.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.<br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.<br />
<br />
== Лекции ==<br />
<br />
== Семинары ==<br />
<br />
== Практические задания ==<br />
<br />
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются, но есть исключение. В течение семестра каждый студент может не более 2 раз сдать задание после жёсткого дедлайна — в этом случае за каждый день просрочки продолжает вычитаться по одному баллу (если не оговорено иное).<br />
<br />
== Контрольная работа ==<br />
<br />
Вопросы прошлого года: https://docs.google.com/document/d/1kdeA730ItEqgC-4V_-U2gq_EbpX413XmmE9wMj7Wdh8/edit?usp=sharing<br />
<br />
Примеры задач:<br />
* Метрические методы, kNN [[http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/colloc_knn.ipynb Примеры задач]]<br />
* Линейные методы [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_linear.pdf Примеры задач]]<br />
* Решающие деревья [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_trees.ipynb Примеры задач]]<br />
* Метрики качества [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_metrics.ipynb Примеры задач]]<br />
<br />
== Экзамен ==<br />
<br />
Вопросы прошлого года: https://docs.google.com/document/d/1IrRO4kbzKieTWDgJ5UhfPECyU2tvq9CZi2mXgQPzf30/edit?usp=sharing<br />
<br />
[https://github.com/esokolov/ml-minor-hse/blob/master/exam-2017/exam_problems_example.pdf Примеры задач прошлого года] (также могут войти задачи из коллоквиума)<br />
<br />
==Полезные материалы==<br />
===Курсы по машинному обучению и анализу данных===<br />
* [http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_%28курс_лекций%2C_К.В.Воронцов%29 Курс по машинному обучению К.В. Воронцова]<br />
* [https://yandexdataschool.ru/edu-process/courses/machine-learning Видеозаписи лекций курса Школы Анализа Данных, К.В. Воронцов]<br />
* [https://www.coursera.org/specializations/machine-learning-data-analysis Coursera: Машинное обучение и анализ данных (специализация)]<br />
* [https://www.coursera.org/learn/introduction-machine-learning Coursera: Введение в машинное обучение, К.В. Воронцов]<br />
* [https://www.coursera.org/learn/machine-learning Coursera: Machine Learning, Andrew Ng]<br />
<br />
===Статьи===<br />
* [http://www.toptal.com/machine-learning/machine-learning-theory-an-introductory-primer An Introduction to Machine Learning Theory and Its Applications: A Visual Tutorial with Examples]<br />
* [http://www.r2d3.us/visual-intro-to-machine-learning-part-1/ A Visual Introduction to Machine Learning]<br />
<br />
===Книги===<br />
* Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
* Boris Mirkin. Core Concepts in Data Analysis: Summarization, Correlation, Visualization. 2010.<br />
* James, Witten, Hastie, Tibshirani. An Introduction to Statistical Learning. 2013.<br />
<br />
== Страницы прошлых лет ==<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных | 2018/19 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2017-2018 | 2017/18 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2016-2017 | 2016/17 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2015-2016 | 2015/16 учебный год ]]<br />
<br />
[[Category:Майнор "Интеллектуальный анализ данных"]]</div>Blackitten13http://wiki.cs.hse.ru/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85_(%D0%BC%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%90%D0%94)_2019/2020Введение в анализ данных (майнор ИАД) 2019/20202020-01-14T23:07:16Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
<br />
Курс читается для студентов 2-го курса [https://electives.hse.ru/minor_intel/ майнора ИАД] в 3-4 модулях.<br />
<br />
Проводится с 2015 года.<br />
<br />
'''Лектор:''' [http://www.hse.ru/staff/esokolov Соколов Евгений Андреевич]<br />
<br />
Лекции проходят по средам в 10:30, ауд. R405 (Покровский бульвар, 11).<br />
<br />
=== Полезные ссылки ===<br />
<br />
[https://www.hse.ru/edu/courses/316531794 Карточка курса и программа]<br />
<br />
[https://github.com/esokolov/ml-minor-hse Репозиторий с материалами на GitHub]<br />
<br />
Почта для сдачи домашних заданий (на самом деле задания сдаются в AnyTask, но если он не работает, то присылайте на почту): hse.minor.dm+<номер группы>@gmail.com (например, hse.minor.dm+3@gmail.com)<br />
<br />
Канал в telegram для объявлений: https://t.me/hse_minor_intro_dm_2020<br />
<br />
Чат в telegram для флуда: https://t.me/iad_flood<br />
<br />
Ссылка на курс в Anytask: <br />
<br />
Таблица с оценками:<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Материалы семинаров<br />
|-<br />
| ИАД-1 || || || <br />
|-<br />
| ИАД-2 || || || <br />
|-<br />
| ИАД-3 || || || <br />
|-<br />
| ИАД-4 || Ковалев Евгений || Алвандян Нарек || <br />
|-<br />
| ИАД-5 || || || <br />
|-<br />
| ИАД-6 || || || <br />
|-<br />
|}<br />
<br />
=== Правила выставления оценок ===<br />
<br />
В курсе предусмотрено несколько форм контроля знания:<br />
* Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций и семинаров<br />
* Практические домашние работы на Python<br />
* Контрольная где-то в середине курса<br />
* Письменный экзамен<br />
<br />
Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:<br />
<br />
O<sub>итоговая</sub> = Округление(0.4 * ДЗ + 0.1 * ПР + 0.2 * КР + 0.3 * Э)<br />
<br />
ДЗ — средняя оценка за практические домашние задания<br />
<br />
ПР — средняя оценка за письменные проверочные работы на семинарах<br />
<br />
КР — оценка за контрольную работу<br />
<br />
Э — оценка за экзамен<br />
<br />
Округление арифметическое.<br />
<br />
=== Правила сдачи заданий ===<br />
<br />
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются. Даже при опоздании на одну секунду. Сдавайте заранее.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.<br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.<br />
<br />
== Лекции ==<br />
<br />
== Семинары ==<br />
<br />
== Практические задания ==<br />
<br />
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются, но есть исключение. В течение семестра каждый студент может не более 2 раз сдать задание после жёсткого дедлайна — в этом случае за каждый день просрочки продолжает вычитаться по одному баллу (если не оговорено иное).<br />
<br />
== Контрольная работа ==<br />
<br />
Вопросы прошлого года: https://docs.google.com/document/d/1kdeA730ItEqgC-4V_-U2gq_EbpX413XmmE9wMj7Wdh8/edit?usp=sharing<br />
<br />
Примеры задач:<br />
* Метрические методы, kNN [[http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/colloc_knn.ipynb Примеры задач]]<br />
* Линейные методы [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_linear.pdf Примеры задач]]<br />
* Решающие деревья [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_trees.ipynb Примеры задач]]<br />
* Метрики качества [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_metrics.ipynb Примеры задач]]<br />
<br />
== Экзамен ==<br />
<br />
Вопросы прошлого года: https://docs.google.com/document/d/1IrRO4kbzKieTWDgJ5UhfPECyU2tvq9CZi2mXgQPzf30/edit?usp=sharing<br />
<br />
[https://github.com/esokolov/ml-minor-hse/blob/master/exam-2017/exam_problems_example.pdf Примеры задач прошлого года] (также могут войти задачи из коллоквиума)<br />
<br />
==Полезные материалы==<br />
===Курсы по машинному обучению и анализу данных===<br />
* [http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_%28курс_лекций%2C_К.В.Воронцов%29 Курс по машинному обучению К.В. Воронцова]<br />
* [https://yandexdataschool.ru/edu-process/courses/machine-learning Видеозаписи лекций курса Школы Анализа Данных, К.В. Воронцов]<br />
* [https://www.coursera.org/specializations/machine-learning-data-analysis Coursera: Машинное обучение и анализ данных (специализация)]<br />
* [https://www.coursera.org/learn/introduction-machine-learning Coursera: Введение в машинное обучение, К.В. Воронцов]<br />
* [https://www.coursera.org/learn/machine-learning Coursera: Machine Learning, Andrew Ng]<br />
<br />
===Статьи===<br />
* [http://www.toptal.com/machine-learning/machine-learning-theory-an-introductory-primer An Introduction to Machine Learning Theory and Its Applications: A Visual Tutorial with Examples]<br />
* [http://www.r2d3.us/visual-intro-to-machine-learning-part-1/ A Visual Introduction to Machine Learning]<br />
<br />
===Книги===<br />
* Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
* Boris Mirkin. Core Concepts in Data Analysis: Summarization, Correlation, Visualization. 2010.<br />
* James, Witten, Hastie, Tibshirani. An Introduction to Statistical Learning. 2013.<br />
<br />
== Страницы прошлых лет ==<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных | 2018/19 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2017-2018 | 2017/18 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2016-2017 | 2016/17 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2015-2016 | 2015/16 учебный год ]]<br />
<br />
[[Category:Майнор "Интеллектуальный анализ данных"]]</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-4-2020Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-4-20202020-01-14T23:02:43Z<p>Blackitten13: Новая страница: «==Организационная информация== Семинарист: Евгений Ковалев (telegram: @blacKitten13) Ассистент: Нар…»</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Нарек Алвандян (telegram: @narekvslife)<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01RHtt3-8NZO02cbg5A Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2020-iad4 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-05-21T20:19:35Z<p>Blackitten13: /* События */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Максим Мухортов (telegram: @mmukhortov)<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
29.05 - проверочная №4 по лекциям 8-10, основные темы: решающие деревья, композиции (случайный лес, бустинг)<br />
<br />
24.05 - дедлайн дз №3 (в 23:59)<br />
<br />
22.05 - ПЕРЕНОСИТСЯ НА НЕДЕЛЮ проверочная №4<br />
<br />
24.04 - контрольная работа для тех, кто не писал в 17.04 по причине сдачи IELTS<br />
<br />
17.04 - контрольная работа<br />
<br />
03.04 - два семинара (с 10:30 до 13:30) и проверочная №3 по лекциям 6-7, основные темы: линейная классификация, метрики качества классификации.<br />
<br />
20.03 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
17.03 - дедлайн дз №2 (в 23:59)<br />
<br />
27.02 - проверочная №2 по лекциям 3-5, основные темы: kNN, линейная регрессия.<br />
<br />
10.02 - дедлайн дз №1 (в 23:59)<br />
<br />
06.02 - два семинара (с 12 до 15) и проверочная №1 (основные определения). Занятия пройдут на ФКН (Кочновский проезд, дом 3), аудитория 301.<br />
<br />
30.01 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-05-17T11:15:35Z<p>Blackitten13: /* События */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Максим Мухортов (telegram: @mmukhortov)<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
23.05 - дедлайн дз №3 (в 23:59)<br />
<br />
22.05 - проверочная №4 по лекциям 8-10, основные темы: решающие деревья, композиции (случайный лес, бустинг)<br />
<br />
24.04 - контрольная работа для тех, кто не писал в 17.04 по причине сдачи IELTS<br />
<br />
17.04 - контрольная работа<br />
<br />
03.04 - два семинара (с 10:30 до 13:30) и проверочная №3 по лекциям 6-7, основные темы: линейная классификация, метрики качества классификации.<br />
<br />
20.03 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
17.03 - дедлайн дз №2 (в 23:59)<br />
<br />
27.02 - проверочная №2 по лекциям 3-5, основные темы: kNN, линейная регрессия.<br />
<br />
10.02 - дедлайн дз №1 (в 23:59)<br />
<br />
06.02 - два семинара (с 12 до 15) и проверочная №1 (основные определения). Занятия пройдут на ФКН (Кочновский проезд, дом 3), аудитория 301.<br />
<br />
30.01 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-05-06T17:55:52Z<p>Blackitten13: /* События */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Максим Мухортов (telegram: @mmukhortov)<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
23.05 - дедлайн дз №3 (в 23:59)<br />
<br />
24.04 - контрольная работа для тех, кто не писал в 17.04 по причине сдачи IELTS<br />
<br />
17.04 - контрольная работа<br />
<br />
03.04 - два семинара (с 10:30 до 13:30) и проверочная №3 по лекциям 6-7, основные темы: линейная классификация, метрики качества классификации.<br />
<br />
20.03 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
17.03 - дедлайн дз №2 (в 23:59)<br />
<br />
27.02 - проверочная №2 по лекциям 3-5, основные темы: kNN, линейная регрессия.<br />
<br />
10.02 - дедлайн дз №1 (в 23:59)<br />
<br />
06.02 - два семинара (с 12 до 15) и проверочная №1 (основные определения). Занятия пройдут на ФКН (Кочновский проезд, дом 3), аудитория 301.<br />
<br />
30.01 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-04-23T13:55:32Z<p>Blackitten13: </p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Максим Мухортов (telegram: @mmukhortov)<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
24.04 - контрольная работа для тех, кто не писал в 17.04 по причине сдачи IELTS<br />
<br />
17.04 - контрольная работа<br />
<br />
03.04 - два семинара (с 10:30 до 13:30) и проверочная №3 по лекциям 6-7, основные темы: линейная классификация, метрики качества классификации.<br />
<br />
20.03 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
17.03 - дедлайн дз №2 (в 23:59)<br />
<br />
27.02 - проверочная №2 по лекциям 3-5, основные темы: kNN, линейная регрессия.<br />
<br />
10.02 - дедлайн дз №1 (в 23:59)<br />
<br />
06.02 - два семинара (с 12 до 15) и проверочная №1 (основные определения). Занятия пройдут на ФКН (Кочновский проезд, дом 3), аудитория 301.<br />
<br />
30.01 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-04-01T21:10:39Z<p>Blackitten13: /* События */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Максим Мухортов (telegram: @mmukhortov)<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
03.04 - два семинара (с 10:30 до 13:30) и проверочная №3 по лекциям 6-7, основные темы: линейная классификация, метрики качества классификации.<br />
<br />
20.03 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
17.03 - дедлайн дз №2 (в 23:59)<br />
<br />
27.02 - проверочная №2 по лекциям 3-5, основные темы: kNN, линейная регрессия.<br />
<br />
10.02 - дедлайн дз №1 (в 23:59)<br />
<br />
06.02 - два семинара (с 12 до 15) и проверочная №1 (основные определения). Занятия пройдут на ФКН (Кочновский проезд, дом 3), аудитория 301.<br />
<br />
30.01 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-03-19T09:16:59Z<p>Blackitten13: </p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Максим Мухортов (telegram: @mmukhortov)<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
20.03 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
17.03 - дедлайн дз №2 (в 23:59)<br />
<br />
27.02 - проверочная №2 по лекциям 3-5, основные темы: kNN, линейная регрессия.<br />
<br />
10.02 - дедлайн дз №1 (в 23:59)<br />
<br />
06.02 - два семинара (с 12 до 15) и проверочная №1 (основные определения). Занятия пройдут на ФКН (Кочновский проезд, дом 3), аудитория 301.<br />
<br />
30.01 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-03-05T10:41:20Z<p>Blackitten13: /* События */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Максим Мухортов (telegram: @mmukhortov)<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
17.03 - дедлайн дз №2 (в 23:59)<br />
<br />
27.02 - проверочная №2 по лекциям 3-5, основные темы: kNN, линейная регрессия.<br />
<br />
10.02 - дедлайн дз №1 (в 23:59)<br />
<br />
06.02 - два семинара (с 12 до 15) и проверочная №1 (основные определения). Занятия пройдут на ФКН (Кочновский проезд, дом 3), аудитория 301.<br />
<br />
30.01 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-02-19T15:45:23Z<p>Blackitten13: /* События */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Максим Мухортов (telegram: @mmukhortov)<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
27.02 - проверочная №2 по лекциям 3-5, основные темы: kNN, линейная регрессия.<br />
<br />
10.02 - дедлайн дз №1 (в 23:59)<br />
<br />
06.02 - два семинара (с 12 до 15) и проверочная №1 (основные определения). Занятия пройдут на ФКН (Кочновский проезд, дом 3), аудитория 301.<br />
<br />
30.01 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-02-19T15:45:15Z<p>Blackitten13: /* События */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Максим Мухортов (telegram: @mmukhortov)<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
27.02 - проверочная №2 по лекциям 3-5, основные темы: kNN, линейная регрессия.<br />
<br />
10.01 - дедлайн дз №1 (в 23:59)<br />
<br />
06.02 - два семинара (с 12 до 15) и проверочная №1 (основные определения). Занятия пройдут на ФКН (Кочновский проезд, дом 3), аудитория 301.<br />
<br />
30.01 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-02-19T15:44:54Z<p>Blackitten13: /* События */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Максим Мухортов (telegram: @mmukhortov)<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
27.02 - проверочная №2 по лекциям 3-5, основные темы: kNN, линейная регрессия.<br />
<br />
06.02 - два семинара (с 12 до 15) и проверочная №1 (основные определения). Занятия пройдут на ФКН (Кочновский проезд, дом 3), аудитория 301.<br />
<br />
30.01 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
10.01 - дедлайн дз №1 (в 23:59)<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-02-19T15:44:12Z<p>Blackitten13: /* События */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Максим Мухортов (telegram: @mmukhortov)<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
27.02 - проверочная №2 по лекциям 3-5, основные темы: kNN, линейная регрессия.<br />
<br />
30.01 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
06.01 - два семинара (с 12 до 15) и проверочная №1 (основные определения). Занятия пройдут на ФКН (Кочновский проезд, дом 3), аудитория 301.<br />
<br />
10.01 - дедлайн дз №1 (в 23:59)<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-02-05T11:42:49Z<p>Blackitten13: /* События */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Максим Мухортов (telegram: @mmukhortov)<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
30.01 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
06.01 - два семинара (с 12 до 15) и проверочная №1 (основные определения). Занятия пройдут на ФКН (Кочновский проезд, дом 3), аудитория 301.<br />
<br />
10.01 - дедлайн дз №1 (в 23:59)<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-01-30T14:39:10Z<p>Blackitten13: /* Организационная информация */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Максим Мухортов (telegram: @mmukhortov)<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
30.01 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
06.01 - два семинара (с 12 до 15) и проверочная №1 (основные определения)<br />
<br />
10.01 - дедлайн дз №1 (в 23:59)<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-01-30T11:47:40Z<p>Blackitten13: /* События */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Максим Мухортов<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
30.01 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
06.01 - два семинара (с 12 до 15) и проверочная №1 (основные определения)<br />
<br />
10.01 - дедлайн дз №1 (в 23:59)<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-01-29T13:28:05Z<p>Blackitten13: /* События */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Максим Мухортов<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
30.01 - семинара и проверочной не будет, переносятся на следующую неделю<br />
<br />
06.01 - два семинара (с 12 до 15) и проверочная №1 (основные определения)<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-01-29T09:14:06Z<p>Blackitten13: /* Организационная информация */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев (telegram: @blacKitten13)<br />
<br />
Ассистент: Максим Мухортов<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
30.01 - проверочная №1 (основные определения)<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-01-23T07:45:45Z<p>Blackitten13: /* Полезные ссылки */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев<br />
<br />
Telegram: @blacKitten13<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
30.01 - проверочная №1 (основные определения)<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
* Kaggle: https://www.kaggle.com/<br />
* DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-01-23T07:45:24Z<p>Blackitten13: /* Полезные ссылки */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев<br />
<br />
Telegram: @blacKitten13<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
30.01 - проверочная №1 (основные определения)<br />
<br />
==Полезные ссылки==<br />
<br />
'''''Начало работы'''''<br />
<br />
* Anaconda (дистрибутив для Python, содержащий в том числе Jupyter Notebook и сам Python): https://www.anaconda.com/download/ - рекомендуется версия Python 3.6 или больше; не забудьте выбрать нужную операционную систему!<br />
* документация по Jupyter: https://jupyter.readthedocs.io/en/latest/<br />
* документация по pip (для установки пакетов в Python с помощью pip install): https://pip.readthedocs.io/en/latest/<br />
* PyCharm: https://www.jetbrains.com/pycharm/<br />
<br />
'''''Общее'''''<br />
<br />
* для любых вопросов: https://www.google.com/<br />
* для (почти) любых ответов: https://stackoverflow.com/<br />
* профессиональный информационно-аналитический ресурс, посвященный машинному обучению, распознаванию образов и интеллектуальному анализу данных: http://www.machinelearning.ru/wiki/index.php?title=Заглавная_страница<br />
* A visual introduction to machine learning: http://www.r2d3.us/visual-intro-to-machine-learning-part-1/<br />
<br />
'''''Python & Jupyter'''''<br />
<br />
* A Crash Course in Python for Scientists: http://nbviewer.jupyter.org/gist/rpmuller/5920182<br />
* A Gallery of interesting Jupyter Notebooks: https://github.com/jupyter/jupyter/wiki/A-gallery-of-interesting-Jupyter-Notebooks<br />
* Markdown Cheatsheet: https://github.com/adam-p/markdown-here/wiki/Markdown-Cheatsheet<br />
<br />
'''''numpy'''''<br />
<br />
* документация: http://www.numpy.org/<br />
* Python Numpy Array Tutorial: https://www.datacamp.com/community/tutorials/python-numpy-tutorial<br />
* 100 numpy exercises: http://www.labri.fr/perso/nrougier/teaching/numpy.100/<br />
<br />
'''''pandas'''''<br />
<br />
* документация: http://pandas.pydata.org/pandas-docs/stable/<br />
* 10 minutes to pandas: https://pandas.pydata.org/pandas-docs/stable/10min.html<br />
* Pandas Tutorial: DataFrames in Python: https://www.datacamp.com/community/tutorials/pandas-tutorial-dataframe-python<br />
* Cheet Sheet: https://www.analyticsvidhya.com/blog/2015/07/11-steps-perform-data-analysis-pandas-python/<br />
* Visualization: http://pandas.pydata.org/pandas-docs/stable/visualization.html<br />
<br />
'''''sklearn'''''<br />
<br />
* документация и многое другое: http://scikit-learn.org/stable/<br />
<br />
'''''Другие библиотеки'''''<br />
<br />
* matplotlib: https://matplotlib.org/users/pyplot_tutorial.html<br />
* seaborn: http://seaborn.pydata.org/<br />
<br />
'''''Онлайн-курсы'''''<br />
<br />
* Andrew Ng, "Machine Learning": https://www.coursera.org/learn/machine-learning<br />
* ВШЭ & Яндекс, «Введение в машинное обучение»: https://www.coursera.org/learn/vvedenie-mashinnoe-obuchenie<br />
* ВШЭ & Яндекс, специализация "Advanced Machine Learning": https://www.coursera.org/courses?query=advanced%20machine%20learning (более продвинутый уровень)<br />
* обзор онлайн-курсов Coursera: https://habr.com/post/248069/<br />
* Dataquest: https://www.dataquest.io/<br />
* Learn Python: https://www.codecademy.com/learn/learn-python<br />
<br />
'''''Соревнования'''''<br />
<br />
Kaggle: https://www.kaggle.com/<br />
DrivenData: https://www.drivendata.org/<br />
<br />
'''''For fun'''''<br />
<br />
* http://tylervigen.com/spurious-correlations<br />
* http://blog.yhat.com/posts/7-funny-datasets.html<br />
* https://vk.com/weirdreparametrizationtrick</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-01-23T07:38:00Z<p>Blackitten13: </p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев<br />
<br />
Telegram: @blacKitten13<br />
<br />
==Основные ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница группы на github.com]<br />
<br />
==События==<br />
<br />
30.01 - проверочная №1 (основные определения)<br />
<br />
==Полезные ссылки==</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-01-16T08:59:37Z<p>Blackitten13: /* Организационная информация */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев<br />
<br />
Telegram: @blacKitten13<br />
<br />
==Ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница курса на github.com]</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-01-16T08:59:27Z<p>Blackitten13: /* Организационная информация */</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев<br />
Telegram: @blacKitten13<br />
<br />
==Ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница курса на github.com]</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85Майнор Интеллектуальный анализ данных/Введение в анализ данных2019-01-16T08:58:46Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
<br />
Курс читается для студентов 2-го курса [https://electives.hse.ru/2015/minor_intel/ майнора ИАД] в 3-4 модулях.<br />
<br />
Проводится с 2015 года.<br />
<br />
'''Лектор:''' [http://www.hse.ru/staff/esokolov Соколов Евгений Андреевич]<br />
<br />
Лекции проходят по средам, 10:30 - 11:50, ауд. 5306 (Шаболовка, 26).<br />
<br />
<br />
=== Полезные ссылки ===<br />
<br />
[https://www.hse.ru/edu/courses/219890194 Карточка курса и программа]<br />
<br />
[https://github.com/esokolov/ml-minor-hse Репозиторий с материалами на GitHub]<br />
<br />
Почта для сдачи домашних заданий: hse.minor.dm+<номер группы>@gmail.com (например, hse.minor.dm+3@gmail.com)<br />
<br />
Канал в telegram для объявлений: https://telegram.me/hse_minor_intro_dm_2019<br />
<br />
[https://docs.google.com/spreadsheets/d/1B1cwdaCJ2uPhqJs4fQJDcGKUgjBKl7DcNLOwsvSbxHY/edit?usp=sharing Таблица с оценками]<br />
<br />
Оставить отзыв на курс: [http://goo.gl/forms/RwdMxnChST форма]<br />
<br />
'''Вопросы''' по курсу можно задавать на почту курса, а также в телеграм лектору (esokolov@) или семинаристу.<br />
Вопросы по материалам лекций лучше всего оформлять в виде [https://github.com/esokolov/ml-minor-hse/issues Issue] в [https://github.com/esokolov/ml-minor-hse github-репозитории курса].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Страница !! Расписание<br />
|-<br />
| ИАД-1 || || || || <br />
|-<br />
| ИАД-2 || Ковалев Евгений || Мухортов Максим || [http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2 Wiki] || среда, 12:10-13:30, ауд. 4336<br />
|-<br />
| ИАД-3 || || || || <br />
|-<br />
| ИАД-4 || || || || <br />
|-<br />
| ИАД-5 || || || || <br />
|-<br />
|}<br />
<br />
=== Правила выставления оценок ===<br />
<br />
В курсе предусмотрено несколько форм контроля знания:<br />
* Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций и семинаров<br />
* Практические домашние работы на Python<br />
* Контрольная где-то в середине курса<br />
* Письменный экзамен<br />
<br />
Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:<br />
<br />
O<sub>итоговая</sub> = 0.7 * O<sub>накопленная</sub> + 0.3 * О<sub>экз</sub><br />
<br />
Оценка за работу в семестре вычисляется по формуле<br />
<br />
O<sub>накопленная</sub> = 0.2 * O<sub>самостоятельные</sub> + 0.6 * О<sub>дз</sub> + 0.2 * О<sub>контрольная</sub><br />
<br />
Оценка за самостоятельную работу вычисляется как среднее по всем самостоятельным, оценка за домашнюю работу — как среднее по всем практическим заданиям.<br />
<br />
=== Правила сдачи заданий ===<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.<br />
<br />
При наличии уважительной причины дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.<br />
<br />
==Лекции==<br />
[[Файл:how-to-download.png|thumb|right|200px|Файлы со слайдами очень легко скачать с GitHub с помощью кнопки Raw!]]<br />
<br />
Лекция 1 (16.01.2018). Введение в машинное обучение и анализ данных. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2019/lecture01-intro.pdf Слайды]]<br />
<br />
Лекция 2 (23.01.2018). Типы задач машинного обучения. Типы признаков. Обобщающая способность и переобучение. Примеры задач анализа данных. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture02-intro.pdf Слайды]]<br />
<br />
Лекция 3 (30.01.2018). Векторы и матрицы. Норма, метрика и скалярное произведение. Качество классификации, доля верных ответов. Оценивание обобщающей способности, кросс-валидация. Гипотеза компактности. Метод k ближайших соседей. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture03-knn.pdf Слайды]]<br />
<br />
Лекция 4 (06.02.2018). Метод k ближайших соседей в регрессии. Среднеквадратичная ошибка. Матричное умножение. Производные и градиенты. Экстремумы функций. Обучение линейной регрессии. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture04-regression.pdf Слайды]]<br />
<br />
Лекция 5 (13.02.2018). Градиентный спуск. Линейные зависимости и мультиколлинеарность. Регуляризация линейных моделей. Масштабирование признаков. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture05-regression.pdf Слайды]]<br />
<br />
Лекция 6 (20.02.2018). Линейная классификация. Логистическая регрессия. Оценивание вероятностей. Метрики качества классификации: accuracy, precision, recall. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture06-linclass.pdf Слайды]]<br />
<br />
Лекция 7 (27.02.2018). Работа с категориальными признаками. Метрики качества регрессии: MSE, MAE, коэффициент детерминации. Устойчивые оценки. Качество классификации, AUC-PR, AUC-ROC. Параметры и гиперпараметры. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture07-quality.pdf Слайды]]<br />
<br />
Лекция 8 (13.03.2018). Многоклассовая классификация, подход one-vs-all. Решающие деревья. Критерии информативности. Энтропия и энтропийный критерий для классификации. Гиперпараметры деревьев, борьба с переобучением. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture08-trees.pdf Слайды]]<br />
<br />
Лекция 9 (20.03.2018). Композиции алгоритмов. Случайные леса [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture09-ensembles.pdf Слайды]]<br />
<br />
Лекция 10 (17.04.2018). Понижение размерности данных. Отбор признаков: одномерные методы, отбор с помощью моделей. Визуализация данных, t-SNE. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture10-reduction.pdf Слайды]]<br />
<br />
Лекция 11 (24.04.2018). Обучение без учителя. Примеры задач. Кластеризация: K-Means, DBSCAN, графовые методы. Представления слов. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture11-clustering.pdf Слайды]]<br />
<br />
Лекция 12 (15.05.2018). Рекомендательные системы. Коллаборативная фильтрация, модели со скрытыми переменными. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture12-recommender.pdf Слайды]]<br />
<br />
Лекция 13 (29.05.2018). Ранжирование. Метрики качества ранжирования. Точечные и попарные методы. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture13-ranking.pdf Слайды]]<br />
<br />
Лекция 14 (05.06.2018). Метод опорных векторов. Задача максимизации отступа. Hinge loss. Ядровой переход. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture14-svm.pdf Слайды]]<br />
<br />
==Семинары==<br />
<br />
== Практические задания ==<br />
За каждый день просрочки снимается 0.5 балла.<br />
<br />
== Контрольная работа ==<br />
<br />
Вопросы: https://docs.google.com/document/d/1UG6FJzJ52AEa92iKPu6uVh05RtPDF1zCBTRiuIl3juM/edit?usp=sharing<br />
<br />
Примеры задач:<br />
* Метрические методы, kNN [[http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/colloc_knn.ipynb Примеры задач]]<br />
* Линейные методы [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_linear.pdf Примеры задач]]<br />
* Решающие деревья [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_trees.ipynb Примеры задач]]<br />
* Метрики качества [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_metrics.ipynb Примеры задач]]<br />
<br />
== Экзамен ==<br />
<br />
Вопросы: https://docs.google.com/document/d/1YAleuHWr2Dn1brhiUUkdSkr65mtnhAvgIZxyo6sBt3E/edit?usp=sharing<br />
<br />
[https://github.com/esokolov/ml-minor-hse/blob/master/exam-2017/exam_problems_example.pdf Примеры задач прошлого года] (также могут войти задачи из коллоквиума)<br />
<br />
==Полезные материалы==<br />
===Курсы по машинному обучению и анализу данных===<br />
* [http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_%28курс_лекций%2C_К.В.Воронцов%29 Курс по машинному обучению К.В. Воронцова]<br />
* [https://yandexdataschool.ru/edu-process/courses/machine-learning Видеозаписи лекций курса Школы Анализа Данных, К.В. Воронцов]<br />
* [https://www.coursera.org/specializations/machine-learning-data-analysis Coursera: Машинное обучение и анализ данных (специализация)]<br />
* [https://www.coursera.org/learn/introduction-machine-learning Coursera: Введение в машинное обучение, К.В. Воронцов]<br />
* [https://www.coursera.org/learn/machine-learning Coursera: Machine Learning, Andrew Ng]<br />
<br />
===Статьи===<br />
* [http://www.toptal.com/machine-learning/machine-learning-theory-an-introductory-primer An Introduction to Machine Learning Theory and Its Applications: A Visual Tutorial with Examples]<br />
* [http://www.r2d3.us/visual-intro-to-machine-learning-part-1/ A Visual Introduction to Machine Learning]<br />
<br />
===Книги===<br />
* Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
* Boris Mirkin. Core Concepts in Data Analysis: Summarization, Correlation, Visualization. 2010.<br />
* James, Witten, Hastie, Tibshirani. An Introduction to Statistical Learning. 2013.<br />
<br />
== Страницы прошлых лет ==<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2017-2018 | 2017/18 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2016-2017 | 2016/17 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2015-2016 | 2015/16 учебный год ]]<br />
<br />
[[Category:Майнор "Интеллектуальный анализ данных"]]</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%98%D0%90%D0%94-2Майнор Интеллектуальный анализ данных/Введение в анализ данных/ИАД-22019-01-16T08:56:47Z<p>Blackitten13: Новая страница: «==Организационная информация== Семинарист: Евгений Ковалев ==Ссылки== [https://t-do.ru/joinchat/Cci01Uimq…»</p>
<hr />
<div>==Организационная информация==<br />
Семинарист: Евгений Ковалев<br />
<br />
==Ссылки==<br />
<br />
[https://t-do.ru/joinchat/Cci01Uimqi_CsH7T0NKoOQ Чат в Telegram]<br />
<br />
[https://github.com/blacKitten13/minor2019-iad2 Страница курса на github.com]</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D0%B9%D0%BD%D0%BE%D1%80_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82%D1%83%D0%B0%D0%BB%D1%8C%D0%BD%D1%8B%D0%B9_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85/%D0%92%D0%B2%D0%B5%D0%B4%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2_%D0%B0%D0%BD%D0%B0%D0%BB%D0%B8%D0%B7_%D0%B4%D0%B0%D0%BD%D0%BD%D1%8B%D1%85Майнор Интеллектуальный анализ данных/Введение в анализ данных2019-01-15T18:44:01Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
<br />
Курс читается для студентов 2-го курса [https://electives.hse.ru/2015/minor_intel/ майнора ИАД] в 3-4 модулях.<br />
<br />
Проводится с 2015 года.<br />
<br />
'''Лектор:''' [http://www.hse.ru/staff/esokolov Соколов Евгений Андреевич]<br />
<br />
Лекции проходят по средам, 10:30 - 11:50, ауд. 5306 (Шаболовка, 26).<br />
<br />
<br />
=== Полезные ссылки ===<br />
<br />
[https://www.hse.ru/edu/courses/219890194 Карточка курса и программа]<br />
<br />
[https://github.com/esokolov/ml-minor-hse Репозиторий с материалами на GitHub]<br />
<br />
Почта для сдачи домашних заданий: hse.minor.dm+<номер группы>@gmail.com (например, hse.minor.dm+3@gmail.com)<br />
<br />
Канал в telegram для объявлений: https://telegram.me/hse_minor_intro_dm_2019<br />
<br />
[https://docs.google.com/spreadsheets/d/1B1cwdaCJ2uPhqJs4fQJDcGKUgjBKl7DcNLOwsvSbxHY/edit?usp=sharing Таблица с оценками]<br />
<br />
Оставить отзыв на курс: [http://goo.gl/forms/RwdMxnChST форма]<br />
<br />
'''Вопросы''' по курсу можно задавать на почту курса, а также в телеграм лектору (esokolov@) или семинаристу.<br />
Вопросы по материалам лекций лучше всего оформлять в виде [https://github.com/esokolov/ml-minor-hse/issues Issue] в [https://github.com/esokolov/ml-minor-hse github-репозитории курса].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Страница !! Расписание<br />
|-<br />
| ИАД-1 || || || || <br />
|-<br />
| ИАД-2 || Ковалев Евгений || Мухортов Максим || - || среда, 12:10-13:30, ауд. 4336<br />
|-<br />
| ИАД-3 || || || || <br />
|-<br />
| ИАД-4 || || || || <br />
|-<br />
| ИАД-5 || || || || <br />
|-<br />
|}<br />
<br />
=== Правила выставления оценок ===<br />
<br />
В курсе предусмотрено несколько форм контроля знания:<br />
* Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций и семинаров<br />
* Практические домашние работы на Python<br />
* Контрольная где-то в середине курса<br />
* Письменный экзамен<br />
<br />
Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:<br />
<br />
O<sub>итоговая</sub> = 0.7 * O<sub>накопленная</sub> + 0.3 * О<sub>экз</sub><br />
<br />
Оценка за работу в семестре вычисляется по формуле<br />
<br />
O<sub>накопленная</sub> = 0.2 * O<sub>самостоятельные</sub> + 0.6 * О<sub>дз</sub> + 0.2 * О<sub>контрольная</sub><br />
<br />
Оценка за самостоятельную работу вычисляется как среднее по всем самостоятельным, оценка за домашнюю работу — как среднее по всем практическим заданиям.<br />
<br />
=== Правила сдачи заданий ===<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.<br />
<br />
При наличии уважительной причины дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.<br />
<br />
==Лекции==<br />
[[Файл:how-to-download.png|thumb|right|200px|Файлы со слайдами очень легко скачать с GitHub с помощью кнопки Raw!]]<br />
<br />
Лекция 1 (16.01.2018). Введение в машинное обучение и анализ данных. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture01-intro.pdf Слайды]]<br />
<br />
Лекция 2 (23.01.2018). Типы задач машинного обучения. Типы признаков. Обобщающая способность и переобучение. Примеры задач анализа данных. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture02-intro.pdf Слайды]]<br />
<br />
Лекция 3 (30.01.2018). Векторы и матрицы. Норма, метрика и скалярное произведение. Качество классификации, доля верных ответов. Оценивание обобщающей способности, кросс-валидация. Гипотеза компактности. Метод k ближайших соседей. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture03-knn.pdf Слайды]]<br />
<br />
Лекция 4 (06.02.2018). Метод k ближайших соседей в регрессии. Среднеквадратичная ошибка. Матричное умножение. Производные и градиенты. Экстремумы функций. Обучение линейной регрессии. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture04-regression.pdf Слайды]]<br />
<br />
Лекция 5 (13.02.2018). Градиентный спуск. Линейные зависимости и мультиколлинеарность. Регуляризация линейных моделей. Масштабирование признаков. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture05-regression.pdf Слайды]]<br />
<br />
Лекция 6 (20.02.2018). Линейная классификация. Логистическая регрессия. Оценивание вероятностей. Метрики качества классификации: accuracy, precision, recall. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture06-linclass.pdf Слайды]]<br />
<br />
Лекция 7 (27.02.2018). Работа с категориальными признаками. Метрики качества регрессии: MSE, MAE, коэффициент детерминации. Устойчивые оценки. Качество классификации, AUC-PR, AUC-ROC. Параметры и гиперпараметры. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture07-quality.pdf Слайды]]<br />
<br />
Лекция 8 (13.03.2018). Многоклассовая классификация, подход one-vs-all. Решающие деревья. Критерии информативности. Энтропия и энтропийный критерий для классификации. Гиперпараметры деревьев, борьба с переобучением. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture08-trees.pdf Слайды]]<br />
<br />
Лекция 9 (20.03.2018). Композиции алгоритмов. Случайные леса [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture09-ensembles.pdf Слайды]]<br />
<br />
Лекция 10 (17.04.2018). Понижение размерности данных. Отбор признаков: одномерные методы, отбор с помощью моделей. Визуализация данных, t-SNE. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture10-reduction.pdf Слайды]]<br />
<br />
Лекция 11 (24.04.2018). Обучение без учителя. Примеры задач. Кластеризация: K-Means, DBSCAN, графовые методы. Представления слов. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture11-clustering.pdf Слайды]]<br />
<br />
Лекция 12 (15.05.2018). Рекомендательные системы. Коллаборативная фильтрация, модели со скрытыми переменными. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture12-recommender.pdf Слайды]]<br />
<br />
Лекция 13 (29.05.2018). Ранжирование. Метрики качества ранжирования. Точечные и попарные методы. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture13-ranking.pdf Слайды]]<br />
<br />
Лекция 14 (05.06.2018). Метод опорных векторов. Задача максимизации отступа. Hinge loss. Ядровой переход. [[https://github.com/esokolov/ml-minor-hse/blob/master/lectures-2018/lecture14-svm.pdf Слайды]]<br />
<br />
==Семинары==<br />
<br />
== Практические задания ==<br />
За каждый день просрочки снимается 0.5 балла.<br />
<br />
== Контрольная работа ==<br />
<br />
Вопросы: https://docs.google.com/document/d/1UG6FJzJ52AEa92iKPu6uVh05RtPDF1zCBTRiuIl3juM/edit?usp=sharing<br />
<br />
Примеры задач:<br />
* Метрические методы, kNN [[http://nbviewer.jupyter.org/github/shestakoff/minor_da_2017/blob/master/colloc_knn.ipynb Примеры задач]]<br />
* Линейные методы [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_linear.pdf Примеры задач]]<br />
* Решающие деревья [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_trees.ipynb Примеры задач]]<br />
* Метрики качества [[https://github.com/esokolov/ml-minor-hse/blob/master/colloquium-2017/colloquium_minor_problems_metrics.ipynb Примеры задач]]<br />
<br />
== Экзамен ==<br />
<br />
Вопросы: https://docs.google.com/document/d/1YAleuHWr2Dn1brhiUUkdSkr65mtnhAvgIZxyo6sBt3E/edit?usp=sharing<br />
<br />
[https://github.com/esokolov/ml-minor-hse/blob/master/exam-2017/exam_problems_example.pdf Примеры задач прошлого года] (также могут войти задачи из коллоквиума)<br />
<br />
==Полезные материалы==<br />
===Курсы по машинному обучению и анализу данных===<br />
* [http://www.machinelearning.ru/wiki/index.php?title=Машинное_обучение_%28курс_лекций%2C_К.В.Воронцов%29 Курс по машинному обучению К.В. Воронцова]<br />
* [https://yandexdataschool.ru/edu-process/courses/machine-learning Видеозаписи лекций курса Школы Анализа Данных, К.В. Воронцов]<br />
* [https://www.coursera.org/specializations/machine-learning-data-analysis Coursera: Машинное обучение и анализ данных (специализация)]<br />
* [https://www.coursera.org/learn/introduction-machine-learning Coursera: Введение в машинное обучение, К.В. Воронцов]<br />
* [https://www.coursera.org/learn/machine-learning Coursera: Machine Learning, Andrew Ng]<br />
<br />
===Статьи===<br />
* [http://www.toptal.com/machine-learning/machine-learning-theory-an-introductory-primer An Introduction to Machine Learning Theory and Its Applications: A Visual Tutorial with Examples]<br />
* [http://www.r2d3.us/visual-intro-to-machine-learning-part-1/ A Visual Introduction to Machine Learning]<br />
<br />
===Книги===<br />
* Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
* Boris Mirkin. Core Concepts in Data Analysis: Summarization, Correlation, Visualization. 2010.<br />
* James, Witten, Hastie, Tibshirani. An Introduction to Statistical Learning. 2013.<br />
<br />
== Страницы прошлых лет ==<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2017-2018 | 2017/18 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2016-2017 | 2016/17 учебный год ]]<br />
<br />
[[Майнор_Интеллектуальный_анализ_данных/Введение_в_анализ_данных/2015-2016 | 2015/16 учебный год ]]<br />
<br />
[[Category:Майнор "Интеллектуальный анализ данных"]]</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-12-08T07:41:51Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|-<br />
| 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы: ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github])<br />
|-<br />
| 9 ||10/13 ноября || решающие деревья || Все файлы: ([https://drive.google.com/open?id=1UExjy2laVgNod4xsIyiUn8hPzIsB7K2u Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem09_trees Github])<br />
|-<br />
| 10 ||20/24 ноября || ансамбли, градиентный бустинг || Все файлы: ([https://drive.google.com/open?id=1j30txRyFz2lJcaioOpG-ZqYTU5iF64bV Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem10_ensembles Github])<br />
|-<br />
| 11 ||24/27 ноября || нейронные сети, PyTorch || Все файлы: ([https://drive.google.com/open?id=13h7wGtoswUafc0T5HH5ODEOp9ZGzV6EA Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem11_pytorch_intro Github], [https://colab.research.google.com/drive/1SYSqkoRchfQW8QDc3LW8wBaNzDG6dO99 Colab])<br />
|-<br />
| 12 ||1/4 декабря || сверточные нейронные сети, регуляризация || Все файлы: ([https://drive.google.com/open?id=15QbCaNf_1fMH8vd0FExjd_5UjcJpU5yg Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem12_images Github])<br />
|-<br />
| 13 ||8/11 декабря || рекуррентные нейронные сети || Все файлы: ([https://drive.google.com/open?id=1vUlQUqq1Kea2VdPTMC_1p35yte2HZmQM Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem13_rnn Github])<br />
|}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
* Соревнование на [https://www.kaggle.com/t/9c050ce0ed5742088d5660c69360ccbf Kaggle], срок сдачи 15.12.2018 23:59UTC<br />
* ДЗ№4: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw4/hw4.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw4/hw4.ipynb github], срок сдачи — 23 декабря, 23:00.<br />
<br />
==Соревнования==<br />
'''Правила участия и оценивания:'''<br />
# Необходимо использовать следующий формат для имени команды (Team -> Team Name -> Save Team Name): «Имя Фамилия МФ».<br />
# Максимальное количество посылок в сутки 3 (начинайте заранее).<br />
# Ближе к концу соревнования необходимо выбрать 2 посылки, которые вы считаете лучшими.<br />
# Оценивание: максимальный score, набранный кем бы то ни было (при условии преодоления бейзлайна на 8) — 10 баллов. Score, соответствующий бейзлайну на 8 — 8 баллов. В промежутке — линейно. И т.д. Основные бейзлайны скоро будут.<br />
# Оцениваются только решения, полученные как результат работы [https://www.kaggle.com/c/2018-hse-ml-competion-03/kernels private kernel] -- в системе уже загружены всевозможные библиотеки, которые могут вам понадобиться в работе, более того можно не выгружать данные соревнования и иметь бо́льшие (а может быть и меньшие, но у всех равные условия) вычислительные мощности, чем у вас на компьютере (14Gb RAM + GPU).<br />
# У студента может быть только один аккаунт, соответсвенно и отправлять решения только с него.<br />
# Как и в прошлых ДЗ -- списывание запрещено, при обнаружении плагиата работы обнуляются.<br />
# Продление дедлайна невозможно.<br />
<br />
В соревновании оцениваются только решения, полученные как результат работы private kernel (Kernels -> New Kernel -> пишете код там или загружаете свой код -> Commit). После того, как кернел был закоммичен, можно отправить результат его выполненения нажав кнопку "Submit to competition". <br />
<br />
[[Файл:Submitting.png|600px|без рамки]]<br />
<br />
Чтобы работа была оценена, необходимо дать доступ для просмотра ассистенту (@svdcvt). Сдавать нужно тот кернел, с помощью которого был получен ваш<br />
результат на лидерборде, иначе работа обнуляется. Так же надо указать версию в названии кернела.<br />
<br />
[[Файл:Assistant.png|600px|без рамки]]<br />
<br />
== Новости курса ==<br />
<br />
29.11. Появилось соревнование на кэггле: https://www.kaggle.com/t/9c050ce0ed5742088d5660c69360ccbf<br />
<br />
23.11. Субботняя группа - завтра будет две пары не с 10:30 до 13:30, а с 12:00 до 15:00.<br />
<br />
13.11. Новости для группы, которая ходит на семинары по субботам. В эту субботу (17.11) семинар не состоится, да и вообще факультет математики, видимо, будет закрыт. Пара переносится на субботу на следующей неделе (24.11). Таким образом, 24.11 будет две пары с 10:30 до 13:30.<br />
<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-12-04T12:38:13Z<p>Blackitten13: </p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|-<br />
| 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы: ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github])<br />
|-<br />
| 9 ||10/13 ноября || решающие деревья || Все файлы: ([https://drive.google.com/open?id=1UExjy2laVgNod4xsIyiUn8hPzIsB7K2u Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem09_trees Github])<br />
|-<br />
| 10 ||20/24 ноября || ансамбли, градиентный бустинг || Все файлы: ([https://drive.google.com/open?id=1j30txRyFz2lJcaioOpG-ZqYTU5iF64bV Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem10_ensembles Github])<br />
|-<br />
| 11 ||24/27 ноября || нейронные сети, PyTorch || Все файлы: ([https://drive.google.com/open?id=13h7wGtoswUafc0T5HH5ODEOp9ZGzV6EA Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem11_pytorch_intro Github], [https://colab.research.google.com/drive/1SYSqkoRchfQW8QDc3LW8wBaNzDG6dO99 Colab])<br />
|-<br />
| 12 ||1/4 декабря || сверточные нейронные сети, регуляризация || Все файлы: ([https://drive.google.com/open?id=15QbCaNf_1fMH8vd0FExjd_5UjcJpU5yg Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem12_images Github])<br />
|}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
<br />
== Новости курса ==<br />
<br />
29.11. Появилось соревнование на кэггле: https://www.kaggle.com/t/9c050ce0ed5742088d5660c69360ccbf<br />
<br />
23.11. Субботняя группа - завтра будет две пары не с 10:30 до 13:30, а с 12:00 до 15:00.<br />
<br />
13.11. Новости для группы, которая ходит на семинары по субботам. В эту субботу (17.11) семинар не состоится, да и вообще факультет математики, видимо, будет закрыт. Пара переносится на субботу на следующей неделе (24.11). Таким образом, 24.11 будет две пары с 10:30 до 13:30.<br />
<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-12-01T16:16:56Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|-<br />
| 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы: ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github])<br />
|-<br />
| 9 ||10/13 ноября || решающие деревья || Все файлы: ([https://drive.google.com/open?id=1UExjy2laVgNod4xsIyiUn8hPzIsB7K2u Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem09_trees Github])<br />
|-<br />
| 10 ||20/24 ноября || ансамбли, градиентный бустинг || Все файлы: ([https://drive.google.com/open?id=1j30txRyFz2lJcaioOpG-ZqYTU5iF64bV Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem10_ensembles Github])<br />
|-<br />
| 11 ||24/27 ноября || нейронные сети, PyTorch || Все файлы: ([https://drive.google.com/open?id=13h7wGtoswUafc0T5HH5ODEOp9ZGzV6EA Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem11_pytorch_intro Github], [https://colab.research.google.com/drive/1SYSqkoRchfQW8QDc3LW8wBaNzDG6dO99 Colab])<br />
|-<br />
| 12 ||1/4 декабря || сверточные нейронные сети, регуляризация || Все файлы: ([https://drive.google.com/open?id=15QbCaNf_1fMH8vd0FExjd_5UjcJpU5yg Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem12_images Github])<br />
|}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
<br />
== Новости курса ==<br />
<br />
23.11. Субботняя группа - завтра будет две пары не с 10:30 до 13:30, а с 12:00 до 15:00.<br />
<br />
13.11. Новости для группы, которая ходит на семинары по субботам. В эту субботу (17.11) семинар не состоится, да и вообще факультет математики, видимо, будет закрыт. Пара переносится на субботу на следующей неделе (24.11). Таким образом, 24.11 будет две пары с 10:30 до 13:30.<br />
<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-12-01T09:27:55Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|-<br />
| 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы: ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github])<br />
|-<br />
| 9 ||10/13 ноября || решающие деревья || Все файлы: ([https://drive.google.com/open?id=1UExjy2laVgNod4xsIyiUn8hPzIsB7K2u Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem09_trees Github])<br />
|-<br />
| 10 ||20/24 ноября || ансамбли, градиентный бустинг || Все файлы: ([https://drive.google.com/open?id=1j30txRyFz2lJcaioOpG-ZqYTU5iF64bV Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem10_ensembles Github])<br />
|-<br />
| 11 ||24/27 ноября || нейронные сети, PyTorch || Все файлы: ([https://drive.google.com/open?id=13h7wGtoswUafc0T5HH5ODEOp9ZGzV6EA Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem11_pytorch_intro Github], [https://colab.research.google.com/drive/1SYSqkoRchfQW8QDc3LW8wBaNzDG6dO99 Colab])<br />
|-<br />
| 12 ||1/4 декабря || сверточные нейронные сети, регуляризация || Все файлы: ([https://drive.google.com/open?id=15QbCaNf_1fMH8vd0FExjd_5UjcJpU5yg Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem12_images Github], [https://drive.google.com/open?id=1CN5EpMvUcSI2XS8cDztxIn9rJbjDW02s, Colab])<br />
|}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
<br />
== Новости курса ==<br />
<br />
23.11. Субботняя группа - завтра будет две пары не с 10:30 до 13:30, а с 12:00 до 15:00.<br />
<br />
13.11. Новости для группы, которая ходит на семинары по субботам. В эту субботу (17.11) семинар не состоится, да и вообще факультет математики, видимо, будет закрыт. Пара переносится на субботу на следующей неделе (24.11). Таким образом, 24.11 будет две пары с 10:30 до 13:30.<br />
<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-12-01T09:21:57Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|-<br />
| 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы: ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github])<br />
|-<br />
| 9 ||10/13 ноября || решающие деревья || Все файлы: ([https://drive.google.com/open?id=1UExjy2laVgNod4xsIyiUn8hPzIsB7K2u Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem09_trees Github])<br />
|-<br />
| 10 ||20/24 ноября || ансамбли, градиентный бустинг || Все файлы: ([https://drive.google.com/open?id=1j30txRyFz2lJcaioOpG-ZqYTU5iF64bV Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem10_ensembles Github])<br />
|-<br />
| 11 ||24/27 ноября || нейронные сети, PyTorch || Все файлы: ([https://drive.google.com/open?id=13h7wGtoswUafc0T5HH5ODEOp9ZGzV6EA Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem11_pytorch_intro Github], [https://colab.research.google.com/drive/1SYSqkoRchfQW8QDc3LW8wBaNzDG6dO99 Colab])<br />
|-<br />
| 12 ||1/4 декабря || сверточные нейронные сети, регуляризация || Все файлы: ([https://drive.google.com/open?id=15QbCaNf_1fMH8vd0FExjd_5UjcJpU5yg Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem12_images Github], [https://colab.research.google.com/drive/1Ml8rZkbvCF9SOt2HedIPhdnYhaeUfO6-#scrollTo=j24ICQcVEnXI, Colab])<br />
|}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
<br />
== Новости курса ==<br />
<br />
23.11. Субботняя группа - завтра будет две пары не с 10:30 до 13:30, а с 12:00 до 15:00.<br />
<br />
13.11. Новости для группы, которая ходит на семинары по субботам. В эту субботу (17.11) семинар не состоится, да и вообще факультет математики, видимо, будет закрыт. Пара переносится на субботу на следующей неделе (24.11). Таким образом, 24.11 будет две пары с 10:30 до 13:30.<br />
<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-12-01T09:17:46Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|-<br />
| 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы: ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github])<br />
|-<br />
| 9 ||10/13 ноября || решающие деревья || Все файлы: ([https://drive.google.com/open?id=1UExjy2laVgNod4xsIyiUn8hPzIsB7K2u Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem09_trees Github])<br />
|-<br />
| 10 ||20/24 ноября || ансамбли, градиентный бустинг || Все файлы: ([https://drive.google.com/open?id=1j30txRyFz2lJcaioOpG-ZqYTU5iF64bV Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem10_ensembles Github])<br />
|-<br />
| 11 ||24/27 ноября || нейронные сети, PyTorch || Все файлы: ([https://drive.google.com/open?id=13h7wGtoswUafc0T5HH5ODEOp9ZGzV6EA Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem11_pytorch_intro Github], [https://colab.research.google.com/drive/1SYSqkoRchfQW8QDc3LW8wBaNzDG6dO99 Colab])<br />
|-<br />
| 12 ||1/4 декабря || сверточные нейронные сети, регуляризация || Все файлы: ([https://drive.google.com/open?id=15QbCaNf_1fMH8vd0FExjd_5UjcJpU5yg Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem12_images Github])<br />
|}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
<br />
== Новости курса ==<br />
<br />
23.11. Субботняя группа - завтра будет две пары не с 10:30 до 13:30, а с 12:00 до 15:00.<br />
<br />
13.11. Новости для группы, которая ходит на семинары по субботам. В эту субботу (17.11) семинар не состоится, да и вообще факультет математики, видимо, будет закрыт. Пара переносится на субботу на следующей неделе (24.11). Таким образом, 24.11 будет две пары с 10:30 до 13:30.<br />
<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-12-01T09:17:26Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|-<br />
| 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы: ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github])<br />
|-<br />
| 9 ||10/13 ноября || решающие деревья || Все файлы: ([https://drive.google.com/open?id=1UExjy2laVgNod4xsIyiUn8hPzIsB7K2u Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem09_trees Github])<br />
|-<br />
| 10 ||20/24 ноября || ансамбли, градиентный бустинг || Все файлы: ([https://drive.google.com/open?id=1j30txRyFz2lJcaioOpG-ZqYTU5iF64bV Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem10_ensembles Github])<br />
|-<br />
| 11 ||24/27 ноября || нейронные сети, PyTorch || Все файлы: ([https://drive.google.com/open?id=13h7wGtoswUafc0T5HH5ODEOp9ZGzV6EA Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem11_pytorch_intro Github], [https://colab.research.google.com/drive/1SYSqkoRchfQW8QDc3LW8wBaNzDG6dO99 Colab])<br />
|-<br />
| 12 ||1/4 декабря || сверточные нейронные сети, регуляризация || Все файлы: ([https://drive.google.com/open?id=15QbCaNf_1fMH8vd0FExjd_5UjcJpU5yg Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem12_images Github]<br />
|}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
<br />
== Новости курса ==<br />
<br />
23.11. Субботняя группа - завтра будет две пары не с 10:30 до 13:30, а с 12:00 до 15:00.<br />
<br />
13.11. Новости для группы, которая ходит на семинары по субботам. В эту субботу (17.11) семинар не состоится, да и вообще факультет математики, видимо, будет закрыт. Пара переносится на субботу на следующей неделе (24.11). Таким образом, 24.11 будет две пары с 10:30 до 13:30.<br />
<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-11-24T10:41:23Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|-<br />
| 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы: ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github])<br />
|-<br />
| 9 ||10/13 ноября || решающие деревья || Все файлы: ([https://drive.google.com/open?id=1UExjy2laVgNod4xsIyiUn8hPzIsB7K2u Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem09_trees Github])<br />
|-<br />
| 10 ||20/24 ноября || ансамбли, градиентный бустинг || Все файлы: ([https://drive.google.com/open?id=1j30txRyFz2lJcaioOpG-ZqYTU5iF64bV Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem10_ensembles Github])<br />
|-<br />
| 11 ||24/27 ноября || нейронные сети, PyTorch || Все файлы: ([https://drive.google.com/open?id=13h7wGtoswUafc0T5HH5ODEOp9ZGzV6EA Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem11_pytorch_intro Github], [https://colab.research.google.com/drive/1SYSqkoRchfQW8QDc3LW8wBaNzDG6dO99 Colab])<br />
|}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
<br />
== Новости курса ==<br />
<br />
23.11. Субботняя группа - завтра будет две пары не с 10:30 до 13:30, а с 12:00 до 15:00.<br />
<br />
13.11. Новости для группы, которая ходит на семинары по субботам. В эту субботу (17.11) семинар не состоится, да и вообще факультет математики, видимо, будет закрыт. Пара переносится на субботу на следующей неделе (24.11). Таким образом, 24.11 будет две пары с 10:30 до 13:30.<br />
<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-11-24T10:41:06Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|-<br />
| 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы: ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github])<br />
|-<br />
| 9 ||10/13 ноября || решающие деревья || Все файлы: ([https://drive.google.com/open?id=1UExjy2laVgNod4xsIyiUn8hPzIsB7K2u Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem09_trees Github])<br />
|-<br />
| 10 ||20/24 ноября || ансамбли, градиентный бустинг || Все файлы: ([https://drive.google.com/open?id=1j30txRyFz2lJcaioOpG-ZqYTU5iF64bV Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem10_ensembles Github])<br />
|-<br />
| 11 ||24/27 ноября || нейронные сети, PyTorch || Все файлы: ([https://drive.google.com/open?id=13h7wGtoswUafc0T5HH5ODEOp9ZGzV6EA Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem11_pytorch_intro Github], [https://colab.research.google.com/drive/1SYSqkoRchfQW8QDc3LW8wBaNzDG6dO99 Colab])}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
<br />
== Новости курса ==<br />
<br />
23.11. Субботняя группа - завтра будет две пары не с 10:30 до 13:30, а с 12:00 до 15:00.<br />
<br />
13.11. Новости для группы, которая ходит на семинары по субботам. В эту субботу (17.11) семинар не состоится, да и вообще факультет математики, видимо, будет закрыт. Пара переносится на субботу на следующей неделе (24.11). Таким образом, 24.11 будет две пары с 10:30 до 13:30.<br />
<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-11-24T09:11:37Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|-<br />
| 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы: ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github])<br />
|-<br />
| 9 ||10/13 ноября || решающие деревья || Все файлы: ([https://drive.google.com/open?id=1UExjy2laVgNod4xsIyiUn8hPzIsB7K2u Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem09_trees Github])<br />
|-<br />
| 10 ||20/24 ноября || ансамбли || Все файлы: ([https://drive.google.com/open?id=1j30txRyFz2lJcaioOpG-ZqYTU5iF64bV Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem10_ensembles Github])<br />
|}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
<br />
== Новости курса ==<br />
<br />
23.11. Субботняя группа - завтра будет две пары не с 10:30 до 13:30, а с 12:00 до 15:00.<br />
<br />
13.11. Новости для группы, которая ходит на семинары по субботам. В эту субботу (17.11) семинар не состоится, да и вообще факультет математики, видимо, будет закрыт. Пара переносится на субботу на следующей неделе (24.11). Таким образом, 24.11 будет две пары с 10:30 до 13:30.<br />
<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-11-23T16:34:43Z<p>Blackitten13: /* Новости курса */</p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|-<br />
| 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы: ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github])<br />
|-<br />
| 9 ||10/13 ноября || решающие деревья || Все файлы: ([https://drive.google.com/open?id=1UExjy2laVgNod4xsIyiUn8hPzIsB7K2u Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem09_trees Github])<br />
|}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
<br />
== Новости курса ==<br />
<br />
23.11. Субботняя группа - завтра будет две пары не с 10:30 до 13:30, а с 12:00 до 15:00.<br />
<br />
13.11. Новости для группы, которая ходит на семинары по субботам. В эту субботу (17.11) семинар не состоится, да и вообще факультет математики, видимо, будет закрыт. Пара переносится на субботу на следующей неделе (24.11). Таким образом, 24.11 будет две пары с 10:30 до 13:30.<br />
<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-11-13T13:19:21Z<p>Blackitten13: </p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|-<br />
| 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы: ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github])<br />
|-<br />
| 9 ||10/13 ноября || решающие деревья || Все файлы: ([https://drive.google.com/open?id=1UExjy2laVgNod4xsIyiUn8hPzIsB7K2u Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem09_trees Github])<br />
|}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
<br />
== Новости курса ==<br />
13.11. Новости для группы, которая ходит на семинары по субботам. В эту субботу (17.11) семинар не состоится, да и вообще факультет математики, видимо, будет закрыт. Пара переносится на субботу на следующей неделе (24.11). Таким образом, 24.11 будет две пары с 10:30 до 13:30.<br />
<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-11-10T01:46:42Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|-<br />
| 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы: ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github])<br />
|-<br />
| 9 ||10/13 ноября || решающие деревья || Все файлы: ([https://drive.google.com/open?id=1UExjy2laVgNod4xsIyiUn8hPzIsB7K2u Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem09_trees Github])<br />
|}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
<br />
== Новости курса ==<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-11-02T23:55:04Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|-<br />
| 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы: ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github])<br />
|}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
<br />
== Новости курса ==<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-11-02T23:54:49Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|-<br />
| 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github])<br />
|}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
<br />
== Новости курса ==<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-11-02T23:54:36Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|-<br />
| 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github]<br />
|}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
<br />
== Новости курса ==<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13http://wiki.cs.hse.ru/%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5_%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5_%D0%BD%D0%B0_%D0%BC%D0%B0%D1%82%D1%84%D0%B0%D0%BA%D0%B5_2018/2019Машинное обучение на матфаке 2018/20192018-10-20T08:59:07Z<p>Blackitten13: /* Семинары */</p>
<hr />
<div>== О курсе ==<br />
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.<br />
<br />
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич]<br />
<br />
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.<br />
<br />
=== Полезные ссылки ===<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSfizsuIP4OqxlJ7IYGKUfB8xYLutvVDJANoZw_I4EH7w_p03Q/viewform Регистрационная форма] (заполните, чтобы получать уведомления о курсе)<br />
* [https://github.com/ischurov/math-ml-hse-2018 Репозиторий с материалами на GitHub]<br />
* [https://www.hse.ru/data/2018/08/28/1150124248/program-2227521178-znjnnTPmmc.pdf РПУД]<br />
* [https://t-do.ru/joinchat/CDE3khHyzKP1U701FQtszQ Чат курса в Telegram]<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSdZDFmNf0eEMnTnuGoBoKc3v9pqioqGyCjblLXFWq-55Yc_OA/viewform Форма обратной связи] (можно анонимно)<br />
* [https://docs.google.com/forms/d/e/1FAIpQLSd6ADbVAq6b9YK07lxBcz10eZVfUj9E-OejgHVRu4S2DoW2xA/viewform Запись на консультацию] (вторники, после лекции, консультирует Илья Щуров).<br />
* [https://anytask.org/course/413 Курс на Anytask]<br />
* Видео-записи лекций: [https://yadi.sk/d/MVpqXP6UxmDcjQ Яндекс.Диск], [https://www.youtube.com/channel/UC8wh_LB6mxOFYadH2l27P2Q YouTube].<br />
<br />
=== Семинары ===<br />
<br />
{| class="wikitable"<br />
|-<br />
! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask<br />
|-<br />
| 1 || Евгения Ческидова || Константин Ваниев || вторник, 12:10-13:30, ауд. 318 || ZfhBpf1<br />
|-<br />
| 2 || [https://t-do.ru/blacKitten13 Евгений Ковалев] || [https://t-do.ru/svdcvt Соня Дымченко] || суббота, 12:00-13:20, ауд. 318 || 5jOWWt9<br />
|-<br />
|}<br />
<br />
=== Система оценок ===<br />
==== Формула оценки ====<br />
Результирующая оценка по дисциплине рассчитывается по формуле:<br />
<br />
'''O<sub>итог</sub> = 0.7 * O<sub>накопл</sub> + 0.3 * O<sub>экз</sub>'''<br />
<br />
Накопленная оценка рассчитывается по формуле:<br />
<br />
'''O<sub>накопл</sub> = 0.58 * O<sub>дз</sub> + 0.42 * O<sub>КР</sub>'''<br />
<br />
{| role="presentation" class="wikitable mw-collapsible mw-collapsed"<br />
| <strong>Подробнее</strong><br />
|-<br />
|<br />
<br />
==== Правила вычисления оценок ====<br />
Оценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. <br />
<br />
Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх.<br />
<br />
==== Правила сдачи заданий ====<br />
Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются.<br />
<br />
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. <br />
<br />
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок).<br />
|}<br />
<br />
== Лекции ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Конспект !! Видео <br />
|-<br />
| 1 || 4 сентября || Введение в ml, постановки задач, виды данных || ||<br />
|-<br />
| 2 || 11 сентября || Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:2:prob/ конспект] ||<br />
|-<br />
| 3 || 18 сентября || Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция || [http://math-info.hse.ru/math-ml/chapter/label/chap:3:els/ конспект] ||<br />
|-<br />
| 4 || 25 сентября || Шум, смещение и разброс || [http://math-info.hse.ru/math-ml/chapter/label/chap:4:bias-variance/#label_chap_4_bias-variance конспект] || [https://youtu.be/7ONXfcfF5iA видео]<br />
|-<br />
| 5 || 2 октября || Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки || [http://math-info.hse.ru/math-ml/chapter/label/chap:5:linear-reg/ конспект] || [https://youtu.be/xDmPwWRtb3U видео]<br />
|-<br />
| 6 || 9 октября || Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков || [http://math-info.hse.ru/math-ml/chapter/label/chap:6:linear-reg2/ конспект] || [https://youtu.be/3nizTmbT0Ws видео]<br />
|}<br />
<br />
== Семинары ==<br />
{| class="wikitable"<br />
|-<br />
! № !! Дата !! Название !! Материалы <br />
|-<br />
| 1 || 8/10 сентября || Введение в numpy, pandas, matplotlib || [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem01_intro Тетрадка и данные] [https://github.com/ischurov/math-ml-hse-2018/blob/master/sem01_intro/sem01_stats_basics.pdf Задачи]<br />
|-<br />
| 2 || 15/17 сентября || Статистические оценки, проверка гипотез || Все файлы: ([https://drive.google.com/open?id=19C3EbCb9EObKj8Dj26ctrkMJE3TA0wpr Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem02_stats Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem02_stats/sem02_stats.ipynb тетрадка]<br />
|-<br />
| 3 || 22/24 сентября || метод k ближайших соседей (k-NN), кросс-валидация || Все файлы: ([https://drive.google.com/open?id=1RciXNKPgFT1RUBWJih9HtSYbUtLTJC8r Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem03_knn Github]), [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/sem03_knn/sem03_knn.ipynb тетрадка]<br />
|-<br />
| 4 || 29/1 сент/окт || метод k ближайших соседей, часть 2 || Все файлы: ([https://drive.google.com/open?id=1uq9bt8GahFZOTQTHsGMx28xZqR8Rn9zK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem04_knn2 Github])<br />
|-<br />
| 5 || 6/8 октября || линейная регрессия, градиентный спуск || Все файлы: ([https://drive.google.com/open?id=1-Ke6D5sK4aWiOzuKFFal-SI3Nsxy4BYh Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem05_lin_reg Github])<br />
|-<br />
| 6 ||13/15 октября || отбор признаков, регуляризация || Все файлы: ([https://drive.google.com/open?id=1lF7RG4F3BhUCOHmoHEOvQoFh-0PMRtOo Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem06_feature_selection_regularization Github]}<br />
|-<br />
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github])<br />
|}<br />
<br />
[https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?]<br />
<br />
== Домашние задания ==<br />
* ДЗ№1: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/blob/master/hw1/hw1.ipynb github], срок сдачи — 3 октября, 23:00.<br />
* ДЗ№2: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw2/hw2.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw2 github], срок сдачи — 17 октября, 23:00.<br />
* ДЗ№3: [http://nbviewer.jupyter.org/github/ischurov/math-ml-hse-2018/blob/master/hw3/hw3.ipynb nbviewer], [https://github.com/ischurov/math-ml-hse-2018/tree/master/hw3/hw3.ipynb github] , срок сдачи — 4 ноября, 23:00.<br />
<br />
== Новости курса ==<br />
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).<br />
<br />
16.10. В понедельник, 22 октября в 10:30 состоится консультация.<br />
<br />
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. [[Машинное обучение на матфаке 2018/2019/Программа контрольной|Программа контрольной]]<br />
<br />
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.<br />
<br />
10.10. Появилось ДЗ№2!<br />
<br />
24.09. Появилось ДЗ№1!<br />
<br />
== Полезные материалы ==<br />
=== Базовые учебники ===<br />
# Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009.<br />
# Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006.<br />
<br />
=== Дополнительная литература ===<br />
# Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.<br />
# Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.<br />
# Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.<br />
# Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.<br />
<br />
=== Разные хорошие ссылки ===<br />
<br />
# [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях].<br />
# [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.</div>Blackitten13