Математика для анализа данных (2022) — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
м (add 2nd practice theme)
(major fill after end of 1st module)
Строка 32: Строка 32:
 
| style="background:#eaecf0;" | '''1''' || [[https://colab.research.google.com/drive/1G0QlRGVWmgjZb_yxSzfXznv9xeBurTc4?usp=sharing Ноутбук]] Производная. Градиентный спуск для функции одной переменной || 16.09.22 || Елена Кантонистова || ||  
 
| style="background:#eaecf0;" | '''1''' || [[https://colab.research.google.com/drive/1G0QlRGVWmgjZb_yxSzfXznv9xeBurTc4?usp=sharing Ноутбук]] Производная. Градиентный спуск для функции одной переменной || 16.09.22 || Елена Кантонистова || ||  
 
|-
 
|-
| style="background:#eaecf0;" | '''2''' || [[ Тетрадка]] Векторное дифференцирование и градиентный спуск в многомерном случае || 23.09.22 || Елена Кантонистова || ||
+
| style="background:#eaecf0;" | '''2''' || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/Занятие_2_(математика_для_анализа_данных).ipynb Тетрадка]] Векторное дифференцирование и градиентный спуск в многомерном случае || 23.09.22 || Елена Кантонистова ||  
 +
[http://www.mathprofi.ru/chastnye_proizvodnye_primery.html Частные производные], [https://xn--24-6kcaa2awqnc8dd.xn--p1ai/gradient-funkcii-v-tochke.html Градиент], [https://disk.yandex.ru/d/SFQyezcDnQP_xQ Линейная регрессия и обучение модели] (стр. 45-57), [https://ml-handbook.ru/chapters/linear_models/intro Линейная регрессия и МНК в ml-handook]
 +
|| [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/sem02-linregr-part1.pdf Конспект Евгения Соколова по линейной регрессии], [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/GD.pdf Презентация Елены Кантонистовой о градиентном спуске]
 
|-
 
|-
| style="background:#eaecf0;" | '''3''' || || 30.09.22 || Елена Кантонистова || ||
+
| style="background:#eaecf0;" | '''3''' || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%203/Занятие_3_(математика_для_анализа_данных).ipynb Тетрадка]] Градиентный спуск и регуляризация || 30.09.22 || Елена Кантонистова ||
 +
[https://ml-handbook.ru/chapters/intro/intro#выбор-модели-переобучение Глава про переобучение в ml-handbook], [https://www.math.uwaterloo.ca/~hwolkowi/matrixcookbook.pdf Большая книга по матричному дифференцированию]
 +
|| [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%203/Overfitting.pdf Презентация Елены о переобучении и регуляризации]
 
|-
 
|-
| style="background:#eaecf0;" | '''4''' || || 07.10.22 || Елена Кантонистова || ||
+
| style="background:#eaecf0;" | '''4''' || [''прошло асинхронно''] Урок 2.2 ("Валидация моделей и переобучение") на [https://stepik.org/course/125501/promo Stepik] || 07.10.22 || Елена Кантонистова || ||
 
|-
 
|-
| style="background:#eaecf0;" | '''5''' || || 14.10.22 || Елена Кантонистова || ||
+
| style="background:#eaecf0;" | '''5''' || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%205/Математика_для_АД_(занятие_5).ipynb Тетрадка]] Основы линейной алгебры|| 14.10.22 || Елена Кантонистова ||  
 +
[https://mathprofi.com/knigi_i_kursy/files/demo_matricy_opredeliteli.pdf Главы 1-5 (определитель матрицы, обратная матрица)], [https://pandia.ru/text/78/442/29930.php Статья про собственные векторы и значения матриц]
 +
||
 
|-
 
|-
| style="background:#eaecf0;" | '''6''' || || 21.10.22 || Елена Кантонистова || ||
+
| style="background:#eaecf0;" | '''6''' || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%206/Занятие%206.%20DimReduction.ipynb Ноутбук]] Снижение размерности: PCA, SVD || 21.10.22 || Елена Кантонистова ||
 +
[http://mathhelpplanet.com/static.php?p=ortogonalnye-i-unitarnye-matritsy Ортогональная матрица], [http://www.mathprofi.ru/sluchainaya_velichina.html Матожидание] и [http://www.mathprofi.ru/dispersia_diskretnoi_sluchainoi_velichiny.html дисперсия] случайной величины], Матрица ковариаций: [http://www.machinelearning.ru/wiki/index.php?title=Ковариационная_матрица #1], [https://ru.wikipedia.org/wiki/Ковариационная_матрица #2]
 +
|| [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%206/Методы%20снижения%20размерности.pdf Презентация Елены по PCA]
 +
|-
 +
|
 +
|-
 +
| style="background:#eaecf0;" | '''7''' || [[ Ноутбук]]  || 03.11.22 || Филипп Ульянкин || ||
 +
|-
 +
| style="background:#eaecf0;" | '''8''' || [[ Ноутбук]]  || 10.11.22 || Филипп Ульянкин || ||
 +
|-
 +
| style="background:#eaecf0;" | '''9''' || [[ Ноутбук]]  || 17.11.22 || Филипп Ульянкин || ||
 +
|-
 +
| style="background:#eaecf0;" | '''10''' || [[ Ноутбук]]  || 24.11.22 || Филипп Ульянкин || ||
 +
|-
 +
| style="background:#eaecf0;" | '''11''' || [[ Ноутбук]]  || 01.12.22 || Филипп Ульянкин || ||
 +
|-
 +
| style="background:#eaecf0;" | '''12''' || [[ Ноутбук]]  || 08.12.22 || Филипп Ульянкин || ||
 +
|-
 +
| style="background:#eaecf0;" | '''12''' || [[ Ноутбук]]  || 15.12.22 || Филипп Ульянкин || ||  
 
|-
 
|-
 
|}
 
|}
Строка 46: Строка 70:
 
==Формула оценивания==
 
==Формула оценивания==
  
Оценка = 0.3*тесты + 0.7*ДЗ
+
Оценка = 0.3*О<small>тесты</small> + 0.7*О<small>ДЗ</small>
 +
 
 +
В зачетку ставится окргулённая по математическим правилам накопленная оценка. Экзамен не предусмотрен, но можем погонять особо жаждущих
  
 
В начале занятия - тест (4-5 несложных вопросов) по теме предыдущего занятия.
 
В начале занятия - тест (4-5 несложных вопросов) по теме предыдущего занятия.
Строка 56: Строка 82:
  
 
* [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Домашки/mlhs_math_practice_01.ipynb Практическая работа №1] (Экстремумы функций, градиентный спуск и метод Ньютона): Мягкий дедлайн - '''01.10 в 12:00'''; Жесткий - конец модуля.
 
* [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Домашки/mlhs_math_practice_01.ipynb Практическая работа №1] (Экстремумы функций, градиентный спуск и метод Ньютона): Мягкий дедлайн - '''01.10 в 12:00'''; Жесткий - конец модуля.
* Практическая работа №2
+
* [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Домашки/mlhs_math_practice_02.ipynb Практическая работа №2] (Реализации градиентного спуска): Мягкий дедлайн - '''17.10 в 23:59'''; Жёсткий - конец модуля.
* Практическая работа №3
+
* [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Домашки/practice_03/mlhs_math_practice_03.ipynb Практическая работа №3] (Практическая линейная алгебра: SVD-разложения, PCA): Мягкий дедлайн - '''27.10 в 23:59'''; Жёсткий - 30.10 в 23:59
 +
 
 +
<br/>
 +
 
 
* Практическая работа №4
 
* Практическая работа №4
 +
* Практическая работа №5
 +
* Практическая работа №6
  
  

Версия 10:40, 19 октября 2022

О курсе

В ходе курса слушатели узнают (или повторят) основы математического анализа, линейной алгебры, теории вероятности и математической статистики, а также познакомятся с наиболее популярными математическими моделями и методами в анализе данных

Занятия проводятся на Webinar.ru по пятницам с 18:00 до 19:20

Контакты

Канал курса в TG: channel link

Чат курса в TG: chat link

Преподаватели: Кантонистова Елена Олеговна (модуль 1), Ульянкин Филипп Валерьевич (модуль 2)

Ассистенты Контакты
Илья Никитин @is_nikitin
Анна Косовская @a_dtc

Материалы курса

Ссылка на плейлист курса на YouTube: https://www.youtube.com/playlist?list=PLmA-1xX7IuzD4R7_JIEp6zkmdAgELx3ax

Ссылка на GitHub с материалами курса: [GitHub]

Занятие Тема Дата Преподаватель Материалы для самоподготовки к семинарам Дополнительные материалы
1 [Ноутбук] Производная. Градиентный спуск для функции одной переменной 16.09.22 Елена Кантонистова
2 [Тетрадка] Векторное дифференцирование и градиентный спуск в многомерном случае 23.09.22 Елена Кантонистова

Частные производные, Градиент, Линейная регрессия и обучение модели (стр. 45-57), Линейная регрессия и МНК в ml-handook

Конспект Евгения Соколова по линейной регрессии, Презентация Елены Кантонистовой о градиентном спуске
3 [Тетрадка] Градиентный спуск и регуляризация 30.09.22 Елена Кантонистова

Глава про переобучение в ml-handbook, Большая книга по матричному дифференцированию

Презентация Елены о переобучении и регуляризации
4 [прошло асинхронно] Урок 2.2 ("Валидация моделей и переобучение") на Stepik 07.10.22 Елена Кантонистова
5 [Тетрадка] Основы линейной алгебры 14.10.22 Елена Кантонистова

Главы 1-5 (определитель матрицы, обратная матрица), Статья про собственные векторы и значения матриц

6 [Ноутбук] Снижение размерности: PCA, SVD 21.10.22 Елена Кантонистова

Ортогональная матрица, Матожидание и дисперсия случайной величины], Матрица ковариаций: #1, #2

Презентация Елены по PCA
7 Ноутбук 03.11.22 Филипп Ульянкин
8 Ноутбук 10.11.22 Филипп Ульянкин
9 Ноутбук 17.11.22 Филипп Ульянкин
10 Ноутбук 24.11.22 Филипп Ульянкин
11 Ноутбук 01.12.22 Филипп Ульянкин
12 Ноутбук 08.12.22 Филипп Ульянкин
12 Ноутбук 15.12.22 Филипп Ульянкин

Формула оценивания

Оценка = 0.3*Отесты + 0.7*ОДЗ

В зачетку ставится окргулённая по математическим правилам накопленная оценка. Экзамен не предусмотрен, но можем погонять особо жаждущих

В начале занятия - тест (4-5 несложных вопросов) по теме предыдущего занятия.

Домашние задания

Домашки сдаются в систему Anytask. Для доступа к курсу нужно ввести инвайт YQ66EHX

Все дедлайны по домашним заданиям мягкие. За каждую неделю просрочки сдачи задания после мягкого дедлайна - минус 1 балл от оценки. Однако штраф не превысит 3 балла. Т.е. при идеальном выполнении работы и сдаче её в последний день перед сессией вы получаете 7 баллов.

  • Практическая работа №1 (Экстремумы функций, градиентный спуск и метод Ньютона): Мягкий дедлайн - 01.10 в 12:00; Жесткий - конец модуля.
  • Практическая работа №2 (Реализации градиентного спуска): Мягкий дедлайн - 17.10 в 23:59; Жёсткий - конец модуля.
  • Практическая работа №3 (Практическая линейная алгебра: SVD-разложения, PCA): Мягкий дедлайн - 27.10 в 23:59; Жёсткий - 30.10 в 23:59


  • Практическая работа №4
  • Практическая работа №5
  • Практическая работа №6


Литература

  • Линейная алгебра, дифференциальное исчисление функций одной переменной : учебник для вузов, Бурмистрова, Е. Б., 2010
  • Математический анализ и дифференциальные уравнения : учебник для вузов, Бурмистрова, Е. Б., 2010
  • Чернова. Теория вероятностей: Учебное пособие / СибГУТИ.— Новосибирск, 2009
  • Математические основы теории вероятностей, Неве, Ж., 1969
  • Теория вероятностей и математическая статистика : учеб. пособие для вузов, Шведов, А. С., 2005
  • Комбинаторика, Виленкин, Н. Я., 2013