Математика для анализа данных (2022) — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
м (2nd module upd)
м (add lectures videos links)
Строка 32: Строка 32:
 
  ! Занятие !! Тема !! Дата !! Преподаватель !! Материалы для самоподготовки к семинарам !! Дополнительные материалы
 
  ! Занятие !! Тема !! Дата !! Преподаватель !! Материалы для самоподготовки к семинарам !! Дополнительные материалы
 
|-
 
|-
| style="background:#eaecf0;" | '''1''' || [[https://colab.research.google.com/drive/1G0QlRGVWmgjZb_yxSzfXznv9xeBurTc4?usp=sharing Ноутбук]] Производная. Градиентный спуск для функции одной переменной || 16.09.22 || Елена Кантонистова || ||  
+
| style="background:#eaecf0;" | '''1''' [[https://www.youtube.com/watch?v=1U8oVhjfO5M&list=PLmA-1xX7IuzD4R7_JIEp6zkmdAgELx3ax&index=1 Запись]] || [[https://colab.research.google.com/drive/1G0QlRGVWmgjZb_yxSzfXznv9xeBurTc4?usp=sharing Ноутбук]] Производная. Градиентный спуск для функции одной переменной || 16.09.22 || Елена Кантонистова || ||  
 
|-
 
|-
| style="background:#eaecf0;" | '''2''' || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/Занятие_2_(математика_для_анализа_данных).ipynb Тетрадка]] Векторное дифференцирование и градиентный спуск в многомерном случае || 23.09.22 || Елена Кантонистова ||  
+
| style="background:#eaecf0;" | '''2''' [[https://www.youtube.com/watch?v=oJJBT1Zf-eI&list=PLmA-1xX7IuzD4R7_JIEp6zkmdAgELx3ax&index=3 Запись]] || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/Занятие_2_(математика_для_анализа_данных).ipynb Тетрадка]] Векторное дифференцирование и градиентный спуск в многомерном случае || 23.09.22 || Елена Кантонистова ||  
 
[http://www.mathprofi.ru/chastnye_proizvodnye_primery.html Частные производные], [https://xn--24-6kcaa2awqnc8dd.xn--p1ai/gradient-funkcii-v-tochke.html Градиент], [https://disk.yandex.ru/d/SFQyezcDnQP_xQ Линейная регрессия и обучение модели] (стр. 45-57), [https://ml-handbook.ru/chapters/linear_models/intro Линейная регрессия и МНК в ml-handook]  
 
[http://www.mathprofi.ru/chastnye_proizvodnye_primery.html Частные производные], [https://xn--24-6kcaa2awqnc8dd.xn--p1ai/gradient-funkcii-v-tochke.html Градиент], [https://disk.yandex.ru/d/SFQyezcDnQP_xQ Линейная регрессия и обучение модели] (стр. 45-57), [https://ml-handbook.ru/chapters/linear_models/intro Линейная регрессия и МНК в ml-handook]  
 
|| [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/sem02-linregr-part1.pdf Конспект Евгения Соколова по линейной регрессии], [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/GD.pdf Презентация Елены Кантонистовой о градиентном спуске]
 
|| [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/sem02-linregr-part1.pdf Конспект Евгения Соколова по линейной регрессии], [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/GD.pdf Презентация Елены Кантонистовой о градиентном спуске]
 
|-
 
|-
| style="background:#eaecf0;" | '''3''' || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%203/Занятие_3_(математика_для_анализа_данных).ipynb Тетрадка]] Градиентный спуск и регуляризация || 30.09.22 || Елена Кантонистова ||
+
| style="background:#eaecf0;" | '''3''' [[https://www.youtube.com/watch?v=a8D5t3UPBss&list=PLmA-1xX7IuzD4R7_JIEp6zkmdAgELx3ax&index=4 Запись]] || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%203/Занятие_3_(математика_для_анализа_данных).ipynb Тетрадка]] Градиентный спуск и регуляризация || 30.09.22 || Елена Кантонистова ||
 
[https://ml-handbook.ru/chapters/intro/intro#выбор-модели-переобучение Глава про переобучение в ml-handbook], [https://www.math.uwaterloo.ca/~hwolkowi/matrixcookbook.pdf Большая книга по матричному дифференцированию]
 
[https://ml-handbook.ru/chapters/intro/intro#выбор-модели-переобучение Глава про переобучение в ml-handbook], [https://www.math.uwaterloo.ca/~hwolkowi/matrixcookbook.pdf Большая книга по матричному дифференцированию]
 
  || [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%203/Overfitting.pdf Презентация Елены о переобучении и регуляризации]
 
  || [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%203/Overfitting.pdf Презентация Елены о переобучении и регуляризации]
 
|-
 
|-
| style="background:#eaecf0;" | '''4''' || [''прошло асинхронно''] Урок 2.2 ("Валидация моделей и переобучение") на [https://stepik.org/course/125501/promo Stepik] || 07.10.22 || Елена Кантонистова || ||
+
| style="background:#eaecf0;" | '''4''' [''прошло асинхронно''] ||  Урок 2.2 ("Валидация моделей и переобучение") на [https://stepik.org/course/125501/promo Stepik] || 07.10.22 || Елена Кантонистова || ||
 
|-
 
|-
| style="background:#eaecf0;" | '''5''' || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%205/Математика_для_АД_(занятие_5).ipynb Тетрадка]] Основы линейной алгебры|| 14.10.22 || Елена Кантонистова ||  
+
| style="background:#eaecf0;" | '''5''' [[https://www.youtube.com/watch?v=b1ZvUtEPVeQ&list=PLmA-1xX7IuzD4R7_JIEp6zkmdAgELx3ax&index=5 Запись]] || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%205/Математика_для_АД_(занятие_5).ipynb Тетрадка]] Основы линейной алгебры|| 14.10.22 || Елена Кантонистова ||
 
[https://mathprofi.com/knigi_i_kursy/files/demo_matricy_opredeliteli.pdf Главы 1-5 (определитель матрицы, обратная матрица)], [https://pandia.ru/text/78/442/29930.php Статья про собственные векторы и значения матриц]
 
[https://mathprofi.com/knigi_i_kursy/files/demo_matricy_opredeliteli.pdf Главы 1-5 (определитель матрицы, обратная матрица)], [https://pandia.ru/text/78/442/29930.php Статья про собственные векторы и значения матриц]
 
||
 
||
 
|-
 
|-
| style="background:#eaecf0;" | '''6''' || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%206/Занятие%206.%20DimReduction.ipynb Ноутбук]] Снижение размерности: PCA, SVD || 21.10.22 || Елена Кантонистова ||  
+
| style="background:#eaecf0;" | '''6''' [[https://www.youtube.com/watch?v=BkV16QZnOCI&list=PLmA-1xX7IuzD4R7_JIEp6zkmdAgELx3ax&index=7 Запись]] || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%206/Занятие%206.%20DimReduction.ipynb Ноутбук]] Снижение размерности: PCA, SVD || 21.10.22 || Елена Кантонистова ||  
 
[http://mathhelpplanet.com/static.php?p=ortogonalnye-i-unitarnye-matritsy Ортогональная матрица], [http://www.mathprofi.ru/sluchainaya_velichina.html Матожидание] и [http://www.mathprofi.ru/dispersia_diskretnoi_sluchainoi_velichiny.html дисперсия] случайной величины], Матрица ковариаций: [http://www.machinelearning.ru/wiki/index.php?title=Ковариационная_матрица #1], [https://ru.wikipedia.org/wiki/Ковариационная_матрица #2]
 
[http://mathhelpplanet.com/static.php?p=ortogonalnye-i-unitarnye-matritsy Ортогональная матрица], [http://www.mathprofi.ru/sluchainaya_velichina.html Матожидание] и [http://www.mathprofi.ru/dispersia_diskretnoi_sluchainoi_velichiny.html дисперсия] случайной величины], Матрица ковариаций: [http://www.machinelearning.ru/wiki/index.php?title=Ковариационная_матрица #1], [https://ru.wikipedia.org/wiki/Ковариационная_матрица #2]
 
|| [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%206/Методы%20снижения%20размерности.pdf Презентация Елены по PCA]
 
|| [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%206/Методы%20снижения%20размерности.pdf Презентация Елены по PCA]

Версия 12:19, 3 ноября 2022

О курсе

В ходе курса слушатели узнают (или повторят) основы математического анализа, линейной алгебры, теории вероятности и математической статистики, а также познакомятся с наиболее популярными математическими моделями и методами в анализе данных.

Занятия в первом модуле проводились на Webinar.ru в Zoom по пятницам с 18:00 до 19:20

Во втором учебном модуле занятия идут в Zoom по четвергам с 19:00 до 21:00

Контакты

Канал курса в TG: channel link

Чат курса в TG: chat link

Преподаватели: Кантонистова Елена Олеговна (модуль 1), Ульянкин Филипп Валерьевич (модуль 2)

Ассистенты Контакты
Илья Никитин @is_nikitin
Анна Косовская @a_dtc

Материалы курса

Ссылка на плейлист курса на YouTube: https://www.youtube.com/playlist?list=PLmA-1xX7IuzD4R7_JIEp6zkmdAgELx3ax

Ссылка на GitHub с материалами курса: [GitHub Елены (1-й модуль)], [GitHub Филиппа (2-й модуль)]

Занятие Тема Дата Преподаватель Материалы для самоподготовки к семинарам Дополнительные материалы
1 [Запись] [Ноутбук] Производная. Градиентный спуск для функции одной переменной 16.09.22 Елена Кантонистова
2 [Запись] [Тетрадка] Векторное дифференцирование и градиентный спуск в многомерном случае 23.09.22 Елена Кантонистова

Частные производные, Градиент, Линейная регрессия и обучение модели (стр. 45-57), Линейная регрессия и МНК в ml-handook

Конспект Евгения Соколова по линейной регрессии, Презентация Елены Кантонистовой о градиентном спуске
3 [Запись] [Тетрадка] Градиентный спуск и регуляризация 30.09.22 Елена Кантонистова

Глава про переобучение в ml-handbook, Большая книга по матричному дифференцированию

Презентация Елены о переобучении и регуляризации
4 [прошло асинхронно] Урок 2.2 ("Валидация моделей и переобучение") на Stepik 07.10.22 Елена Кантонистова
5 [Запись] [Тетрадка] Основы линейной алгебры 14.10.22 Елена Кантонистова

Главы 1-5 (определитель матрицы, обратная матрица), Статья про собственные векторы и значения матриц

6 [Запись] [Ноутбук] Снижение размерности: PCA, SVD 21.10.22 Елена Кантонистова

Ортогональная матрица, Матожидание и дисперсия случайной величины], Матрица ковариаций: #1, #2

Презентация Елены по PCA
7 Ноутбук Множества. Бесконечности бывают разными 03.11.22 Филипп Ульянкин
8 Ноутбук Сигма-алгебра и зачем она нужна. Классическая вероятность и комбинаторика 10.11.22 Филипп Ульянкин
9 Ноутбук Чудеса условной вероятности и формулы Байеса. Дискретные случайные величины 17.11.22 Филипп Ульянкин
10 Ноутбук Цепи Маркова, метод первого шага, разлагай и властвуй 24.11.22 Филипп Ульянкин
11 Ноутбук Непрерывные случайные величины. Кванитльное преобразование, условные плотности, интегралы 01.12.22 Филипп Ульянкин
12 Ноутбук Многомерные распределения, зависимость//независимость событий, условное математическое ожидание 08.12.22 Филипп Ульянкин
12 Ноутбук Пуассоновский поток. Большая сила "o"-малых 15.12.22 Филипп Ульянкин

To be continued in 2nd semester: нормальное распределение, сходимости, центральная предельная теорема и закон больших чисел

Формула оценивания

Оценка = 0.3*Отесты + 0.7*ОДЗ

В зачетку ставится окргулённая по математическим правилам накопленная оценка. Экзамен не предусмотрен, но можем погонять особо жаждущих

В начале занятия - тест (4-5 несложных вопросов) по теме предыдущего занятия.

Домашние задания

Домашки сдаются в систему Anytask. Для доступа к курсу нужно ввести инвайт YQ66EHX

Все дедлайны по домашним заданиям мягкие. За каждую неделю просрочки сдачи задания после мягкого дедлайна - минус 1 балл от оценки.

Однако штраф не превысит 3 балла. Т.е. при идеальном выполнении работы и сдаче её в последний день перед сессией вы получаете 7 баллов.

Список заданий

  • Практическая работа №1 (Экстремумы функций, градиентный спуск и метод Ньютона): Мягкий дедлайн - 01.10 в 12:00; Жесткий - конец модуля.
  • Практическая работа №2 (Реализации градиентного спуска): Мягкий дедлайн - 17.10 в 23:59; Жёсткий - конец модуля.
  • Практическая работа №3 (Практическая линейная алгебра: SVD-разложения, PCA): Мягкий дедлайн - 27.10 в 23:59; Жёсткий - 30.10 в 23:59


  • Практическая работа №4
  • Практическая работа №5
  • Практическая работа №6

Литература

  • Линейная алгебра, дифференциальное исчисление функций одной переменной : учебник для вузов, Бурмистрова, Е. Б., 2010
  • Математический анализ и дифференциальные уравнения : учебник для вузов, Бурмистрова, Е. Б., 2010
  • Чернова. Теория вероятностей: Учебное пособие / СибГУТИ.— Новосибирск, 2009
  • Математические основы теории вероятностей, Неве, Ж., 1969
  • Теория вероятностей и математическая статистика : учеб. пособие для вузов, Шведов, А. С., 2005
  • Комбинаторика, Виленкин, Н. Я., 2013