Математика для анализа данных (2022) — различия между версиями
м (2nd module upd) |
м (add lectures videos links) |
||
Строка 32: | Строка 32: | ||
! Занятие !! Тема !! Дата !! Преподаватель !! Материалы для самоподготовки к семинарам !! Дополнительные материалы | ! Занятие !! Тема !! Дата !! Преподаватель !! Материалы для самоподготовки к семинарам !! Дополнительные материалы | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''1''' || [[https://colab.research.google.com/drive/1G0QlRGVWmgjZb_yxSzfXznv9xeBurTc4?usp=sharing Ноутбук]] Производная. Градиентный спуск для функции одной переменной || 16.09.22 || Елена Кантонистова || || | + | | style="background:#eaecf0;" | '''1''' [[https://www.youtube.com/watch?v=1U8oVhjfO5M&list=PLmA-1xX7IuzD4R7_JIEp6zkmdAgELx3ax&index=1 Запись]] || [[https://colab.research.google.com/drive/1G0QlRGVWmgjZb_yxSzfXznv9xeBurTc4?usp=sharing Ноутбук]] Производная. Градиентный спуск для функции одной переменной || 16.09.22 || Елена Кантонистова || || |
|- | |- | ||
− | | style="background:#eaecf0;" | '''2''' || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/Занятие_2_(математика_для_анализа_данных).ipynb Тетрадка]] Векторное дифференцирование и градиентный спуск в многомерном случае || 23.09.22 || Елена Кантонистова || | + | | style="background:#eaecf0;" | '''2''' [[https://www.youtube.com/watch?v=oJJBT1Zf-eI&list=PLmA-1xX7IuzD4R7_JIEp6zkmdAgELx3ax&index=3 Запись]] || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/Занятие_2_(математика_для_анализа_данных).ipynb Тетрадка]] Векторное дифференцирование и градиентный спуск в многомерном случае || 23.09.22 || Елена Кантонистова || |
[http://www.mathprofi.ru/chastnye_proizvodnye_primery.html Частные производные], [https://xn--24-6kcaa2awqnc8dd.xn--p1ai/gradient-funkcii-v-tochke.html Градиент], [https://disk.yandex.ru/d/SFQyezcDnQP_xQ Линейная регрессия и обучение модели] (стр. 45-57), [https://ml-handbook.ru/chapters/linear_models/intro Линейная регрессия и МНК в ml-handook] | [http://www.mathprofi.ru/chastnye_proizvodnye_primery.html Частные производные], [https://xn--24-6kcaa2awqnc8dd.xn--p1ai/gradient-funkcii-v-tochke.html Градиент], [https://disk.yandex.ru/d/SFQyezcDnQP_xQ Линейная регрессия и обучение модели] (стр. 45-57), [https://ml-handbook.ru/chapters/linear_models/intro Линейная регрессия и МНК в ml-handook] | ||
|| [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/sem02-linregr-part1.pdf Конспект Евгения Соколова по линейной регрессии], [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/GD.pdf Презентация Елены Кантонистовой о градиентном спуске] | || [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/sem02-linregr-part1.pdf Конспект Евгения Соколова по линейной регрессии], [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/GD.pdf Презентация Елены Кантонистовой о градиентном спуске] | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''3''' || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%203/Занятие_3_(математика_для_анализа_данных).ipynb Тетрадка]] Градиентный спуск и регуляризация || 30.09.22 || Елена Кантонистова || | + | | style="background:#eaecf0;" | '''3''' [[https://www.youtube.com/watch?v=a8D5t3UPBss&list=PLmA-1xX7IuzD4R7_JIEp6zkmdAgELx3ax&index=4 Запись]] || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%203/Занятие_3_(математика_для_анализа_данных).ipynb Тетрадка]] Градиентный спуск и регуляризация || 30.09.22 || Елена Кантонистова || |
[https://ml-handbook.ru/chapters/intro/intro#выбор-модели-переобучение Глава про переобучение в ml-handbook], [https://www.math.uwaterloo.ca/~hwolkowi/matrixcookbook.pdf Большая книга по матричному дифференцированию] | [https://ml-handbook.ru/chapters/intro/intro#выбор-модели-переобучение Глава про переобучение в ml-handbook], [https://www.math.uwaterloo.ca/~hwolkowi/matrixcookbook.pdf Большая книга по матричному дифференцированию] | ||
|| [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%203/Overfitting.pdf Презентация Елены о переобучении и регуляризации] | || [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%203/Overfitting.pdf Презентация Елены о переобучении и регуляризации] | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''4''' | + | | style="background:#eaecf0;" | '''4''' [''прошло асинхронно''] || Урок 2.2 ("Валидация моделей и переобучение") на [https://stepik.org/course/125501/promo Stepik] || 07.10.22 || Елена Кантонистова || || |
|- | |- | ||
− | | style="background:#eaecf0;" | '''5''' || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%205/Математика_для_АД_(занятие_5).ipynb Тетрадка]] Основы линейной алгебры|| 14.10.22 || Елена Кантонистова || | + | | style="background:#eaecf0;" | '''5''' [[https://www.youtube.com/watch?v=b1ZvUtEPVeQ&list=PLmA-1xX7IuzD4R7_JIEp6zkmdAgELx3ax&index=5 Запись]] || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%205/Математика_для_АД_(занятие_5).ipynb Тетрадка]] Основы линейной алгебры|| 14.10.22 || Елена Кантонистова || |
[https://mathprofi.com/knigi_i_kursy/files/demo_matricy_opredeliteli.pdf Главы 1-5 (определитель матрицы, обратная матрица)], [https://pandia.ru/text/78/442/29930.php Статья про собственные векторы и значения матриц] | [https://mathprofi.com/knigi_i_kursy/files/demo_matricy_opredeliteli.pdf Главы 1-5 (определитель матрицы, обратная матрица)], [https://pandia.ru/text/78/442/29930.php Статья про собственные векторы и значения матриц] | ||
|| | || | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''6''' || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%206/Занятие%206.%20DimReduction.ipynb Ноутбук]] Снижение размерности: PCA, SVD || 21.10.22 || Елена Кантонистова || | + | | style="background:#eaecf0;" | '''6''' [[https://www.youtube.com/watch?v=BkV16QZnOCI&list=PLmA-1xX7IuzD4R7_JIEp6zkmdAgELx3ax&index=7 Запись]] || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%206/Занятие%206.%20DimReduction.ipynb Ноутбук]] Снижение размерности: PCA, SVD || 21.10.22 || Елена Кантонистова || |
[http://mathhelpplanet.com/static.php?p=ortogonalnye-i-unitarnye-matritsy Ортогональная матрица], [http://www.mathprofi.ru/sluchainaya_velichina.html Матожидание] и [http://www.mathprofi.ru/dispersia_diskretnoi_sluchainoi_velichiny.html дисперсия] случайной величины], Матрица ковариаций: [http://www.machinelearning.ru/wiki/index.php?title=Ковариационная_матрица #1], [https://ru.wikipedia.org/wiki/Ковариационная_матрица #2] | [http://mathhelpplanet.com/static.php?p=ortogonalnye-i-unitarnye-matritsy Ортогональная матрица], [http://www.mathprofi.ru/sluchainaya_velichina.html Матожидание] и [http://www.mathprofi.ru/dispersia_diskretnoi_sluchainoi_velichiny.html дисперсия] случайной величины], Матрица ковариаций: [http://www.machinelearning.ru/wiki/index.php?title=Ковариационная_матрица #1], [https://ru.wikipedia.org/wiki/Ковариационная_матрица #2] | ||
|| [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%206/Методы%20снижения%20размерности.pdf Презентация Елены по PCA] | || [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%206/Методы%20снижения%20размерности.pdf Презентация Елены по PCA] |
Версия 12:19, 3 ноября 2022
Содержание
О курсе
В ходе курса слушатели узнают (или повторят) основы математического анализа, линейной алгебры, теории вероятности и математической статистики, а также познакомятся с наиболее популярными математическими моделями и методами в анализе данных.
Занятия в первом модуле проводились на Webinar.ru в Zoom по пятницам с 18:00 до 19:20
Во втором учебном модуле занятия идут в Zoom по четвергам с 19:00 до 21:00
Контакты
Канал курса в TG: channel link
Чат курса в TG: chat link
Преподаватели: Кантонистова Елена Олеговна (модуль 1), Ульянкин Филипп Валерьевич (модуль 2)
Ассистенты | Контакты |
---|---|
Илья Никитин | @is_nikitin |
Анна Косовская | @a_dtc |
Материалы курса
Ссылка на плейлист курса на YouTube: https://www.youtube.com/playlist?list=PLmA-1xX7IuzD4R7_JIEp6zkmdAgELx3ax
Ссылка на GitHub с материалами курса: [GitHub Елены (1-й модуль)], [GitHub Филиппа (2-й модуль)]
Занятие | Тема | Дата | Преподаватель | Материалы для самоподготовки к семинарам | Дополнительные материалы |
---|---|---|---|---|---|
1 [Запись] | [Ноутбук] Производная. Градиентный спуск для функции одной переменной | 16.09.22 | Елена Кантонистова | ||
2 [Запись] | [Тетрадка] Векторное дифференцирование и градиентный спуск в многомерном случае | 23.09.22 | Елена Кантонистова |
Частные производные, Градиент, Линейная регрессия и обучение модели (стр. 45-57), Линейная регрессия и МНК в ml-handook |
Конспект Евгения Соколова по линейной регрессии, Презентация Елены Кантонистовой о градиентном спуске |
3 [Запись] | [Тетрадка] Градиентный спуск и регуляризация | 30.09.22 | Елена Кантонистова |
Глава про переобучение в ml-handbook, Большая книга по матричному дифференцированию |
Презентация Елены о переобучении и регуляризации |
4 [прошло асинхронно] | Урок 2.2 ("Валидация моделей и переобучение") на Stepik | 07.10.22 | Елена Кантонистова | ||
5 [Запись] | [Тетрадка] Основы линейной алгебры | 14.10.22 | Елена Кантонистова |
Главы 1-5 (определитель матрицы, обратная матрица), Статья про собственные векторы и значения матриц |
|
6 [Запись] | [Ноутбук] Снижение размерности: PCA, SVD | 21.10.22 | Елена Кантонистова |
Ортогональная матрица, Матожидание и дисперсия случайной величины], Матрица ковариаций: #1, #2 |
Презентация Елены по PCA |
7 | Ноутбук Множества. Бесконечности бывают разными | 03.11.22 | Филипп Ульянкин | ||
8 | Ноутбук Сигма-алгебра и зачем она нужна. Классическая вероятность и комбинаторика | 10.11.22 | Филипп Ульянкин | ||
9 | Ноутбук Чудеса условной вероятности и формулы Байеса. Дискретные случайные величины | 17.11.22 | Филипп Ульянкин | ||
10 | Ноутбук Цепи Маркова, метод первого шага, разлагай и властвуй | 24.11.22 | Филипп Ульянкин | ||
11 | Ноутбук Непрерывные случайные величины. Кванитльное преобразование, условные плотности, интегралы | 01.12.22 | Филипп Ульянкин | ||
12 | Ноутбук Многомерные распределения, зависимость//независимость событий, условное математическое ожидание | 08.12.22 | Филипп Ульянкин | ||
12 | Ноутбук Пуассоновский поток. Большая сила "o"-малых | 15.12.22 | Филипп Ульянкин |
To be continued in 2nd semester: нормальное распределение, сходимости, центральная предельная теорема и закон больших чисел
Формула оценивания
Оценка = 0.3*Отесты + 0.7*ОДЗ
В зачетку ставится окргулённая по математическим правилам накопленная оценка. Экзамен не предусмотрен, но можем погонять особо жаждущих
В начале занятия - тест (4-5 несложных вопросов) по теме предыдущего занятия.
Домашние задания
Домашки сдаются в систему Anytask. Для доступа к курсу нужно ввести инвайт YQ66EHX
Все дедлайны по домашним заданиям мягкие. За каждую неделю просрочки сдачи задания после мягкого дедлайна - минус 1 балл от оценки.
Однако штраф не превысит 3 балла. Т.е. при идеальном выполнении работы и сдаче её в последний день перед сессией вы получаете 7 баллов.
Список заданий
- Практическая работа №1 (Экстремумы функций, градиентный спуск и метод Ньютона): Мягкий дедлайн - 01.10 в 12:00; Жесткий - конец модуля.
- Практическая работа №2 (Реализации градиентного спуска): Мягкий дедлайн - 17.10 в 23:59; Жёсткий - конец модуля.
- Практическая работа №3 (Практическая линейная алгебра: SVD-разложения, PCA): Мягкий дедлайн - 27.10 в 23:59; Жёсткий - 30.10 в 23:59
- Практическая работа №4
- Практическая работа №5
- Практическая работа №6
Литература
- Линейная алгебра, дифференциальное исчисление функций одной переменной : учебник для вузов, Бурмистрова, Е. Б., 2010
- Математический анализ и дифференциальные уравнения : учебник для вузов, Бурмистрова, Е. Б., 2010
- Чернова. Теория вероятностей: Учебное пособие / СибГУТИ.— Новосибирск, 2009
- Математические основы теории вероятностей, Неве, Ж., 1969
- Теория вероятностей и математическая статистика : учеб. пособие для вузов, Шведов, А. С., 2005
- Комбинаторика, Виленкин, Н. Я., 2013