Математика для анализа данных (2022) — различия между версиями
м (add 2nd practice theme) |
(major fill after end of 1st module) |
||
Строка 32: | Строка 32: | ||
| style="background:#eaecf0;" | '''1''' || [[https://colab.research.google.com/drive/1G0QlRGVWmgjZb_yxSzfXznv9xeBurTc4?usp=sharing Ноутбук]] Производная. Градиентный спуск для функции одной переменной || 16.09.22 || Елена Кантонистова || || | | style="background:#eaecf0;" | '''1''' || [[https://colab.research.google.com/drive/1G0QlRGVWmgjZb_yxSzfXznv9xeBurTc4?usp=sharing Ноутбук]] Производная. Градиентный спуск для функции одной переменной || 16.09.22 || Елена Кантонистова || || | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''2''' || [[ Тетрадка]] Векторное дифференцирование и градиентный спуск в многомерном случае || 23.09.22 || Елена Кантонистова || || | + | | style="background:#eaecf0;" | '''2''' || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/Занятие_2_(математика_для_анализа_данных).ipynb Тетрадка]] Векторное дифференцирование и градиентный спуск в многомерном случае || 23.09.22 || Елена Кантонистова || |
+ | [http://www.mathprofi.ru/chastnye_proizvodnye_primery.html Частные производные], [https://xn--24-6kcaa2awqnc8dd.xn--p1ai/gradient-funkcii-v-tochke.html Градиент], [https://disk.yandex.ru/d/SFQyezcDnQP_xQ Линейная регрессия и обучение модели] (стр. 45-57), [https://ml-handbook.ru/chapters/linear_models/intro Линейная регрессия и МНК в ml-handook] | ||
+ | || [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/sem02-linregr-part1.pdf Конспект Евгения Соколова по линейной регрессии], [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%202/GD.pdf Презентация Елены Кантонистовой о градиентном спуске] | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''3''' || || 30.09.22 || Елена Кантонистова || || | + | | style="background:#eaecf0;" | '''3''' || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%203/Занятие_3_(математика_для_анализа_данных).ipynb Тетрадка]] Градиентный спуск и регуляризация || 30.09.22 || Елена Кантонистова || |
+ | [https://ml-handbook.ru/chapters/intro/intro#выбор-модели-переобучение Глава про переобучение в ml-handbook], [https://www.math.uwaterloo.ca/~hwolkowi/matrixcookbook.pdf Большая книга по матричному дифференцированию] | ||
+ | || [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%203/Overfitting.pdf Презентация Елены о переобучении и регуляризации] | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''4''' || || 07.10.22 || Елена Кантонистова || || | + | | style="background:#eaecf0;" | '''4''' || [''прошло асинхронно''] Урок 2.2 ("Валидация моделей и переобучение") на [https://stepik.org/course/125501/promo Stepik] || 07.10.22 || Елена Кантонистова || || |
|- | |- | ||
− | | style="background:#eaecf0;" | '''5''' || || 14.10.22 || Елена Кантонистова || || | + | | style="background:#eaecf0;" | '''5''' || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%205/Математика_для_АД_(занятие_5).ipynb Тетрадка]] Основы линейной алгебры|| 14.10.22 || Елена Кантонистова || |
+ | [https://mathprofi.com/knigi_i_kursy/files/demo_matricy_opredeliteli.pdf Главы 1-5 (определитель матрицы, обратная матрица)], [https://pandia.ru/text/78/442/29930.php Статья про собственные векторы и значения матриц] | ||
+ | || | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''6''' || || 21.10.22 || Елена Кантонистова || || | + | | style="background:#eaecf0;" | '''6''' || [[https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%206/Занятие%206.%20DimReduction.ipynb Ноутбук]] Снижение размерности: PCA, SVD || 21.10.22 || Елена Кантонистова || |
+ | [http://mathhelpplanet.com/static.php?p=ortogonalnye-i-unitarnye-matritsy Ортогональная матрица], [http://www.mathprofi.ru/sluchainaya_velichina.html Матожидание] и [http://www.mathprofi.ru/dispersia_diskretnoi_sluchainoi_velichiny.html дисперсия] случайной величины], Матрица ковариаций: [http://www.machinelearning.ru/wiki/index.php?title=Ковариационная_матрица #1], [https://ru.wikipedia.org/wiki/Ковариационная_матрица #2] | ||
+ | || [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Вебинары/Занятие%206/Методы%20снижения%20размерности.pdf Презентация Елены по PCA] | ||
+ | |- | ||
+ | | | ||
+ | |- | ||
+ | | style="background:#eaecf0;" | '''7''' || [[ Ноутбук]] || 03.11.22 || Филипп Ульянкин || || | ||
+ | |- | ||
+ | | style="background:#eaecf0;" | '''8''' || [[ Ноутбук]] || 10.11.22 || Филипп Ульянкин || || | ||
+ | |- | ||
+ | | style="background:#eaecf0;" | '''9''' || [[ Ноутбук]] || 17.11.22 || Филипп Ульянкин || || | ||
+ | |- | ||
+ | | style="background:#eaecf0;" | '''10''' || [[ Ноутбук]] || 24.11.22 || Филипп Ульянкин || || | ||
+ | |- | ||
+ | | style="background:#eaecf0;" | '''11''' || [[ Ноутбук]] || 01.12.22 || Филипп Ульянкин || || | ||
+ | |- | ||
+ | | style="background:#eaecf0;" | '''12''' || [[ Ноутбук]] || 08.12.22 || Филипп Ульянкин || || | ||
+ | |- | ||
+ | | style="background:#eaecf0;" | '''12''' || [[ Ноутбук]] || 15.12.22 || Филипп Ульянкин || || | ||
|- | |- | ||
|} | |} | ||
Строка 46: | Строка 70: | ||
==Формула оценивания== | ==Формула оценивания== | ||
− | Оценка = 0.3*тесты + 0.7*ДЗ | + | Оценка = 0.3*О<small>тесты</small> + 0.7*О<small>ДЗ</small> |
+ | |||
+ | В зачетку ставится окргулённая по математическим правилам накопленная оценка. Экзамен не предусмотрен, но можем погонять особо жаждущих | ||
В начале занятия - тест (4-5 несложных вопросов) по теме предыдущего занятия. | В начале занятия - тест (4-5 несложных вопросов) по теме предыдущего занятия. | ||
Строка 56: | Строка 82: | ||
* [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Домашки/mlhs_math_practice_01.ipynb Практическая работа №1] (Экстремумы функций, градиентный спуск и метод Ньютона): Мягкий дедлайн - '''01.10 в 12:00'''; Жесткий - конец модуля. | * [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Домашки/mlhs_math_practice_01.ipynb Практическая работа №1] (Экстремумы функций, градиентный спуск и метод Ньютона): Мягкий дедлайн - '''01.10 в 12:00'''; Жесткий - конец модуля. | ||
− | * Практическая работа №2 | + | * [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Домашки/mlhs_math_practice_02.ipynb Практическая работа №2] (Реализации градиентного спуска): Мягкий дедлайн - '''17.10 в 23:59'''; Жёсткий - конец модуля. |
− | * Практическая работа №3 | + | * [https://github.com/Murcha1990/MLDS_math_2022/blob/main/Домашки/practice_03/mlhs_math_practice_03.ipynb Практическая работа №3] (Практическая линейная алгебра: SVD-разложения, PCA): Мягкий дедлайн - '''27.10 в 23:59'''; Жёсткий - 30.10 в 23:59 |
+ | |||
+ | <br/> | ||
+ | |||
* Практическая работа №4 | * Практическая работа №4 | ||
+ | * Практическая работа №5 | ||
+ | * Практическая работа №6 | ||
Версия 10:40, 19 октября 2022
Содержание
О курсе
В ходе курса слушатели узнают (или повторят) основы математического анализа, линейной алгебры, теории вероятности и математической статистики, а также познакомятся с наиболее популярными математическими моделями и методами в анализе данных
Занятия проводятся на Webinar.ru по пятницам с 18:00 до 19:20
Контакты
Канал курса в TG: channel link
Чат курса в TG: chat link
Преподаватели: Кантонистова Елена Олеговна (модуль 1), Ульянкин Филипп Валерьевич (модуль 2)
Ассистенты | Контакты |
---|---|
Илья Никитин | @is_nikitin |
Анна Косовская | @a_dtc |
Материалы курса
Ссылка на плейлист курса на YouTube: https://www.youtube.com/playlist?list=PLmA-1xX7IuzD4R7_JIEp6zkmdAgELx3ax
Ссылка на GitHub с материалами курса: [GitHub]
Занятие | Тема | Дата | Преподаватель | Материалы для самоподготовки к семинарам | Дополнительные материалы |
---|---|---|---|---|---|
1 | [Ноутбук] Производная. Градиентный спуск для функции одной переменной | 16.09.22 | Елена Кантонистова | ||
2 | [Тетрадка] Векторное дифференцирование и градиентный спуск в многомерном случае | 23.09.22 | Елена Кантонистова |
Частные производные, Градиент, Линейная регрессия и обучение модели (стр. 45-57), Линейная регрессия и МНК в ml-handook |
Конспект Евгения Соколова по линейной регрессии, Презентация Елены Кантонистовой о градиентном спуске |
3 | [Тетрадка] Градиентный спуск и регуляризация | 30.09.22 | Елена Кантонистова |
Глава про переобучение в ml-handbook, Большая книга по матричному дифференцированию |
Презентация Елены о переобучении и регуляризации |
4 | [прошло асинхронно] Урок 2.2 ("Валидация моделей и переобучение") на Stepik | 07.10.22 | Елена Кантонистова | ||
5 | [Тетрадка] Основы линейной алгебры | 14.10.22 | Елена Кантонистова |
Главы 1-5 (определитель матрицы, обратная матрица), Статья про собственные векторы и значения матриц |
|
6 | [Ноутбук] Снижение размерности: PCA, SVD | 21.10.22 | Елена Кантонистова |
Ортогональная матрица, Матожидание и дисперсия случайной величины], Матрица ковариаций: #1, #2 |
Презентация Елены по PCA |
7 | Ноутбук | 03.11.22 | Филипп Ульянкин | ||
8 | Ноутбук | 10.11.22 | Филипп Ульянкин | ||
9 | Ноутбук | 17.11.22 | Филипп Ульянкин | ||
10 | Ноутбук | 24.11.22 | Филипп Ульянкин | ||
11 | Ноутбук | 01.12.22 | Филипп Ульянкин | ||
12 | Ноутбук | 08.12.22 | Филипп Ульянкин | ||
12 | Ноутбук | 15.12.22 | Филипп Ульянкин |
Формула оценивания
Оценка = 0.3*Отесты + 0.7*ОДЗ
В зачетку ставится окргулённая по математическим правилам накопленная оценка. Экзамен не предусмотрен, но можем погонять особо жаждущих
В начале занятия - тест (4-5 несложных вопросов) по теме предыдущего занятия.
Домашние задания
Домашки сдаются в систему Anytask. Для доступа к курсу нужно ввести инвайт YQ66EHX
Все дедлайны по домашним заданиям мягкие. За каждую неделю просрочки сдачи задания после мягкого дедлайна - минус 1 балл от оценки. Однако штраф не превысит 3 балла. Т.е. при идеальном выполнении работы и сдаче её в последний день перед сессией вы получаете 7 баллов.
- Практическая работа №1 (Экстремумы функций, градиентный спуск и метод Ньютона): Мягкий дедлайн - 01.10 в 12:00; Жесткий - конец модуля.
- Практическая работа №2 (Реализации градиентного спуска): Мягкий дедлайн - 17.10 в 23:59; Жёсткий - конец модуля.
- Практическая работа №3 (Практическая линейная алгебра: SVD-разложения, PCA): Мягкий дедлайн - 27.10 в 23:59; Жёсткий - 30.10 в 23:59
- Практическая работа №4
- Практическая работа №5
- Практическая работа №6
Литература
- Линейная алгебра, дифференциальное исчисление функций одной переменной : учебник для вузов, Бурмистрова, Е. Б., 2010
- Математический анализ и дифференциальные уравнения : учебник для вузов, Бурмистрова, Е. Б., 2010
- Чернова. Теория вероятностей: Учебное пособие / СибГУТИ.— Новосибирск, 2009
- Математические основы теории вероятностей, Неве, Ж., 1969
- Теория вероятностей и математическая статистика : учеб. пособие для вузов, Шведов, А. С., 2005
- Комбинаторика, Виленкин, Н. Я., 2013