Математика для анализа данных (2022)
Содержание
О курсе
В ходе курса слушатели узнают (или повторят) основы математического анализа, линейной алгебры, теории вероятности и математической статистики, а также познакомятся с наиболее популярными математическими моделями и методами в анализе данных.
Занятия в первом модуле проводились на Webinar.ru в Zoom по пятницам с 18:00 до 19:20
Во втором учебном модуле занятия идут в Zoom по четвергам с 19:00 до 21:00
Контакты
Канал курса в TG: channel link
Чат курса в TG: chat link
Преподаватели: Кантонистова Елена Олеговна (модуль 1), Ульянкин Филипп Валерьевич (модуль 2)
Ассистенты | Контакты |
---|---|
Илья Никитин | @is_nikitin |
Анна Косовская | @a_dtc |
Материалы курса
Ссылка на плейлист курса на YouTube: [Ссылка на записи занятий Елены], [Плейлист Филиппа]
Ссылка на GitHub с материалами курса: [GitHub Елены (1-й модуль)], [GitHub Филиппа (2-й модуль)]
Занятие | Тема | Дата | Преподаватель | Материалы для самоподготовки к семинарам | Дополнительные материалы |
---|---|---|---|---|---|
1 [Запись] | [Ноутбук] Производная. Градиентный спуск для функции одной переменной | 16.09.22 | Елена Кантонистова | ||
2 [Запись] | [Тетрадка] Векторное дифференцирование и градиентный спуск в многомерном случае | 23.09.22 | Елена Кантонистова |
Частные производные, Градиент, Линейная регрессия и обучение модели (стр. 45-57), Линейная регрессия и МНК в ml-handook |
Конспект Евгения Соколова по линейной регрессии, Презентация Елены Кантонистовой о градиентном спуске |
3 [Запись] | [Тетрадка] Градиентный спуск и регуляризация | 30.09.22 | Елена Кантонистова |
Глава про переобучение в ml-handbook, Большая книга по матричному дифференцированию |
Презентация Елены о переобучении и регуляризации |
4 [прошло асинхронно] | Урок 2.2 ("Валидация моделей и переобучение") на Stepik | 07.10.22 | Елена Кантонистова | ||
5 [Запись] | [Тетрадка] Основы линейной алгебры | 14.10.22 | Елена Кантонистова |
Главы 1-5 (определитель матрицы, обратная матрица), Статья про собственные векторы и значения матриц |
|
6 [Запись] | [Ноутбук] Снижение размерности: PCA, SVD | 21.10.22 | Елена Кантонистова |
Ортогональная матрица, Матожидание и дисперсия случайной величины], Матрица ковариаций: #1, #2 |
Презентация Елены по PCA |
7 [Запись] | Конспект Множества. Бесконечности бывают разными | 03.11.22 | Филипп Ульянкин | Набор задачек | |
8 [Pt.1], [Pt.2] | Сигма-алгебра и зачем она нужна. Классическая вероятность и комбинаторика | 10.11.22 | Филипп Ульянкин | Короткий учебник Черновой по терверу, Учебник про сигма-алгебру от Ivan Wilde | |
9 [Запись] | Комбинаторика | 17.11.22 | Филипп Ульянкин | Книга Виленкина про комбинаторику, Курс лекций Райгородского | |
10 [Запись] | Разлагай и властвуй, бином, беспорядки | 24.11.22 | Филипп Ульянкин | Задачник Бориса Демешева, Задачи на принцип "Разлагай и влавствуй" | |
11 [Запись] | Цепи Маркова и метод первого шага | 01.12.22 | Филипп Ульянкин | Подробный конспект по цепям Маркова, Чернова, 9 глава (Цепи Маркова), | |
12 [Запись] | Непрерывные случайные величины. Плотность распределения | 08.12.22 | Филипп Ульянкин | 5-я глава в книге Черновой, Глава "Эф большое и малое" в задачнике Бориса Демешева | |
13 [Запись] | Многомерные и условные распределения | 15.12.22 | Филипп Ульянкин | 6-7 главы в учебнике Черновой, 11 раздел задачника, Статья про способы семплирования, Восполняем пробелы в интегрировании на Mathprofi | |
14 [Запись] | Пуассоновский поток. Большая сила о-малых | 15.12.22 | Филипп Ульянкин |
To be continued in 2nd semester: нормальное распределение, сходимости, центральная предельная теорема и закон больших чисел
Записи консультаций
- Илья Никитин, 16.10.22 on YouTube
Формула оценивания
Оценка = 0.5 * (0.3*Отесты первого модуля + 0.7*ОДЗ первого модуля) + 0.5 * ОДЗ второго модуля
В зачетку ставится окргулённая по математическим правилам накопленная оценка. Экзамен не предусмотрен, но можем погонять особо жаждущих
В начале занятия - тест (4-5 несложных вопросов) по теме предыдущего занятия.
Домашние задания
Домашки сдаются в систему Anytask. Для доступа к курсу нужно ввести инвайт YQ66EHX
Все дедлайны по домашним заданиям мягкие. За каждую неделю просрочки сдачи задания после мягкого дедлайна - минус 1 балл от оценки.
Однако штраф не превысит 3 балла. Т.е. при идеальном выполнении работы и сдаче её в последний день перед сессией вы получаете 7 баллов.
Список заданий
- Практическая работа №1 (Экстремумы функций, градиентный спуск и метод Ньютона): Мягкий дедлайн - 01.10 в 12:00; Жесткий - конец модуля.
- Практическая работа №2 (Реализации градиентного спуска): Мягкий дедлайн - 17.10 в 23:59; Жёсткий - конец модуля.
- Практическая работа №3 (Практическая линейная алгебра: SVD-разложения, PCA): Мягкий дедлайн - 27.10 в 23:59; Жёсткий - 30.10 в 23:59
- Домашнее задание №4 (Дедлайн - 12.12.22 23:59) | [Пост в ТГ]
- Домашнее задание №5 (Дедлайн - 28.12.22 23:59) | [Пост в ТГ]
Литература
В канале предмета много ссылок на дополнительную литературу, в том числе задачники разной сложности
- Линейная алгебра, дифференциальное исчисление функций одной переменной : учебник для вузов, Бурмистрова, Е. Б., 2010
- Математический анализ и дифференциальные уравнения : учебник для вузов, Бурмистрова, Е. Б., 2010
- Чернова. Теория вероятностей: Учебное пособие / СибГУТИ.— Новосибирск, 2009
- Математические основы теории вероятностей, Неве, Ж., 1969
- Теория вероятностей и математическая статистика : учеб. пособие для вузов, Шведов, А. С., 2005
- Комбинаторика, Виленкин, Н. Я., 2013