Прикладная статистика в машинном обучении 24/25 — различия между версиями
Xumuk mk (обсуждение | вклад) |
Xumuk mk (обсуждение | вклад) м |
||
(не показано 11 промежуточных версии 2 участников) | |||
Строка 1: | Строка 1: | ||
− | ( | + | ''(По причине того, что не успеваем вести вики-страницу и сайт не всегда доступен, все полезные ссылки собраны в телеграм-канале в первом закреплённом сообщении)'' |
+ | |||
== О курсе == | == О курсе == | ||
Строка 34: | Строка 35: | ||
{| class="wikitable" | {| class="wikitable" | ||
|- | |- | ||
− | ! Группа !! Семинарист !! Учебный ассистент || | + | ! Группа !! Семинарист !! Учебный ассистент || |
|- | |- | ||
− | | БПМИ221 МОП || | + | | БПМИ221 МОП || Матвей Зехов || Елисей Шинкарев || |
|- | |- | ||
− | | БПМИ222 МОП || | + | | БПМИ222 МОП || Матвей Зехов || Мария Розаева || |
|- | |- | ||
− | | БПМИ223 МОП || | + | | БПМИ223 МОП || Алексей Ужегов || Анастасия Сёмкина || |
|- | |- | ||
− | | БПМИ224 МОП || | + | | БПМИ224 МОП || Алексей Ужегов || Вячеслав Юсупов || |
|- | |- | ||
− | | По выбору || По выбору || | + | | По выбору(кроме онлайн) || По выбору(кроме онлайн) || Аркадий Аврамчук || |
|- | |- | ||
− | | Онлайн || | + | | Онлайн || Михаил Михайлов || Динар Саберов || |
|} | |} | ||
Строка 62: | Строка 63: | ||
== Лекции == | == Лекции == | ||
− | + | '''Лекция 1:''' Метод максимального правдоподобия, свойства ММП-оценок, зависимые наблюдения. | |
− | * [ | + | * [https://youtu.be/ks8DNLdKYG4?si=iXlfc9_JCCQBWYtC Видео] |
− | * [ | + | * [https://github.com/XuMuK1/psmo/blob/2024/lectures/Lec1(MLE).pdf Конспект] |
− | ... | + | '''Лекция 2:''' Теория информации, энтропия и метод максимального правдоподобия. |
+ | * [https://www.youtube.com/watch?v=uNXx0NrxPmc Видео] | ||
+ | * [https://github.com/XuMuK1/psmo/blob/2024/lectures/Lec2(Info).pdf Конспект] | ||
+ | |||
+ | '''Лекция 3:''' EM-алгоритм. | ||
+ | * [https://www.youtube.com/watch?v=nAqmi09Q9sQ Видео] | ||
+ | * [https://github.com/XuMuK1/psmo/blob/2024/lectures/Lec3(EM).pdf Конспект] | ||
+ | |||
+ | '''Лекция 4:''' Фильтр Калмана. | ||
+ | * [https://www.youtube.com/watch?v=FvlJBm2WPL0 Видео] | ||
+ | * [https://github.com/XuMuK1/psmo/blob/2024/lectures/Lec4(Kalman).pdf Конспект] | ||
+ | |||
+ | '''Лекция 5:''' Оценка параметров фильтра Калмана. | ||
+ | * [https://www.youtube.com/watch?v=YFNjI6Bwjuo Видео] | ||
+ | * [https://github.com/XuMuK1/psmo/blob/2024/lectures/Lec5(KalmanEM).pdf Конспект] | ||
+ | |||
+ | '''Лекция 6:''' Стат-0. | ||
+ | * [https://www.youtube.com/watch?v=SriwZRFPgw0 Видео] | ||
+ | * [https://github.com/XuMuK1/psmo/blob/2024/lectures/Lec6(Stat0).pdf Конспект] | ||
+ | |||
+ | '''Лекция 7:''' Ранговые критерии (Уилкоксон, Манн-Уитни, Ансари-Брэдли, ранговая корреляция). | ||
+ | |||
+ | '''Контрольная''' | ||
+ | |||
+ | '''Лекция 8:''' АБ-тестирование. | ||
+ | |||
+ | '''Лекция 9:''' Эконометрика. Линейная регрессия при классических предположениях и в гауссовском шуме. | ||
+ | |||
+ | '''Лекция 10:''' Эконометрика. Проблемы: мисспецификация, мультиколлинеарность, гетероскедастичность, эндогенность. | ||
+ | |||
+ | '''Лекция 11:''' Байесовская статистика или Бутстреп (не утверждено) | ||
== Семинары == | == Семинары == | ||
− | '''Семинар 1:''' Метод максимального правдоподобия. ( | + | '''Семинар 1:''' Метод максимального правдоподобия. |
− | * [ | + | * [https://github.com/XuMuK1/psmo/blob/2024/seminars/seminar_01_max_lik_clean.ipynb Ноутбук] |
+ | * [https://github.com/XuMuK1/psmo/blob/2024/seminars/seminar_01_max_lik_filled.ipynb Ноутбук (заполненный)] | ||
+ | |||
+ | '''Семинар 2:''' Теория информации. | ||
+ | * [https://github.com/XuMuK1/psmo/blob/2024/seminars/seminar_02_information_clean.ipynb Ноутбук] | ||
+ | |||
+ | '''Семинар 3:''' EM-алгоритм. | ||
+ | * [https://github.com/XuMuK1/psmo/blob/2024/seminars/seminar_03_em_clean.ipynb Ноутбук] | ||
+ | |||
+ | '''Семинар 4:''' Фильтр Калмана. | ||
+ | * [https://github.com/XuMuK1/psmo/blob/2024/seminars/seminar_04_kalman.ipynb Ноутбук] | ||
+ | |||
+ | '''Семинар 5:''' Оценка параметров фильтра Калмана. | ||
+ | * [https://github.com/XuMuK1/psmo/blob/2024/seminars/seminar_05_kalman_em.ipynb Ноутбук] | ||
+ | '''Семинар 6:''' Точечные и интервальные оценки. | ||
+ | * [https://github.com/XuMuK1/psmo/blob/2024/seminars/seminar_06_intervals.ipynb Ноутбук] | ||
... | ... | ||
Строка 84: | Строка 130: | ||
==== ДЗ-1 ==== | ==== ДЗ-1 ==== | ||
− | ДЗ-1 состоит из трех частей. Дедлайн по всему ДЗ | + | ДЗ-1 состоит из трех частей. Дедлайн по всему ДЗ: 5 ноября 2024 23:59. |
− | * [ | + | * [https://github.com/XuMuK1/psmo/blob/2024/homeworks/hw1/Homework_1_part_1.ipynb Часть 1] |
+ | * [https://github.com/XuMuK1/psmo/blob/2024/homeworks/hw1/Homework_1_part_2.ipynb Часть 2] [https://github.com/XuMuK1/psmo/blob/2024/homeworks/hw1/moText.txt Данные] | ||
+ | * [https://github.com/XuMuK1/psmo/blob/2024/homeworks/hw1/Homework_1_part_3.ipynb Часть 3] | ||
... | ... | ||
Текущая версия на 00:35, 9 декабря 2024
(По причине того, что не успеваем вести вики-страницу и сайт не всегда доступен, все полезные ссылки собраны в телеграм-канале в первом закреплённом сообщении)
Содержание
О курсе
Курс читается для студентов 3-го курса в 1-2 модулях.
Лектор: Максим Каледин
Семинаристы:
Учебные ассистенты: ...
Елисей Шинкарев
Вячеслав Юсупов
Мария Розаева
Динар Саберов
Анастасия Сёмкина
Аркадий Аврамчук
Семинары
(!) Сверяйтесь с вашим актуальным расписанием, возможны изменения.
Группа | Семинарист | Учебный ассистент | |
---|---|---|---|
БПМИ221 МОП | Матвей Зехов | Елисей Шинкарев | |
БПМИ222 МОП | Матвей Зехов | Мария Розаева | |
БПМИ223 МОП | Алексей Ужегов | Анастасия Сёмкина | |
БПМИ224 МОП | Алексей Ужегов | Вячеслав Юсупов | |
По выбору(кроме онлайн) | По выбору(кроме онлайн) | Аркадий Аврамчук | |
Онлайн | Михаил Михайлов | Динар Саберов |
Полезные ссылки
Канал в Телеграме (для важных объявлений) тут
Youtube (записи+прошлый год и ЗВУК) тут
Twitch (Стримы лекций) тут(по расписанию)
Общий чат в Телеграме для обсуждений/вопросов здесь
Лекции
Лекция 1: Метод максимального правдоподобия, свойства ММП-оценок, зависимые наблюдения.
Лекция 2: Теория информации, энтропия и метод максимального правдоподобия.
Лекция 3: EM-алгоритм.
Лекция 4: Фильтр Калмана.
Лекция 5: Оценка параметров фильтра Калмана.
Лекция 6: Стат-0.
Лекция 7: Ранговые критерии (Уилкоксон, Манн-Уитни, Ансари-Брэдли, ранговая корреляция).
Контрольная
Лекция 8: АБ-тестирование.
Лекция 9: Эконометрика. Линейная регрессия при классических предположениях и в гауссовском шуме.
Лекция 10: Эконометрика. Проблемы: мисспецификация, мультиколлинеарность, гетероскедастичность, эндогенность.
Лекция 11: Байесовская статистика или Бутстреп (не утверждено)
Семинары
Семинар 1: Метод максимального правдоподобия.
Семинар 2: Теория информации.
Семинар 3: EM-алгоритм.
Семинар 4: Фильтр Калмана.
Семинар 5: Оценка параметров фильтра Калмана.
Семинар 6: Точечные и интервальные оценки.
...
Домашние задания
Домашние задания представляют из себя python-ноутбук, где потребуется решить несколько теоретических задач, а также несколько задач с помощью программного кода.
Как сдавать ДЗ: Classroom TBA.
Политика дедлайнов: дедлайн задаётся обычно (кроме критических исключений) две недели после релиза последней части ДЗ. Можно сдавать 1 неделю после дедлайна со штрафом 30%, далее сдавать нельзя.
ДЗ-1
ДЗ-1 состоит из трех частей. Дедлайн по всему ДЗ: 5 ноября 2024 23:59.
...
Контрольная работа
Контрольная работа является письменной формой контроля. В контрольную работу войдут задачи по темам примерно до Лекции 8. После недели 8 планируется семинар консультаций и обычная лекция, затем неделя контрольной работы (на лекции) и обычные семинары, потом продолжение в обычном режиме. Возможны изменения, связанные с расписанием и праздниками.
Экзамен
Экзамен является устной формой контроля. В экзамен войдут теория и задачи по темам лекций и семинаров всего курса.
Подробный состав тем и процедура проведения будут объявлены в начале второго модуля.
TBD
Отчётность по курсу и критерии оценки
Итоговая оценка за курс
Итоговая оценка за курс рассчитывается по следующей формуле:
Итог = 0.7*Накоп + 0.3*Максимум(Экз, Минимум(7,Накоп)),
0.7*Накоп= 0.4*Среднее(ДЗ1,ДЗ2,ДЗ3) + 0.3*КР.
Литература
Горяинова Е.Р., Панков А.Р., Платонов Е.Н. Прикладные методы анализа статистических данных – М.: Издательский дом Высшей школы экономики, 2012. (Очень много про непараметрические критерии со ссылками и деталями)
Wasserman L. All of Statistics: A Concise Course in Statistical Inference, Springer Science & Business Media, 2013 (в общем про "большую" статистику)
Чжун К.Л., АитСахлиа Ф. Элементарный курс теории вероятностей. Стохастические процессы и финансовая математика – М.: БИНОМ. Лаборатория знаний, 2014. (если интересно много простых примеров сложных понятий)
Лагутин М.Б. Наглядная математическая статистика – М.: БИНОМ Лаборатория знаний, 2015. (МНОГО МАТСТАТА, но наглядно)
Прочее
- Frederick Gravetter, Larry Wallnau. Statistics for the Behavioral Sciences – базовый курс с большим количеством картинок и подробных текстовых объяснений. Прекрасно подходит для быстрого повторения интуиции и основной методологии.
- David Williams. Weighing the Odds. A Course in Probability and Statistics – суровая книжка для самых смелых. Содержит все основные темы по теории вероятностей и статистике в рамках программы для технических специальностей. Сквозная идея книги – показать связь теории вероятностей и статистики с другими разделами математики, поэтому для каждого утверждения приводятся строгие и очень подробные доказательства. Сильно расширяет общематематический кругозор, содержит много нетривиальных утверждений.