Прикладная статистика в машинном обучении 24/25 — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
м
 
(не показано 11 промежуточных версии 2 участников)
Строка 1: Строка 1:
(ПОКА ВРЕМЕННАЯ ВЕРСИЯ)
+
''(По причине того, что не успеваем вести вики-страницу и сайт не всегда доступен, все полезные ссылки собраны в телеграм-канале в первом закреплённом сообщении)''
 +
 
 
== О курсе ==
 
== О курсе ==
  
Строка 34: Строка 35:
 
{| class="wikitable"
 
{| class="wikitable"
 
|-
 
|-
! Группа !! Семинарист !! Учебный ассистент || Время занятий || Аудитория/ссылка || Способ связи
+
! Группа !! Семинарист !! Учебный ассистент ||
 
|-
 
|-
| БПМИ221 МОП || ?? || ?? || ?? || ?? || ...
+
| БПМИ221 МОП || Матвей Зехов || Елисей Шинкарев ||
 
|-
 
|-
| БПМИ222 МОП || ?? || ?? || ??|| ?? || ...
+
| БПМИ222 МОП || Матвей Зехов || Мария Розаева ||  
 
|-
 
|-
| БПМИ223 МОП || ?? || ?? || ?? || TBD || ...
+
| БПМИ223 МОП || Алексей Ужегов || Анастасия Сёмкина ||
 
|-
 
|-
| БПМИ224 МОП || ?? || ?? || ?? || TBD || ...
+
| БПМИ224 МОП || Алексей Ужегов || Вячеслав Юсупов ||  
 
|-
 
|-
| По выбору || По выбору || ?? || ?? || ?? || ...
+
| По выбору(кроме онлайн) || По выбору(кроме онлайн) || Аркадий Аврамчук ||  
 
|-
 
|-
| Онлайн || ?? || ?? || ?? || ?? || ...
+
| Онлайн || Михаил Михайлов || Динар Саберов ||
 
|}
 
|}
  
Строка 62: Строка 63:
 
== Лекции ==
 
== Лекции ==
  
[8 сентября] '''Лекция 1:''' Метод максимального правдоподобия, свойства ММП-оценок, зависимые наблюдения.
+
'''Лекция 1:''' Метод максимального правдоподобия, свойства ММП-оценок, зависимые наблюдения.
* [ЖДЁМ Видео]
+
* [https://youtu.be/ks8DNLdKYG4?si=iXlfc9_JCCQBWYtC Видео]
* [ЖДЁМ Конспект]
+
* [https://github.com/XuMuK1/psmo/blob/2024/lectures/Lec1(MLE).pdf Конспект]
  
...
+
'''Лекция 2:''' Теория информации, энтропия и метод максимального правдоподобия.
 +
* [https://www.youtube.com/watch?v=uNXx0NrxPmc Видео]
 +
* [https://github.com/XuMuK1/psmo/blob/2024/lectures/Lec2(Info).pdf Конспект]
 +
 
 +
'''Лекция 3:''' EM-алгоритм.
 +
* [https://www.youtube.com/watch?v=nAqmi09Q9sQ Видео]
 +
* [https://github.com/XuMuK1/psmo/blob/2024/lectures/Lec3(EM).pdf Конспект]
 +
 
 +
'''Лекция 4:''' Фильтр Калмана.
 +
* [https://www.youtube.com/watch?v=FvlJBm2WPL0 Видео]
 +
* [https://github.com/XuMuK1/psmo/blob/2024/lectures/Lec4(Kalman).pdf Конспект]
 +
 
 +
'''Лекция 5:''' Оценка параметров фильтра Калмана.
 +
* [https://www.youtube.com/watch?v=YFNjI6Bwjuo Видео]
 +
* [https://github.com/XuMuK1/psmo/blob/2024/lectures/Lec5(KalmanEM).pdf Конспект]
 +
 
 +
'''Лекция 6:''' Стат-0.
 +
* [https://www.youtube.com/watch?v=SriwZRFPgw0 Видео]
 +
* [https://github.com/XuMuK1/psmo/blob/2024/lectures/Lec6(Stat0).pdf Конспект]
 +
 
 +
'''Лекция 7:''' Ранговые критерии (Уилкоксон, Манн-Уитни, Ансари-Брэдли, ранговая корреляция).
 +
 
 +
'''Контрольная'''
 +
 
 +
'''Лекция 8:''' АБ-тестирование.
 +
 
 +
'''Лекция 9:''' Эконометрика. Линейная регрессия при классических предположениях и в гауссовском шуме.
 +
 
 +
'''Лекция 10:''' Эконометрика. Проблемы: мисспецификация, мультиколлинеарность, гетероскедастичность, эндогенность.
 +
 
 +
'''Лекция 11:''' Байесовская статистика или Бутстреп (не утверждено)
  
 
== Семинары ==
 
== Семинары ==
'''Семинар 1:''' Метод максимального правдоподобия. (для примера оформления)
+
'''Семинар 1:''' Метод максимального правдоподобия.  
* [ЖДЁМ Ноутбук]
+
* [https://github.com/XuMuK1/psmo/blob/2024/seminars/seminar_01_max_lik_clean.ipynb Ноутбук]
 +
* [https://github.com/XuMuK1/psmo/blob/2024/seminars/seminar_01_max_lik_filled.ipynb Ноутбук (заполненный)]
 +
 
 +
'''Семинар 2:''' Теория информации.
 +
* [https://github.com/XuMuK1/psmo/blob/2024/seminars/seminar_02_information_clean.ipynb Ноутбук]
 +
 
 +
'''Семинар 3:''' EM-алгоритм.
 +
* [https://github.com/XuMuK1/psmo/blob/2024/seminars/seminar_03_em_clean.ipynb Ноутбук]
 +
 
 +
'''Семинар 4:''' Фильтр Калмана.
 +
* [https://github.com/XuMuK1/psmo/blob/2024/seminars/seminar_04_kalman.ipynb Ноутбук]
 +
 
 +
'''Семинар 5:''' Оценка параметров фильтра Калмана.
 +
* [https://github.com/XuMuK1/psmo/blob/2024/seminars/seminar_05_kalman_em.ipynb Ноутбук]
  
 +
'''Семинар 6:''' Точечные и интервальные оценки.
 +
* [https://github.com/XuMuK1/psmo/blob/2024/seminars/seminar_06_intervals.ipynb Ноутбук]
 
...
 
...
  
Строка 84: Строка 130:
 
==== ДЗ-1 ====
 
==== ДЗ-1 ====
  
ДЗ-1 состоит из трех частей. Дедлайн по всему ДЗ дд мм гггг 23:59.
+
ДЗ-1 состоит из трех частей. Дедлайн по всему ДЗ: 5 ноября 2024 23:59.
* [ЖДЁМ Часть 1]
+
* [https://github.com/XuMuK1/psmo/blob/2024/homeworks/hw1/Homework_1_part_1.ipynb Часть 1]
 +
* [https://github.com/XuMuK1/psmo/blob/2024/homeworks/hw1/Homework_1_part_2.ipynb Часть 2] [https://github.com/XuMuK1/psmo/blob/2024/homeworks/hw1/moText.txt Данные]
 +
* [https://github.com/XuMuK1/psmo/blob/2024/homeworks/hw1/Homework_1_part_3.ipynb Часть 3]
 
...
 
...
  

Текущая версия на 00:35, 9 декабря 2024

(По причине того, что не успеваем вести вики-страницу и сайт не всегда доступен, все полезные ссылки собраны в телеграм-канале в первом закреплённом сообщении)

О курсе

Курс читается для студентов 3-го курса в 1-2 модулях.

Лектор: Максим Каледин

Семинаристы:

Матвей Зехов

Алексей Ужегов

Михаил Михайлов

Учебные ассистенты: ...

Елисей Шинкарев

Вячеслав Юсупов

Мария Розаева

Динар Саберов

Анастасия Сёмкина

Аркадий Аврамчук

Семинары

(!) Сверяйтесь с вашим актуальным расписанием, возможны изменения.

Группа Семинарист Учебный ассистент
БПМИ221 МОП Матвей Зехов Елисей Шинкарев
БПМИ222 МОП Матвей Зехов Мария Розаева
БПМИ223 МОП Алексей Ужегов Анастасия Сёмкина
БПМИ224 МОП Алексей Ужегов Вячеслав Юсупов
По выбору(кроме онлайн) По выбору(кроме онлайн) Аркадий Аврамчук
Онлайн Михаил Михайлов Динар Саберов

Полезные ссылки

Канал в Телеграме (для важных объявлений) тут

Youtube (записи+прошлый год и ЗВУК) тут

Twitch (Стримы лекций) тут(по расписанию)

Общий чат в Телеграме для обсуждений/вопросов здесь

Лекции

Лекция 1: Метод максимального правдоподобия, свойства ММП-оценок, зависимые наблюдения.

Лекция 2: Теория информации, энтропия и метод максимального правдоподобия.

Лекция 3: EM-алгоритм.

Лекция 4: Фильтр Калмана.

Лекция 5: Оценка параметров фильтра Калмана.

Лекция 6: Стат-0.

Лекция 7: Ранговые критерии (Уилкоксон, Манн-Уитни, Ансари-Брэдли, ранговая корреляция).

Контрольная

Лекция 8: АБ-тестирование.

Лекция 9: Эконометрика. Линейная регрессия при классических предположениях и в гауссовском шуме.

Лекция 10: Эконометрика. Проблемы: мисспецификация, мультиколлинеарность, гетероскедастичность, эндогенность.

Лекция 11: Байесовская статистика или Бутстреп (не утверждено)

Семинары

Семинар 1: Метод максимального правдоподобия.

Семинар 2: Теория информации.

Семинар 3: EM-алгоритм.

Семинар 4: Фильтр Калмана.

Семинар 5: Оценка параметров фильтра Калмана.

Семинар 6: Точечные и интервальные оценки.

...

Домашние задания

Домашние задания представляют из себя python-ноутбук, где потребуется решить несколько теоретических задач, а также несколько задач с помощью программного кода.

Как сдавать ДЗ: Classroom TBA.

Политика дедлайнов: дедлайн задаётся обычно (кроме критических исключений) две недели после релиза последней части ДЗ. Можно сдавать 1 неделю после дедлайна со штрафом 30%, далее сдавать нельзя.

ДЗ-1

ДЗ-1 состоит из трех частей. Дедлайн по всему ДЗ: 5 ноября 2024 23:59.

...

Контрольная работа

Контрольная работа является письменной формой контроля. В контрольную работу войдут задачи по темам примерно до Лекции 8. После недели 8 планируется семинар консультаций и обычная лекция, затем неделя контрольной работы (на лекции) и обычные семинары, потом продолжение в обычном режиме. Возможны изменения, связанные с расписанием и праздниками.

Экзамен

Экзамен является устной формой контроля. В экзамен войдут теория и задачи по темам лекций и семинаров всего курса.

Подробный состав тем и процедура проведения будут объявлены в начале второго модуля.

TBD

Отчётность по курсу и критерии оценки

Итоговая оценка за курс

Итоговая оценка за курс рассчитывается по следующей формуле:

Итог = 0.7*Накоп + 0.3*Максимум(Экз, Минимум(7,Накоп)),

0.7*Накоп= 0.4*Среднее(ДЗ1,ДЗ2,ДЗ3) + 0.3*КР.

Литература

Горяинова Е.Р., Панков А.Р., Платонов Е.Н. Прикладные методы анализа статистических данных – М.: Издательский дом Высшей школы экономики, 2012. (Очень много про непараметрические критерии со ссылками и деталями)

Wasserman L. All of Statistics: A Concise Course in Statistical Inference, Springer Science & Business Media, 2013 (в общем про "большую" статистику)

Чжун К.Л., АитСахлиа Ф. Элементарный курс теории вероятностей. Стохастические процессы и финансовая математика – М.: БИНОМ. Лаборатория знаний, 2014. (если интересно много простых примеров сложных понятий)

Лагутин М.Б. Наглядная математическая статистика – М.: БИНОМ Лаборатория знаний, 2015. (МНОГО МАТСТАТА, но наглядно)


Прочее

  • Frederick Gravetter, Larry Wallnau. Statistics for the Behavioral Sciences – базовый курс с большим количеством картинок и подробных текстовых объяснений. Прекрасно подходит для быстрого повторения интуиции и основной методологии.
  • David Williams. Weighing the Odds. A Course in Probability and Statistics – суровая книжка для самых смелых. Содержит все основные темы по теории вероятностей и статистике в рамках программы для технических специальностей. Сквозная идея книги – показать связь теории вероятностей и статистики с другими разделами математики, поэтому для каждого утверждения приводятся строгие и очень подробные доказательства. Сильно расширяет общематематический кругозор, содержит много нетривиальных утверждений.