Машинное обучение в экономике магистратура 2025-2026 — различия между версиями
Potanin (обсуждение | вклад) (→Неделя 2. Метод ближайших соседей) |
Potanin (обсуждение | вклад) |
||
| (не показаны 2 промежуточные версии этого же участника) | |||
| Строка 21: | Строка 21: | ||
=== Домашнее задание 1 === | === Домашнее задание 1 === | ||
| − | '''Дедлайн''': | + | '''Дедлайн''': 7 декабря |
| − | Необходимо внести данные группы (до двух человек включительно), в которой будет выполняться второе домашнее задание, в таблицу | + | Необходимо внести данные группы (до двух человек включительно), в которой будет выполняться второе домашнее задание, в таблицу по [https://docs.google.com/spreadsheets/d/1COFwj46dkR8txD1x_brrw6YGh1-fPLx8adbuAvSQ-b8/edit?usp=sharing ссылке]. |
=== Домашнее задание 2 === | === Домашнее задание 2 === | ||
| − | '''Дедлайн''': | + | '''Дедлайн''': 14 декабря |
| + | |||
| + | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%94%D0%BE%D0%BC%D0%B0%D1%88%D0%BD%D0%B5%D0%B5_%D0%B7%D0%B0%D0%B4%D0%B0%D0%BD%D0%B8%D0%B5__%D0%9C%D0%9E__%D0%9C%D0%90%D0%93_2025_2026.pdf Текст задания] | ||
== Экзамен == | == Экзамен == | ||
| Строка 111: | Строка 113: | ||
1. FOML глава 4. | 1. FOML глава 4. | ||
| + | |||
| + | == Неделя 4. Логистическая регрессия и метод опорных векторов == | ||
| + | |||
| + | === Основные материалы === | ||
| + | |||
| + | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%9B%D0%B5%D0%BA%D1%86%D0%B8%D1%8F%204.%20%D0%9B%D0%BE%D0%B3%D0%B8%D1%81%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B0%D1%8F%20%D1%80%D0%B5%D0%B3%D1%80%D0%B5%D1%81%D1%81%D0%B8%D1%8F%20%D0%B8%20%D0%BC%D0%B5%D1%82%D0%BE%D0%B4%20%D0%BE%D0%BF%D0%BE%D1%80%D0%BD%D1%8B%D1%85%20%D0%B2%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%BE%D0%B2.pdf Слайды лекции] | ||
| + | |||
| + | [https://colab.research.google.com/drive/1vqEDTOwBGkz0mEM4i4SPxHvVRrJfTjmy?usp=sharing Код семинара] | ||
| + | |||
| + | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%A1%D0%B5%D0%BC%D0%B8%D0%BD%D0%B0%D1%80%204.%20%D0%9B%D0%BE%D0%B3%D0%B8%D1%81%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B0%D1%8F%20%D1%80%D0%B5%D0%B3%D1%80%D0%B5%D1%81%D1%81%D0%B8%D1%8F%20%D0%B8%20%D0%B3%D1%80%D0%B0%D0%B4%D0%B8%D0%B5%D0%BD%D1%82%D0%BD%D1%8B%D0%B9%20%D0%B1%D1%83%D1%81%D1%82%D0%B8%D0%BD%D0%B3.pdf Задачи семинара] | ||
| + | |||
| + | === Рекомендуемая литература === | ||
| + | |||
| + | 1. FOML глава 7. | ||
| + | |||
| + | 2. MLPP главы 8 и 14.5. | ||
| + | |||
| + | === Дополнительные материалы === | ||
| + | |||
| + | 1. [https://projecteuclid.org/journalArticle/Download?urlId=10.1214%2Faos%2F1013203451 Статья, в которой был предложен градиентный бустинг] | ||
= Список литературы = | = Список литературы = | ||
| Строка 118: | Строка 140: | ||
# '''CMLE''' - [https://causalml-book.org Applied Causal Inference Powered by ML and AI. V. Chernozhukov, C. Hansen, N. Kallus, M. Spindler, V. Syrgkanis] '''Средняя сложность''' | # '''CMLE''' - [https://causalml-book.org Applied Causal Inference Powered by ML and AI. V. Chernozhukov, C. Hansen, N. Kallus, M. Spindler, V. Syrgkanis] '''Средняя сложность''' | ||
# '''MLPP''' - [https://www.amazon.com/Machine-Learning-Probabilistic-Perspective-Computation/dp/0262018020 Machine learning a probabilistic perspective. Kevin P. Murphy.] '''Высокая сложность''' | # '''MLPP''' - [https://www.amazon.com/Machine-Learning-Probabilistic-Perspective-Computation/dp/0262018020 Machine learning a probabilistic perspective. Kevin P. Murphy.] '''Высокая сложность''' | ||
| + | |||
| + | == Неделя 5. Машинное обучение в эконометрике == | ||
| + | |||
| + | === Основные материалы === | ||
| + | |||
| + | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%9B%D0%B5%D0%BA%D1%86%D0%B8%D1%8F%205.%20%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5%20%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5%20%D0%B2%20%D1%8D%D0%BA%D0%BE%D0%BD%D0%BE%D0%BC%D0%B5%D1%82%D1%80%D0%B8%D0%BA%D0%B5.pdf Слайды лекции] | ||
| + | |||
| + | [https://colab.research.google.com/drive/11ss8xdr6B3FPeIExktOZ90GFzGAS7mq5?usp=sharing Код семинара] | ||
| + | |||
| + | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%A1%D0%B5%D0%BC%D0%B8%D0%BD%D0%B0%D1%80%205.%20%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5%20%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5%20%D0%B2%20%D1%8D%D0%BA%D0%BE%D0%BD%D0%BE%D0%BC%D0%B5%D1%82%D1%80%D0%B8%D0%BA%D0%B5.pdf Задачи семинара] | ||
| + | |||
| + | === Рекомендуемая литература === | ||
| + | |||
| + | 1. HBE глава 29. | ||
| + | |||
| + | === Дополнительные материалы === | ||
| + | |||
| + | 1. [https://www.jstatsoft.org/index.php/jss/article/view/v108i03/4527 Двойное машинное обучение в R] | ||
| + | |||
| + | 2. [https://arxiv.org/pdf/2301.09397.pdf Двойное машинное обучение в STATA] | ||
| + | |||
| + | 3. [https://jmlr.org/papers/volume23/21-0862/21-0862.pdf Двойное машинное обучение в python]. | ||
| + | |||
| + | 4. [https://www.youtube.com/watch?v=eHOjmyoPCFU&t=1552s Видео лекции о теории двойного машинного обучения от создателя метода] | ||
| + | |||
| + | 5. [https://www.youtube.com/watch?v=ErecsyKEq74 Видео лекции о программной реализации двойного машинного обучения от создателей пакета] | ||
| + | |||
| + | '''Примечание''': пакеты в R и python разработаны одними и теми же людьми, поэтому практически идентичны. Однако, в статье про пакет в R все расписано гораздо подробней и понятней, с большим числом наглядных примеров и наиболее важными теоретическими выкладками. | ||
| + | |||
| + | == Неделя 6. Эффекты воздействия == | ||
| + | |||
| + | === Основные материалы === | ||
| + | |||
| + | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%9B%D0%B5%D0%BA%D1%86%D0%B8%D1%8F%206.%20%D0%AD%D1%84%D1%84%D0%B5%D0%BA%D1%82%D1%8B%20%D0%B2%D0%BE%D0%B7%D0%B4%D0%B5%D0%B9%D1%81%D1%82%D0%B2%D0%B8%D1%8F.pdf Слайды лекции] | ||
| + | |||
| + | [https://colab.research.google.com/drive/1uFqihpgQxbPw61kz3N2icOzqPGeK_H-d?usp=sharing Код семинара] | ||
| + | |||
| + | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%A1%D0%B5%D0%BC%D0%B8%D0%BD%D0%B0%D1%80%206.%20%D0%AD%D1%84%D1%84%D0%B5%D0%BA%D1%82%D1%8B%20%D0%B2%D0%BE%D0%B7%D0%B4%D0%B5%D0%B9%D1%81%D1%82%D0%B2%D0%B8%D1%8F.pdf Задачи семинара] | ||
| + | |||
| + | === Рекомендуемая литература === | ||
| + | |||
| + | 1. MLPP главы 16.5 и 28. | ||
| + | |||
| + | 2. HBE главы 12.34 и 29.22. | ||
| + | |||
| + | === Дополнительные материалы === | ||
| + | |||
| + | [https://mixtape.scunning.com Простое, но достаточно подробное введение в causal inference.] | ||
| + | |||
| + | [https://www.sciencedirect.com/science/article/pii/S0304407606001023 Теория оценивания LATE с использованием дополнительных регрессоров] | ||
| + | |||
| + | [https://academic.oup.com/ectj/article/27/2/213/7602388?login=false Примеры использования машинного обучения для оценивания эффектов воздействия в прикладных исследованиях] | ||
Текущая версия на 18:46, 29 ноября 2025
Содержание
- 1 Материалы для повторения
- 2 Информация о курсе
- 3 Домашнее задание
- 4 Экзамен
- 5 Консультации
- 6 Неделя 0. Введение в машинное обучение
- 7 Неделя 1. Байесовские сети
- 8 Неделя 2. Метод ближайших соседей
- 9 Неделя 3. Деревья
- 10 Неделя 4. Логистическая регрессия и метод опорных векторов
- 11 Список литературы
Материалы для повторения
Викистранички курсов по теории вероятностей и математической статистике:
Видео про применение python в математической статистике:
Информация о курсе
Оценка = 0.01 * ДЗ1 + 0.29 * ДЗ2 + 0.7 * Экзамен
Домашнее задание
Домашнее задание 1
Дедлайн: 7 декабря
Необходимо внести данные группы (до двух человек включительно), в которой будет выполняться второе домашнее задание, в таблицу по ссылке.
Домашнее задание 2
Дедлайн: 14 декабря
Экзамен
Дата: будет объявлена позже
Экзамены прошлых лет
Первый пример экзамена с решениями 2023-2024, бакалавриат
Второй пример экзамена с решениями, 2023-2024, бакалавриат
Экзамен 2023-2024 с решениями, бакалавриат
Экзамен 2024-2025 с решениями, магистратура
Экзамен 2024-2025 с решениями, бакалавриат
Консультации
Консультация перед экзаменом на лекции 2023-2024
Консультация о генерации данных для домашней работы 2023-2024
Неделя 0. Введение в машинное обучение
Основные материалы
Неделя 1. Байесовские сети
Основные материалы
Рекомендуемая литература
1. FOML глава 6.
2. MLPP глава 10.
Неделя 2. Метод ближайших соседей
Основные материалы
Рекомендуемая литература
1. FOML глава 5.
2. MLPP глава 16.
Неделя 3. Деревья
Основные материалы
Рекомендуемая литература
1. FOML глава 4.
Неделя 4. Логистическая регрессия и метод опорных векторов
Основные материалы
Рекомендуемая литература
1. FOML глава 7.
2. MLPP главы 8 и 14.5.
Дополнительные материалы
1. Статья, в которой был предложен градиентный бустинг
Список литературы
- FOML - Fundamentals of machine learning for predictive data analytics. John D. Kelleher, Brian Mac Namee, Aoife D'Arcy. Низкая сложность
- HBE - Econometrics. Hansen B. Средняя сложность
- CMLE - Applied Causal Inference Powered by ML and AI. V. Chernozhukov, C. Hansen, N. Kallus, M. Spindler, V. Syrgkanis Средняя сложность
- MLPP - Machine learning a probabilistic perspective. Kevin P. Murphy. Высокая сложность
Неделя 5. Машинное обучение в эконометрике
Основные материалы
Рекомендуемая литература
1. HBE глава 29.
Дополнительные материалы
1. Двойное машинное обучение в R
2. Двойное машинное обучение в STATA
3. Двойное машинное обучение в python.
4. Видео лекции о теории двойного машинного обучения от создателя метода
5. Видео лекции о программной реализации двойного машинного обучения от создателей пакета
Примечание: пакеты в R и python разработаны одними и теми же людьми, поэтому практически идентичны. Однако, в статье про пакет в R все расписано гораздо подробней и понятней, с большим числом наглядных примеров и наиболее важными теоретическими выкладками.
Неделя 6. Эффекты воздействия
Основные материалы
Рекомендуемая литература
1. MLPP главы 16.5 и 28.
2. HBE главы 12.34 и 29.22.
Дополнительные материалы
Простое, но достаточно подробное введение в causal inference.
Теория оценивания LATE с использованием дополнительных регрессоров