Машинное обучение в экономике 2023-2024 — различия между версиями
Potanin (обсуждение | вклад) (→Байесовский классификатор и его модификации) |
Potanin (обсуждение | вклад) (→Неделя 9. Большие языковые модели) |
||
(не показано 97 промежуточных версии 2 участников) | |||
Строка 1: | Строка 1: | ||
− | == | + | === Дисклеймер === |
− | + | Материалы данной страницы являются предварительными и могут содержать существенные неточности | |
− | == | + | == Материалы для повторения == |
− | + | Викистранички курсов по теории вероятностей и математической статистике: | |
− | + | * [http://wiki.cs.hse.ru/Теория_вероятностей_и_статистика,_МИРЭК,_2023-2024 МИРЭК] | |
+ | * [http://wiki.cs.hse.ru/Econ_probability_2023-24 Экономика] | ||
− | + | Видео про применение python в математической статистике: | |
− | == | + | * [https://youtu.be/F7dJmORBXzM Часть 1] |
+ | * [https://youtu.be/VKHr1Po9ztI Часть 2] | ||
+ | * [https://youtu.be/3ZGq472-XbE Часть 3] | ||
+ | * [https://colab.research.google.com/drive/1OYq5b7d-ruOGppAmUdbQW-qQJ4XDmFXY?hl=ru#scrollTo=xR1xnEccTqXm Код к видео] | ||
− | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%9B%D0%B5%D0%BA%D1%86%D0%B8%D1% | + | == Информация о курсе == |
+ | |||
+ | '''Оценка''' = 0.01 * ДЗ1 + 0.29 * ДЗ2 + 0.7 * Экзамен | ||
+ | |||
+ | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%9B%D0%B5%D0%BA%D1%86%D0%B8%D1%8F%200.%20%D0%98%D0%BD%D1%84%D0%BE%D1%80%D0%BC%D0%B0%D1%86%D0%B8%D1%8F%20%D0%BE%20%D0%BA%D1%83%D1%80%D1%81%D0%B5.pdf Слайды] | ||
+ | |||
+ | == Домашнее задание == | ||
+ | |||
+ | === Домашнее задание 1 === | ||
+ | |||
+ | '''Дедлайн''': 28-го апреля | ||
+ | |||
+ | Необходимо внести данные группы (до трех человек включительно), в которой будет выполняться второе домашнее задание, в [https://docs.google.com/spreadsheets/d/1QBT9BWQXPLO1QnZ7FfPGQck-y2h_TxlJAN_ojfZ0hT0/edit?usp=sharing таблицу]. | ||
+ | |||
+ | === Домашнее задание 2 === | ||
+ | |||
+ | '''Дедлайн''': 9-го июня | ||
+ | |||
+ | Информация об оформлении и формате сдачи домашней работы указана в тексте задания. | ||
+ | |||
+ | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%94%D0%BE%D0%BC%D0%B0%D1%88%D0%BD%D0%B5%D0%B5%20%D0%B7%D0%B0%D0%B4%D0%B0%D0%BD%D0%B8%D0%B5.%20%D0%9C%D0%9E.%202023-2024.pdf Домашнее задание] | ||
+ | |||
+ | '''Консультация о генерации данных''': | ||
+ | |||
+ | * [https://colab.research.google.com/drive/15l0cILQJZdi3RXKScGG8K0jjbLtbcS5G?usp=sharing Код консультации] | ||
+ | * [https://youtu.be/B5w5HPFkbTo Видео, часть 1] | ||
+ | * [https://youtu.be/PFbkJITNa7A Видео, часть 2] | ||
+ | |||
+ | == Экзамен == | ||
+ | |||
+ | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%92%D1%81%D1%82%D1%83%D0%BF%D0%B8%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D0%BE%D0%B5%20%D0%B7%D0%B0%D0%B4%D0%B0%D0%BD%D0%B8%D0%B5.%20%D0%9C%D0%9E.%202023-2024.pdf Пример экзамена с решением] | ||
+ | |||
+ | == Неделя 1. Байесовские сети == | ||
+ | |||
+ | === Основные материалы === | ||
+ | |||
+ | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%9B%D0%B5%D0%BA%D1%86%D0%B8%D1%8F%201.%20%D0%91%D0%B0%D0%B9%D0%B5%D1%81%D0%BE%D0%B2%D1%81%D0%BA%D0%B8%D0%B5%20%D1%81%D0%B5%D1%82%D0%B8.pdf Слайды лекции] | ||
+ | |||
+ | [https://colab.research.google.com/drive/1Iq1zomLp2kZ1kAffPeFyzHFtdvhbuTR2?usp=sharing Код семинара] | ||
+ | |||
+ | === Рекомендуемая литература === | ||
+ | |||
+ | 1. FOML глава 6. | ||
+ | |||
+ | 2. MLPP глава 10. | ||
+ | |||
+ | == Неделя 2. Метод ближайших соседей == | ||
+ | |||
+ | === Основные материалы === | ||
+ | |||
+ | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%9B%D0%B5%D0%BA%D1%86%D0%B8%D1%8F%202.%20%D0%9C%D0%B5%D1%82%D0%BE%D0%B4%20%D0%B1%D0%BB%D0%B8%D0%B6%D0%B0%D0%B9%D1%88%D0%B8%D1%85%20%D1%81%D0%BE%D1%81%D0%B5%D0%B4%D0%B5%D0%B9.pdf Слайды лекции] | ||
+ | |||
+ | [https://colab.research.google.com/drive/1a2sgrKj_ap58JKRixlG2xvopTmV7dU_8?usp=sharing Код семинара] | ||
+ | |||
+ | === Рекомендуемая литература === | ||
+ | |||
+ | 1. FOML глава 4. | ||
+ | |||
+ | 2. MLPP глава 16. | ||
+ | |||
+ | == Неделя 3. Деревья == | ||
+ | |||
+ | === Основные материалы === | ||
+ | |||
+ | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%9B%D0%B5%D0%BA%D1%86%D0%B8%D1%8F%203.%20%D0%94%D0%B5%D1%80%D0%B5%D0%B2%D1%8C%D1%8F.pdf Слайды лекции] | ||
+ | |||
+ | [https://colab.research.google.com/drive/1vXOMuDUFSxqO4XFpvvcpf4SWokIx4Lk9?usp=sharing Код семинара] | ||
+ | |||
+ | === Рекомендуемая литература === | ||
+ | |||
+ | 1. FOML глава 5. | ||
+ | |||
+ | == Неделя 4. Логистическая регрессия и метод опорных векторов == | ||
+ | |||
+ | === Основные материалы === | ||
+ | |||
+ | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%9B%D0%B5%D0%BA%D1%86%D0%B8%D1%8F%204.%20%D0%9B%D0%BE%D0%B3%D0%B8%D1%81%D1%82%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%B0%D1%8F%20%D1%80%D0%B5%D0%B3%D1%80%D0%B5%D1%81%D1%81%D0%B8%D1%8F%20%D0%B8%20%D0%BC%D0%B5%D1%82%D0%BE%D0%B4%20%D0%BE%D0%BF%D0%BE%D1%80%D0%BD%D1%8B%D1%85%20%D0%B2%D0%B5%D0%BA%D1%82%D0%BE%D1%80%D0%BE%D0%B2.pdf Слайды лекции] | ||
+ | |||
+ | [https://colab.research.google.com/drive/1vqEDTOwBGkz0mEM4i4SPxHvVRrJfTjmy?usp=sharing Код семинара] | ||
+ | |||
+ | === Рекомендуемая литература === | ||
+ | |||
+ | 1. FOML глава 7. | ||
+ | |||
+ | 2. MLPP главы 8 и 14.5. | ||
+ | |||
+ | === Дополнительные материалы === | ||
+ | |||
+ | 1. [https://projecteuclid.org/journalArticle/Download?urlId=10.1214%2Faos%2F1013203451 Статья, в которой был предложен градиентный бустинг] | ||
+ | |||
+ | == Неделя 5. Машинное обучение в эконометрике == | ||
+ | |||
+ | === Основные материалы === | ||
+ | |||
+ | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%9B%D0%B5%D0%BA%D1%86%D0%B8%D1%8F%205.%20%D0%9C%D0%B0%D1%88%D0%B8%D0%BD%D0%BD%D0%BE%D0%B5%20%D0%BE%D0%B1%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5%20%D0%B2%20%D1%8D%D0%BA%D0%BE%D0%BD%D0%BE%D0%BC%D0%B5%D1%82%D1%80%D0%B8%D0%BA%D0%B5.pdf Слайды лекции] | ||
+ | |||
+ | [https://colab.research.google.com/drive/11ss8xdr6B3FPeIExktOZ90GFzGAS7mq5?usp=sharing Код семинара] | ||
+ | |||
+ | === Рекомендуемая литература === | ||
+ | |||
+ | 1. HBE глава 29. | ||
+ | |||
+ | === Дополнительные материалы === | ||
+ | |||
+ | 1. [https://www.jstatsoft.org/index.php/jss/article/view/v108i03/4527 Двойное машинное обучение в R] | ||
+ | |||
+ | 2. [https://arxiv.org/pdf/2301.09397.pdf Двойное машинное обучение в STATA] | ||
+ | |||
+ | 3. [https://jmlr.org/papers/volume23/21-0862/21-0862.pdf Двойное машинное обучение в python]. | ||
+ | |||
+ | 4. [https://www.youtube.com/watch?v=eHOjmyoPCFU&t=1552s Видео лекции о теории двойного машинного обучения от создателя метода] | ||
+ | |||
+ | 5. [https://www.youtube.com/watch?v=ErecsyKEq74 Видео лекции о программной реализации двойного машинного обучения от создателей пакета] | ||
+ | |||
+ | '''Примечание''': пакеты в R и python разработаны одними и теми же людьми, поэтому практически идентичны. Однако, в статье про пакет в R все расписано гораздо подробней и понятней, с большим числом наглядных примеров и наиболее важными теоретическими выкладками. | ||
+ | |||
+ | == Неделя 6. Эффекты воздействия == | ||
+ | |||
+ | === Основные материалы === | ||
+ | |||
+ | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%9B%D0%B5%D0%BA%D1%86%D0%B8%D1%8F%206.%20%D0%AD%D1%84%D1%84%D0%B5%D0%BA%D1%82%D1%8B%20%D0%B2%D0%BE%D0%B7%D0%B4%D0%B5%D0%B9%D1%81%D1%82%D0%B2%D0%B8%D1%8F.pdf Слайды лекции] | ||
+ | |||
+ | [https://colab.research.google.com/drive/1uFqihpgQxbPw61kz3N2icOzqPGeK_H-d?usp=sharing Код семинара] | ||
+ | |||
+ | === Рекомендуемая литература === | ||
+ | |||
+ | 1. MLPP главы 16.5 и 28. | ||
+ | |||
+ | 2. HBE главы 12.34 и 29.22. | ||
+ | |||
+ | === Дополнительные материалы === | ||
+ | |||
+ | [https://mixtape.scunning.com Простое, но достаточно подробное введение в causal inference.] | ||
+ | |||
+ | [https://www.sciencedirect.com/science/article/pii/S0304407606001023 Теория оценивания LATE с использованием дополнительных регрессоров] | ||
+ | |||
+ | == Неделя 7. Нейронные сети == | ||
+ | |||
+ | === Основные материалы === | ||
+ | |||
+ | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%9B%D0%B5%D0%BA%D1%86%D0%B8%D1%8F%207.%20%D0%9D%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5%20%D1%81%D0%B5%D1%82%D0%B8.pdf Слайды лекции] | ||
+ | |||
+ | [https://colab.research.google.com/drive/1QuoHICOPZNfj3Z0ZpYC248zRAwqDSXfU?usp=sharing Код семинара] | ||
+ | |||
+ | === Рекомендуемая литература === | ||
+ | |||
+ | 1. MLPP главы 16.5 и 28. | ||
+ | |||
+ | === Дополнительные материалы === | ||
+ | |||
+ | [https://www.cs.toronto.edu/~rsalakhu/papers/srivastava14a.pdf 1. Статья, в которой был предложен метод исключения (dropout).] | ||
+ | |||
+ | == Неделя 8. Рекуррентные нейронные сети == | ||
+ | |||
+ | === Основные материалы === | ||
+ | |||
+ | [https://github.com/bogdanpotanin/Machine-Learning/blob/main/%D0%9B%D0%B5%D0%BA%D1%86%D0%B8%D1%8F%208.%20%D0%A0%D0%B5%D0%BA%D1%83%D1%80%D1%80%D0%B5%D0%BD%D1%82%D0%BD%D1%8B%D0%B5%20%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BD%D1%8B%D0%B5%20%D1%81%D0%B5%D1%82%D0%B8.pdf Слайды лекции] | ||
+ | |||
+ | [https://colab.research.google.com/drive/1R--ZslnpKE47FAk9X4I8YefqZm0sIn2J?usp=sharing Код семинара] | ||
+ | |||
+ | == Неделя 9. Большие языковые модели == | ||
+ | |||
+ | === Основные материалы === | ||
+ | |||
+ | [https://colab.research.google.com/drive/1-pXQi7FqvXT_NmQafbKF6bmmk1PSEMQ2?usp=sharing Код лекции] | ||
+ | |||
+ | [Код семинара (появится позже)] | ||
+ | |||
+ | == Неделя 10. Повторение == | ||
+ | |||
+ | = Список литературы = | ||
+ | |||
+ | # '''FOML''' -- Fundamentals of machine learning for predicting data analytics. John D. Kelleher, Brian Mac Namee, Aoife D'Arcy. '''Низкая сложность''' | ||
+ | # '''HBE''' -- Econometrics. Hansen B. '''Средняя сложность''' | ||
+ | # '''MLPP''' -- Machine learning a probabilistic perspective. Kevin P. Murphy. '''Высокая сложность''' |
Текущая версия на 14:39, 7 июня 2024
Содержание
- 1 Дисклеймер
- 2 Материалы для повторения
- 3 Информация о курсе
- 4 Домашнее задание
- 5 Экзамен
- 6 Неделя 1. Байесовские сети
- 7 Неделя 2. Метод ближайших соседей
- 8 Неделя 3. Деревья
- 9 Неделя 4. Логистическая регрессия и метод опорных векторов
- 10 Неделя 5. Машинное обучение в эконометрике
- 11 Неделя 6. Эффекты воздействия
- 12 Неделя 7. Нейронные сети
- 13 Неделя 8. Рекуррентные нейронные сети
- 14 Неделя 9. Большие языковые модели
- 15 Неделя 10. Повторение
- 16 Список литературы
Дисклеймер
Материалы данной страницы являются предварительными и могут содержать существенные неточности
Материалы для повторения
Викистранички курсов по теории вероятностей и математической статистике:
Видео про применение python в математической статистике:
Информация о курсе
Оценка = 0.01 * ДЗ1 + 0.29 * ДЗ2 + 0.7 * Экзамен
Домашнее задание
Домашнее задание 1
Дедлайн: 28-го апреля
Необходимо внести данные группы (до трех человек включительно), в которой будет выполняться второе домашнее задание, в таблицу.
Домашнее задание 2
Дедлайн: 9-го июня
Информация об оформлении и формате сдачи домашней работы указана в тексте задания.
Консультация о генерации данных:
Экзамен
Неделя 1. Байесовские сети
Основные материалы
Рекомендуемая литература
1. FOML глава 6.
2. MLPP глава 10.
Неделя 2. Метод ближайших соседей
Основные материалы
Рекомендуемая литература
1. FOML глава 4.
2. MLPP глава 16.
Неделя 3. Деревья
Основные материалы
Рекомендуемая литература
1. FOML глава 5.
Неделя 4. Логистическая регрессия и метод опорных векторов
Основные материалы
Рекомендуемая литература
1. FOML глава 7.
2. MLPP главы 8 и 14.5.
Дополнительные материалы
1. Статья, в которой был предложен градиентный бустинг
Неделя 5. Машинное обучение в эконометрике
Основные материалы
Рекомендуемая литература
1. HBE глава 29.
Дополнительные материалы
1. Двойное машинное обучение в R
2. Двойное машинное обучение в STATA
3. Двойное машинное обучение в python.
4. Видео лекции о теории двойного машинного обучения от создателя метода
5. Видео лекции о программной реализации двойного машинного обучения от создателей пакета
Примечание: пакеты в R и python разработаны одними и теми же людьми, поэтому практически идентичны. Однако, в статье про пакет в R все расписано гораздо подробней и понятней, с большим числом наглядных примеров и наиболее важными теоретическими выкладками.
Неделя 6. Эффекты воздействия
Основные материалы
Рекомендуемая литература
1. MLPP главы 16.5 и 28.
2. HBE главы 12.34 и 29.22.
Дополнительные материалы
Простое, но достаточно подробное введение в causal inference.
Теория оценивания LATE с использованием дополнительных регрессоров
Неделя 7. Нейронные сети
Основные материалы
Рекомендуемая литература
1. MLPP главы 16.5 и 28.
Дополнительные материалы
1. Статья, в которой был предложен метод исключения (dropout).
Неделя 8. Рекуррентные нейронные сети
Основные материалы
Неделя 9. Большие языковые модели
Основные материалы
[Код семинара (появится позже)]
Неделя 10. Повторение
Список литературы
- FOML -- Fundamentals of machine learning for predicting data analytics. John D. Kelleher, Brian Mac Namee, Aoife D'Arcy. Низкая сложность
- HBE -- Econometrics. Hansen B. Средняя сложность
- MLPP -- Machine learning a probabilistic perspective. Kevin P. Murphy. Высокая сложность