Машинное обучение (ФЭН) - 2020
Содержание
[убрать]О курсе
Преподаватели:
Лекции - Кантонистова Елена Олеговна
Семинары - Кантонистова Елена Олеговна, Титов Владислав Валерьевич
Лекции и семинары
Канал курса: https://t.me/joinchat/AAAAAFNe-ZrRjXbXqrS2CA
Ссылка на youtube-канал с видеозаписями лекций и семинаров: https://www.youtube.com/playlist?list=PLEwK9wdS5g0pC9b61ea6jyYlSBl7yUCcu
Все материалы лекций и семинаров находятся здесь: https://github.com/Murcha1990/ML_Econom_2020-2021
Лекция (2 пара): https://zoom.us/j/96228524411
Семинар (3 пара): https://zoom.us/j/92946252020
Группа | Преподаватель | Учебный ассистент | Инвайт в anytask | Чат в telegram |
---|---|---|---|---|
Вторник | Елена Кантонистова | Кирилл Поликарпов | jVh8mtz | https://t.me/joinchat/EWf_G0jzIK_BprmpAvf6iQ |
Пятница | Влад Титов | Широков Артемий | RSYhTsc | https://t.me/joinchat/EwOn9EWEZpve7WO9v_EXVQ |
Правила выставления оценок
В курсе предусмотрено несколько форм контроля знания:
- самостоятельные работы на семинарах (пятиминутки);
- домашние задания (в том числе соревнование на Kaggle);
- коллоквиум;
- экзамен.
Все работы оцениваются в 10 баллов. Активная работа на семинаре добавляет +3 балла к следующей пятиминутке (максимум за пятиминутку в любом случае 10 баллов).
Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:
0.3 * Домашнее задание + 0.2 * Коллоквиум + 0.2 * Работа на семинаре + 0.3 * Экзамен
Коллоквиум
Правила
Экзамен
Лекции
Материалы лекций: https://github.com/Murcha1990/ML_Econom_2020-2021/tree/master/Лекции
Лекция 1. Введение в машинное обучение: основные понятия, постановка задачи, обучение, цикл решения задачи анализа данных.
Лекция 2. Линейные методы регрессии: аналитическое решение задачи линейной регрессии, метод градиентного спуска и его вариации.
Семинары
Материалы семинаров: https://github.com/Murcha1990/ML_Econom_2020-2021/tree/master/Семинары
Семинар 1. Матричное дифференцирование. Презентация.
Семинар 2. Линейная регрессия. Заполненный ноутбук.
Семинар 3. Обработка признаков для линейной регрессии. Заполенный ноутбук.
Домашние задания
На курсе планируется около 10 домашних заданий. Формула вычисления итоговой оценки: среднее из n-2 домашних заданий с максимальными баллами, где n - это итоговое количество домашек.
Все домашние работы, а также пятиминутки в начале семинаров необходимо сдавать в anytask.
Домашняя работа 1 (10 баллов). Задачи про матричное дифференцирование из задачника.
Домашняя работа 2 (10 баллов). Написать собственную многомерную линейную регрессию. Ноутбук с шаблоном.
Домашняя работа 3 (5 баллов). Задание на выполнение основных шагов при обучении модели. Ноутбук. Задание на одну неделю.
Полезные материалы
Книги
- Hastie T., Tibshirani R, Friedman J. The Elements of Statistical Learning (2nd edition). Springer, 2009.r, 2009.
- Bishop C. M. Pattern Recognition and Machine Learning. Springer, 2006.
- Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.
- Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.
- Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.
- Willi Richert, Luis Pedro Coelho. Building Machine Learning Systems with Python. Packt Publishing, 2013.