МОВС Машинное обучение 2022-23 — различия между версиями
м (add another option for last hw) |
м (course plan table fix) |
||
Строка 30: | Строка 30: | ||
! Занятие !! Тема !! Дата !! Материалы для самоподготовки к семинарам !! Дополнительные материалы | ! Занятие !! Тема !! Дата !! Материалы для самоподготовки к семинарам !! Дополнительные материалы | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''1''' | + | | style="background:#eaecf0;" | '''1''', [[ Запись]] || |
''Линейные методы регрессии:'' | ''Линейные методы регрессии:'' | ||
Нормализация данных, feature engineering, метрики качества регрессии. Методы оценивания обобщающей способности моделей, кросс-валидация | Нормализация данных, feature engineering, метрики качества регрессии. Методы оценивания обобщающей способности моделей, кросс-валидация | ||
+ | || 04.11.22 || | ||
+ | |||
|| | || | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''2''' | + | | style="background:#eaecf0;" | '''2''', [[ Запись]] || |
''Линейные методы классификации:'' | ''Линейные методы классификации:'' | ||
Логистическая регрессия, калибровка вероятностей, метрики качества классификация | Логистическая регрессия, калибровка вероятностей, метрики качества классификация | ||
+ | || 11.11.22 || | ||
+ | |||
|| | || | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''3''' | + | | style="background:#eaecf0;" | '''3''', [[ Запись]] || |
''Линейные методы классификации - 2:'' | ''Линейные методы классификации - 2:'' | ||
SVM, SVM-kernels, многоклассовая и multilabel-классификации | SVM, SVM-kernels, многоклассовая и multilabel-классификации | ||
+ | || 18.11.22 || | ||
+ | |||
|| | || | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''4''' | + | | style="background:#eaecf0;" | '''4''', [[ Запись]] || |
''Метрические классификаторы:'' | ''Метрические классификаторы:'' | ||
kNN, naive Bayes classifier, быстрый поиск ближайших соседей | kNN, naive Bayes classifier, быстрый поиск ближайших соседей | ||
+ | || 25.11.22 || | ||
+ | |||
|| | || | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''5''' | + | | style="background:#eaecf0;" | '''5''', [[ Запись]] || |
''Обработка признаков и работа с выбросами:'' | ''Обработка признаков и работа с выбросами:'' | ||
Способы работы с пропущенными значениями, поиск аномалий, кодирование категориальных признаков (счётчики) | Способы работы с пропущенными значениями, поиск аномалий, кодирование категориальных признаков (счётчики) | ||
+ | || 02.12.22 || | ||
+ | |||
|| | || | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''6''' | + | | style="background:#eaecf0;" | '''6''', [[ Запись]] || |
''Снижение размерности данных:'' | ''Снижение размерности данных:'' | ||
Методы отбора признаков, расширения SVD, MDS, t-SNE | Методы отбора признаков, расширения SVD, MDS, t-SNE | ||
+ | || 09.12.22 || | ||
+ | |||
|| | || | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''7''' | + | | style="background:#eaecf0;" | '''7''', [[ Запись]] || |
''Решающие деревья и их композиции:'' | ''Решающие деревья и их композиции:'' | ||
Алгоритм построения дерева, критерии информативности (регрессия и классификация), обработка пропусков для деревьев, стрижка и регуляризация | Алгоритм построения дерева, критерии информативности (регрессия и классификация), обработка пропусков для деревьев, стрижка и регуляризация | ||
+ | || 16.12.22 || | ||
+ | |||
|| | || | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''8''' | + | | style="background:#eaecf0;" | '''8''', [[ Запись]] || |
''Решающие деревья и их композиции - 2:'' | ''Решающие деревья и их композиции - 2:'' | ||
Разложение ошибки на шум, смещение и разброс; бэггинг; случайный лес | Разложение ошибки на шум, смещение и разброс; бэггинг; случайный лес | ||
+ | || || | ||
+ | |||
|| | || | ||
|- | |- | ||
− | | style="background:#eaecf0;" | '''9''' | + | | style="background:#eaecf0;" | '''9''', [[ Запись]] || |
''Решающие деревья и их композиции - 3:'' | ''Решающие деревья и их композиции - 3:'' | ||
Бустинг, градиентный бустинг над решающими деревьями, различные интерпретации GB; прочие подходы к ансамблированию | Бустинг, градиентный бустинг над решающими деревьями, различные интерпретации GB; прочие подходы к ансамблированию | ||
+ | || || | ||
+ | |||
|| | || | ||
|- | |- | ||
Строка 107: | Строка 125: | ||
=== Записи консультаций === | === Записи консультаций === | ||
− | |||
==Формула оценивания== | ==Формула оценивания== |
Версия 13:08, 2 ноября 2022
Содержание
О курсе
Занятия проводятся в Zoom по пятницам в 18:00
Онлайн-курс в дополнение к парам: online-course link
Контакты
Канал курса в TG: [channel link]
Чат курса в TG: [chat link]
Преподаватели: Кантонистова Елена Олеговна, Максимовская Анастасия Максимовна
Ассистент | Контакты |
---|---|
Савелий | @Savely_Prokhorov |
Материалы курса
Ссылка на плейлист курса на YouTube: YouTube-playlist
Ссылка на GitHub с материалами курса: GitHub repository
Занятие | Тема | Дата | Материалы для самоподготовки к семинарам | Дополнительные материалы |
---|---|---|---|---|
1, Запись |
Линейные методы регрессии: Нормализация данных, feature engineering, метрики качества регрессии. Методы оценивания обобщающей способности моделей, кросс-валидация |
04.11.22 | ||
2, Запись |
Линейные методы классификации: Логистическая регрессия, калибровка вероятностей, метрики качества классификация |
11.11.22 | ||
3, Запись |
Линейные методы классификации - 2: SVM, SVM-kernels, многоклассовая и multilabel-классификации |
18.11.22 | ||
4, Запись |
Метрические классификаторы: kNN, naive Bayes classifier, быстрый поиск ближайших соседей |
25.11.22 | ||
5, Запись |
Обработка признаков и работа с выбросами: Способы работы с пропущенными значениями, поиск аномалий, кодирование категориальных признаков (счётчики) |
02.12.22 | ||
6, Запись |
Снижение размерности данных: Методы отбора признаков, расширения SVD, MDS, t-SNE |
09.12.22 | ||
7, Запись |
Решающие деревья и их композиции: Алгоритм построения дерева, критерии информативности (регрессия и классификация), обработка пропусков для деревьев, стрижка и регуляризация |
16.12.22 | ||
8, Запись |
Решающие деревья и их композиции - 2: Разложение ошибки на шум, смещение и разброс; бэггинг; случайный лес |
|||
9, Запись |
Решающие деревья и их композиции - 3: Бустинг, градиентный бустинг над решающими деревьями, различные интерпретации GB; прочие подходы к ансамблированию |
|||
10 | Запись | ...<date>... | ||
11 | Запись | ...<date>... | ||
12 | Запись | ...<date>... | ||
13 | Запись | ...<date>... | ||
14 | Запись | ...<date>... | ||
15 | Запись | ...<date>... | ||
16 | Запись | ...<date>... | ||
17 | Запись | ...<date>... | ||
18 | Запись | ...<date>... |
Записи консультаций
Формула оценивания
Оценка = 0 * ОТренировочные тесты + 0.075 * ОПромежуточные тесты + 0.075 * О Взаимопроверка + 0.1 * ОКоллоквиум + 0.15 * ОЭкзамен + 0.6 * ОДЗ
Автоматы: Если накопленная оценка больше или равна 8, то она по желанию студента ставится в качестве итоговой оценки. Для получения автомата также необходимо получить за коллоквиум не менее 6 баллов.
Домашние задания
- LinReg + OOP
- LinearClassification + SQL
- Сравнение деревянных моделей + inference
- Снижение размерности и визуализация
- Кластеризация
- Большая практическая работа // Kaggle // работа с текстами средствами ML-моделей (?) // RecSys (ML)
Литература
- Hastie T., Tibshirani R, Friedman J. The Elements of Statistical Learning (2nd edition). Springer, 2009
- Bishop C. M. Pattern Recognition and Machine Learning. Springer, 2006.
- Willi Richert, Luis Pedro Coelho. Building Machine Learning Systems with Python. Packt Publishing, 2013.