МОВС Машинное обучение 2022-23 — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
м (add another option for last hw)
м (course plan table fix)
Строка 30: Строка 30:
 
  ! Занятие !! Тема !! Дата !! Материалы для самоподготовки к семинарам !! Дополнительные материалы
 
  ! Занятие !! Тема !! Дата !! Материалы для самоподготовки к семинарам !! Дополнительные материалы
 
|-
 
|-
| style="background:#eaecf0;" | '''1''' || [[ Запись]] || 04.11.22 ||
+
| style="background:#eaecf0;" | '''1''', [[ Запись]] ||
 
''Линейные методы регрессии:''
 
''Линейные методы регрессии:''
  
 
Нормализация данных, feature engineering, метрики качества регрессии. Методы оценивания обобщающей способности моделей, кросс-валидация  
 
Нормализация данных, feature engineering, метрики качества регрессии. Методы оценивания обобщающей способности моделей, кросс-валидация  
 +
|| 04.11.22 ||
 +
 
||  
 
||  
 
|-
 
|-
| style="background:#eaecf0;" | '''2''' || [[ Запись]] || 11.11.22 ||  
+
| style="background:#eaecf0;" | '''2''', [[ Запись]] ||  
 
''Линейные методы классификации:''
 
''Линейные методы классификации:''
  
 
Логистическая регрессия, калибровка вероятностей, метрики качества классификация  
 
Логистическая регрессия, калибровка вероятностей, метрики качества классификация  
 +
|| 11.11.22 ||
 +
 
||  
 
||  
 
|-
 
|-
| style="background:#eaecf0;" | '''3''' || [[ Запись]] || 18.11.22 ||  
+
| style="background:#eaecf0;" | '''3''', [[ Запись]] ||  
 
''Линейные методы классификации - 2:''
 
''Линейные методы классификации - 2:''
  
 
SVM, SVM-kernels, многоклассовая и multilabel-классификации
 
SVM, SVM-kernels, многоклассовая и multilabel-классификации
 +
|| 18.11.22 ||
 +
 
||
 
||
 
|-
 
|-
| style="background:#eaecf0;" | '''4''' || [[ Запись]] || 25.11.22 ||
+
| style="background:#eaecf0;" | '''4''', [[ Запись]] ||  
 
''Метрические классификаторы:''
 
''Метрические классификаторы:''
  
 
kNN, naive Bayes classifier, быстрый поиск ближайших соседей
 
kNN, naive Bayes classifier, быстрый поиск ближайших соседей
 +
|| 25.11.22 ||
 +
 
||  
 
||  
 
|-
 
|-
| style="background:#eaecf0;" | '''5''' || [[ Запись]] || 02.12.22 ||
+
| style="background:#eaecf0;" | '''5''', [[ Запись]] ||  
 
''Обработка признаков и работа с выбросами:''
 
''Обработка признаков и работа с выбросами:''
  
 
Способы работы с пропущенными значениями, поиск аномалий, кодирование категориальных признаков (счётчики)  
 
Способы работы с пропущенными значениями, поиск аномалий, кодирование категориальных признаков (счётчики)  
 +
|| 02.12.22 ||
 +
 
||  
 
||  
 
|-
 
|-
| style="background:#eaecf0;" | '''6''' || [[ Запись]] || 09.12.22 ||
+
| style="background:#eaecf0;" | '''6''', [[ Запись]] ||  
 
''Снижение размерности данных:''
 
''Снижение размерности данных:''
  
 
Методы отбора признаков, расширения SVD, MDS, t-SNE
 
Методы отбора признаков, расширения SVD, MDS, t-SNE
 +
|| 09.12.22 ||
 +
 
||  
 
||  
 
|-
 
|-
| style="background:#eaecf0;" | '''7''' || [[ Запись]] || 16.12.22 ||  
+
| style="background:#eaecf0;" | '''7''', [[ Запись]] ||  
 
''Решающие деревья и их композиции:''
 
''Решающие деревья и их композиции:''
  
 
Алгоритм построения дерева, критерии информативности (регрессия и классификация), обработка пропусков для деревьев, стрижка и регуляризация  
 
Алгоритм построения дерева, критерии информативности (регрессия и классификация), обработка пропусков для деревьев, стрижка и регуляризация  
 +
|| 16.12.22 ||
 +
 
||  
 
||  
 
|-
 
|-
| style="background:#eaecf0;" | '''8''' || [[ Запись]] ||  ||  
+
| style="background:#eaecf0;" | '''8''', [[ Запись]] ||  
 
''Решающие деревья и их композиции - 2:''  
 
''Решающие деревья и их композиции - 2:''  
  
 
Разложение ошибки на шум, смещение и разброс; бэггинг; случайный лес
 
Разложение ошибки на шум, смещение и разброс; бэггинг; случайный лес
 +
||  ||
 +
 
||  
 
||  
 
|-
 
|-
| style="background:#eaecf0;" | '''9''' || [[ Запись]] ||  ||  
+
| style="background:#eaecf0;" | '''9''', [[ Запись]] ||  
 
''Решающие деревья и их композиции - 3:''  
 
''Решающие деревья и их композиции - 3:''  
  
 
Бустинг, градиентный бустинг над решающими деревьями, различные интерпретации GB; прочие подходы к ансамблированию  
 
Бустинг, градиентный бустинг над решающими деревьями, различные интерпретации GB; прочие подходы к ансамблированию  
 +
||  ||
 +
 
||
 
||
 
|-
 
|-
Строка 107: Строка 125:
  
 
=== Записи консультаций ===
 
=== Записи консультаций ===
 
  
 
==Формула оценивания==
 
==Формула оценивания==

Версия 13:08, 2 ноября 2022

О курсе

Занятия проводятся в Zoom по пятницам в 18:00

Онлайн-курс в дополнение к парам: online-course link

Контакты

Канал курса в TG: [channel link]

Чат курса в TG: [chat link]

Преподаватели: Кантонистова Елена Олеговна, Максимовская Анастасия Максимовна

Ассистент Контакты
Савелий @Savely_Prokhorov

Материалы курса

Ссылка на плейлист курса на YouTube: YouTube-playlist

Ссылка на GitHub с материалами курса: GitHub repository

Занятие Тема Дата Материалы для самоподготовки к семинарам Дополнительные материалы
1, Запись

Линейные методы регрессии:

Нормализация данных, feature engineering, метрики качества регрессии. Методы оценивания обобщающей способности моделей, кросс-валидация

04.11.22
2, Запись

Линейные методы классификации:

Логистическая регрессия, калибровка вероятностей, метрики качества классификация

11.11.22
3, Запись

Линейные методы классификации - 2:

SVM, SVM-kernels, многоклассовая и multilabel-классификации

18.11.22
4, Запись

Метрические классификаторы:

kNN, naive Bayes classifier, быстрый поиск ближайших соседей

25.11.22
5, Запись

Обработка признаков и работа с выбросами:

Способы работы с пропущенными значениями, поиск аномалий, кодирование категориальных признаков (счётчики)

02.12.22
6, Запись

Снижение размерности данных:

Методы отбора признаков, расширения SVD, MDS, t-SNE

09.12.22
7, Запись

Решающие деревья и их композиции:

Алгоритм построения дерева, критерии информативности (регрессия и классификация), обработка пропусков для деревьев, стрижка и регуляризация

16.12.22
8, Запись

Решающие деревья и их композиции - 2:

Разложение ошибки на шум, смещение и разброс; бэггинг; случайный лес

9, Запись

Решающие деревья и их композиции - 3:

Бустинг, градиентный бустинг над решающими деревьями, различные интерпретации GB; прочие подходы к ансамблированию

10 Запись ...<date>...
11 Запись ...<date>...
12 Запись ...<date>...
13 Запись ...<date>...
14 Запись ...<date>...
15 Запись ...<date>...
16 Запись ...<date>...
17 Запись ...<date>...
18 Запись ...<date>...

Записи консультаций

Формула оценивания

Оценка = 0 * ОТренировочные тесты + 0.075 * ОПромежуточные тесты + 0.075 * О Взаимопроверка + 0.1 * ОКоллоквиум + 0.15 * ОЭкзамен + 0.6 * ОДЗ

Автоматы: Если накопленная оценка больше или равна 8, то она по желанию студента ставится в качестве итоговой оценки. Для получения автомата также необходимо получить за коллоквиум не менее 6 баллов.

Домашние задания

  • LinReg + OOP
  • LinearClassification + SQL
  • Сравнение деревянных моделей + inference


  • Снижение размерности и визуализация
  • Кластеризация
  • Большая практическая работа // Kaggle // работа с текстами средствами ML-моделей (?) // RecSys (ML)

Литература

  • Hastie T., Tibshirani R, Friedman J. The Elements of Statistical Learning (2nd edition). Springer, 2009
  • Bishop C. M. Pattern Recognition and Machine Learning. Springer, 2006.
  • Willi Richert, Luis Pedro Coelho. Building Machine Learning Systems with Python. Packt Publishing, 2013.