ИИ Машинное обучение (ИИ24, 2-3 модули)

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск

О курсе

Занятия проводятся в zoom по понедельникам/вторникам/средам (в зависимости от недели) вечером.

Онлайн-курс в дополнение к парам: Практический Machine Learning


В курсе нет явного разделения на base и pro группы на вебинарах, но все вебинары будут помечены одним из трех тегов:

1️⃣base - вебинар, который рекомендуется тем, у кого нет или немного знаний по ML

2️⃣pro - вебинар, который рекомендуется тем, у кого средние или хорошие знания по ML

3️⃣expert - вебинар от приглашенного эксперта


🍊Вы можете ходить на вебинары по своему выбору. На всех вебинарах будет свой сюжет. Нигде не будет повторения тем

🍊А вот при сдаче домашних заданий вы должны определиться, в какую группу сдаете: base или pro. ДЗ будут разделены по уровню сложности (хотя некоторые иногда будут дублироваться)

🍊Распределительного теста НЕ БУДЕТ, так как у нас нет фиксированного разделения на группы на вебинарах. Однако если вы чувствуете себя в экспертом в ML, а также у вас есть подтверждение ваших знаний (пройденный курс по МО-1 и МО-2 на ПМИ или аналогичные по сложности другие курсы) и хотите попасть на fast track - выполнение большого проекта вместо курса, то заполните форму до 5 ноября 23:59 (в зависимости от числа желающих мы либо просто проведем с каждым мини-собеседование и допустим или не допустим до fast track, либо проведем тест+собеседование)


❗️❗️❗️Перед большинством занятий вам необходимо изучить базовую теорию и практику в курсе на Stepik (список нужных уроков и модулей будет появляться за несколько дней до занятия). Здесь все строго: если материал из Stepik не изучен, вам не имеет смысла приходить на занятие - для того, чтобы курс получился хорошим и содержательным требуются не только усилия команды курса, но и ваши. Так что сразу об этом предупреждаем.❗️❗️❗️

Контакты

Преподаватель: Елена Кантонистова

Ассистент Контакты
Сабрина Садиех @sabrina_sadiekh
Роман Залесинский @roman_zalesinskii
Кирилл Малюшитский @malyushitsky
Георгий Чешко @aketa147
Тимур Акимов @takimov
Алена Голубович @alonagolubovich
Виктор Тихомиров @onthebox
Глеб Булыгин @jdbelg
Яна Журович @janinaal

Материалы курса

Ссылка на GitHub с материалами курса: GitHub repository

Блок Тема
1 Введение в машинное обучение. Основы линейной регресии (base)
2 Некоторые аспекты продвинутого EDA. Дашборды (base+pro)
3 Линейная регрессия подробнее (pro)
4 Метрики качества линейной регрессии. Практика (base)
5 Решение задачи многомерной линейной регрессии через OLS. Функционалы потерь линейной регрессии и их математическое обоснование (pro)
6 Регуляризация. Кодирование категориальных признаков. Практика (base)
7 Связь метрик с бизнесом. Продвинутая работа с признаками (pro)
8 Градиентный спуск (base)
9 Модификации градиентного спуска (pro)
10 Задача классификации. Базовые метрики качества классификации. Логистическая регрессия (base)
11 Интегральные метрики качества классификации. Логистическая регрессия. Дисбаланс классов. (base+pro)
12 SVM. Калибровка вероятностей. (base)
13 SHAP, Permutation Importance. Ядровой SVM. (pro)
14 Основы работы с текстами методами машинного обучения (base)
15 Отбор признаков и PCA для снижения размерности. (base+pro)
16 Деревья. Разложение ошибки на шум, смещение и разброс, бэггинг и случайный лес. (base+pro)
17 Бустинг. Современные имплементации градиентного бустинга (base+pro)
18 Кластеризация, метрики качества кластеризации. Визуализация. (base+pro)
19 Как проходить собеседования по машинному обучению? (base+pro)
20 Методы снижения размерности (pro)
21 Uplift-моделирование (base+pro)
22 Методы поиска аномалий (base+pro)
23 Рекомендательные системы (base+pro)

Записи консультаций

Формула оценивания

Формула оценки: 0.25 * Stepik + 0.6 * среднее за 6 лучших ДЗ + 0.15 * Экзамен

Автоматов нет, но при успешном выполнении Stepik и ДЗ (и с учетом бонусов) и без экзамена можно получить 9.

Домашние задания

Задания сдаются в anytask: https://anytask.org/course/1151

Инвайт для Base: ChlwVVD

Инвайт для Pro: Uhxgzv1


Условия домашних заданий находятся здесь.

  1. EDA и Линейная регрессия с инференсом. Мягкий дедлайн без Fast API - 27 ноября 23:59, мягкий дедлайн по Fast API - 3 декабря 23:59
  2. Градиентный спуск. Мягкий дедлайн - 12 декабря 23:59
  3. Линейная классификация (+ парсинг) - 23 декабря 23:59
  4. Деревья и леса - 2 февраля 23:59
  5. Бустинг и кластеризация - 16 февраля 23:59
  6. Uplift-моделирование - 28 февраля 23:59

Дедлайн по Stepik - конец курса (20 марта 23:59).

Литература