ИИ Машинное обучение (ИИ24, 2-3 модули) — различия между версиями
Murrcha (обсуждение | вклад) |
Murrcha (обсуждение | вклад) |
||
| (не показаны 22 промежуточные версии этого же участника) | |||
| Строка 40: | Строка 40: | ||
| style="background:#eaecf0;" | Георгий Чешко || @aketa147 | | style="background:#eaecf0;" | Георгий Чешко || @aketa147 | ||
|- | |- | ||
| − | | style="background:#eaecf0;" | | + | | style="background:#eaecf0;" | Тимур Акимов || @takimov |
|- | |- | ||
| style="background:#eaecf0;" | Алена Голубович || @alonagolubovich | | style="background:#eaecf0;" | Алена Голубович || @alonagolubovich | ||
| Строка 52: | Строка 52: | ||
==Материалы курса== | ==Материалы курса== | ||
| − | |||
| − | Ссылка на GitHub с материалами курса: [ | + | Ссылка на GitHub с материалами курса: [https://github.com/Murcha1990/ML_AI24/tree/main GitHub repository] |
{| class="wikitable" | {| class="wikitable" | ||
|- | |- | ||
| − | ! | + | ! Блок !! Тема |
|- | |- | ||
| − | | style="background:#eaecf0;" | '''1''' || Введение в машинное обучение. Основы линейной регресии (base) | + | | style="background:#eaecf0;" | '''1''' || Введение в машинное обучение. Основы линейной регресии (base) |
|- | |- | ||
| − | | style="background:#eaecf0;" | '''2''' || Некоторые аспекты продвинутого EDA. Дашборды (base+pro) | + | | style="background:#eaecf0;" | '''2''' || Некоторые аспекты продвинутого EDA. Дашборды (base+pro) |
|- | |- | ||
| − | | style="background:#eaecf0;" | '''3''' || Линейная регрессия подробнее (pro) | + | | style="background:#eaecf0;" | '''3''' || Линейная регрессия подробнее (pro) |
|- | |- | ||
| − | | style="background:#eaecf0;" | '''4''' || | + | | style="background:#eaecf0;" | '''4''' || Метрики качества линейной регрессии. Практика (base) |
|- | |- | ||
| − | | style="background:#eaecf0;" | '''5''' || || | + | | style="background:#eaecf0;" | '''5''' || Решение задачи многомерной линейной регрессии через OLS. Функционалы потерь линейной регрессии и их математическое обоснование (pro) |
| + | |- | ||
| + | | style="background:#eaecf0;" | '''6''' || Регуляризация. Кодирование категориальных признаков. Практика (base) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''7''' || Связь метрик с бизнесом. Продвинутая работа с признаками (pro) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''8''' || Градиентный спуск (base) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''9''' || Модификации градиентного спуска (pro) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''10''' || Задача классификации. Базовые метрики качества классификации. Логистическая регрессия (base) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''11''' || Интегральные метрики качества классификации. Логистическая регрессия. Дисбаланс классов. (base+pro) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''12''' || SVM. Калибровка вероятностей. (base) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''13''' || SHAP, Permutation Importance. Ядровой SVM. (pro) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''14''' || Основы работы с текстами методами машинного обучения (base) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''15''' || Отбор признаков и PCA для снижения размерности. (base+pro) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''16''' || Деревья. Разложение ошибки на шум, смещение и разброс, бэггинг и случайный лес. (base+pro) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''17''' || Бустинг. Современные имплементации градиентного бустинга (base+pro) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''18''' || Кластеризация, метрики качества кластеризации. Визуализация. (base+pro) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''19''' || Как проходить собеседования по машинному обучению? (base+pro) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''20''' || Методы снижения размерности (pro) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''21''' || Uplift-моделирование (base+pro) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''22''' || Методы поиска аномалий (base+pro) | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''23''' || Рекомендательные системы (base+pro) | ||
|- | |- | ||
|} | |} | ||
| Строка 82: | Строка 117: | ||
== Домашние задания == | == Домашние задания == | ||
| + | |||
| + | Задания сдаются в anytask: https://anytask.org/course/1151 | ||
| + | |||
| + | Инвайт для Base: '''ChlwVVD''' | ||
| + | |||
| + | Инвайт для Pro: '''Uhxgzv1''' | ||
| + | |||
Условия домашних заданий находятся [https://github.com/Murcha1990/ML_AI24/tree/main/Hometasks здесь]. | Условия домашних заданий находятся [https://github.com/Murcha1990/ML_AI24/tree/main/Hometasks здесь]. | ||
| − | # EDA и Линейная регрессия с инференсом | + | # EDA и Линейная регрессия с инференсом. Мягкий дедлайн без Fast API - '''27 ноября 23:59''', мягкий дедлайн по Fast API - '''3 декабря 23:59''' |
| − | # | + | # Градиентный спуск. Мягкий дедлайн - '''12 декабря 23:59''' |
| − | # | + | # Линейная классификация (+ парсинг) - '''23 декабря 23:59''' |
| − | # | + | # Деревья и леса - '''2 февраля 23:59''' |
| − | # | + | # Бустинг и кластеризация - '''16 февраля 23:59''' |
| − | # | + | # Uplift-моделирование - '''28 февраля 23:59''' |
# | # | ||
| − | + | Дедлайн по Stepik - конец курса ('''20 марта 23:59'''). | |
| − | + | ||
| − | + | ||
| − | + | ||
| − | + | ||
Текущая версия на 20:36, 25 августа 2025
Содержание
О курсе
Занятия проводятся в zoom по понедельникам/вторникам/средам (в зависимости от недели) вечером.
Онлайн-курс в дополнение к парам: Практический Machine Learning
В курсе нет явного разделения на base и pro группы на вебинарах, но все вебинары будут помечены одним из трех тегов:
1️⃣base - вебинар, который рекомендуется тем, у кого нет или немного знаний по ML
2️⃣pro - вебинар, который рекомендуется тем, у кого средние или хорошие знания по ML
3️⃣expert - вебинар от приглашенного эксперта
🍊Вы можете ходить на вебинары по своему выбору. На всех вебинарах будет свой сюжет. Нигде не будет повторения тем
🍊А вот при сдаче домашних заданий вы должны определиться, в какую группу сдаете: base или pro. ДЗ будут разделены по уровню сложности (хотя некоторые иногда будут дублироваться)
🍊Распределительного теста НЕ БУДЕТ, так как у нас нет фиксированного разделения на группы на вебинарах. Однако если вы чувствуете себя в экспертом в ML, а также у вас есть подтверждение ваших знаний (пройденный курс по МО-1 и МО-2 на ПМИ или аналогичные по сложности другие курсы) и хотите попасть на fast track - выполнение большого проекта вместо курса, то заполните форму до 5 ноября 23:59 (в зависимости от числа желающих мы либо просто проведем с каждым мини-собеседование и допустим или не допустим до fast track, либо проведем тест+собеседование)
❗️❗️❗️Перед большинством занятий вам необходимо изучить базовую теорию и практику в курсе на Stepik (список нужных уроков и модулей будет появляться за несколько дней до занятия). Здесь все строго: если материал из Stepik не изучен, вам не имеет смысла приходить на занятие - для того, чтобы курс получился хорошим и содержательным требуются не только усилия команды курса, но и ваши. Так что сразу об этом предупреждаем.❗️❗️❗️
Контакты
Преподаватель: Елена Кантонистова
| Ассистент | Контакты |
|---|---|
| Сабрина Садиех | @sabrina_sadiekh |
| Роман Залесинский | @roman_zalesinskii |
| Кирилл Малюшитский | @malyushitsky |
| Георгий Чешко | @aketa147 |
| Тимур Акимов | @takimov |
| Алена Голубович | @alonagolubovich |
| Виктор Тихомиров | @onthebox |
| Глеб Булыгин | @jdbelg |
| Яна Журович | @janinaal |
Материалы курса
Ссылка на GitHub с материалами курса: GitHub repository
| Блок | Тема |
|---|---|
| 1 | Введение в машинное обучение. Основы линейной регресии (base) |
| 2 | Некоторые аспекты продвинутого EDA. Дашборды (base+pro) |
| 3 | Линейная регрессия подробнее (pro) |
| 4 | Метрики качества линейной регрессии. Практика (base) |
| 5 | Решение задачи многомерной линейной регрессии через OLS. Функционалы потерь линейной регрессии и их математическое обоснование (pro) |
| 6 | Регуляризация. Кодирование категориальных признаков. Практика (base) |
| 7 | Связь метрик с бизнесом. Продвинутая работа с признаками (pro) |
| 8 | Градиентный спуск (base) |
| 9 | Модификации градиентного спуска (pro) |
| 10 | Задача классификации. Базовые метрики качества классификации. Логистическая регрессия (base) |
| 11 | Интегральные метрики качества классификации. Логистическая регрессия. Дисбаланс классов. (base+pro) |
| 12 | SVM. Калибровка вероятностей. (base) |
| 13 | SHAP, Permutation Importance. Ядровой SVM. (pro) |
| 14 | Основы работы с текстами методами машинного обучения (base) |
| 15 | Отбор признаков и PCA для снижения размерности. (base+pro) |
| 16 | Деревья. Разложение ошибки на шум, смещение и разброс, бэггинг и случайный лес. (base+pro) |
| 17 | Бустинг. Современные имплементации градиентного бустинга (base+pro) |
| 18 | Кластеризация, метрики качества кластеризации. Визуализация. (base+pro) |
| 19 | Как проходить собеседования по машинному обучению? (base+pro) |
| 20 | Методы снижения размерности (pro) |
| 21 | Uplift-моделирование (base+pro) |
| 22 | Методы поиска аномалий (base+pro) |
| 23 | Рекомендательные системы (base+pro) |
Записи консультаций
Формула оценивания
Формула оценки: 0.25 * Stepik + 0.6 * среднее за 6 лучших ДЗ + 0.15 * Экзамен
Автоматов нет, но при успешном выполнении Stepik и ДЗ (и с учетом бонусов) и без экзамена можно получить 9.
Домашние задания
Задания сдаются в anytask: https://anytask.org/course/1151
Инвайт для Base: ChlwVVD
Инвайт для Pro: Uhxgzv1
Условия домашних заданий находятся здесь.
- EDA и Линейная регрессия с инференсом. Мягкий дедлайн без Fast API - 27 ноября 23:59, мягкий дедлайн по Fast API - 3 декабря 23:59
- Градиентный спуск. Мягкий дедлайн - 12 декабря 23:59
- Линейная классификация (+ парсинг) - 23 декабря 23:59
- Деревья и леса - 2 февраля 23:59
- Бустинг и кластеризация - 16 февраля 23:59
- Uplift-моделирование - 28 февраля 23:59
Дедлайн по Stepik - конец курса (20 марта 23:59).