ИИ Машинное обучение (ИИ24, 2-3 модули) — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
Строка 110: Строка 110:
 
# Градиентный спуск. Мягкий дедлайн - '''12 декабря 23:59'''  
 
# Градиентный спуск. Мягкий дедлайн - '''12 декабря 23:59'''  
 
# Линейная классификация (+ парсинг) - '''23 декабря 23:59'''
 
# Линейная классификация (+ парсинг) - '''23 декабря 23:59'''
#
+
# Деревья и леса - '''25 января 23:59'''
 
#  
 
#  
 
#  
 
#  

Версия 20:29, 6 января 2025

О курсе

Занятия проводятся в zoom по понедельникам/вторникам/средам (в зависимости от недели) вечером.

Онлайн-курс в дополнение к парам: Практический Machine Learning


В курсе нет явного разделения на base и pro группы на вебинарах, но все вебинары будут помечены одним из трех тегов:

1️⃣base - вебинар, который рекомендуется тем, у кого нет или немного знаний по ML

2️⃣pro - вебинар, который рекомендуется тем, у кого средние или хорошие знания по ML

3️⃣expert - вебинар от приглашенного эксперта


🍊Вы можете ходить на вебинары по своему выбору. На всех вебинарах будет свой сюжет. Нигде не будет повторения тем

🍊А вот при сдаче домашних заданий вы должны определиться, в какую группу сдаете: base или pro. ДЗ будут разделены по уровню сложности (хотя некоторые иногда будут дублироваться)

🍊Распределительного теста НЕ БУДЕТ, так как у нас нет фиксированного разделения на группы на вебинарах. Однако если вы чувствуете себя в экспертом в ML, а также у вас есть подтверждение ваших знаний (пройденный курс по МО-1 и МО-2 на ПМИ или аналогичные по сложности другие курсы) и хотите попасть на fast track - выполнение большого проекта вместо курса, то заполните форму до 5 ноября 23:59 (в зависимости от числа желающих мы либо просто проведем с каждым мини-собеседование и допустим или не допустим до fast track, либо проведем тест+собеседование)


❗️❗️❗️Перед большинством занятий вам необходимо изучить базовую теорию и практику в курсе на Stepik (список нужных уроков и модулей будет появляться за несколько дней до занятия). Здесь все строго: если материал из Stepik не изучен, вам не имеет смысла приходить на занятие - для того, чтобы курс получился хорошим и содержательным требуются не только усилия команды курса, но и ваши. Так что сразу об этом предупреждаем.❗️❗️❗️

Контакты

Преподаватель: Елена Кантонистова

Ассистент Контакты
Сабрина Садиех @sabrina_sadiekh
Роман Залесинский @roman_zalesinskii
Кирилл Малюшитский @malyushitsky
Георгий Чешко @aketa147
Тимур Акимов @takimov
Алена Голубович @alonagolubovich
Виктор Тихомиров @onthebox
Глеб Булыгин @jdbelg
Яна Журович @janinaal

Материалы курса

Ссылка на GitHub с материалами курса: GitHub repository

Занятие Тема
1 Введение в машинное обучение. Основы линейной регресии (base)
2 Некоторые аспекты продвинутого EDA. Дашборды (base+pro)
3 Линейная регрессия подробнее (pro)
4 Метрики качества линейной регрессии. Практика (base)
5 Решение задачи многомерной линейной регрессии через OLS. Функционалы потерь линейной регрессии и их математическое обоснование (pro)
6 Регуляризация. Кодирование категориальных признаков. Практика (base)
7 Связь метрик с бизнесом. Продвинутая работа с признаками (pro)
8 Градиентный спуск (base)
9 Модификации градиентного спуска (pro)
10 Задача классификации. Базовые метрики качества классификации. Логистическая регрессия (base)
11 Интегральные метрики качества классификации. Логистическая регрессия. Дисбаланс классов. (base+pro)
12 SVM. Калибровка вероятностей. (base)
13 SHAP, Permutation Importance. Ядровой SVM. (pro)

Записи консультаций

Формула оценивания

Формула оценки: 0.25 * Stepik + 0.6 * среднее за 6 лучших ДЗ + 0.15 * Экзамен

Автоматов нет, но при успешном выполнении Stepik и ДЗ (и с учетом бонусов) и без экзамена можно получить 9.

Домашние задания

Задания сдаются в anytask: https://anytask.org/course/1151

Инвайт для Base: ChlwVVD

Инвайт для Pro: Uhxgzv1


Условия домашних заданий находятся здесь.

  1. EDA и Линейная регрессия с инференсом. Мягкий дедлайн без Fast API - 27 ноября 23:59, мягкий дедлайн по Fast API - 3 декабря 23:59
  2. Градиентный спуск. Мягкий дедлайн - 12 декабря 23:59
  3. Линейная классификация (+ парсинг) - 23 декабря 23:59
  4. Деревья и леса - 25 января 23:59

Дедлайн по Stepik - конец курса (20 марта 23:59).

Литература