ИИ Машинное обучение (ИИ24, 2-3 модули) — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
 
(не показаны 22 промежуточные версии этого же участника)
Строка 40: Строка 40:
 
| style="background:#eaecf0;" |  Георгий Чешко || @aketa147  
 
| style="background:#eaecf0;" |  Георгий Чешко || @aketa147  
 
|-
 
|-
| style="background:#eaecf0;" |  Александр Вишняков || @BedTed
+
| style="background:#eaecf0;" |  Тимур Акимов || @takimov
 
|-
 
|-
 
| style="background:#eaecf0;" |  Алена Голубович || @alonagolubovich  
 
| style="background:#eaecf0;" |  Алена Голубович || @alonagolubovich  
Строка 52: Строка 52:
  
 
==Материалы курса==
 
==Материалы курса==
Ссылка на плейлист курса на YouTube: [[ YouTube-playlist]]
 
  
Ссылка на GitHub с материалами курса: [[ GitHub repository]]
+
Ссылка на GitHub с материалами курса: [https://github.com/Murcha1990/ML_AI24/tree/main GitHub repository]
  
 
{| class="wikitable"
 
{| class="wikitable"
 
|-
 
|-
  ! Занятие !! Тема !! Дата !! Материалы !! Дополнительные материалы
+
  ! Блок !! Тема  
 
|-
 
|-
| style="background:#eaecf0;" | '''1''' || Введение в машинное обучение. Основы линейной регресии (base) ||  || ||
+
| style="background:#eaecf0;" | '''1''' || Введение в машинное обучение. Основы линейной регресии (base)  
 
|-
 
|-
| style="background:#eaecf0;" | '''2''' || Некоторые аспекты продвинутого EDA. Дашборды (base+pro) ||  ||  ||
+
| style="background:#eaecf0;" | '''2''' || Некоторые аспекты продвинутого EDA. Дашборды (base+pro)  
 
|-
 
|-
| style="background:#eaecf0;" | '''3''' || Линейная регрессия подробнее (pro) ||  ||  ||
+
| style="background:#eaecf0;" | '''3''' || Линейная регрессия подробнее (pro)
 
|-
 
|-
| style="background:#eaecf0;" | '''4''' ||  ||  ||  ||
+
| style="background:#eaecf0;" | '''4''' ||  Метрики качества линейной регрессии. Практика (base)
 
|-
 
|-
| style="background:#eaecf0;" | '''5''' || || || ||  
+
| style="background:#eaecf0;" | '''5''' || Решение задачи многомерной линейной регрессии через OLS. Функционалы потерь линейной регрессии и их математическое обоснование (pro) 
 +
|-
 +
| style="background:#eaecf0;" | '''6''' || Регуляризация. Кодирование категориальных признаков. Практика (base)
 +
|-
 +
| style="background:#eaecf0;" | '''7''' || Связь метрик с бизнесом. Продвинутая работа с признаками (pro)
 +
|-
 +
| style="background:#eaecf0;" | '''8''' || Градиентный спуск (base)
 +
|-
 +
| style="background:#eaecf0;" | '''9''' || Модификации градиентного спуска (pro)
 +
|-
 +
| style="background:#eaecf0;" | '''10''' || Задача классификации. Базовые метрики качества классификации. Логистическая регрессия (base)
 +
|-
 +
| style="background:#eaecf0;" | '''11''' || Интегральные метрики качества классификации. Логистическая регрессия. Дисбаланс классов. (base+pro)
 +
|-
 +
| style="background:#eaecf0;" | '''12''' || SVM. Калибровка вероятностей. (base)
 +
|-
 +
| style="background:#eaecf0;" | '''13''' || SHAP, Permutation Importance. Ядровой SVM. (pro)
 +
|-
 +
| style="background:#eaecf0;" | '''14''' || Основы работы с текстами методами машинного обучения (base)
 +
|-
 +
| style="background:#eaecf0;" | '''15''' || Отбор признаков и PCA для снижения размерности. (base+pro)
 +
|-
 +
| style="background:#eaecf0;" | '''16''' || Деревья. Разложение ошибки на шум, смещение и разброс, бэггинг и случайный лес. (base+pro)
 +
|-
 +
| style="background:#eaecf0;" | '''17''' || Бустинг. Современные имплементации градиентного бустинга (base+pro)
 +
|-
 +
| style="background:#eaecf0;" | '''18''' || Кластеризация, метрики качества кластеризации. Визуализация. (base+pro)
 +
|-
 +
| style="background:#eaecf0;" | '''19''' || Как проходить собеседования по машинному обучению? (base+pro)
 +
|-
 +
| style="background:#eaecf0;" | '''20''' || Методы снижения размерности (pro)
 +
|-
 +
| style="background:#eaecf0;" | '''21''' || Uplift-моделирование (base+pro)
 +
|-
 +
| style="background:#eaecf0;" | '''22''' || Методы поиска аномалий (base+pro)
 +
|-
 +
| style="background:#eaecf0;" | '''23''' || Рекомендательные системы (base+pro)
 
|-
 
|-
 
|}
 
|}
Строка 82: Строка 117:
  
 
== Домашние задания ==
 
== Домашние задания ==
 +
 +
Задания сдаются в anytask: https://anytask.org/course/1151
 +
 +
Инвайт для Base: '''ChlwVVD'''
 +
 +
Инвайт для Pro: '''Uhxgzv1'''
 +
  
 
Условия домашних заданий находятся [https://github.com/Murcha1990/ML_AI24/tree/main/Hometasks здесь].
 
Условия домашних заданий находятся [https://github.com/Murcha1990/ML_AI24/tree/main/Hometasks здесь].
  
# EDA и Линейная регрессия с инференсом
+
# EDA и Линейная регрессия с инференсом. Мягкий дедлайн без Fast API - '''27 ноября 23:59''', мягкий дедлайн по Fast API - '''3 декабря 23:59'''
#  
+
# Градиентный спуск. Мягкий дедлайн - '''12 декабря 23:59'''
#  
+
# Линейная классификация (+ парсинг) - '''23 декабря 23:59'''
#
+
# Деревья и леса - '''2 февраля 23:59'''
#  
+
# Бустинг и кластеризация - '''16 февраля 23:59'''
#  
+
# Uplift-моделирование - '''28 февраля 23:59'''
 
#
 
#
  
== Литература ==
+
Дедлайн по Stepik - конец курса ('''20 марта 23:59''').
#
+
#
+
#
+
#
+

Текущая версия на 20:36, 25 августа 2025

О курсе

Занятия проводятся в zoom по понедельникам/вторникам/средам (в зависимости от недели) вечером.

Онлайн-курс в дополнение к парам: Практический Machine Learning


В курсе нет явного разделения на base и pro группы на вебинарах, но все вебинары будут помечены одним из трех тегов:

1️⃣base - вебинар, который рекомендуется тем, у кого нет или немного знаний по ML

2️⃣pro - вебинар, который рекомендуется тем, у кого средние или хорошие знания по ML

3️⃣expert - вебинар от приглашенного эксперта


🍊Вы можете ходить на вебинары по своему выбору. На всех вебинарах будет свой сюжет. Нигде не будет повторения тем

🍊А вот при сдаче домашних заданий вы должны определиться, в какую группу сдаете: base или pro. ДЗ будут разделены по уровню сложности (хотя некоторые иногда будут дублироваться)

🍊Распределительного теста НЕ БУДЕТ, так как у нас нет фиксированного разделения на группы на вебинарах. Однако если вы чувствуете себя в экспертом в ML, а также у вас есть подтверждение ваших знаний (пройденный курс по МО-1 и МО-2 на ПМИ или аналогичные по сложности другие курсы) и хотите попасть на fast track - выполнение большого проекта вместо курса, то заполните форму до 5 ноября 23:59 (в зависимости от числа желающих мы либо просто проведем с каждым мини-собеседование и допустим или не допустим до fast track, либо проведем тест+собеседование)


❗️❗️❗️Перед большинством занятий вам необходимо изучить базовую теорию и практику в курсе на Stepik (список нужных уроков и модулей будет появляться за несколько дней до занятия). Здесь все строго: если материал из Stepik не изучен, вам не имеет смысла приходить на занятие - для того, чтобы курс получился хорошим и содержательным требуются не только усилия команды курса, но и ваши. Так что сразу об этом предупреждаем.❗️❗️❗️

Контакты

Преподаватель: Елена Кантонистова

Ассистент Контакты
Сабрина Садиех @sabrina_sadiekh
Роман Залесинский @roman_zalesinskii
Кирилл Малюшитский @malyushitsky
Георгий Чешко @aketa147
Тимур Акимов @takimov
Алена Голубович @alonagolubovich
Виктор Тихомиров @onthebox
Глеб Булыгин @jdbelg
Яна Журович @janinaal

Материалы курса

Ссылка на GitHub с материалами курса: GitHub repository

Блок Тема
1 Введение в машинное обучение. Основы линейной регресии (base)
2 Некоторые аспекты продвинутого EDA. Дашборды (base+pro)
3 Линейная регрессия подробнее (pro)
4 Метрики качества линейной регрессии. Практика (base)
5 Решение задачи многомерной линейной регрессии через OLS. Функционалы потерь линейной регрессии и их математическое обоснование (pro)
6 Регуляризация. Кодирование категориальных признаков. Практика (base)
7 Связь метрик с бизнесом. Продвинутая работа с признаками (pro)
8 Градиентный спуск (base)
9 Модификации градиентного спуска (pro)
10 Задача классификации. Базовые метрики качества классификации. Логистическая регрессия (base)
11 Интегральные метрики качества классификации. Логистическая регрессия. Дисбаланс классов. (base+pro)
12 SVM. Калибровка вероятностей. (base)
13 SHAP, Permutation Importance. Ядровой SVM. (pro)
14 Основы работы с текстами методами машинного обучения (base)
15 Отбор признаков и PCA для снижения размерности. (base+pro)
16 Деревья. Разложение ошибки на шум, смещение и разброс, бэггинг и случайный лес. (base+pro)
17 Бустинг. Современные имплементации градиентного бустинга (base+pro)
18 Кластеризация, метрики качества кластеризации. Визуализация. (base+pro)
19 Как проходить собеседования по машинному обучению? (base+pro)
20 Методы снижения размерности (pro)
21 Uplift-моделирование (base+pro)
22 Методы поиска аномалий (base+pro)
23 Рекомендательные системы (base+pro)

Записи консультаций

Формула оценивания

Формула оценки: 0.25 * Stepik + 0.6 * среднее за 6 лучших ДЗ + 0.15 * Экзамен

Автоматов нет, но при успешном выполнении Stepik и ДЗ (и с учетом бонусов) и без экзамена можно получить 9.

Домашние задания

Задания сдаются в anytask: https://anytask.org/course/1151

Инвайт для Base: ChlwVVD

Инвайт для Pro: Uhxgzv1


Условия домашних заданий находятся здесь.

  1. EDA и Линейная регрессия с инференсом. Мягкий дедлайн без Fast API - 27 ноября 23:59, мягкий дедлайн по Fast API - 3 декабря 23:59
  2. Градиентный спуск. Мягкий дедлайн - 12 декабря 23:59
  3. Линейная классификация (+ парсинг) - 23 декабря 23:59
  4. Деревья и леса - 2 февраля 23:59
  5. Бустинг и кластеризация - 16 февраля 23:59
  6. Uplift-моделирование - 28 февраля 23:59

Дедлайн по Stepik - конец курса (20 марта 23:59).