ИИ Машинное обучение (ИИ24, 2-3 модули) — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
(Новая страница: «==О курсе== Занятия проводятся в [ Zoom] '''по ...<день>... в ...<время>...''' Онлайн-курс в дополнение…»)
 
 
(не показано 40 промежуточных версии этого же участника)
Строка 1: Строка 1:
 
==О курсе==
 
==О курсе==
  
Занятия проводятся в [ Zoom] '''по ...<день>... в ...<время>...'''
+
Занятия проводятся в zoom '''по понедельникам/вторникам/средам (в зависимости от недели) вечером.'''
  
Онлайн-курс в дополнение к парам: [[ online-course link]]
+
Онлайн-курс в дополнение к парам: [https://stepik.org/course/125501/syllabus Практический Machine Learning]
  
==Контакты==
 
  
Канал курса в TG: [[ channel link]]
+
В курсе нет явного разделения на base и pro группы на вебинарах, но все вебинары будут помечены одним из трех тегов:
  
Чат курса в TG: [[ chat link]]
+
1️⃣base - вебинар, который рекомендуется тем, у кого нет или немного знаний по ML
 +
 
 +
2️⃣pro - вебинар, который рекомендуется тем, у кого средние или хорошие знания по ML
 +
 
 +
3️⃣expert - вебинар от приглашенного эксперта
 +
 
 +
 
 +
🍊Вы можете ходить на вебинары по своему выбору. На всех вебинарах будет свой сюжет. Нигде не будет повторения тем
 +
 
 +
🍊А вот при сдаче домашних заданий вы должны определиться, в какую группу сдаете: base или pro. ДЗ будут разделены по уровню сложности (хотя некоторые иногда будут дублироваться)
 +
 
 +
🍊Распределительного теста НЕ БУДЕТ, так как у нас нет фиксированного разделения на группы на вебинарах. Однако если вы чувствуете себя в экспертом в ML, а также у вас есть подтверждение ваших знаний (пройденный курс по МО-1 и МО-2 на ПМИ или аналогичные по сложности другие курсы) и хотите попасть на fast track - выполнение большого проекта вместо курса, то заполните форму до 5 ноября 23:59 (в зависимости от числа желающих мы либо просто проведем с каждым мини-собеседование и допустим или не допустим до fast track, либо проведем тест+собеседование)
 +
 
 +
 
 +
❗️❗️❗️Перед большинством занятий вам необходимо изучить базовую теорию и практику в курсе на Stepik (список нужных уроков и модулей будет появляться за несколько дней до занятия). Здесь все строго: если материал из Stepik не изучен, вам не имеет смысла приходить на занятие - для того, чтобы курс получился хорошим и содержательным требуются не только усилия команды курса, но и ваши. Так что сразу об этом предупреждаем.❗️❗️❗️
 +
 
 +
==Контакты==
  
Преподаватель:  
+
Преподаватель: Елена Кантонистова
  
 
{| class="wikitable"
 
{| class="wikitable"
Строка 17: Строка 32:
 
! Ассистент !! Контакты  
 
! Ассистент !! Контакты  
 
|-
 
|-
| style="background:#eaecf0;" |  ||  
+
| style="background:#eaecf0;" |  Сабрина Садиех || @sabrina_sadiekh
 
|-
 
|-
| style="background:#eaecf0;" |  ||  
+
| style="background:#eaecf0;" |  Роман Залесинский || @roman_zalesinskii
 +
|-
 +
| style="background:#eaecf0;" |  Кирилл Малюшитский || @malyushitsky
 +
|-
 +
| style="background:#eaecf0;" |  Георгий Чешко || @aketa147
 +
|-
 +
| style="background:#eaecf0;" |  Тимур Акимов || @takimov
 +
|-
 +
| style="background:#eaecf0;" |  Алена Голубович || @alonagolubovich
 +
|-
 +
| style="background:#eaecf0;" |  Виктор Тихомиров || @onthebox
 +
|-
 +
| style="background:#eaecf0;" |  Глеб Булыгин || @jdbelg
 +
|-
 +
| style="background:#eaecf0;" |  Яна Журович || @janinaal
 
|}
 
|}
  
 
==Материалы курса==
 
==Материалы курса==
Ссылка на плейлист курса на YouTube: [[ YouTube-playlist]]
 
  
Ссылка на GitHub с материалами курса: [[ GitHub repository]]
+
Ссылка на GitHub с материалами курса: [https://github.com/Murcha1990/ML_AI24/tree/main GitHub repository]
  
 
{| class="wikitable"
 
{| class="wikitable"
 
|-
 
|-
  ! Занятие !! Тема !! Дата !! Материалы для самоподготовки к семинарам !! Дополнительные материалы
+
  ! Блок !! Тема  
 
|-
 
|-
| style="background:#eaecf0;" | '''1''' [[ Запись]] || [[ Ноутбук]]  || ...<date>... || ||
+
| style="background:#eaecf0;" | '''1''' || Введение в машинное обучение. Основы линейной регресии (base)
 
|-
 
|-
| style="background:#eaecf0;" | '''2''' [[ Запись]] || [[ Ноутбук]] || ...<date>... || ||
+
| style="background:#eaecf0;" | '''2''' || Некоторые аспекты продвинутого EDA. Дашборды (base+pro)
 
|-
 
|-
| style="background:#eaecf0;" | '''3''' [[ Запись]] || [[ Ноутбук]] || ...<date>... || ||
+
| style="background:#eaecf0;" | '''3''' || Линейная регрессия подробнее (pro)
 
|-
 
|-
| style="background:#eaecf0;" | '''4''' [[ Запись]] || [[ Ноутбук]] || ...<date>... || ||
+
| style="background:#eaecf0;" | '''4''' || Метрики качества линейной регрессии. Практика (base)
 
|-
 
|-
| style="background:#eaecf0;" | '''5''' [[ Запись]] || [[ Ноутбук]] || ...<date>... || ||
+
| style="background:#eaecf0;" | '''5''' || Решение задачи многомерной линейной регрессии через OLS. Функционалы потерь линейной регрессии и их математическое обоснование (pro) 
 
|-
 
|-
| style="background:#eaecf0;" | '''6''' [[ Запись]] || [[ Ноутбук]] || ...<date>... || ||
+
| style="background:#eaecf0;" | '''6''' || Регуляризация. Кодирование категориальных признаков. Практика (base)
 
|-
 
|-
| Конец первого модуля |
+
| style="background:#eaecf0;" | '''7''' || Связь метрик с бизнесом. Продвинутая работа с признаками (pro)
 
|-
 
|-
| style="background:#eaecf0;" | '''7''' [[ Запись]] || [[ Ноутбук]] || ...<date>... || ||  
+
| style="background:#eaecf0;" | '''8''' || Градиентный спуск (base)
 
|-
 
|-
| style="background:#eaecf0;" | '''8''' [[ Запись]] || [[ Ноутбук]] || ...<date>... || ||  
+
| style="background:#eaecf0;" | '''9''' || Модификации градиентного спуска (pro)
 
|-
 
|-
| style="background:#eaecf0;" | '''9''' [[ Запись]] || [[ Ноутбук]] || ...<date>... || ||
+
| style="background:#eaecf0;" | '''10''' || Задача классификации. Базовые метрики качества классификации. Логистическая регрессия (base)
 
|-
 
|-
| style="background:#eaecf0;" | '''10''' [[ Запись]] || [[ Ноутбук]] || ...<date>... || ||
+
| style="background:#eaecf0;" | '''11''' || Интегральные метрики качества классификации. Логистическая регрессия. Дисбаланс классов. (base+pro)
 
|-
 
|-
| style="background:#eaecf0;" | '''11''' [[ Запись]] || [[ Ноутбук]] || ...<date>... || ||
+
| style="background:#eaecf0;" | '''12''' || SVM. Калибровка вероятностей. (base)
 
|-
 
|-
| style="background:#eaecf0;" | '''12''' [[ Запись]] || [[ Ноутбук]] || ...<date>... || ||  
+
| style="background:#eaecf0;" | '''13''' || SHAP, Permutation Importance. Ядровой SVM. (pro)
 +
|-
 +
| style="background:#eaecf0;" | '''14''' || Основы работы с текстами методами машинного обучения (base)
 +
|-
 +
| style="background:#eaecf0;" | '''15''' || Отбор признаков и PCA для снижения размерности. (base+pro)
 +
|-
 +
| style="background:#eaecf0;" | '''16''' || Деревья. Разложение ошибки на шум, смещение и разброс, бэггинг и случайный лес. (base+pro)
 +
|-
 +
| style="background:#eaecf0;" | '''17''' || Бустинг. Современные имплементации градиентного бустинга (base+pro)
 +
|-
 +
| style="background:#eaecf0;" | '''18''' || Кластеризация, метрики качества кластеризации. Визуализация. (base+pro)
 +
|-
 +
| style="background:#eaecf0;" | '''19''' || Как проходить собеседования по машинному обучению? (base+pro)
 +
|-
 +
| style="background:#eaecf0;" | '''20''' || Методы снижения размерности (pro)
 +
|-
 +
| style="background:#eaecf0;" | '''21''' || Uplift-моделирование (base+pro)
 +
|-
 +
| style="background:#eaecf0;" | '''22''' || Методы поиска аномалий (base+pro)
 +
|-
 +
| style="background:#eaecf0;" | '''23''' || Рекомендательные системы (base+pro)
 
|-
 
|-
 
|}
 
|}
  
 
=== Записи консультаций ===
 
=== Записи консультаций ===
 
  
 
==Формула оценивания==
 
==Формула оценивания==
  
Оценка = ...<вес 1>...*О<sub>...<форма контроля 1>...</sub> + ...<вес 2>...*О<sub>...<форма контроля 2>...</sub> + ...<вес 3>...*О<sub>...<форма контроля 3>...</sub>
+
Формула оценки: '''0.25 * Stepik + 0.6 * среднее за 6 лучших ДЗ + 0.15 * Экзамен'''
  
 +
''Автоматов нет, но при успешном выполнении Stepik и ДЗ (и с учетом бонусов) и без экзамена можно получить 9.
 +
''
  
 
== Домашние задания ==
 
== Домашние задания ==
#
 
#
 
#
 
#
 
  
== Литература ==
+
Задания сдаются в anytask: https://anytask.org/course/1151
#  
+
 
#  
+
Инвайт для Base: '''ChlwVVD'''
#  
+
 
 +
Инвайт для Pro: '''Uhxgzv1'''
 +
 
 +
 
 +
Условия домашних заданий находятся [https://github.com/Murcha1990/ML_AI24/tree/main/Hometasks здесь].
 +
 
 +
# EDA и Линейная регрессия с инференсом. Мягкий дедлайн без Fast API - '''27 ноября 23:59''', мягкий дедлайн по Fast API - '''3 декабря 23:59'''
 +
# Градиентный спуск. Мягкий дедлайн - '''12 декабря 23:59'''
 +
# Линейная классификация (+ парсинг) - '''23 декабря 23:59'''
 +
# Деревья и леса - '''2 февраля 23:59'''
 +
# Бустинг и кластеризация - '''16 февраля 23:59'''
 +
# Uplift-моделирование - '''28 февраля 23:59'''
 
#
 
#
 +
 +
Дедлайн по Stepik - конец курса ('''20 марта 23:59''').

Текущая версия на 20:36, 25 августа 2025

О курсе

Занятия проводятся в zoom по понедельникам/вторникам/средам (в зависимости от недели) вечером.

Онлайн-курс в дополнение к парам: Практический Machine Learning


В курсе нет явного разделения на base и pro группы на вебинарах, но все вебинары будут помечены одним из трех тегов:

1️⃣base - вебинар, который рекомендуется тем, у кого нет или немного знаний по ML

2️⃣pro - вебинар, который рекомендуется тем, у кого средние или хорошие знания по ML

3️⃣expert - вебинар от приглашенного эксперта


🍊Вы можете ходить на вебинары по своему выбору. На всех вебинарах будет свой сюжет. Нигде не будет повторения тем

🍊А вот при сдаче домашних заданий вы должны определиться, в какую группу сдаете: base или pro. ДЗ будут разделены по уровню сложности (хотя некоторые иногда будут дублироваться)

🍊Распределительного теста НЕ БУДЕТ, так как у нас нет фиксированного разделения на группы на вебинарах. Однако если вы чувствуете себя в экспертом в ML, а также у вас есть подтверждение ваших знаний (пройденный курс по МО-1 и МО-2 на ПМИ или аналогичные по сложности другие курсы) и хотите попасть на fast track - выполнение большого проекта вместо курса, то заполните форму до 5 ноября 23:59 (в зависимости от числа желающих мы либо просто проведем с каждым мини-собеседование и допустим или не допустим до fast track, либо проведем тест+собеседование)


❗️❗️❗️Перед большинством занятий вам необходимо изучить базовую теорию и практику в курсе на Stepik (список нужных уроков и модулей будет появляться за несколько дней до занятия). Здесь все строго: если материал из Stepik не изучен, вам не имеет смысла приходить на занятие - для того, чтобы курс получился хорошим и содержательным требуются не только усилия команды курса, но и ваши. Так что сразу об этом предупреждаем.❗️❗️❗️

Контакты

Преподаватель: Елена Кантонистова

Ассистент Контакты
Сабрина Садиех @sabrina_sadiekh
Роман Залесинский @roman_zalesinskii
Кирилл Малюшитский @malyushitsky
Георгий Чешко @aketa147
Тимур Акимов @takimov
Алена Голубович @alonagolubovich
Виктор Тихомиров @onthebox
Глеб Булыгин @jdbelg
Яна Журович @janinaal

Материалы курса

Ссылка на GitHub с материалами курса: GitHub repository

Блок Тема
1 Введение в машинное обучение. Основы линейной регресии (base)
2 Некоторые аспекты продвинутого EDA. Дашборды (base+pro)
3 Линейная регрессия подробнее (pro)
4 Метрики качества линейной регрессии. Практика (base)
5 Решение задачи многомерной линейной регрессии через OLS. Функционалы потерь линейной регрессии и их математическое обоснование (pro)
6 Регуляризация. Кодирование категориальных признаков. Практика (base)
7 Связь метрик с бизнесом. Продвинутая работа с признаками (pro)
8 Градиентный спуск (base)
9 Модификации градиентного спуска (pro)
10 Задача классификации. Базовые метрики качества классификации. Логистическая регрессия (base)
11 Интегральные метрики качества классификации. Логистическая регрессия. Дисбаланс классов. (base+pro)
12 SVM. Калибровка вероятностей. (base)
13 SHAP, Permutation Importance. Ядровой SVM. (pro)
14 Основы работы с текстами методами машинного обучения (base)
15 Отбор признаков и PCA для снижения размерности. (base+pro)
16 Деревья. Разложение ошибки на шум, смещение и разброс, бэггинг и случайный лес. (base+pro)
17 Бустинг. Современные имплементации градиентного бустинга (base+pro)
18 Кластеризация, метрики качества кластеризации. Визуализация. (base+pro)
19 Как проходить собеседования по машинному обучению? (base+pro)
20 Методы снижения размерности (pro)
21 Uplift-моделирование (base+pro)
22 Методы поиска аномалий (base+pro)
23 Рекомендательные системы (base+pro)

Записи консультаций

Формула оценивания

Формула оценки: 0.25 * Stepik + 0.6 * среднее за 6 лучших ДЗ + 0.15 * Экзамен

Автоматов нет, но при успешном выполнении Stepik и ДЗ (и с учетом бонусов) и без экзамена можно получить 9.

Домашние задания

Задания сдаются в anytask: https://anytask.org/course/1151

Инвайт для Base: ChlwVVD

Инвайт для Pro: Uhxgzv1


Условия домашних заданий находятся здесь.

  1. EDA и Линейная регрессия с инференсом. Мягкий дедлайн без Fast API - 27 ноября 23:59, мягкий дедлайн по Fast API - 3 декабря 23:59
  2. Градиентный спуск. Мягкий дедлайн - 12 декабря 23:59
  3. Линейная классификация (+ парсинг) - 23 декабря 23:59
  4. Деревья и леса - 2 февраля 23:59
  5. Бустинг и кластеризация - 16 февраля 23:59
  6. Uplift-моделирование - 28 февраля 23:59

Дедлайн по Stepik - конец курса (20 марта 23:59).