Основы машинного обучения/2023 — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
(Добавлен семинар 2)
(Добавлена лекция 9)
(не показаны 23 промежуточные версии 3 участников)
Строка 91: Строка 91:
  
 
'''Лекция 2''' (25.01.2023). Виды задач и виды признаков. Метод k ближайших соседей для классификации. Вычисление расстояний для числовых данных. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/lectures/lecture02-knn.pdf Слайды]] [[https://youtu.be/X081VuXB1og Запись лекции]]
 
'''Лекция 2''' (25.01.2023). Виды задач и виды признаков. Метод k ближайших соседей для классификации. Вычисление расстояний для числовых данных. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/lectures/lecture02-knn.pdf Слайды]] [[https://youtu.be/X081VuXB1og Запись лекции]]
 +
 +
'''Лекция 3''' (01.02.2023). Измерение ошибки в задачах классификации. Обобщающая способность. Проверка обобщающей способности: отложенная выборка и кросс-валидация. Метод k ближайших соседей. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/lectures/lecture03-knn.pdf Слайды]] [[https://www.youtube.com/watch?v=ZcDSama450c Запись лекции]]
 +
 +
'''Лекция 4''' (08.02.2023). Модель линейной регрессии. Подготовка данных для линейной регрессии. MSE для линейной регрессии в матричной форме. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/lectures/lecture04-linregr.pdf Слайды]] [[https://youtu.be/8RAXDT_5_js Запись лекции]]
 +
 +
'''Лекция 5''' (15.02.2023). Модель линейной регрессии. Подготовка данных для линейной регрессии. Переобучение и регуляризация линейных моделей. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/lectures/lecture05-linregr.pdf Слайды]] [[https://youtu.be/QyJWSupeRBc Запись лекции]]
 +
 +
'''Лекция 6''' (22.02.2023). Линейная регрессия и градиентный спуск.[[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/lectures/lecture06-linregr.pdf Слайды]] [[https://youtu.be/x0evHCFZjFc Запись лекции]]
 +
 +
'''Лекция 7''' (01.03.2023). Функции потерь в регрессии. Линейная классификация. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/lectures/lecture07-linregr.pdf Слайды]] [[https://youtu.be/6bf-hIuB_E8 Запись лекции]]
 +
 +
'''Лекция 8''' (15.03.2023). Линейная классификация. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/lectures/lecture08-linclass.pdf Слайды]] [[https://youtu.be/WcAoLATW0sI Запись лекции]]
 +
 +
'''Лекция 9''' (22.03.2023). Метрики качества классификации. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/lectures/lecture09-linclass.pdf Слайды]] [[https://youtu.be/k2vNaBX4jUo Запись лекции]]
  
 
== Семинары ==
 
== Семинары ==
  
 
'''Семинар 1''' (25.01.2023). Немного про Jupyter notebook и numpy. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/seminars/sem01_numpy/sem01_numpy.ipynb Ноутбук]]
 
'''Семинар 1''' (25.01.2023). Немного про Jupyter notebook и numpy. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/seminars/sem01_numpy/sem01_numpy.ipynb Ноутбук]]
 
  
 
'''Семинар 2''' (01.02.2023). Объектно-ориентированное программирование. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/seminars/sem02_OOP/sem02_OOP.ipynb Ноутбук]]
 
'''Семинар 2''' (01.02.2023). Объектно-ориентированное программирование. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/seminars/sem02_OOP/sem02_OOP.ipynb Ноутбук]]
 +
 +
'''Семинар 3''' (08.02.2023). pandas. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/seminars/sem03_pandas/sem03_pandas.ipynb Ноутбук]]
 +
 +
'''Семинар 4''' (15.02.2023). Визуализация данных. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/seminars/sem04_plots/sem04_visualization_task.ipynb Ноутбук]]
 +
 +
'''Семинар 5''' (22.02.2023). Введение в sklearn. KNN [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/seminars/sem05_sklearn_knn/sem05-sklearn-knn.ipynb Ноутбук]]
 +
 +
'''Семинар 6''' (01.03.2023). Линейная регрессия [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/seminars/sem06_linreg/sem06_linreg_task.ipynb Ноутбук]]
 +
 +
'''Семинар 7''' (15.03.2023). Градиентный спуск [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/seminars/sem07_gd/sem07_gd.ipynb Ноутбук]]
 +
 +
'''Семинар 8''' (22.03.2023). Бинарная линейная классификация [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/seminars/sem_08_linclass/sem08_linclass.ipynb Ноутбук]]
  
 
== Консультации ==
 
== Консультации ==
Строка 106: Строка 131:
  
  
'''Практическое задание 1 - numpy''' Мягкий дедлайн - 01.02.2023 23:59 МСК, Жесткий дедлайн 06.02.2023 23:59 МСК. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/homeworks/hw01-numpy.ipynb Ноутбук]]
+
'''Практическое задание 1 - numpy''' Мягкий дедлайн: 01.02.2023 23:59 МСК, Жесткий дедлайн: 06.02.2023 23:59 МСК. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/homeworks/hw01-numpy.ipynb Ноутбук]]
 +
 
 +
'''Практическое задание 2 - pandas''' Мягкий дедлайн: 16.02.2023 23:59 МСК, Жесткий дедлайн: 19.02.2023 23:59 МСК. [[https://github.com/hse-ds/iad-intro-ds/blob/master/2023/homeworks/hw02_pandas.ipynb Ноутбук]]
 +
 
 +
'''Практическое задание 3 - EDA''' Мягкий дедлайн: 02.03.2023 23:59 МСК, Жесткий дедлайн: 07.03.2023 23:59 МСК. [[https://github.com/hse-ds/iad-intro-ds/tree/master/2023/homeworks/hw03-plots Ноутбук]]
 +
 
 +
'''Практическое задание 4 - kNN, linreg''' Мягкий дедлайн: 23.03.2023 23:59 МСК, Жесткий дедлайн: 29.03.2023 23:59 МСК. [[https://github.com/hse-ds/iad-intro-ds/tree/master/2023/homeworks/hw04-knn-linreg Ноутбук]]
  
 
== Контрольная работа ==
 
== Контрольная работа ==

Версия 19:01, 22 марта 2023

О курсе

Курс читается для студентов 2-го курса майнора ИАД в 3-4 модулях.

Проводится с 2015 года.

Лектор: Соколов Евгений Андреевич

Лекции проходят онлайн по средам в 13:00 в zoom.

Полезные ссылки

Карточка курса и программа

Репозиторий с материалами на GitHub

Записи занятий

Почта для сдачи домашних заданий (на самом деле задания сдаются в AnyTask, но если он не работает, то присылайте на почту): hse.minor.dm+<номер группы>@gmail.com (например, hse.minor.dm+3@gmail.com)

Канал в telegram для объявлений: https://t.me/hse_iad_2023

Чат в telegram (флудилка): https://t.me/+rnVX7uhGa71kZTBi (но рекомендуем в начале задавать вопросы в чате вашей группы)

Ссылка на курс в Anytask: https://anytask.org/course/1004

Таблица с оценками: https://docs.google.com/spreadsheets/d/1s8f-IpiWjsIhdPotECDLfyd20kCE7IkL-5mGRLpqFFg/edit?usp=sharing

Семинары

Группа Преподаватель Учебные ассистенты Zoom Время Чат Папка с видео Инвайт в anytask
ИАД-1 Масликов Егор Казюлина Марина,Лапшина Ксения,Масленникова Света Zoom 14:40-16:00 Чат Папка KHsSxag
ИАД-2 Кантонистова Елена Червяков Артем,Сухоруков Георгий Zoom 11:10-12:30 Чат Папка wECwKet
ИАД-3 Косарев Илья Шерман Ксения, Смоленчук Иван Zoom 11:10-12:30 Чат Папка aBaXcyU
ИАД-4 Семенкин Антон Малышева Дарья,Аксенов Антон Zoom 11:10-12:30 Чат Папка HR0n7Jc
ИАД-5 Коган Александра Исмаилов Исмаил,Трофименко Илья Zoom 11:10-12:30 Чат Папка kudM9FO
ИАД-6 Никифоров Михаил Захаров СергейХамрин Роман Zoom 09:30-10:50 Чат Папка JWLBqQ2
ИАД-7 Нарцев Андрей Дядюнов Андрей,Хамрин Роман Zoom 10:00-11:20 Чат Папка X5gYB8v
ИАД-8 Егоров Андрей Горевой Никита, Полтавец Роман Zoom 19:30-21:00 Чат Папка 776AgmZ
ИАД-9 Шмонов Михаил Устименко Николай,Моисеева Анастасия, Климов Данила Zoom 14:40-16:00 Чат Папка dY3CvHn
ИАД-10 Шмонов Михаил Устименко Николай,Моисеева Анастасия, Климов Данила Zoom 16:20-17:40 Чат Папка 5MoBk7M

Правила выставления оценок

В курсе предусмотрено несколько форм контроля знания:

  • Проверочные работы на лекциях, проверяющие знание основных фактов с лекций и семинаров
  • Практические домашние работы на Python
  • Контрольная где-то в середине курса
  • Письменный экзамен

Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:

Oитоговая = Округление(0.4 * ДЗ + 0.1 * ПР + 0.2 * КР + 0.3 * Э)

Округление арифметическое.

Автоматы

Если у вас накопленная оценка >= N баллов и за контрольную >= M баллов, то вы можете перенести эту накопленную в итоговую. Или, если хотите, можете отказаться и пойти на экзамен. Но по умолчанию всем, кто может получить автомат, мы ставим автомат.

Накопленная оценка считается по формуле: (0.4 * ДЗ + 0.1 * ПР + 0.2 * КР) / 0.7.

В критериях на автомат все оценки считаются без округления.

Пороги N и M определяются незадолго до сессии 4 модуля.

Правила сдачи заданий

За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются. Даже при опоздании на одну секунду. Сдавайте заранее.

Два раза студент может сдать домашнее задание после мягкого дедлайна (но до жёсткого) без штрафов.

При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.

При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.

Лекции

Лекция 1 (18.01.2023). Введение в машинное обучение и анализ данных. [Слайды] [Запись лекции]

Лекция 2 (25.01.2023). Виды задач и виды признаков. Метод k ближайших соседей для классификации. Вычисление расстояний для числовых данных. [Слайды] [Запись лекции]

Лекция 3 (01.02.2023). Измерение ошибки в задачах классификации. Обобщающая способность. Проверка обобщающей способности: отложенная выборка и кросс-валидация. Метод k ближайших соседей. [Слайды] [Запись лекции]

Лекция 4 (08.02.2023). Модель линейной регрессии. Подготовка данных для линейной регрессии. MSE для линейной регрессии в матричной форме. [Слайды] [Запись лекции]

Лекция 5 (15.02.2023). Модель линейной регрессии. Подготовка данных для линейной регрессии. Переобучение и регуляризация линейных моделей. [Слайды] [Запись лекции]

Лекция 6 (22.02.2023). Линейная регрессия и градиентный спуск.[Слайды] [Запись лекции]

Лекция 7 (01.03.2023). Функции потерь в регрессии. Линейная классификация. [Слайды] [Запись лекции]

Лекция 8 (15.03.2023). Линейная классификация. [Слайды] [Запись лекции]

Лекция 9 (22.03.2023). Метрики качества классификации. [Слайды] [Запись лекции]

Семинары

Семинар 1 (25.01.2023). Немного про Jupyter notebook и numpy. [Ноутбук]

Семинар 2 (01.02.2023). Объектно-ориентированное программирование. [Ноутбук]

Семинар 3 (08.02.2023). pandas. [Ноутбук]

Семинар 4 (15.02.2023). Визуализация данных. [Ноутбук]

Семинар 5 (22.02.2023). Введение в sklearn. KNN [Ноутбук]

Семинар 6 (01.03.2023). Линейная регрессия [Ноутбук]

Семинар 7 (15.03.2023). Градиентный спуск [Ноутбук]

Семинар 8 (22.03.2023). Бинарная линейная классификация [Ноутбук]

Консультации

Практические задания

За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются, но есть исключение. Студенту разрешается два раза сдать домашнее задание после мягкого дедлайна (но до жёсткого) без штрафов.


Практическое задание 1 - numpy Мягкий дедлайн: 01.02.2023 23:59 МСК, Жесткий дедлайн: 06.02.2023 23:59 МСК. [Ноутбук]

Практическое задание 2 - pandas Мягкий дедлайн: 16.02.2023 23:59 МСК, Жесткий дедлайн: 19.02.2023 23:59 МСК. [Ноутбук]

Практическое задание 3 - EDA Мягкий дедлайн: 02.03.2023 23:59 МСК, Жесткий дедлайн: 07.03.2023 23:59 МСК. [Ноутбук]

Практическое задание 4 - kNN, linreg Мягкий дедлайн: 23.03.2023 23:59 МСК, Жесткий дедлайн: 29.03.2023 23:59 МСК. [Ноутбук]

Контрольная работа

Контрольная работа обычно проводится в мае на одной из лекций.

Вопросы для подготовки прошлого года (для примера): https://docs.google.com/document/d/1s9NLSTWIgt00GK6IdRz-2fbAvxR6D9MLLc6ollmeyOo/edit?usp=sharing

Демо-вариант

Экзамен

Вопросы для подготовки к экзамену прошлого года

Полезные материалы

Курсы по машинному обучению и анализу данных

Максимально близко к материалам курса: Курс "Основы машинного обучения"

Для тех, кто хочет подтянуть математику: Специализация "Математика для анализа данных" (сейчас в процессе переноса на online.hse.ru)

Более сложная версия этого курса с ПМИ: Машинное обучение 1

Ещё материалы:

Статьи

Книги

  • Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.
  • James, Witten, Hastie, Tibshirani. An Introduction to Statistical Learning. 2013.

Страницы прошлых лет

2021/22 учебный год

2020/21 учебный год

2019/20 учебный год

2018/19 учебный год

2017/18 учебный год

2016/17 учебный год

2015/16 учебный год