Машинное обучение (сов. бак. ВШЭ-РЭШ 2021) — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
Строка 54: Строка 54:
 
Указаны прошлогодние материалы, при необходимости в течение курса они будут обновляться.
 
Указаны прошлогодние материалы, при необходимости в течение курса они будут обновляться.
  
Лекция 1. Введение в машинное обучение. [[https://github.com/nadiinchi/ml_hse_nes_2019/blob/master/materials/presentation_ml.pdf Презентация по введению.]]
+
Тема 1. Введение в машинное обучение. [[https://github.com/nadiinchi/ml_hse_nes_2019/blob/master/materials/presentation_ml.pdf Презентация по введению.]]
[[https://github.com/nadiinchi/ml_hse_nes_2019/blob/master/materials/Presentation_data.pdf Презентация про данные.]]
+
  
Лекции 2-3. Линейная регрессия. [[https://github.com/esokolov/ml-course-hse/blob/master/2020-fall/lecture-notes/lecture02-linregr.pdf Конспект 1 (стр. 1-10)]]
+
Тема 2. Линейная регрессия. [[https://github.com/esokolov/ml-course-hse/blob/master/2020-fall/lecture-notes/lecture02-linregr.pdf Конспект 1 (стр. 1-10)]]
 
[[https://github.com/esokolov/ml-course-hse/blob/master/2020-fall/lecture-notes/lecture03-linregr.pdf Конспект 2 (стр. 1-5)]]
 
[[https://github.com/esokolov/ml-course-hse/blob/master/2020-fall/lecture-notes/lecture03-linregr.pdf Конспект 2 (стр. 1-5)]]
  
Лекция 4. Линейная классификация. [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture04-linclass.pdf Конспект 1 (стр. 1-3)]]
+
Тема 3. Линейная классификация. [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture04-linclass.pdf Конспект 1 (стр. 1-3)]]
 
[[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture06-linclass.pdf Конспект 2 (стр. 1-4)]]
 
[[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture06-linclass.pdf Конспект 2 (стр. 1-4)]]
  
Лекция 5. Метрики качества классификации. [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture04-linclass.pdf Конспект (стр. 3-8)]]
+
Тема 4. Метрики качества классификации. [[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture04-linclass.pdf Конспект (стр. 3-8)]]
  
Лекция 6. Многоклассовая линейная классификация. Метрические методы. [[https://github.com/esokolov/ml-course-hse/blob/master/2019-fall/lecture-notes/lecture06-linclass.pdf Конспект по многоклассовой классификации (стр. 1-3, 5-6)]] [[https://github.com/esokolov/ml-course-hse/blob/master/2017-fall/seminars/sem06-knn.pdf Конспект по метрическим методам (стр. 1-2)]]
+
Тема 5. (вошла в семинары) Многоклассовая линейная классификация. Метрические методы. [[https://github.com/esokolov/ml-course-hse/blob/master/2019-fall/lecture-notes/lecture06-linclass.pdf Конспект по многоклассовой классификации (стр. 1-3, 5-6)]]  
  
Лекция 7. Решающие деревья
+
Тема 6. (вошла в семинары) [[https://github.com/esokolov/ml-course-hse/blob/master/2017-fall/seminars/sem06-knn.pdf Конспект по метрическим методам (стр. 1-2)]]
 +
 
 +
Тема 7. Решающие деревья
 
[[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture07-trees.pdf Конспект]]
 
[[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture07-trees.pdf Конспект]]
  
Лекция 8. Композиции алгоритмов
+
Тема 8. Композиции алгоритмов
 
[[https://github.com/esokolov/ml-course-hse/blob/master/2019-fall/lecture-notes/lecture08-ensembles.pdf Конспект про бэггинг и случайные леса (стр. 1, 2, 9)]]
 
[[https://github.com/esokolov/ml-course-hse/blob/master/2019-fall/lecture-notes/lecture08-ensembles.pdf Конспект про бэггинг и случайные леса (стр. 1, 2, 9)]]
 
[[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture09-ensembles.pdf Конспект про градиентный бустинг (стр. 1-4)]]
 
[[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture09-ensembles.pdf Конспект про градиентный бустинг (стр. 1-4)]]
  
Лекция 8. Разложение ошибки на смещение и разброс
+
Тема 9. Отбор признаков
[[https://github.com/esokolov/ml-course-hse/blob/master/2019-fall/lecture-notes/lecture08-ensembles.pdf Конспект(стр. 3-6)]]
+
[[https://github.com/hse-ds/iad-intro-ds/blob/master/2021/lectures/lecture15-reduction.pdf Презентация]]
[[https://github.com/esokolov/ml-course-hse/blob/master/2019-fall/seminars/sem08-bvd.pdf Конспект c примерами(стр. 1-4)]]
+
  
Лекция 9. Рекомендательные системы
+
Тема 10. Кластеризация и методы понижения размерности
[[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture12-factorizations.pdf Конспект (стр. 3-7)]]
+
 
+
Лекция 10. Кластеризация и методы понижения размерности
+
 
[[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture11-unsupervised.pdf Конспект по кластеризации и визуализации]]
 
[[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture11-unsupervised.pdf Конспект по кластеризации и визуализации]]
 
[[https://ru.coursera.org/lecture/vvedenie-mashinnoe-obuchenie/mietod-ghlavnykh-komponient-Ey95r Видео про метод главных компонент]]
 
[[https://ru.coursera.org/lecture/vvedenie-mashinnoe-obuchenie/mietod-ghlavnykh-komponient-Ey95r Видео про метод главных компонент]]
[[https://github.com/esokolov/ml-course-msu/blob/master/ML15-spring/lecture-notes/Sem06_pca.pdf Вывод решения в меоде главных компонент (доп. материал)]]
+
[[https://github.com/esokolov/ml-course-msu/blob/master/ML15-spring/lecture-notes/Sem06_pca.pdf Вывод решения в методе главных компонент (доп. материал)]]
 +
 
 +
Тема 11. Рекомендательные системы
 +
[[https://github.com/esokolov/ml-course-hse/blob/master/2018-fall/lecture-notes/lecture12-factorizations.pdf Конспект (стр. 3-7)]]
  
Лекция 11. Введение в нейронные сети
+
Тема 12. Введение в нейронные сети
 
[[https://github.com/nadiinchi/ml_workshop_nov2020/blob/main/DL_slides.pdf Презентация]] (на лекции было больше материала)
 
[[https://github.com/nadiinchi/ml_workshop_nov2020/blob/main/DL_slides.pdf Презентация]] (на лекции было больше материала)
  
Лекция 12. Сверточные нейросети. Регуляризация нейронных сетей.
+
Тема 13. Сверточные нейросети. Регуляризация нейронных сетей.
 
[[https://drive.google.com/file/d/1uSVdPsn5wznk510gS9N1K9DXITpxNFXt/view Презентация]] (на лекции было больше материала)
 
[[https://drive.google.com/file/d/1uSVdPsn5wznk510gS9N1K9DXITpxNFXt/view Презентация]] (на лекции было больше материала)
  
Лекция 13. Нейронные сети в анализе текстов.
+
Тема 14. Нейронные сети в анализе текстов.
 
[[https://github.com/nadiinchi/ml_hse_nes_2019/blob/master/materials/NLP_lecture.pdf Презентация]]
 
[[https://github.com/nadiinchi/ml_hse_nes_2019/blob/master/materials/NLP_lecture.pdf Презентация]]
  

Версия 14:32, 12 ноября 2021

О курсе

Курс читается для студентов 3-4 курса совместного бакалавриата ВШЭ-РЭШ в 1-2 модулях.

Проводится с 2019 года.

Лектор: Надежда Чиркова (nchirkova@hse.ru, @nadiinchi)

Семинаристка: Анастасия Карпова (@Asya_Karpova)

Ассистенты: Александр Югай (@AleksandrY99), Екатерина Кострыкина (@ekostrykina)

Лекции проходят по пятницам в 13:00 (онлайн, см. чат).

Семинары проходят по средам в 9:30 (в классе, R503).

Чат в телеграме


Правила выставления оценок

В курсе предусмотрено несколько форм контроля знаний:

  • Самостоятельные работы на семинарах, проверяющие знание материала лекций и семинаров, могут включать теоретические задачи (всего 4-6 проверочных)
  • Практические домашние работы на Python или с теоретическими задачами (всего 6-8 домашних работ)
  • Контрольная работа в середине курса
  • Письменный экзамен

Бонусные баллы в курсе не предусмотрены (за исключением, может быть, участия в соревновании в четвертом модуле)

Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:

Oитоговая = Округление(0.4 * ДЗ + 0.1 * ПР + 0.2 * КР + 0.3 * Э)

ДЗ — средняя оценка за практические домашние задания

ПР — средняя оценка за письменные проверочные работы на семинарах

КР — оценка за контрольную работу

Э — оценка за экзамен

Округление арифметическое.

Правила сдачи заданий

За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются. Даже при опоздании на одну секунду. Сдавайте заранее.

При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.

При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.

Лекции

Указаны прошлогодние материалы, при необходимости в течение курса они будут обновляться.

Тема 1. Введение в машинное обучение. [Презентация по введению.]

Тема 2. Линейная регрессия. [Конспект 1 (стр. 1-10)] [Конспект 2 (стр. 1-5)]

Тема 3. Линейная классификация. [Конспект 1 (стр. 1-3)] [Конспект 2 (стр. 1-4)]

Тема 4. Метрики качества классификации. [Конспект (стр. 3-8)]

Тема 5. (вошла в семинары) Многоклассовая линейная классификация. Метрические методы. [Конспект по многоклассовой классификации (стр. 1-3, 5-6)]

Тема 6. (вошла в семинары) [Конспект по метрическим методам (стр. 1-2)]

Тема 7. Решающие деревья [Конспект]

Тема 8. Композиции алгоритмов [Конспект про бэггинг и случайные леса (стр. 1, 2, 9)] [Конспект про градиентный бустинг (стр. 1-4)]

Тема 9. Отбор признаков [Презентация]

Тема 10. Кластеризация и методы понижения размерности [Конспект по кластеризации и визуализации] [Видео про метод главных компонент] [Вывод решения в методе главных компонент (доп. материал)]

Тема 11. Рекомендательные системы [Конспект (стр. 3-7)]

Тема 12. Введение в нейронные сети [Презентация] (на лекции было больше материала)

Тема 13. Сверточные нейросети. Регуляризация нейронных сетей. [Презентация] (на лекции было больше материала)

Тема 14. Нейронные сети в анализе текстов. [Презентация]

План курса:

  • Введение в машинное обучение (постановки задач, виды данных, метрики качества)
  • Обучение с учителем (задачи регрессии и классификации, классические методы их решения: линейные модели, метрические методы, решающие деревья, композицци алгоритмов; обзор задачи построения рекомендательных систем)
  • Обучение без учителя (задачи кластеризации, визуализации, понижения размерности, обзоры методов их решения)
  • Глубинное обучение (понятие вычислительного графа, основные виды слоев и архитектур нейронных сетей, приемы для обучения нейронных сетей)

Семинары

Github с семинарами и домашками.

На семинарах будут разбираться теоретические задачи, новый теоретический материал и практические задания. Практика в курсе проводится с использованием языка Python, среды Jupyter Notebook и библиотек Numpy, Pandas, Sklearn, Matplotlib, PyTorch.

Контрольная работа (общая информация)

[Вопросы к экзамену 2020 года (пока не обновлялись в 2021!)] [Вопросы к контрольной работе 2020 года (пока не обновлялись в 2021!)]

Содержание контрольной работы и экзамена: теоретические вопросы из списка (возможны измененные формулировки) + теоретические задачи. Контрольная работа и экзамен не включают задачи на программирование. Теоретические вопросы подразумевают развернутые ответы с формулами.

Рекомендации по написанию контрольной работы: Во всех формулах поясните обозначения. На всех графиках подпишите оси. Для всех рисунков поясните, что изображено на них. Во всех задачах оптимизации подпишите, по каким переменным она выполняется. Для всех суммирований подпишите индекс и границы суммирования.

Пример варианта

Примеры задач:

Курсы по машинному обучению и анализу данных

Книги

  • Hastie T., Tibshirani R, Friedman J. The Elements of Statistical Learning (2nd edition). Springer, 2009.
  • Bishop C. M. Pattern Recognition and Machine Learning. Springer, 2006.

Страница прошлого года