Методы оптимизации в машинном обучении — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
Строка 3: Строка 3:
  
 
'''Преподаватели''': Кропотов Дмитрий Александрович, Гадецкий Артём, Кодрян Максим, Шаповалов Никита, Таскынов Ануар, Бобров Евгений.
 
'''Преподаватели''': Кропотов Дмитрий Александрович, Гадецкий Артём, Кодрян Максим, Шаповалов Никита, Таскынов Ануар, Бобров Евгений.
 +
 +
'''Внимание! Начиная с 6 апреля занятия проводятся очно в ауд. R406.'''
  
 
{| class="wikitable"
 
{| class="wikitable"
Строка 86: Строка 88:
 
| 30 марта 2021
 
| 30 марта 2021
 
| ''Занятия не будет'' ||  
 
| ''Занятия не будет'' ||  
 +
|-
 +
| align="center"|12
 +
| 06 апреля 2021
 +
| '''Занятие будет проводиться очно в ауд. R406''' ||
 
|-
 
|-
 
|}
 
|}

Версия 17:16, 23 марта 2021

Методы оптимизации лежат в основе решения многих задач компьютерных наук. Например, в машинном обучении задачу оптимизации необходимо решать каждый раз при настройке какой-то модели алгоритмов по данным, причём от эффективности решения соответствующей задачи оптимизации зависит практическая применимость самого метода машинного обучения. Данный курс посвящен изучению классических и современных методов решения задач непрерывной оптимизации (в том числе невыпуклых), а также особенностям применения этих методов в задачах оптимизации, возникающих в машинном обучении. Основной акцент в изложении делается на практические аспекты реализации и использования методов. Целью курса является выработка у слушателей навыков по подбору подходящего метода для своей задачи, наиболее полно учитывающего её особенности.

Преподаватели: Кропотов Дмитрий Александрович, Гадецкий Артём, Кодрян Максим, Шаповалов Никита, Таскынов Ануар, Бобров Евгений.

Внимание! Начиная с 6 апреля занятия проводятся очно в ауд. R406.

Группа Расписание Инвайт для anytask
181 вторник, лекция в 13:00, семинар в 16:20, ауд. R406 QdSHCUV
182 вторник, лекция в 13:00, семинар в 14:40, ауд. R406 qgj0NZ4

Группа в Telegram для вопросов по курсу: ссылка

Видеозаписи занятий: ссылка

Система выставления оценок по курсу

В рамках курса предполагается четыре теоретических и четыре практических домашних заданий, а также устный экзамен в конце курса. Каждое задание и экзамен оцениваются исходя из 10-ти баллов. За задания можно получить дополнительные баллы за выполнение бонусных пунктов. Общая оценка за курс вычисляется по правилу Округление_вверх(0.7*<Оценка_за_семестр> + 0.3*<Оценка_за_экзамен>). <Оценка_за_семестр> = min(10, <Суммарная_оценка_за_задания>*10 / <Максимальная_суммарная_оценка_за_задания_без_бонусов>). Итоговая оценка за курс совпадает с общей оценкой при соблюдении следующих дополнительных условий:

Итоговая оценка Условия
>=8 Сданы все задания, кроме одного (на оценку >=4), экзамен сдан на оценку >= 6
>=6 Сданы все задания, кроме двух (на оценку >=4), экзамен сдан на оценку >= 4
>=4 Сданы все задания, кроме трех (на оценку >=4), экзамен сдан на оценку >= 4

Правила сдачи заданий

Теоретические и практические задания сдаются в систему anytask (инвайт см. выше). Эти задания могут быть присланы после срока сдачи, но с задержкой не более одной недели. При этом начисляется штраф из расчёта 0.5 балла в день. Все задания выполняются самостоятельно. Если задание выполнялось сообща или использовались какие-либо сторонние коды и материалы, то об этом должно быть написано в отчёте. В противном случае «похожие» решения считаются плагиатом и все задействованные студенты (в том числе те, у кого списали) будут сурово наказаны.

Теоретические задания сдаются в anytask в виде сканов или набранных в TeX pdf-файлов. ВАЖНО! Присылаемые сканы должны быть высокого качества, присылаться одним файлом, в котором все листы идут в правильном порядке. В случае плохого качества сканов или же сдачи в формате, отличном от pdf, проверяющий имеет право поставить за работу 0, не проверяя.

Лекции и семинары

№ п/п Дата Занятие Материалы
1 12 января 2021 Введение в курс. Скорости сходимости итерационных процессов. Матрично-векторное дифференцирование. Конспект

Конспект

2 19 января 2021 Занятия не будет
3 26 января 2021 Одномерная оптимизация Конспект
4 02 февраля 2021 Метод градиентного спуска
5 09 февраля 2021 Стандартные матричные разложения. Метод Ньютона. Презентация по подготовке отчётов
6 16 февраля 2021 Метод сопряжённых градиентов. Презентация
7 02 марта 2021 Безгессианный метод Ньютона. Выпуклые множества. Конспект
8 09 марта 2021 Квазиньютоновские методы оптимизации. Выпуклые функции. Конспект
9 16 марта 2021 Задачи условной оптимизации. Теорема Каруша-Куна-Таккера.
10 23 марта 2021 Задача линейного программирования. Симплекс-метод. Эквивалентные преобразования задач оптимизации. Стандартные классы выпуклых условных задач оптимизации. Конспект
11 30 марта 2021 Занятия не будет
12 06 апреля 2021 Занятие будет проводиться очно в ауд. R406