Непрерывная оптимизация (ТИ, АДИС, АПР, РС)

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск

О курсе

Курс читается для студентов 3-го курса ПМИ ФКН ВШЭ в 3-4 модулях.

Лектор: Гасников Александр Владимирович



Полезные ссылки

Карточка курса и программа


Канал в telegram для объявлений: https://t.me/optimizationHSE2020

Чат в telegram для обсуждений (предназначение чата до конца не ясно, вопросы может быть правильнее задавать в чатах групп):

Ссылка на курс в Anytask:

[ Таблица с оценками]

Семинары

Группа Преподаватель Учебный ассистент
173 (ТИ) Титов Александр Александрович
174 (АДИС) Тюрин Александр Игоревич
175 (РС) Иванова Анастасия Сергеевна [Дмитрий Макаренко]
176 (РС) Иванова Анастасия Сергеевна [Дмитрий Макаренко]
177 Иванова Анастасия Сергеевна [Дмитрий Макаренко]

Правила выставления оценок

В курсе предусмотрено несколько форм контроля знания:

  • Домашние работы (теоретические и практические)
  • Письменная контрольная работа
  • Экзамен
  • Проект, включающий в себя теоретическую и практическую часть
  • Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций и с ДЗ

Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:

Итог = MIN{Округление(0.15 * ДЗ + 0.20 * КР + 0.3 * Э + 0.35 * ПР + 0.1 * СР), 10}

ДЗ — средняя оценка за домашние работы

КР — оценка за контрольную работу

Э — оценка за экзамен

ПР — оценка за проект

СР — средняя оценка за самостоятельные работы на семинарах

Округление вниз.

Правила сдачи заданий

За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются. Даже при опоздании на одну секунду. Сдавайте заранее. Есть исключения, о них написано ниже.

При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.

При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.

Лекции

1. (10.01.2020) Иванова А.С. Зачем нужна оптимизация? Примеры задач невыпуклой оптимизации и нижние оценки сложности их решения. Понятие сопротивляющегося оракула (первый параграф пособия [1]). Введение в выпуклую оптимизацию. Основные понятия. Выпуклые функции, выпуклые множества. Теорема об отделимости. Принцип множителей Лагранжа

2. (15.01.2020) Иванова А.С. Основные вспомогательные факты факты выпуклой оптимизации (формула Демьянова Данскина, двойственная задача и т.д.). Примеры задач

3. (22.01.2020) Тюрин А. И. Градиентный спуск и его окрестности (все в евклидовой норме). Рассмотреть два случая когда оптимизация на всем пространстве и на выпуклом множестве простом относительно проектирования. Оценка скорости сходимости в выпуклом, сильно выпуклом случаях. В условии Поляка-Лоясиевича. В невыпуклом случае (первый параграф пособия [1]). Первые понятия об универсальных методах (второй и пятый параграф пособия [1]).

Семинары

Практические задания

Теоретические домашние задания

Контрольная работа

Экзамен

Полезные материалы

Книги

  1. Гасников А. В. Современные численные методы оптимизации. Метод универсального градиентного спуска. – М.: МФТИ, 2018.
  2. Гасников А. В. Презентации к избранным частям курса (наиболее важными являются презентации 1-4)
  3. Поляк Б.Т. Введение в оптимизацию. Изд. 2-ое, испр. и доп. – М.: ЛЕНАНД, 2014.
  4. Boyd S., Vandenberghe L. Convex optimization. – Cambridge University Press, 2004.
  5. Bubeck S. Convex optimization: algorithms and complexity. – Foundations and Trends in Machine Learning, 2015. – V. 8, N 3–4. – P. 231–357.
  6. Nemirovski A. Advanced Nonlinear Programming. – Lectures, ISyE 7683 Spring 2019.
  7. Nesterov Yu. Lectures on convex optimization. – Springer, 2018.
  8. Lan G. Lectures on optimization. Methods for Machine Learning, 2019.