Непрерывная оптимизация (ТИ, АДИС, АПР, РС) — различия между версиями
Esokolov (обсуждение | вклад) (→О курсе) |
Dmitriy (обсуждение | вклад) (→Книги) |
||
Строка 106: | Строка 106: | ||
===Книги=== | ===Книги=== | ||
+ | |||
+ | # [https://arxiv.org/ftp/arxiv/papers/1711/1711.00394.pdf Гасников А. В. Современные численные методы оптимизации. Метод универсального градиентного спуска. – М.: МФТИ, 2018.] | ||
+ | # [https://www.mccme.ru/dubna/2017/courses/gasnikov.html Гасников А. В. Презентации к избранным частям курса] (наиболее важными являются презентации 1-4) | ||
+ | # Поляк Б.Т. Введение в оптимизацию. Изд. 2-ое, испр. и доп. – М.: ЛЕНАНД, 2014. | ||
+ | # Boyd S., Vandenberghe L. Convex optimization. – Cambridge University Press, 2004. | ||
+ | # Bubeck S. Convex optimization: algorithms and complexity. – Foundations and Trends in Machine Learning, 2015. – V. 8, N 3–4. – P. 231–357. | ||
+ | # [https://www2.isye.gatech.edu/~nemirovs/Trans_ModConvOpt.pdf Nemirovski A. Advanced Nonlinear Programming. – Lectures, ISyE 7683 Spring 2019.] | ||
+ | # Nesterov Yu. Lectures on convex optimization. – Springer, 2018. | ||
+ | # [http://pwp.gatech.edu/guanghui-lan/wp-content/uploads/sites/330/2019/02/LectureOPTML.pdf Lan G. Lectures on optimization. Methods for Machine Learning, 2019.] |
Версия 17:39, 14 января 2020
Содержание
О курсе
Курс читается для студентов 3-го курса ПМИ ФКН ВШЭ в 3-4 модулях.
Лектор: Гасников Александр Владимирович
Полезные ссылки
Канал в telegram для объявлений: https://t.me/optimizationHSE2020
Чат в telegram для обсуждений (предназначение чата до конца не ясно, вопросы может быть правильнее задавать в чатах групп):
Ссылка на курс в Anytask:
[ Таблица с оценками]
Семинары
Группа | Преподаватель | Учебный ассистент |
---|---|---|
173 (ТИ) | Титов Александр Александрович | |
174 (АДИС) | Тюрин Александр Игоревич | |
175 (РС) | Иванова Анастасия Сергеевна | [Дмитрий Макаренко] |
176 (РС) | Иванова Анастасия Сергеевна | [Дмитрий Макаренко] |
177 | Иванова Анастасия Сергеевна | [Дмитрий Макаренко] |
Правила выставления оценок
В курсе предусмотрено несколько форм контроля знания:
- Домашние работы (теоретические и практические)
- Письменная контрольная работа
- Экзамен
- Проект, включающий в себя теоретическую и практическую часть
- Самостоятельные работы на семинарах, проверяющие знание основных фактов с лекций и с ДЗ
Итоговая оценка вычисляется на основе оценки за работу в семестре и оценки за экзамен:
Итог = MIN{Округление(0.15 * ДЗ + 0.20 * КР + 0.3 * Э + 0.35 * ПР + 0.1 * СР), 10}
ДЗ — средняя оценка за домашние работы
КР — оценка за контрольную работу
Э — оценка за экзамен
ПР — оценка за проект
СР — средняя оценка за самостоятельные работы на семинарах
Округление вниз.
Правила сдачи заданий
За каждый день просрочки после мягкого дедлайна снимается 1 балл. После жёсткого дедлайна работы не принимаются. Даже при опоздании на одну секунду. Сдавайте заранее. Есть исключения, о них написано ниже.
При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. Следует помнить, что при повторном списывании деканат имеет право отчислить студента.
При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён. Дедлайн по домашнему заданию переносится на количество дней, равное продолжительности уважительной причины. Решение о том, является ли причина уважительной, принимает исключительно учебный офис.
Лекции
1. (10.01.2020) Иванова А.С. Зачем нужна оптимизация? Примеры задач невыпуклой оптимизации и нижние оценки сложности их решения. Понятие сопротивляющегося оракула (первый параграф пособия [1]). Введение в выпуклую оптимизацию. Основные понятия. Выпуклые функции, выпуклые множества. Теорема об отделимости. Принцип множителей Лагранжа
2. (15.01.2020) Иванова А.С. Основные вспомогательные факты факты выпуклой оптимизации (формула Демьянова Данскина, двойственная задача и т.д.). Примеры задач
3. (22.01.2020) Тюрин А. И. Градиентный спуск и его окрестности (все в евклидовой норме). Рассмотреть два случая когда оптимизация на всем пространстве и на выпуклом множестве простом относительно проектирования. Оценка скорости сходимости в выпуклом, сильно выпуклом случаях. В условии Поляка-Лоясиевича. В невыпуклом случае (первый параграф пособия [1]). Первые понятия об универсальных методах (второй и пятый параграф пособия [1]).
Семинары
Практические задания
Теоретические домашние задания
Контрольная работа
Экзамен
Полезные материалы
Книги
- Гасников А. В. Современные численные методы оптимизации. Метод универсального градиентного спуска. – М.: МФТИ, 2018.
- Гасников А. В. Презентации к избранным частям курса (наиболее важными являются презентации 1-4)
- Поляк Б.Т. Введение в оптимизацию. Изд. 2-ое, испр. и доп. – М.: ЛЕНАНД, 2014.
- Boyd S., Vandenberghe L. Convex optimization. – Cambridge University Press, 2004.
- Bubeck S. Convex optimization: algorithms and complexity. – Foundations and Trends in Machine Learning, 2015. – V. 8, N 3–4. – P. 231–357.
- Nemirovski A. Advanced Nonlinear Programming. – Lectures, ISyE 7683 Spring 2019.
- Nesterov Yu. Lectures on convex optimization. – Springer, 2018.
- Lan G. Lectures on optimization. Methods for Machine Learning, 2019.