Непрерывная оптимизация — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
Строка 17: Строка 17:
 
  |}
 
  |}
  
<!--
+
== Система выставления оценок по курсу ==
== Система выставления оценок по курсу в 3-м модуле ==
+
# В рамках курса предполагается три практических задания, некоторое количество проверочных работ на семинарах и экзамен. Каждое задание и экзамен оцениваются по десятибалльной шкале.
# В рамках курса в 3-м модуле (непрерывная оптимизация) предполагается три практических задания, четыре домашних заданий и коллоквиум. Каждое задание и коллоквиум оцениваются по десятибалльной шкале.
+
# В оценке за курс 60% составляет накопленная оценка за модуль и 40% - оценка за экзамен. Для получения финального результата (0–10) оценка округляется в большую сторону.
# В оценке за модуль 50% составляют баллы за домашние задания и 50% – баллы за практические задания. Для получения финального результата (0–10) оценка округляется в большую сторону.
+
# В накопленной оценке 50% составляют баллы за практические задания и 50% - баллы за проверочные работы на семинарах.
# Сдача коллоквиума является необязательной и позволяет получить до 2 дополнительных баллов в оценку за модуль (оценка за коллоквиум берётся с весом 0.2).
+
# Оценка за модуль не может быть больше, чем 10 баллов.
+
 
+
== Формирование итоговой оценки по курсу по итогам 3-го и 4-го модулей ==
+
# За 3-й модуль выставляется оценка «Накопленная_непрерывная» как описано выше.
+
# За 4-й модуль выставляется оценка «Накопленная_дискретная» и проводится экзамен. На экзамене будет спрашиваться только материал 4-го модуля (дискретная оптимизация).
+
# Итоговая оценка по курсу вычисляется по формуле:
+
#* «Накопленная_итоговая» = 0.625 * «Накопленная_непрерывная» + 0.375 * «Накопленная_дискретная»
+
#* «Итоговая_оценка» = 0.8 * «Накопленная_итоговая» + 0.2 * «Экзамен»
+
# При вычислении итоговой оценки проводится округление к ближайшему целому (.5 округляется к единице)
+
--------------------------------
+
  
 
== Правила сдачи заданий ==
 
== Правила сдачи заданий ==
В рамках курса предполагается сдача нескольких домашних и практических заданий. Домашнее задание сдаётся к началу очередного семинара на листочках или (по согласованию с семинаристом) по почте в виде скана или pdf-файла. Домашние задания после срока сдачи не принимаются. Практические задания сдаются по почте. Эти задания могут быть присланы после срока сдачи, при этом начисляется штраф из расчёта 0.2 балла в день, но суммарно не более 6 баллов.
+
В рамках курса предполагается сдача нескольких практических заданий. Практические задания сдаются в систему anytask. Эти задания могут быть присланы после срока сдачи, но с задержкой не более одной недели. При этом начисляется штраф из расчёта 0.2 балла в день.
  
Все домашние и практические задания выполняются самостоятельно. Если задание выполнялось сообща или использовались какие-либо сторонние коды и материалы, то об этом должно быть написано в отчёте. В противном случае «похожие» решения считаются плагиатом и все задействованные студенты (в том числе те, у кого списали) будут сурово наказаны.
+
Все задания выполняются самостоятельно. Если задание выполнялось сообща или использовались какие-либо сторонние коды и материалы, то об этом должно быть написано в отчёте. В противном случае «похожие» решения считаются плагиатом и все задействованные студенты (в том числе те, у кого списали) будут сурово наказаны.
-->
+
  
 
== Лекции ==
 
== Лекции ==

Версия 16:38, 8 января 2018

Методы оптимизации лежат в основе решения многих задач компьютерных наук. Например, в машинном обучении задачу оптимизации необходимо решать каждый раз при настройке какой-то модели алгоритмов по данным, причём от эффективности решения соответствующей задачи оптимизации зависит практическая применимость самого метода машинного обучения. Данный курс посвящен изучению классических и современных методов решения задач непрерывной оптимизации (в том числе невыпуклой), а также особенностям применения этих методов в задачах оптимизации, возникающих в машинном обучении. Основной акцент в изложении делается на практические аспекты реализации и использования методов. Целью курса является выработка у слушателей навыков по подбору подходящего метода для своей задачи, наиболее полно учитывающего её особенности.

Лектор: Кропотов Дмитрий Александрович. Лекции проходят по вторникам в ауд. 622 с 13:40 до 15:00.

Семинаристы:

Группа Семинарист Расписание
151 (МОП) Родоманов Антон Олегович вторник, 15:10 – 16:30, ауд. 219
152 (МОП) Дойков Никита Владимирович вторник, 15:10 – 16:30, ауд. 618
155 (РС) Шаповалов Никита Анатольевич вторник, 15:10 – 16:30, ауд. 503
156 (ТИ) Тюрин Александр Игоревич вторник, 18:10 – 19:30, ауд. 306

Система выставления оценок по курсу

  1. В рамках курса предполагается три практических задания, некоторое количество проверочных работ на семинарах и экзамен. Каждое задание и экзамен оцениваются по десятибалльной шкале.
  2. В оценке за курс 60% составляет накопленная оценка за модуль и 40% - оценка за экзамен. Для получения финального результата (0–10) оценка округляется в большую сторону.
  3. В накопленной оценке 50% составляют баллы за практические задания и 50% - баллы за проверочные работы на семинарах.

Правила сдачи заданий

В рамках курса предполагается сдача нескольких практических заданий. Практические задания сдаются в систему anytask. Эти задания могут быть присланы после срока сдачи, но с задержкой не более одной недели. При этом начисляется штраф из расчёта 0.2 балла в день.

Все задания выполняются самостоятельно. Если задание выполнялось сообща или использовались какие-либо сторонние коды и материалы, то об этом должно быть написано в отчёте. В противном случае «похожие» решения считаются плагиатом и все задействованные студенты (в том числе те, у кого списали) будут сурово наказаны.

Лекции

№ п/п Дата Занятие Материалы
1 9 января 2018 Введение в курс. Классы функций для оптимизации. Скорости сходимости итерационных процессов.
2 16 января 2018 Точная одномерная оптимизация.
3 23 января 2018 Неточная одномерная оптимизация. Метод градиентного спуска.
4 30 января 2018 Матричные разложения и их использование для решения СЛАУ. Метод Ньютона для выпуклых и невыпуклых задач.
5 6 февраля 2018 Метод сопряжённых градиентов для решения СЛАУ.
6 13 февраля 2018 Неточный метод Ньютона. Разностные производные.
7 20 февраля 2018 Квазиньютоновские методы. Метод L-BFGS.
8 27 февраля 2018 Задачи условной оптимизации: условия ККТ.
9 6 марта 2018 Выпуклые задачи оптимизации. Двойственность. Метод барьеров.
10 13 марта 2018 Негладкая безусловная оптимизация. Субградиентный метод. Проксимальные методы.
11 20 марта 2018 Стохастическая оптимизация.

Семинары

Литература

  1. J. Nocedal, S. Wright. Numerical Optimization, Springer, 2006.
  2. S. Boyd, L. Vandenberghe. Convex Optimization, Cambridge University Press, 2004.
  3. S. Sra et al.. Optimization for Machine Learning, MIT Press, 2011.
  4. A. Ben-Tal, A. Nemirovski. Optimization III. Lecture Notes, 2013.
  5. Б. Поляк. Введение в оптимизацию, Наука, 1983.
  6. Y. Nesterov. Introductory Lectures on Convex Optimization: A Basic Course, Springer, 2003.
  7. R. Fletcher. Practical Methods of Optimization, Wiley, 2000.
  8. A. Antoniou, W.-S. Lu. Practical Optimization: Algorithms and Engineering Applications, Springer, 2007.
  9. W. Press et al.. Numerical Recipes. The Art of Scientific Computing, Cambridge University Press, 2007.