Непрерывная оптимизация (МОП)/2020 — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
Строка 7: Строка 7:
 
  ! Группа !! Расписание !! Инвайт для anytask
 
  ! Группа !! Расписание !! Инвайт для anytask
 
  |-
 
  |-
  | 171 || ?? || align="center"|gQHw1vz
+
  | 171 || понедельник 18:00 - 21:00 || align="center"|gQHw1vz
 
  |-
 
  |-
  | 172 || ?? || align="center"|0iPflMg
+
  | 172 || понедельник 18:00 - 21:00 || align="center"|0iPflMg
 
  |}
 
  |}
  
Группа в Telegram для вопросов по курсу: ??
+
Группа в Telegram для вопросов по курсу: [https://t.me/joinchat/CHLEHhWx4Rzq5f1m8Cy6cQ ссылка]
  
 
Таблица с оценками по курсу: ??
 
Таблица с оценками по курсу: ??

Версия 00:47, 18 января 2020

Методы оптимизации лежат в основе решения многих задач компьютерных наук. Например, в машинном обучении задачу оптимизации необходимо решать каждый раз при настройке какой-то модели алгоритмов по данным, причём от эффективности решения соответствующей задачи оптимизации зависит практическая применимость самого метода машинного обучения. Данный курс посвящен изучению классических и современных методов решения задач непрерывной оптимизации (в том числе невыпуклых), а также особенностям применения этих методов в задачах оптимизации, возникающих в машинном обучении. Основной акцент в изложении делается на практические аспекты реализации и использования методов. Целью курса является выработка у слушателей навыков по подбору подходящего метода для своей задачи, наиболее полно учитывающего её особенности.

Преподаватели: Кропотов Дмитрий Александрович, Гадецкий Артём, Шаповалов Никита, Таскынов Ануар, Гринберг Вадим, Бобров Евгений.

Группа Расписание Инвайт для anytask
171 понедельник 18:00 - 21:00 gQHw1vz
172 понедельник 18:00 - 21:00 0iPflMg

Группа в Telegram для вопросов по курсу: ссылка

Таблица с оценками по курсу: ??

Система выставления оценок по курсу

Будет объявлена позже.

Правила сдачи заданий

Практические задания сдаются в систему anytask (инвайт см. выше). Эти задания могут быть присланы после срока сдачи, но с задержкой не более одной недели. При этом начисляется штраф из расчёта 0.2 балла в день. Все задания выполняются самостоятельно. Если задание выполнялось сообща или использовались какие-либо сторонние коды и материалы, то об этом должно быть написано в отчёте. В противном случае «похожие» решения считаются плагиатом и все задействованные студенты (в том числе те, у кого списали) будут сурово наказаны.

Теоретические задания сдаются в anytask в виде сканов или набранных в TeX pdf-файлов. ВАЖНО! Присылаемые сканы должны быть высокого качества, присылаться одним файлом, в котором все листы идут в правильном порядке. В случае плохого качества сканов или же сдачи в формате, отличном от pdf, проверяющий имеет право поставить за работу 0, не проверяя.

В каждом теоретическом задании могут быть предложены несколько необязательных задач, позволяющих получить бонусные баллы. Бонусные баллы могут быть использованы студентом для повышения своих оценок за выбранные теоретические задания. При этом оценка за задание не может превысить максимум в 10 баллов.

Лекции

№ п/п Дата Занятие Материалы
1 15 января 2020 Введение в курс. Классы функций для оптимизации. Скорости сходимости итерационных процессов. Конспект

Семинары

№ п/п Дата Занятие Материалы
1 15 января 2020 Матрично-векторное дифференцирование. Конспект

Теоретические ДЗ

Практические ДЗ

Дополнительный материал

  • Конспект по матрично-векторным скалярным произведениям и нормам.

Литература

  1. J. Nocedal, S. Wright. Numerical Optimization, Springer, 2006.
  2. A. Ben-Tal, A. Nemirovski. Optimization III. Lecture Notes, 2013.
  3. Y. Nesterov. Introductory Lectures on Convex Optimization: A Basic Course, Springer, 2003.
  4. Ю.Е. Нестеров. Методы выпуклой оптимизации, МЦНМО, 2010
  5. S. Boyd, L. Vandenberghe. Convex Optimization, Cambridge University Press, 2004.
  6. D. Bertsekas. Convex Analysis and Optimization, Athena Scientific, 2003.
  7. Б.Т. Поляк. Введение в оптимизацию, Наука, 1983.
  8. J. Duchi. Introductory Lectures on Stochastic Optimization, Graduate Summer School Lectures, 2016.
  9. S. Sra et al.. Optimization for Machine Learning, MIT Press, 2011.
  10. Y. Nesterov. Lectures on convex optimization, Springer, 2018.