Глубинное обучение 1 24/25 — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
(Преподаватели и ассистенты)
(Откатить Дмитрий Гриценко)
Строка 41: Строка 41:
 
| ГО-1 не МОП ПМИ || любой из четырёх выше || см. таблицу с оценками || так же
 
| ГО-1 не МОП ПМИ || любой из четырёх выше || см. таблицу с оценками || так же
 
|-
 
|-
| 227 (ТИ) + 228 (АПР) + 229 (АДИС) || [https://www.hse.ru/org/persons/816100677/ Великонивцев Федор Сергеевич] || [https://t.me/ilyhav Веселов Илья] || EfSHXnG
+
| 227 (ТИ) + 228 (АПР) + 229 (АДИС) || [https://www.hse.ru/org/persons/816100677/ Великонивцев Федор Сергеевич] || [https://t.me/ilyhav Веселов Илья] [https://t.me/dimgric Дима Гриценко] || EfSHXnG
 
|-
 
|-
 
| ВСН || [https://t.me/KkO_oRrNnEeYy Корней] || TBA || GfXgktJ
 
| ВСН || [https://t.me/KkO_oRrNnEeYy Корней] || TBA || GfXgktJ

Версия 14:27, 10 ноября 2024

О курсе

Это страничка курсов 2024-2025 года (1-3 модуль 3 курса ПМИ):

  • Глубинное обучение 1 (для групп МОП: 221-224)
  • Введение в глубинное обучение (группы 227 (ТИ), 228 (АПР) и 229 (АДИС)).

Курс посвящен глубинному обучению – самой активно развивающейся области машинного обучения. Слушатели курса узнают, какие задачи машинного обучения можно решать с помощью нейронных сетей и какие виды нейронных сетей находят свои применения на сегодняшний день. Курс имеет явную практическую направленность, студентам предлагаются задания на обучение нейронных сетей на фреймворке PyTorch языка программирования Python. В курсе обзорно, но достаточно для ознакомления разбираются задачи на изображения и тексты.

Цели освоения курса

  1. Знать принцип работы и уметь обучать следующие виды нейронных сетей: полносвязные, сверточные, рекуррентные, трансформеры.
  2. Владение фреймворком PyTorch для обучения нейронных сетей.
  3. Понимание различных задач, которые решаются с применением глубинного обучения.
  4. Умение обрабатывать данные и составлять пайплайны для обучения нейронных сетей.

Полезные ссылки

  • Чат с обсуждением: +-J1L7K32Ufw0YTU6 (добавить после хттпс://т.ме/)

Преподаватели и ассистенты

Лекции (МОП); кому писать, если кажется, что все пропало: Фома Шипилов

Группа Семинарист Ассистенты Инвайт в anytask
221 (МОП) Пирогов Вячеслав Григорьевич Андрей Уткин Анна Маркович Ya2xNVG
222 (МОП) Грицаев Тимофей Григорьевич Илья Дробышевский Борис Панфилов 4SHh6Wi
223 (МОП) Беляев Артём Русланович Всеволод Куйбида Тимофей Сенин Pvcmmg4
224 (МОП) Алиев Мишан Хаммад оглы Анна Васильева Нина Челышева 5rRdnzP
ГО-1 не МОП ПМИ любой из четырёх выше см. таблицу с оценками так же
227 (ТИ) + 228 (АПР) + 229 (АДИС) Великонивцев Федор Сергеевич Веселов Илья Дима Гриценко EfSHXnG
ВСН Корней TBA GfXgktJ
КНАД Лазарев Михаил Владимирович TBA 6a6JQRR

Формулы оценок

МОП

Итог = Округление(0.3 * БДЗ + 0.25 * МДЗ + 0.15 ПР + 0.3 * Э)

  • БДЗ - оценка за большие домашние задания
  • МДЗ - оценка за маленькие домашние задания
  • ПР - оценка за проверочные работы (проводятся на семинарах)
  • Э - оценка за экзамен

Округление арифметическое. Определим накопленную оценку как Накоп = Округление((0.3 * БДЗ + 0.25 МДЗ + 0.15 * ПР) / 0.7). Если Накоп >= 8, то студент может получить Накоп в качестве итоговой оценки, не приходя на экзамен.

Формат экзамена: письменный, в аудитории, материалами пользоваться не разрешается, 2 часа.

Формат пересдачи: накопленная оценка сохраняется, формат аналогичен экзамену.

Не МОП

Итог = Округление(0.7 * МДЗ + 0.3 * ПР)

  • МДЗ - оценка за маленькие домашние задания
  • ПР - оценка за проверочные работы (проводятся на семинарах)

Округление арифметическое.

Формат экзамена: экзамен не предусмотрен.

Формат пересдачи: досдача МДЗ.

Лекции

МОП

  1. Backpropagation algorithm, fully-connected networks: запись доска
  2. Cross-entropy loss, Dropout, Batch Normalization: запись доска

Не МОП

Семинары

МОП

  1. Введение в PyTorch: ноутбук
  2. Обучение полносвязных нейронных сетей: ноутбук

Не МОП

Маленькие домашние задания

TBA

Большие домашние задания

Теоретические домашние задания