Генеративные модели в машинном обучении (ИИ 2025) — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
Строка 48: Строка 48:
 
|-
 
|-
 
| style="background:#eaecf0;" | '''4''' || Технологии современных LLM (Rope, KV-cache), Reasoning, RAG, Open-source LLM|| [Лекция] [Семинар] || [Лекция] [Семинар] ||
 
| style="background:#eaecf0;" | '''4''' || Технологии современных LLM (Rope, KV-cache), Reasoning, RAG, Open-source LLM|| [Лекция] [Семинар] || [Лекция] [Семинар] ||
 +
|-
 +
| style="background:#eaecf0;" | '''5''' || Нормализующие потоки || [Лекция] [Семинар] || [Лекция] [Семинар] ||
 +
|-
 +
| style="background:#eaecf0;" | '''6''' || Автокодировщики, вариационные автокодировщики|| [Лекция] [Семинар] || [Лекция] [Семинар] ||
 +
|-
 +
| style="background:#eaecf0;" | '''7''' || Генеративно-состязательные сети, StyleGAN|| [Лекция] [Семинар] || [Лекция] [Семинар] ||
 +
|-
 +
| style="background:#eaecf0;" | '''8''' || Диффузионные модели || [Лекция] [Семинар] || [Лекция] [Семинар] ||
 +
|-
 +
| style="background:#eaecf0;" | '''9''' || Мультимодальные модели, CLIP, Stable Diffusion|| [Лекция] [Семинар] || [Лекция] [Семинар] ||
 
|}
 
|}
  

Версия 22:32, 27 августа 2025

О курсе

Курс читается в первом семестре студентам магистерской образовательной программы "Искусственный интеллект".

Канал и чат курса в ТГ: Чат

Группа Преподаватели Zoom
Базовая Тихонова Мария, Кантонистова Елена [ Zoom]
Продвинутая Тихонова Мария, Карагодин Никита [ Zoom]
Ассистенты
Прохоров Савелий
Охотин Даниил
Никифорова Соня-Аня

Материалы курса

Ссылка на плейлист курса на VK: [ VK-playlist]

Ссылка на GitHub с материалами курса: GitHub

Ссылка на stepik: Stepik

Расписание базовой группы:

Занятие Тема Записи лекций и семинаров Материалы на гитхабе Дополнительные материалы
1 Задача машинного перевода, механизм внимания, Transformer [Лекция] [Семинар] [Лекция] [Семинар]
2 Токенизация, BERT, дообучение трансформерных моделей [Лекция] [Семинар] [Лекция] [Семинар]
3 Задача языкового моделирования, GPT, few-shot и zero-shot, инструктивное обучение [Лекция] [Семинар] [Лекция] [Семинар]
4 Технологии современных LLM (Rope, KV-cache), Reasoning, RAG, Open-source LLM [Лекция] [Семинар] [Лекция] [Семинар]
5 Нормализующие потоки [Лекция] [Семинар] [Лекция] [Семинар]
6 Автокодировщики, вариационные автокодировщики [Лекция] [Семинар] [Лекция] [Семинар]
7 Генеративно-состязательные сети, StyleGAN [Лекция] [Семинар] [Лекция] [Семинар]
8 Диффузионные модели [Лекция] [Семинар] [Лекция] [Семинар]
9 Мультимодальные модели, CLIP, Stable Diffusion [Лекция] [Семинар] [Лекция] [Семинар]

Расписание продвинутой группы:

Занятие Тема Записи лекций и семинаров Материалы на гитхабе Дополнительные материалы
1 Применения генеративных моделей, метод максимального правдоподобия, энтропия и KL-дивергенция, задачи генеративных моделей, AR модели [Лекция] [Семинар] [Лекция] [Семинар]
2 Задача машинного перевода, механизм внимания, Transformer [Лекция] [Семинар] [Лекция] [Семинар]
3 Токенизация, BERT, дообучение трансформерных моделей [Лекция] [Семинар] [Лекция] [Семинар]
4 Задача языкового моделирования, GPT, few-shot и zero-shot, инструктивное обучение [Лекция] [Семинар] [Лекция] [Семинар]
5 Технологии современных LLM (Rope, KV-cache), Reasoning, RAG, Open-source LLM [Лекция] [Семинар] [Лекция] [Семинар]
6 Нормализующие потоки, авторегрессионные и линейные потоки, модели NICE, RealNVP и Glow [Лекция] [Семинар] [Лекция] [Семинар]
7 Модели скрытых переменных, ЕМ-алгоритм, вывод вариационной нижней оценки (ELBO) [Лекция] [Семинар] [Лекция] [Семинар]

Формула оценивания

Общая оценка: 0.6*ДЗ + 0.1*степик + 0.1*теормин + 0.2*Экз

Stepik

В оценку за Stepik идут только следующие модули:

Важно: Части степика с домашними заданиями делать не нужно (15.4, например). Но нужно ответить на квизы в других его частях (15.1, например).


Домашние задания

Экзамен