Генеративные модели в машинном обучении (ИИ 2025) — различия между версиями
Материал из Wiki - Факультет компьютерных наук
| Строка 58: | Строка 58: | ||
|- | |- | ||
| − | | style="background:#eaecf0;" | '''1''' || | + | | style="background:#eaecf0;" | '''1''' || Применения генеративных моделей, метод максимального правдоподобия, энтропия и KL-дивергенция, задачи генеративных моделей, AR модели || [Лекция] [Семинар]|| [Лекция] [Семинар] || |
|- | |- | ||
| − | | style="background:#eaecf0;" | '''2''' || | + | | style="background:#eaecf0;" | '''2''' || Задача машинного перевода, механизм внимания, Transformer || [Лекция] [Семинар]|| [Лекция] [Семинар] || |
|- | |- | ||
| − | | style="background:#eaecf0;" | '''3''' || | + | | style="background:#eaecf0;" | '''3''' || Токенизация, BERT, дообучение трансформерных моделей || [Лекция] [Семинар] || [Лекция] [Семинар] || |
|- | |- | ||
| − | | style="background:#eaecf0;" | '''4''' || Технологии современных LLM (Rope, KV-cache), Reasoning, RAG, Open-source LLM|| [Лекция] [Семинар] || [Лекция] [Семинар] || | + | |
| + | | style="background:#eaecf0;" | '''4''' || Задача языкового моделирования, GPT, few-shot и zero-shot, инструктивное обучение || [Лекция] [Семинар] || [Лекция] [Семинар]|| | ||
| + | |- | ||
| + | | style="background:#eaecf0;" | '''5''' || Технологии современных LLM (Rope, KV-cache), Reasoning, RAG, Open-source LLM|| [Лекция] [Семинар] || [Лекция] [Семинар] || | ||
|} | |} | ||
Версия 22:24, 27 августа 2025
Содержание
О курсе
Курс читается в первом семестре студентам магистерской образовательной программы "Искусственный интеллект".
Канал и чат курса в ТГ: Чат
| Группа | Преподаватели | Zoom |
|---|---|---|
| Базовая | Тихонова Мария, Кантонистова Елена | [ Zoom] |
| Продвинутая | Тихонова Мария, Карагодин Никита | [ Zoom] |
| Ассистенты |
|---|
| Прохоров Савелий |
| Охотин Даниил |
| Никифорова Соня-Аня |
Материалы курса
Ссылка на плейлист курса на VK: [ VK-playlist]
Ссылка на GitHub с материалами курса: GitHub
Ссылка на stepik: Stepik
Расписание базовой группы:
| Занятие | Тема | Записи лекций и семинаров | Материалы на гитхабе | Дополнительные материалы |
|---|---|---|---|---|
| 1 | Задача машинного перевода, механизм внимания, Transformer | [Лекция] [Семинар] | [Лекция] [Семинар] | |
| 2 | Токенизация, BERT, дообучение трансформерных моделей | [Лекция] [Семинар] | [Лекция] [Семинар] | |
| 3 | Задача языкового моделирования, GPT, few-shot и zero-shot, инструктивное обучение | [Лекция] [Семинар] | [Лекция] [Семинар] | |
| 4 | Технологии современных LLM (Rope, KV-cache), Reasoning, RAG, Open-source LLM | [Лекция] [Семинар] | [Лекция] [Семинар] |
Расписание продвинутой группы:
| Занятие | Тема | Записи лекций и семинаров | Материалы на гитхабе | Дополнительные материалы |
|---|---|---|---|---|
| 1 | Применения генеративных моделей, метод максимального правдоподобия, энтропия и KL-дивергенция, задачи генеративных моделей, AR модели | [Лекция] [Семинар] | [Лекция] [Семинар] | |
| 2 | Задача машинного перевода, механизм внимания, Transformer | [Лекция] [Семинар] | [Лекция] [Семинар] | |
| 3 | Токенизация, BERT, дообучение трансформерных моделей | [Лекция] [Семинар] | [Лекция] [Семинар] | |
| 4 | Задача языкового моделирования, GPT, few-shot и zero-shot, инструктивное обучение | [Лекция] [Семинар] | [Лекция] [Семинар] | |
| 5 | Технологии современных LLM (Rope, KV-cache), Reasoning, RAG, Open-source LLM | [Лекция] [Семинар] | [Лекция] [Семинар] |
Формула оценивания
Общая оценка: 0.6*ДЗ + 0.1*степик + 0.1*теормин + 0.2*Экз
Stepik
В оценку за Stepik идут только следующие модули:
Важно: Части степика с домашними заданиями делать не нужно (15.4, например). Но нужно ответить на квизы в других его частях (15.1, например).