Генеративные модели в машинном обучении (ИИ 2025) — различия между версиями
Материал из Wiki - Факультет компьютерных наук
| Строка 10: | Строка 10: | ||
| Базовая || [https://t.me/mashkka_t Тихонова Мария], [https://t.me/murr4a Кантонистова Елена] || [ Zoom] | | Базовая || [https://t.me/mashkka_t Тихонова Мария], [https://t.me/murr4a Кантонистова Елена] || [ Zoom] | ||
|- | |- | ||
| − | | Продвинутая || [https://t.me/Einstein_30 Карагодин Никита] || [ Zoom] | + | | Продвинутая || [https://t.me/mashkka_t Тихонова Мария], [https://t.me/Einstein_30 Карагодин Никита] || [ Zoom] |
|} | |} | ||
Версия 22:21, 27 августа 2025
Содержание
О курсе
Курс читается в первом семестре студентам магистерской образовательной программы "Искусственный интеллект".
Канал и чат курса в ТГ: Чат
| Группа | Преподаватели | Zoom |
|---|---|---|
| Базовая | Тихонова Мария, Кантонистова Елена | [ Zoom] |
| Продвинутая | Тихонова Мария, Карагодин Никита | [ Zoom] |
| Ассистенты |
|---|
| Прохоров Савелий |
| Охотин Даниил |
| Никифорова Соня-Аня |
Материалы курса
Ссылка на плейлист курса на VK: [ VK-playlist]
Ссылка на GitHub с материалами курса: GitHub
Ссылка на stepik: Stepik
Расписание базовой группы:
| Занятие | Тема | Записи лекций и семинаров | Материалы на гитхабе | Дополнительные материалы |
|---|---|---|---|---|
| 1 | Задача машинного перевода, механизм внимания, Transformer | [Лекция] [Семинар] | [Лекция] [Семинар] | |
| 2 | Токенизация, BERT, дообучение трансформерных моделей | [Лекция] [Семинар] | [Лекция] [Семинар] | |
| 3 | Задача языкового моделирования, GPT, few-shot и zero-shot, инструктивное обучение | [Лекция] [Семинар] | [Лекция] [Семинар] | |
| 4 | Технологии современных LLM (Rope, KV-cache), Reasoning, RAG, Open-source LLM | [Лекция] [Семинар] | [Лекция] [Семинар] |
Расписание продвинутой группы:
| Занятие | Тема | Записи лекций и семинаров | Материалы на гитхабе | Дополнительные материалы |
|---|---|---|---|---|
| 1 | Задача машинного перевода, механизм внимания, Transformer | [Лекция] [Семинар] | [Лекция] [Семинар] | |
| 2 | Токенизация, BERT, дообучение трансформерных моделей | [Лекция] [Семинар] | [Лекция] [Семинар] | |
| 3 | Задача языкового моделирования, GPT, few-shot и zero-shot, инструктивное обучение | [Лекция] [Семинар] | [Лекция] [Семинар] | |
| 4 | Технологии современных LLM (Rope, KV-cache), Reasoning, RAG, Open-source LLM | [Лекция] [Семинар] | [Лекция] [Семинар] |
Формула оценивания
Общая оценка: 0.6*ДЗ + 0.1*степик + 0.1*теормин + 0.2*Экз
Stepik
В оценку за Stepik идут только следующие модули:
Важно: Части степика с домашними заданиями делать не нужно (15.4, например). Но нужно ответить на квизы в других его частях (15.1, например).