Машинное обучение на матфаке 2018/2019 — различия между версиями
(→Семинары) |
(→Семинары) |
||
Строка 93: | Строка 93: | ||
| 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github]) | | 7 ||20/30 октября || логистическая регрессия, метрики, полиномиальные признаки || Все файлы: ([https://drive.google.com/open?id=1wbDF60YrNv2zi6pSrMUd6_Aq3BE1UOCK Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem07_logreg Github]) | ||
|- | |- | ||
− | | 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github]) | + | | 8 ||3/6 ноября || методы автоматической обработки текстов, TF-IDF || Все файлы: ([https://drive.google.com/open?id=1fcUYJyFKSvXpGfxuEP2Sf_I7lxO04nmC Google Drive], [https://github.com/ischurov/math-ml-hse-2018/tree/master/sem08_texts Github]) |
|} | |} | ||
Версия 02:55, 3 ноября 2018
Содержание
О курсе
Курс читается для студентов факультета математики ВШЭ в 1-2 модулях.
Лектор: Щуров Илья Валерьевич
Лекции проходят по вторникам с 14:00 до 15:20 в аудитории 109.
Полезные ссылки
- Регистрационная форма (заполните, чтобы получать уведомления о курсе)
- Репозиторий с материалами на GitHub
- РПУД
- Чат курса в Telegram
- Форма обратной связи (можно анонимно)
- Запись на консультацию (вторники, после лекции, консультирует Илья Щуров).
- Курс на Anytask
- Видео-записи лекций: Яндекс.Диск, YouTube.
Семинары
Группа | Преподаватель | Учебный ассистент | Расписание | Инвайт в Anytask |
---|---|---|---|---|
1 | Евгения Ческидова | Константин Ваниев | вторник, 12:10-13:30, ауд. 318 | ZfhBpf1 |
2 | Евгений Ковалев | Соня Дымченко | суббота, 12:00-13:20, ауд. 318 | 5jOWWt9 |
Система оценок
Формула оценки
Результирующая оценка по дисциплине рассчитывается по формуле:
Oитог = 0.7 * Oнакопл + 0.3 * Oэкз
Накопленная оценка рассчитывается по формуле:
Oнакопл = 0.58 * Oдз + 0.42 * OКР
Подробнее |
Правила вычисления оценокОценка за самостоятельную работу вычисляется как сумма баллов по всем самостоятельным, переведенная в 10 бальную шкалу. Оценка за домашнюю работу — как сумма баллов по всем практическим заданиям и соревнованию, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, самостоятельные и коллоквиум) могут быть не целыми. Накопленная и итоговая оценки округляются математически, оценки вида «целое + 1/2» округляются вверх. Правила сдачи заданийДедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются. При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также подаётся докладная записка в деканат. При наличии уважительной причины пропущенную проверочную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (при этом получить дополнительные баллы за призовые места на конкурсе можно только при участии в общий срок). |
Лекции
№ | Дата | Название | Конспект | Видео |
---|---|---|---|---|
1 | 4 сентября | Введение в ml, постановки задач, виды данных | ||
2 | 11 сентября | Напоминание: теория вероятностей и статистика. Случайные величины, выборки, оценки | конспект | |
3 | 18 сентября | Введение в статистическую теорию принятия решений. Функция потерь, ожидаемая ошибка, регрессионная функция | конспект | |
4 | 25 сентября | Шум, смещение и разброс | конспект | видео |
5 | 2 октября | Линейная регрессия. MLE-оценки. Максимизация правдоподобия и минимизация эмпирического риска. Явный вид МНК-оценки | конспект | видео |
6 | 9 октября | Свойства МНК-оценки. Несмещённость. Ковариационная матрица оценки. Теорема Гаусса — Маркова. Отбор признаков | конспект | видео |
Семинары
№ | Дата | Название | Материалы |
---|---|---|---|
1 | 8/10 сентября | Введение в numpy, pandas, matplotlib | Тетрадка и данные Задачи |
2 | 15/17 сентября | Статистические оценки, проверка гипотез | Все файлы: (Google Drive, Github), тетрадка |
3 | 22/24 сентября | метод k ближайших соседей (k-NN), кросс-валидация | Все файлы: (Google Drive, Github), тетрадка |
4 | 29/1 сент/окт | метод k ближайших соседей, часть 2 | Все файлы: (Google Drive, Github) |
5 | 6/8 октября | линейная регрессия, градиентный спуск | Все файлы: (Google Drive, Github) |
6 | 13/15 октября | отбор признаков, регуляризация | Все файлы: (Google Drive, Github} |
7 | 20/30 октября | логистическая регрессия, метрики, полиномиальные признаки | Все файлы: (Google Drive, Github) |
8 | 3/6 ноября | методы автоматической обработки текстов, TF-IDF | Все файлы: (Google Drive, Github) |
Как корректно скачать файл с расширением .ipynb с GitHub?
Домашние задания
- ДЗ№1: nbviewer, github, срок сдачи — 3 октября, 23:00.
- ДЗ№2: nbviewer, github, срок сдачи — 17 октября, 23:00.
- ДЗ№3: nbviewer, github , срок сдачи — 4 ноября, 23:00.
Новости курса
18.10. Появилось ДЗ№3 (оно же — задачи для подготовки к КР).
16.10. В понедельник, 22 октября в 10:30 состоится консультация в кабинете 318 (компокласс).
15.10. Контрольная по курсу состоится 23.10 с 13:30 до 15:30 в аудитории 109. Программа контрольной
11.10. Семинары группы 1 (в понедельник) перенесены теперь на вторник с 12:00 до 13:20.
10.10. Появилось ДЗ№2!
24.09. Появилось ДЗ№1!
Полезные материалы
Базовые учебники
- Hastie T., Tibshirani R, Friedman J. The Elements of Statistical Learning (2nd edition). Springer, 2009.
- Bishop C. M. Pattern Recognition and Machine Learning. Springer, 2006.
Дополнительная литература
- Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.
- Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.
- Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.
- Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.
Разные хорошие ссылки
- Об условных вероятностях.
- Mathematics for Machine Learning — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.