Машинное обучение на матфаке 2020 — различия между версиями
Материал из Wiki - Факультет компьютерных наук
Svdcvt (обсуждение | вклад) (Новая страница: «== О курсе == Курс читается для студентов факультета математики ВШЭ в 3-4 модулях. Лектор: [ht…») |
Svdcvt (обсуждение | вклад) |
||
Строка 4: | Строка 4: | ||
Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич] | Лектор: [https://www.hse.ru/staff/is Щуров Илья Валерьевич] | ||
− | Лекции проходят по четвергам. | + | Лекции проходят по четвергам в 10:30 в ? аудитории. |
== Полезные ссылки == | == Полезные ссылки == | ||
* [https://tlg.name/joinchat/CDE3klkYVgDJ827u_fGHkw Чат курса] | * [https://tlg.name/joinchat/CDE3klkYVgDJ827u_fGHkw Чат курса] | ||
+ | * [ Репозиторий с материалами на GitHub] | ||
+ | * [ Курс на Anytask] | ||
+ | * [ Таблица оценок] | ||
+ | * [https://www.hse.ru/edu/courses/316533676 РПУД] | ||
+ | |||
+ | == Семинары == | ||
+ | |||
+ | {| class="wikitable" | ||
+ | |- | ||
+ | ! Группа !! Преподаватель !! Учебный ассистент !! Расписание !! Инвайт в Anytask | ||
+ | |- | ||
+ | | 1 || [https://tlg.name/Saigetsu Руслан Хайдуров] || [https://tlg.name/kagan1543 Александр Каган] || четверг, 12:10-13:30, ауд. 318 || - | ||
+ | |- | ||
+ | | 2 || [https://tlg.name/svdcvt Соня Дымченко] || [https://tlg.name/baltabaev Павел Балтабаев] || среда, ?, ауд. 318 || - | ||
+ | |- | ||
+ | |} | ||
+ | |||
+ | === Система оценивания === | ||
+ | ==== Формула оценки ==== | ||
+ | Результирующая оценка по дисциплине рассчитывается по формуле: | ||
+ | |||
+ | '''O<sub>итог</sub> = 0.24 * О<sub>кр</sub> + 0.25 * О<sub>прак дз</sub> + 0.21 * О<sub>теор дз</sub> + 0.3 * О<sub>экз</sub>''' | ||
+ | |||
+ | {| role="presentation" class="wikitable mw-collapsible mw-collapsed" | ||
+ | | <strong>Подробнее</strong> | ||
+ | |- | ||
+ | | | ||
+ | ==== Правила вычисления оценок ==== | ||
+ | Оценка за практические/теоретические домашние задания вычисляется как сумма баллов по всем практическим/теоретическим домашним заданиям, переведенная в 10 бальную шкалу. Количество баллов за разные задания может различаться в зависимости от их сложности. Все промежуточные оценки (за домашние, контрольную и экзамен) могут быть не целыми и ''не округляются''. | ||
+ | |||
+ | ==== Правила сдачи заданий ==== | ||
+ | Дедлайны по всем домашним заданиям являются жёсткими, то есть после срока работы не принимаются (даже если опоздание сроком на одну минуту, сдавайте вовремя!). | ||
+ | |||
+ | При обнаружении плагиата оценки за домашнее задание обнуляются всем задействованным в списывании студентам, а также возможно подаётся докладная записка в деканат. | ||
+ | |||
+ | При наличии ''уважительной'' причины (предоставляется справка, подтверженная учебным офисом) пропущенную контрольную можно написать позднее, а дедлайн по домашнему заданию может быть перенесён (за исключением соревнований). | ||
+ | |} | ||
+ | |||
+ | == Новости курса == | ||
+ | |||
+ | == Лекции == | ||
+ | {| class="wikitable" | ||
+ | |- | ||
+ | ! № !! Дата !! Название !! Конспект | ||
+ | |- | ||
+ | | 1 || 16 января || Введение в ml, постановки задач, виды данных || | ||
+ | |} | ||
+ | |||
+ | == Семинары == | ||
+ | {| class="wikitable" | ||
+ | |- | ||
+ | ! № !! Дата !! Название !! Материалы | ||
+ | |- | ||
+ | | 1 || 16/22 января || Введение в numpy, pandas, matplotlib || [ Задачи] | ||
+ | |} | ||
+ | |||
+ | [https://stackoverflow.com/questions/45622602/how-to-jupyter-notebooks-from-github Как корректно скачать файл с расширением .ipynb с GitHub?] | ||
+ | |||
+ | == Домашние задания == | ||
+ | ===Практические=== | ||
+ | |||
+ | ===Теоретические=== | ||
+ | |||
+ | == Полезные материалы == | ||
+ | === Базовые учебники === | ||
+ | # Hastie T., Tibshirani R, Friedman J. [http://www-stat.stanford.edu/~tibs/ElemStatLearn/download.html The Elements of Statistical Learning (2nd edition)]. Springer, 2009. | ||
+ | # Bishop C. M. [http://research.microsoft.com/en-us/um/people/cmbishop/prml/ Pattern Recognition and Machine Learning]. Springer, 2006. | ||
+ | |||
+ | === Дополнительная литература === | ||
+ | # Шарден Б., Массарон Л., Боскетти А. Крупномасштабное машинное обучение вместе с Python, Издательство "ДМК Пресс", 2018. | ||
+ | # Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016. | ||
+ | # Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012. | ||
+ | # Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012. | ||
+ | # Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014. | ||
+ | |||
+ | === Разные хорошие ссылки === | ||
+ | |||
+ | # [https://betanalpha.github.io/assets/case_studies/conditional_probability_theory.html Об условных вероятностях]. | ||
+ | # [https://mml-book.github.io Mathematics for Machine Learning] — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей. |
Версия 15:38, 12 января 2020
Содержание
[убрать]О курсе
Курс читается для студентов факультета математики ВШЭ в 3-4 модулях.
Лектор: Щуров Илья Валерьевич
Лекции проходят по четвергам в 10:30 в ? аудитории.
Полезные ссылки
Семинары
Группа | Преподаватель | Учебный ассистент | Расписание | Инвайт в Anytask |
---|---|---|---|---|
1 | Руслан Хайдуров | Александр Каган | четверг, 12:10-13:30, ауд. 318 | - |
2 | Соня Дымченко | Павел Балтабаев | среда, ?, ауд. 318 | - |
Система оценивания
Формула оценки
Результирующая оценка по дисциплине рассчитывается по формуле:
Oитог = 0.24 * Окр + 0.25 * Опрак дз + 0.21 * Отеор дз + 0.3 * Оэкз
[развернуть] Подробнее |
Новости курса
Лекции
№ | Дата | Название | Конспект |
---|---|---|---|
1 | 16 января | Введение в ml, постановки задач, виды данных |
Семинары
№ | Дата | Название | Материалы |
---|---|---|---|
1 | 16/22 января | Введение в numpy, pandas, matplotlib | [ Задачи] |
Как корректно скачать файл с расширением .ipynb с GitHub?
Домашние задания
Практические
Теоретические
Полезные материалы
Базовые учебники
- Hastie T., Tibshirani R, Friedman J. The Elements of Statistical Learning (2nd edition). Springer, 2009.
- Bishop C. M. Pattern Recognition and Machine Learning. Springer, 2006.
Дополнительная литература
- Шарден Б., Массарон Л., Боскетти А. Крупномасштабное машинное обучение вместе с Python, Издательство "ДМК Пресс", 2018.
- Ian Goodfellow and Yoshua Bengio and Aaron Courville, Deep Learning, MIT Press, 2016.
- Mohri M., Rostamizadeh A., Talwalkar A. Foundations of Machine Learning. MIT Press, 2012.
- Murphy K. Machine Learning: A Probabilistic Perspective. MIT Press, 2012.
- Mohammed J. Zaki, Wagner Meira Jr. Data Mining and Analysis. Fundamental Concepts and Algorithms. Cambridge University Press, 2014.
Разные хорошие ссылки
- Об условных вероятностях.
- Mathematics for Machine Learning — книга с математическим введением в машинное обучение. Вам могут быть особенно интересно главы про теорию вероятностей.