Ask me (семинар) — различия между версиями
Материал из Wiki - Факультет компьютерных наук
| Строка 18: | Строка 18: | ||
==Семинары== | ==Семинары== | ||
===S03.11=== | ===S03.11=== | ||
| + | # [https://en.wikipedia.org/wiki/Feature_(machine_learning) Признаки] и какие они бывают. Об отборе признаков, кратко [https://habrahabr.ru/post/264915/ тут]. Может помочь на конкурсе. | ||
| + | # Задача [http://www.machinelearning.ru/wiki/index.php?title=Линейный_классификатор бинарной классификации]. | ||
| + | # [http://www.machinelearning.ru/wiki/index.php?title=Метод_градиентного_спуска Градиентный спуск]. | ||
| + | # [http://www.machinelearning.ru/wiki/index.php?title=Метод_стохастического_градиента Стохастический градиентный спуск]. На английской [https://en.wikipedia.org/wiki/Stochastic_gradient_descent вике] больше интересной информации. | ||
| + | |||
| + | '''Для дополнительного чтения:''' | ||
| + | # [https://homes.cs.washington.edu/~pedrod/papers/cacm12.pdf Что полезно знать о машинном обучении]. | ||
| + | # [https://en.wikipedia.org/wiki/Feature_(machine_learning) Английская вика про признаки] | ||
| + | # [http://www.jmlr.org/papers/volume3/guyon03a/guyon03a.pdf Отбор признаков]. | ||
| + | |||
| + | ===L1=== | ||
| + | |||
| + | {| class="wikitable" | ||
| + | |- | ||
| + | ! Ревьюер !! Разработчик | ||
| + | |- | ||
| + | |Рябинин || Попов | ||
| + | |- | ||
| + | | Попов || Остяков | ||
| + | |- | ||
| + | | Остяков || Когтенков | ||
| + | |- | ||
| + | | Когтенков || Ширин | ||
| + | |- | ||
| + | | Ширин || Рябинин | ||
| + | |} | ||
| + | |||
| + | Для первой лабораторной работы вам потребуется: | ||
| + | # Настроить себе [https://pip.pypa.io/en/stable/ pip] для Python3 | ||
| + | # Освоить [http://jupyter.org Jupyter notebook] | ||
| + | # Установить пакеты [http://www.scipy.org scipy]: numpy, scipy, matplotlib | ||
| + | |||
| + | Лабораторная будет состоять из нескольких частей: | ||
| + | # Изучение градиентного спуска на примере линейного классификатора + несколько теоретических задачек [coming soon...]. | ||
| + | # Небольшой контест для того, чтобы почувствовать, что такое "много данных" [coming soon...] . | ||
Версия 13:55, 4 ноября 2016
Правила игры
- Ментор: Симагин Денис.
- Место: офис Яндекса (место встречи)
- Время: c 10:00, каждый четверг.
Общение с ментором вне занятий приветствуется. Можно задавать вопросы, в том числе философские. Но перед тем, как написать, попробуйте спросить это у Яндекса. Также не обижайтесь, если в ответ вам пришла ссылка на документацию или какую-то статью.
Ключевые точки
Сверху нам спущены ключевые точки выполнения проекта. Для нас они скорее явлются формальными, тем не менее мы должны их соблюдать.
- 12-17 декабря - все включились в работу
- 20-25 марта - реализован объем работ, необходимый для зачета
- 30 мая - 3 июня - окончание проектной работы, вы готовы, как пионеры.
- начало июня - конкурс проектов.
Правило 2Х
У вас есть право на одну ошибку. Следующая - я отказываюсь с вами работать.
Семинары
S03.11
- Признаки и какие они бывают. Об отборе признаков, кратко тут. Может помочь на конкурсе.
- Задача бинарной классификации.
- Градиентный спуск.
- Стохастический градиентный спуск. На английской вике больше интересной информации.
Для дополнительного чтения:
L1
| Ревьюер | Разработчик |
|---|---|
| Рябинин | Попов |
| Попов | Остяков |
| Остяков | Когтенков |
| Когтенков | Ширин |
| Ширин | Рябинин |
Для первой лабораторной работы вам потребуется:
- Настроить себе pip для Python3
- Освоить Jupyter notebook
- Установить пакеты scipy: numpy, scipy, matplotlib
Лабораторная будет состоять из нескольких частей:
- Изучение градиентного спуска на примере линейного классификатора + несколько теоретических задачек [coming soon...].
- Небольшой контест для того, чтобы почувствовать, что такое "много данных" [coming soon...] .