Darin (deep and reinforced intelligence net) — различия между версиями
Материал из Wiki - Факультет компьютерных наук
(Новая страница: «{{Карточка_командного_проекта |name=DaRiNa (Deep reinforced net) |company=Яндекс |mentor=Денис Симагин |mentor_login={{…») |
|||
(не показано 7 промежуточных версии 2 участников) | |||
Строка 1: | Строка 1: | ||
− | {{ | + | {{Карточка_проекта |
− | |name= | + | |name=Darin (deep and reinforced intelligence net) |
− | + | ||
|mentor=Денис Симагин | |mentor=Денис Симагин | ||
|mentor_login={{URLENCODE:Simagin.denis|WIKI}} | |mentor_login={{URLENCODE:Simagin.denis|WIKI}} | ||
|semester=Осень 2018 | |semester=Осень 2018 | ||
− | |course=3 | + | |course=2-3 |
− | |number_of_students= | + | |number_of_students= до 10 |
|categorize=yes | |categorize=yes | ||
}} | }} | ||
− | |||
===Что это за проект?=== | ===Что это за проект?=== | ||
− | + | Сочетание reinforcement learning и deep learning является горячей темой на сегодняшний день. К примеру, изучите статью [http://arxiv.org/pdf/1312.5602v1.pdf Playing atari with deep reinforcement learning]. Также вы, наверняка, слышали о AlpaGo, программе, которая впервые победила человека, профессионально играющего в Go. Подробнее об этом [https://storage.googleapis.com/deepmind-media/alphago/AlphaGoNaturePaper.pdf здесь]. Конечная цель перенести идеи статью [https://deepmind.com/blog/alphago-zero-learning-scratch/ AlphaGo Zero] на игру [https://en.wikipedia.org/wiki/Renju рендзю]. | |
− | + | Для участия в проекте нужно пройти собеседование. | |
− | + | ||
− | + | ||
− | + | ||
− | + | ||
===Чему студент научится?=== | ===Чему студент научится?=== | ||
− | + | * Чтение научных статей на английском | |
− | + | * Работе с глубокими нейронными сетями | |
− | + | * Обучение с подкреплением | |
+ | * Плохие шутки | ||
+ | |||
===Какие начальные требования?=== | ===Какие начальные требования?=== | ||
− | + | * Машина с UNIX-подобной ОС и мощной видеокартой (возможно облачная) | |
− | + | * Знание Python 3 | |
− | + | * Git и работа с командной оболочкой | |
− | + | * Английский | |
+ | |||
===Какие будут использоваться технологии?=== | ===Какие будут использоваться технологии?=== | ||
− | Python3 | + | * Python3 |
− | AWS/ | + | * Scipy stack |
− | + | * PyTorch (возможно, Tensorflow) | |
− | + | * AWS/GCloud | |
− | + | ||
− | + | ||
− | + | ||
− | + | ||
− | + | ||
− | + | ===Темы вводных занятий?=== | |
+ | * Обучении с учителем | ||
+ | * Линейные модели, градиентный спуск | ||
+ | * Введение в нейронные сети | ||
+ | * Сверточные сети | ||
+ | * Обучение с подкреплением | ||
+ | * Разбор базовых статей | ||
− | === | + | ===Направления развития?=== |
− | [ | + | DeepMind и Blizzard сделали [https://deepmind.com/blog/deepmind-and-blizzard-open-starcraft-ii-ai-research-environment/ песочницу] для StarCraft II, поле для исследований просто безгранично. |
+ | |||
+ | ===Критерии оценки?=== | ||
+ | В конце проекта проводится турнир между алгоритмами, на основе которого и выставляются оценки. |
Текущая версия на 19:36, 4 ноября 2018
Ментор | Денис Симагин |
Учебный семестр | Осень 2018 |
Учебный курс | 2-3-й курс |
Максимальное количество студентов, выбравших проект: до 10 | |
Что это за проект?
Сочетание reinforcement learning и deep learning является горячей темой на сегодняшний день. К примеру, изучите статью Playing atari with deep reinforcement learning. Также вы, наверняка, слышали о AlpaGo, программе, которая впервые победила человека, профессионально играющего в Go. Подробнее об этом здесь. Конечная цель перенести идеи статью AlphaGo Zero на игру рендзю.
Для участия в проекте нужно пройти собеседование.
Чему студент научится?
- Чтение научных статей на английском
- Работе с глубокими нейронными сетями
- Обучение с подкреплением
- Плохие шутки
Какие начальные требования?
- Машина с UNIX-подобной ОС и мощной видеокартой (возможно облачная)
- Знание Python 3
- Git и работа с командной оболочкой
- Английский
Какие будут использоваться технологии?
- Python3
- Scipy stack
- PyTorch (возможно, Tensorflow)
- AWS/GCloud
Темы вводных занятий?
- Обучении с учителем
- Линейные модели, градиентный спуск
- Введение в нейронные сети
- Сверточные сети
- Обучение с подкреплением
- Разбор базовых статей
Направления развития?
DeepMind и Blizzard сделали песочницу для StarCraft II, поле для исследований просто безгранично.
Критерии оценки?
В конце проекта проводится турнир между алгоритмами, на основе которого и выставляются оценки.