Darin (deep and reinforced intelligence net) — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
(Новая страница: «{{Карточка_командного_проекта |name=DaRiNa (Deep reinforced net) |company=Яндекс |mentor=Денис Симагин |mentor_login={{…»)
 
 
(не показано 7 промежуточных версии 2 участников)
Строка 1: Строка 1:
{{Карточка_командного_проекта
+
{{Карточка_проекта
|name=DaRiNa (Deep reinforced net)
+
|name=Darin (deep and reinforced intelligence net)
|company=Яндекс
+
 
|mentor=Денис Симагин
 
|mentor=Денис Симагин
 
|mentor_login={{URLENCODE:Simagin.denis|WIKI}}
 
|mentor_login={{URLENCODE:Simagin.denis|WIKI}}
 
|semester=Осень 2018
 
|semester=Осень 2018
|course=3-4
+
|course=2-3
|number_of_students=3-4
+
|number_of_students= до 10
 
|categorize=yes
 
|categorize=yes
 
}}
 
}}
 
  
 
===Что это за проект?===
 
===Что это за проект?===
Это исследовательский проект. Существует датасет SQuAD 2.0. Проблема заключается в том, чтобы прочитать параграф текста, а затем по вопросу сгенерировать ответ. Уже существует пачка научных статей, посвященных этой задаче. Наша цель заключается в том, чтобы изучить существующие методы, попробовать обучить собственную модель и на основе ее построить фактологический поиск по статьям Википедии.
+
Сочетание reinforcement learning и deep learning является горячей темой на сегодняшний день. К примеру, изучите статью [http://arxiv.org/pdf/1312.5602v1.pdf Playing atari with deep reinforcement learning]. Также вы, наверняка, слышали о AlpaGo, программе, которая впервые победила человека, профессионально играющего в Go. Подробнее об этом [https://storage.googleapis.com/deepmind-media/alphago/AlphaGoNaturePaper.pdf здесь]. Конечная цель перенести идеи статью [https://deepmind.com/blog/alphago-zero-learning-scratch/ AlphaGo Zero] на игру [https://en.wikipedia.org/wiki/Renju рендзю].
  
На первом этапе в качестве базового поиска можно использовать поисковую машину Яндекса. Однако один из студентов может взять на себя также и задачу базового поиска. В качестве демонстрации проделанной работы предлагаю сделать специальный навык для Алисы (это значит, что сервис должен отвечать онлайн), по сути поднять собственный сервис на одной из облачных платформ.
+
Для участия в проекте нужно пройти собеседование.
 
+
Команда Яндекса любезно согласилась нам предоставить разметку для реальных фактологических запросов к Алисе. А студенты, которые покажут лучшие результаты, смогут пройти летнюю стажировку и сделать вклад в Алису, внедрив своё решение.
+
 
+
Для того, чтобы попасть на проект, нужно пройти собеседование.
+
  
 
===Чему студент научится?===
 
===Чему студент научится?===
Работа в команде, проведение ревью, развертывание сервиса в облаке.
+
* Чтение научных статей на английском
Современные модели работы с текстом, разработка на Python3.
+
* Работе с глубокими нейронными сетями
Плохим шуткам.
+
* Обучение с подкреплением
 +
* Плохие шутки
 +
 
 
===Какие начальные требования?===
 
===Какие начальные требования?===
Наличие хорошей машины с GPU (или аренда в облаке).
+
* Машина с UNIX-подобной ОС и мощной видеокартой (возможно облачная)
Навыки в обучении больших моделей.
+
* Знание Python 3
Уверенное владение Python3.
+
* Git и работа с командной оболочкой
Умение читать научные статьи на английском.
+
* Английский
 +
 
 
===Какие будут использоваться технологии?===
 
===Какие будут использоваться технологии?===
Python3, scipy stack, PyTorch.
+
* Python3
AWS/Gсloud
+
* Scipy stack
Возможно MongoDB для базового поиска.
+
* PyTorch (возможно, Tensorflow)
===Направления развития?===
+
* AWS/GCloud
Повышение качества модели.
+
Расширение базы документов.
+
Ускорение работы.
+
===Критерии оценки?===
+
Оценка команды будет зависеть от конечного качества модели, в качестве базы возьмем текущее качество фактологических ответов Алисы.
+
  
Персональные оценки выставляются на основе личного вклада студента (может быть выше, чем оценка команда).
+
===Темы вводных занятий?===
 +
* Обучении с учителем
 +
* Линейные модели, градиентный спуск
 +
* Введение в нейронные сети
 +
* Сверточные сети
 +
* Обучение с подкреплением
 +
* Разбор базовых статей
  
===Контакты===
+
===Направления развития?===
[[Участник:Simagin.denis|Денис Симагин]]
+
DeepMind и Blizzard сделали [https://deepmind.com/blog/deepmind-and-blizzard-open-starcraft-ii-ai-research-environment/ песочницу] для StarCraft II, поле для исследований просто безгранично.
 +
 
 +
===Критерии оценки?===
 +
В конце проекта проводится турнир между алгоритмами, на основе которого и выставляются оценки.

Текущая версия на 19:36, 4 ноября 2018

Ментор Денис Симагин
Учебный семестр Осень 2018
Учебный курс 2-3-й курс
Максимальное количество студентов, выбравших проект: до 10



Что это за проект?

Сочетание reinforcement learning и deep learning является горячей темой на сегодняшний день. К примеру, изучите статью Playing atari with deep reinforcement learning. Также вы, наверняка, слышали о AlpaGo, программе, которая впервые победила человека, профессионально играющего в Go. Подробнее об этом здесь. Конечная цель перенести идеи статью AlphaGo Zero на игру рендзю.

Для участия в проекте нужно пройти собеседование.

Чему студент научится?

  • Чтение научных статей на английском
  • Работе с глубокими нейронными сетями
  • Обучение с подкреплением
  • Плохие шутки

Какие начальные требования?

  • Машина с UNIX-подобной ОС и мощной видеокартой (возможно облачная)
  • Знание Python 3
  • Git и работа с командной оболочкой
  • Английский

Какие будут использоваться технологии?

  • Python3
  • Scipy stack
  • PyTorch (возможно, Tensorflow)
  • AWS/GCloud

Темы вводных занятий?

  • Обучении с учителем
  • Линейные модели, градиентный спуск
  • Введение в нейронные сети
  • Сверточные сети
  • Обучение с подкреплением
  • Разбор базовых статей

Направления развития?

DeepMind и Blizzard сделали песочницу для StarCraft II, поле для исследований просто безгранично.

Критерии оценки?

В конце проекта проводится турнир между алгоритмами, на основе которого и выставляются оценки.