Ask me (семинар) — различия между версиями
Строка 75: | Строка 75: | ||
===S26.01=== | ===S26.01=== | ||
Сети с внимание и длинной памятью | Сети с внимание и длинной памятью | ||
− | === | + | ===S29.01=== |
− | + | Еще раз вернулись к теме word embedding в контексте нейросетей, список затронутых статей: | |
+ | # [http://www.jmlr.org/papers/volume3/bengio03a/bengio03a.pdf Первая сеть], предсказывающая следующее слово. | ||
+ | # [https://ronan.collobert.com/pub/matos/2008_nlp_icml.pdff Статья], где заменяется softmax | ||
+ | # [https://papers.nips.cc/paper/5021-distributed-representations-of-words-and-phrases-and-their-compositionality.pdf Статья] Миколова про word2vec. | ||
+ | |||
+ | ===L4=== | ||
+ | Лабораторную работу можно найти [https://github.com/dasimagin/askme/blob/master/labs/L4%20-%20Word%20embedding.ipynb здесь]. | ||
+ | |||
+ | '''Срок сдачи:''' ... | ||
+ | |||
===H11.01=== | ===H11.01=== | ||
Произвели разбор L3. Описание модели победителя можно найти, а baseline доступен [https://github.com/dasimagin/askme/blob/master/labs/L3%20-%20Baseline.ipynb здесь]. | Произвели разбор L3. Описание модели победителя можно найти, а baseline доступен [https://github.com/dasimagin/askme/blob/master/labs/L3%20-%20Baseline.ipynb здесь]. |
Версия 19:54, 4 февраля 2017
Описание проекта, последнее занятие.
Содержание
Правила игры
- Ментор: Симагин Денис.
- Место: офис Яндекса (место встречи)
- Время: c 10:00, каждый четверг.
Общение с ментором вне занятий приветствуется. Можно задавать вопросы, в том числе философские. Но перед тем, как написать, попробуйте спросить это у Яндекса. Также не обижайтесь, если в ответ вам пришла ссылка на документацию или какую-то статью.
Ключевые точки
Сверху нам спущены ключевые точки выполнения проекта. Для нас они скорее явлются формальными, тем не менее мы должны их соблюдать.
- 12-17 декабря - все включились в работу
- 20-25 марта - реализован объем работ, необходимый для зачета
- 30 мая - 3 июня - окончание проектной работы, вы готовы, как пионеры.
- начало июня - конкурс проектов.
Правило 2Х
У вас есть право на одну ошибку. Следующая - я отказываюсь с вами работать.
Репозитории
Студенты хранят свой код в следующих репозиториях
Разбор статьи
В рамках проекта студент должен разобрать интересную для него статью и доложить ее на общем семинаре.
Лабораторные
Лабораторные проводятся для практического закрепления материала. Их выполнение учитывается в итоговой оценке.
- Результатом работы является jupyter notebook, где сохранен вывод вашего кода, графики и т.п. А так же его импорт в формат .py. Для автоматизации процесса можно настроить jupyter.
- Когда сроки выполнения лабораторной завершены, вы выкладываете ее на ревью, создавая соответствующее задание и запрос на объединение ветки с мастером (не забудьте добавить проверяющего).
- Ваш коллега проводит ревью кода и может оставлять замечания, как в виде комментариев к заданию, так и в файле .py. Оно предполагает проверку стиля и правильность кода, а также конструктивные замечания по производительности. Однако не стремитесь сразу оптимизировать код. Добейтесь лучше того, чтобы все работало правильно.
- Когда ревью завершено, влейтесь в мастер и закройте задание.
Результаты
Текущие результаты можно найти здесь. Оценка складывается из нескольких частей:
- Работа на семинаре
- Доклад статьи
- Итоговый результат
Семинары
S09.02, 16.02, 23.02, 02.03, 09.03
Рассказ статей
S02.02
Разбор статьи
S26.01
Сети с внимание и длинной памятью
S29.01
Еще раз вернулись к теме word embedding в контексте нейросетей, список затронутых статей:
- Первая сеть, предсказывающая следующее слово.
- Статья, где заменяется softmax
- Статья Миколова про word2vec.
L4
Лабораторную работу можно найти здесь.
Срок сдачи: ...
H11.01
Произвели разбор L3. Описание модели победителя можно найти, а baseline доступен здесь.
Доклады мне не очень понравились. Постараюсь написать общие замечания.
- Прежде всего у докладчика должна быть хорошая речь.
- Нужно выделить то, что действительно важно и интересно для слушателя.
- Делать на доске четкие и простые рисунки и записи, убедиться, что аудитория тебя понимает.
- Не прыгать с темы на тему, а идти в соответсвии с логическим планом.
S15.12
Поговорили про векторное представление слов, word2vec и другие сверточные сети для работы с естественными языками.
H11.12
Занятие было посвящено выполнению второй лабораторной. Интересный ноутбук скоро появится [здесь].
S08.12
1. Известные архитектуры сверточных сетей
2. Поговорили:
- На что активируются нейроны в зависимости от слоя
- Генерация 'похожих картинок'
- Послойное обучение сети
- Переобучение или дообучение уже готовой сети
3. Изучили примеры для библиотеки Keras
- Полносвязанная сеть
- Сверточная сеть
- Переобучение сверточной сети
L3
Студент | CPU | RAM | GPU |
---|---|---|---|
Пример | 6 core, 3,5 GHz | 64GB | NVIDIA TITAN X |
Рябинин | 4 core, 3.5 GHz | 16 GB | Nvidia GeForce GTX 1070 |
Попов | 4 core, 3.2 GHz | 8 GB | GeForce GTX 750 Ti |
Остяков | 8 core, 2,6 GHz | 50 GB | - |
Когтенков | 2 core, 1.4 GHz | 4 GB | - |
Ширин | 2 core, 1.9 GHz | 8 GB | - |
Победить в конкурсе классификации, срок 3 января, 23:59.
Для этого вам понадобится
- Установить Tensorflow
- Установить Keras
- Запастись терпением
S01.12
1. Полносвязанные сети:
- Подсчитаны производные для Backpropagation, обсуждены тонкости реализации.
- Различные виды нелинейности: ReLu, PReLu, Sigmoid.
- Обучение сетей при помощи Autoencoder.
2. Сверточные сети:
- Cтруктура CNN.
- Затронуты: Convolution, Pooling.
- Влияние различных ядер свертки на структуру сети.
- Feature maps.
- Разобрана архитектура Alexnet.
- Сочетание из Convolutional и Dense слоев.
S24.11
1. Регуляризация:
- Разобрали L1 и L2 регуляризаторы, можно найти здесь.
- Используйте простые классификаторы
- Раняя остановка (смотрим качество на отложенном множестве)
- Добавление шума
- Комбинирование классификаторов
2. Полносвязанные сети:
- Множественная классификация и softmax.
- Метод обратного распространения ошибки, проблема при обучении.
- Инициализация весов: и xavier и другие вариации.
- Кратко о dropout.
L2
Задание можно найти здесь, срок 23:59 11 декабря.
S03.11
- Признаки и какие они бывают. Об отборе признаков, кратко тут. Может помочь на конкурсе.
- Задача бинарной классификации.
- Градиентный спуск.
- Стохастический градиентный спуск. На английской вике больше интересной информации.
Для дополнительного чтения:
- Что полезно знать о машинном обучении.
- Английская вика про признаки
- Отбор признаков.
- Мощная теоретическая работа про стохастический градиентный спуск.
L1
Ревьюер | Разработчик | Оценка |
---|---|---|
Рябинин | Попов | 10 |
Попов | Остяков | 10 |
Остяков | Когтенков | 10 |
Когтенков | Ширин | 9.7 |
Ширин | Рябинин | 10 |
Для первой лабораторной работы вам потребуется:
- Настроить себе pip для Python3
- Освоить Jupyter notebook
- Установить пакеты scipy: numpy, scipy, matplotlib