Программирование (python) для лингвистов — различия между версиями
Материал из Wiki - Факультет компьютерных наук
Denaas (обсуждение | вклад) (округления) |
Denaas (обсуждение | вклад) (→Семинары) |
||
(не показаны 22 промежуточные версии этого же участника) | |||
Строка 7: | Строка 7: | ||
'''Преподаватель:''' Денис Литвинов ([mailto:4denaas@gmail.com Почта], [https://t.me/denaas Telegram ]) | '''Преподаватель:''' Денис Литвинов ([mailto:4denaas@gmail.com Почта], [https://t.me/denaas Telegram ]) | ||
− | ''' | + | '''Ассистенты''' Елизавета Корнеева ([mailto:elisavetinaaa@gmail.com Почта], [https://t.me/tithemi Telegram ]), Егор Соловьев ([mailto:easolovev@edu.hse.ru Почта], [https://t.me/esolovev Telegram ]) |
Строка 25: | Строка 25: | ||
=== Рекомендуемая литература === | === Рекомендуемая литература === | ||
− | # Кормен. Алгоритмы: построение и анализ | + | # Кормен. Алгоритмы: построение и анализ |
− | # Bishop. Pattern Recognition and Machine Learning | + | # Bishop. Pattern Recognition and Machine Learning |
− | # | + | # Christopher Manning. Foundations of Statistical Natural Language Processing |
− | + | ||
Строка 34: | Строка 33: | ||
# редактор кода sublime text / notepad++ / PyCharm | # редактор кода sublime text / notepad++ / PyCharm | ||
# jupyter notebook | # jupyter notebook | ||
− | # numpy, scipy, pandas, matplotlib, seaborn | + | # numpy, scipy, pandas, matplotlib, seaborn, scikit-learn, gensim, lightgbm, pytorch |
=== Правила сдачи домашних заданий === | === Правила сдачи домашних заданий === | ||
− | Домашние задания сдаются по умолчанию в репозиториях, указанных в [https://goo.gl/ | + | Домашние задания сдаются по умолчанию в репозиториях, указанных в [https://goo.gl/wFr8tr форме] '''(пожалуйста, пройдите этот опрос)''' |
− | + | # Домашнее задание выполняется в jupyter notebook, если явно не указано иное. | |
− | # Соблюдайте именование каталогов, классов и сигнатур функций | + | # Не стоит выкладывать в репозиторий запакованные файлы. |
− | + | # Соблюдайте именование каталогов, классов и сигнатур функций, если они явно указаны. В противном случае автотесты их не подцепят и ваше решение не будет засчитано. | |
− | + | ||
# Опоздание считается по последнему сданному заданию в домашней работе | # Опоздание считается по последнему сданному заданию в домашней работе | ||
=== Оценки за домашние задания === | === Оценки за домашние задания === | ||
− | [https://docs.google.com/spreadsheets/d/ | + | [https://docs.google.com/spreadsheets/d/1SUG3UjWCez6beNukIFP6sRMnKXBs-jnJaNyh4Ateiu4 оценки] |
=== Экзамен === | === Экзамен === | ||
Строка 61: | Строка 59: | ||
[http://wiki.cs.hse.ru/index.php?title=Программирование_(python)_для_лингвистов_экзамен вопросы к экзамену] | [http://wiki.cs.hse.ru/index.php?title=Программирование_(python)_для_лингвистов_экзамен вопросы к экзамену] | ||
− | |||
− | |||
Дополнительные материалы для подготовки: | Дополнительные материалы для подготовки: | ||
− | # [https://github.com/esokolov/ml-course-hse/ | + | # [https://github.com/esokolov/ml-course-hse/ курс] Евгения Соколова по машинному обучению на ФКН |
# Peter Flatch. Machine Learning | # Peter Flatch. Machine Learning | ||
# Bishop. Pattern Recognition and Machine Learning | # Bishop. Pattern Recognition and Machine Learning | ||
Строка 75: | Строка 71: | ||
{| class="wikitable" | {| class="wikitable" | ||
|- | |- | ||
− | ! № !! Тема семинара | + | ! № !! Тема семинара !! материалы семинара !! домашнее задание !! дедлайн |
|- | |- | ||
− | | 1 || | + | | 1 || Теория алгоритмов. Фильтр Блума. Алгоритм Рабина-Карпа || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_1 seminar_1] || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_1 assignment_1] || 18.09.2018 12:00 |
|- | |- | ||
− | | 2 || | + | | 2 || Тестирование программ. Визуализация. Избранные главы теории вероятностей и линейной алгебры. || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_2 seminar_2] || || |
|- | |- | ||
− | | 3 || | + | | 3 || Основные понятия машинного обучения || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_3 seminar_3] || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_3 assignment] || 16.10.2018 12:00 |
|- | |- | ||
− | | 4 || | + | | 4 || Регуляризация в линейных моделях || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_4 seminar_4] || || |
|- | |- | ||
− | | 5 || | + | | 5 || Линейный модели для классификации || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_5 seminar_5] || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_5 assignment] || 16.11.2018 23:59 |
|- | |- | ||
− | | 6 || | + | | 6 || Decision Trees. Ensembles. || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_6 seminar_6] || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_6 assignment] || 30.11.2018 23:59 |
|- | |- | ||
− | | 7 || | + | | 7 || Feed Forward Neural Networks || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_7 seminar_7] || || |
|- | |- | ||
− | | 8 || | + | | 8 || Dimension reduction. Manifold Learning || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_8 seminar_8] || || |
|- | |- | ||
− | | 9 || | + | | 9 || Word2Vec. Glove. Convolutional NN || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_9 seminar_9] || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_9 assignment] || 29.01.2019 23.59 |
|- | |- | ||
− | | 10 || | + | | 10 || RNN || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_10 seminar_10] || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_10 assignment] || 12.02.2019 23.59 |
|- | |- | ||
− | | 11 || | + | | 11 || Seq2Seq || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_11 seminar_11] || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_11 assignment] || 4.03.2019 23.59 |
|- | |- | ||
− | | 12 || | + | | 12 || Subword Embeddings, Metric Learning || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_12 seminar_12] || [https://github.com/thedenaas/hse_seminars_2018/tree/master/seminar_12 assignment] || 19.03.2019 23.59 |
|- | |- | ||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
− | |||
|} | |} |
Версия 11:34, 5 марта 2019
Содержание
О курсе
Курс читается для студентов лингвистов 4-го курса факультета гуманитарных наук.
Проводится с 2017 года.
Преподаватель: Денис Литвинов (Почта, Telegram )
Ассистенты Елизавета Корнеева (Почта, Telegram ), Егор Соловьев (Почта, Telegram )
Правила выставления оценок
итоговая оценка = 0.7*накопленная + 0.3*экзамен
накопленная оценка — средняя по всем домашним заданиям.
- При вычислении накопленной оценки округление не производится
- Домашнее задание оценивается по 10-балльной шкале.
- В случае пропуска дедлайна за каждый пропущенный день снимается 0.5 балла в течении первых 6 дней. Затем, за каждый пропущенный день снимаются по 1 баллу.
- Дедлайны для каждой домашней работы указываются отдельно.
- В оценке домашнего задания оцениваются: работоспособность программы, использование изложенных средств и методов.
- При оценивании программы в первую очередь обращается внимание на то, насколько её работа соответствует требованиям, описанным в задании. Программа, не запускающаяся из-за синтаксических ошибок, не может получить оценку выше 4 баллов. Баллы могут сниматься, в частности, за неточное выполнение задания и отсутствие разбора случаев, из-за которых при исполнении программы может произойти ошибка. Так же оценивается оптимальность решенения (в смысле времени работы и потребляемой памяти). Во вторую очередь оценивается стиль кода.
- При обнаружении плагиата в домашнем или контрольном задании это задание получает оценку 0 баллов.
- Экзамен проводится в письменной форме.
Рекомендуемая литература
- Кормен. Алгоритмы: построение и анализ
- Bishop. Pattern Recognition and Machine Learning
- Christopher Manning. Foundations of Statistical Natural Language Processing
Программные средства
- редактор кода sublime text / notepad++ / PyCharm
- jupyter notebook
- numpy, scipy, pandas, matplotlib, seaborn, scikit-learn, gensim, lightgbm, pytorch
Правила сдачи домашних заданий
Домашние задания сдаются по умолчанию в репозиториях, указанных в форме (пожалуйста, пройдите этот опрос)
- Домашнее задание выполняется в jupyter notebook, если явно не указано иное.
- Не стоит выкладывать в репозиторий запакованные файлы.
- Соблюдайте именование каталогов, классов и сигнатур функций, если они явно указаны. В противном случае автотесты их не подцепят и ваше решение не будет засчитано.
- Опоздание считается по последнему сданному заданию в домашней работе
Оценки за домашние задания
Экзамен
Экзамен проходит в письменной форме и сотоит из 3 частей
- Решение задачи машинного обучения на ноутбуке
- Необходимые библиотеки numpy, scipy, pandas, scikit-learn, nltk. Проверьте что они у вас стоят, и не слишком старой версии.
- Задачи по мотивам домашних работ + обработка текстовых данных.
- Вопрос по теории.
- Написать формулы где они есть.
- вопрос по применению теории к решению практических задач
- По мотивам теоретических вопросов
- e.g. Каким требованиям должна удовлетворять метрика качества, чтобы ее напрямую можно было оптимизировать с помощью SGD?
Дополнительные материалы для подготовки:
- курс Евгения Соколова по машинному обучению на ФКН
- Peter Flatch. Machine Learning
- Bishop. Pattern Recognition and Machine Learning
- Scikit-learn tutorials and User guide
- Hidden Markov Models Fundamentals
Семинары
№ | Тема семинара | материалы семинара | домашнее задание | дедлайн |
---|---|---|---|---|
1 | Теория алгоритмов. Фильтр Блума. Алгоритм Рабина-Карпа | seminar_1 | assignment_1 | 18.09.2018 12:00 |
2 | Тестирование программ. Визуализация. Избранные главы теории вероятностей и линейной алгебры. | seminar_2 | ||
3 | Основные понятия машинного обучения | seminar_3 | assignment | 16.10.2018 12:00 |
4 | Регуляризация в линейных моделях | seminar_4 | ||
5 | Линейный модели для классификации | seminar_5 | assignment | 16.11.2018 23:59 |
6 | Decision Trees. Ensembles. | seminar_6 | assignment | 30.11.2018 23:59 |
7 | Feed Forward Neural Networks | seminar_7 | ||
8 | Dimension reduction. Manifold Learning | seminar_8 | ||
9 | Word2Vec. Glove. Convolutional NN | seminar_9 | assignment | 29.01.2019 23.59 |
10 | RNN | seminar_10 | assignment | 12.02.2019 23.59 |
11 | Seq2Seq | seminar_11 | assignment | 4.03.2019 23.59 |
12 | Subword Embeddings, Metric Learning | seminar_12 | assignment | 19.03.2019 23.59 |