Компьютерная лингвистика и информационные технологии 2020 — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
(добавлен список литературы)
(дубли убраны)
Строка 36: Строка 36:
 
# Yoav Goldberg. Neural Network Methods for Natural Language Processing (Synthesis Lectures on Human Language Technologies). Edited by Graeme Hirst. Morgan & Claypool 2017
 
# Yoav Goldberg. Neural Network Methods for Natural Language Processing (Synthesis Lectures on Human Language Technologies). Edited by Graeme Hirst. Morgan & Claypool 2017
 
# Cборники конференций COLING, ACL, EACL, LREC, EMNLP, NAACL, "Диалог" последних лет
 
# Cборники конференций COLING, ACL, EACL, LREC, EMNLP, NAACL, "Диалог" последних лет
 
== Содержание учебной дисциплины ==
 
1. Предобработка данных
 
 
2. Базовые понятия машинного обучения, алгоритмы машинного обучения для задач классификации, кластеризации и регрессии
 
 
3. Избранные главы математики для машинного обучения
 
 
4. FFN, CNN, RNN, LSTM
 
 
5. Sequence-to-sequence, Sequence Tagging, Language Modeling
 
 
6. Статические эмбеддинги (Word2Vec, FastText)
 
 
7. Контекстуальные эмбеддинги (BERT, ELMo)
 
 
 
==Формула оценки==
 
0.5 * Домашние задания + 0.1 * Тесты + 0.2 * Экзамен (Модуль 2) + 0.2 * Экзамен (Модуль 3)
 

Версия 19:25, 26 августа 2020

О курсе

Курс читается для бакалавров 4-го курса ФГН в рамках программы "Фундаментальная и компьютерная лингвистика" в 1-3 модулях.


Преподаватели: Олег Сериков (Почта, Telegram ), Мария Пономарева (Почта, Telegram ), Влад Михайлов (Почта, Telegram )


Ассистенты: Кирилл Коновалов(Почта, Telegram ), Дарья Самсонова(Почта, Telegram )


Содержание учебной дисциплины

  1. Предобработка данных
  2. Базовые понятия машинного обучения, алгоритмы машинного обучения для задач классификации, кластеризации и регрессии
  3. Избранные главы математики для машинного обучения
  4. FFN, CNN, RNN, LSTM
  5. Sequence-to-sequence, Sequence Tagging, Language Modeling
  6. Статические эмбеддинги (Word2Vec, FastText)
  7. Контекстуальные эмбеддинги (BERT, ELMo)


Формула оценки

0.5 * Домашние задания + 0.1 * Тесты + 0.2 * Экзамен (Модуль 2) + 0.2 * Экзамен (Модуль 3)

Рекомендованная литература

  1. Daniel Jurafsky & James H. Martin. Speech and Language Processing: An introduction to natural language processing, computational linguistics, and speech recognition. Third Edition. https://web.stanford.edu/~jurafsky/slp3/
  2. Николаев И.С., Митренина О.В., Ландо Т.М. (ред.) Прикладная и компьютерная лингвистика. Изд 2. URSS. 2017. 320 с.
  3. Steven Bird, Ewan Klein, Edward Loper. Natural Language Processing with Python. – Analyzing Text with the Natural Language Toolkit. https://www.nltk.org/book/
  4. Christopher D. Manning & Hinrich Schütze. Foundations of Statistical Natural Language Processing. MIT Press, 1999.
  5. Yoav Goldberg. Neural Network Methods for Natural Language Processing (Synthesis Lectures on Human Language Technologies). Edited by Graeme Hirst. Morgan & Claypool 2017
  6. Cборники конференций COLING, ACL, EACL, LREC, EMNLP, NAACL, "Диалог" последних лет