Прикладные задачи анализа данных (майнор - весна 2018) — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
(Домашние задания)
Строка 140: Строка 140:
 
# pymystem3 [https://github.com/Digsolab/pymystem3 (link)]
 
# pymystem3 [https://github.com/Digsolab/pymystem3 (link)]
 
# readability  [https://github.com/buriy/python-readability (link)]
 
# readability  [https://github.com/buriy/python-readability (link)]
 +
 +
 +
===5.04.2018===
 +
 +
Поиск частых множеств (товаров) и ассоциативных правил. Алгоритмы.
 +
 +
[https://www.dropbox.com/s/y8wl6r6dlc2cih7/PatternMiningIntro_DPO_2018.pdf?dl=0]
 +
 +
===12.04.2018===
 +
 +
Упражнения для самопроверки [https://www.dropbox.com/s/wnzt48068fv5s1i/Exercises_wo_solutions.pptx?dl=0]
 +
 +
Поиск частых множеств (товаров) и ассоциативных правил. Задачи. (см. слайды предыдущего занятия)
 +
 +
===19.04.2018===
 +
 +
 +
Рамочная презентация. [https://www.dropbox.com/s/a6q6s1grg0gs4o9/RecSysIntro.pdf?dl=0]
 +
 +
Case-study 1. Коллаборативная фильтрация: user-based and item-based алгоритмы
 +
 +
[https://www.dropbox.com/s/jvmxljjj1wobylc/Case%201.%20%D0%A0%D0%B5%D0%BA%D0%BE%D0%BC%D0%B5%D0%BD%D0%B4%D0%B0%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D1%8B%D0%B5%20%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D1%8B.pdf?dl=0]
 +
 +
 +
===26.04.2018===
 +
 +
Case-study2. Булева матричная факторизация и сингулярное разложение матриц для коллаборативной фильтрации
 +
 +
[https://www.dropbox.com/s/f2anmkhlm2b9i7o/Case%202%20Varna%20Boolean%20Matrix%20Factorisation%20for%20Collaborative%20Filtering.pdf?dl=0]

Версия 17:42, 26 апреля 2018

О курсе

Читается для студентов 3 курса в 3-4 модулях.

Лекции проходят по четвергам, 10:30 – 11:50, ауд. 5306 (Шаболовка, 26).

Лекторы:

В 3 модуле: Екатерина Черняк (автоматическая обработка текстов)

В 4 модуле: Дмитрий Игнатов (майнинг данных)


Сдача домашних заданий: в системе Anytask

Канал для оповещений в Telegram


Оценки за модуль NLP

Семинары

Семинары проходят по четвергам (Шаболовка, 26).

Группа Преподаватель Расписание чат группы
ИАД1 Наталия Козловская 12:10 – 13:30, ауд. 3316 ссылка
ИАД2 Иван Смуров 12:10 – 13:30, ауд. 4428 ссылка
ИАД3 Александр Панов 09:00 – 10:20, ауд. 4435
ИАД4 Анна Шишкова 12:10 – 13:00, ауд. 4335 ссылка

Домашние задания

ДЗ 1. Генератор описания погоды: (GitHub)

ДЗ 2. Предсказание цены акции: (GitHub)

Д3 3. Кластеризация изображений: (dropbox)

Система оценок

Результирующая оценка рассчитывается по формуле:

Oитоговая = 0.6 * Oнакопл + 0.4 * Оэкз

Накопленная оценка рассчитывается по формуле:

Oнакопл = 0.7 * Oдз (4 шт) + 0.3 * Oср (2 шт)

Активная работа на семинарах может положительно повлиять на округление оценки в спорных ситуациях.

При накопленное оценке в 8, 9, 10 баллов такая же оценка за экзамен выставляется автоматом.

[Здесь будет ссылка на ведомость, (ведомость)]

Программа

Неделя 1. 18.01.2018

Лекция (Е. Черняк): Введение в автоматическую обработку текстов (слайды)

Семинар: Regexp

Неделя 2. 25.01.2018

Лекция: Морфологический анализ. Скрытый цепи Маркова. (слайды)

Семинар: NLTK

Неделя 3. 01.02.2018

Лекция (И. Смуров): Синтаксический анализ (слайды)

Семинар: Scrapy

Неделя 4. 08.02.2018

Лекция: Векторная модель, снижение размерности в векторной модели. Информационный поиск. Модели скрытых тем. (слайды)

Семинар: Ключевые слова

Неделя 5. 15.02.2018

Лекция: Векторная модель, снижение размерности в векторной модели. Векторное представление слова. Счетные и нейронные модели. (слайды)

Семинар: Модели скрытых тем

Неделя 6. 22.02.2018

Лекция: Классификация текстов. ML и DL методы классификации текстов. (слайды1) (слайды2)

Семинар: Дистрибутивная семантика

Недели 7-10. март 2018

Лекция: Языковые модели. Цепи Маркова, нейронные языковые модели, рекуррентные нейронные языковые модели (слайды)

Семинар: Классификация и кластеризация текстов

Рекомендуемые ресурсы

На английском

  • Jurafsky & Martin (link)
  • Курс Лауры Каллмайер по МО для АОТ (link)
  • Курс Нильса Раймерса по DL для АОТ (link)
  • Курс в Оксфорде по DL для АОТ (link)
  • Курс в Стенфорде по DL для AOT (link)
  • Материалы по обучению с подкреплением (Reinforcment Learning) (link)

На русском (и про русский, в основном)

  • НКРЯ (link)
  • Открытый корпус (link)
  • Дистрибутивные семантические модели для русского языка (link)
  • Морфология (link)
  • Синтаксис (link)
  • Томита-парсер (link)
  • Все на свете: (mathlingvo), (nlpub)
  • Text Visualisation browser: (link)

Ссылка на дополнительную литературу:

  • [1] Books on natural language processing
  • [2] Text mining for central banks

Литература

  1. Manning, Christopher D., and Hinrich Schütze. Foundations of statistical natural language processing. Vol. 999. Cambridge: MIT press, 1999.
  2. Martin, James H., and Daniel Jurafsky. "Speech and language processing." International Edition 710 (2000): 25.
  3. Cohen, Shay. "Bayesian analysis in natural language processing." Synthesis Lectures on Human Language Technologies 9, no. 2 (2016): 1-274.
  4. Goldberg, Yoav. "Neural Network Methods for Natural Language Processing." Synthesis Lectures on Human Language Technologies 10, no. 1 (2017): 1-309.

Используемые библиотеки

  1. NLTK (link)
  2. pymorphy2 (link)
  3. pymystem3 (link)
  4. readability (link)


5.04.2018

Поиск частых множеств (товаров) и ассоциативных правил. Алгоритмы.

[3]

12.04.2018

Упражнения для самопроверки [4]

Поиск частых множеств (товаров) и ассоциативных правил. Задачи. (см. слайды предыдущего занятия)

19.04.2018

Рамочная презентация. [5]

Case-study 1. Коллаборативная фильтрация: user-based and item-based алгоритмы

[6]


26.04.2018

Case-study2. Булева матричная факторизация и сингулярное разложение матриц для коллаборативной фильтрации

[7]