Прикладные задачи анализа данных (майнор - весна 2018) — различия между версиями

Материал из Wiki - Факультет компьютерных наук
Перейти к: навигация, поиск
Строка 145: Строка 145:
 
===05.04.2018===
 
===05.04.2018===
 
'''Лекция''':  Поиск частых множеств (товаров) и ассоциативных правил. Алгоритмы. [https://www.dropbox.com/s/y8wl6r6dlc2cih7/PatternMiningIntro_DPO_2018.pdf?dl=0]
 
'''Лекция''':  Поиск частых множеств (товаров) и ассоциативных правил. Алгоритмы. [https://www.dropbox.com/s/y8wl6r6dlc2cih7/PatternMiningIntro_DPO_2018.pdf?dl=0]
 +
 +
'''Семинар''': Named Entity Recognition
  
 
===12.04.2018===
 
===12.04.2018===
 
'''Лекция''':  Упражнения для самопроверки [https://www.dropbox.com/s/wnzt48068fv5s1i/Exercises_wo_solutions.pptx?dl=0]
 
'''Лекция''':  Упражнения для самопроверки [https://www.dropbox.com/s/wnzt48068fv5s1i/Exercises_wo_solutions.pptx?dl=0]
 
Поиск частых множеств (товаров) и ассоциативных правил. Задачи. (см. слайды предыдущего занятия)
 
Поиск частых множеств (товаров) и ассоциативных правил. Задачи. (см. слайды предыдущего занятия)
 +
 +
'''Семинар''':  Reinforcement Learning
  
 
===19.04.2018===
 
===19.04.2018===
 
'''Лекция''': Рамочная презентация. [https://www.dropbox.com/s/a6q6s1grg0gs4o9/RecSysIntro.pdf?dl=0]
 
'''Лекция''': Рамочная презентация. [https://www.dropbox.com/s/a6q6s1grg0gs4o9/RecSysIntro.pdf?dl=0]
 
Case-study 1. Коллаборативная фильтрация: user-based and item-based алгоритмы [https://www.dropbox.com/s/jvmxljjj1wobylc/Case%201.%20%D0%A0%D0%B5%D0%BA%D0%BE%D0%BC%D0%B5%D0%BD%D0%B4%D0%B0%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D1%8B%D0%B5%20%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D1%8B.pdf?dl=0]
 
Case-study 1. Коллаборативная фильтрация: user-based and item-based алгоритмы [https://www.dropbox.com/s/jvmxljjj1wobylc/Case%201.%20%D0%A0%D0%B5%D0%BA%D0%BE%D0%BC%D0%B5%D0%BD%D0%B4%D0%B0%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D1%8B%D0%B5%20%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D1%8B.pdf?dl=0]
 +
 +
'''Семинар''':  Reinforcement Learning: нейросетевой подход
  
 
===26.04.2018===
 
===26.04.2018===
Строка 158: Строка 164:
  
 
Скрипт с примерами SVD и NMF средствами Питона.[https://www.dropbox.com/s/aij1ussi8p26on4/SVD%20%26%20NMF.ipynb?dl=0]
 
Скрипт с примерами SVD и NMF средствами Питона.[https://www.dropbox.com/s/aij1ussi8p26on4/SVD%20%26%20NMF.ipynb?dl=0]
 +
 +
'''Семинар''': Спектральная кластеризация [https://yadi.sk/d/oTt7Vkr93UdseH]
  
 
===10.05.2018===
 
===10.05.2018===
Строка 165: Строка 173:
 
Статья [https://www.dropbox.com/s/83vsmjdsiultwxn/1-s2.0-S0957417416300513-main.pdf?dl=0]
 
Статья [https://www.dropbox.com/s/83vsmjdsiultwxn/1-s2.0-S0957417416300513-main.pdf?dl=0]
  
 +
'''Семинар''':  -
  
 
===17.05.2018===
 
===17.05.2018===
 +
'''Лекция''':  Спектральная кластеризация
 +
 +
'''Семинар''':  Рекомендательные системы [https://yadi.sk/d/SWWrGA0s3VqLER]

Версия 16:03, 17 мая 2018

О курсе

Читается для студентов 3 курса в 3-4 модулях.

Лекции проходят по четвергам, 10:30 – 11:50, ауд. 5306 (Шаболовка, 26).

Лекторы:

В 3 модуле: Екатерина Черняк (автоматическая обработка текстов)

В 4 модуле: Дмитрий Игнатов (майнинг данных)


Сдача домашних заданий: в системе Anytask

Канал для оповещений в Telegram


Оценки за модуль NLP

Семинары

Семинары проходят по четвергам (Шаболовка, 26).

Группа Преподаватель Расписание чат группы
ИАД1 Наталия Козловская 12:10 – 13:30, ауд. 3316 ссылка
ИАД2 Иван Смуров 12:10 – 13:30, ауд. 4428 ссылка
ИАД3 Александр Панов 09:00 – 10:20, ауд. 4435
ИАД4 Анна Шишкова 12:10 – 13:00, ауд. 4335 ссылка

Домашние задания

ДЗ 1. Генератор описания погоды: (GitHub)

ДЗ 2. Предсказание цены акции: (GitHub)

Д3 3. Кластеризация изображений: (dropbox)

ДЗ 4. Рекомендательные системы: (Я.Диск)

Система оценок

Результирующая оценка рассчитывается по формуле:

Oитоговая = 0.6 * Oнакопл + 0.4 * Оэкз

Накопленная оценка рассчитывается по формуле:

Oнакопл = 0.7 * Oдз (4 шт) + 0.3 * Oср (2 шт)

Активная работа на семинарах может положительно повлиять на округление оценки в спорных ситуациях.

При накопленное оценке в 8, 9, 10 баллов такая же оценка за экзамен выставляется автоматом.

[Здесь будет ссылка на ведомость, (ведомость)]

Программа

Неделя 1. 18.01.2018

Лекция (Е. Черняк): Введение в автоматическую обработку текстов (слайды)

Семинар: Regexp

Неделя 2. 25.01.2018

Лекция: Морфологический анализ. Скрытый цепи Маркова. (слайды)

Семинар: NLTK

Неделя 3. 01.02.2018

Лекция (И. Смуров): Синтаксический анализ (слайды)

Семинар: Scrapy

Неделя 4. 08.02.2018

Лекция: Векторная модель, снижение размерности в векторной модели. Информационный поиск. Модели скрытых тем. (слайды)

Семинар: Ключевые слова

Неделя 5. 15.02.2018

Лекция: Векторная модель, снижение размерности в векторной модели. Векторное представление слова. Счетные и нейронные модели. (слайды)

Семинар: Модели скрытых тем

Неделя 6. 22.02.2018

Лекция: Классификация текстов. ML и DL методы классификации текстов. (слайды1) (слайды2)

Семинар: Дистрибутивная семантика

Недели 7-10. март 2018

Лекция: Языковые модели. Цепи Маркова, нейронные языковые модели, рекуррентные нейронные языковые модели (слайды)

Семинар: Классификация и кластеризация текстов

Рекомендуемые ресурсы

На английском

  • Jurafsky & Martin (link)
  • Курс Лауры Каллмайер по МО для АОТ (link)
  • Курс Нильса Раймерса по DL для АОТ (link)
  • Курс в Оксфорде по DL для АОТ (link)
  • Курс в Стенфорде по DL для AOT (link)
  • Материалы по обучению с подкреплением (Reinforcment Learning) (link)

На русском (и про русский, в основном)

  • НКРЯ (link)
  • Открытый корпус (link)
  • Дистрибутивные семантические модели для русского языка (link)
  • Морфология (link)
  • Синтаксис (link)
  • Томита-парсер (link)
  • Все на свете: (mathlingvo), (nlpub)
  • Text Visualisation browser: (link)

Ссылка на дополнительную литературу:

  • [1] Books on natural language processing
  • [2] Text mining for central banks

Литература

  1. Manning, Christopher D., and Hinrich Schütze. Foundations of statistical natural language processing. Vol. 999. Cambridge: MIT press, 1999.
  2. Martin, James H., and Daniel Jurafsky. "Speech and language processing." International Edition 710 (2000): 25.
  3. Cohen, Shay. "Bayesian analysis in natural language processing." Synthesis Lectures on Human Language Technologies 9, no. 2 (2016): 1-274.
  4. Goldberg, Yoav. "Neural Network Methods for Natural Language Processing." Synthesis Lectures on Human Language Technologies 10, no. 1 (2017): 1-309.

Используемые библиотеки

  1. NLTK (link)
  2. pymorphy2 (link)
  3. pymystem3 (link)
  4. readability (link)

05.04.2018

Лекция: Поиск частых множеств (товаров) и ассоциативных правил. Алгоритмы. [3]

Семинар: Named Entity Recognition

12.04.2018

Лекция: Упражнения для самопроверки [4] Поиск частых множеств (товаров) и ассоциативных правил. Задачи. (см. слайды предыдущего занятия)

Семинар: Reinforcement Learning

19.04.2018

Лекция: Рамочная презентация. [5] Case-study 1. Коллаборативная фильтрация: user-based and item-based алгоритмы [6]

Семинар: Reinforcement Learning: нейросетевой подход

26.04.2018

Лекция: Case-study 2. Булева матричная факторизация и сингулярное разложение матриц для коллаборативной фильтрации [7]

Скрипт с примерами SVD и NMF средствами Питона.[8]

Семинар: Спектральная кластеризация [9]

10.05.2018

Лекция: Case-study 3. Рекомендация радиостанций. Гибридные рекомендательные системы [10]

Статья [11]

Семинар: -

17.05.2018

Лекция: Спектральная кластеризация

Семинар: Рекомендательные системы [12]