Прикладные задачи анализа данных (майнор - весна 2018)
Содержание
О курсе
Читается для студентов 3 курса в 3-4 модулях.
Лекции проходят по четвергам, 10:30 – 11:50, ауд. 5306 (Шаболовка, 26).
Лекторы:
В 3 модуле: Екатерина Черняк (автоматическая обработка текстов)
В 4 модуле: Дмитрий Игнатов (майнинг данных)
Сдача домашних заданий: в системе Anytask
Канал для оповещений в Telegram
Семинары
Семинары проходят по четвергам (Шаболовка, 26).
Группа | Преподаватель | Расписание | чат группы |
---|---|---|---|
ИАД1 | Наталия Козловская | 12:10 – 13:30, ауд. 3316 | ссылка |
ИАД2 | Иван Смуров | 12:10 – 13:30, ауд. 4428 | ссылка |
ИАД3 | Александр Панов | 09:00 – 10:20, ауд. 4435 | |
ИАД4 | Анна Шишкова | 12:10 – 13:00, ауд. 4335 | ссылка |
Домашние задания
ДЗ 1. Генератор описания погоды: (GitHub)
ДЗ 2. Предсказание цены акции: (GitHub)
Д3 3. Кластеризация изображений: (dropbox)
ДЗ 4. Рекомендательные системы: (Я.Диск)
Система оценок
Результирующая оценка рассчитывается по формуле:
Oитоговая = 0.6 * Oнакопл + 0.4 * Оэкз
Накопленная оценка рассчитывается по формуле:
Oнакопл = 0.7 * Oдз (4 шт) + 0.3 * Oср (2 шт)
Активная работа на семинарах может положительно повлиять на округление оценки в спорных ситуациях.
При накопленное оценке в 8, 9, 10 баллов такая же оценка за экзамен выставляется автоматом.
[Здесь будет ссылка на ведомость, (ведомость)]
Программа
Неделя 1. 18.01.2018
Лекция (Е. Черняк): Введение в автоматическую обработку текстов (слайды)
Семинар: Regexp
Неделя 2. 25.01.2018
Лекция: Морфологический анализ. Скрытый цепи Маркова. (слайды)
Семинар: NLTK
Неделя 3. 01.02.2018
Лекция (И. Смуров): Синтаксический анализ (слайды)
Семинар: Scrapy
Неделя 4. 08.02.2018
Лекция: Векторная модель, снижение размерности в векторной модели. Информационный поиск. Модели скрытых тем. (слайды)
Семинар: Ключевые слова
Неделя 5. 15.02.2018
Лекция: Векторная модель, снижение размерности в векторной модели. Векторное представление слова. Счетные и нейронные модели. (слайды)
Семинар: Модели скрытых тем
Неделя 6. 22.02.2018
Лекция: Классификация текстов. ML и DL методы классификации текстов. (слайды1) (слайды2)
Семинар: Дистрибутивная семантика
Неделя 7. 01.03.2018
Лекция: Языковые модели. Цепи Маркова, нейронные языковые модели, рекуррентные нейронные языковые модели (слайды)
Семинар: самостоятельная работа
Неделя 8. 15.03.2018
Лекция: Языковые модели. Цепи Маркова, нейронные языковые модели, рекуррентные нейронные языковые модели (слайды)
Семинар: Классификация и кластеризация текстов
Неделя 9. 22.03.2018
Лекция: Языковые модели. Цепи Маркова, нейронные языковые модели, рекуррентные нейронные языковые модели (слайды)
Семинар: Языковые модели
Рекомендуемые ресурсы
На английском
- Jurafsky & Martin (link)
- Курс Лауры Каллмайер по МО для АОТ (link)
- Курс Нильса Раймерса по DL для АОТ (link)
- Курс в Оксфорде по DL для АОТ (link)
- Курс в Стенфорде по DL для AOT (link)
- Материалы по обучению с подкреплением (Reinforcment Learning) (link)
На русском (и про русский, в основном)
- НКРЯ (link)
- Открытый корпус (link)
- Дистрибутивные семантические модели для русского языка (link)
- Морфология (link)
- Синтаксис (link)
- Томита-парсер (link)
- Все на свете: (mathlingvo), (nlpub)
- Text Visualisation browser: (link)
Ссылка на дополнительную литературу:
Литература
- Manning, Christopher D., and Hinrich Schütze. Foundations of statistical natural language processing. Vol. 999. Cambridge: MIT press, 1999.
- Martin, James H., and Daniel Jurafsky. "Speech and language processing." International Edition 710 (2000): 25.
- Cohen, Shay. "Bayesian analysis in natural language processing." Synthesis Lectures on Human Language Technologies 9, no. 2 (2016): 1-274.
- Goldberg, Yoav. "Neural Network Methods for Natural Language Processing." Synthesis Lectures on Human Language Technologies 10, no. 1 (2017): 1-309.
Используемые библиотеки
05.04.2018
Лекция: Поиск частых множеств (товаров) и ассоциативных правил. Алгоритмы. [3]
Семинар: Named Entity Recognition [4]
12.04.2018
Лекция: Упражнения для самопроверки [5] Поиск частых множеств (товаров) и ассоциативных правил. Задачи. (см. слайды предыдущего занятия)
Семинар: Reinforcement Learning [6]
19.04.2018
Лекция: Рамочная презентация. [7] Case-study 1. Коллаборативная фильтрация: user-based and item-based алгоритмы [8]
Семинар: Reinforcement Learning: нейросетевой подход [9]
26.04.2018
Лекция: Case-study 2. Булева матричная факторизация и сингулярное разложение матриц для коллаборативной фильтрации [10]
Скрипт с примерами SVD и NMF средствами Питона.[11]
Семинар: Спектральная кластеризация [12]
10.05.2018
Лекция: Case-study 3. Рекомендация радиостанций. Гибридные рекомендательные системы [13]
Статья [14]
Семинар: -
17.05.2018
Лекция: Спектральная кластеризация [15]. См. ссылки на основную и дополнительную литературу в слайдах.
Семинар: Рекомендательные системы [16]
24.05.2018
Лекция: Дополнительные модели матричной факторизации для рекомендательных систем [17]. См. ссылки на статьи в слайдах.
Семинар: самостоятельная работа
31.05.2018
Лекция: Поиск документов почти-дубликатов на основе частых замкнутых множеств признаков Слайды Статья
Семинар: Оптимизация метрик
7.06.2018
Лекция: Поиск частых последовательностей (Sequence Mining) Слайды. Case-study: анализ демографических последовательностей Слайды Статья
Семинар: Проводятся консультации для подготовки к экзаменам семинаристами в своих группах.
14.06.2018
Занятий нет
21.06.2018
Экзамен. Аудитория 5306. Время: 18:10