Прикладные задачи анализа данных (майнор - весна 2018) — различия между версиями
(добавлено 4 дз) |
|||
Строка 143: | Строка 143: | ||
# readability [https://github.com/buriy/python-readability (link)] | # readability [https://github.com/buriy/python-readability (link)] | ||
− | + | ===05.04.2018=== | |
− | === | + | '''Лекция''': Поиск частых множеств (товаров) и ассоциативных правил. Алгоритмы. [https://www.dropbox.com/s/y8wl6r6dlc2cih7/PatternMiningIntro_DPO_2018.pdf?dl=0] |
− | + | ||
− | Поиск частых множеств (товаров) и ассоциативных правил. Алгоритмы. [https://www.dropbox.com/s/y8wl6r6dlc2cih7/PatternMiningIntro_DPO_2018.pdf?dl=0] | + | |
===12.04.2018=== | ===12.04.2018=== | ||
− | + | '''Лекция''': Упражнения для самопроверки [https://www.dropbox.com/s/wnzt48068fv5s1i/Exercises_wo_solutions.pptx?dl=0] | |
− | Упражнения для самопроверки [https://www.dropbox.com/s/wnzt48068fv5s1i/Exercises_wo_solutions.pptx?dl=0] | + | |
− | + | ||
Поиск частых множеств (товаров) и ассоциативных правил. Задачи. (см. слайды предыдущего занятия) | Поиск частых множеств (товаров) и ассоциативных правил. Задачи. (см. слайды предыдущего занятия) | ||
===19.04.2018=== | ===19.04.2018=== | ||
− | + | '''Лекция''': Рамочная презентация. [https://www.dropbox.com/s/a6q6s1grg0gs4o9/RecSysIntro.pdf?dl=0] | |
− | + | ||
− | Рамочная презентация. [https://www.dropbox.com/s/a6q6s1grg0gs4o9/RecSysIntro.pdf?dl=0] | + | |
− | + | ||
Case-study 1. Коллаборативная фильтрация: user-based and item-based алгоритмы [https://www.dropbox.com/s/jvmxljjj1wobylc/Case%201.%20%D0%A0%D0%B5%D0%BA%D0%BE%D0%BC%D0%B5%D0%BD%D0%B4%D0%B0%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D1%8B%D0%B5%20%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D1%8B.pdf?dl=0] | Case-study 1. Коллаборативная фильтрация: user-based and item-based алгоритмы [https://www.dropbox.com/s/jvmxljjj1wobylc/Case%201.%20%D0%A0%D0%B5%D0%BA%D0%BE%D0%BC%D0%B5%D0%BD%D0%B4%D0%B0%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D1%8B%D0%B5%20%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D1%8B.pdf?dl=0] | ||
− | |||
===26.04.2018=== | ===26.04.2018=== | ||
− | + | '''Лекция''': Case-study 2. Булева матричная факторизация и сингулярное разложение матриц для коллаборативной фильтрации [https://www.dropbox.com/s/f2anmkhlm2b9i7o/Case%202%20Varna%20Boolean%20Matrix%20Factorisation%20for%20Collaborative%20Filtering.pdf?dl=0] | |
− | Case-study 2. Булева матричная факторизация и сингулярное разложение матриц для коллаборативной фильтрации [https://www.dropbox.com/s/f2anmkhlm2b9i7o/Case%202%20Varna%20Boolean%20Matrix%20Factorisation%20for%20Collaborative%20Filtering.pdf?dl=0] | + | |
Скрипт с примерами SVD и NMF средствами Питона.[https://www.dropbox.com/s/aij1ussi8p26on4/SVD%20%26%20NMF.ipynb?dl=0] | Скрипт с примерами SVD и NMF средствами Питона.[https://www.dropbox.com/s/aij1ussi8p26on4/SVD%20%26%20NMF.ipynb?dl=0] | ||
+ | ===10.05.2018=== | ||
− | + | '''Лекция''': Case-study 3. Рекомендация радиостанций. Гибридные рекомендательные системы [https://www.dropbox.com/s/4f8b5o9f0mleiit/Case%203%20Warsaw_FMhostTalk.pdf?dl=0] | |
− | + | Статья [https://www.dropbox.com/s/83vsmjdsiultwxn/1-s2.0-S0957417416300513-main.pdf?dl=0] | |
− | + | ||
+ | ===17.05.2018=== |
Версия 15:41, 17 мая 2018
Содержание
О курсе
Читается для студентов 3 курса в 3-4 модулях.
Лекции проходят по четвергам, 10:30 – 11:50, ауд. 5306 (Шаболовка, 26).
Лекторы:
В 3 модуле: Екатерина Черняк (автоматическая обработка текстов)
В 4 модуле: Дмитрий Игнатов (майнинг данных)
Сдача домашних заданий: в системе Anytask
Канал для оповещений в Telegram
Семинары
Семинары проходят по четвергам (Шаболовка, 26).
Группа | Преподаватель | Расписание | чат группы |
---|---|---|---|
ИАД1 | Наталия Козловская | 12:10 – 13:30, ауд. 3316 | ссылка |
ИАД2 | Иван Смуров | 12:10 – 13:30, ауд. 4428 | ссылка |
ИАД3 | Александр Панов | 09:00 – 10:20, ауд. 4435 | |
ИАД4 | Анна Шишкова | 12:10 – 13:00, ауд. 4335 | ссылка |
Домашние задания
ДЗ 1. Генератор описания погоды: (GitHub)
ДЗ 2. Предсказание цены акции: (GitHub)
Д3 3. Кластеризация изображений: (dropbox)
ДЗ 4. Рекомендательные системы: (Я.Диск)
Система оценок
Результирующая оценка рассчитывается по формуле:
Oитоговая = 0.6 * Oнакопл + 0.4 * Оэкз
Накопленная оценка рассчитывается по формуле:
Oнакопл = 0.7 * Oдз (4 шт) + 0.3 * Oср (2 шт)
Активная работа на семинарах может положительно повлиять на округление оценки в спорных ситуациях.
При накопленное оценке в 8, 9, 10 баллов такая же оценка за экзамен выставляется автоматом.
[Здесь будет ссылка на ведомость, (ведомость)]
Программа
Неделя 1. 18.01.2018
Лекция (Е. Черняк): Введение в автоматическую обработку текстов (слайды)
Семинар: Regexp
Неделя 2. 25.01.2018
Лекция: Морфологический анализ. Скрытый цепи Маркова. (слайды)
Семинар: NLTK
Неделя 3. 01.02.2018
Лекция (И. Смуров): Синтаксический анализ (слайды)
Семинар: Scrapy
Неделя 4. 08.02.2018
Лекция: Векторная модель, снижение размерности в векторной модели. Информационный поиск. Модели скрытых тем. (слайды)
Семинар: Ключевые слова
Неделя 5. 15.02.2018
Лекция: Векторная модель, снижение размерности в векторной модели. Векторное представление слова. Счетные и нейронные модели. (слайды)
Семинар: Модели скрытых тем
Неделя 6. 22.02.2018
Лекция: Классификация текстов. ML и DL методы классификации текстов. (слайды1) (слайды2)
Семинар: Дистрибутивная семантика
Недели 7-10. март 2018
Лекция: Языковые модели. Цепи Маркова, нейронные языковые модели, рекуррентные нейронные языковые модели (слайды)
Семинар: Классификация и кластеризация текстов
Рекомендуемые ресурсы
На английском
- Jurafsky & Martin (link)
- Курс Лауры Каллмайер по МО для АОТ (link)
- Курс Нильса Раймерса по DL для АОТ (link)
- Курс в Оксфорде по DL для АОТ (link)
- Курс в Стенфорде по DL для AOT (link)
- Материалы по обучению с подкреплением (Reinforcment Learning) (link)
На русском (и про русский, в основном)
- НКРЯ (link)
- Открытый корпус (link)
- Дистрибутивные семантические модели для русского языка (link)
- Морфология (link)
- Синтаксис (link)
- Томита-парсер (link)
- Все на свете: (mathlingvo), (nlpub)
- Text Visualisation browser: (link)
Ссылка на дополнительную литературу:
Литература
- Manning, Christopher D., and Hinrich Schütze. Foundations of statistical natural language processing. Vol. 999. Cambridge: MIT press, 1999.
- Martin, James H., and Daniel Jurafsky. "Speech and language processing." International Edition 710 (2000): 25.
- Cohen, Shay. "Bayesian analysis in natural language processing." Synthesis Lectures on Human Language Technologies 9, no. 2 (2016): 1-274.
- Goldberg, Yoav. "Neural Network Methods for Natural Language Processing." Synthesis Lectures on Human Language Technologies 10, no. 1 (2017): 1-309.
Используемые библиотеки
05.04.2018
Лекция: Поиск частых множеств (товаров) и ассоциативных правил. Алгоритмы. [3]
12.04.2018
Лекция: Упражнения для самопроверки [4] Поиск частых множеств (товаров) и ассоциативных правил. Задачи. (см. слайды предыдущего занятия)
19.04.2018
Лекция: Рамочная презентация. [5] Case-study 1. Коллаборативная фильтрация: user-based and item-based алгоритмы [6]
26.04.2018
Лекция: Case-study 2. Булева матричная факторизация и сингулярное разложение матриц для коллаборативной фильтрации [7]
Скрипт с примерами SVD и NMF средствами Питона.[8]
10.05.2018
Лекция: Case-study 3. Рекомендация радиостанций. Гибридные рекомендательные системы [9]
Статья [10]