Программирование (python) для лингвистов экзамен — различия между версиями
Материал из Wiki - Факультет компьютерных наук
Denaas (обсуждение | вклад) (Новая страница: «# Объектно-ориентированное программирование ## принципы и понятия ООП, их реализация в яз…») |
Denaas (обсуждение | вклад) |
||
Строка 19: | Строка 19: | ||
## регуляризация в линейных моделях | ## регуляризация в линейных моделях | ||
## отбор признаков | ## отбор признаков | ||
− | ## | + | ## bias-variance decomposition |
# Оптимизация гиперпарамтеров модели, Градиентный спуск | # Оптимизация гиперпарамтеров модели, Градиентный спуск | ||
## виды валидации и их свойста: | ## виды валидации и их свойста: |
Версия 02:03, 25 марта 2018
- Объектно-ориентированное программирование
- принципы и понятия ООП, их реализация в языке Python
- классы, экземпляры классов, конструкторы, свойства и методы.
- наследование, переопределение функций.
- композиция как альтернатива наследованию.
- Базовые понятия теории алгоритмов.
- понятие вычислительной сложности.
- поиск паттерна в строке, алгоритм Рабина-Карпа.
- асимптотическая оценка сложности по времени и по памяти
- Постановка задач машинного обучения
- supervised vs unsupervised learning, примеры задач
- виды функции потерь
- метрики качества и их особенности
- особенности многоклассовой классификации
- one vs rest
- one vs one
- multinomial logistic regression, softmax
- Явление переобучения и как с ним бороться
- регуляризация в линейных моделях
- отбор признаков
- bias-variance decomposition
- Оптимизация гиперпарамтеров модели, Градиентный спуск
- виды валидации и их свойста:
- hold out
- cross-validation
- leave-one-out
- градиентный спуск
- стохастический градиентный спуск
- виды валидации и их свойста:
- Наивный байесовский классификатор
- формулировка задачи обучения (функция потерь / функционал качества)
- алгоритм обучения
- решающее правило
- особенности, достоинства и недостатки
- Линейные модели для регресиии, Lasso и Ridge регрессия
- формулировка задачи обучения (функция потерь / функционал качества)
- алгоритм обучения
- решающее правило
- особенности, достоинства и недостатки
- Логистическая регрессия
- формулировка задачи обучения (функция потерь / функционал качества)
- алгоритм обучения
- решающее правило
- особенности, достоинства и недостатки
- multinomial logistic regression
- Support Vector Machine
- понятие отступа (margin)
- формулировка задачи обучения (функция потерь / функционал качества)
- алгоритм обучения
- решающее правило
- особенности, достоинства и недостатки
- K-Nearest Neighbors
- алгоритм обучения
- решающее правило
- особенности, достоинства и недостатки
- сложность алгоритма
- Постановка задачи кластеризации, K-means
- формулировка задачи обучения (функция потерь / функционал качества)
- алгоритм обучения
- особенности, достоинства и недостатки
- оценка качества кластеризации, внутренние и внешние метрики качества
- Постановка задачи кластеризации, Иерархическая кластеризация
- types of linkage
- формулировка задачи обучения (функция потерь / функционал качества)
- алгоритм обучения
- особенности, достоинства и недостатки
- оценка качества кластеризации, внутренние и внешние метрики качества
- Понижение размерности. PCA
- формулировка задачи обучения (функция потерь / функционал качества)
- алгоритм обучения
- решающее правило
- особенности, достоинства и недостатки
- сложность алгоритма
- Распределенные представления Word2vec (CBOW, skip-grams) и Glove
- формулировка задачи обучения (функция потерь / функционал качества)
- алгоритм обучения
- операции над векторами, поиск синонимов.
- особенности, достоинства и недостатки
- Тематическое моделирование LSA, LDA, NMF
- формулировка задачи обучения (функция потерь / функционал качества)
- решающее правило
- особенности, достоинства и недостатки
- методы оценки качества тематических моделей
- Модели с латентными переменными. Скрытые марковские модели.
- допущения марковской модели
- supervised vs unsupervised learning
- алгоритм Витерби
- особенности, достоинства и недостатки
- решающие деревья
- формулировка задачи обучения (функция потерь / функционал качества)
- критерии расщепления
- алгоритм обучения
- решающее правило
- связь с отбором признаков
- особенности, достоинства и недостатки
- Bagging. Random Forest
- формулировка задачи обучения (функция потерь / функционал качества)
- алгоритм обучения
- решающее правило
- связь с bayes-variance decomposition
- особенности, достоинства и недостатки
- Boosting
- Adaboost vs gradient boosting
- формулировка задачи обучения (функция потерь / функционал качества)
- алгоритм обучения
- решающее правило
- связь с bayes-variance decomposition
- особенности, достоинства и недостатки