Разработка модели персептрона Розенблатта (проект) — различия между версиями
Материал из Wiki - Факультет компьютерных наук
(→Темы вводных занятий) |
|||
(не показано 9 промежуточных версии 3 участников) | |||
Строка 2: | Строка 2: | ||
|name=Разработка модели персептрона Розенблатта | |name=Разработка модели персептрона Розенблатта | ||
|mentor=Лисенков Иван | |mentor=Лисенков Иван | ||
− | |mentor_login={{URLENCODE: | + | |mentor_login={{URLENCODE:Ivan_Lisenkov|WIKI}} |
|semester=Весна 2015 | |semester=Весна 2015 | ||
|course=1 | |course=1 | ||
|summer= | |summer= | ||
|categorize=yes | |categorize=yes | ||
+ | |is_archived=yes | ||
}} | }} | ||
Строка 13: | Строка 14: | ||
=== Чему вы научитесь? === | === Чему вы научитесь? === | ||
− | + | * Формулировать постановку задачи | |
− | + | * Писать надежный и понятный код | |
− | + | * Основам теории нейронных сетей на примере классической модели Перспетрона Розенблатта | |
− | + | ||
− | + | ||
=== Какие начальные требования? === | === Какие начальные требования? === | ||
− | Программирование на C/C++/Python (в рамках прослушанного курса) | + | * Программирование на C/C++/Python (в рамках прослушанного курса) |
+ | * Желание разобираться в современных алгоритмах теории искуственных нейронных сетей | ||
=== Какие будут использоваться технологии? === | === Какие будут использоваться технологии? === | ||
− | + | * C++ / Python в рамках прослушанного курса | |
− | + | ||
=== Темы вводных занятий === | === Темы вводных занятий === | ||
− | + | * Основы теории нейронных сетей (Модель Маккалока-Пиитса, Персептрон Розенблатта, Алгоритм обучения перспетрона Розенблатта) | |
=== Направления развития === | === Направления развития === | ||
− | + | * Визуализация обучающей выборки, предварительная обработка данных | |
− | + | * Разработка модели нейронной сети с одним скрытым слоем, и реализация алгоритма обратного распространения ошибки (Back-propagation algorithm, deep learning) | |
+ | * Интеграция с реляционной базой данных | ||
=== Критерии оценки === | === Критерии оценки === | ||
− | + | * 4-5 : реализованная и протестированная модель персептрона Рознеблатта и алгоритм обучения (Дельта правило) для двухмерного случая (входной вектор обучающей выборки X1 и X2); | |
− | + | * 6-7 : реализованная и протестированная модель персептрона Рознеблатта и алгоритм обучения (Дельта правило) как для двухмерного, так и для n-мерного случая | |
− | + | * 8-10 : Дополнительно, визуализация процесса обучения (Зависимость интегральной ошибки от номера итерации/эпохи), работа с файлами (возможность интеграции import/export файлов обучающей выборки с существующим ПО статистической обработки данных) | |
− | + | ||
− | + | ||
− | + |
Текущая версия на 10:49, 20 октября 2015
Ментор | Лисенков Иван |
Учебный семестр | Весна 2015 |
Учебный курс | 1-й курс |
Внимание! Данный проект находится в архиве и реализован не будет. |
Что это за проект?
Разработать приложение моделирующую классическую модель пересептрона Розенблатта с возможностью установки вручную весов синаптических связей, а так же автоматической коррекции весов с помощью алгоритма обучения.
Чему вы научитесь?
- Формулировать постановку задачи
- Писать надежный и понятный код
- Основам теории нейронных сетей на примере классической модели Перспетрона Розенблатта
Какие начальные требования?
- Программирование на C/C++/Python (в рамках прослушанного курса)
- Желание разобираться в современных алгоритмах теории искуственных нейронных сетей
Какие будут использоваться технологии?
- C++ / Python в рамках прослушанного курса
Темы вводных занятий
- Основы теории нейронных сетей (Модель Маккалока-Пиитса, Персептрон Розенблатта, Алгоритм обучения перспетрона Розенблатта)
Направления развития
- Визуализация обучающей выборки, предварительная обработка данных
- Разработка модели нейронной сети с одним скрытым слоем, и реализация алгоритма обратного распространения ошибки (Back-propagation algorithm, deep learning)
- Интеграция с реляционной базой данных
Критерии оценки
- 4-5 : реализованная и протестированная модель персептрона Рознеблатта и алгоритм обучения (Дельта правило) для двухмерного случая (входной вектор обучающей выборки X1 и X2);
- 6-7 : реализованная и протестированная модель персептрона Рознеблатта и алгоритм обучения (Дельта правило) как для двухмерного, так и для n-мерного случая
- 8-10 : Дополнительно, визуализация процесса обучения (Зависимость интегральной ошибки от номера итерации/эпохи), работа с файлами (возможность интеграции import/export файлов обучающей выборки с существующим ПО статистической обработки данных)