Многослойный персептрон - часть 2
где e – скорость обучения.
3. Алгоритм обучения
Входные данные: обучающая выборка (множество пар вход-выход)
Выходные данные: модифицированные веса связей, при которых нейросеть наиболее эффективно классифицирует обучающую выборку.
1. На вход сети подаётся первый элемент обучающей выборки
2. Вычисляется выход сети Y
3. Вычисляется ошибка E
4. Если E<=E0 для всей выборки, ВЫХОД
5. Вычисляется EAj для каждого элемента слоя (для выходного – по формуле (3), для остальных – по формуле (6) )
6. Вычисляется EIj по формуле
7. Вычисляется EWij по формуле (5)
8. Корректируются связи в соответствии с (7)
9. Повторяются шаги [5-8] для всех слоев
10. Повторить [2-9] для всех элементов обучающей выборки
11. Повторять [1-10], пока сеть не обучится или число итераций не превысит максимально допустимого
Примечание: параметр e (скорость обучения) выбирается исходя из следующих соображений: при большом е будет наблюдаться осцилляция ошибки относительно 0, при слишком малом – малая скорость обучения и возможность локальных минимумов ошибки. Наиболее оптимальным вариантом предполагается большое значение е в начале обучения и постепенное уменьшение до 0.
4. Выводы
Многослойный персептрон с обратным распространением ошибки является наиболее распространенной на сегодняшний день архитектурой нейросети. К его достоинствам можно отнести сравнительную простоту анализа и достаточно высокую эффективность классификации. Благодаря использованию непрерывной функции возбуждения он способен к обобщению обучающей выборки, что хорошо видно на примере (см. приложение).Но все равно в связи с использованием в качестве разделительных поверхностей гиперплоскостей классификация сильно нелинейных сигналов (например, в задаче анализа изображений) требует большого числа нейронов, что не всегда является приемлемым.Выход здесь видится в предварительном преобразовании пространства сигналов с целью уменьшения нелинейностей.