Скоростной метод обучения многослойного персептрона

Особенности использования скоростного метода обучения многослойного персептрона, который отличается высокой скоростью обучения. Анализ результатов сравнения скоростного метода обучения со стандартными методами. Метод обратного распространения ошибки.

Рубрика Программирование, компьютеры и кибернетика
Вид статья
Язык русский
Дата добавления 27.04.2017
Размер файла 99,9 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Кубанский Государственный Технологический Университет

Скоростной метод обучения многослойного персептрона

Шумков Евгений Александрович, к. т. н.

Карлов Дмитрий Николаевич

Краснодар, Россия

Аннотация. В статье предложен скоростной метод обучения многослойного персептрона, который отличается высокой скоростью обучения. Приведены результаты сравнения скоростного метода обучения со стандартными методами

Ключевые слова: МНОГОСЛОЙНЫЙ ПЕРСЕПТРОН, СКОРОСТНОЙ АЛГОРИТМ ОБУЧЕНИЯ, МЕТОД ОБРАТНОГО РАСПРОСТРАНЕНИЯ ОШИБКИ

Основным способом обучения многослойного персептрона является метод обратного распространения ошибки (далее BackProp). Данный метод обучения хорошо себя зарекомендовал при решении многих задач [1,2,4,9]. Но у данного метода есть недостатки, к которым можно отнести: длительное время обучения; частое нахождение локальных, а не глобальных минимумов; проблема выбора адекватной Данную проблему еще можно обозначить, как выбор минимально достаточной конфигурации сети для решаемой задачи. архитектуры сети и другие. Часть данных проблем можно обойти, используя различные способы, например расписание обучения, динамическое добавление нейронов в скрытые слои при старте с заведомо недостаточным количеством нейронов, добавление "шума" во входной сигнал и т.д. [5]. Но основной проблемой обучения нейронной сети является длительное время обучения, то есть через сколько итераций ошибка сети будет меньше заданной. Существуют методы на базе BackProp, которые ускоряют обучение, например метод RProp [7], но выигрывая в скорости, он проигрывает в точности, по сути, в адекватности решения поставленной задачи.

В данной работе предлагается метод обучения нейронной сети, который также как и алгоритм обратного распространения ошибки использует ошибку на выходах сети и последовательно пропускает ее через слои нейронной сети от выходного к входному. При этом не используются градиентные методы обучения. В основе предлагаемого метода лежит вычисление обратной функции от гиперболического тангенса, подсчет разницы между желательным и реальным значением на входе в нейрон и корректировка синаптических связей на необходимое значение. Предлагаемый метод относится к классу обучения с учителем. Укажем методы, которые отчасти сходны с предлагаемым - это обучение нейронной сети с помощью генетических алгоритмов, метод отжига, метод случайного обучения [3,7].

Для общности введем следующие обозначения, как показано на Рисунке 1, при этом нейрон функционирует стандартным способом:

, (1)

(2),

где - вектор, входящий в сумматор - го нейрона - го слоя; - функция активации нейрона (в данной работе рассматривается только гиперболический тангенс); - сигнал на выходе - го нейрона - го слоя, - веса синоптических связей между слоями.

Рисунок 1. Формальный нейрон

В скоростном методе обучения ошибку можно считать:

· по валидационной выборке после каждого поданного во время обучения примера;

· суммарно по всем обучающим примерам.

Алгоритм скоростного обучения многослойного персептрона состоит из следующих шагов:

1. Подача на вход выбранного случайным образом примера и расчет значений на выходе сети. Или, в зависимости от выбранного способа пакетная подача примеров с суммированием ошибки на выходе.

2. Расчет обратной функции от гиперболического тангенса, то есть расчет того, что должно было входить в нейроны выходного слоя для правильного ответа сети. Обратная функция от гиперболического тангенса:

, (3)

где - параметр гиперболического тангенса.

3. Расчет разницы между тем, что должно было входить в нейрон и тем, что реально было на него подано:

, (4)

где - число которое должно было быть подано на вход нейрона выходного слоя для правильного ответа, - то что реально вошло в нейрон. Таким образом, мы вычисляем разницу между желаемым и действительным входом в нейрон.

4. Генератором случайных чисел разбиваем по всем синаптическим связям, входящим в данный нейрон в процентном соотношении Здесь крайне важно использовать генератор действительно случайных чисел, а не псевдослучайных. . При этом:

, (5)

5. Вычисляем - на сколько нужно изменить сигнал, исходящий из нейрона предыдущего слоя, при этом учитываем, что данный сигнал идет на все нейроны последующего слоя умноженный на соответствующие веса связей. При этом мы хотим распределить ошибку и на веса связей и на выход предыдущего слоя , чтобы изменения затронули и предыдущие слои нейронной сети. Исходная система уравнений для первого нейрона (k-1) слоя:

. (6)

В данном случае получается (n+1) неизвестное - это и . Наиболее простым решением является следующее - пусть:

, (7)

где - случайное число (). Далее подставляя установленное значение в первое уравнение системы (6) находим , после подставляем найденное значение выхода первого нейрона в остальные уравнения системы (6) находим новые значения весов связей. Система (6) составляется для каждого нейрона слоя (k-1).

6. Далее, аналогично вычисляются изменения для предыдущих слоев, в частности следующий шаг - вычислить через обратную функцию гиперболического тангенса, сколько должно получиться на входах нейронов слоя.

Экспериментальная часть проведена для решения задачи прогноза курса котировок на РТС, в частности использовались временные ряды для различных таймфреймов компании "Роснефть". Разработанный метод скоростного обучения будем сравнивать со стандартным методом обратного распространения ошибки. Программное обеспечение обоих методов для адекватности оценки написано на одном языке - VBA, при этом практически все функции и процедуры используются и для одного метода и для другого способа обучения, различие лишь в коде функции выполняющей непосредственно обучение Исходный код нейронной сети можно найти в сети Интернет по адресу: http: //apsheronsk. bozo.ru/Forex/forex.html .

При решении задач с помощью нейронных сетей необходимо вначале определиться с входами, выходами, количеством обучающих примеров, размером валидационной выборки и первоначальной структурой сети. Рассмотрим перечисленные этапы по порядку.

Определение входов и выходов. В задачах прогнозирования общепринято использование в качестве входного вектора так называемого "скользящего окна" [8].

Таблица №1. Структура "скользящего окна"

Вход №1

Вход №2

Вход №3

Вход №4

Выход в задачах прогнозирования нейронными сетями обычно используется один - прогнозное значение на следующей итерации. В рассматриваемой задаче на выходе должен формироваться сигнал значения изменения котировки на следующий момент времени . В качестве основного, прогнозируемого параметра целесообразно выбрать цену закрытия бара , либо подавать высоту японских свечей (или ) Open - цена открытия бара, Low - низшая цена бара, High - наивысшая цена, Close - цена закрытия бара. . В качестве дополнительных входов в экспериментах использовались - относительное изменение цены на нефть марки Brent, так как "Роснефть" нефтяная компания, а также индекс РТС. Напомним также о необходимости качественного масштабирования входных данных [8].

На Рисунке 2 и 3 показаны типичные графики ошибок при обучении разными методами. Отметим, что одна итерация в скоростном методе по времени примерно равна 1.1 итерации метода BackProp.

Рисунок 2. График ошибки при методе обучения BackProp.

персептрон скоростной метод обучение

Рисунок 3. График ошибки при скоростном методе обучения

На Рисунке 3 видно высокое перерегулирование в процессе обучения по предлагаемому скоростному методу. В Таблице 2 представлены данные по времени обучения и точности воспроизводимости данных для скоростного и BackProp методов. Во временных показателях не учитывалось время предобработки данных, так как оно одинаково для обеих моделей.

Таблица 2 - Результаты экспериментов

Кол-во

обучающих

примеров

Ср. кол-во нейронов Количество нейронов в скрытом слое. Во всех экспериментах использовался один скрытый слой.

Ср. кол-во

итераций обучения

Точность при обучении, %

Точность на новых примерах, %

B Обозначения в колонках B - BackProp, F - скоростной метод обучения.

F

B

F

B

F

B

F

50

15

14

2980

347

91

90

81

79

100

26

23

3403

571

87

84

77

71

200

34

36

3720

899

85

80

72

68

300

41

39

4481

1002

81

76

69

62

Таким образом, из экспериментов видно, что скоростной алгоритм обратного распространения ошибки существенно превосходит по времени обучения стандартный алгоритм обратного распространения ошибки при той же точности на валидационной выборке. В то же время на тех примерах, которые нейронная сеть не видела ни при обучении, ни при тестировании, стандартный алгоритм по точности превосходит скоростной. Авторы объясняют это тем, что стандартный алгоритм обратного распространения ошибки медленно и тщательно перерабатывает все примеры из обучающей выборки, а скоростной алгоритм действует по принципу "ближайшего шага к цели". Скоростной алгоритм обучения многослойного персептрона рекомендуется использовать, как оценочный, перед использованием стандартного алгоритма обратного распространения или его модификаций. То есть - если оценочный метод достигает за заданное количество итераций определенной ошибки, то весьма вероятно, что и стандартный алгоритм может обучиться на заданном множестве примеров. Также целесообразно использовать скоростной алгоритм обучения для задач в которых нет высоких требований по точности, но есть жесткие ограничения по времени обучения, например для задач решаемых в режиме реального времени.

Литература

1. Widrow B., Lehr M. A.30 years of adaptive neural networks: perceptron, madaline and backpropagation // Proceeding of the IEEE. - 1990. - Vol.78. - №9. - P.1415 - 1442.

2. Вороновский Г.К. Генетические алгоритмы, искусственные нейронные сети и проблемы виртуальной реальности. Х.: ОСНОВА, 1997.112 с.

3. Галушкин.А.И. Нейрокомпьютерные системы. - М.: Издательское предприятие журнала "Радиотехника", 2000. - 205с.

4. Ежов А., Чечеткин В. Нейронные сети в медицине. "Открытые системы." - 1997. - №4. - С.34-37.

5. Заенцев И.В. Нейронные сети: основные модели. Учебное пособие. Воронеж: ВГУ. 1998. - 76с.

6. Пупков К.А., Егупов Н.Д. Методы классической и современной теории автоматического управления. Т.5. - М.: Издательство МГТУ им. Н.Э. Баумана, 2004. - 784 с.

7. Рутковская Д., Пилиньский М. Рутковский Л. "Нейронные сети, генетические алгоритмы и нечеткие системы". Пер. с польск., И.Д. Рудинского. М.: Горячая линия - Телеком, 2006.452 с.

8. Шумков Е.А. Система поддержки принятия решений предприятия на основе нейросетевых технологий: Дисс. канд. техн. наук. Краснодар, КубГТУ, 2004. - 158с.

9. Эрлих А. Технический анализ товарных и фондовых рынков. - М.: Юнити, 1996. - 215 с.

Размещено на Allbest.ru

...

Подобные документы

  • Диагностический анализ изучения алгоритмов обучения нейронных сетей "с учителем". Сбор входных и выходных переменных для наблюдений и понятие пре/пост процессирования. Подготовка и обобщение многослойного персептрона, модель обратного распространения.

    курсовая работа [249,3 K], добавлен 22.06.2011

  • Обучение простейшей и многослойной искусственной нейронной сети. Метод обучения перцептрона по принципу градиентного спуска по поверхности ошибки. Реализация в программном продукте NeuroPro 0.25. Использование алгоритма обратного распространения ошибки.

    курсовая работа [1019,5 K], добавлен 05.05.2015

  • Анализ нейронных сетей и выбор их разновидностей. Модель многослойного персептрона с обучением по методу обратного распространения ошибки. Проектирование библиотеки классов для реализации нейросети и тестовой программы, описание тестирующей программы.

    курсовая работа [515,4 K], добавлен 19.06.2010

  • Обучение нейросимулятора определению видовой принадлежности грибов по их заданным внешним признакам с применением алгоритма обратного распространения ошибки. Зависимость погрешностей обучения и обобщения от числа нейронов внутреннего слоя персептрона.

    презентация [728,2 K], добавлен 14.08.2013

  • Обучение нейронных сетей как мощного метода моделирования, позволяющего воспроизводить сложные зависимости. Реализация алгоритма обратного распространения ошибки на примере аппроксимации функции. Анализ алгоритма обратного распространения ошибки.

    реферат [654,2 K], добавлен 09.06.2014

  • Математическая модель искусственной нейронной сети. Структура многослойного персептрона. Обучение без учителя, методом соревнования. Правило коррекции по ошибке. Метод Хэбба. Генетический алгоритм. Применение нейронных сетей для синтеза регуляторов.

    дипломная работа [1,5 M], добавлен 17.09.2013

  • Сущность метода проектов и виды проектной деятельности. Изучение особенности wiki-среды и системы связывания метода проектов с программными механизмами, такими как MediaWiki. Оценка степени влияния использования wiki-среды на качество процесса обучения.

    курсовая работа [1,2 M], добавлен 23.06.2014

  • Программное обеспечение для получения исходных данных для обучения нейронных сетей и классификации товаров с их помощью. Алгоритм метода обратного распространения ошибки. Методика классификации товаров: составление алгоритма, программная реализация.

    дипломная работа [2,2 M], добавлен 07.06.2012

  • Понятие дистанционного обучения, его сущность и особенности, содержание и цели. Разновидности дистанционного обучения и их характерные черты. Эффективность дистанционного обучения на современном этапе. Основные требования к программному обеспечению.

    научная работа [40,2 K], добавлен 29.01.2009

  • Понятие электронного обучения, его сущность и особенности, значение на современном этапе. Потребительские характеристики, необходимые при выборе программного обеспечения для дистанционного обучения. Авторские программные продукты и их особенности.

    научная работа [24,4 K], добавлен 29.01.2009

  • Принципы организации и функционирования биологических нейронных сетей. Система соединенных и взаимодействующих между собой простых процессоров. Нейронные сети Маккалока и Питтса. Оценка качества кластеризации. Обучение многослойного персептрона.

    курсовая работа [1,1 M], добавлен 06.12.2010

  • Основы проектирования дистанционных курсов. Педагогические особенности организации дистанционного обучения в информационно-образовательной среде открытого образования. Концептуальные положения технологии модульного обучения. Состав и структура модуля.

    реферат [62,1 K], добавлен 28.05.2010

  • Обзор существующий решений в области электронного обучения. Исследование архитектурных и технологических аспектов построения виртуальных корпоративных университетов. Анализ возможностей системы дистанционного обучения Sakai, отличительные особенности.

    дипломная работа [2,7 M], добавлен 09.04.2011

  • Анализ существующих стандартов образовательных сред в системах адаптивного компьютерного обучения. Краткая характеристика и оценка состояния рассматриваемой проблемы. Стандарты и спецификации ЭО. Обоснование выбранного метода направления исследования.

    научная работа [8,3 K], добавлен 29.01.2009

  • Система управления обучением Moodle. Компьютерное тестирование как элемент контроля и обучения. Проектирование компьютерных тестов в системе дистанционного обучения Moodle. Наполнение банка тестовых заданий. Создание теста и настройка его параметров.

    дипломная работа [5,4 M], добавлен 10.11.2010

  • Общие сведения о принципах построения нейронных сетей. Искусственные нейронные системы. Математическая модель нейрона. Классификация нейронных сетей. Правила обучения Хэбба, Розенблатта и Видроу-Хоффа. Алгоритм обратного распространения ошибки.

    дипломная работа [814,6 K], добавлен 29.09.2014

  • Преимущества применения компьютера в учебной деятельности. Перспектива применения автоматизированной системы обучения: информационное и математическое обеспечение. Пути обучения медсестер сестринскому делу с помощью автоматизированной системы обучения.

    дипломная работа [3,4 M], добавлен 11.02.2013

  • Важнейшие принципы обучения в школе. Понятие и основные виды наглядности. Развитие воображения в процессе обучения. Диапазон использования компьютера в учебно-воспитательном процессе. Понятие содержательной линии. Общая классификация методов обучения.

    курсовая работа [270,9 K], добавлен 15.12.2012

  • Модернизация системы образования в России. Организация дистанционного обучения. Методические аспекты применения платформы электронного обучения Claroline как средства организации проведения элективного курса по информатике в старших классах школы.

    дипломная работа [3,9 M], добавлен 29.09.2013

  • Проведение анализа развития, проблем и перспектив развития дистанционной формы образования как новой формы обучения. Информационные технологии в системе дистанционного обучения. Анализ его внедрения в Костанайском социально-техническом университете.

    дипломная работа [3,0 M], добавлен 23.04.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.