Выбор начального приближения как средство ускорения итерационной процедуры обучения формального нейрона
Исследование алгоритма, позволяющего существенно ускорить процесс обучения формального нейрона с использованием выбора начального приближения. Смещение начального приближения в центр поисковой области. Анализ роста итерационного процесса обучения.
Рубрика | Коммуникации, связь, цифровые приборы и радиоэлектроника |
Вид | статья |
Язык | русский |
Дата добавления | 28.01.2019 |
Размер файла | 58,4 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
УДК 519.688
Байкальский государственный университет экономики и права
Выбор начального приближения как средство ускорения итерационной процедуры обучения формального нейрона
П.М. Климов
Ю.С. Шелкунова
В настоящее время интенсивно расширяется сфера использованию нейронных сетей при решении практических задач в различных областях человеческой деятельности. При решении задачи классификации, распознавания образов, сжатия-восстановления данных, прогнозирования, управления и принятия решений часто используют нейронные сети [1]. И если математическая модель формального нейрона достаточно широко исследована и описана [2, 3], то практическая реализация требует дополнительных исследований, поскольку вопросы, связанные с ускорением обучения, актуальны при решении практических задач. Действительно, решения той или иной практической задачи чаще всего необходимо получить в заранее ограниченный интервал времени, что требует снижения затрат на обучение нейрона или выявление наиболее значимых примеров для обучения.
В соответствии с [3] формальный нейрон представлен следующей математической моделью:
,
где - выходной сигнал;
- сигналы на входах;
- вес i-той связи;
- начальное возбуждение нейрона;
- функция активации нейрона.
1Климов Петр Михайлович, студент 3 курса ФЭМ БГУЭП
Klimov Peter, a third year student of the Faculty of Economics and Management of the Baikal National University of Economics and Law.
2Шелкунова Юлия Сергеевна, студентка 4 курса МФИ ВСГАО,
Shelkunova Julia, a fourth year student of the Faculty of Mathematics, Physics and Informatics of the East Siberian State Academy of Education.
В настоящее время используется широкий набор функций активации [3], среди которых пороговая функция (1) была предложена одной из первых:
,
где и некоторые постоянные, чаще всего это пары {-1, 1} или {0, 1}. Поскольку данная функция не имеет первой производной, то градиентные методы ускорения сходимости процедуры обучения при использовании данной функции неприемлемы. В связи с этим часто применяются либо гиперболический тангенс [3], либо логистическая (сигмоидальная) функция:
Вычисление данных функций по сравнению с расчетом пороговой функции требует больших вычислительных затрат. Поскольку предлагаемые методы ускорения сходимости процедуры обучения неприемлемы при использовании пороговой функции, то требуется более детальное рассмотрения процедуры обучения при использовании данной функции.
Процесс обучения нейрона приводит к настройке весов связей. При обучении с учителем на входы нейрона подается набор сигналов обучающей выборки и на основании расхождения получаемого и желаемого результата производится корректировка весов [2]. Правило, основанное на коррекции значений весов в зависимости от значения ошибки, называется правилом обучения на основе коррекции ошибок и в обобщенном виде его именуют дельта-правилом. В общем виде алгоритм обучения можно записать:
;
;
.
Данная процедура является итерационной и выполняется до тех пор, пока значение величины Delta не станет равным нулю для всего набора примеров. Естественно, число необходимых итераций зависит от начального приближения или начальных значений и . Действительно, если начальное приближение соответствует итерации k {, }, а конечное решение итерации m {,}, то для достижения этого решения, начиная с данного приближения, понадобится не m итераций а (m-k). Поскольку решение - это гиперплоскость, разделяющая два множества, то начальное приближение должно располагаться между этими множествами.
В соответствии с этим предположением можно модернизировать алгоритм обучения нейрона, смещая центр координат в центр поисковой области (осуществим перенос системы отсчета в центр поисковой области). Введя корректирующую величину , для входящих сигналов нейрона преобразуем математическую модель (2) нейрона к виду:
.
Обозначив сумму как , перепишем алгоритм обучения нейрона в виде:
;
;
.
После проведения обучения нейрона необходимо выполнить корректировку весового коэффициента W0, осуществляя перенос системы отчета в исходное состояние: формальный нейрон итерационный обучение
.
Проверка ускорения сходимости итерационной процедуры, используемой при обучении нейрона, была проведена на тестовых примерах. В таблице представлен один из вариантов тестового набора входных сигналов используемый для обучения нейрона.
Исходные данные для обучения нейрона
Значение X1 |
Значение X2 |
Ожидаемый результат |
|
6,48 |
8,52 |
-1 |
|
6,29 |
7,48 |
-1 |
|
6,66 |
6,91 |
-1 |
|
7,34 |
6,43 |
-1 |
|
8,09 |
6,43 |
-1 |
|
7,28 |
7,76 |
-1 |
|
7,22 |
8,72 |
-1 |
|
8,34 |
7,29 |
-1 |
|
3,56 |
7,29 |
1 |
|
4,37 |
7,10 |
1 |
|
4,18 |
6,24 |
1 |
|
4,68 |
6,24 |
1 |
|
4,74 |
5,29 |
1 |
|
4,18 |
5,01 |
1 |
|
3,63 |
5,20 |
1 |
|
3,32 |
6,43 |
1 |
Геометрическое расположение исследуемых данных, представленных в таблице, проиллюстрировано на рис. 1. Точки, расположенные в правом верхнем углу, относятся к первому множеству (ожидаемый результат работы нейрона - не активен, на выходе не формируется сигнал). Ниже и правее располагаются точки из второго множества, при попадании в это множество нейрон должен перейти в активное (возбужденное) состояние и перевести выход в логическое состояние «1».
Рис. 1. Иллюстрация исходных данных для обучения нейрона
При проведении расчетов корректирующие коэффициенты изменялись синхронно и лежали в диапазоне [4, 0], для расчета центра области использовалось выражение:
;
.
Расстояние до центра исследуемой области находилось на основании расчета середины области (3) по формуле:
.
При обучении нейрона использовались начальные значения весовых коэффициентов, равные 0,5. Результаты исследования зависимости числа необходимых для обучения итераций от расстояния до центра исследуемой области для примера, данного в таблице, представлены на рис. 2.
Рис. 2. Зависимость количества итераций от расстояния до центра исследуемой области по выражению (4)
При проведении численных экспериментов по обучению нейрона на различных тестовых примерах было выявлено, что количество итераций, необходимых для обучения нейрона, существенно возрастает при удалении точек обучающей выборки от центра координат.
Проведенные исследования показали, что смещение точки отсчета в предполагаемую область расположения решения существенно увеличивает скорость обучения нейрона. Предложенное изменение классического алгоритма обучения нейрона позволяет ускорить процесс обучения нейрона без существенных затрат на поиск оптимальных итерационных коэффициентов.
Библиографический список
1. Калан Р. Основные концепции нейронных сетей; пер. с англ. М.: ИД «Вильямс», 2001. 288 с.
2. Комарцова Л. Г., Максимов А. В. Нейрокомпьютеры: учеб. пособие для вузов, 2-е изд., перераб. и доп. М.: Изд-во МГТУ им. Н.Э. Баумана, 2004. 400 с.
3. Хайкин С. Нейронные сети: полный курс, 2-е изд.; пер. с англ. М.: ИД «Вильямс», 2006. 1104 с.
Аннотация
Рассмотрен алгоритм, позволяющий существенно ускорить процесс обучения формального нейрона с использованием выбора начального приближения. Показано, что при смещении начального приближения в центр поисковой области скорость сходимости итерационного процесса обучения существенно возрастает.
Ключевые слова: нейрон, обучение, итерация.
Authors of the article consider the algorithm with a choice of initial approximation that allows the essential acceleration of the process of formal neuron training. It is shown that the displacement of initial approximation in the center of the region of search essentially increases the speed of convergence of iterative training process.
Keywords: neuron, training, iteration.
Размещено на Allbest.ru
...Подобные документы
Разработка нейронной сети, выполняющей задачу распознавания и обучения. Использование пакета Simulink программы Matlab. Проектирование архитектуры нейронной сети, удовлетворяющей поставленной задаче. Создание модели импульсного двухпорогового нейрона.
дипломная работа [2,7 M], добавлен 14.10.2010Датчик как первичный преобразователь, элемент измерительного, сигнального, регулирующего или управляющего устройства системы, преобразующий контролируемую величину в удобный для использования сигнал, его типы: давления, температуры, расхода, приближения.
курсовая работа [1,4 M], добавлен 24.02.2012Динамические свойства объекта управления. Динамические свойства последовательного соединения исполнительного механизма и объекта управления. Разработка релейного регулятора, перевод объекта из начального состояния в конечное. Выбор структуры и параметров.
курсовая работа [354,6 K], добавлен 29.01.2009Аналогово-цифровые преобразователи последовательного счета и последовательного приближения. Разработка модели аналогово-цифрового преобразователя с сигма-дельта модулятором. Проектирование основных блоков сигма-дельта модулятора на КМОП-структурах.
дипломная работа [2,1 M], добавлен 18.11.2017История появления и классификация систем видеоконференцсвязи. Аппаратные, программные, специализированные, стационарные телекоммуникационные технологии интерактивного взаимодействия. Сравнение основных систем начального уровня: Sony, Polycom, Tandberg.
отчет по практике [22,7 K], добавлен 07.04.2013Авторская разработка модели измерительного нейрона в рамках эквисторной структуры измерительной нейросети, формируемые на ней ассоциативно-проективные измерительные структуры. Повышение метрологических характеристик аналогово-цифрового преобразователя.
дипломная работа [1,4 M], добавлен 25.10.2013Понятие и общие свойства датчиков. Рассмотрение особенностей работы датчиков скорости и ускорения. Характеристика оптических, электрических, магнитных и радиационных методов измерения. Анализ реальных оптических, датчиков скорости вращения и ускорения.
курсовая работа [1,4 M], добавлен 14.01.2016Понятие и применение нейронных сетей, особенности классификации искусственных нейронных сетей по Терехову. Решение задачи классификации римских цифр на основе нейронной сети. Составление блок-схемы алгоритма обучения нейронной сети и анализ ее качества.
дипломная работа [603,9 K], добавлен 14.10.2010Решение задачи компоновки для функциональной схемы с использованием последовательного алгоритма, пошаговое описание алгоритма. Размещение элементов в принципиальной электрической схеме. Трассировка цепей питания и земли с помощью волновых алгоритмов.
курсовая работа [1,1 M], добавлен 19.06.2010Этапы разработки конструкции и технологии изготовления ячейки датчика ускорения емкостного типа. Назначение акселерометра, выбор печатной платы, способы пайки, особенности сборки и монтажа. Функционально-стоимостной анализ ячейки датчика ускорения.
дипломная работа [4,1 M], добавлен 07.12.2011Исследование влияния электромагнитного поля на подземную антенну, расположенную на определенной глубине. Расчеты напряжения нагрузки проволочной антенны. Разработка программного продукта, позволяющего выполнять основные операции разработанного алгоритма.
дипломная работа [1,7 M], добавлен 07.06.2012Характеристика пакетов прикладных программ САПР. Изучение особенностей работы SCADA-систем, которые позволяют значительно ускорить процесс создания ПО верхнего уровня. Анализ инструментальной среды разработки приложений сбора данных и управления Genie.
реферат [1,3 M], добавлен 11.06.2010Исследование архитектуры микроконтроллера и его интерфейсных устройств. Характеристика выбора ввода и вывода для входных и выходных сигналов. Анализ расположения переменных и констант в регистрах процессора, разработки алгоритма и программы управления.
курсовая работа [1,4 M], добавлен 07.03.2012Сравнительный анализ между классическими и квантовыми нейронами. Построение квантовой нейронной сети. Однослойный и многослойный персептроны. Алгоритм обратного распространения "Back Propagation". Робототехника как направление искусственного интеллекта.
магистерская работа [1,7 M], добавлен 26.12.2012Общее описание восьмиразрядного высокопроизводительного однокристального микроконтроллера. Порты ввода-вывода. Разработка структурно-функциональной схемы. Выбор элементной базы, основные используемые процедуры. Описание алгоритма программы, ее листинг.
курсовая работа [28,4 K], добавлен 23.12.2012Проект устройства защиты от критических перепадов в сети питания 220В с использованием AVR микроконтроллера. Разработка алгоритма работы и структурной схемы заданного узла. Выбора элементной базы. Расчёт параметров, характеристик и надёжности системы.
курсовая работа [334,8 K], добавлен 02.11.2015Изучение современных тенденций в области проектирования интегральных микросхем и полупроводниковых приборов. Анализ алгоритма создания интегральных микросхем в среде Cadence Virtuoso. Реализация логических элементов с использованием NMOS-транзисторов.
курсовая работа [1,4 M], добавлен 08.11.2013Акселерометр как прибор, измеряющий проекцию кажущегося ускорения. Характеристика микросхемы ADXL150. Основные особенности интегральных и пленочных пьезоэлектрических акселерометров. Анализ конструкции датчика ускорения микросхемы семейства XMMA.
реферат [2,2 M], добавлен 22.10.2012Сущность и задачи литографии. Описание процесса создания рисунка с использованием фотолитографии на кремниевой подложке. Исследование режимов технологического процесса ионного легирования в кремниевой технологии при помощи компьютерных программ.
реферат [23,9 K], добавлен 01.02.2016Понятия теории множеств и теории графов. Переход от электрической схемы к графу. Разбиение электрической схемы с использованием итерационных алгоритмов. Разновидности задач трассировки. Размещение элементов РЭА с использованием конструктивного алгоритма.
курсовая работа [557,4 K], добавлен 13.02.2012