Использование информационных характеристик потока импульсных сигналов для обучения спайковых нейроных сетей
Описание модели динамического нейрона. Разработка новых методов обучения нейронных сетей, генерирующих спайки. Анализ аспектов функционирования нейрона, как детектора временных последовательностей сигналов. Исследование задач обучения нейрона с учителем.
Рубрика | Программирование, компьютеры и кибернетика |
Вид | статья |
Язык | русский |
Дата добавления | 18.01.2018 |
Размер файла | 143,6 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
Московский Энергетический Институт (ТУ)
Использование информационных характеристик потока импульсных сигналов для обучения спайковых нейроных сетей
Синявский О.Ю., аспирант
e-mail: SinyavskiyOY@mail.ru
Кобрин А.И. д.ф-м.н., профессор
e-mail: KobrinAI@mail.com
Введение
Данная работа посвящена разработке новых методов обучения нейронных сетей, генерирующих спайки. Такие нейронные сети способны избирательно реагировать на многомерные наборы распределенных во времени последовательностей импульсных сигналов. В качестве ячейки нейронной сети используется модель стохастического нейрона, генерирующего спайки и работающего сразу с несколькими видами динамических нейромедиаторов. В работе анализируются аспекты функционирования нейрона, как детектора временных последовательностей сигналов, исследуются задачи обучения нейрона с «учителем».
1. Описание модели динамического нейрона
Биологические нейроны обмениваются короткими электрическими импульсами - спайками, которые идут по аксонам клеток на синапсы других клеток. Сам процесс выдачи спайков нейроном называют «импульсацией».
Искусственным нейроном называют модель клетки биологического нейрона. Описываемый в данной работе искусственный нейрон главным образом основан на динамических характеристиках реального нейрона, поэтому будем называть нашу модель динамическим нейроном. Передача информации между нейронами происходит посредством спайков - коротких единичных электрических импульсов, моделируемых двоичными числами «0» и «1» (отсутствие и наличие спайка в данный момент времени). Так же как и биологический нейрон, он состоит условно из трех частей: из тела (сомы), дендритов и аксона, a основной величиной, характеризующий возможность возникновения спайка на выходе является потенциал на его мембране. Синапсом называется место контакта между аксоном одного объекта сети и дендритом другого.
Описываемый динамический нейрон принадлежит к так называемому классу моделей, отвечающими на спайки («spike-response model») [1]. Напряжение на мембране представляется формулой:
(1.1)
где - вклад i-того дендрита в общее напряжение мембраны в процессе обработки входящих сигналов в дендритах (дендритной обработки), - количество дендритов, - функции, отвечающие за постспайковые явления (функция рефрактерности), - обозначает времена предыдущих исходящих спайков нейрона, - количество сгенерированных спайков нейрона.
В биологическом нейроне при передачи спайка через синапс постсинаптическому нейрону выделяются специальные химические посредники - нейромедиаторы (или кратко «медиаторы»), которые изменяют потенциал мембраны дендрита или тела нейрона. В нервной системе живых организмов существует большое количество типов медиаторов, однако функциональное значение такого многообразия пока точно не известно [2]. Существуют свидетельства [3], что различные нейромедиаторы имеют различные динамические характеристики влияния на нейрон. Такими характеристиками могут служить скорость изменения потенциала мембраны при приходе пресинаптического спайка на синапс, а также длительность действия этих изменений. Аппроксимировать эту зависимость можно с помощью так называемой альфа-функции, представляемой формулой:
(1.2)
где - функция Хэвисайда, - параметры, определяющие временное течение изменения потенциала, - масштабирующий коэффициент.
Примем следующую гипотезу:
«При приходе спайка от пресинаптического объекта в синапсе одновременно выделятся несколько типов медиаторов, которые по-разному во времени изменяют потенциал нейрона».
Эту гипотезу подтверждают некоторые физиологические исследования [4], [5]. Каждому медиатору в таком синапсе поставим в соответствие свою альфа-функцию с различными временными параметрами. Пример графиков влияния для трех медиаторов представлен на Рис. 1.
Рис. 1 Вид альфа-функций
динамический нейрон спайк
2. Модель стохастического порога нейрона
В результате экспериментов было установлено, что процесс выделения медиатора в синапсе реального нейрона является случайным процессом [6]. В клетке нейрона также происходят некоторые случайные процессы, влияющие на обработку сигнала нейроном. Чтобы учесть эти и многие другие случайные явления, которые не моделируются явно, в модель нейрона также вводят некоторые случайные параметры.
Чтобы учесть случайные процессы в нашей модели динамического нейрона, мы заменим строгий классический порог нейрона стохастическим. Такой порог является размытым, при приближении потенциала к условному пороговому значению вероятность генерации спайка возрастает. Причем существует ненулевая вероятность того, что спайк произойдет при потенциале мембраны, лежащем ниже порогового значения.
Введем функцию - «интенсивность плотности вероятности спайка», характеризующую вероятность генерации спайка в данный момент времени. Вероятность генерации спайка должна зависеть от напряжения на мембране нейрона , поэтому можно представить функцию в виде
,
где - функция, описывающая мгновенную интенсивность вероятности спайка, основываясь на значении потенциала на мембране. Функция характеризует стохастический порог. В качестве , возьмем сигмоидальную функцию
(2.1)
где - параметр, определяющий крутизну сигмоида и степень стохастичности нейрона. График функции для при различных представлен на Рис. 2. При функция все больше походит на строгую пороговую функцию Хэвисайда
,
где - фиксированный порог нейрона, что соответствует детерминированному случаю, когда при превышении порога потенциалом вероятность спайка равна единице, а в остальных случаях равна нулю.
Рис. 2 Графический вид стохастического порога при различных значения параметра k
Потенциал на мембране нейрона зависит от входного сигнала, следовательно, для различных входных последовательностей спайков значения функции в различные моменты времени будет меняться. Таким образом, зависимость интенсивности плотности вероятности от входных последовательностей спайков представляется в виде условной интенсивности
,
где - время последнего спайка, - обозначает некую входящую совокупность спайков на синапсах нейрона.
Наиболее важным для дальнейшего описания динамического нейрона является распределение вероятности, описывающие процесс генерации нейроном последовательности спайков в процессе получения на входы последовательности спайков. Пусть на каждый из синапсов динамического дендрита нейрона поступает некая фиксированная последовательность спайков (двоичная последовательность сигналов). Обозначим последовательность, поступающую на -ый синапс, через
где - количество входящих спайков в последовательности, а - времена спайков относительно некого заданного времени . Тогда можно из таких последовательностей сформировать вектор
где - количество синапсов в дендрите.
Пусть нейрон в процессе получения входной последовательности спайков выдает последовательность выходных спайков, которую можно обозначить через
,
где - количество исходящих спайков в последовательности, а- времена генерируемых нейроном спайков относительно того же заданного времени . Будем рассматривать функционирования нейрона на интервале .
Можно доказать, при использовании вероятностной функции интенсивности , что для плотности вероятности справедливо следующее выражение [7]:
(2.2)
Итак, плотность вероятности генерации последовательности спайков при получении входящего набора последовательностей прямо пропорциональна мгновенным вероятностям в моменты спайков и уменьшается при возрастании в интервалах между спайками.
3. Обучение динамического нейрона
В процессе обучения биологические нейроны изменяют свою чувствительность к входящим спайкам на разных синапсах, в большей степени реагируя (т.е. испуская спайки) на одну совокупность входов и в меньшей на другую. Было замечено, что количество выпускаемого медиатора в синапсе, а также чувствительность постсинаптического участка изменяется в зависимости от истории спайков пре- и постсинаптического объектов [3], [8]. В моделировании нейронов принято сводить процессы обучения нейрона к изменению весов синапсов .
В нашей модели примем, что каждый медиатор, выделяющийся в j-том синапсе, имеет свой вес, тогда вклад отдельного медиатора в изменение потенциала в момент времени t можно представить в виде . Вклад отдельного спайка на синапсе равен сумме вкладов всех медиаторов синапса
,
где - количество медиаторов в дендрите. Дендрит, содержащий синапсы с динамическими медиаторами будем называть динамическим дендритом. Процесс дендритной обработки сигнала динамическим дендритом заключается в суммировании вкладов в потенциал от всех синапсов.
Поставим задачу обучения нейрона с учителем. Пусть на синапсы нейрона приходит совокупность входных последовательностей . Задачей нейрона будет в процессе поступления последовательностигенерировать последовательность .
Для оценки исполнения задачи обучения и влияния входа на выход нейрона будем использовать понятие информационной энтропии по мере Хартли. Дифференциальная энтропия отдельной непрерывной случайной величины определяется через логарифм распределения плотности вероятностей данной величины
.
Условная дифференциальная энтропия основана на условном распределении вероятности случайной величины при условии, что событие произошло.
Для успешно обученного динамического нейрона поступление на вход последовательности спайков должно запускать генерацию последовательности спайков , т.е. неопределенность и произвольность выхода нейрона должна сниматься приходом сигнала . Условная дифференциальная энтропия служит мерой остаточной неопределенности после прихода . Таким образом, в нашем случае:
(3.1)
На основе этих рассуждений введем следующий постулат: «Динамический нейрон должен минимизировать условную дифференциальную энтропию в точке при условии прихода сигнала »:
(3.2)
Для вывода правила изменения весов рассмотрим упрощенную задачу обучения. Пусть нейрон имеет один динамический дендрит. Пусть также на этом дендрите содержится всего один синапс, на который в нулевой момент времени поступает входной спайк. Тогда
,.
Задача нейрона - выстрелить в заданный момент времени и не выстреливать в моменты времени , т.е.
.
Пусть нейрон не выдавал спайков до момента обучения и членами в уравнении (1.1) для потенциала нейрона можно пренебречь. Функцию потенциала в таком случае можно представить в виде:
(3.3)
Плотность вероятности генерации спайка в нужный момент времени выражается из (2.2):
(3.4)
Будем минимизировать энтропию, изменяя значения веса синапса. Для этого воспользуемся градиентным методом наискорейшего спуска. Найдем производную функции по весам медиаторов в синапсе, используя (3.3) и свойства производной сигмоида:
(3.5)
Степень стохастичности нейрона можно изменить, меняя параметр в функции для стохастического порога. Если рассматривать нейрон с малой зашумленностью порога при близком к нулю, можно значительно упростить итоговое выражение для изменения весов. Действительно, пусть , где - малая величина. Обучение продолжается, если нейрон не выдает спайк в нужное время, т.е. меньше порогового значения. Следовательно, приблизительно можно считать, что
.
Допустим, нейрон выдал спайки в нежелательный промежуток времени . Назовем эти спайки ложными и обозначим их времена
,
где - количество ложных спайков. При малом параметре производная сигмоида становится близкой по поведению к дельта-функции . Таким образом, во втором слагаемом (3.5) интегрирование по отрезку приблизительно можно заменить суммой значений функции во время ложных спайков. Используя эти рассуждения, получим:
(3.6)
А итоговое правило для изменения веса -го медиатора методом градиентного спуска примет вид:
. (3.7)
где - коэффициент, характеризующий скорость обучения
Таким образом, логика работы обучающего алгоритма будет следующей. В момент на синапс подается входной спайк. Далее, если нейрон сам выдаст спайк до времени , этот спайк будет ложным, и веса будут изменены по правилу
.
То же самое выполнится и при следующем ложном спайке, если он произойдет. В момент времени нейрон может выдать спайк. В этом случае обучение не нужно, нейрон справляется с поставленной задачей. Если же его потенциал будет ниже порога в желаемый момент времени, то веса будут изменены по правилу
.
Во время ложных спайков нейрон «разобучается» только на основе локально доступной ему информации (информации о своем спайке). В момент времени нейрон не способен понять, что требуется изменить веса, т.к. не владеет информацией учителя о желаемом моменте времени. Поэтому можно сказать, что при учитель заставляет нейрон изменить веса. На основе данного наблюдения расширим модель динамического нейрона и введем новый тип дендрита, который назовем «обучающим дендритом». При упрощенном опыте по обучению нейрона реагировать на одиночный спайк своим одиночным спайком введенный обучающий дендрит нейрона будет соединен одним синапсом с учителем. Учитель будет выдавать спайк в желаемый момент времени .
Описанные выше правила можно обобщить на непрерывный процесс обучения и функционирования динамического нейрона. При разбиении процесса обучения на последовательность условных тактов входной спайк на динамическом синапсе приходит в начале каждого такта - в момент , а правила обучения основаны на разности времен прихода входного и ложного (или обучающего) спайка. Тогда, если входные спайки приходят в произвольные моменты времени,
(3.8)
где - количество всех входящих спайков на динамическом синапсе, - количество всех обучающих спайков на обучающем дендрите, - количество спайков, сгенерированных нейроном самостоятельно.
Графики изменения весов в зависимости от разницы времен одного входящего и одного исходящего спайка представлены на рисунке Рис. 3a. Заметим, что правило изменения было выведено, только исходя из модели динамического нейрона и поставленной задачи обучения. Своеобразным доказательством правильности выбранного пути рассуждений служат результаты опытов на реальных нейронах. Было замечено, что изменения количества выбрасываемого медиатора в синапсе (аналогично изменению веса синапса) зависит от разницы во времени между моментами появления входного спайка на синапсе и исходящего спайка нейрона.
Это явление было названо Spike Timing Dependent Plasticity (STDP) [9]. На Рис. 3bприведено графическое изображение результатов этих опытов, на котором можно отметить их значительное сходство с полученной нами графической зависимостью изменения весов по правилу (3.8).
.
Рис. 3 a) Экспериментально полученная кривая STDP [9],
b) Смоделированные функции синаптической пластичности для разных медиаторов
Литература
1. Gerstner W., Kistler W.M. Spiking Neuron Models: Single Neurons, Populations, Plasticity: Cambridge University Press, 2002.
2. Webster R. A. Neurotransmitters, Drugs and Brain Function: John Wiley and Sons, 2002.
3. Мартин Р., Николлс Дж., Валлас Б., Фукс П. От нейрона к мозгу. М.:УРСС, 2003.
4. Bean, Deutch A.Y., Andrew J. Colocalization in Dopamine Neurons. Psychopharmacology. The American College of Neuropsychopharmacology. 2000.
5. Crawley, Holmes P.V., Jacqueline N. Coexisting Neurotransmitters in Central Noradrenergic Neurons. Psychopharmacology. The American College of Neuropsychopharmacology. 2000.
6. Perkel D.H., Feldman M.W. Neurotransmitter release statistics: Moment estimates for inhomogeneous Bernoulli trials. Journal of Mathematical Biology. 1979, Volume 7, Number 1.
7. Pfister J.P., Toyoizumi T., Barbery D., Gerstner W. Optimal Spike-Timing Dependent Plasticity for Precise Action Potential Firing in Supervised Learning. Neural Computation 18. 2006.
8. Baudry M. Davis J.L., Thompson R.F. Advances in Synaptic Plasticity: MIT Press, 1999.
9. Bi G.Q., Poo M.M. Synaptic modifications in cultured hippocampal neurons: dependence on spike timing, synaptic strength, and postsynaptic cell type. Journal of Neuroscience 18. 1998.
Размещено на Allbest.ru
...Подобные документы
Понятие искусственного нейрона и искусственных нейронных сетей. Сущность процесса обучения нейронной сети и аппроксимации функции. Смысл алгоритма обучения с учителем. Построение и обучение нейронной сети для аппроксимации функции в среде Matlab.
лабораторная работа [1,1 M], добавлен 05.10.2010Общие сведения о принципах построения нейронных сетей. Искусственные нейронные системы. Математическая модель нейрона. Классификация нейронных сетей. Правила обучения Хэбба, Розенблатта и Видроу-Хоффа. Алгоритм обратного распространения ошибки.
дипломная работа [814,6 K], добавлен 29.09.2014Достоинства, недостатки и применение нейронных сетей. Преимущества мозга, как вычислительного устройства, над современными вычислительными машинами. Структурные части, виды и активационные функции нейрона. Обобщенное представление искусственного нейрона.
презентация [145,5 K], добавлен 03.01.2014Диагностический анализ изучения алгоритмов обучения нейронных сетей "с учителем". Сбор входных и выходных переменных для наблюдений и понятие пре/пост процессирования. Подготовка и обобщение многослойного персептрона, модель обратного распространения.
курсовая работа [249,3 K], добавлен 22.06.2011Описание технологического процесса напуска бумаги. Конструкция бумагоделательной машины. Обоснование применения нейронных сетей в управлении формованием бумажного полотна. Математическая модель нейрона. Моделирование двух структур нейронных сетей.
курсовая работа [1,5 M], добавлен 15.10.2012Механизм работы биологического нейрона и описание системы дифференциальных уравнений его работы. Алгоритм работы модели биологического нейрона, модель синапса. Элементы нейрологики с позиции аппаратной реализации и разработка программного комплекса.
дипломная работа [1,7 M], добавлен 07.09.2012Механизмы работы синапса биологического нейрона, в которую входят: воссоздание пороговых принципов ограничения потенциала нейрона, а также торможения и возбуждения с их временными зависимостями. Испытания работы нейрона с различной структурой мембраны.
дипломная работа [1,8 M], добавлен 03.02.2015Понятие и свойства искусственных нейронных сетей, их функциональное сходство с человеческим мозгом, принцип их работы, области использования. Экспертная система и надежность нейронных сетей. Модель искусственного нейрона с активационной функцией.
реферат [158,2 K], добавлен 16.03.2011Механизм работы нервной системы и мозга человека. Схема биологического нейрона и его математическая модель. Принцип работы искусственной нейронной сети, этапы ее построения и обучения. Применение нейронных сетей в интеллектуальных системах управления.
презентация [98,6 K], добавлен 16.10.2013Сущность и функции искусственных нейронных сетей (ИНС), их классификация. Структурные элементы искусственного нейрона. Различия между ИНС и машинами с архитектурой фон Неймана. Построение и обучение данных сетей, области и перспективы их применения.
презентация [1,4 M], добавлен 14.10.2013Разработка систем автоматического управления. Свойства нейронных сетей. Сравнительные оценки традиционных ЭВМ и нейрокомпьютеров. Формальная модель искусственного нейрона. Обучение нейроконтроллера при помощи алгоритма обратного распространения ошибки.
реферат [1,4 M], добавлен 05.12.2010Определение и виды модели, ее отличие от понятия моделирования. Формула искусственного нейрона. Структура передачи сигнала между нейронами. Способность искусственных нейронных сетей к обучению и переобучению. Особенности их применения в финансовой сфере.
реферат [136,2 K], добавлен 25.04.2016Искусственные нейронные сети как одна из широко известных и используемых моделей машинного обучения. Знакомство с особенностями разработки системы распознавания изображений на основе аппарата искусственных нейронных сетей. Анализ типов машинного обучения.
дипломная работа [1,8 M], добавлен 08.02.2017Рост активности в области теории и технической реализации искусственных нейронных сетей. Основные архитектуры нейронных сетей, их общие и функциональные свойства и наиболее распространенные алгоритмы обучения. Решение проблемы мертвых нейронов.
реферат [347,6 K], добавлен 17.12.2011Понятие сетей Петри, их применение и возможности. Сетевое планирование, математические модели с использованием сетей Петри. Применение сетевых моделей для описания параллельных процессов. Моделирование процесса обучения с помощью вложенных сетей Петри.
курсовая работа [1,0 M], добавлен 17.11.2009Различные методы решения задачи классификации. Нейросетевые парадигмы, методы обучения нейронных сетей, возникающие при этом проблемы и пути их решения. Описание программной реализации классификатора, его функциональные возможности и результаты обучения.
дипломная работа [1,0 M], добавлен 28.12.2015Моделирование процесса обработки 500 сигналов, поступающих с датчиков. Определение среднего времени задержки сигналов в канале и линии-ЭВМ и вероятности переполнения входных накопителей. Разработка и описание алгоритма функционирования программной модели.
курсовая работа [140,7 K], добавлен 09.04.2013Обучение простейшей и многослойной искусственной нейронной сети. Метод обучения перцептрона по принципу градиентного спуска по поверхности ошибки. Реализация в программном продукте NeuroPro 0.25. Использование алгоритма обратного распространения ошибки.
курсовая работа [1019,5 K], добавлен 05.05.2015Применение нейрокомпьютеров на российском финансовом рынке. Прогнозирование временных рядов на основе нейросетевых методов обработки. Определение курсов облигаций и акций предприятий. Применение нейронных сетей к задачам анализа биржевой деятельности.
курсовая работа [527,2 K], добавлен 28.05.2009Способы применения нейронных сетей для решения различных математических и логических задач. Принципы архитектуры их построения и цели работы программных комплексов. Основные достоинства и недостатки каждой из них. Пример рекуррентной сети Элмана.
курсовая работа [377,4 K], добавлен 26.02.2015