Обработка и классификация нестационарных сигналов при помощи самоорганизующихся нейросетей
Нейросетевая модель для понижения размерности массива данных, полученных при регистрации многоканальной электрокардиограммы, которая основана на алгоритме обучения без учителя. Ее применение для выявления в множестве входных данных существенных признаков.
Рубрика | Коммуникации, связь, цифровые приборы и радиоэлектроника |
Вид | статья |
Язык | русский |
Дата добавления | 27.05.2018 |
Размер файла | 377,2 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
3
Размещено на http://www.allbest.ru//
3
Размещено на http://www.allbest.ru//
Обработка и классификация нестационарных сигналов при помощи самоорганизующихся нейросетей
Н.В. Лукьянова
Представлена нейросетевая модель для понижения размерности массива данных, полученных при регистрации многоканальной электрокардиограммы, которая основана на алгоритме обучения без учителя и применяется для выявления в множестве входных данных существенных признаков.
Ключевые слова: нейронные сети, обобщенный алгоритм Хебба, карты самоорганизации.
Для обработки сигналов, как правило, используются статистические методы. Однако применение нейросетей на основе самоорганизации (или обучения без учителя) также позволяет эффективно обрабатывать сигнал. Модели нейросетей, обучаемые на основе принципа самоорганизации, хорошо отражают свойства нейробиологических структур, что делает их использование предпочтительней для обработки биологических сигналов.
Постановка задачи. Обработка многоканальных нестационарных сигналов является достаточно сложной задачей. С практической точки зрения особенно интересен результат обработки биомедицинских сигналов. В данной статье рассматривается сигнал, полученный при помощи многоканальной электрокардиограммы (ЭКГ).
Основной сложностью при анализе многоканальных сигналов является выделение существенных признаков исследуемого массива данных без потери информативности. В представленной работе для этого использовался обобщенный алгоритм Хебба (GHA) ? нейросетевой аналог анализа главных компонент [1]. Применение данного алгоритма позволило выявить наиболее значимые признаки обрабатываемых сигналов и уже по ним провести классификацию.
Для определения принадлежности сигнала к той или иной группе использовались самоорганизующиеся карты Кохонена [1]. Основной целью карт самоорганизации является преобразование поступающих векторов сигналов, имеющих произвольную размерность, в одно- или двухмерную карту. При этом преобразование осуществляется адаптивно, в топологически упорядоченной форме. После окончания обучения самоорганизующихся карт Кохонена получается карта с разделением на области, где каждая область соответствует определенному классу.
Объем информации, полученной посредством многоканальной электрокардиограммы, велик, и большая ее часть не используется при постановке диагноза врачом. Применение нейросетей при обработке полученных данных позволит учесть наиболее важные характеристики ЭКГ и провести правильную классификацию имеющихся патологий.
Обобщенный алгоритм Хебба для анализа главных компонент. Главной задачей в статистическом распознавании является выделение признаков - процесс, в котором пространство данных преобразуется в пространство признаков, теоретически имеющее ту же размерность, что и исходное пространство. Однако обычно преобразования выполняются так, чтобы пространство данных могло быть представлено сокращенным количеством «эффективных» признаков. Таким образом, остается только существенная часть информации, содержащейся в данных, т.е. множество данных подвергается сокращению размерности.
Предположим, что существует вектор x размерности m, который необходимо представить в виде l чисел, где l<m. Требуется выяснить, существует ли такое линейное преобразование T, для которого обрезание вектора Tx будет оптимальным в смысле среднеквадратичной ошибки. При этом преобразование T должно обладать малой дисперсией своих отдельных компонент. x - m-мерный случайный вектор, имеющий нулевое среднее значение. Пусть q - единичный вектор, на который проецируется вектор x. Эта проекция определяется следующим образом: при ограничении .
Дисперсия A равна
.
Матрица R является матрицей корреляции случайного вектора x. Из предыдущего выражения видно, что дисперсия проекции A является функцией единичного вектора и данную функцию можно представить как дисперсионный зонд:
.
Проделав необходимые выкладки, получаем совпадение собственных значений матрицы R и дисперсионного зонда:
, .
Таким образом, собственные векторы матрицы корреляции R определяют единичные векторы , представляющие основные направления, вдоль которых дисперсионный зонд принимает экстремальные значения, а собственные значения определяют экстремальные значения дисперсионного зонда .
Исходный вектор x может быть реконструирован в следующем виде:
Количество признаков, необходимых для эффективного представления данных, можно сократить, устранив те линейные комбинации, которые имеют малые дисперсии, и оставив те, чьи дисперсии велики. Если взять l наибольших собственных значений матрицы R, то можно аппроксимировать вектор x, отсекая члены разложения после l-го слагаемого:
Вектор ошибки аппроксимации e равен разности между вектором исходных данных x и вектором приближенных данных :
. (1)
Таким образом, для того чтобы обеспечить сокращение размерности входных данных, нужно вычислить собственные значения и векторы матрицы корреляции векторов входных данных, а затем ортогонально спроецировать эти данные на подпространство, задаваемое собственными векторами, соответствующими доминирующим собственным значениям этой матрицы [2].
Существует тесная взаимосвязь между поведением самоорганизующихся нейронных сетей и статистическим методом анализа главных компонент. Один линейный нейрон с хеббовским правилом адаптации синаптических весов [3] может быть преобразован в фильтр для выделения первой главной компоненты входного распределения. Линейная модель с одним нейроном может быть расширена до сети прямого распространения с одним слоем линейных нейронов с целью анализа главных компонент для входного сигнала произвольной размерности.
Рассмотрим -мерное пространство. Вектор входного пространства и матрицу синаптических весов обозначим так:
, .
В данном случае используется сеть прямого распространения, имеющая следующую структуру:
все нейроны выходного слоя сети являются линейными;
сеть имеет входов и выходов ();
обучению подлежит только множество синаптических весов , соединяющих узлы входного слоя с вычислительными узлами выходного слоя (; ).
Теорема. Если элементы матрицы синаптических весов на шаге n=0 принимают случайные значения, то с вероятностью 1 обобщенный алгоритм Хебба будет сходиться к фиксированной точке, а достигнет матрицы, столбцы которой являются первыми l собственными векторами матрицы корреляции R, упорядоченными по убыванию собственных значений.
Данная теорема гарантирует нахождение обобщенным алгоритмом Хебба первых l собственных векторов матрицы корреляции R (в предположении, что соответствующие собственные значения отличны друг от друга). При этом важен факт, что саму матрицу R не требуется вычислять: ее первые l собственных векторов вычисляются непосредственно на основании входных данных.
Выходной сигнал нейрона в момент времени определяется по формуле
, .
Синаптический вес настраивается в соответствии с обобщенной формой правила Хебба:
, (2)
где - коррекция, применяемая к синаптическому весу в момент времени ; - параметр скорости обучения. Как правило, параметр берут зависимым от времени:
.
Перепишем уравнение (2) в следующем виде:
,
где .
Запишем алгоритм в матричном представлении:
, (3)
где .
Вектор представляет собой модифицированную форму входного вектора. Основываясь на представлении (3), можно сделать следующее наблюдение: для первого нейрона () сети прямого распространения .
Как было показано выше, этот нейрон извлекает первую главную компоненту входного вектора . Для второго нейрона () сети можно записать:
.
Поскольку первый нейрон уже извлек первую главную компоненту, второй нейрон видит входной вектор , из которого удален первый собственный вектор матрицы корреляции R. Таким образом, второй нейрон извлекает первую главную компоненту , что эквивалентно второй главной компоненте исходного входного вектора .
Продолжая эту процедуру для оставшихся нейронов сети прямого распространения, получим, что каждый из выходов сети, обученный с помощью обобщенного алгоритма Хебба, представляет собой отклик на конкретный собственный вектор матрицы корреляции входного вектора, причем отдельные выходы упорядочены по убыванию ее собственных значений.
Увеличение параметра ведет к более быстрой сходимости и увеличению асимптотической среднеквадратичной ошибки.
Далее необходимо оценить количество главных компонент, требуемых для восстановления сигнала с минимальной среднеквадратичной ошибкой. Вектор ошибки аппроксимации e определяется по формуле (1).
Однако алгоритм Хебба не позволяет найти ошибку таким образом, так как при обучении сети мы получаем только l собственных векторов. Поэтому найдем ошибку экспериментальным путем.
Возьмем в качестве обучающей выборки 100 сигналов ЭКГ. Обучим сеть для выделения l главных компонент. Полученные веса сохраним. Возьмем тестовую выборку - 100 сигналов ЭКГ. Найдем главные компоненты и восстановим по полученным данным исходный сигнал ЭКГ.
3
Размещено на http://www.allbest.ru//
3
Размещено на http://www.allbest.ru//
На рис. 1 приведен график зависимости средней ошибки восстановления сигнала от количества главных компонент для тестовой выборки (100 сигналов). Из графика видно, что 8-10 компонент достаточно для восстановления сигнала и увеличение количества главных компонент существенного выигрыша не дает.
Пример восстановленного сигнала для 1, 3, 5 и 7 компонент приведен на рис. 2. Из него видно, что с ростом количества главных компонент восстановленный сигнал приближается к исходному.
При небольшом количестве главных компонент (1-3) разница между исходным и восстановленным сигналами заметна. Однако уже при 5 главных компонентах ошибка восстановления достаточно мала. Качество восстановленного сигнала для разных тестовых данных было также разным. Некоторые сигналы имели маленькую ошибку восстановления уже при 4-5 главных компонентах, а некоторые давали большую погрешность и при 10 главных компонентах. В данном случае это свидетельствует о несовершенстве обучающей выборки.
В обрабатываемой многоканальной ЭКГ используется 80 датчиков. Сигнал каждого из датчиков был подвергнут обработке обобщенным алгоритмом Хебба. Для каждого сигнала было выделено 8 главных компонент. Для последующей классификации использовался вектор, составленный из главных компонент всех 80 датчиков.
a) |
б) |
|
в) |
г) |
|
Рис. 2. Пример сигнала, восстановленного по 1(а), 3(б), 5(в) и 7(г) главным компонентам |
Классификация при помощи самоорганизующихся карт Кохонена. Алгоритм, ответственный за формирование самоорганизующихся карт, начинается с инициализации синаптических весов сети. После корректной инициализации сети для формирования карты самоорганизации запускаются три основных процесса: конкуренции, кооперации и синаптической адаптации [4].
Сущность алгоритма самоорганизации, предложенного Кохоненом, состоит в простом геометрическом вычислении свойств хеббоподобного правила обучения и латеральных взаимодействий. Существенными характеристиками этого алгоритма являются следующие:
непрерывное входное пространство образов активации, которые генерируются в соответствии с некоторым распределением вероятности;
топология сети в форме решетки, состоящей из нейронов (она определяет дискретное входное пространство);
зависящая от времени функция окрестности, которая определена в окрестности нейрона-победителя;
параметр скорости обучения, для которого задается начальное значение и который постепенно убывает во времени, но никогда не достигает нуля.
Рассмотрим m-мерное пространство. Вектор входного пространства и вектор синаптических весов обозначим так:
,
,
где - общее количество нейронов в решетке.
После инициализации весов выбираем вектор из входного пространства. Находим наиболее подходящий (победивший) нейрон на шаге , используя критерий минимума евклидова расстояния (процесс конкуренции):
.
Затем корректируем векторы синаптических весов всех нейронов, используя следующую формулу (синаптическая адаптация):
,
где - функция окрестности с центром в победившем нейроне (процесс кооперации); - параметр скорости обучения.
, , .
Параметр называется эффективной шириной топологической окрестности. Этот параметр определяет уровень, до которого нейроны из окрестности победившего нейрона участвуют в обучении.
Процесс обучения можно условно разбить на два этапа: этап самоорганизации и этап сходимости. На первом этапе происходит топологическое упорядочение векторов весов. В начале данного этапа функция окрестности должна охватывать практически все нейроны сети и иметь центр в победившем нейроне. К концу первого этапа , скорее всего, сократится до малого значения и будет содержать в себе только ближайших соседей победившего нейрона или только сам нейрон-победитель.
На втором этапе подстраивается карта признаков. Обычно количество итераций на данном этапе в несколько сотен раз превышает количество нейронов сети. Параметр скорости обучения во время второго этапа должен быть достаточно мал, но не приближаться к нулю. После завершения процесса сходимости вычисленная карта признаков отображает важные статистические характеристики исходного пространства [5].
Обозначим символом нелинейное преобразование, которое отображает входное пространство X в выходное пространство A:
.
Для данного входного вектора x алгоритм определит наиболее подходящий нейрон i(x) в выходном пространстве A, используя карту . Вектор синаптических весов нейрона i(x) можно рассматривать как указатель на этот нейрон из входного пространства X. Это значит, что синаптические элементы вектора можно рассматривать как координаты образа нейрона i, проецируемые во входное пространство.
Для визуализации нейронам в двухмерной решетке назначаются метки классов в зависимости от того, как каждый из примеров возбудил конкретный нейрон в самоорганизующейся сети. В результате моделирования нейроны в двухмерной решетке разбиваются на некоторое количество когерентных областей (каждая область представляет собой обособленное множество непрерывных символов или меток) [6].
В процессе работы были проанализированы данные обследования 40 пациентов с синдромом предвозбуждения [7]. Это заболевание обусловлено наличием дополнительных аномальных путей проведения электрического импульса. В клинических условиях локализация аномального пути проведения была установлена в ходе инвазивного электрофизиологического исследования сердца. Все данные были разделены на две группы. По данным первой группы происходило обучение, а по данным второй группы - тестирование полученных результатов. В исследовании участвовали данные многоканальных ЭКГ пациентов с левой и правой локализацией аномального пути.
Рис. 3. Пример карты Кохонена |
На рис.3 представлена карта Кохонена, построенная для обучающей выборки из 20 многоканальных ЭКГ (10 - с левой локализацией и 10 - с правой). Светлосерая область соответствует левой локализации аномального пути, темносерая - правой локализации. Более светлым цветом выделены нейроны-победители для примеров из обучающей выборки.
В процессе исследования было случайным образом сформировано 10 обучающих выборок. В качестве тестовых примеров были взяты данные, не вошедшие в обучающую выборку.
Для всех тестовых выборок был получен высокий процент правильной классификации (таблица). В большинстве случаев ошибки происходили на одних и тех же данных. Как правило, это были данные пациентов с серьезными сопутствующими заболеваниями сердца. Однако после включения этих данных в обучающую выборку правильная классификация достигала 100%.
Таблица
Результаты классификации
Обучающая выборка |
||
Левая локализация |
10 |
|
Правая локализация |
10 |
|
Тестовая выборка |
||
Левая локализация |
10 |
|
Правая локализация |
10 |
|
Результат |
||
Количество тестовых выборок |
10 |
|
Количество правильно классифицированных локализаций в тестовой выборке |
17-20 |
|
Средний процент правильно классифицированных локализаций |
92,5% |
Синдром предвозбуждения представляет собой достаточно простую электрофизиологическую модель, что объясняет столь хорошие результаты уже при малых выборках. Однако использование данной модели для других классов сердечно-сосудистых заболеваний также показывает высокую чувствительность предлагаемых методов уже при небольших обучающих выборках.
Таким образом, предлагаемая нейросетевая модель может применяться для выделения существенных признаков и последующей классификации многоканальных ЭКГ.
Список литературы
нейросеть данные электрокардиограмма самоорганизующийся
Хайкин, C. Нейронные сети. Полный курс / С.Хайкин. - СПб.: Вильямс, 2006.
Oja, E. Subspace methods of pattern recognition / E.Oja. - Letchworth, England: Research study press, 1983.
Brawn, T.H. Hebbian synapses: Biophysical mechanisms and algorithms / T.H.Brawn, E.W.Kairss, C.L.Keenan // Annual review of Neuroscience. - 1990. - Vol. 13. - P.475-511.
Sanger, T.D. Optimal unsupervised learning in a single layer linear feedforward neural network / T.D.Sanger // Neural networks. - 1989. - Vol. 12. - P. 459-473.
Kohonen, T. Self-organized formation of topologically correct feature maps / T.Kohonen // Biological Cybernetics. - 1982. - Vol. 3. - P. 59-69.
Kohonen, T. Exploration of very large databases by self-organized maps / T.Kohonen // International conference on neural networks. - 1997. - Vol. 1.
Струтынский, А.В. Электрокардиография: анализ и интерпретация /А.В. Струтынский. - М.: МЕДпресс, 1999.
Размещено на Allbest.ru
...Подобные документы
Анализ современного состояния пропускной способности систем широкополосного беспроводного доступа. Математическая модель и методы модуляции сверхширокополосных сигналов, их помехоустойчивость и процедура радиоприема. Области применения данных сигналов.
контрольная работа [568,2 K], добавлен 09.05.2014Разработка функциональной схемы устройства, осуществляющего обработку входных сигналов в соответствии с заданным математическим выражением зависимости выходного сигнала от двух входных сигналов. Расчет электрических схем вычислительного устройства.
курсовая работа [467,5 K], добавлен 15.08.2012Структурная схема устройства передачи данных и команд. Принцип действия датчика температуры. Преобразование сигналов, поступающих с четырех каналов. Модель устройства передачи данных. Построение кода с удвоением. Формирование кодовых комбинаций.
курсовая работа [322,1 K], добавлен 28.01.2015Понятия о проводной передаче данных. Принцип работы интерфейса стандарта RS-485. Согласование линии с передатчиком и приемником. Адресация данных в протоколе Modbus RTU. Структурная организация микроконтроллера MCS-51. Вывод управляющих сигналов.
курсовая работа [952,0 K], добавлен 15.06.2013Понятие цифрового сигнала, его виды и классификация. Понятие интерфейса измерительных систем. Обработка цифровых сигналов. Позиционные системы счисления. Системы передачи данных. Режимы и принципы обмена, способы соединения. Квантование сигнала, его виды.
курсовая работа [1,0 M], добавлен 21.03.2016Схема, технические параметры и принцип работы шестиканального цифрового вольтметра. Прототипы схем измерения и отображения информации, подключения клавиатуры, сбора и накопления данных. Обработка аналоговых сигналов в микроконтроллере, его инициализация.
курсовая работа [3,4 M], добавлен 12.03.2013Общие и тактико-технические требования к конструкции бортовой аппаратуры. Блок ввода данных для энергонезависимого хранения и выдачи в бортовую ЭВМ данных полетного задания, а также приема данных регистрации. Структурная схема и разработка конструкции.
дипломная работа [207,2 K], добавлен 16.04.2012Интерфейс передачи данных RS-485: понятия, способ работы и подключения к нему. Блок контроля дискретных сигналов MDI8, его интерфейс, протокол передачи данных, уменьшение паразитных помех и токов. Протокол передачи данных для устройства Modbus RTU.
курсовая работа [557,7 K], добавлен 26.11.2010- Микропроцессорная система управления технологическим оборудованием типа CNC. Модуль входных сигналов
Разработка микропроцессорной системы управления технологическим оборудованием и проектирование структурной и принципиальной схемы электрического модуля входных дискретных сигналов с проведением расчетов основных электрических и временных параметров.
курсовая работа [1,2 M], добавлен 29.11.2010 Вычисление информационных параметров сообщения. Характеристика статистического и помехоустойчивого кодирования данных. Анализ модуляции и демодуляция сигналов. Расчет функции корреляции между принимаемым входным сигналом и ансамблем опорных сигналов.
курсовая работа [544,1 K], добавлен 21.11.2021Разработка функционально законченного устройства для обработки входных сигналов линии с использованием цифровых устройств и аналого-цифровых узлов. Алгоритм работы устройства. Составление программы на языке ассемблера. Оценка быстродействия устройства.
курсовая работа [435,5 K], добавлен 16.12.2013Практические примеры и их программная реализация на языке ассемблера для микроконтроллера семейства MCS-51 (МК51). Использование команд передачи данных. Арифметические и логические, битовые операции в MCS-51. Взаимодействие МК с объектом управления.
курсовая работа [75,0 K], добавлен 19.02.2011Процесс приема сигналов на вход приемного устройства. Модели сигналов и помех. Вероятностные характеристики случайных процессов. Энергетические характеристики случайных процессов. Временные характеристики и особенности нестационарных случайных процессов.
дипломная работа [3,3 M], добавлен 30.03.2011Сигналы и их характеристики. Линейная дискретная обработка, ее сущность. Построение графиков для периодических сигналов. Расчет энергии и средней мощности сигналов. Определение корреляционных функций сигналов и построение соответствующих диаграмм.
курсовая работа [731,0 K], добавлен 16.01.2015Применение операционных усилителей для сложения двух постоянных, двух переменных, постоянного и переменного напряжений, дифференцирования и интегрирования входных сигналов. Переходной процесс в интеграторе, влияние на него амплитуды входного сигнала.
контрольная работа [120,0 K], добавлен 02.12.2010База данных, применение фильтров для отбора записей по заданным условиям. Сохранение созданного фильтра для дальнейшего использования. Ввод формул и печать таблицы, построение диаграммы. База данных "Учет выпускаемой продукции" в Microsoft Access.
курсовая работа [994,8 K], добавлен 24.02.2010Модель частичного описания дискретного канала (модель Л. Пуртова). Определение параметров циклического кода и порождающего полинома. Построение кодирующего и декодирующего устройства. Расчет характеристик для основного и обходного канала передачи данных.
курсовая работа [1,8 M], добавлен 11.03.2015Основы автоматизированного моделирования и оптимизации строительных процессов. Комплекс технических средств автоматизированных систем управления строительством: устройства преобразования сигналов, аппаратура сбора и регистрации данных, средства связи.
контрольная работа [451,2 K], добавлен 02.07.2010Главные особенности систем транкинговой радиосвязи. Организация связи в системе SmarTrunk II: состав, база данных, перспективы развития, основные преимущества. Основные функции, использованные в программе. Даталогическая и инфологическая модель.
курсовая работа [41,2 K], добавлен 08.02.2012Проектирование среднескоростного тракта передачи между источниками и получателями данных. Использование системы с решающей обратной связью, непрерывной передачей и блокировкой приемника для повышения верности передачи. Квадратурная амплитудная модуляция.
курсовая работа [2,4 M], добавлен 19.11.2012