Математическая модель канала с памятью
Ознакомление с теоремой кодирования. Рассмотрение основных математических моделей дискретных каналов с памятью. Определение понятия эргодичности. Анализ практической реализации каналов с памятью, на примере Марковских моделей массового обслуживания.
Рубрика | Математика |
Вид | курсовая работа |
Язык | русский |
Дата добавления | 21.01.2015 |
Размер файла | 515,0 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
Размещено на http://www.allbest.ru/
Введение
Передача сообщений по электрическим каналам связи является процессом, все более широко проникающим в различные отрасли человеческой деятельности. В настоящее время разработаны многоканальные и многократные системы, разрабатываются и внедряются новые методы манипуляции и новые схемы приема, позволяющие улучшить качество приема и более рационально использовать линии связи.
Теория передачи дискретных сообщений представляет наиболее разработанную часть общей теории связи. Основной проблемой передачи и приема, обеспечивающие получение требуемой верности принятого сообщения, повышение скорости передачи и понижение ее стоимости. Задачей моей курсовой работы является изложение современной теории передачи дискретных сообщений, охватывающее возможно более полно различные условия, имеющие место в реальных каналах связи.
В первой главе введены и обсуждаются математические основы каналов с памятью и теорема кодирования. Также я привела простейшие примеры каналов, обладающих памятью. Вводятся понятия эргодичности, пропускная способность канала и связанных с ней числовых характеристик с последующим изучением их основных свойств.
Во второй главе рассмотрены основные математические модели дискретных каналов с памятью:
ь Математическая модель канала с памятью коррелированными замираниями.
ь Математическая модель дискретных «двумерных» каналов с памятью.
Здесь же обсуждается вопрос о вероятности ошибки для некоторых каналов с памятью и производится расчет верхней границы Род для квазибиномиальной модели и для произвольных РЗК.
Третья глава посвящена изложению практической реализации каналов с памятью, на примере Марковских моделей массового обслуживания. Процесс работы СМО представляет собой случайный процесс с дискретными состояниями и непрерывным временем; состояние СМО меняется скачком в моменты появления каких-то событий (или прихода новой заявки, или окончания обслуживания, или момента, когда заявка, которой надоело ждать, покидает очередь).
1. Дискретные каналы с памятью
В канале, без памяти, основным событием является передача и прием простого элемента, т. е. канал полностью определяется заданием вероятностей возможных выходов всевозможных простых передач. С другой стороны, рассмотрим канал, в котором передача простого посылаемого символа вызывает определенного вида „шум", интерферирующий с выходом последующего символа. Для полного определения системы в этом случае необходимо множество условных вероятностей р (у|х, х'), где х' означает посылаемый символ, переданный непосредственно перед х. Если передача простого символа сопровождается „шумом", интерферирующим с выходом двух последующих символов, канал будет определяться набором условных вероятностей р (у | х, х', х"), где х" предшествует х'.
Другим типом канала с памятью будет канал, в котором последовательные „шумовые выборки" не зависят от всех переданных раньше символов, хотя и не являются статистически независимыми. Другими словами, равенство p (у1, у2, | х1, х2) = p (у1 | х1) p (у2 | х2) в общем случае неверно. В данном разделе курсовой работе мы определим класс каналов, обладающих памятью, который фактически включает оба типа, рассматриваемые здесь.
Мы увидим, что рассматриваемый класс каналов с памятью можно разделить на два непересекающихся подкласса, а именно на каналы с конечной и бесконечной памятью. Короче говоря, канал с конечной памятью m, где m -- целое положительное число,-- это канал, в котором «шумовые выборки», относящиеся к «моментам» времени, разность между которыми превосходит m, статистически независимы. Дальше мы увидим, что разница между конечной и бесконечной памятью окажется несущественной, по крайней мере тогда, когда речь идет об определении скорости создания сообщений на входе и о рассеянии информации в каналах с памятью. Можно обобщить лемму 1 и получить все результаты для каналов, обладающих памятью.
Лемма 1. Для любых е, д >0 найдется натуральное n (е, д), такое, что для любого n ? n (е, д) множество u-элементов, для которых неравенство
| H (x)+ log p (u) | < е(1.1)
не выполняется, обладает p (u) вероятностью, меньшей д. Аналогично, хотя уже с другим n (е, д), множество пар (u, х), для которых не выполняется неравенство
| H (X | Y)+ log p (u, х) | < е(1.2)
обладает вероятностью p (u, х), меньшей д.
Доказательство. Утверждения данной леммы попросту сводятся к слабому закону больших чисел. На самом деле нам понадобится только одна часть каждого из этих двух неравенств, а именно
p (u) < 2-n [H (X) - е] и p (u, х)> 2-n [H (X | Y) + е](1.3)
Вероятности невыполнения данных неравенств будут обозначаться соответственно через д - и д +.
Нам придется использовать эти два неравенства одновременно. Поскольку в зависимости от того, какой случай рассматривается, ни одно из них, вообще говоря, не выполняется для всех а или (u, х), было бы желательно знать, на каком множестве пар оба неравенства справедливы.
Однако в интерпретации этих результатов разница между конечной и бесконечной памятью оказывается существенной. Мы увидим, что для канала с конечной памятью положительные утверждения теоремы кодирования полностью остаются в силе, в то время как доказательство отрицательного утверждения теоремы для случая Н > С до сих пор отсутствует. Об особенностях же поведения каналов с бесконечной памятью можно сказать очень немного. Обобщение леммы 1 на случай каналов с памятью содержит технические трудности, сильно удлиняющие полное доказательство.
1.1 Математические основы каналов с памятью. Теорема кодирования
Перейдем теперь к определению класса каналов, обладающих памятью. Обозначим через (X, х) конечное абстрактное множество. Пусть XI означает множество всех бесконечных в обе стороны последовательностей (..., x-1, х0, х1, . . .), где хi X, i = 0, ±1, ±2,...; т. е, XI = Xi , где Xi =X. Если n - положительное целое число, а0, ..., an-1 -- элементы X, t -- заданное целое число, то множество всех последовательностей из XI , удовлетворяющих соотношению xt+k = ak, k = 0,…, n -- 1, мы назовем цилиндрическим множеством; цилиндрическое множество определяется заданием n, t и а0, ..., an-1. Борелевское поле элементов XI, порожденное всеми цилиндрическими множествами, обозначим через X.
Обозначим через Т преобразование переноса, определяемое на XI соотношением
T (…, x-1 , x0 , x1 ,…) = (…, x'-1 , x'0 , x'1 ,…)(1.4)
где x'i= xi+1. Тогда существует Т-1 и справедливы следующие утверждения:
1. T XI = XI и Т-1 XI = XI
2. Как Т, так и Т-1 переводят цилиндрические множества в цилиндрические же множества.
3. Как Т, так и Т-1 переводят измеримые множества в измеримые; ни одно из них не переводит неизмеримые множества в измеримые.
Утверждения 1 и 2 очевидны, а первая часть утверждения 3 просто следует из рассуждений о борелевских полях, полученных путем отображения. Что касается второй части утверждения 3, то в случае, когда Т-1S измеримо, Т(Т1S)=S также будет измеримым.
Пусть µ - вероятностная мера на X . Говорят, что мера µ стационарна, если µ (TS) = µ (S) для каждого S X. Если, кроме того, µ (S) = 0 или µ (S) =1 для инвариантных S, т. е. для S, удовлетворяющих условию TS = S, то µ называется эргодической мерой. В дальнейшем µ будет всегда считаться стационарной. Однако поскольку некоторые из наших результатов справедливы для вероятностных мер, являющихся стационарными, но не обязательно эргодическими, мы не будем предполагать эргодичности меры, если она особо не оговорена.
Определим теперь источник информации, образованный пространством XI, борелевским полем X и вероятностной мерой µ. Нашим первым результатом будет определение скорости создания сообщений источником информации.
Предположим, что XI содержит N элементов. Тогда для заданных t и n можно определить в точности Nn цилиндрических множеств. Вместе с вероятностной мерой µ это семейство цилиндрических множеств определяет конечное пространство элементарных событий Хn,t. Поскольку µ стационарна, количество информации, содержащейся в Хn,t , не зависит от t. Обозначим это количество информации через Н(n). Величину Н(Х)= назовем скоростью создания, сообщений (на одну букву) источника XI, X, µ.
Чтобы показать, что действительно существует, заметим, что по лемме Н (m+n) Н(m) + H (n) для любых m и n. Пусть a = inf , тогда для любого е > 0 существует такое целое q, что a + е. Для любого целого n ? q мы определим целое kn соотношением (kn --1) qn<knq. Тогда H(n) H (knq) knH(q) и, следовательно,. Далее, при n имеем kn, а значит,. Отсюда следует, что lim sup для всех е > 0, что и означает lim sup а. Поскольку, с другой стороны , то = a = H (X)
Если µ -- произведение мер, тогда, очевидно, Н(n) = nН(1); следовательно, Н(Х) = Н(1), что вполне согласуется с нашим предыдущим пониманием символа H (X).
Для определения дискретного канала с памятью введем конечное множество принимаемых сигналов Y. Как и выше, определим Y' и Y. Наконец, для любого х? XI обозначим через н( |х?) вероятностную меру на Y, обладающую следующими свойствами:
1. Для любого цилиндрического множества S YI функция н(S |х?) измерима на XI.
2. н( |х?) стационарна, т. е. для любого S Y,
н(TS |Tх?) = н(S |х?),(1.5)
где Т -- преобразование переноса на XI и YI одновременно.
3. н( |х?) есть мера без предвосхищения, т. е. она обладает следующим свойством: если S Y таково, что из того, что (…, y-1, н0, y1, …) S для некоторого фиксированного t, следует (…, y-1, н0, y1, …) S при y'к, для которых y'i=yi, it, то н(S |х?) = н(S |х'?) при любых х? и х'?, для которых х'i=хi, it.
Условие 1 является техническим, и важность его очевидна. Условие стационарности 2 не нуждается в пояснениях; следует, однако, подчеркнуть, что в, общем случае мера н( |х?) не стационарна при фиксированном х?. Условие 3 указывает на то, что для нумерации компонент х? существенна их зависимость от времени.
Множество объектов X, XI, x, Y, YI, Y и мера н( |х?) определяют канал с памятью. Поскольку XI, x, YI, и Y однозначно определяются по X и Y, мы будем обозначать канал просто X, Y и н( |х?).
Пусть XIYI обозначает, как обычно, множество всех пар ( х?, y?), и пусть x,y -- определенное борелевское поле на XIYI.
Заданная вероятностная мера µ на x, позволяет естественным образом определить вероятностную меру на x,y. Действительно, пусть S [х?], обозначает сечение множества S x,y вдоль х?. Тогда при любом х? имеем S [х?] y и н(S [х?] |х?) -- измеримая функция х?. Отсюда просто получаем, что
щ (S) = (1.6)
определяет вероятностную меру на x,y к- Стационарность щ ( ) непосредственно вытекает из стационарности н( |х?) и µ. Далее, мы можем определить стационарную меру на Y, полагая з (S) = щ([XIS]) для любого S y; заметим, что µ = щ([])
Пусть, как и выше, означает семейство цилиндрических множеств на XI с заданными n, t; определяем аналогично. Для краткости мы будем писать и вместо и соответственно. Тогда щ можно рассматривать как вероятностную меру на XnYn; µ = щ([]) -- как вероятностную меру на Xn и з = щ([Xn]) --как вероятностную меру на Yn. Таким образом, Н (), H () и Н () полностью определены, поскольку из существования Н(Х)= следует, что Н(Y)= и Н(Х,Y)=также существуют.
По лемме Н () H () + H (), а отсюда R=H(X)+H(Y)--Н(Х, Y) 0. Назовем R скоростью передачи информации (на одну букву) канала X,Y,н(|х?) относительно р. в. на входе i ( ). Наименьшую верхнюю границу R по всем р. в. на входе µ мы называем стационарной пропускной способностью Сs канала X, Y, н(|х?) (на одну букву). Наименьшую верхнюю границу R по всем эргодическим входам, для которых щ также эргодична, будем называть эргодической пропускной способностью Се канала X,Y,н(|х?). Назовем эргодическую меру на входе µ допустимой, если соответствующая мера щ также эргодична.
Уже сейчас очевидно, что каналы с памятью требуют более тонких исследований, чем для каналов без памяти. В частности, уже определены две пропускные способности Cs и Се. Но мы еще не можем утверждать, что Cs или Се достигается на некотором р. в. на входе или на некотором допустимом р. в. на входе соответственно. Мы можем пока только утверждать, что справедливо очевидное соотношение Cs Се. Как мы сейчас увидим, именно с помощью понятия эргодической пропускной способности формулируются известные нам результаты для дискретных каналов с памятью. Основную лемму мы можем обобщить на случай дискретных каналов с памятью только при предположении об эргодичности мер µ и щ. Прежде чем переходить к установлению этого результата, отметим известный факт: стационарное произведение мер в бесконечномерном произведении пространств -- таких, как XI, YI, и XIYI, эргодично.
Таким образом, если в качестве р. в. на входе расширений каналов без памяти используется произведение мер, то вопрос об эргодичности решается сам собой.
Лемма может быть обобщена следующим образом.
Пусть µ эргодична. Тогда для любых е, д > 0 существует такое целое положительное n (е, д), что если Sn -- семейство цилиндрических множеств u из Xn, для которых неравенство
| | е(1.7)
не выполняется, то (Sn) д при nn (е, д)
Как показано, XIYI можно считать эквивалентным (XY)I . Таким образом, этот результат можно применять к XnYn и Н(Х, Y) всегда, когда щ эргодична, и к Yn и H(Y) в случае, когда з эргодична.
Отметим, что из эргодичности щ следует, что меры =щ([]) и з=([XI]) эргодичны. Действительно, если S X, то S X,Y; если TS = S, то Т (S) = S.
Значит, если щ эргодична, то щ (S= 1 или щ(S=0, т. е. (S)=l или (S)= 0, а это означает, что мера эргодична. Аналогично доказывается эргодичность меры з. Следовательно, допустимая мера является эргодической.
Пусть X, Y, н( |х?) -- заданный дискретный канал с памятью, имеющий эргодическую пропускную способность Се > 0. Для любого Н < Се мы, следовательно, можем найти допустимое р. в. на входе , такое, что H(X)+H(Y) -- Н(Х, Y) > Н. Будем обозначать элементы Хn и Yn буквами u и х соответственно. Зададимся произвольными е, д1 > 0 и обозначим через Z'n множество тех (u, х), для которых | | , а через S'n -- множество тех , для которых | | . Из САР следует, что для достаточно больших n имеем
щ (Z'n) > 1- и щ (Xn S'n)= > 1- .(1.8)
Тогда, полагая Zn = Z'n, получаем щ (Z'n) > 1- Положим = (что уже определено для всех S'n); тогда для любых ()Zn имеем
| | (1.9)
Оставшиеся действия тривиальны. В отличие от случая канала без памяти, где задается заранее, здесь мы должны определить в соответствии с формулой= имеющей смысл всюду, исключая подмножество Xn -меры нуль, что не вызывает затруднений. Теперь мы можем сформулировать, следующий результат.
Теорема. Пусть X, Y, н( |х?) -- дискретный канал с памятью, обладающий эргодической пропускной способностью Се > 0. Тогда для любых Н и е, удовлетворяющих неравенствам 0 <H < Се, е > 0, существует такое целое положительное n(е,Н), что для любого n > n(е, Н) найдутся в Xn элементы u1,…, uN, N 2nH, а в Yn -- непересекающиеся множества А1,…, АN, такие, что р (Ai | ui) 1 -- е, i = 1, …, N.
Как подразумевается в формулировке теоремы, элементы ui таковы, что р(|ui) определено, т. е. (ui) > 0, где р. в. на входе канала, которое используется для доказательства теоремы. Отметим, что в случае отсутствия памяти утверждение теоремы кодирования не содержало ссылок на р. в. на входе, используемое в доказательстве теоремы. Это расхождение объясняется тем, что интерпретация соотношения р (Ai | ui) 1 -- е здесь совершенно отлична от интерпретации. Нельзя интерпретировать это неравенство как утверждение, что „вероятность получения последовательности у0, .... уn-1, такой, что [у0, .... уn-1]Ai, когда последовательность xi0, .... xin-1, определяющая ui, передана, будет не меньше 1 -- еu. Действительно, слова „u передано" описывают не элементарное событие, каким является передача фиксированного x?, а скорее класс (т. е. цилиндрическое множество) событий ui.
Вероятностная мера р( | ui), определенная на Y, является вероятностным распределением на при условии, что передаются только последовательности x?ui; условные вероятности передачи задаются вероятностной мерой = определенной на борелевском поле всех измеримых подмножеств цилиндрического множества ui. Для того чтобы иметь возможность интерпретировать неравенство р (Ai | ui) 1--е так же, как и в случае отсутствия памяти, нам нужны условия независимости в каком-то смысле. Следующие условия, наложенные на н( |х?), оказываются достаточными.
П.1. Существует фиксированное положительное m, такое, что для любого цилиндрического множества [уt, .... уt+n-1 ] из YI справедливо соотношение н([уt, .... уt+n-1 ] |х?) = н([уt, .... уt+n-1 ] |х'?) при любых x'i = x i, i = t -- m, …, t+n--1.
П.2 Для любых двух цилиндрических множеств [уi, .... уj ] и [у'k, .... у'n ], таких, что j+m<k, где m--фиксированное положительное число, справедливо соотношение
н([уt, .... уt+n-1 ] |х?) = н([уt, .... уt+n-1 ] |х'?) = н([уi, .... уj ] [у'k, .... у'n ] |х?), (1.10)
для всех х?.
Наименьшее m, для которого данный канал удовлетворяет этим двум условиям, называется памятью канала. Если такого m не существует, мы будем говорить, что канал обладает бесконечной памятью. Заметим, что при таком определении канал с нулевой памятью вполне характеризуется заданием значений н([у0] |х?) для всех возможных у0 и всех возможных последовательностей х?, отличающихся компонентой х0. Таким образом, канал с нулевой памятью суть просто канал без памяти.
Заметим также, что П. 1 вместе с общим требованием отсутствия предвосхищения н( |х?) гарантирует измеримость функции н(S |х?) по х? для всех цилиндрических множеств S.
Для канала, обладающего конечной памятью m, условия р (Ai | ui) 1 -- е, i = 1, . . ., N, легко сводятся к условиям для н( |х?). Пусть ui = [xi1, .... xin], a z обозначает произвольную последовательность x-m+1, .... x0; обозначим цилиндр [ x-m+1, .... x0, xi1, .... xin ] через [z, ui ]. Тогда
р (Ai | ui) = = ([z, ui]) н(Ai |[z, ui]) 1 - e(1.11)
Поскольку ([z, ui]) = = 1, отсюда следует, что по крайней мере для одного z, например для zi, должно иметь место неравенство н(Ai|[zi,ui])1--е. Интерпретация этого неравенства получается сразу же. В комбинации с П. 2 оно позволяет нам „передавать" последовательность (zi,ui) в любом желаемом порядке и при этом принимать каждую последовательность правильно в соответствии с законом больших чисел по крайней мере в 1--е случаях из всех случаев, когда она передавалась, если число случаев стремится к бесконечности.
Невыясненным остается только один пункт. По-прежнему имеется N2nH последовательностей, но длины их теперь равны n+m. Однако, поскольку m фиксировано, а n выбирается произвольно большим, выход из этого положения очевиден. Мы доказываем теорему для некоторого Н', удовлетворяющего неравенству Н < Н' С, и выбираем n настолько большим, чтобы Н' H. Количество последовательностей тогда определится числом N 2nH' 2(n+m)H
1.2 Примеры каналов, обладающих памятью
В этом разделе мы рассмотрим несколько простых примеров каналов, обладающих памятью, а также установим важный результат, следствием которого окажется тот факт, что в случае канала, имеющего конечную память, любое эргодическое р. в. на входе оказывается допустимым. Будут рассмотрены также несколько оставшихся открытыми вопросов, подсказанных частным случаем канала без памяти.
При рассмотрении каналов без памяти уже из самого их определения было ясно, как приступить к построению примера канала с ненулевой пропускной способностью. Наш главный результат относительно пропускной способности расширений заданного канала без памяти по существу означает, что пропускная способность таких каналов являлась бы неизменной и, кроме того, Cs = Ce. Существование максимизирующего р. в. на входе было очевидным. Из этих результатов также следовало, что теорема кодирования не выполняется, если Н > С. Естественно спросить, в какой мере эти результаты можно распространить, на дискретные каналы с памятью.
Сохранить равенство Cs = Ce без ограничения нельзя; немного погодя мы приведем пример, где Cs положительно, а Ce не определено, так как не существует никакой допустимой входной меры. Этот канал по необходимости имеет бесконечную память; для канала с конечной памятью предположение Cs = Ce не кажется неразумным.
По вопросу о том, достигаются ли в действительности Cs = Ce для каналов с конечной памятью, так же как по вопросу об отрицательном утверждении теоремы о кодировании при Н > С, трудно строить предположения, не имея нескольких хорошо изученных примеров таких каналов.
Наконец, все еще не очень понятен случай полунепрерывных каналов с памятью, определяемых, так же как и каналы без памяти, с помощью замены Y произвольным пространством Щ, на котором определено борелевское поле . Некоторые интересные результаты были получены Мак-Милланом, однако мы не станем углубляться в них.
Обратимся теперь к построению разных примеров дискретных каналов, обладающих памятью. Наш первый пример будет относиться к тому случаю, когда Cs > 0, а Ce не определено. Пусть X, Y1, p1 (|х) и X, Y2, p2 (|х) -- два дискретных канала без памяти с ненулевыми пропускными способностями C1 и С2 соответственно, обладающие одним и тем же множеством передаваемых символов. Пусть Y = Y1 Y2. Тогда p1 ( | х) и p2 ( | х) могут рассматриваться как распределения вероятностей на Y. Для каждого х? ХI мы определяем вероятностную меру н ( | х?) на YI, полагая
н ( | х?) = […?p1 ( | х-1) ? p1 ( | х0) ? p1 ( | х1) ?… + (1.12)
+ …?p2 ( | х-1) ?p2 ( | х0) ?p2 ( | х1) ?…],
где х? = (...,х-1, х0 , х1, ...).
Легко убедиться в том, что X, Y, н ( | х?) определяют канал с памятью. Ясно далее, что для любого входа µ() з (YI1) = з (YI2) = , а YI1 и YI2 измеримые и инвариантные множества на YI. Следовательно, з не является эргодической, а значит, и щ не может быть эргодической. С другой стороны, пусть С - пропускная способность канала без памяти X, Y, [p1 ( | х) + p2 (|х)], и пусть p р. в. на входе, при котором достигается С. Очевидно, что Сmax(C1,С2)>0, и легко видеть, что в X, Y, н ( | х?) достигается эргодическая пропускная способность Cs = C для р. в., на входе имеющего вид произведения µ=……?p( )?p( )?… Отметим, между прочим, что этот канал удовлетворяет условию для m = 0. Простейшим случаем, для которого мы можем подсчитать скорость создания сообщений источника информации XI, µ ( ), является случай, в котором р, ( ) определяется простой Марковской цепью. Простая (стационарная) Марковская цепь определяется заданием вероятностей „состояний" Р1 ,. . ., PN, удовлетворяющих условиям
= 1, и вероятностей „перехода" pij, i, j = 1, . . ., N, удовлетворяющих условиям , i=1, …N и , j=1, …, N.
Если X содержит N элементов x1, .... , xN, опpeделим вероятностную меру µ () на XI, полагая
µ ([хi]) = Pi; µ ([хi ,хj]) = Pi p ij ; µ ([хi , хj, хk])= Pi pij pjk и т. д.
Поскольку, очевидно,
µ ([х0] | [x-1,…, x-n]) = µ ([х0] | [x-1] ,
получаем сразу же
H (K) = ([x-1, х0])| [x-1]= i p ij (1.13)
Канал простого типа, обладающий конечной памятью, можно построить следующим образом. Выбрав два конечных абстрактных пространства X и Y, определим для каждой пары (х1 , х2) X?Х на Y распределение вероятностей н1 ( | х1, х2). Определим для любого х? XI на YI вероятностную меру, полагая н1 ( | х?) = …? н1 ( | х0, х-1) ? н1 ( | х1, х0) ? …, где x= (…,х-1, х0, х1,…).
Легко убедиться, что X, У, н ( | х?) действительно определяет канал, обладающий памятью m = 1. Если в качестве р. в. на входе этого канала взять µ ( ), определенную простой Марковской цепью, то легко увидеть, что тогда и ( ) и ( ) определяются простой Марковской цепью; таким образом, мы можем получить простое выражение для скорости передачи сообщений в канале относительно µ ( ).
Для того чтобы µ( ) была эргодической, достаточно, чтобы для определяющей ее Марковской цепи выполнялось условие p ij >0 для всех i, j. Любое эргодическое р. в. на входе допустимо для канала, обладающего конечной памятью. Следовательно, нетрудно выбрать распределение н1(|х1,х2) так, чтобы не обращалась в нуль скорость передачи информации канала относительно р. в. на входе приведенного выше типа. Мы, таким образом, имеем простой пример канала с памятью, для которого Се > 0. Только что определенный канал имеет память m=1, однако удовлетворяет условию для m = 0. Нетрудно также построить каналы с конечной памятью, но удовлетворяющие условию для m = 0. Здесь мы приведем только основную идею построения. Исходим из того, что, грубо говоря, в сущности означает требование, чтобы „шумовые выборки", разделенные интервалом, большим m, были независимы, в то время как выборки, разделенные интервалом, не превосходящим m, были бы статистически зависимы. Шумовые выборки вообще описываются вероятностными процессами, т. е. последовательностью (вообще говоря, бесконечной) случайных величин. Нам нужен теперь стационарный процесс ni, -- ? < i < ?, такой, что любые две группы величин ni зависимы при любых индексах i одной группы и j другой группы, исключая случай, когда выполнено условие |i -- j| > m. Примеры таких процессов легко построить; если ri, -- ? < i < ?, -- последовательность независимых одинаково распределенных случайных величин, то ni= представляет процесс, удовлетворяющий; нужным требованиям.
Подобным же образом легко можно построить примеры, в которых удовлетворяются для данного m одновременно, но для m--1 какое-либо из этих условий не удовлетворяется.
2. Теория математических моделей дискретных каналов с памятью
2.1 Математическая модель канала с памятью коррелированными замираниями
Замирания, представляющие собой случайные изменения амплитуды и фазы сигнала, прошедшего через канал, приводят к существенному ухудшению качества передачи. Наиболее характерной, хотя и не единственной причиной замираний является многолучевое распространение сигнала при передаче по радиоканалам. При передаче последовательности сигналов по каналу с замираниями их влияние на отдельные элементы последовательности чаще всего не является независимым, и это приводит к дополнительным потерям. Характеристики, достижимые при использовании сверточного кодирования и алгоритма Витерби в канале с непрерывным выходом (полунепрерывном канале). Использование непрерывного выхода дает известные преимущества но сравнению с декодированием в канале с дискретным выходом, причем в канале с замираниями эти преимущества оказываются особенно большими.
Кодовые последовательности х = ( , {0,1}, j=1, 2,..., формируемые двоичным сверточным кодером, передаются с использованием сигналов двоичной частотной модуляции вида sk(t) = cos 2рfkt,0tT, k = 0,1, где E, T -- соответственно энергия и длительность сигнала, fk = lk/T, lk-целые числа, lk > 1. На выходе канала с замираниями наблюдается случайный процесс вида
у(t) = µ cos (2рfkt +)+ n(t), 0 t T, (2.1)
где µ -- случайный коэффициент передачи канала, -- случайный фазовый сдвиг, n (t) -- белый гауссовский шум (АБГШ) со спектральной плотностью мощности N0/2. При передаче последовательности x на выходе некогерентного демодулятора наблюдается последовательность у=(у(1),у(2),…,у( j ) ,. . . ), которая обрабатывается декодером. Вектор у( j )=(у0( j ),у1( j )) , а его компоненты принимают значения
у0( j ) = (µc( j ) + n c0( j ))2 + (µs( j ) + n s0( j ))2, (2.2)
у1(j) = (n c1( j )) 2 + (n s1( j ))2
при передаче символа х( j ) = 0, где µc( j ) µ( j ) cos, µs( j ) µ( j )sin - квадратурные компоненты коэффициента передачи канала, соответствующие передаче j-го элемента последовательности сигналов, n ck( j ), n sk( j ), к = 0,1 -- случайные величины, определяемые влиянием АБГШ, - E/N0 - отношение сигнал/шум. При передаче символа х ( j )= 1 правые части равенств (2.2) меняются местами. Случайные величины µc( j ), µs( j ), n ck( j ), n sk( j ), k = 0,1 имеют гауссовское распределение с параметрами
= = = 0,
= = дjl , (2.3)
= = = 0,
= = = = 0, i,j = 1,2,…
Из этого определения следует, что коэффициент передачи канала µ( j )((µc( j ))2+(µs( j ))2 имеет рэлеевское распределение. Память в канале с замираниями определяется видом зависимости элементов последовательности µ =( µ (1), µ (2),…, µ ( j )) , зависящей в свою очередь от характера зависимости элементов последовательностей
µc =( µc (1), µc (2),…, µc ( j ) ) и µs =( µs (1), µs (2),…, µs ( j ) ).
Положим, что
= = = , (2.4)
где 0 r 1.
Из определений (2.3) и (2.4) следует, что µc и µs -- независимые Марковские последовательности. Нетрудно показать, что последовательность µ в этом случае также оказывается Марковской, т.е. для любого N> 1 ее функция плотности вероятностей (ф.п.в.) w (µ) записывается в виде
w(µ) = w(µ(1)) w(µ(2) µ(1))...w(µ(N) µ(N-1)), (2.5)
w(µ) (2.6)
w(µ)
(х) -- модифицированная функция Бесселя первого рода нулевого порядка. Величина при таком определении совпадает со средним значением отношения сигнал/шум в рэлеевском канале. Параметр r определяет степень зависимости случайных коэффициентов передачи канала, соответствующих различным моментам времени. В литературе отмечается, что такая модель может применяться при описании многих реальных каналов. Типичные значения параметра r могут достигать значений 0,99--0,999 и более. математический дискретный эргодичность
Для завершения формального описания модели канала нужно определить условную ф.п.в. w(y | х). Очевидно, что
w(y | x) = ( y | x, µ) w(µ)dµ, (2.7)
где ф.и.в. w(µ) определена равенством (2.5), а
w (y | x , µ) = (y( j ) | x( j ), µ( j )), (2.8)
где условные ф.п.в. w (y( j ) | x( j ), µ( j )), как следует из (2.2), представляют собой произведение ф.п.в. центрированного и не центрированного X2 - распределения с двумя степенями свободы.
2.2 Математическая модель дискретных «двумерных» каналов с памятью
Ранее уже неоднократно исследовались модели «двумерных» каналов с памятью, у которых «временная» координата формируется последовательно передаваемыми двоичными сигналами с частотной или фазовой модуляцией на одной несущей частоте, а «частотная» координата соответствует различным несущим частотам. При определенном выборе интервалов частот между несущими, замирания сигналов на них можно считать взаимно независимыми, что обеспечивает отсутствие памяти в каждом из столбцов двоичной полубесконечной матрицы (см. рис. 1), описывающей поток ошибок после демодулятора. Однако так как полоса частот, отводимая на канал связи, как правило, бывает ограничена, то число несущих, а следовательно, и независимых элементов потока ошибок тоже ограничено некоторой величиной пj которая на практике не превышает 15--25. Двоичные элементы потока ошибок в каждой из строк матрицы (рис. 1) обычно имеют сильную память, что физически объясняется медленностью замирания по времени относительно битовой скорости передачи. Метод декорреляции ошибок, реализуемый перемежением символов кодовых блоков, иногда оказывается неприменимым из-за жестких ограничений на время запаздывания информации.
Ранее исследовалась эффективность таких методов кодирования, как «временного» (все элементы кодового блока располагаются в одной строке матрицы (рис. 1)), «частотного» (все элементы кодового блока находятся в одном столбце) и каскадного, когда двоичные символы внутреннего кода передаются в одной строке, а q-ичные символы внешнего кода -- в различных строках.
Представляет интерес оценить эффективность q-ичного кодирования линейным (пj, kj ) - кодом, у которого q=2v-ичные символы образованы двоичными блоками длины v, расположенными в строках матрицы на рис. 1.
В практическом отношении использование таких кодов может привести к значительному энергетическому выигрышу при малом времени запаздывания информации, а в теоретическом плане этот случай интересен потому, что исследуется q-ичный симметричный канал, имеющий своеобразные переходные вероятности символов P(j|k), которые, однако, не придуманы искусственно, а соответствуют реальному физическому каналу.
Рис. 1 Модель дискретных «двумерных» каналов с памятью
2.2.1 Вероятности ошибки для некоторых каналов с памятью
Как видно из рис. 1, б, набор P(j|k) (j, k=0,1, 2 , . . . , q--1) переходных вероятностей q=2v-ичного однородного канала без памяти полностью определяется набором из 2v вероятностей конфигураций образцов ошибок в строках матрицы рис. 1 (предполагается, что эти наборы одинаковы для всех строк).
Таким образом,
P(j|k)=P(e(j,k)),j,k=0,1,...,q-1,(2.9)
где e(j,k)=vj ? vk, vj и vk -- двоичные представления чисел j и k соответственно, ? означает поэлементное суммирование по mod 2, P(e(j, к)) -- вероятность появления образца ошибки в виде двоичного вектора e(j,k) длины v. Исследуемый q-ичный канал не имеет памяти, а наборы переходных вероятностей для каждого из передаваемых элементов одинаковы и заданы (2.9).
Далее будем рассматривать две основные модели вероятностей конфигураций двоичных ошибок Р (е):
квазибиномиальный канал Р(е)=Р(|е|), т. е. такой, что конфигурации ошибки зависят только от ее веса - |е| (физически этот случай соответствует весьма медленным замираниям, аппроксимируемым составным каналом, когда коэффициент передачи канала на длительности всех v символов можно считать случайной, но одинаковой величиной);
двоичный рэлеевский замирающий канал (РЗК) (здесь вероятность конфигурации зависит не только от ее кратности, а выражается сложным образом через первичные параметры непрерывного канала). Однако для любых конфигураций ошибок справедливы оценки (2.10)
P(e)Rs-1, s=|е|, s=1,2,…,v,
Ri=(2+h2) Di-1-4r2 Di-2, Di= D1 Di-1-4r2 Di-2, (2.10)
D1=h2(1-r2)+2(1+r2), D0=1.
Здесь h2=E/N0 -- отношение средней энергии принимаемого элемента сигнала к спектральной плотности аддитивного белого шума в непрерывном
канале (этот параметр определяет среднюю вероятность ошибки символа p=1/(2+h2)); r -- коэффициент корреляции коэффициентов передачи канала на соседних элементах, который определяет «силу» памяти в канале (если r=0, то память отсутствует, если r=1, то канал квазибиномиальный и составной), Р(е:|е|=0)P (v, 0), где P(v, 0) --вероятность безошибочного приема блока в составном РЗК, рассчитывается по следующей рекуррентной формуле:
P (v, 0) = , P (1,0) = (2.11)
Рассмотрим верхние границы вероятностей ошибочного декодирования (Pод) в таких каналах, а также их пропускные способности, используя известные соотношения. Представляет интерес выяснить, будет ли Pод убывать при увеличении параметра v=log2q в каналах с сильной памятью при фиксированной длине кодового блока nf и как будет вести себя пропускная способность q-ичного канала без памяти при увеличении параметра v. Напомним, что при двоичном кодировании блоковым кодом длины v в каналах с сильной памятью Pод очень слабо зависит от v.
2.2.2 Расчет верхней границы Pод для квазибиномиальной модели
Оценка Галлагера для Pод в случае квазибиномиальной модели q-ичного симметричного канала без памяти принимает следующий вид:
Pод exp {- nj Er (R) }, (2.12)
E0 (R) = 1+p(2.13)
При скорости кода RRkp = оптимальное значение =1, а при R>Rkp оно находится из уравнения
/ = R, (2.14)
где = .
Для биномиального канала (с независимыми ошибками), который является частным случаем квазибиномиального при P(v, i)=рi (1--р)v-i где р -- вероятность ошибки символа, выражения (2.12), (2.13), (2.14), сводятся к случаю обычного ДСК без памяти, а параметр v влияет на Pод как v - кратное увеличение длины кодового блока nf.
Рассмотрим другой частный случай -- составной РЗК, который физически соответствует столь медленным замираниям, что коэффициент передачи канала практически не успевает изменяться на интервале Tv, где Т -- длительность двоичного сигнала. Для такого канала
P(v, i ) = ,(2.15)
P(i, i ) = ,(2.16)
где h2 -- тот же параметр, что и в (2.10).
На рис. 2 представлена зависимость Er(R) как функция v для различных значений параметра h2, рассчитанная на ЭВМ.
На рис. 3 показаны зависимости верхних границ Pод от v при длине кодовых блоков nf =24 и различных параметрах h2 и аналогичная зависимость для биномиального канала при той же вероятности ошибки символа p=1/(2+h2), что и в составном РЗК для h2=25.
Рис.2 Зависимость Er(R)
Рис.3 Зависимость верхних границ Pод
Из данных зависимостей видно, что, несмотря на сильную память по временной координате, переход от двоичного кодирования (v=l) к q=2v-ичному при v>5--7 значительно увеличивает Er(R), а следовательно, уменьшает границу Pод. (Так, при переходе от v = l к v=7 Pод при h2=25, R= и nf =24 уменьшается примерно на 6 порядков.) Этот результат является несколько неожиданным, поскольку, как уже отмечалось ранее, чисто «временное» кодирование почти не приводит к уменьшению Pод.
На рис. 4 показаны зависимости пропускной способности на бит q=2v -ичного симметричного канала без памяти с переходными вероятностями (2.9) квазибиномиального составного РЗК (2.14), которая рассчитывалась на ЭВМ по известной формуле C = |с=0.
Рис.4 Зависимость пропускной способности
Здесь же показаны верхние границы С для пропускных способностей РЗК. (Заметим, что пропускная способность является асимптотической характеристикой, т. е. она реализуется в данном случае при nf. Ранее было сделано предположение об ограниченности числа поднесущих nf и поэтому понятие пропускной способности имеет смысл только как верхняя граница реализуемой скорости передачи при предельно малой величине Pод.)
Видно, что С при увеличении v монотонно возрастает, причем при v>50 наступает «насыщение». Значительное увеличение пропускной способности Рис. 4 (до 25%) можно получить, увеличивая v до величины 25--30, причем увеличение С происходит не за счет улучшения энергетики канала, расширения полосы частот сигналов и оптимизации формы непрерывных сигналов, а только за счет перехода от двоичного кодирования к q-ичному. Принципиально важным является выполнение процедуры декодирования в q-ичном канале по максимуму правдоподобия, а не исправление ошибок кратности менее t=[d/2]1 где d -- минимальное кодовое расстояние q-ичного (nf, kf)-кода. Действительно, если выполнено условие 2v nf -1, то q-ичный код можно выбрать максимальным, например Рида -- Соломона (PC). В этом случае, как известно d=nf--kf+1, и при исправлении только ошибок гарантированной кратности
Pод = (2.17)
Рассчитывая Pод по (2.17) для составного РЗК, например, для случая, когда R= , h2=25, nf =24 и v=30, получим Pод =, в то время как расчет Pод по (2.11) для тех же параметров дает Pод5,910-14. Переход к исправлению только стираний тем же PC-кодом уменьшает Pод до величины 7,910-7, однако для формирования стираний в q-ичных символах необходимо вводить дополнительную избыточность в строках матрицы рис.1 для обнаружения ошибок и стирания тех q-ичных символов, где они обнаружены, что приводит к каскадному (nt, kt, пf, kf)-коду. Оптимизация в классе таких кодов при заданных параметрах nf =24, R= ktkf / ntпf =1/4, nt=30, h2=25 обеспечивает Pод 10-4, что, как видно, значительно хуже, чем использование q-ичного кода с такой же скоростью передачи и при тех же параметрах канала.
Рассчитаем энергетический выигрыш от применения q-ичных кодов с оптимальным алгоритмом декодирования по сравнению с системой связи без кодирования, использующей тот же самый многочастотный модем при одинаковых информационных скоростях передачи и одинаковых вероятностях правильного приема равного числа информационных символов. В блоке q-ичного кода содержится kfv двоичных символов и вероятность их правильной доставки не меньше, чем 1--Pод. Тогда вероятность безошибочного приема kfv бит в системе без кодирования, использующей kf частот, равна вероятности безошибочного приема kf блоков длины v на каждой из частот, что для составного РЗК с независимыми столбцами в различных строках матрицы рис. 1 приводит к соотношению
Pод'= (v, 0). (2.18)
Задаваясь допустимой величиной Pод '= Pдоп, находим, используя (2.15), (2.16), (2.18), необходимое для этого h12. Далее полагая Pод = Pдоп, где Pод рассчитывается по (2.12), находим требуемое для этого значение h2 в системе с q-ичным кодированием. Энергетический выигрыш з (дБ) определим с учетом необходимости сокращения длительности элемента в 1/R раз в системе с кодированием для обеспечения равных информационных скоростей, что дает выражение
з (дБ) = 10 (2.19)
Для примера, выбирая Pдоп =10-3, nf =24, R= , v=5, получаем, что энергетический выигрыш от применения q-ичного кодирования составит 28 дБ. Заметим, что данное значение энергетического выигрыша можно рассматривать как предельную величину при ограничении на время запаздывания и число частот модема. Открытым является вопрос о практическом приближении к такому выигрышу с помощью конструктивных методов кодирования и декодирования.
Оставаясь в классе квазибиномиальных каналов, для которых справедлива граница (2.12), представляет интерес найти «худшую» функцию кратности P(v, i), дающую минимальное значение Er(R) при заданной величине вероятности ошибки символа р. Такая постановка задачи соответствует нахождению экстремума функции
f (, ,…, = (v,i)(2.20)
при дополнительных условиях
+ (v,i)=p,(2.21)
(v,i)=1,(2.22)
Рис.5 Зависимость Er(R) как функция v
Решение данной задачи методом неопределенных множителей Лагранжа приводит к следующей границе для функции (2.20):
...Подобные документы
Динамическая модель как теоретическая конструкция, описывающая изменение состояний объекта. Характеристика основных подходов к построению: оптимизационный, описательный. Рассмотрение способов построения математических моделей дискретных объектов.
контрольная работа [769,7 K], добавлен 31.01.2013Приемы построения математических моделей вычислительных систем, отображающих структуру и процессы их функционирования. Число обращений к файлам в процессе решения средней задачи. Определение возможности размещения файлов в накопителях внешней памяти.
лабораторная работа [32,1 K], добавлен 21.06.2013Стационарное распределение вероятностей. Построение математических моделей, графов переходов. Получение уравнения равновесия систем массового обслуживания с различным числом приборов, требованиями различных типов и ограниченными очередями на приборах.
дипломная работа [2,4 M], добавлен 23.12.2012Общая структура системы массового обслуживания. Каналы и линии связи, вычислительные машины, объединенные общей структурой, число каналов обслуживания. Регулярный поток с ограниченным последействием. Применение различных величин и функций в системе.
курсовая работа [199,4 K], добавлен 13.11.2011Оптимизация управления потоком заявок в сетях массового обслуживания. Методы установления зависимостей между характером требований, числом каналов обслуживания, их производительностью и эффективностью. Теория графов; уравнение Колмогoрова, потоки событий.
контрольная работа [35,0 K], добавлен 01.07.2015Примеры основных математических моделей, описывающих технические системы. Математическая модель гидроприводов главной лебедки и механизма подъема-опускания самоходного крана. Описание динамики гидропривода механизма поворота стрелы автобетононасоса.
реферат [3,9 M], добавлен 23.01.2015Основные понятия теории массового обслуживания: марковский процесс, простой поток, сеть Джексона. Исследование стационарного распределения сети с ромбовидным контуром: для марковских и немарковских процессов, а также для сети с отрицательными заявками.
дипломная работа [957,4 K], добавлен 17.12.2012Математическая теория массового обслуживания как раздел теории случайных процессов. Системы массового обслуживания заявок, поступающих через промежутки времени. Открытая марковская сеть, ее немарковский случай, нахождение стационарных вероятностей.
курсовая работа [374,3 K], добавлен 07.09.2009Анализ математических моделей, линейная система автоматического управления и дифференциальные уравнения, векторно-матричные формы и преобразование структурной схемы. Метод последовательного интегрирования, результаты исследований и единичный импульс.
курсовая работа [513,2 K], добавлен 08.10.2011Определение понятия модели, необходимость их применения в науке и повседневной жизни. Характеристика методов материального и идеального моделирования. Классификация математических моделей (детерминированные, стохастические), этапы процесса их построения.
реферат [28,1 K], добавлен 20.08.2015Составление математической модели для предприятия, характеризующей выручку предприятия "АВС" в зависимости от капиталовложений (млн. руб.) за последние 10 лет. Расчет поля корреляции, параметров линейной регрессии. Сводная таблица расчетов и вычислений.
курсовая работа [862,4 K], добавлен 06.05.2009Процесс выбора или построения модели для исследования определенных свойств оригинала в определенных условиях. Стадии процесса моделирования. Математические модели и их виды. Адекватность математических моделей. Рассогласование между оригиналом и моделью.
контрольная работа [69,9 K], добавлен 09.10.2016Разработка проекта системы автоматического управления тележкой, движущейся в боковой плоскости. Описание и анализ непрерывной системы, создание ее математических моделей в пространстве состояний и модели "вход-выход". Построение графиков реакций объекта.
курсовая работа [1,7 M], добавлен 25.12.2010Возникновение и развитие теории динамических систем. Развитие методов реконструкции математических моделей динамических систем. Математическое моделирование - один из основных методов научного исследования.
реферат [35,0 K], добавлен 15.05.2007Исследование стационарного распределения сетей массового обслуживания и доказательство инвариантности. Уравнения глобального равновесия и понятие эргодичности. Доказательство инвариантности стационарного распределения, а также определение его вида.
дипломная работа [439,7 K], добавлен 12.12.2009Теория массового обслуживания – область прикладной математики, анализирующая процессы в системах производства, в которых однородные события повторяются многократно. Определение параметров системы массового обслуживания при неизменных характеристиках.
курсовая работа [439,6 K], добавлен 08.01.2009Основные понятия теории марковских цепей, их использование в теории массового обслуживания для расчета распределения вероятностей числа занятых приборов в системе. Методика решения задачи о наилучшем выборе. Понятие возвратных и невозвратных состояний.
курсовая работа [107,2 K], добавлен 06.11.2011Некоторые математические вопросы теории обслуживания сложных систем. Организация обслуживания при ограниченной информации о надёжности системы. Алгоритмы безотказной работы системы и нахождение времени плановой предупредительной профилактики систем.
реферат [1,4 M], добавлен 19.06.2008Признаки некоторых четырехугольников. Реализация моделей геометрических ситуаций в средах динамической геометрии. Особенности динамической среды "Живая геометрия", особенности построения в ней моделей параллелограмма, ромба, прямоугольника и квадрата.
курсовая работа [862,0 K], добавлен 28.05.2013Рассмотрение основных подходов к построению математических моделей процесса. Сопряженное уравнение для простейшего уравнения диффузии и структура алгоритмов для решения задач. Использование принципа двойственности для представления линейного функционала.
курсовая работа [711,0 K], добавлен 03.08.2012