Случайные процессы и сигналы

Корреляционные и ковариационные функции случайных процессов. Свойства функций автоковариации и автокорреляции. Эффективная ширина спектра для функций спектральной плотности случайных процессов. Эффективные шумовые ширина спектра и время ковариации.

Рубрика Коммуникации, связь, цифровые приборы и радиоэлектроника
Вид лекция
Язык русский
Дата добавления 15.11.2018
Размер файла 228,1 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru//

Тема Случайные процессы и сигналы

Введение

Наряду с полезными информационными составляющими в реальных сигналах присутствуют помехи и шумы. К помехам обычно относят сигналы от других посторонних источников, "наводки" аппаратуры, влияние дестабилизирующих факторов на основной сигнал и т.п. Физическая природа помех, как правило, не случайна, и после соответствующего изучения может переводиться в разряд детерминированной помехи или исключаться из сигнала. К шумам относят случайные флуктуации сигнала, обусловленные природой его источника или устройств детектирования и формирования сигнала. При неизвестной природе помех они также могут относиться к числу случайных, если имеют случайное вероятностное распределение с нулевым средним значением и дельта-подобную функцию автокорреляции.

Теория вероятностей рассматривает случайные величины и их характеристики в "статике". Задачи описания и изучения случайных сигналов "в динамике", как отображения случайных явлений, развивающихся во времени или по любой другой переменной, решает теория случайных процессов.

В качестве универсальной координаты для распределения случайных величин по независимой переменной будем использовать, как правило, переменную "t" и трактовать ее, чисто для удобства, как временную координату. Распределения случайных величин во времени, а равно и сигналов их отображающих в любой математической форме, обычно называют случайными (или стохастическими) процессами. В технической литературе термины "случайный сигнал" и "случайный процесс" используются как синонимы.

В отличие от детерминированных сигналов значения случайных сигналов в произвольные моменты времени не могут быть вычислены. Они могут быть только предсказаны в определенном диапазоне значений с определенной вероятностью, меньшей единицы. Количественные характеристики случайных сигналов, позволяющие производить их оценку и сравнение, называют статистическими.

В процессе обработки и анализа физико-технических данных обычно приходится иметь дело с тремя типами сигналов, описываемых методами статистики. Во-первых, это информационные сигналы, отображающие физические процессы, вероятностные по своей природе, как, например, акты регистрации частиц ионизирующих излучения при распаде радионуклидов. Во-вторых, информационные сигналы, зависимые от определенных параметров физических процессов или объектов, значения которых заранее неизвестны, и которые обычно подлежать определению по данным информационным сигналам. И, в-третьих, это шумы и помехи, хаотически изменяющиеся во времени, которые сопутствуют информационным сигналам, но, как правило, статистически независимы от них как по своим значениям, так и по изменениям во времени. При обработке таких сигналов обычно ставятся задачи:

· обнаружение полезного сигнала,

· оценка параметров сигнала,

· выделение информационной части сигнала (очистка сигнала от шумов и помех),

· предсказание поведения сигнала на некотором последующем интервале (экстраполяция).

1. Случайные процессы и функции

Случайный процесс описывается статистическими характеристиками, называемыми моментами. Важнейшими характеристиками случайного процесса являются его стационарность, эргодичность и спектр мощности.

Случайный процесс в его математическом описании Х(t) представляет собой функцию, которая отличается тем, что ее значения (действительные или комплексные) в произвольные моменты времени по координате t являются случайными. Строго с теоретических позиций, случайный процесс X(t) следует рассматривать как совокупность временных функций xk(t), имеющих определенную общую статистическую закономерность. При регистрации случайного процесса на определенном временном интервале осуществляется фиксирование единичной реализации xk(t) из бесчисленного числа возможных реализаций процесса X(t). Эта единичная реализация называется выборочной функцией случайного процесса X(t). Отдельная выборочная функция не характеризует процесс в целом, но при определенных условиях по ней могут быть выполнены оценки статистических характеристик процесса. Примеры выборочных функций модельного случайного процесса X(t) приведены на рис. 1.1. В дальнейшем при рассмотрении различных параметров и характеристик случайных процессов для сопровождающих примеров будем использовать данную модель процесса.

Рис. 1.1. Выборочные функции случайного процесса.

Функциональные характеристики случайного процесса.

Рис. 1.2. Сечения случайного процесса X(t).

С практической точки зрения выборочная функция является результатом отдельного эксперимента, после которого данную реализацию

xk(t) можно считать детерминированной функцией. Сам случайный процесс в целом должен анализироваться с позиции бесконечной совокупности таких реализаций, образующих статистический ансамбль. Полной статистической характеристикой процесса является N-мерная плотность вероятностей р(xn; tn). Однако, как экспериментальное определение N-мерных плотностей вероятностей процессов, так и их использование в математическом анализе представляет значительные математические трудности. Поэтому на практике обычно ограничиваются одно- и двумерной плотностью вероятностей процессов.

Допустим, что случайный процесс X(t) задан ансамблем реализаций {x1(t), x2(t),… xk(t),…}. В произвольный момент времени t1 зафиксируем значения всех реализаций {x1(t1), x2(t1),… xk(t1),…}. Совокупность этих значений представляет собой случайную величину X(t1) и является одномерным сечением случайного процесса X(t). Примеры сечений случайного процесса X(t) по 100 выборкам xk(t) (рис. 1.1) в точках t1 и t2 приведены на рис. 1.2.

Одномерная функция распределения вероятностей F(x, ti) определяет вероятность того, что в момент времени ti значение случайной величины X(ti) не превысит значения x:

F(x, ti) = P{X(ti)?x}.

Очевидно, что в диапазоне значений вероятностей от 0 до 1 функция F(x, t) является неубывающей с предельными значениями F(-,t)=0 и F(,t)=1. При известной функции F(x,t) вероятность того, что значение X(ti) в выборках будет попадать в определенный интервал значений [a, b] определяется выражением:

P{a<X(ti)?b} = F(b, ti) - F(a, ti).

Одномерная плотность распределения вероятностей p(x, t) случайного процесса Х(t) определяет вероятность того, что случайная величина x(t) лежит в интервале {x ? x(t) ? x+dx}. Она характеризует распределение вероятностей реализации случайной величины Х(ti) в произвольный момент времени ti и представляет собой производную от функции распределения вероятностей:

p(x, ti) = dF(x, ti)/dx. (1.1)

Моменты времени ti являются сечениями случайного процесса X(t) по пространству возможных состояний и плотность вероятностей p(x, ti) представляет собой плотность вероятностей случайных величин X(ti) данных сечений. Произведение p(x, ti)dx равно вероятности реализации случайной величины X(ti) в бесконечно малом интервале dx в окрестности значения x, откуда следует, что плотность вероятностей также является неотрицательной величиной.

Рис. 1.3. Распределение вероятностей и плотность вероятностей сечения случайного процесса

На рис. 1.3 приведены примеры распределения вероятностей и плотности вероятностей сечения случайного процесса X(t) в точке t1 (рис. 1.1). Функции вероятностей определены по N=1000 выборок дискретной модели случайного процесса и сопоставлены с теоретическими распределениями при N .

При известной функции плотности вероятностей вероятность реализации значения X(ti) в произвольном интервале значений [a, b] вычисляется по формуле:

P(a<X(ti)?b) =p(x,ti) dx.

Функция плотности вероятностей должна быть нормирована к 1, т.к. случайная величина обязана принимать какое-либо значение из числа возможных, образующих полное пространство случайных величин:

p(x, ti) dx =1.

Плотность распределения вероятностей, соответственно, определяет функцию распределения вероятностей:

F(x,ti) =p(x, ti) dx.

По известной плотности распределения вероятностей могут быть вычислены функции моментов случайного процесса, которые представляют собой математические ожидания соответствующих степеней (порядка) значений случайного процесса (начальные моменты) и значений флюктуационных составляющих процесса (центральные моменты, моменты относительно центров распределения случайных величин):

M{xn(t)} =xn(t) p(x, t) dx,

M0{xn(t)} = M{[x(t)-M{x(t)}]n} =[(x(t)- M{x(t)}]n p(x, t) dx,

Функции моментов являются основными статистическими характеристиками случайного процесса. Они представляют собой неслучайные функции, но полностью и однозначно определяют случайный процесс, как и плотность распределения вероятностей, при определенном количестве порядков в зависимости от характера процесса. Минимальное число порядков, которое полностью определяет гауссово распределение плотности вероятностей, равно 2.

В практике анализа случайных процессов используются, в основном, начальные моменты первого порядка и центральные моменты второго порядка.

Математическое ожидание (mean value) является первым начальным моментом случайного процесса и представляет собой статистическое усреднение случайной величины X(ti) в каком либо фиксированном сечении ti случайного процесса. Соответственно, полная функция математического ожидания является теоретической оценкой среднего взвешенного значения случайного процесса по временной оси:

mx(t) M{Х(t)} =x p(x; t) dx, (1.2)

Математическое ожидание mx(t) представляет собой неслучайную составляющую случайного процесса X(t). На рис. 1.1. и 1.2 неслучайные составляющие m(t) модели случайного процесса X(t) выделены пунктиром и соответствуют выборкам N .

Второй начальный момент случайного процесса определяет его среднюю мощность:

wx(t) M{Х2(t)} =x2 p(x; t) dx, (1.3)

Функция дисперсии (variance, function of a dispersion) случайного процесса. При анализе случайных процессов особый интерес представляет флуктуационная составляющая процесса, которая определяется разностью Х(t)-mx(t). Функция дисперсии является теоретической оценкой среднего взвешенного значения разности Х(t)-mx(t)2, т.е. является вторым центральным моментом процесса, и определяет мощность его флуктуационной составляющей:

Dx(t) = M{[Х(t)-mx(t)]2} = M{X2(t)} - mx2(t) =[xo(t)]2 p(x; t) dx, (1.4)

где xo(t) = x(t)-mx(t).

Функция среднего квадратического отклонения (standard deviation) служит амплитудной мерой разброса значений случайного процесса по временной оси относительно математического ожидания процесса:

sx(t) =. (1.5)

Рис. 1.4.

Учитывая последнее выражение, дисперсия случайной величины обычно обозначается индексом s2.

На рис. 1.4 приведен пример флюктуационной составляющей процесса X(t) (рис. 1.1) в одной из реализаций в сопоставлении со средним квадратическим отклонением ±s случайных величин от математического ожидания m(t).

Одномерные законы плотности распределения вероятностей случайных процессов не несут каких-либо характеристик связи между значениями случайных величин для различных значений аргументов.

Двумерная плотность распределения вероятностей p(x1,t1; x2,t2) определяет вероятность совместной реализации значений случайных величин Х(t1) и Х(t2) в произвольные моменты времени t1 и t2, что характеризует взаимосвязь случайного процесса в различные моменты времени и дает возможность определить характер изменения случайного процесса, т.е. динамику развития процесса во времени. Распределение описывает двумерную случайную величину {X(ti), X(tj)} в виде функции вероятности реализации случайной величины X(ti) в бесконечно малом интервале dxi в окрестностях xi в момент времени ti при условии, что в момент времени tj значение X(tj) будет реализовано в бесконечно малом интервале dxj в окрестностях xj:

p(x1,t1; x2,t2) = P{x1 ? x(t1) ? x1+dx1 x2 ? x(t2) ? x2+dx2 }.

С помощью двумерной плотности распределения вероятностей можно определить корреляционные функции процесса.

Корреляционные функции случайных процессов. Характеристикой динамики изменения случайной величины X(ti) является корреляционная функция, которая описывает случайный процесс в целом:

RX(ti, tj) = M{X(t1) X(t2)}.

Корреляционная функция представляет собой статистически усредненное произведение значений случайного процесса X(t) в моменты времени ti и tj по всем значениям временных осей ti и tj, а, следовательно, тоже является двумерной функцией. В терминах теории вероятностей корреляционная функция является вторым начальным моментом случайного процесса.

На рис. 1.5 приведены примеры реализаций двух случайных процессов, которые характеризуются одной и той же функцией математического ожидания и дисперсии.

На рисунке видно, что хотя пространство состояний обоих процессов практически одно и то же, динамика развития процессов в реализациях существенно различается. Единичные реализации коррелированных процессов в произвольный момент времени могут быть такими же случайными, как и некоррелированных, а в пределе, во всех сечениях оба процесса могут иметь один и тот же закон распределения случайных величин. Однако динамика развития по координате t (или любой другой независимой переменной) единичной реализации коррелированного процесса по сравнению с некоррелированным является более плавной, а, следовательно, в коррелированном процессе имеется определенная связь между последовательными значениями случайных величин. Оценка степени статистической зависимости мгновенных значений какого-либо процесса Х(t) в произвольные моменты времени t1 и t2 и производится функцией корреляции. По всему пространству значений случайного процесса X(t) корреляционная функция определяется выражением:

RX(ti, tj) =x(ti)x(tj) p(xi,tj; xi,tj) dxi dxj, (1.6)

При анализе случайных процессов второй момент времени tj удобно задавать величиной сдвига t относительно первого момента, который при этом может быть задан в виде координатной переменной:

RX(t, t+t) = M{Х(t)Х(t+t)}. (1.7)

Функция, задаваемая этим выражением, обычно называется автокорреляционной функцией случайного процесса.

Ковариационные функции. Частным случаем корреляционной функции является функция автоковариации (ФАК), которая широко используется при анализе сигналов. Она представляет собой статистически усредненное произведение значений центрированной случайной функции X(t)-mx(t) в моменты времени ti и tj и характеризует флюктуационную составляющую процесса:

KХ(ti, tj) =(x(ti)-mx(ti)) (x(tj)-mx(tj)) p(xi,tj; xi,tj) dxi dxj, (1.8)

В терминах теории вероятностей ковариационная функция является вторым центральным моментом случайного процесса. Для центрированных случайных процессов ФАК тождественна функции автокорреляции. При произвольных значениях mx ковариационные и корреляционные функции связаны соотношением:

KX(t, t+t) = RX(t, t+t) - mx2(t).

Нормированная функция автоковариации (функция корреляционных коэффициентов):

rХ(t,t+t) = KX(t,t+t)/[s(t)s(t+t)]. (1.9)

Функция корреляционных коэффициентов может принимать значения от +1 (полная статистическая корреляция случайных процессов на интервалах t и t+t) до -1 (полная статистическая противоположность процессов на этих интервалах). Попутно отметим, что в математической статистике, а также довольно часто и в технической литературе, эту функцию называют функцией корреляции. При t--= 0 значение rХ равно 1, а ФАК вырождается в дисперсию случайного процесса:

KX(t) = DX(t).

Отсюда следует, что для случайных процессов и функций основными характеристиками являются функции математического ожидания и корреляции (ковариации). Особой необходимости в отдельной функции дисперсии не имеется.

Рис. 1.7. Реализации и ковариационные функции случайных процессов.

Примеры реализаций двух различных случайных процессов и их нормированных ковариационных функций приведены на рис. 1.7.

Свойства функций автоковариации и автокорреляции.

1. Максимум функций наблюдается при ??= 0. Это очевидно, т.к. при ??= 0 вычисляется степень связи отсчетов с собой же, которая не может быть меньше связи разных отсчетов. Значение максимума функции корреляции равно средней мощности сигнала.

2. Функции автокорреляции и автоковариации являются четными: RX(t) = RX(-t). Последнее также очевидно: X(t)X(t+t) = X(t-t)X(t) при t = t-t. Говоря иначе, моменты двух случайных величин X(t1) и X(t2) не зависят от последовательности, в которой эти величины рассматриваются, и соответственно симметричны относительно своих аргументов: Rx(t1, t2) = Rx(t2, t1).

3. При t------значения ФАК для сигналов, конечных по энергии, стремятся к нулю, что прямо следует из физического смысла ФАК. Это позволяет ограничивать длину ФАК определенным максимальным значением tmax - радиусом корреляции, за пределами которого отсчеты можно считать независимыми. Интегральной характеристикой времени корреляции случайных величин обычно считают эффективный интервал корреляции, определяемый по формуле:

Tk =|rx(t)| dt (1/Kx(0)) |Kx(t)| dt. (1.10)

Отсчеты (сечения) случайных функций, отстоящие друг от друга на расстояние большее Tk, при инженерных расчетах считают некоррелированными.

4. Если к случайной функции X(t) прибавить неслучайную функцию f(t), то ковариационная функция не изменяется. Обозначим новую случайную функцию как Y(t)=X(t)+f(t). Функция математического ожидания новой величины: = + f(t). Отсюда следует, что Y(t) -= X(t) -, и соответственно Ky(t1,t2) = Kx(t1,t2).

5. Если случайную функцию X(t) умножить на неслучайную функцию f(t), то ее корреляционная функция Rx(t1,t2) умножится на f(t1)f(t2). Обоснование данного свойства проводится по методике, аналогичной предыдущему пункту.

6. При умножении функции случайного процесса на постоянное значение С значения ФАК увеличиваются в С2 раз.

Взаимные моменты случайных процессов второго порядка дают возможность оценить совместные свойства двух случайных процессов X(t) и Y(t) путем анализа произвольной пары выборочных функций xk(t) и yk(t).

Мера связи между двумя случайными процессами X(t) и Y(t) также устанавливается корреляционными функциями, а именно - функциями взаимной корреляции и взаимной ковариации. В общем случае, для произвольных фиксированных моментов времени t1 = t и t2 = t+t:

RXY(t, t+t) = M{X(t)Y(t+t)}. (1.11)

KXY(t, t+t) = M{(X(t)-mx(t))(Y(t+t)-my(t+t))}. (1.12)

Взаимные функции являются произвольными функциями, не обладают свойствами четности или нечетности, и удовлетворяют следующим соотношениям:

Rxy(-t) = Ryx(t), (1.13)

|Rxy(t)|2 Rx(0)Ry(0).

Если один из процессов центрированный, то имеет место Rxy(t) = Kxy(t).

Нормированная взаимная ковариационная функция (коэффициент корреляции двух процессов) характеризует степень линейной зависимости между случайными процессами при данном сдвиге t одного процесса по отношению ко второму и определяется выражением:

----------------rxy(t) = Kxy(t)/(sxsy). (1.14)

Статистическая независимость случайных процессов определяет отсутствие связи между значениями двух случайных величин X и Y. Это означает, что плотность вероятности одной случайной величины не зависит от того, какие значения принимает вторая случайная величина. Двумерная плотность вероятностей при этом должна представлять собой произведения одномерных плотностей вероятностей этих двух величин:

p(x,y) = p(x) p(y).

Это условие является обязательным условием статистической независимости случайных величин. В противном случае между случайными величинами может существовать определенная статистическая связь, как линейная, так и нелинейная. Мерой линейной статистической связи является коэффициент корреляции:

rxy = [M{X·Y} - M{X}·M{Y}]/.

Значения rxy могут изменяться в пределах от -1 до +1. В частном случае, если случайные величины связаны линейным соотношением x=ay+b, коэффициент корреляции равен ±1 в зависимости от знака константы а. Случайные величины некоррелированы при rxy=0, при этом из выражения для rxy следует:

M{X·Y} = M{X}·M{Y}.

Из статистической независимости величин следует их некоррелированность. Обратное не очевидно. Так, например, случайные величины x=cos j и y=sin j, где j - случайная величина с равномерным распределением в интервале 0…2p, имеют нулевой коэффициент корреляции, и вместе с тем их зависимость очевидна.

Классификация случайных процессов. Случайные процессы различают по степени однородности их протекания во времени (по аргументу). Кроме моментов первого и второго порядка случайные процессы имеют моменты и более высоких порядков. По мере повышения порядка моментов вероятностная структура случайных процессов и их выборочных реализаций описывается все более детально. Однако практическая оценка этих моментов по выборкам ограничена, в основном, только стационарными случайными процессами.

Стационарные процессы. Процесс называют стационарным (более точно - слабо стационарным), если плотность вероятностей процесса не зависит от начала отсчета времени и если на интервале его существования выполняются условия постоянства математического ожидания и дисперсии, а корреляционная функция является функцией только разности аргументов t--= t2-t1, т.e.:

mХ(t1) = mХ(t2) = mХ = const, (1.15)

DХ(t1) = DХ(t2) = DХ = const,

RX(t1, t1+t) Rx(t2-t, t2) = RХ(t) RХ(-t),

rx(t) = Rx(t)/Dx, rx(0) = 1, |rx(t)| ? 1, rx(-t) = rx(t).

Последние выражения свидетельствует о четности корреляционной (а равно и ковариационной) функции и функции корреляционных коэффициентов. Из него вытекает также еще одно свойство смешанных моментов стационарных процессов:

|Rx(t)| Rx(0), |Kx(t)| Kx(0) Dx.

Чем медленнее по мере увеличения значений t убывают функции Rx(t) и rx(t), тем больше интервал корреляции случайного процесса, и тем медленнее изменяются во времени его реализации.

Если от времени не зависят и моменты более высоких порядков (в частности, асимметрия и эксцесс), то такой процесс считается строго стационарным.В общем случае класс строго стационарных процессов входит в класс слабо стационарных. И только в случае гауссовых случайных процессов слабая стационарность автоматически влечет строгую, поскольку все характеристики этих процессов определяются средним значением и корреляционной функцией.

Стационарные случайные процессы наиболее часто встречаются при решении физических и технических задач. Теория стационарных случайных функций разработана наиболее полно. Случайные процессы, удовлетворяющие условиям стационарности на ограниченных, интересующих нас интервалах, также обычно рассматривают в классе стационарных и называют квазистационарными.

Нестационарные процессы. В общем случае значения функций математического ожидания, дисперсии и корреляции могут быть зависимыми от момента времени t, т.е. изменяться во времени. Такие процессы составляют класс нестационарных процессов.

Эргодические процессы. Строго корректно характеристики случайных процессов оцениваются путем усреднения по ансамблю реализаций в определенные моменты времени (по сечениям процессов). Но большинство стационарных случайных процессов обладает эргодическим свойством. Сущность его заключается в том, что по одной достаточно длинной реализации процесса можно судить обо всех его статистических свойствах так же, как по любому количеству реализаций. Другими словами, закон распределения случайных величин в таком процессе может быть одним и тем же как по сечению для ансамбля реализаций, так и по координате развития. Такие процессы получили название эргодических (ergodic). Для эргодических процессов имеет место:

mX(t) = M{x(t)} =x(t) dt, (1.16)

DХ(t) = M{x(t) - mХ(t)]2} =(x(t) - mХ(t))2 dt, (1.17)

RX(t) = M{x(t)x(t+t)} =x(t)x(t+t) dt. (1.18)

Эргодичность является очень важным свойством случайных стационарных, и только стационарных процессов. Математическое ожидание эргодического случайного процесса равно постоянной составляющей любой его реализации, а дисперсия является мощностью его флюктуационной составляющей. Так как определение функций производится по ограниченным статистическим данным одной реализации и является только определенным приближением к соответствующим фактическим функциям процессов, целесообразно называть эти функции статистическими.

Свойства эргодичности могут проявляться только по отношению к двум первым моментам случайного процесса, что вполне достаточно для использования соответствующих методик исследования процессов. Практическая проверка эргодичности процесса обычно производится проверкой выполнения условия Слуцкого:

K(t) dt = 0. (1.19)

Если ковариационная функция процесса стремится к нулю при возрастании значения аргумента (t), то процесс относится к числу эргодических, по крайней мере, относительно моментов первого и второго порядков.

Пример. Случайная функция задана выражением Z(t)=X(t)+Y, где X(t) - стационарная эргодичная функция, Y- случайная величина, некоррелированная с X(t). Эргодична ли функция Z(t)?

mz(t) = mz(x)+my, Kz(t) = Kx(t)+Dy.

Функция Z(t) стационарна, но не эргодична, так как при t имеет место Kz(t) Dy.

По формулам (1.16-1.18) можно вычислить моменты и для детерминированных процессов. Например, для периодической функции f(t)=a sin wt автоковариационная функция описывается выражением:

K(t) = (a2/2) cos wt.

Соответственно, для произвольной периодической функции, представленной рядом Фурье (разложенной по рядам Фурье):

K(t) = (1/2)an2 cos wnt.

Таким образом, автоковариационная функция периодической функции также является периодической функцией от аргумента t - величины временного сдвига.

Функции спектральной плотности

Каноническое разложение случайных функций. Введем понятие простейшей случайной функции, которая определяется выражением:

X(t) = Xj(t), (2.1)

где Х - обычная случайная величина, j(t) - произвольная неслучайная функция. Математическое ожидание простейшей случайной функции:

mx(t) = M{Xj(t)}= j(t)M{X}= j(t)mx, (2.2)

где mx - математическое ожидание случайной величины Х. При mx = 0 математическое ожидание mx(t) также равно нулю для всех t и функция (2.1) в этом случае называется элементарной случайной функцией. Ковариационная функция элементарной случайной функции определится выражением:

Kx(t1,t2) = M{X(t1)X(t2)}= j(t1)j(t2)M{X2}= j(t1)j(t2)Dx. (2.3)

где Dx - дисперсия случайной величины Х.

Центрированную случайную функцию 0X(t) можно представить суммой взаимно некоррелированных элементарных случайных функций:

0X(t) =Xiji(t), (2.4)

Из взаимной некоррелированности элементарных случайных функций следует взаимная некоррелированность величин Xi. Математическое ожидание и ковариационная функция случайной функции 0X(t):

M{0X(t)}= M{Xiji(t)}= 0.

Kx(t1,t2) = M{0X(t1) 0X(t2)}= M{Xiji(t1)Xjjj(t2)}= ji(t1)jj(t2)M{XiXj}.

В силу взаимной некоррелированности парных значений XiXj имеет место M{XiXj}= 0 при i j, и все члены суммы в последнем выражении равны нулю, за исключением значений при i = j, для которых M{XiXj}= M{Xi2}= Di. Отсюда:

Kx(t1,t2) =ji(t1)ji(t2)Di. (2.5)

Произвольная нецентрированная случайная функция соответственно может быть представлена в виде

X(t) = mx(t) + 0X(t) = mx(t) +Xiji(t), (2.6)

с математическим ожиданием mx(t) и с той же самой ковариационной функцией (2.5) в силу свойств ковариационных функций, где 0X(t) - флюктуационная составляющая случайной функции X(t). Выражение (2.6) и является каноническим разложением функции X(t). Случайные величины Xi называются коэффициентами разложения, функции ji - координатными функциями разложения. При t1 = t2 из (2.5) получаем функцию дисперсии случайной функции X(t):

Dx(t) = [ji(t)]2Di. (2.7)

Таким образом, зная каноническое разложение (2.6) функции X(t), можно сразу определить каноническое разложение (2.5) ее ковариационной функции, и наоборот. Канонические разложения удобны для выполнения различных операций над случайными функциями. Это объясняется тем, что в разложении зависимость функции от аргумента t выражается через неслучайные функции ji(t), а соответственно операции над функцией X(t) сводятся к соответствующим операциям математического анализа над координатными функциями ji(t).

В качестве координатных функций разложения, как и при анализе детерминированных сигналов, обычно используются гармонические синус-косинусные функции, а в общем случае комплексные экспоненциальные функции exp(jwt). С учетом последнего предварительно рассмотрим особенности представления случайных функций в комплексной форме.

Комплексные случайные функции. В общем случае случайный процесс может описываться комплексной случайной функцией:

Z(t) = X(t) + jY(t), (2.8)

где X(t) и Y(t) - действительные случайные функции. Соответственно, математическое ожидание комплексной функции:

mz(t) = mx(t)+jmy(t). (2.9)

Заметим, что комплексное представление случайных функций не более чем удобная для анализа математическая форма их отображения, которая, с использованием выражений Эйлера, всегда может быть переведена в форму вещественных функций. Функции дисперсии, корреляции и ковариации должны представлять собой однозначные и неслучайные вещественные характеристики случайных процессов и функций, независимо от формы их математического представления. Это условие будет выполняться при использовании в выражениях моментов второго порядка операций умножения комплексных функций с комплексно сопряженными функциями. Так, выражение для вычисления корреляционной функции имеет следующий вид:

Rz(t1,t2) = M{Z(t1)Z*(t2)}= M{[X(t1)+jY(t1)][X(t2)-jY(t2)]}=

= M{X(t1)X(t2)+Y(t1)Y(t2)+j[Y(t1)X(t2)-X(t1)Y(t2)]} =

= Rx(t1,t2) + Ry(t1,t2) + j[Ryx(t1,t2) - Rxy(t1,t2)]. (2.10)

Если действительные и мнимые части комплексной функции некоррелированы, то Ryx = Rxy = 0 и последний член выражения (2.10) также равен нулю.

Аналогичное выражение имеет место и для ковариационной функции. При t1 = t2 = t для функции дисперсии комплексной случайной величины имеем:

Dz(t) = M{|Z(t)-mz(t)|2} = Dx(t) + Dy(t), (2.11)

Все приведенные выражения в общем случае могут использоваться для любых комплексных случайных функций с любым физическим смыслом переменной t.

Финитное преобразование Фурье случайных функций. По аналогии с функциями детерминированных сигналов, отдельно взятая на интервале 0-Т реализация xk(t) стационарного случайного процесса 0X(t) может быть представлена в виде ряда Фурье:

xk(t) =Vx,k(wi) exp(jwit), -------- (2.12)

Vx,k(wi) = (1/T)xk(t) exp(-jwit) dt, (2.13)

или, в односторонней тригонометрической форме:

xk(t) = Ax,k(0) + 2(Ax,k(wi) cos(wit) + Bx,k(wi) sin(wit)), (2.12')

Ax,k(wi) = (1/T)xk(t) cos(wit) dt, (2.13')

Bx,k(wi) = (1/T)xk(t) sin(wit) dt. (2.13'')

где wi = iDw - частоты спектра, Dw = 2p/T - шаг по частоте. Выражения (2.13) обычно называют спектральными характеристиками реализаций. Из сравнения выражений (2.4) и (2.12) нетрудно сделать заключение, что выражения (2.12) относится к числу канонических разложений случайных функций, при этом спектральная характеристика Vx,k(w), а равно и ее составляющие Ax,k(w) и Bx,k(w), также являются случайными функциями частоты - единичными реализациями случайных функций Vx(w), Ax(w) и Bx(w). Соответственно, и частотное распределение амплитуд и фаз составляющих гармонических колебаний случайного процесса 0X(t) представляет собой случайные функции с соответствующими неслучайными функциями дисперсий.

Если функция 0X(t) является дискретной последовательностью случайных величин 0X(nDt) в интервале по n от 0 до N, то, как это и положено для дискретных преобразований Фурье, расчет спектральных характеристик выполняется в Главном частотном диапазоне (до частоты Найквиста wN = p/Dt), с заменой в выражениях (2.13) интегрирования на суммирование по n и с соответствующим изменением пределов суммирования в выражениях (2.12). Данное пояснение сохраняется и на все дальнейшие выкладки.

Спектральные характеристики единичных реализаций случайных процессов интереса, как правило, не представляют, и на практике используются довольно редко. Спектральная характеристика случайной функции 0X(t), как ансамбля реализаций, может быть определена осреднением функций (2.12-13) по реализациям, в результате которого мы получим те же самые функции (2.12-13), только без индексов k. При этом, в силу центрированности стационарной случайной функции 0X(t), мы должны иметь:

M{X(t)} =M{Vx(wi)} exp(jwit) = 0,------ (2.14)

Последнее будет выполняться при условии M{Vx(wi)} = 0, т.е. математическое ожидание значений спектральной характеристики центрированного стационарного случайного процесса должно быть равно нулю на всех частотах. Другими словами, спектральной характеристики центрированного стационарного случайного процесса не существует. Существуют только спектральные характеристики его отдельных реализаций, которые и используются, например, для моделирования этих реализаций.

Для произвольных нецентрированных случайных процессов X(t), при записи последних в форме X(t) = mx(t) + 0X(t), будем соответственно иметь преобразование Фурье:

mx(t) + 0X(t) mx(w) + Vx(w) = mx(w),

т.е., по существу, функцию спектра (или спектральной плотности) неслучайной функции математического ожидания случайного процесса, естественно, в пределах той точности, которую может обеспечить выборочный ансамбль реализаций. Это лишний раз подтверждает отсутствие в спектрах случайных процессов какой-либо информации о флюктуационной составляющей процессов, и говорит о том, что фазы спектральных составляющих в реализациях процесса являются случайными и независимыми.

С учетом вышеизложенного, под спектрами случайных процессов (или спектральной плотностью при интегральном преобразовании Фурье) повсеместно понимается не преобразования Фурье собственно случайных функций, а преобразования Фурье функций мощности случайных процессов, поскольку функции мощности не зависят от соотношения фаз спектральных составляющих процессов.

Спектры мощности случайных функций определяются аналогично спектрам мощности детерминированных сигналов. Средняя мощность случайного процесса X(t), зарегистрированного в процессе одной реализации на интервале 0-Т, с использованием равенства Парсеваля может быть вычислена по формуле:

WT =[x2(t)/T] dt =[|XT(f)|2/T] df,

где X(f) - спектральная плотность единичной реализации x(t). При увеличении интервала Т энергия процесса на интервале неограниченно нарастает, а средняя мощность стремится к определенному пределу:

W =[ |XT(f)|2] df,

где подынтегральная функция представляет собой спектральную плотность мощности данной реализации случайного процесса:

W(f) = |XT(f)|2. (2.15)

Очень часто это выражение называют просто спектром мощности. Плотность мощности является вещественной, неотрицательной и четной функцией частоты. В общем случае, плотность мощности необходимо усреднять по множеству реализаций, но для эргодических процессов допустимо усреднение по одной достаточно длительной реализации.

Теорема Винера-Хинчина. Рассмотрим сигнал q(t), представляющий собой одну реализацию случайного стационарного эргодического процесса длительностью Т. Для сигнала q(t) может быть определен спектр Q(w). Если сдвинуть на t реализацию процесса, то получим спектр Q(w)exp(jwt). Для вещественных сигналов Q(w) = Q*(w) равенство Парсеваля по энергии взаимодействия двух сигналов

x(t) y*(t) dt =X(f) Y*(f) df (2.16)

может быть записано в следующей форме:

q(t)q(t+t) dt = (1/2p) Q(w)Q*(w) exp(jwt) dw. (2.17)

Поделим обе части данного равенства на Т и перейдем к пределу при Т , при этом в его левой части мы увидим выражение для функции корреляции, а в правой части - преобразование Фурье спектра мощности сигнала:

q(t)q(t+t) dt = |Q(w)|2 exp(jwt) dw, (2.18)

R(t) = (1/2p) W(w) exp(jwt) dw. (2.19)

Отсюда следует, что корреляционная функция случайного стационарного эргодического процесса представляет собой обратное преобразование Фурье его спектра мощности. Соответственно, для спектра мощности случайного процесса имеем прямое преобразование Фурье:

W(w) = R(t) exp(-jwt) dt. (2.20)

В этом состоит суть теоремы Винера-Хинчина. Функции W(w) и R(t) являются вещественными и четными, а соответственно в тригонометрической форме:

R(t) = 2W(f)cos(2pft) df, W(f) = 2R(t)cos(2pft) dt.

Спектр ковариационных функций. Так как ковариационные функции стационарных процессов являются частным случаем корреляционных функций, то эти выражения действительны и для ФАК, а, следовательно, преобразования Фурье ковариационных функций, являются спектрами мощности флюктуирующей составляющей процессов. С этих позиций дисперсия случайных процессов представляет собой среднюю мощность его флюктуаций

K(t=_) = s2 = (1/2p)W(w) dw,

т.е., равна суммарной мощности всех его частотных составляющих процессов.

При представлении ковариационной функции на интервале 0-Т, шаг по спектру функции с учетом четности ковариационной функции устанавливается равным Dw = p/T, wi = iDw, а спектр определяется обычно непосредственно по косинусам в односторонней форме:

Kx(t) = Dx(0)/2 +Dx(wi) cos(wit), (2.21)

Dx(wi) = (2/T)Kx(t) cos(wit) dt, (2.22)

где Dx(wi) в соответствии с (2.5) - дисперсии случайных величин Vx(wi), а равно и Ax(wi) и Bx(wi), в разложениях (2.12). В комплексной форме, как обычно:

Kx(t) =Dx(wi) exp(jwit),-------------------- (2.23)

Dx(wi) = (2/T)Kx(t) exp(-jwit) dt, (2.24)

Рис. 2.1. Спектры случайных функций.

Спектры ковариационных функций всегда ограничены (D(w) ) и неотрицательны (D(w) 0), при двустороннем представлении всегда четные (D(-w) = D(w)). Пример спектров в одно- и двустороннем представлении приведен на рис. 2.1.

Дисперсия стационарного случайного процесса X(t) может определяться по формуле (2.23) при t = 0:

Dx =Dx(wi), (2.25)

т.е. дисперсия стационарного случайного процесса равна сумме дисперсий всех случайных гармоник ее спектрального разложения.

Эффективная ширина спектра мощности является обобщенной характеристикой спектра случайного процесса и определяется по формуле:

Bk = DwDx/Dmax, (2.26)

где Dmax-----максимальное значение функции Dx(wi). Отметим, что ширина спектра является практической характеристикой случайного процесса, и вычисляется, как правило, для реальных частот по одностороннему спектру процесса.

При использовании предельного перехода T и соответственно интегралов Фурье в выражениях (2.23), двусторонние функции дисперсий D(wi) заменяются функциями S(w), а односторонние - функциями G(w), которые называют соответственно дву- и односторонними функциями спектральной плотности случайных процессов. Такое же индексирование в научно-технической литературе применяют и для спектров корреляционных функций, а зачастую и для дискретных преобразований ковариационных функций вместо D(wi), хотя последнее применительно к ковариационным функциям более точно отражает физическую сущность величин. Но оно может считаться вполне приемлемым для сохранения общности математических описаний.

Эффективная ширина спектра для функций спектральной плотности случайных процессов:

Bk =Gx(f) df /Gx(f)max =Sx(f) df /Sx(f)max = Kx(0) /Sx(f)max. (2.27)

Соотношение неопределенности связывает эффективную ширину спектра Bk с эффективным интервалом ковариации Tk. Для его определения найдем произведение BkTk случайного процесса с использованием формул (1.10) и (2.27):

BkTk = 2|Kx(t)|dt--/Sx(f)max.---------------------- ------------------------------------(9.2.28)

Оценка этого произведения и приводит к соотношению неопределенности:

BkTk 1/2. (2.29)

Следовательно, с уменьшением эффективной ширины спектра увеличивается эффективный интервал ковариации случайного процесса, и наоборот.

Взаимные спектральные функции. Статистическая связь двух случайных процессов X(t) и Y(t) оценивается по функциям взаимной ковариации Kxy(t) или Kyx(t). Функции взаимной ковариации в общем случае являются произвольными, и соответственно функции взаимного спектра представляют собой комплексные выражения:

Sxy(wi) = (1/T)Kxy(t) exp(-jwit) dt, (2.30)

при этом:

Sxy(-w) = Sxy*(w) = Syx(w).

Квадратурным аналогом нормированной взаимной ковариационной функции или функции коэффициентов ковариации двух процессов (1.14) в спектральной области является функция когерентности, которая определяется выражением:

gxy2(w) = |Sxy(w)|2/(Sx(w)Sy(w)), (2.31)

и для любых w удовлетворяет неравенствам

0 gxy2(w) 1

Функция когерентности обычно используется при анализе линейных систем преобразования входной функции X(t) в выходную функцию Y(t) (рассмотрено ниже).

В заключение данного раздела еще раз отметим, что спектральные плотности случайных процессов и спектры плотности мощности, это одно и то же понятие. Оба термина используются достаточно широко в научно-технической литературе. Учитывая то обстоятельство, что понятие мощности по своему смыслу больше связано с энергетическими понятиями, а понятие спектральной плотности - с анализом сигналов и систем, при дальнейшем рассмотрении случайных сигналов и процессов будем использовать, в основном, понятие спектральной плотности или (для дискретных величин) спектров случайных сигналов и процессов.

Преобразования случайных функций

Системы преобразования случайных функций. Пусть имеется система преобразования с одним входом, на который поступает (подается) входная случайная функция X(t) - функция воздействия или возбуждения, и с одним выходом, с которого снимается выходная функция Z(t) - отклик или выходная реакция системы. Система осуществляет преобразование X(t) Z(t) и описывается определенным системным оператором трансформации Т - функцией, алгоритмом, набором правил преобразования входного сигнала в выходной. Обозначение операции преобразования: Z(t) = T[X(t)]. Символическое и полное отображение операции преобразования:

z(t) = h(t) ? x(t-t) =h(t)x(t-t) dt.

где h(t) - математическая функция импульсного отклика системы на единичное входное воздействие. Импульсный отклик определяет соответствующую частотную передаточную характеристику системы: h(t) H(w).

Для неслучайных (детерминированных) входных сигналов соотношение между выходными и входными сигналами всегда однозначно задается системным оператором. В случае реализации на входе системы случайного входного процесса (случайного сигнала) тоже существует однозначное соответствие процессов на выходе и входе системы, однако при этом одновременно происходит изменение статистических характеристик выходного сигнала (математического ожидания, дисперсии, ковариационной функции и пр.).

Линейные и нелинейные системы составляют два основных класса систем обработки сигналов. Термин линейности означает, что система преобразования сигналов должна иметь произвольную, но в обязательном порядке линейную связь между входным сигналом (возбуждением) и выходным сигналом (откликом). В нелинейных системах связь между входным и выходным сигналом определяется произвольным нелинейным законом.

Основные системные операции линейных систем, из которых могут быть сформированы любые линейные операторы преобразования, это операции скалярного умножения, сдвига и сложения сигналов:

...

Подобные документы

  • Случайные процессы с нормальным законом распределения, которые определяются математическим ожиданием и корреляционной функцией. Определение статистических характеристик случайных процессов в линейных системах. Эквивалентная шумовая полоса следящих систем.

    реферат [207,5 K], добавлен 21.01.2009

  • Вычисление математического ожидания и дисперсии, плотности распределения случайных величин. Реализация квазидетерминированного случайного процесса. Помехоустойчивость сигналов при когерентном приеме. Вероятности ложной тревоги и пропуска сигнала.

    контрольная работа [257,4 K], добавлен 20.03.2015

  • Характеристики векторного пространства. Прием дискретных сигналов с неопределенной фазой. Их преобразование в электрические. Эффективная ширина спектра импульса. Спектры фазомодулированных и частотно-модулированных колебаний. Гармонический синтез функции.

    контрольная работа [899,3 K], добавлен 02.07.2013

  • Процесс приема сигналов на вход приемного устройства. Модели сигналов и помех. Вероятностные характеристики случайных процессов. Энергетические характеристики случайных процессов. Временные характеристики и особенности нестационарных случайных процессов.

    дипломная работа [3,3 M], добавлен 30.03.2011

  • Определение спектральной плотности заданного непериодического сигнала, спектра периодической последовательности заданных видеоимпульсов. Определение функции корреляции заданного видеосигнала. Спектральный метод анализа процессов в линейных цепях.

    курсовая работа [1013,1 K], добавлен 23.02.2012

  • Характеристика видов и цифровых методов измерений. Анализ спектра сигналов с использованием оконных функций. Выбор оконных функций при цифровой обработке сигналов. Исследование спектра сигналов различной формы с помощью цифрового анализатора LESO4.

    дипломная работа [2,5 M], добавлен 03.05.2018

  • Понятие случайных процессов, их математическое описание; показатели Ляпунова. Измерение вероятностных характеристик стационарных эргодических сигналов. Анализ распределения вероятностей методом дискретных выборок. Измерение корреляционных функций.

    доклад [150,8 K], добавлен 20.05.2015

  • Расчет спектральной плотности экспоненциального импульса цифрового устройства с помощью формулы прямого преобразования Фурье. Построение АЧХ и ФЧХ спектральной плотности. Построение амплитудного спектра периодического дискретизированного сигнала.

    контрольная работа [197,1 K], добавлен 23.04.2014

  • Анализ прохождения белого шума через колебательный контур. Расчет плотности вероятности стационарного случайного сигнала на выходе электрической цепи; правила его нормализации. Исследование линейных преобразований случайных процессов с помощью LabVIEW.

    реферат [5,6 M], добавлен 31.03.2011

  • Расчет спектральной плотности непериодических сигналов. Спектральный анализ непериодических сигналов. Определение ширины спектра по заданному уровню энергии. Расчет автокорреляционной функции сигнала и корреляционных функций импульсных видеосигналов.

    контрольная работа [96,4 K], добавлен 29.06.2010

  • Принцип действия и устройство решетчатых фильтров, назначение и достоинства. Синтез решетчатого фильтра. Генерация случайных процессов на основе фильтра с решетчатой структурой. Система уравнений, описывающая фильтр с долговременным предсказанием.

    реферат [196,4 K], добавлен 10.11.2010

  • Структура канала связи. Расчет спектральных характеристик модулированного сигнала, ширины спектра, интервала дискретизации сигнала и разрядности кода, функции автокорреляции, энергетического спектра, вероятности ошибки в канале с аддитивным белым шумом.

    курсовая работа [1,7 M], добавлен 07.02.2013

  • Вероятностные характеристики случайных сигналов. Измерение среднего значения средней мощности и дисперсии. Анализ распределения вероятностей. Корреляционные функции. Метод дискретных выборок. Анализ распределения вероятностей методом дискретных выборок.

    реферат [74,7 K], добавлен 23.01.2009

  • Вычисление и изображение на спектральной диаграмме спектра периодического процесса с заданной амплитудой и частотой. Спектральная плотность одиночного прямоугольного импульса. Расчет спектра амплитудно-манипулированного и фазоманипулированного сигнала.

    контрольная работа [473,7 K], добавлен 11.07.2013

  • Формирование растра на экране кинескопа и фотомишени передающей трубки. Параметры развёртки вещательной телевизионной системы. Ширина и микроструктура спектра видеосигнала, смешение цветов. Скорость движения электронного луча на экране кинескопа.

    курсовая работа [1,6 M], добавлен 22.04.2014

  • Основные характеристики и принцип работы связного радиопередающего устройства, использующего частотную модуляцию. Варикапы для регулировки частоты генератора по диапазону. Девиация частоты на выходе автогенератора и ширина спектра радиочастот сигнала.

    курсовая работа [422,8 K], добавлен 28.09.2010

  • Преобразование изображаемого объекта в электрический сигнал. Электронные системы телевидения. Разделение строчных и кадровых синхроимпульсов. Четкость телевизионного изображения, ширина спектра телевизионного сигнала. Полоса частот для передачи сигнала.

    реферат [3,0 M], добавлен 18.03.2011

  • Расчет амплитудно-частотной и фазочастотной характеристики спектральной плотности одиночного прямоугольного видеоимпульса. Определение эффективной ширины спектра импульса, уровней гармонических составляющих и коэффициента передачи согласованного фильтра.

    контрольная работа [791,6 K], добавлен 04.04.2013

  • Определение корреляционной функции входного сигнала, расчет его амплитудного и фазового спектра. Характеристики цепи: амплитудно-частотная, фазо-частотная, переходная, импульсная. Вычисление спектральной плотности и построение графика выходного сигнала.

    курсовая работа [986,4 K], добавлен 18.12.2013

  • Структурная схема системы электросвязи, назначение ее отдельных элементов. Рассчет интервала корреляции, спектра плотности мощности и начальной энергетической ширины спектра сообщения. Потери при фильтрации. Средняя квадратичная погрешность фильтрации.

    курсовая работа [2,9 M], добавлен 20.12.2010

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.