Случайные величины и функции распределения

Понятие и виды случайных величин, их числовые характеристики. Свойства дисперсии и вычисление числовых характеристик стандартных распределений. Функции от случайных величин, условные законы распределения. Потоки событий и теории массового обслуживания.

Рубрика Математика
Вид лекция
Язык русский
Дата добавления 21.03.2018
Размер файла 581,3 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

(61)

(62)

Из формул (61), (62) видно, что при изменении значений х (значений у) изменяется и величина

Определение. Функция называется функцией регрессии случайной величины на . Аналогично, - функция регрессии случайной величины на .

Кривые, которые заданы функциями и , называются линиями регрессии. Ясно, что функции , не являются, вообще говоря, обратными, поскольку взаимное влияние случайных величин друг на друга, как правило, различно. Это становится очевидным, если заметить, что при фиксированном значении х, значение у = (х) определяется как условное среднее значений уУ, которое может даже и не принадлежать множеству У.

Разумно считать, что линии регрессии у = (х) и различны и имеют, как правило, сложную функциональную зависимость.

Нахождение истинной линии регрессии задача трудновыполнимая. На практике, как правило, поступают следующим образом.

Если, из каких-либо соображений, общий вид линии регрессии известен, например, у = , , ), то задача состоит в нахождении числовых параметров ,,, которые обычно являются композицией из моментов случайных величин. Эта задача решаемая.

Другим, наиболее часто используемым в инженерных расчетах подходом, является приближение линии регрессии многочленом степени n. Приближение тем точнее, чем выше его степень. Обычно выбирают метод наименьших квадратов (М.Н.К.) [4]. Пусть задан класс многочленов, накладывающий на выборку одинаковое число связей, которое равно числу неопределенных коэффициентов многочлена. Наилучшее уравнение приближенной регрессии дает тот многочлен степени n, для которого наименьшее значение имеет функция , где (хi, yi) -совокупность опытных данных.

Пример. Пусть линия регрессии приближается линейной функцией, то есть

.

Здесь означает, что истинная линия регрессии у = (х) заменяется на линейную функцию.

Требуется подобрать коэффициенты так, чтобы эта линейная функция была наилучшей.

Решение. Рассмотрим коэффициент корреляции, имеем

где , а , .

Учитывая (60),

,

.

Отсюда

.

Для нахождения заметим, что, если линия регрессии линейна, то справедливо , то есть

.

Таким образом,

. (63)

Аналогично получаем

. (64)

Упражнение. Показать, что те же самые результаты дает метод наименьших квадратов.

Если , то случайные величины зависимы и оцениваются острым углом между прямыми (63) и (64).

а) б)

Рис. 25

На рис. 25 а), коэффициент корреляции r , , так как с увеличением значений , значения увеличиваются. На рис. 25 б), коэффициент корреляции r , , так как с увеличением значений , значения убывают. Если прямые перпендикулярны, то r ,) . Это означает, что случайные величины некоррелированы.

Случайные процессы

Пусть имеем произвольное вероятностное пространство (?,), на котором задана случайная величина , . Рассмотрим функцию (t)= t), где t T, Т - множество, интерпретируемое нами как время.

Определение. Семейство случайных величин t) параметра tТ, определенное для каждого , называется случайным процессом.

На вероятностном пространстве можно задать любое конечное, или даже бесконечное, семейство случайных величин. Однако, если они независимы, то такой процесс трудно назвать случайным. Отличительной особенностью случайного процесса является, именно, зависимость случайных величин, которая осуществляется через связующий параметр t. Задание вида зависимости приводит к возникновению классов случайных процессов (например, процессы с независимыми приращениями 2, марковские процессы 5, пуассоновские процессы 8 и др.), каждый из которых имеет свою, наиболее эффективную область применения. Способы описания случайных процессов, в основном, индивидуальны и приспособлены под тот или иной класс. Существует развитая общая теория случайных процессов 6, которая является в свою очередь, частью общей теории случайных функций.

Пример 1. Последовательность случайных величин 1, 2, …, n, …, являющаяся результатом работы датчика случайных чисел, образующего двухзначные целые числа в моменты времени t{1,2,…}, образует случайный процесс. В этом случае говорят о случайном процессе с дискретным временем и дискретными состояниями.

Пример 2. Срок службы фильтра, модулей по очистке воды, можно рассматривать как случайный процесс со временем tТ=[0,Т1], где пространство элементарных событий = {хлор, нефтепродукты, фенол, пестициды, тяжелые металлы и др.}, Т1 - срок службы фильтра. Здесь случайный процесс с непрерывным временем и дискретным числом состояний.

Пример 3. Пусть время работы технического устройства является случайной величиной с экспоненциальной функцией распределения

, (63)

tср - среднее время наработки прибора на отказ.

Число отказов к = 0,1,2,…n прибора за время Т образует случайный процесс с непрерывным временем и дискретными состояниями.

Пусть имеем случайный процесс t) = t). При любом допустимом значении t = t1 случайный процесс становится случайной величиной t1)=t1), для которой имеем свою функцию распределения F1(х) = F(х, t1). Будем говорить, что в этом случае имеем сечение случайного процесса. Если фиксировать случайное событие 1, то имеем реализацию случайного процесса, то есть неслучайную функцию 1 = 1 t), являющейся функцией параметра t. Итак, при одном сечении процесса и одной реализации, вся информация о нем содержится в системе

Интуитивно ясно, что этой информации явно недостаточно для изучения случайного процесса.

Рассмотрим пример 3. Так как имеем случайный процесс с непрерывным временем, то при t = t1, случайная величина 1= t1) имеет закон распределения, представленный табл. 6.

Таблица 6

(t1)

x0 (t1)

x1(t1)

xn (t1)

.

P(t1)

P0(t1)

P1(t1)

Pn(t1)

Значения случайной величины (t1) xn(t1) = n, n = 0, 1, … .

Зафиксируем элементарное событие =n, n, тогда имеем реализацию случайного процесса, или функцию одной переменной 1 =1 (t), t[0,.

Рис. 26

Рис. 26 иллюстрирует ситуацию, когда в начальный момент времени t=0 прибор находится в рабочем состоянии. При n = 1 максимальное значение 1(t)=Р1(t) равно , при n = 2 максимальное значение 2 (t) = Р2(t) равно .

Разобранный нами случайный процесс называется пуассоновским.

Из примера видно, что изучение случайных процессов тесно связано с распределением вероятностей. Однако далеко не всегда реализация случайного процесса имеет траекторию, представляющую «вероятностную кривую» (то есть без пересечений и со значениями из [0,1]).

Пример 4. Частица совершает движение «скачком», двигаясь по перпендикулярным прямым, на бумаге в клетку, случайным образом, фиксируя свое положение в точке пересечения прямых в моменты ti, i = 1, 2, …, n. В результате имеем достаточно сложную кривую (рис. 27). Реализация случайного процесса - траектория, описываемая параметрически парой (1 (t), 2 (t)), t[0,Т .

Рис. 27

Пусть имеем случайный процесс t)= t), тогда, при любом фиксированном t=t1 (по аналогии со случайной величиной), имеем закон распределения

. (64)

Функция (64), двух переменных, F(t, x), называется одномерным законом распределения случайного процесса t). Очевидно, что одномерный закон распределения не может являться достаточной характеристикой случайного процесса, поскольку он представляет только одно сечение, по которому невозможно делать выводы о всем процессе.

Ясно, что чем больше сечений, тем точнее задан случайный процесс, однако, и сложность изучения его резко возрастает. Для n сечений мы имеем функцию 2n переменных. На практике, более чем двумерные законы используются редко.

Рассмотрим двумерный закон распределения

, (65)

который составлен по двум сечениям процесса. Функция четырех переменных (65), оказывается, является исчерпывающей характеристикой для специального типа случайных процессов - процессов без последействия или марковских процессов (пример 3).

Марковские процессы широко используются в инженерной практике, поскольку основаны на независимости специального класса случайных событий.

Марковские процессы

Понятие марковкой цепи принадлежит русскому математику А.А. Маркову (в статьях 1906-1908 гг., где он использовал новое понятие для статистического анализа распределения букв в поэме А.С. Пушкина «Евгений Онегин»). Само понятие «Цепь Маркова» было предложено русским математиком А.Я. Хинчиным.

Пусть имеем некоторую систему S, которая может находиться в одном из конечного или счетного множества несовместных состояний Сi, i N. Переход системы от состояния к состоянию, вообще говоря, случаен и возможен только в фиксированные моменты времени tn, n= 0,1,2,… . Опишем функционирование системы в терминах случайных процессов.

Пусть в момент времени tn, система S перешла из состояния Сj в состояние Сi. Для ее описания зададим дискретный случайный процесс функцией tn) = i, tn), i = 1, 2, …; n = 0, 1, … . Элементарное событие i отражает пребывание системы S в состоянии Ci. Кроме того, нам необходимо задать начальное распределение вероятностей для момента времени t = t0 и, в общем случае, задать все сечения процесса и возможность его реализации.

Получить такую информацию о случайном процессе задача трудновыполнимая, да и в ряде случаев не нужная, если использовать понятие цепей Маркова.

В самом деле, пусть имеем последовательность (цепь) зависимых целочисленных случайных величин n = tn), n = 0,1,… . Если в момент tn система пришла в состояние Ci, то будем считать, что n = i.

Определение. Последовательность случайных величин {n}, n = 0,1,… образует цепь Маркова, если

,(66)

с начальными условиями

, . (67)

Вероятности - называются вероятностями перехода. Свойство (66), цепи Маркова, называется свойством отсутствия последействия, которое интерпретируется так: поведение процесса в будущем зависит только от фиксированного настоящего и не зависит от его прошлого.

Определение. Цепь Маркова {n}, n = 0, 1, …, называется однородной, если вероятности перехода не зависят от времени, то есть

, . (68)

Определение. Цепь Маркова называется неприводимой, если каждое ее состояние может быть достигнуто из любого другого, то есть для любых двух состояний системы S Сi, Cj, существует целое число к, такое, что .

Для однородной цепи имеем .

Пусть - вероятность того, что в момент времени tn система находится в состоянии Сj. Интерес представляет существование предела

, . (69)

Нахождение распределения {j} является основной задачей цепей Маркова. Если предел существует, то говорят, что система S имеет стационарный режим функционирования, если . Предельные вероятности {j} не зависят от начальных условий, , , означают долю времени, в течение которого система находится в состоянии Сj, jN, и однозначно определяются равенствами:

, (70)

, . (71)

Формула (70) называется условием нормировки.

Система алгебраических уравнений (71) является однородной, и для ее однозначного решения необходимо использовать (70), при этом, любое одно уравнение из системы (71) можно исключить.

Матрица П, составленная из элементов , называется матрицей вероятностей перехода:

. (72)

Зададим вектор вероятностей состояний системы

.

тогда система (71) записывается в виде

. (73)

Часто представляют интерес переходы системы из состояния в состояние в произвольный момент времени (переходный режим).

Для этого нужно определить распределение вероятностей пребывания системы в состоянии Сj в момент tn. Зададим вектор вероятностей в момент tn равенством

.

Используя (71) и определение вероятностей переходов (66), имеем

,

где - начальное состояние системы (67). Отсюда для любого n, по рекуррентной формуле, получаем

, . (74)

Уравнение (74) дает общий метод вычисления вероятностей на n-м шаге процесса по заданной матрице переходов П и начальном распределении

Если стационарный режим существует, то

. (75)

Пример. Рассмотрим систему S, которая находится, в любой момент времени t, в одном из трех состояний С1, С2, С3. Переход системы от состояния к состоянию происходит мгновенно в фиксированные моменты времени tк = к, к N, в соответствии с размеченным графом [3] состояний рисунка 28.

Рис. 28

Требуется оценить скорость сходимости к стационарному режиму и вычислить стационарное распределение вероятностей.

Решение. Вычислим стационарное распределение вероятностей, то есть найдем собственный вектор , где , i=1, 2, 3.

Имеем , где

.

С учетом условия нормировки имеем систему

(*)

Решая ее (например, без уравнения помеченного (*)), получаем стационарное распределение вероятностей:

.

Оценим скорость сходимости. Для этого вычислим вероятности перехода по формуле (74) при различных начальных условиях:

а) р(0) = (1,0,0),

результаты представлены в виде табл. 7.

Таблица 7

n

0

1

2

3

4

1

0

0,250

0,178

0,203

0,2

0

0,75

0,062

0,359

0,254

0,28

0

0,25

0,688

0,454

0,543

0,52

б) р(0) = (0,1,0),

соответствующие результаты отражены в табл. 8.

Таблица 8

n

0

1

2

3

4

0

0

0,187

0,203

0,199

0,2

1

0,75

0,375

0,250

0,289

0,28

0

0,25

0,438

0,547

0,512

0,52

в) р(0) = (0,0,1),

в итоге получаем табл. 9:

Таблица 9

n

0

1

2

3

4

0

0

0,187

0,203

0,199

0,2

0

0,75

0,313

0,266

0,285

0,28

1

0,25

0,500

0,531

0,516

0,52

Из таблиц видно, что вхождение системы в стационарный режим происходит достаточно быстро, так как, уже после четырех шагов, вероятности мало отличаются от предельных, независимо от начальных условий.

Замечание. Оценка скорости сходимости переходных вероятностей к стационарным зависит от собственных значений матрицы П и иллюстрируется барицентрической системой координат [8].

Непрерывные цепи Маркова

Если система с конечным или счетным числом состояний может переходить из одного состояния в другое в любой момент времени t, то будем говорить, что задана цепь Маркова с непрерывным временем.

Определение. Случайный процесс t образует непрерывную цепь Маркова, если для произвольной последовательности , i = 1, 2, …, n, такой, что t0 t1tn, выполняется

. (76)

Это определение является непрерывным аналогом определения (66). Интерпретация та же самая: состояние системы S в будущем зависит только от текущего ее состояния (настоящего) и не зависит от того, как и когда система попала в это состояние.

Определение. Цепи Маркова, сформулированные в терминах случайных процессов, называются марковскими процессами.

Рассмотренные здесь цепи Маркова - суть марковские процессы.

Непрерывные марковские процессы отличаются от дискретных тем, что случайные изменения состояний системы зависят от непрерывно изменяющихся параметров.

Пусть задан процесс (t), определяющий состяние ситемы в момент времени tT. Зададим процесс ее развития: если, в данный момент времени (<t), система находится в состоянии i, то в последующий момент времени t она будет находится в состоянии j с вероятностью , независимо от поведения системы до момента . Для такой системы вероятности

, ,

называются переходными вероятностями марковского процесса.

Определение. Марковский процесс (t) называется однородным, если переходные вероятности зависят только от разности (t-), то есть

.

В общем случае вместо переходных вероятностей можно рассматривать соответствующие плотности вероятностей. В качестве примера, можно привести броуновское движение, распространенное на непрерывный случай (Винеровский процесс 2).

Потоки событий

Потоком событий называется появление однородных событий в случайные моменты времени.

Рис. 29

Рассмотрим временную ось (рис. 29). Поток событий представляет собой, вообще говоря, последовательность случайных точек 1 2n на оси, разделенных временными интервалами Тi = i+1i), iN, длина которых случайна.

Потоки событий различаются по законам распределения длин интервалов Ti между событиями, по их зависимости или независимости, регулярности и др.

Наиболее изучены потоки, которые обладают следующими свойствами:

а) стационарность - все его вероятностные характеристики не меняются со временем;

б) отсутствие последействия - для любых непересекающихся временных интервалов на временной оси, число событий, находящихся на одном интервале, не зависит от того, сколько их и как они оказались на другом интервале;

в) ординарность - практическая невозможность на достаточно малом временном интервале появиться двум и более событиям.

Для формализации этих свойств, введем понятие интенсивности.

Пусть - вероятность того, что за время t, примыкающего к моменту времени t, появилось i событий, iN.

Рассмотрим полную группу несовместных событий, для которой, по определению, имеем

. (77)

Введем обозначение, пусть - вероятность того, что за время t появилось более одного события.

Тогда формула (77) примет вид

. (78)

Из определения ординарности следует, что

, (79)

где 0(t) - бесконечно малая более высокого порядка, чем наименьшая из вероятностей и , то есть .

Обозначим через математическое ожидание числа событий появившихся за время , тогда, по определению,

.

С учетом ординарности и свойств бесконечно малой, имеем

Положим

Определение. Функция параметра t называется интенсивностью (плотностью) ординарного потока событий в момент t, если

. (80)

Стандартная трактовка - среднее число событий, приходящихся на единицу времени, для участка , примыкающего к моменту t.

Ясно, что , и имеет размерность обратную времени -

Пример. Среднее число событий ординарного потока, на интервале длиной , примыкающего к t, равно

, (81)

в частности, для стационарного потока, имеем

Наконец, отсутствие последействия формулируется следующим образом.

Пусть вероятность того, что за время , примыкающего к моменту времени t, появилось к событий при условии, что в момент времени t было n-к событий. Тогда условие отсутствия последействия означает, что

, к = 0, 1, …, n. (82)

В частности, при t и к = 1, имеем

. (83)

Замечание. Формула (82) в терминах биологии может интерпретироваться как вероятность роста популяции [6] на к единиц за время . Аналогично, имеет смысл говорить о гибели популяции на к единиц за время , если в момент t популяция состояла из (n+k) единиц, то есть

.

Определение. Поток событий называется простейшим, если он обладает свойствами:

а) стационарности: = const,

б) отсутствия последействия:

.

в) ординарности:

.

Замечание. Простейший поток событий является достаточно общим, в том смысле, что получаемые вероятностные характеристики функционирования систем в условиях простейшего потока, как правило, наиболее пессимистичны, то есть «хуже не будет».

Покажем что, если поток событий простейший, то распределение длин интервалов между поступлениями любой пары соседних событий показательное (экспоненциальное) с плотностью

, , (84)

Следующие постулаты сразу следуют из определения простейшего потока:

для всякого малого t0, существует ненулевая вероятность появления события;

если система начинает функционировать с момента t = 0, то первое появление события имеет место в момент t 0.

Рассмотрим функцию

. (85)

если - плотность, то

.

Из свойства отсутствия последействия, имеем

, , . (86)

Вычитая из обеих частей (86) f (t), получим

.

Разделим обе части на t, и перейдем к пределу по t:

.

Если пределы существуют, то полагая

,

будем иметь

, где .

Решая это уравнение, получаем выражение

.

Подставляя его в (84), получим

. (88)

Дифференцируя (88), получаем требуемое

.Ў (89)

Определим

.

Учитывая условие отсутствия последействия, можем воспользоваться сверткой

, k N. (90)

Используя (89), имеем

. (91)

Из смысла и (90), при k = 0, получаем

. (92)

Дифференцируя (91) по t, приходим к системе уравнений

, . (93)

Система рекуррентных линейных дифференциальных уравнений (93) легко решается, начиная с k = 1, если учесть (92) и начальные условия: Vк(0) = 0, kN. Решение системы (93) имеет вид:

, k = 0, 1, 2, ... . (94)

Формула (94) представляет пуассоновский процесс (или чисто случайный процесс) с дискретным пространством состояний и непрерывным временем.

Система уравнений (93) называется системой уравнений чистого рождения [6].

Вывод. Если в некоторой системе S переходы ее из одного состояния в любое другое удовлетворяют условиям простейшего потока, то говорят, что имеет место пуассоновский процесс с непрерывным временем. Обратное также справедливо.

Пуассоновский процесс обладает некоторыми замечательными свойствами, используя которые легко получать системы уравнений вида (93), часто применяемые в системах массового обслуживания.

Основы теории массового обслуживания

Под системой массового обслуживания (СМО) будем понимать комплекс, состоящий из а) случайного входящего потока требований (событий), нуждающихся в «обслуживании», б) дисциплины очереди, в) механизма, осуществляющего обслуживание.

Входящий поток. Для описания входящего потока обычно задается вероятностный закон, управляющий последовательностью моментов поступления требований на обслуживание и количеством требований в каждом поступлении (то есть требования поступают либо единичные, либо групповые). Источник, генерирующий требования, считается неисчерпаемым. Требование, поступившее на обслуживание, может обслуживаться сразу, если есть свободные обслуживающие приборы, либо ждать в очереди, либо отказаться от ожидания, то есть покинуть обслуживающую систему.

Дисциплина очереди. Это описательная характеристика. Требование, поступившее в систему, обслуживается в порядке очереди - дисциплина очереди: первым пришел - первым обслужен. Другая дисциплина очереди: последним пришел - первым обслужен - это обслуживание по приоритету. Наконец, обслуживание требований может быть случайным.

Механизм обслуживания. Характеризуется продолжительностью и характером процедур обслуживания. Обслуживание может осуществляться по принципу: на одно требование - один обслуживающий прибор. Если в системе несколько приборов, то параллельно могут обслуживаться несколько требований. Часто используют групповое обслуживание, то есть требование обслуживается одновременно несколькими приборами. В некоторых случаях требование обслуживается последовательно несколькими приборами - это многофазовое обслуживание.

По окончании обслуживания требование покидает систему.

Анализ системы массового обслуживания. Целью является рациональный выбор структуры обслуживания и процесса обслуживания. Для этого требуется разработать показатели эффективности систем массового обслуживания. Например, требуется знать: вероятность того, что занято или свободно k приборов; распределение вероятностей свободных или занятых приборов от обслуживания; вероятность того, что в очереди находится заданное число требований; вероятность того, что время ожидания в очереди привысит заданное. К показателям, характеризующим эффективное функционирование системы в среднем, относятся: средняя длина очереди; среднее время ожидания обслуживания; среднее число занятых приборов; среднее время простоя приборов; коэффициент загрузки системы и др. Часто вводятся экономические показатели. Разработкой математических моделей, получением числовых результатов и анализом показателей эффективности занимается теория массового обслуживания.

Таким образом, основные элементы системы массового обслуживания укладываются в следующую схему (рис. 30):

Рис. 30

Рассмотрим одну из задач теории массового обслуживания, ставшую уже классической.

Постановка задачи. Пусть имеем СМО, состоящую из n идентичных параллельных каналов (приборов) обслуживания, на которую поступает случайный поток требований интенсивностью . Интервал времени между поступлениями соседних требований является случайной величиной , образующей пуассоновский процесс

,

где вероятность того, что за время t в СМО поступит ровно k требований, - среднее число требований, поступающих в СМО в единицу времени.

Если требование поступившее в СМО застает все приборы занятыми, то оно встает в очередь и ждет до тех пор, пока не освободится обслуживающий прибор. Время обслуживания требования любым прибором является случайной величиной , удовлетворяющий экспоненциальному закону распределения:

где , - среднее время обслуживания требования.

Каждый прибор, в любой момент времени t 0, может обслуживать не более одного требования. Обслуженное требование покидает СМО. Требуется проанализировать эффективность работы системы.

Решение. Обозначим через - вероятность того, что в момент времени t в системе находится k требований.

Пусть t - достаточно малый промежуток времени. Вероятность того, что в СМО за время t не поступит ни одного требования:

Вероятность того, что в СМО за время t поступит одно требование:

Вероятность того, что за время t в СМО поступит два или более требований:

Вероятность того, что за время t требование будет обслужено:

Вероятность того, что за время t будет обслужено два или более требования:

Вероятность того, что за время t будет обслужено одно из к требований, находящихся в системе, найдем следующим образом:

=;

=;

=

Вероятность того, что за время t произойдет более одного события (например, поступит требование и какое - нибудь обслужится), есть бесконечно малая более высокого порядка, чем t - 0 (t).

Для 0 k n - 1 имеем разностное уравнение

. (95)

При получении уравнения мы воспользовались формулой полной вероятности и свойствами пуассоновского процесса.

В словесной формулировке это звучит так: вероятность того, что в момент времени (t+t) в системе находится к требований (k n - 1) равна вероятности того, что в момент t в системе находилось к требований и ни одного требования не поступило и не было обслужено, или вероятность того, что в момент времени t в системе находилось (k-1) требование и за время t поступило одно требование в систему, или вероятность того, что в момент времени t в системе находилось (k+1) требование на обслуживании и за время t одно из (k+1) требований было обслужено, или вероятность того, что за время t произошло более одного события.

Преобразуем уравнение (95) к виду:

Разделив обе части на t и переходя к пределу, получим

1 к n-1. (96)

Для к n заметим, что за время t может быть обслужено не более чем одно из n требований, так как число обслуживающих приборов равно n.

Таким образом, для к n, имеем уравнение

.

Производя выкладки, аналогичные уравнению (95), получим

. (97)

Заметим, что при к = 0, вероятность

Учитывая это, окончательно имеем систему уравнений:

(98)

Пусть начальные условия имеют вид:

(99)

Решение системы (98), с начальными условиями (99), слишком громоздко [8], однако решение для стационарного режима оказывается простым.

В самом деле, если (/n) 1, то СМО эргодична, то есть 0 существует, но тогда .

Тем самым система (98) сводится к системе однородных алгебраических уравнений:

(100)

Чтобы система (100) имела единственное решение, добавим условие нормировки:

Для решения системы (100), с условием (101), введем обозначения

(102)

В новых обозначениях, система (100) примет вид:

Отсюда следует, что

Возвращаясь к обозначениям (102), получаем

Выразим все вероятности через Р0. Имеем при к = 1

При 1 к n

. (103)

При к n,

.

(104)

Для нахождения Р0 , воспользуемся условием нормировки (101):

.

После элементарных преобразований, получим

.

Учитывая, что имеем

(105)

Окончательно получаем:

,

Замечание. Условие 1, означает, что входящий поток меньше, чем суммарный выходящий, иначе ряд в (105) был бы расходящимся, то есть система не была бы эргодична.

Если Рк известны, то многие показатели эффективности можно вычислить путем элементарных алгебраических операций, например,

или

;

,

;

tож - среднее время, в течение которого требование ждет начала обслуживания,

;

А - средняя длина очереди,

где

В- среднее число обслуживаемых требований,

R- среднее число требований в системе,

R = A +B;

L - среднее время пребывания требования в системе,

/;

10) - коэффициент загрузки системы,

Будем считать, что предложенные здесь показатели эффективности (в зарубежной литературе их называют операционными характеристиками) дают достаточно полное представление о функционировании СМО.

Решение системы дифференциальных уравнений рождения и гибели вида (98), в переходном режиме, очень громоздко, да и, в ряде случаев, не является необходимым, поскольку реальные системы достаточно быстро входят в стационарный режим функционирования. Кроме того, учитывая, что получение необходимых формул для стационарного режима не вызывает особых трудностей, делает его привлекательным для анализа систем.

В ряде случаев получение алгебраических уравнений для стационарного режима можно записать сразу, если воспользоваться методом декомпозиции.

Суть метода. Функционирование системы S представляется в виде связного графа ее состояний Переход системы из состояния Ci в состояние Сj графически осуществляется по направленным отрезкам с заданными интенсивностями переходов . Если переход невозможен, то =0.

В стационарном режиме действует принцип равновесия: сумма «входов»

в любое состояние равна сумме «выходов» из него. Это позволяет записать уравнения равновесия по каждому из состояний (метод декомпозиции).

Рассмотрим применение метода декомпозиции на примере следующей задачи из теории надежности процесса гибели и рождения с конечным числом состояний [8].

Пусть имеем однородный марковский процесс с конечным числом состояний , к = 0, 1, …, n. Если в момент t процесс находится в состоянии Cк, то за бесконечно малое время t он с вероятностью перейдет в состояние , с вероятностью перейдет в состояние и с вероятностью останется в состоянии . Если процесс находится, в момент t, в состоянии , то за время t он может остаться в состоянии или перейти в состояние ; если же процесс находится в момент t в состоянии , то за время t он может остаться в состоянии или перейти в состояние . Обозначим через - вероятность того, что в момент времени t процесс находится в состоянии к, к = 0, 1, 2, …, n. Представим наш процесс в виде графической схемы (рис. 31).

Рис. 31

Очевидно, что процесс эргодический, следовательно . В силу условия равновесия, для стационарного режима, имеем (по каждому состоянию)

, ,

для 1 к n-1, .

Таким образом, получаем однородную систему алгебраических уравнений:

(106)

которая имеет единственное решение, если добавить условие нормировки

(107)

Окончательно получаем:

Учитывая (107) находим

Упражнение. Записать граф - схему СМО предыдущей задачи, составить уравнения равновесия и получить значения вероятностей к = 0,1,2,… .

Замечание. Система уравнений вида (98) является частным случаем предельного перехода при в уравнениях Колмогорова - Чепмена для однородных во времени марковских процессах [2], которые имеют вид:

(108)

где .

Система уравнений рождения и гибели отличается от системы (108) тем, что переходы возможны только из соседних состояний:

(109)

Из системы (109), с точностью до обозначений, предельным переходом легко получить систему (98).

Библиографический список

1. Ахназарова С.Л., Кафаров В.В. Методы оптимизации эксперимента в химической технологии. - М.: Высшая школа, 1985. - 327 с.

2. Боровков А.А. Теория вероятностей, - М.: Наука, 1986. - 432с.

3. Вентцель Е.С. Теория вероятностей. - М.: Высшая школа, 2002. - 576 с.

4. Гмурман В.Е. Теория вероятностей и математическая статистика. - М.: Высшая школа, 2002. - 479 с.

5. Гнеденко Б.В. Курс теории вероятностей. - М.: Наука, 1988. - 446с.

6. Карлин С. Основы теории случайных процессов. - М, «Мир», 1971.

7. Кафаров В.В., Дорохова И.Н., Арутюнов С.Ю. Системный анализ процессов химической технологии. - М.: Наука, 1985. - 440 с.

8. Клейнрок Л. Теория массового обслуживания. - М.: Машиностроение, 1979. - 432 с.

Размещено на Allbest.ru

...

Подобные документы

  • События и случайные величины. Функция распределения и ее характерные свойства. Сущность и определение основных числовых характеристик случайных величин: математическое ожидание, дисперсия, моменты. Критерии и факторы, влияющие на их формирование.

    контрольная работа [118,5 K], добавлен 30.01.2015

  • Классическое, статистическое и геометрическое определения вероятности. Дискретные случайные величины и законы их распределения. Числовые характеристики системы случайных величин. Законы равномерного и нормального распределения систем случайных величин.

    дипломная работа [797,0 K], добавлен 25.02.2011

  • Понятие и направления исследования случайных величин в математике, их классификация и типы: дискретные и непрерывные. Их основные числовые характеристики, отличительные признаки и свойства. Законы распределения случайных величин, их содержание и роль.

    презентация [1,4 M], добавлен 19.07.2015

  • Пространства элементарных событий. Совместные и несовместные события. Функция распределения системы случайных величин. Функции распределения и плотности распределения отдельных составляющих системы случайных величин. Условные плотности распределения.

    задача [45,4 K], добавлен 15.06.2012

  • Пространство элементарных событий, математическое ожидание. Функции распределения и плотности распределения составляющих системы случайных величин. Числовые характеристики системы. Условия нормировки плотности системы случайных непрерывных величин.

    практическая работа [103,1 K], добавлен 15.06.2012

  • Основные понятия, действия над случайными событиями. Классическое определение, свойства вероятностей. Правила вычисления вероятностей случайных событий. Построение законов распределения вероятностей случайных величин, вычисление числовых характеристик.

    задача [82,0 K], добавлен 12.02.2011

  • Описание случайных ошибок методами теории вероятностей. Непрерывные случайные величины. Числовые характеристики случайных величин. Нормальный закон распределения. Понятие функции случайной величины. Центральная предельная теорема. Закон больших чисел.

    реферат [146,5 K], добавлен 19.08.2015

  • Дискретные системы двух случайных величин. Композиция законов распределения, входящих в систему. Определение вероятности попадания случайной величины в интервал; числовые характеристики функции; математическое ожидание и дисперсия случайной величины.

    контрольная работа [705,1 K], добавлен 22.11.2013

  • Возможные варианты расчета вероятности событий. Выборочное пространство и события, их взаимосвязь. Общее правило сложения вероятностей. Законы распределения дискретных случайных величин, их математическое ожидание. Свойства биномиального распределения.

    презентация [1,4 M], добавлен 19.07.2015

  • Двумерная функция распределения вероятностей случайных величин. Понятие условной функции распределения и плотности распределения вероятностей. Корреляция двух случайных величин. Система произвольного числа величин, условная плотность распределения.

    реферат [325,3 K], добавлен 23.01.2011

  • Область определения функции, которая содержит множество возможных значений. Нахождение закона распределения и характеристик функции случайной величины, если известен закон распределения ее аргумента. Примеры определения дискретных случайных величин.

    презентация [68,7 K], добавлен 01.11.2013

  • Пространство элементарных событий. Совместные и несовместные события. Плотность распределения вероятностей системы двух случайных величин. Эмпирическая функция распределения. Числовые характеристики случайной функции. Условие независимости двух событий.

    контрольная работа [30,0 K], добавлен 15.06.2012

  • Определение вероятности появления события в каждом из независимых испытаний. Случайные величины, заданные функцией распределения (интегральной функцией), нахождение дифференциальной функции (плотности вероятности), математического ожидания и дисперсии.

    контрольная работа [59,7 K], добавлен 26.07.2010

  • Вероятность совместного выполнения двух неравенств в системе двух случайных величин. Свойства функции распределения. Определение плотности вероятности системы через производную от соответствующей функции распределения. Условия закона распределения.

    презентация [57,9 K], добавлен 01.11.2013

  • Классификация случайных событий. Функция распределения. Числовые характеристики дискретных случайных величин. Закон равномерного распределения вероятностей. Распределение Стьюдента. Задачи математической статистики. Оценки параметров совокупности.

    лекция [387,7 K], добавлен 12.12.2011

  • Пространство элементарных событий. Понятие совместных и несовместных событий и их вероятностей. Плотность распределения вероятностей системы двух случайных величин. Числовые характеристики системы. Закон генеральной совокупности и его параметры.

    контрольная работа [98,1 K], добавлен 15.06.2012

  • Понятие комплекса случайных величин, закона их распределения и вероятностной зависимости. Числовые характеристики случайных величин: математическое ожидание, момент, дисперсия и корреляционный момент. Показатель интенсивности связи между переменными.

    курсовая работа [2,4 M], добавлен 07.02.2011

  • Случайный процесс в теории вероятностей. Математическое ожидание и дисперсия. Многомерные законы распределения. Вероятностные характеристики "входной" и "выходной" функций. Сечение случайной функции. Совокупность случайных величин, зависящих от параметра.

    курсовая работа [1,8 M], добавлен 23.12.2012

  • Алгебраический расчет плотности случайных величин, математических ожиданий, дисперсии и коэффициента корреляции. Распределение вероятностей одномерной случайной величины. Составление выборочных уравнений прямой регрессии, основанное на исходных данных.

    задача [143,4 K], добавлен 31.01.2011

  • Понятия теории вероятностей и математической статистики, применение их на практике. Определение случайной величины. Виды и примеры случайных величин. Закон распределения дискретной случайной величины. Законы распределения непрерывной случайной величины.

    реферат [174,7 K], добавлен 25.10.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.