Курс высшей математики

Формулы Бейеса и Бернулли. Понятие непрерывной случайной величины. Биноминальное распределение и распределение Пуассона. Числовые характеристики дискретных случайных величин. Условные законы распределения, линейная регрессия. Закон больших чисел.

Рубрика Математика
Вид курс лекций
Язык русский
Дата добавления 18.10.2017
Размер файла 637,9 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Таким образом, безотказная работа устройства зависит только от интенсивности отказов и не зависит от безотказной работы устройства в прошлом.

Так как подобным свойством обладает только показательный закон распределения, то этот факт позволяет определить, является ли закон распределения случайной величины показательным или нет.

Нормальный закон распределения.

Определение. Нормальным называется распределение вероятностей непрерывной случайной величины, которое описывается плотностью вероятности

Нормальный закон распределения также называется законом Гаусса.

Нормальный закон распределения занимает центральное место в теории вероятностей. Это обусловлено тем, что этот закон проявляется во всех случаях, когда случайная величина является результатом действия большого числа различных факторов. К нормальному закону приближаются все остальные законы распределения.

Можно легко показать, что параметры и , входящие в плотность распределения являются соответственно математическим ожиданием и средним квадратическим отклонением случайной величины Х.

Найдем функцию распределения F(x).

График плотности нормального распределения называется нормальной кривой или кривой Гаусса.

Нормальная кривая обладает следующими свойствами:

1) Функция определена на всей числовой оси.

2) При всех х функция распределения принимает только положительные значения.

3) Ось ОХ является горизонтальной асимптотой графика плотности вероятности, т.к. при неограниченном возрастании по абсолютной величине аргумента х, значение функции стремится к нулю.

4) Найдем экстремум функции.

Т.к. при y' > 0 при x < m и y' < 0 при x > m , то в точке х = т функция имеет максимум, равный .

5) Функция является симметричной относительно прямой х = а, т.к. разность

(х - а) входит в функцию плотности распределения в квадрате.

6) Для нахождения точек перегиба графика найдем вторую производную функции плотности.

При x = m + и x = m вторая производная равна нулю, а при переходе через эти точки меняет знак, т.е. в этих точках функция имеет перегиб.

В этих точках значение функции равно .

Построим график функции плотности распределения.

Построены графики при т =0 и трех возможных значениях среднего квадратичного отклонения = 1, = 2 и = 7. Как видно, при увеличении значения среднего квадратичного отклонения график становится более пологим, а максимальное значение уменьшается..

Если а > 0, то график сместится в положительном направлении, если а < 0 - в отрицательном.

При а = 0 и = 1 кривая называется нормированной. Уравнение нормированной кривой:

Функция Лапласа. Найдем вероятность попадания случайной величины, распределенной по нормальному закону, в заданный интервал.

Обозначим

Т.к. интеграл не выражается через элементарные функции, то вводится в рассмотрение функция

,

которая называется функцией Лапласа или интегралом вероятностей.

Значения этой функции при различных значениях х посчитаны и приводятся в специальных таблицах.

Ниже показан график функции Лапласа.

Функция Лапласа обладает следующими свойствами:

1) Ф(0) = 0;

2) Ф(-х) = Ф(х);

3) Ф() = 1.

Функцию Лапласа также называют функцией ошибок и обозначают erf x.

Еще используется нормированная функция Лапласа, которая связана с функцией Лапласа соотношением:

Ниже показан график нормированной функции Лапласа.

При рассмотрении нормального закона распределения выделяется важный частный случай, известный как правило трех сигм.

Запишем вероятность того, что отклонение нормально распределенной случайной величины от математического ожидания меньше заданной величины :

Если принять = 3, то получаем с использованием таблиц значений функции Лапласа:

Т.е. вероятность того, что случайная величина отклонится от своего математического ожидание на величину, большую чем утроенное среднее квадратичное отклонение, практически равна нулю.

Это правило называется правилом трех сигм.

Не практике считается, что если для какой - либо случайной величины выполняется правило трех сигм, то эта случайная величина имеет нормальное распределение.

Пример. Поезд состоит из 100 вагонов. Масса каждого вагона - случайная величина, распределенная по нормальному закону с математическим ожидание а = 65 т и средним квадратичным отклонением = 0,9 т. Локомотив может везти состав массой не более 6600 т, в противном случае необходимо прицеплять второй локомотив. Найти вероятность того, что второй локомотив не потребуется.

Второй локомотив не потребуется, если отклонение массы состава от ожидаемого (10065 = 6500) не превосходит 6600 - 6500 = 100 т.

Т.к. масса каждого вагона имеет нормальное распределение, то и масса всего состава тоже будет распределена нормально.

Получаем:

Пример. Нормально распределенная случайная величина Х задана своими параметрами - а =2 - математическое ожидание и = 1 - среднее квадратическое отклонение. Требуется написать плотность вероятности и построить ее график, найти вероятность того, Х примет значение из интервала (1; 3), найти вероятность того, что Х отклонится (по модулю) от математического ожидания не более чем на 2.

Плотность распределения имеет вид:

Построим график:

Найдем вероятность попадания случайной величины в интервал (1; 3).

Найдем вероятность отклонение случайной величины от математического ожидания на величину, не большую чем 2.

Тот же результат может быть получен с использованием нормированной функции Лапласа.

Центральная предельная теорема Ляпунова.

Теорема. Если случайная величина Х представляет собой сумму очень большого числа взаимно независимых случайных величин, влияние каждой из которых на всю сумму ничтожно мало, то Х имеет распределение, близкое к нормальному.

На практике для большинства случайных величин выполняются условия теоремы Ляпунова.

Система случайных величин.

Рассмотренные выше случайные величины были одномерными, т.е. определялись одним числом, однако, существуют также случайные величины, которые определяются двумя, тремя и т.д. числами. Такие случайные величины называются двумерными, трехмерными и т.д.

В зависимости от типа, входящих в систему случайных величин, системы могут быть дискретными, непрерывными или смешанными, если в систему входят различные типы случайных величин.

Более подробно рассмотрим системы двух случайных величин.

Определение. Законом распределения системы случайных величин называется соотношение, устанавливающее связь между областями возможных значений системы случайных величин и вероятностями появления системы в этих областях.

Определение. Функцией распределения системы двух случайных величин называется функция двух аргументов F(x, y), равная вероятности совместного выполнения двух неравенств X<x, Y<y.

Отметим следующие свойства функции распределения системы двух случайных величин:

1) Если один из аргументов стремится к плюс бесконечности, то функция распределения системы стремится к функции распределения одной случайной величины, соответствующей другому аргументу.

2) Если оба аргумента стремятся к бесконечности, то функция распределения системы стремится к единице.

3) При стремлении одного или обоих аргументов к минус бесконечности функция распределения стремится к нулю.

4) Функция распределения является неубывающей функцией по каждому аргументу.

5) Вероятность попадания случайной точки (X, Y) в произвольный прямоугольник со сторонами, параллельными координатным осям, вычисляется по формуле:

Плотность распределения системы двух случайных величин.

Определение. Плотностью совместного распределения вероятностей двумерной случайной величины (X, Y) называется вторая смешанная частная производная от функции распределения.

Если известна плотность распределения, то функция распределения может быть легко найдена по формуле:

Двумерная плотность распределения неотрицательна и двойной интеграл с бесконечными пределами от двумерной плотности равен единице.

По известной плотности совместного распределения можно найти плотности распределения каждой из составляющих двумерной случайной величины.

; ;

Условные законы распределения.

Как было показано выше, зная совместный закон распределения можно легко найти законы распределения каждой случайной величины, входящей в систему.

Однако, на практике чаще стоит обратная задача - по известным законам распределения случайных величин найти их совместный закон распределения.

В общем случае эта задача является неразрешимой, т.к. закон распределения случайной величины ничего не говорит о связи этой величины с другими случайными величинами.

Кроме того, если случайные величины зависимы между собой, то закон распределения не может быть выражен через законы распределения составляющих, т.к. должен устанавливать связь между составляющими.

Все это приводит к необходимости рассмотрения условных законов распределения.

Определение. Распределение одной случайной величины, входящей в систему, найденное при условии, что другая случайная величина приняла определенное значение, называется условным законом распределения.

Условный закон распределения можно задавать как функцией распределения так и плотностью распределения.

Условная плотность распределения вычисляется по формулам:

Условная плотность распределения обладает всеми свойствами плотности распределения одной случайной величины.

Условное математическое ожидание.

Определение. Условным математическим ожиданием дискретной случайной величины Y при X = x (х - определенное возможное значение Х) называется произведение всех возможных значений Y на их условные вероятности.

Для непрерывных случайных величин:

,

где f(y/x) - условная плотность случайной величины Y при X=x.

Условное математическое ожидание M(Y/x)=f(x) является функцией от х и называется функцией регрессии Х на Y.

Пример. Найти условное математическое ожидание составляющей Y при

X= x1=1 для дискретной двумерной случайной величины, заданной таблицей:

Y

X

x1=1

x2=3

x3=4

x4=8

y1=3

0,15

0,06

0,25

0,04

y2=6

0,30

0,10

0,03

0,07

Аналогично определяются условная дисперсия и условные моменты системы случайных величин.

Зависимые и независимые случайные величины.

Случайные величины называются независимыми, если закон распределения одной из них не зависит от того какое значение принимает другая случайная величина.

Понятие зависимости случайных величин является очень важным в теории вероятностей.

Условные распределения независимых случайных величин равны их безусловным распределениям.

Определим необходимые и достаточные условия независимости случайных величин.

Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы функция распределения системы (X, Y) была равна произведению функций распределения составляющих.

Аналогичную теорему можно сформулировать и для плотности распределения:

Теорема. Для того, чтобы случайные величины Х и Y были независимы, необходимо и достаточно, чтобы плотность совместного распределения системы (X, Y) была равна произведению плотностей распределения составляющих.

Определение. Корреляционным моментом xy случайных величин Х и Y называется математическое ожидание произведения отклонений этих величин.

Практически используются формулы:

Для дискретных случайных величин:

Для непрерывных случайных величин:

Корреляционный момент служит для того, чтобы охарактеризовать связь между случайными величинами. Если случайные величины независимы, то их корреляционный момент равен нулю.

Корреляционный момент имеет размерность, равную произведению размерностей случайных величин Х и Y. Этот факт является недостатком этой числовой характеристики, т.к. при различных единицах измерения получаются различные корреляционные моменты, что затрудняет сравнение корреляционных моментов различных случайных величин.

Для того, чтобы устранить этот недостаток применятся другая характеристика - коэффициент корреляции.

Определение. Коэффициентом корреляции rxy случайных величин Х и Y называется отношение корреляционного момента к произведению средних квадратических отклонений этих величин.

Коэффициент корреляции является безразмерной величиной. Коэффициент корреляции независимых случайных величин равен нулю.

Свойство: Абсолютная величина корреляционного момента двух случайных величин Х и Y не превышает среднего геометрического их дисперсий.

Свойство: Абсолютная величина коэффициента корреляции не превышает единицы.

Случайные величины называются коррелированными, если их корреляционный момент отличен от нуля, и некоррелированными, если их корреляционный момент равен нулю.

Если случайные величины независимы, то они и некоррелированы, но из некоррелированности нельзя сделать вывод о их независимости.

Если две величины зависимы, то они могут быть как коррелированными, так и некоррелированными.

Часто по заданной плотности распределения системы случайных величин можно определить зависимость или независимость этих величин.

Наряду с коэффициентом корреляции степень зависимости случайных величин можно охарактеризовать и другой величиной, которая называется коэффициентом ковариации. Коэффициент ковариации определяется формулой:

Пример. Задана плотность распределения системы случайных величин Х и Y.

Выяснить являются ли независимыми случайные величины Х и Y.

Для решения этой задачи преобразуем плотность распределения:

Таким образом, плотность распределения удалось представить в виде произведения двух функций, одна из которых зависит только от х, а другая - только от у. Т.е. случайные величины Х и Y независимы. Разумеется, они также будут и некоррелированы.

Линейная регрессия.

Рассмотрим двумерную случайную величину (X, Y), где X и Y - зависимые случайные величины.

Представим приближенно одну случайную величину как функцию другой. Точное соответствие невозможно. Будем считать, что эта функция линейная.

Для определения этой функции остается только найти постоянные величины и .

Определение. Функция g(X) называется наилучшим приближением случайной величины Y в смысле метода наименьших квадратов, если математическое ожидание

принимает наименьшее возможное значение. Также функция g(x) называется среднеквадратической регрессией Y на X.

Теорема. Линейная средняя квадратическая регрессия Y на Х вычисляется по формуле:

в этой формуле mx=M(X), my=M(Y), коэффициент корреляции величин Х и Y.

Величина называется коэффициентом регрессии Y на Х.

Прямая, уравнение которой

,

называется прямой сренеквадратической регрессии Y на Х.

Величина называется остаточной дисперсией случайной величины Y относительно случайной величины Х. Эта величина характеризует величину ошибки, образующейся при замене случайной величины Y линейной функцией g(X)=Х + .

Видно, что если r=1, то остаточная дисперсия равна нулю, и, следовательно, ошибка равна нулю и случайная величина Y точно представляется линейной функцией от случайной величины Х.

Прямая среднеквадратичной регрессии Х на Y определяется аналогично по формуле:

Прямые среднеквадратичной регрессии пересекаются в точке (тх, ту), которую называют центром совместного распределения случайных величин Х и Y.

Линейная корреляция.

Если две случайные величины Х и Y имеют в отношении друг друга линейные функции регрессии, то говорят, что величины Х и Y связаны линейной корреляционной зависимостью.

Теорема. Если двумерная случайная величина (X, Y) распределена нормально, то Х и Y связаны линейной корреляционной зависимостью.

Закон больших чисел.

Неравенство Чебышева.

(Чебышев Пафнутий Львович (1821 - 1824) - русский математик)

На практике сложно сказать какое конкретное значение примет случайная величина, однако, при воздействии большого числа различных факторов поведение большого числа случайных величин практически утрачивает случайный характер и становится закономерным.

Этот факт очень важен на практике, т.к. позволяет предвидеть результат опыта при воздействии большого числа случайных факторов.

Однако, это возможно только при выполнении некоторых условий, которые определяются законом больших чисел. К законам больших чисел относятся теоремы Чебышева (наиболее общий случай) и теорема Бернулли (простейший случай), которые будут рассмотрены далее.

Рассмотрим дискретную случайную величину Х (хотя все сказанное ниже будет справедливо и для непрерывных случайных величин), заданную таблицей распределения:

x1

x2

xn

p

p1

p2

pn

Требуется определить вероятность того, что отклонение значения случайной величины от ее математического ожидания будет не больше, чем заданное число .

Теорема. (Неравенство Чебышева) Вероятность того, что отклонение случайной величины Х от ее математического ожидания по абсолютной величине меньше положительного числа , не меньше чем .

Доказательство этой теоремы приводить не будем, оно имеется в литературе.

Теорема Чебышева.

Теорема. Если Х1, Х2, …, Хnпопарно независимые случайные величины, причем дисперсии их равномерно ограничены (не превышаю постоянного числа С), то, как бы мало не было положительное число , вероятность неравенства

будет сколь угодно близка к единице, если число случайных величин достаточно велико.

Т.е. можно записать:

Часто бывает, что случайные величины имеют одно и то же математическое ожидание. В этом случае теорема Чебышева несколько упрощается:

Дробь, входящая в записанное выше выражение есть не что иное как среднее арифметическое возможных значений случайной величины.

Теорема утверждает, что хотя каждое отдельное значение случайной величины может достаточно сильно отличаться от своего математического ожидания, но среднее арифметическое этих значений будет неограниченно приближаться к среднему арифметическому математических ожиданий.

Отклоняясь от математического ожидания как в положительную так и в отрицательную сторону, от своего математического ожидания, в среднем арифметическом отклонения взаимно сокращаются.

Таким образом, величина среднего арифметического значений случайной величины уже теряет характер случайности.

Теорема Бернулли.

Пусть производится п независимых испытаний, в каждом из которых вероятность появления события А равно р.

Возможно определить примерно относительную частоту появления события А.

Теорема. Если в каждом из п независимых испытаний вероятность р появления события А постоянно, то сколь угодно близка к единице вероятность того, что отклонение относительной частоты от вероятности р по абсолютной величине будет сколь угодно малым, если число испытаний р достаточно велико.

Здесь т - число появлений события А. Из всего сказанного выше не следует, что с увеличением число испытаний относительная частота неуклонно стремится к вероятности р, т.е. . В теореме имеется в виду только вероятность приближения относительной частоты к вероятности появления события А в каждом испытании.

В случае, если вероятности появления события А в каждом опыте различны, то справедлива следующая теорема, известная как теорема Пуассона.

Теорема. Если производится п независимых опытов и вероятность появления события А в каждом опыте равна рi, то при увеличении п частота события А сходится по вероятности к среднему арифметическому вероятностей рi.

Предельные теоремы.

Как уже говорилось, при достаточно большом количестве испытаний, поставленных в одинаковых условиях, характеристики случайных событий и случайных величин становятся почти неслучайными. Это позволяет использовать результаты наблюдений случайных событий для предсказания исхода того или иного опыта.

Предельные теоремы теории вероятностей устанавливают соответствие между теоретическими и экспериментальными характеристиками случайных величин при большом количестве испытаний.

В рассмотренном выше законе больших чисел нечего не говорилось о законе распределения случайных величин.

Поставим задачу нахождения предельного закона распределения суммы

когда число слагаемых п неограниченно возрастает. Эту задачу решает Центральная предельная теорема Ляпунова, которая была сформулирована выше.

В зависимости от условий распределения случайных величин Xi, образующих сумму, возможны различные формулировки центральной предельной теоремы.

Допустим, что случайные величины Xi взаимно независимы и одинаково распределены.

Теорема. Если случайные величины Xi взаимно независимы и имеют один и тот же закон распределения с математическим ожиданием т и дисперсией 2, причем существует третий абсолютный момент 3, то при неограниченном увеличении числа испытаний п закон распределения суммы неограниченно приближается к нормальному. При доказательстве этой теоремы Ляпуновым использовались так называемые характеристические функции. Определение. Характеристической функцией случайной величины Х называется функция

эта функция представляет собой математическое ожидание некоторой комплексной случайной величины , являющейся функцией от случайной величины Х. При решении многих задач удобнее пользоваться характеристическими функциями, а не законами распределения.

Зная закон распределения, можно найти характеристическую функцию по формуле (для непрерывных случайных величин):

Как видим, данная формула представляет собой не что иное, как преобразование Фурье для функции плотности распределения. Очевидно, что с помощью обратного преобразования Фурье можно по характеристической функции найти закон распределения.

Введение характеристических функций позволяет упростить операции с числовыми характеристиками случайных величин.

В случае нормального распределения характеристическая функция имеет вид:

Сформулируем некоторые свойства характеристических функций:

Если случайные величины Х и Y связаны соотношением

где а - неслучайный множитель, то

2) Характеристическая функция суммы независимых случайных величин равна произведению характеристических функций слагаемых.

Случайные величины Xi, рассмотренные в центральной предельной теореме, могут обладать произвольными распределениями вероятностей.

Если все эти случайные величины одинаково распределены, дискретны и принимают только два возможных значения 0 или 1, то получается простейший случай центральной предельной теоремы, известный как теорема Муавра - Лапласа.

Теорема. (Теорема Муавра - Лапласа) Если производится п независимых опытов, в каждом из которых событие А появляется с вероятностью р, то для любого интервала (, ) справедливо соотношение:

где Y - число появлений события А в п опытах, q = 1 - p, Ф(х) - функция Лапласа, нормированная функция Лапласа .

Теорема Муавра - Лапласа описывает поведение биноминального распределения при больших значениях п.

Данная теорема позволяет существенно упростить вычисление по формуле биноминального распределения.

Расчет вероятности попадания значения случайной величины в заданный интервал при больших значениях п крайне затруднителен. Гораздо проще воспользоваться формулой:

Теорема Муавра - Лапласа очень широко применяется при решении практических задач. Пример. Вероятность наступления события А в каждом испытании равна 0,3. Используя неравенство Чебышева, оценить вероятность того, что в 10000 испытаниях отклонение относительной частоты появления события А от его вероятности не превзойдет по абсолютной величине 0,01.

В соответствии с неравенством Чебышева вероятность того, что отклонение случайной величины от ее математического ожидания будет меньше некоторого числа , ограничена в соответствии с неравенством

.

Надо определить математическое ожидание и дисперсию числа появления события А при одном опыте. Для события А случайная величина может принимать одно из двух значений: 1событие появилось, 0событие не появилось. При этом вероятность значения 1 равна вероятности р=0,3, а вероятность значения 0равна вероятности ненаступления события А

q=1 - p =0,7.

По определению математического ожидания имеем:

Дисперсия:

В случае п независимых испытаний получаем Эти формулы уже упоминались выше.

В нашем случае получаем:

Вероятность отклонения относительной частоты появления события А в п испытаниях от вероятности на величину, не превышающую =0,01 равна:

Выражение полученное в результате этих простых преобразований представляет собой не что иное, как вероятность отклонения числа т появления события А от математического ожидания на величину не большую, чем =100.

В соответствии с неравенством Чебышева эта вероятность будет не меньше, чем величина

Пример. Сколько следует проверить деталей, чтобы с вероятностью, не меньшей 0,96, можно было ожидать, что абсолютная величина отклонения относительной частоты годных деталей от вероятности детали быть годной, равной 0,98, не превысит 0,02.

Условие задачи фактически означает, что выполняется неравенство:

Здесь пчисло годных деталей, тчисло проверенных деталей. Для применения неравенства Чебышева преобразуем полученное выражение:

После домножения выражения, стоящего в скобках, на т получаем вероятность отклонения по модулю количества годных деталей от своего математического ожидания, следовательно, можно применить неравенство Чебышева, т.е. эта вероятность должна быть не меньше, чем величина , а по условию задачи еще и не меньше, чем 0,96.

Таким образом, получаем неравенство . Как уже говорилось в предыдущей задаче, дисперсия может быть найдена по формуле .

Итого, получаем:

Т.е. для выполнения требуемых условий необходимо не менее 1225 деталей.

Пример. Суточная потребность электроэнергии в населенном пункте является случайной величиной, математическое ожидание которой равно 3000 кВт/час, а дисперсия составляет 2500. Оценить вероятность того, что в ближайшие сутки расход электроэнергии в этом населенном пункте будет от 2500 до 3500 кВт/час.

Требуется найти вероятность попадания случайной величины в заданный интервал:

Крайние значения интервала отклоняются от математического ожидания на одну и ту же величину, а именно - на 500. Тогда можно записать с учетом неравенства Чебышева:

Отсюда получаем:

Т.е. искомая вероятность будет не меньше, чем 0,99.

Пример. Среднее квадратическое отклонение каждой из 2500 независимых случайных величин не превосходит 3. Оценить вероятность того, что абсолютная величина отклонения среднего арифметического этих случайных величин от среднего арифметического их математических ожиданий не превосходит 0,3.

Требуется найти вероятность

Неравенство Чебышева в случае суммы случайных величин имеет вид:

Если среднее квадратическое отклонение не превосходит 3, то, очевидно, дисперсия не превосходит 9. Величина по условию задачи равна 0,3.

Тогда

Отсюда получаем при n=2500:

Пример. Выборочным путем требуется определить среднюю длину изготавливаемых деталей. Сколько нужно исследовать деталей, чтобы с вероятностью, большей чем 0,9, можно было утверждать, что средняя длина отобранных изделий будет отличаться от математического ожидания этого среднего (средняя длина деталей всей партии) не более, чем на 0,001 см.? Установлено, что среднее квадратическое отклонение длины детали не превышает 0,04 см.

По условию если среднее квадратическое отклонение не превышает 0,04, то дисперсия, очевидно, не превышает (0,04)2. Также по условию задано, что

Если преобразовать соотношение, стоящее в скобках и после этого применить неравенство Чебышева, получаем:

Т.е. для достижения требуемой вероятности необходимо отобрать более 16000 деталей.

Описанный подход, как видно, позволяет решить множество чисто практических задач.

Пример. Вероятность того, что наудачу выбранная деталь окажется бракованной, при каждой проверке одна и та же и равна 0,2. Определить вероятность того, что среди 50 наугад выбранных деталей бракованных окажется не менее 6.

Для того, чтобы воспользоваться теоремой Муавра Лапласа найдем математическое ожидание и дисперсию количества бракованных деталей в 50 - ти отобранных:

Фактически в задаче требуется определить вероятность того, что бракованных деталей будет не менее шести, но и, очевидно, не более 50ти.

Значения функции Лапласа находятся по таблице. Конечно, значения функции Лапласа Ф(10) в таблице нет, но т.к. в таблицах указано, что Ф(3)=1,0000, то все значения от величин, превышающих 3 также равны 1. Дополнительно см. Функция Лапласа.

Пример. Известно, что 60% всего числа изготавливаемых заводом изделий являются изделиями первого сорта. Приемщик берет первые попавшиеся 200 изделий. Чему равна вероятность того, что среди них окажется из от 120 до 150 изделий первого сорта?

Вероятность того, что деталь окажется первого сорта, равна, очевидно, 0,6.

Математическое ожидание числа изделий первого сорта равно:

По теореме Муавра Лапласа получаем:

Пример. Проверкой установлено, что 96% изделий служат не меньше гарантируемого срока. Наугад выбирают 15000 изделий. Найти вероятность того, что со сроком службы менее гарантируемого будет от 570 до 630 изделий.

Вероятность того, что срок службы изделия будет менее гарантированного равна: 1 - 0,96 = 0,04

Математическое ожидание числа таких изделий равно

По теореме Муавра Лапласа получаем:

Теория массового обслуживания.

Случайные процессы.

Система массового обслуживания состоит из некоторого числа обслуживающих единиц или каналов, работа которых состоит в выполнении поступающих по этим каналам заявок.

Примеры систем массового обслуживания весьма распространены на практике. Это различные телефонные станции, ремонтные мастерские и проч. Вид и количество поступающих на эти системы заявок различны и, вообще говоря, случайны.

Теория массового обслуживания описывает закономерности функционирования таких систем.

Определение. процесс функционирования системы массового обслуживания называется случайным процессом.

Чтобы оптимизировать процесс функционирования системы массового обслуживания его надо изучить и описать математически.

Теория массового обслуживания является очень быстро развивающимся разделом теории вероятностей, т.к. ее применение на практике чрезвычайно широко.

Случайный процесс, протекающий в системе массового обслуживания состоит в том, что система в случайные моменты времени переходит из одного состояния в другое. Меняется число заявок, число занятых каналов, число заявок в очереди и проч.

Определение. Если переход системы из одного состояния в другое происходит скачком, а количество состояний системы (конечное или бесконечное) можно пронумеровать, то такая система называется системой дискретного типа.

Если количество возможных состояний счетно, то сумма вероятностей нахождения системы в одном из состояний равна 1.

Совокупность вероятностей pk(t) для каждого момента времени характеризует данное сечение случайного процесса.

Случайные процессы со счетным множеством состояний бывают двух типов: c дискретным или непрерывным временем.

Если переходы системы из одного состояния в другое могут происходить только в строго определенные моменты времени, то случайный процесс будет процессом с дискретным временем, а если переход возможен в любой момент времени, то процесс будет процессом с непрерывным временем.

Поскольку в реальности заявки на систему массового обслуживания могут поступать в любой момент времени, то большинство реальных систем массового обслуживания будут системами с процессом с непрерывным временем.

Для того, чтобы описать случайный процесс в системе с непрерывным временем необходимо прежде всего проанализировать причины, вызывающие изменение состояния системы. Эти причины определяются потоком заявок, поступающих на систему.

Поток событий.

Определение. Потоком событий называется последовательность событий, происходящих один за другим в какието моменты времени.

Характер событий, образующих поток может быть различным, а если события отличаются друг от друга только моментом времени, в который они происходят, то такой поток событий называется однородным.

Определение. Поток событий называется регулярным, если события следует одно за другим через строго определенные промежутки времени.

Определение. Поток событий называется стационарным, если вероятность попадания того ли иного числа событий на участок времени зависит только от длины участка и не зависит от того, где именно на оси расположен этот участок.

Стационарность потока событий означает, что плотность потока постоянна, отсутствуют промежутки времени, в течение которых событий больше чем обычно. Классический пример - “час пик” на транспорте.

Определение. Поток событий называется потоком без последействий, если для любых неперекрещивающихся участков времени число событий, попадающих на один из них, не зависит от числа событий, опадающих на другие.

Отсутствие последействий означает, что заявки в систему поступают независимо друг от друга. Поток выходных событий систем массового обслуживания обычно имеет последействие, даже если входной поток его не имеет. Пример - вход пассажиров на станцию метро - поток без последействия, т.к. причины прихода отдельного пассажира не связаны с причинами прихода всех остальных, а выход пассажиров со станции - поток с последействием, т.к. он обусловлен прибытием поезда.

Последействие, свойственное выходному потоку следует учитывать, если этот поток в свою очередь является входным для какойлибо другой системы.

Определение. Поток событий называется ординарным, если вероятность попадания на элементарный участок t двух или более событий достаточно мало по сравнению с вероятностью попадания одного события.

Условие ординарности означает, что заявки на систему приходят по одному, а не парами, тройками и т.д. Однако, если заявки поступают только парами, только тройками и т.д., то такой поток легко свести к ординарному.

Определение. Если поток событий стационарен, ординарен и без последействий, то такой поток называется простейшим (пуассоновским) потоком.

Это название связано с тем, что в этом случае число событий, попадающих на любой фиксированный интервал времени, распределено по распределению Пуассона .

В соответствии с этим законом распределения математическое ожидание числа точек, попавших попадающих на участок времени , имеет вид:

плотность потока - среднее число событий в единицу времени.

Вероятность того, что за время произойдет ровно т событий, равна

Вероятность того, что в течение данного времени не произойдет ни одного события, равна:

Пусть Т - промежуток времени между двумя произвольными соседними событиями в простейшем потоке. Найдем функцию распределения

В соответствии с законом распределения Пуассона, получаем:

Математическое ожидание, дисперсия и среднее квадратическое отклонение этой величины соответственно равны:

Таким образом, для величины Т получили показательный закон распределения.

Пример. В бюро обслуживания в среднем поступает 12 заявок в час. Считая поток заказов простейшим, определить вероятность того, что: а) за 1 минуту не поступит ни одного заказа, б) за 10 минут поступит не более трех заказов.

Сначала найдем плотность (интенсивность) потока, выразив ее в количестве заявок в минуту. Очевидно, эта величина равна .

Далее находим вероятность того, что за время = 1 мин не поступит ни одной заявки по формуле:

Вероятность того, что за 10 минут поступит не более трех заказов будет складываться из вероятностей того, что не поступит ни одного заказа, поступит один, два или ровно три заказа.

Пример. В ресторан прибывает в среднем 20 посетителей в час. Считая поток посетителей простейшим, и зная, что ресторан открывается в 11.00, определите:

а) вероятность того, что в 11.12 в ресторан придет 20 посетителей при условии, что в 11.07 их было 18

б) вероятность того, что между 11.28 и 11.30 в ресторане окажется новый посетитель, если известно, что предшествующий посетитель прибыл в 11.25.

Для ответ на первый вопрос фактически надо найти вероятность того, что в промежуток от 11.07 до 11.12 ( = 5 минут) придет ровно 2 посетителя. При этом мы знаем интенсивность потока посетителей = 20/60 = 1/3 посетителей в минуту. Конечно, данная величина носит условный характер, т.к. посетители не могут приходить по частям.

Искомая вероятность равна:

Теперь перейдем ко второму вопросу. Нам не сказано, сколько именно новых посетителей будет в промежутке от 11.28 до 11.30, главное чтобы был хоть один. Эта вероятность равна . Здесь Р0 (2) - вероятность того, что в этом промежутке не будет ни одного посетителя.

Если поток событий нестационарен, то его плотность уже не является постоянной величиной, а зависит от времени.

Определение. Мгновенной плотностью потока событий называется предел отношения среднего числа событий, приходящегося на элементарный отрезок времени (t, t + t), к длине этого участка, которая стремиться к нулю.

Как видно из приведенного определения, с учетом того, что среднее число событий на участке времени равно математическому ожиданию, то можно сказать, что мгновенная плотность потока равна производной по времени от математического ожидания числа событий на участке (0, t).

Определение. Нестационарным пуассоновским потоком называется ординарный поток однородных событий без последействий с переменной плотностью (t).

Для такого потока число событий, попадающих на участок длины , начинающийся в точке t0, подчиняется закону Пуассона:

Здесь а - математическое ожидание числа событий на участке от t0 до + t0 . Оно вычисляется по формуле:

Величина а на только от длины участка , но и от его положения во времени. Закон распределения промежутка Т между двумя соседними событиями также будет зависеть от того, где на временной оси расположено первое из событий, а также от функции (t) .

Вероятность того, что на участке времени от t0 до t + t0 не появится ни одного события, равна

Тогда, соответственно, вероятность появления хотя бы одного события на этом интервале времени будет равна:

Плотность распределения можно найти дифференцированием:

Эта плотность распределения уже не будет показательной. Она зависит от параметра t0 и вида функции (t). Однако, условие отсутствия последействия в этом виде потока сохраняется.

Поток Пальма.

Поток Пальма еще называют потоком с ограниченным последействием.

Определение. Потоком Пальма называется ординарный поток однородных событий, если промежутки между событиями Т1, Т2, … представляют собой независимые случайные величины.

Если промежутки времени Т1, Т2, … распределены по показательному закону, то поток Пальма становится простейшим потоком.

Примером потока Пальма может служить движение колонны автомобилей. Пусть движется колонна автомобилей, каждый из которых, двигаясь с одинаковой скоростью, стремится держаться на некотором заданном расстоянии от впереди идущего автомобиля. Однако, вследствие воздействия множества случайных факторов, это расстояние выдерживается не точно. Тогда времена пересечения каждым автомобилем определенного рубежа Т1, Т2, … будут независимыми случайными величинами и образуют по ток Пальма.

Отметим, что если автомобили будут стремиться выдерживать заданное расстояние не от соседней машины, а от головной, то моменты пересечения этого рубежа уже не будут образовывать поток Пальма.

Поток Пальма часто получается в качестве выходного потока систем массового обслуживания.

Теорема. (Теорема Пальма) Пусть на систему массового обслуживания поступает поток заявок типа Пальма, причем заявка, заставшая все каналы занятыми, получает отказ (не обслуживается). Если при этом время обслуживания имеет показательный закон распределения, то поток не обслуженных заявок является также потоком типа Пальма.

Этот факт важен, так как на практике получившие отказ заявки обычно перенаправляются на другую систему массового обслуживания, т.е. образуют для этой системы входной поток.

Так, если на систему массового обслуживания поступает простейший входной поток, то поток заявок, получивших отказ, уже не будет простейшим, однако, будет потоком с ограниченным последействием.

Потоки Эрланга.

Потоки Эрланга также являются потоками с ограниченным последействием. Они образуются просеиванием простейшего потока.

Суть этого просеивания состоит в следующем. Если изобразить на временной оси простейший поток, поставив в соответствие каждому событию некоторую точку, и выбросить из потока каждую вторую точку, то получим поток Эрланга первого порядка. Оставив каждую третью точку и выбросив две промежуточные, получаем поток Эрланга второго порядка и т.д.

Определение. Потоком Эрланга k - порядка называется поток, получаемый из простейшего, если сохранить в простейшем потоке каждую (k + 1) - ю точку, а остальные выбросить.

Очевидно, что простейший поток может рассматриваться как поток Эрланга нулевого порядка.

Пусть имеется простейший поток с интервалами Т1, Т2, … между событиями. Величина Т - промежуток времени между двумя соседними событиями в потоке Эрланга k - го порядка.

Очевидно, что . Так как первоначальный поток - простейший, то случайные величины Т1, Т2, … распределены по показательному закону:

Обозначим fk(t) плотность распределения величины Т для потока Эрланга k - го порядка. Если умножить эту плотность на элементарный отрезок времени dt, мы получим вероятность того, что величина Т примет значение в некоторой сколь угодно малой окрестности точки t (t, t + dt). На этот участок должна попасть конечная точка промежутка, а предыдущие k точек простейшего потока - на промежуток (0, t).

Вероятность первого события равна , а второго

Эти события должны осуществиться совместно, значит, их вероятности надо перемножить.

Полученный закон распределения называется законом распределением Эрланга kго порядка.

При k = 0 получаем показательный закон распределения.

Математическое ожидание, дисперсия и среднее квадратическое отклонение для распределения Эрланга находятся по формулам:

Плотность потока Эрланга равна

Для промежутка времени между двумя соседними событиями в потоке Т рассмотрим нормированную величину . Такой поток будет называться нормированным потоком Эрланга.

Закон распределения для такого потока будет иметь вид:

,

Математическое ожидание и дисперсия будут равны:

Получается, что неограниченном увеличении k нормированный поток Эрланга приближается к регулярному потоку с постоянными интервалами, равными .

Изменение порядка нормированного потока Эрланга позволяет получить различную степень последействия. Последействие возрастает с увеличением k.

На практике это удобно для приближенного представления реального потока с каким - либо последействием потоком Эрланга. При этом порядок этого потока определяется из того соображения, чтобы характеристики потока Эрланга (математическое ожидание и дисперсия) совпадали с характеристиками исходного потока.

Цепи Маркова.

(Андрей Андреевич Марков (1856-1922) - русский математик, академик)

Определение. Процесс, протекающий в физической системе, называется марковским, если в любой момент времени вероятность любого состояния системы в будущем зависит только от состояния системы в текущий момент и не зависит от того, каким образом система пришла в это состояние.

Определение. Цепью Маркова называется последовательность испытаний, в каждом из которых появляется только одно из k несовместных событий Ai из полной группы. При этом условная вероятность pij(s) того, что в s -ом испытании наступит событие Aj при условии, что в (s - 1) - ом испытании наступило событие Ai, не зависит от результатов предшествующих испытаний.

Независимые испытания являются частным случаем цепи Маркова. События называются состояниями системы, а испытания - изменениями состояний системы.

По характеру изменений состояний цепи Маркова можно разделить на две группы.

Определение. Цепью Маркова с дискретным временем называется цепь, изменение состояний которой происходит в определенные фиксированные моменты времени. Цепью Маркова с непрерывным временем называется цепь, изменение состояний которой возможно в любые случайные моменты времени.

Определение. Однородной называется цепь Маркова, если условная вероятность pij перехода системы из состояния i в состояние j не зависит от номера испытания. Вероятность pij называется переходной вероятностью.

Допустим, число состояний конечно и равно k.

Тогда матрица, составленная из условных вероятностей перехода будет иметь вид:

Эта матрица называется матрицей перехода системы.

Т.к. в каждой строке содержаться вероятности событий, которые образуют полную группу, то, очевидно, что сумма элементов каждой строки матрицы равна единице.

На основе матрицы перехода системы можно построить так называемый граф состояний системы, его еще называют размеченный граф состояний. Это удобно для наглядного представления цепи. Порядок построения граф рассмотрим на примере.

Пример. По заданной матрице перехода построить граф состояний.

Т.к. матрица четвертого порядка, то, соответственно, система имеет 4 возможных состояния.

S1

0,2 0,7

S2 0,4 S4

0,6 0,5

0,1 0,5

S3

На графе не отмечаются вероятности перехода системы из одного состояния в то же самое. При рассмотрении конкретных систем удобно сначала построить граф состояний, затем определить вероятность переходов системы из одного состояния в то же самое (исходя из требования равенства единице суммы элементов строк матрицы), а потом составить матрицу переходов системы.

Пусть Pij(n) - вероятность того, что в результате n испытаний система перейдет из состояния i в состояние j, r - некоторое промежуточное состояние между состояниями i и j. Вероятности перехода из одного состояния в другое pij(1) = pij.

Тогда вероятность Pij(n) может быть найдена по формуле, называемой равенством Маркова:

Здесь т - число шагов (испытаний), за которое система перешла из состояния i в состояние r.

В принципе, равенство Маркова есть ни что иное как несколько видоизменная формула полной вероятности.

Зная переходные вероятности (т.е. зная матрицу перехода Р1), можно найти вероятности перехода из состояния в состояние за два шага Pij(2), т.е. матрицу Р2, зная ее - найти матрицу Р3, и т.д.

Непосредственное применений полученной выше формулы не очень удобно, поэтому, можно воспользоваться приемами матричного исчисления (ведь эта формула по сути - не что иное как формула перемножения двух матриц).

Тогда в общем виде можно записать:

Вообще то этот факт обычно формулируется в виде теоремы, однако, ее доказательство достаточно простое, поэтому приводить его не буду.

Пример. Задана матрица переходов Р1. Найти матрицу Р3.

Определение. Матрицы, суммы элементов всех строк которых равны единице, называются стохастическими. Если при некотором п все элементы матрицы Рп не равны нулю, то такая матрица переходов называется регулярной.

Другими словами, регулярные матрицы переходов задают цепь Маркова, в которой каждое состояние может быть достигнуто через п шагов из любого состояния. Такие цепи Маркова также называются регулярными.

Теорема. (теорема о предельных вероятностях) Пусть дана регулярная цепь Маркова с п состояниями и Р - ее матрица вероятностей перехода. Тогда существует предел и матрица Р() имеет вид:

Т.е. матрица состоит из одинаковых строк.

Теперь о величинах ui. Числа u1, u2, …, un называются предельными вероятностями. Эти вероятности не зависят от исходного состояния системы и являются компонентами собственного вектора матрицы РТ (транспонированной к матрице Р).

Этот вектор полностью определяется из условий:

Пример. Найдем предельные вероятности для рассмотренного выше примера.

C учетом того, что u1 + u2 = 1, получаем:

Получаем:

Размещено на Allbest.ru

...

Подобные документы

  • Дискретные системы двух случайных величин. Композиция законов распределения, входящих в систему. Определение вероятности попадания случайной величины в интервал; числовые характеристики функции; математическое ожидание и дисперсия случайной величины.

    контрольная работа [705,1 K], добавлен 22.11.2013

  • Описание случайных ошибок методами теории вероятностей. Непрерывные случайные величины. Числовые характеристики случайных величин. Нормальный закон распределения. Понятие функции случайной величины. Центральная предельная теорема. Закон больших чисел.

    реферат [146,5 K], добавлен 19.08.2015

  • Классификация случайных событий. Функция распределения. Числовые характеристики дискретных случайных величин. Закон равномерного распределения вероятностей. Распределение Стьюдента. Задачи математической статистики. Оценки параметров совокупности.

    лекция [387,7 K], добавлен 12.12.2011

  • Понятия теории вероятностей и математической статистики, применение их на практике. Определение случайной величины. Виды и примеры случайных величин. Закон распределения дискретной случайной величины. Законы распределения непрерывной случайной величины.

    реферат [174,7 K], добавлен 25.10.2015

  • Использование формулы Бернулли для нахождения вероятности происхождения события. Построение графика дискретной случайной величины. Математическое ожидание и свойства интегральной функции распределения. Функция распределения непрерывной случайной величины.

    контрольная работа [87,2 K], добавлен 29.01.2014

  • Теорема Бернулли на примере моделирования электросхемы. Моделирование случайной величины, имеющей закон распределения модуля случайной величины, распределенной по нормальному закону. Проверка критерием Х2: имеет ли данный массив закон распределения.

    курсовая работа [2,3 M], добавлен 31.05.2010

  • Числовые характеристики положения о распределении Пуассона и разброса. Асимметрия и эксцесс распределения Пуассона, его дополнительные характеристики, точечная и интервальная оценка параметра. Пример условия, при котором возникает распределение Пуассона.

    курсовая работа [116,2 K], добавлен 22.05.2010

  • Классическое, статистическое и геометрическое определения вероятности. Дискретные случайные величины и законы их распределения. Числовые характеристики системы случайных величин. Законы равномерного и нормального распределения систем случайных величин.

    дипломная работа [797,0 K], добавлен 25.02.2011

  • Проверка выполнимости теоремы Бернулли на примере вероятности прохождения тока по цепи. Моделирование дискретной случайной величины, имеющей закон распределения Пуассона. Подтверждение гипотезы данного закона распределения с помощью критерия Колмогорова.

    курсовая работа [134,2 K], добавлен 31.05.2010

  • Таблица значений выборки дискретных случайных величин в упорядоченном виде. Таблица интервального статистического ряда относительных частот. Задание эмпирической функции распределений и построение ее графика. Полигон и распределение случайной величины.

    практическая работа [109,3 K], добавлен 26.07.2012

  • События и случайные величины. Функция распределения и ее характерные свойства. Сущность и определение основных числовых характеристик случайных величин: математическое ожидание, дисперсия, моменты. Критерии и факторы, влияющие на их формирование.

    контрольная работа [118,5 K], добавлен 30.01.2015

  • Распределение случайной величины c помощью закона Пуассона. Вычисления математического ожидания и дисперсии. Метод наибольшего правдоподобия. Асимметрия распределения Пуассона, его дополнительные характеристики, точечная и интервальная оценка параметра.

    презентация [710,3 K], добавлен 01.11.2013

  • Особенности выполнения теоремы Бернулли на примере электрической схемы. Моделирование случайной величины по закону распределения Пуассона, заполнение массива. Теория вероятности, понятие ожидания, дисперсии случайной величины и закон распределения.

    курсовая работа [29,7 K], добавлен 31.05.2010

  • Непрерывная случайная величина и функция распределения. Математическое ожидание непрерывной случайной величины. Среднее квадратичное отклонение. Кривая распределения для непрерывной случайной величины. Понятие однофакторного дисперсионного анализа.

    контрольная работа [165,5 K], добавлен 03.01.2012

  • Понятие и направления исследования случайных величин в математике, их классификация и типы: дискретные и непрерывные. Их основные числовые характеристики, отличительные признаки и свойства. Законы распределения случайных величин, их содержание и роль.

    презентация [1,4 M], добавлен 19.07.2015

  • Представление доказательства неравенства Чебышева. Формулирование закона больших чисел. Приведение примера нахождения математического ожидания и дисперсии для равномерно распределенной случайной величины. Рассмотрение содержания теоремы Бернулли.

    презентация [65,7 K], добавлен 01.11.2013

  • Вероятность события. Теоремы сложения и умножения событий. Теорема полной вероятности события. Повторные независимые испытания. Формула Бернулли, формула Пуассона, формула Муавра-Лапласа. Закон распределения вероятностей случайных дискретных величин.

    контрольная работа [55,2 K], добавлен 19.12.2013

  • Область определения функции, которая содержит множество возможных значений. Нахождение закона распределения и характеристик функции случайной величины, если известен закон распределения ее аргумента. Примеры определения дискретных случайных величин.

    презентация [68,7 K], добавлен 01.11.2013

  • Предмет и метод математической статистики. Распределение непрерывной случайной величины с точки зрения теории вероятности на примере логарифмически-нормального распределения. Расчет корреляции величин и нахождение линейной зависимости случайных величин.

    курсовая работа [988,5 K], добавлен 19.01.2011

  • Пространства элементарных событий. Совместные и несовместные события. Функция распределения системы случайных величин. Функции распределения и плотности распределения отдельных составляющих системы случайных величин. Условные плотности распределения.

    задача [45,4 K], добавлен 15.06.2012

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.