Элементы теории вероятностей

Вероятность события. Комбинаторика. Правила сложения и умножения вероятностей. Зависимые и независимые события. Формулы полной вероятности и Байеса. Случайные величины и законы их распределения. Непрерывные случайные величины и законы их распределения.

Рубрика Математика
Вид курсовая работа
Язык русский
Дата добавления 19.10.2014
Размер файла 3,4 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Элементы теории вероятностей

Математические модели финансовой математики носят вероятностный характер.

Теория вероятностей является разделом математики, в котором изучаются математические модели случайных экспериментов, исходы которых нельзя определить однозначно условиями проведения опыта. При этом предполагается, что сам эксперимент может быть повторен (хотя бы в принципе) любое число раз при неизменном комплексе условий, а исходы эксперимента обладают статистической устойчивостью.

Например, 1) при однократном подбрасывании монеты возможны следующие исходы (события): выпадение «герба» или «решки». В результате проведения опыта возникает лишь один исход, однако, до проведения опыта нельзя установить какой; 2) проводя контроль качества деталей, так же возможны два исхода: не бракованная или бракованная. Однако до проведения опыта опять же нельзя сказать, какой исход будет установлен для каждой детали; 3) предположим, нас интересует число вызовов, которое поступит за определенный промежуток времени на телефонную станцию. Как и в предыдущих примерах, интересующую величину до проведения эксперимента определить невозможно, хотя очевидно, что результатом будет целое неотрицательное число.

Примеров такого рода можно привести сколь угодно. Принято говорить, что возникающее в ходе эксперимента событие (исход) является случайным. комбинаторика вероятность байес

В чем состоит общность опытов со случайными исходами? Оказывается, несмотря на то, что результат каждого из перечисленных выше экспериментов предсказать невозможно, на практике уже давно была замечена закономерность: при проведении большого количества испытаний наблюденные частоты появления каждого случайного события (это отношение числа его появлений к общему числу испытаний) стабилизируются, то есть все меньше отличаются от некоторого числа, называемого вероятностью события. Так, при многократном бросании игральной кости «шестерка» выпадает в среднем в каждом шестом случае. Такое свойство устойчивости частоты позволяет, не имея возможности предсказать исход отдельного опыта, достаточно точно прогнозировать свойства явлений, связанных с рассматриваемым опытом. Поэтому методы теории вероятностей в современной жизни проникли во все сферы деятельности человека, причем не только в естественно-научные, экономические, но и гуманитарные (например, историю, лингвистику и т.д.).

Вероятность события

Вероятностью появления события А называют отношение числа исходов, благоприятствующих наступлению этого события, к общему числу всех единственно возможных и несовместных элементарных исходов.

Обозначим число благоприятствующих событию А исходов через М, а число всех исходов -- N:

P(A)=M/N,

где М -- целое неотрицательное число, 0 Ј--М Ј-- N.

Другой тип объективной вероятности определяется исходя из относительной частоты (частости) появления события. Например: если некоторая фирма в течение времени провела опрос 1 000 покупателей нового сорта напитка и 20 из них оценили его как вкусный, то мы можем оценить вероятность того, что потребителям понравится новый напиток как 20/1 000 = 0,02. В этом примере 20 -- это частота наступления события, а 20/1 000 = 0,02 -- это относительная частота.

Относительной частотой события называется отношение числа испытаний т, при которых событие появилось, к общему числу проведенных испытаний п.

W(A) == т/п

где т -- целое неотрицательное число, 0 Ј тЈ п.

Статистической вероятностью события А называется относительная частота (частость) этого события, вычисленная по результатам большого числа испытаний. Будем обозначать ее Р*(А). Следовательно,

При очень большом числе испытаний статистическая вероятность приближенно равна классической вероятности, т. е.

Для определения вероятности выпадения 1 или 2 при подбрасывании кости нам необходимо только знать «модель игры», в данном случае -- кость с 6 гранями. Мы можем определить наши шансы теоретически, без подбрасывания кости, это априорная (доопытная) вероятность. Во втором примере мы можем определить вероятность только по результатам опыта, это -- апостериорная (послеопытная) вероятность. То есть классическая вероятность -- априорная, а статистическая -- апостериорная.

Какой бы вид вероятности ни был выбран, для их вычисления и анализа используется один и тот же набор математических правил.

Свойства вероятности, вытекающие из классического определения.

1. Вероятность достоверного события равна 1, т. е. P(W) =1.

Действительно, если событие А = W, то М = N, значит, Р(W) = N/N = 1.

2. Если событие невозможное, то его вероятность равна 0, т. е. Р(Ж)= 0.

Если А = Ж, то оно не осуществится ни при одном испытании, т. е. М = 0 и Р(Ж) = 0/N = 0.

3. Вероятность случайного события есть положительное число, заключенное между 0 и 1, т. е. 0 Ј Р(А) Ј 1.

4. Сумма вероятностей противоположных событий равна 1, т. е. Р(А) + Р() = 1. В самом деле,

Р() = 1 - P(A), следовательно, Р(А)+Р()=1.

Например, если вероятность извлечения туза из колоды, состоящей из 52 карт, равна 4/52, то вероятность извлечения карты, не являющейся тузом, равна1 - 4/52 = 48/52

При нахождении вероятности классическим способом часто используются формулы комбинаторики.

Комбинаторика

При решении задач, заключающихся в определении вероятности, наибольшую трудность представляет подсчет общего числа элементарных исходов, общих и благоприятствующих данному событию. В этом случае полезно обратиться к формулам и правилам комбинаторики.

Комбинаторика происходит от латинского слова «combinatio» -- соединение.

Группы, составленные из каких-либо предметов (например, кубиков, букв, чисел и т.п.), называются соединениями (комбинациями, подмножествами, выборками). Предметы, из которых состоят соединения, называются элементами.

Одной из задач комбинаторики является составление различных комбинаций из элементов конечного множества и изучение способов пересчета таких комбинаций, удовлетворяющих тем или иным условиям.

Условно комбинаторика делится на две части:

Пусть имеется n различных элементов а1, а2, …аn. Каждый из этих элементов в комбинацию может войти один раз. Это комбинаторика без повторений.

Дано n типов элементов: «мешок» элементов типа а1, типа а2, типа а3 и т.д. В каждую комбинацию может войти несколько элементов одного типа. Либо имеется n различных элементов а1, а2, …аn. При этом элемент после выбора снова возвращается в группу. Это комбинаторика с повторениями.

Важнейшими характеристиками комбинаций являются: 1) состав, входящих в них элементов; 2) порядок вхождения элементов в комбинацию.

Различают три типа соединений: размещения, перестановки, сочетания.

При решении задач на нахождение количества комбинаций необходимо:

определить тип элементов, входящих в комбинацию;

определить, что нас интересует в комбинации: состав элементов, порядок их вхождения в комбинацию или и то, и другое;

определить тип соединения и выбрать соответствующую формулу для расчета.

При решении задач на подсчет числа комбинаций в комбинаторике применяются два правила: правило сложения и правило умножения.

Правило сложения: Если элемент А1 может быть выбран n1 способом, элемент А2 - другими n2 способами, А3 - отличными от первых двух n3 способами и т.д., Ак -nk способами, отличными от первых (k-1), то выбор одного из элементов: или А1, или А2, или А3, … или Ак может быть осуществлен n1+n2+n3+…+Ак способами.

Правило произведения: Если элемент А1 может быть выбран n1 способами, после каждого такого выбора А2 может быть выбран n2 способами и т.д., после каждого (k-1) элемент Аk может быть выбран nk способами, то выбор элементов А1, А2,…, Ак в указанном порядке может быть осуществлен n1n2…nk способами.

Размещения.

Размещениями из n элементов по k в каждом называются такие комбинации, которые характеризуются и порядком и составом входящих в них элементов.

Обозначения и формулы вычисления.

- число размещений из n по k без повторений.

- число размещений из элементов n типов по k с повторениями.

Сочетания.

Сочетаниями из n элементов по k в каждом называются такие комбинации, которые характеризуются только составом входящих в них элементов.

Обозначения и формулы вычисления.

, где 0? k ? n- число сочетаний из n по k без повторений.

- число сочетаний из элементов n типов по k с повторениями.

Перестановки.

Перестановками из n элементов называются такие комбинации, которые характеризуются только порядком входящих в них элементов при фиксированном в них составе.

Обозначения и формулы вычисления.

Число перестановок из n элементов это то же самое, что число размещений из n элементов по n в каждом, поэтому

Pn = n?(n-1)?(n-2)…2?1= n! --число перестановок из n без повторений.

- число перестановок с повторениями из k1 элементов первого типа, k2 элементов второго типа, … kn элементов n типа.

Замечание. Между размещениями, сочетаниями и перестановками можно установить связь по следующей формуле

Геометрическое определение вероятности.

Пусть в результате испытания возможно бесконечное число исходов. При этом исходы несовместны и ни один из них не имеет преимущества перед другими. Для решения задачи о вероятности используется геометрическая интерпретация вероятности. В данном случае ? представляет собой подмножество пространства R1(числовой прямой), R2(плоскости), Rn (n-мерного евклидова пространства). В пространстве R1 в качестве подмножеств будем рассматривать лишь промежутки или их объединения, то есть подмножества, которые имеют длину, в пространстве R2 -- площадь, в R3 -- объем и т.д.

Под мерой м(А) подмножества А будем понимать его длину, площадь или объем в зависимости от того, какому пространству принадлежит ?. Будем считать, что пространство элементарных исходов ? имеет конечную меру, а вероятность попадания «случайно брошенной» точки в любое подмножество ? пропорциональна мере этого подмножества и не зависит от его расположения и формы.

Вероятностью события А в этом случае называется число Р(А), равное отношению меры множества А к мере множества ?:

Геометрическое определение вероятности сохраняет свойства, рассмотренные в классической схеме.

Правила сложения и умножения вероятностей. Зависимые и независимые события

Вероятность суммы двух событий равна сумме вероятностей этих событий без вероятности их совместного наступления

Р(А + В) = Р(А) + Р(В) - Р(АВ).

Для несовместных событий их совместное наступление есть невозможное событие, а вероятность его равна нулю, следовательно, вероятность суммы двух несовместных событий равна сумме вероятностей этих событий.

Правило сложения вероятностей справедливо и для конечного числа п попарно несовместных событий

В случае нескольких совместных событий необходимо по аналогии с рассуждениями о пересечении двух совместных событий исключить повторный учет областей пересечения событий. Рассмотрим три совместных события.

Для случая трех совместных событий можно записать

Р(А + В + С) = Р(А) + Р(В) + Р(С) - Р(АВ)- Р(АС) - Р(ВС) + Р(АВС).

Сумма вероятностей событий А1, А2, А3 , ..., Аn, образующих полную группу, равна 1

Р(А1) + Р(А2) + Р(А3) + ... + Р(Аn) = 1 или

События А и В называются независимыми, если вероятность каждого из них не зависит от того, произошло или нет другое событие.

Вероятности независимых событий называются безусловными.

События А и В называются зависимыми, если вероятность каждого из них зависит от того произошло или нет другое событие. Вероятность события В, вычисленная в предположении, что другое событие А уже осуществилось, называется условной вероятностью.

Вероятность произведения двух независимых событий А и В равна произведению их вероятностей

Р(А В) = Р(А)Р(В).

События А1, А2, ..., Аn (п > 2) называются независимыми в совокупности, если вероятность каждого из них не зависит от того, произошли или нет любые события из числа остальных.

Вероятность произведения двух зависимых событий А и В равна произведению вероятности одного из них на условную вероятность другого

или

Вероятность события В при условии появления события А

Если события А1 , А2 ,..., Аn -- зависимые в совокупности, то вероятность наступления хотя бы одного из них равна

Вероятность появления хотя бы одного события из п независимых в совокупности равна разности между 1 и произведением вероятностей событий, противоположных данным,

Формулы полной вероятности и Байеса

Часто мы начинаем анализ вероятностей, имея предварительные, априорные значения вероятностей интересующих нас событий. Затем из источников информации, таких как выборка, отчет, опыт и т. д., мы получаем дополнительную информацию об интересующем нас событии. Имея эту новую информацию, мы можем уточнить, пересчитать значения априорных вероятностей. Новые значения вероятностей для тех же интересующих нас событий будут уже апостериорными (послеопытными) вероятностями. Теорема Байеса дает нам правило для вычисления таких вероятностей.

Пусть событие А может осуществиться лишь вместе с одним из событий Н1, Н2, H3, ..., Hn, образующих полную группу. Пусть известны вероятности Р(Н1), Р(Н2), ..., Р(Нi), ..., Р(Нn). Так как события Нi образуют полную группу, то

а также известны и условные вероятности события А:

Так как заранее неизвестно, с каким из событий Нi произойдет событие А, то события Нi, называют гипотезами.

Необходимо определить вероятность события А и переоценить вероятности событий Нi с учетом полной информации о событии А.

Вероятность события А определяется как

Эта вероятность называется полной вероятностью. Если событие А может наступить только вместе с одним из событий Н123, ..., Нn, образующих полную группу несовместных событий и называемых гипотезами, то вероятность события А равна сумме произведений вероятностей каждого из событий Н1, Н2, ..., Нn на соответствующую условную вероятность события А.

Условные вероятности гипотез вычисляются по формуле

или

Это -- формулы Байеса (по имени английского математика Т.Байеса, опубликовавшего их в 1764 г.), выражение в знаменателе -- формула полной вероятности.

Случайные величины и законы их распределения

Понятие случайной величины и их классификация.

Величину называют случайной, если в результате испытания она примет лишь одно возможное значение, заранее неизвестное и зависящее от случая.

В теории вероятностей и на практике случайной величиной называют функцию, определенную на множестве элементарных исходов, принимающую различные действительные значения с определенными вероятностями. В статистике случайной величиной называют генеральную совокупность.

Примеры случайных величин: количество гербов, выпавших при независимом бросании двух монет, число, выпавшее на верхней грани игрального кубика, число дефектных единиц продукции среди проверенных и т.д.

Все случайные величины делятся на одномерные и многомерные.

Случайная величина называется одномерной, если в результате эксперимента регистрируется одно число. Если результатом каждого эксперимента является регистрация набора характеристик, то собственную случайную величину называют многомерной.

В свою очередь, одномерные случайные величины делятся на дискретные и непрерывные.

Случайная величина называется дискретной, если множество ее значений образует последовательность; и случайная величина называется непрерывной, если множеством ее значений является интервал.

Дискретные случайные величины (ДСВ) и законы их распределения.

Способы задания дискретной случайной величины.

1. Для задания дискретной случайной величины необходимо задать вероятностное простpанство <Щ,У,p>. В дискретном случае это означает. что тем или иным способом должны быть перечислены все возможные значения случайной величины и соответствующие им вероятности появления этих значений.

Если случайная величина Х принимает значения х12,….хn соответственно с вероятностями p1,p2,…pn и при этом х12<….<хn и , то таблица

Х

х1

x2

xi

xn

Р

p1

p2

pi

pn

называется законом распределения вероятностей или рядом распределения случайной величины.

2. График распределения вероятностей дискретной случайной величины называют полигоном или многоугольником распределения вероятностей.

Размещено на http://www.allbest.ru/

Числовые характеристики дискретной случайной величины.

Числовыми характеристиками дискретной случайной величины являются меры положения - характерные точки. Вокруг которых группируются значения, принимаемые случайной величиной и меры рассеивания - параметры, показывающие как группируются эти значения вокруг мер положения, каков характер этой группировки.

Основные меры положения ДСВ.

1. Мода - самое вероятное значение случайной величины (абсцисса самой высокой точки полигона вероятностей). ДСВ может не иметь моды, а может иметь несколько мод. Понятие моды работает хорошо в том случае, когда она определена однозначно.

2. Медиана ДСВ определяется так: (Me -cередина распределения вероятностей).

3. Математическое ожидание или генеральное среднее дискретной случайной величины - это средневзвешенное значение случайной величины с весами вероятностями:

МХ=

Свойства математического ожидания:

1. Математическое ожидание постоянной равно самой этой постоянной: МС=С.

2. Константа выносится за знак математического ожидания: М(СХ)=С•МХ.

3. Математическое ожидание суммы случайных величин равно сумме их математических ожиданий: М(Х+У)=МХ+МУ.

4. Математическое ожидание произведения независимых случайных величин равно произведению их математических ожиданий: М(Х•У)=МХ•МУ.

5. Для зависимых случайных величин М(Х•У)=МХ•МУ+kx,y, где kx,y=- момент корреляции случайных величин Х и У.

Меры рассеивания ДСВ.

Дисперсией ДСВ Х называется математическое ожидание квадрата отклонения этой случайной величины от ее математического ожидания: . Дисперсия характеризует степень «сосредоточенности» или «разброс» случайной величины около ее математического ожидания.

На практике для расчета дисперсии ДСВ удобно пользоваться следующей формулой:, то есть дисперсия равна разности математического ожидания квадрата случайной величины и квадрата математического ожидания случайной величины.

При использовании дисперсии на практике возникает следующее неудобство: размерность дисперсии не совпадает с размерностью случайной величины. Поэтому используют среднее квадратическое отклонение или стандарт случайной величины:.

Свойства дисперсии:

1. Дисперсия постоянной равна нулю: DC=0.

2. Постоянная выносится за знак дисперсии с возведением в квадрат: D(CX)=C2•DX.

3. Дисперсия суммы независимых случайных величин равна сумме дисперсий: D(X+Y)=DX+DY.

4. Дисперсия произведения независимых случайных величин равна разности произведения математических ожиданий квадратов случайных величин и произведения квадратов математических ожиданий случайных величин :D(X•Y)=D(X2)D(Y2)-(DX)2(DY)2.

Законы распределения ДСВ.

1)Биномиальное распределение.

Рассмотрим последовательность n идентичных повторных испытаний, удовлетворяющих следующим условиям:

1) Каждое испытание имеет 2 исхода, называемые успех и неуспех; это - взаимно несовместные и противоположные события;

2) Вероятность успеха - р - остается постоянной от испытания к испытанию; вероятность неуспеха - q; р+q=1;

3) Все n испытаний - независимы. Это означает, что вероятность наступления события в любом из n повторных испытаний не зависит от результатов других испытаний.

Вероятность того, что в n независимых повторных испытаниях, в каждом из которых вероятность появления события равна р, событие А наступит ровно m раз,

Это выражение называется формулой Бернулли.

Так как правая часть этого равенства представляет собой общий член биномиального разложения (q+p)n, то этот закон называют биномиальным.

Таким образом, биномиальным называют закон распределения ДСВ Х - числа появлений события в nнезависимых испытаниях, в каждом из которых вероятность наступления события равна р; вероятности возможных значений Х=0, 12,…,m…,n вычисляются по формуле Бернулли.

Для случайной величины Х, распределенной по биномиальному закону, имеем

МХ=np;

DX=npq;

у(X)=

Мода при биномиальном распределении .

Вероятность появления хотя бы одного события А при n испытаниях равна .

2)Гипергеометрическое распределение.

В задачах контроля продукции часто применяется гипергеометрическое распределение, которое описывается следующей математической моделью.

Пусть во множестве из N элементов содержится k элементов с признаком В. Вероятность выбрать элемент с признаком В при одном случайном извлечении из множества равна . Пусть из множества случайным образом извлекают n элементов, одновременно или последовательно, но без возвращения. Тогда число х элементов с признаком В, содержащихся в выборке, удовлетворяет гипергеометрическому закону распределения.

Замечание. В отличии от биномиального закона, применимого в случае независимых событий, в гипергеометрическом распределении события зависимы.

Вероятность появления в выборке из n элементов ровно х элементов с признаком В вычисляется по формуле:

.

Числовые характеристики:

3)Распределение Пуассона.

Закон Пуассона называют законом редких событий, поскольку он проявляется там, где производится большое число испытаний, в каждом из которых с малой вероятностью происходит «редкое» событие. Например, число телефонных вызовов, поступивших на коммутатор за некоторый промежуток времени, число несчастных случаев, произошедших в городе за некоторый промежуток времени и т.д.

Распределение Пуассона можно описать с помощью следующей математической модели. Пусть событие А происходит многократно с течением времени, то есть имеет место поток однородных событий, который удовлетворяет следующим условиям:

1) Поток стационарен, то есть вероятность попадания k событий в промежуток времени (t; t+ф) зависит только от числа событий k и длины промежутка ф, но не зависит от начала t. Это означает, что математическое ожидание числа событий в единицу времени (плотность потока) постоянно.

2) Поток без последствия, то есть вероятность попадания k событий в промежуток времени (t; t+ф) не зависит от числа и появления событий до момента времени t, то есть имеет место взаимная независимость появления того или иного числа событий в непересекающиеся промежутки времени.

3) Поток ординарен, то есть вероятность попадания двух и более событий в промежуток времени (t; t+ф) пренебрежимо мала по сравнению с вероятностью попадания одного события в этот промежуток, то есть вероятность одновременного появления двух и более событий равна нулю.

Поток событий, удовлетворяющий условиям 1)-3) называется простейшим. Плотность простейшего потока обозначим м.

Вероятность того, что событие А в промежутке времени ф осуществится х раз, равна

,

где л=мф - среднее число событий, происходящих в промежутке времени ф.

Числовые характеристики: МХ= DX=л, у(X)=

Теорема о связи биномиального распределения с законом Пуассона.

Пусть таким образом, что произведение np остается постоянным и равным некоторому числу л>0. Тогда вероятность того, что случайная величина, распределенная по биномиальному закону, примет значение, равное m, стремится к вероятности этого же события, вычисленной по закону Пуассона с параметром л=np, то есть

.

Замечание. Если распределение Пуассона применяется вместо биномиального, то n должно иметь порядок не менее нескольких десятков, лучше нескольких сотен, а np<10.

Непрерывные случайные величины (НСВ) и законы их распределения

Способы задания НСВ.

Напомним, что случайная величина называется непрерывной, если множеством ее значений является интервал.

Для исследования вероятностных свойств СВ необходимо знать правило, позволяющее находить вероятность того, что СВ примет значение из подмножества ее значений. Для НСВ нельзя определить вероятность того, что она примет некоторое конкретное значение (точечную вероятность). Так как в любом интервале содержится бесконечно много значений, то вероятность выпадения одного из них асимптотически равна нулю. В результате НСВ нельзя задать таблицей. Для описания НСВ используют так называемую функцию распределения.

Определение. Функцией распределения F(x) называется вероятность того, что случайная величина Х примет значение меньшее некоторого заданного х., т.е. .

Определение. Случайная величина называется абсолютно непрерывной, если ее функция распределения может быть представлена в виде: .

F(х) непрерывна, как функция верхнего предела интегрирования. Функция f(x) (подынтегральная функция в формуле для F(x)) называется функцией плотности вероятности (это вероятность, приходящаяся на единицу длины в данной точке). Таким образом. . В связи с этим, функцию F(x) называют интегральным законом распределения СВ Х, а f(x) - дифференциальным законом распределения СВ.

Свойства функции распределения случайной величины.

1)

2) F(x) - неубывающая;

3) F(-?)=0, F(+?)=1;

4) P(x1<X<x2)=F(x2)-F(x1);

5)F(x) непрерывна слева.

Свойства функции плотности вероятности.

1)f(x) ?0(как производная неубывающей функции);

2) P(x1<X<x2)=;

3)(площадь, заключенная под всей кривой, изображающей плотность распределения, равна 1);

4)f(+?)=f(-?)=0.

Числовые характеристики НСВ.

1) Для нахождения Мо НСВ необходимо проверить критическую точку функции плотности распределения (если таковая есть) на максимум и принадлежность соответствующему промежутку на котором f(x) задается. Возможно, что мода будет являться одним из концов отрезка или ее вообще не будет.

2) Медиана находится из условия . Решив данное уравнение, необходимо проверить принадлежность полученного решения соответствующему промежутку.

3) . Математическое ожидание НСВ сохраняет все свойства математического ожидания ДСВ.

4) . Дисперсия НСВ сохраняет все свойства дисперсии ДСВ.

5)

6) Начальным моментом k-го порядка случайной величины Х называется математическое ожидание k-ой степени случайной величины: нk=M(Xk). Первый начальный момент - это математическое ожидание случайной величины.

При определенных допущениях относительно случайной величины по начальным моментам можно восстановить функцию распределения СВ.

7) Центральным моментом k-го порядка случайной величины Х называется математическое ожидание k-ой степени отклонения случайной величины от своего математического ожидания: мk=. Дисперсия случайной величины - это второй центральный момент случайной величины.

Законы распределения НСВ.

1) Нормальное распределение.

Нормальное (Гауссово) распределения было открыто тремя учеными в разное время: Муавром в 1737 г. в Англии, Гауссом в 1809 г. в Германии и Лапласом в 1812 г. во Франции.

Оно возникает обычно, когда СВ Х представляет собой суму большого числа независимых СВ, каждая из которых в образовании суммы играет незначительную роль.

Нормальное распределение является предельным случаем почти всех реальных распределений вероятности. Оно широко используется в математической статистике, в частности, в моделях регрессии часто ошибка принимается распределенной по этому закону; предпосылка о нормальном распределении учитывается и в большинстве критериев статистической проверки гипотез.

Многие экономические показатели имеют близкий к нормальному закон распределения. Например, доход населения, прибыль фирм в отрасли, объем потребления и т.д. имеют близкое к нормальному распределение. Однако само нормальное распределение в экономике не используется, оно имеет чисто математический интерес.

Говорят, что СВ имеет нормальное распределение, если функция плотности вероятности имеет вид: , где МХ=а- параметр расположения, у>0 - параметр масштаба. Чем меньше у, тем круче график.

Функция распределения - функция интеграла Лапласа.

График плотности вероятности нормально распределенной случайной величины называют палаткой Эйлера.

Размещено на http://www.allbest.ru/

Если а = 0 и у=1, то говорят о стандартизированном нормальном распределении с плотностью распределения. Эта функция четная и табулированная.

Функция распределения также табулирована и обладает следующими свойствами:

1) Ф(х)=0;

2) Ф(-х)=-Ф(х);

3) Ф(-?)=Ф(+?)=0,5.

Для расчета вероятности попадания нормально распределенной случайной величины в промежуток от б до в используется формула: . Эту формулу иногда называют интегральной теоремой Лапласа.

В частности, для симметричного относительно математического ожидания промежутка (МХ-Д,МХ+Д) можно использовать формулу .

С вероятностью, очень близкой к единице, все возможные значения нормально распределенной случайной величины сосредоточены на отрезке [а-3у;а+3у]. Это так называемое правило трех сигм: Если случайная величина распределена нормально, то абсолютная величина ее отклонения от математического ожидания не превосходит утроенного среднего квадратического отклонения.

Локальная теорема Муавра-Лапласа. При р?0 и р?1 и достаточно большом n биномиальное распределение близко к нормальному закону, причем их математические ожидания и дисперсии совпадают, т.е. имеет место равенство:

.

Числовые характеристики. Мо=а

Ме=а

2)Равномерное распределение (прямоугольное)

Размещено на http://www.allbest.ru/

Равномерным называется такое распределение случайной величины. Все значения которых лежат на некотором отрезке [а;в] и имеют постоянную плотность вероятности на этом отрезке. Таким образом,

Так как h(b-a)=1, то и, следовательно

Функция распределения

Основные числовые характеристики:

Вероятность попадания равномерно распределенной случайной величины в интервале 12), расположенной внутри отрезка [a,b]: .

4) Экспоненциальное распределение

Аналогом закона Пуассона для НСВ служит показательный (экспоненциальный) закон, функция плотности распределения которого имеет вид: , где л>0 - постоянный параметр масштаба.

Функция распределения .

Числовые характеристики:

В теории массового обслуживания математическое ожидание экспоненциальной случайной величины - это среднее время обслуживания одной заявки.

Если Т - непрерывная случайная величина, выражающая продолжительность времени безотказной работы какого-либо элемента, а л - интенсивность отказов (среднее число отказов в единицу времени), то продолжительность времени t безотказной работы этого элемента можно считать случайной величиной, распределенной по показательному закону с функцией распределения , которая определяет вероятность отказа элемента за время t.

Функция надежности определяет вероятность безотказной работы элемента за время t:

Закон больших чисел. Центральная предельная теорема.

На практике сложно сказать какое конкретное значение примет случайная величина, однако, при воздействии большого числа различных факторов поведение большого числа случайных величин практически утрачивает случайный характер и становится закономерным.

Этот факт очень важен на практике, т.к. позволяет предвидеть результат опыта при воздействии большого числа случайных факторов.

Однако, это возможно только при выполнении некоторых условий, которые определяются законом больших чисел. К законам больших чисел относятся теоремы Чебышева.

Теорема. (Неравенство Чебышева) Вероятность того, что отклонение случайной величины Х от ее математического ожидания по абсолютной величине меньше положительного числа , не меньше чем .

Теорема. Если Х1, Х2, …, Хn- попарно независимые случайные величины, причем дисперсии их равномерно ограничены (не превышаю постоянного числа С), то, как бы мало не было положительное число , вероятность неравенства

Т.е. можно записать:

Часто бывает, что случайные величины имеют одно и то же математическое ожидание. В этом случае теорема Чебышева несколько упрощается:

Теорема утверждает, что хотя каждое отдельное значение случайной величины может достаточно сильно отличаться от своего математического ожидания, но среднее арифметическое этих значений будет неограниченно приближаться к среднему арифметическому математических ожиданий.

Отклоняясь от математического ожидания как в положительную, так и в отрицательную сторону, от своего математического ожидания, в среднем арифметическом отклонения взаимно сокращаются.

Таким образом, величина среднего арифметического значений случайной величины уже теряет характер случайности.

Центральная предельная теорема Ляпунова

Теорема. Если случайная величина Х представляет собой сумму очень большого числа взаимно независимых случайных величин, влияние каждой из которых на всю сумму ничтожно мало, то Х имеет распределение, близкое к нормальному.

Размещено на Allbest.ru

...

Подобные документы

  • Дискретные случайные величины и их распределения. Формула полной вероятности и формула Байеса. Общие свойства математического ожидания. Дисперсия случайной величины. Функция распределения случайной величины. Классическое определение вероятностей.

    контрольная работа [33,8 K], добавлен 13.12.2010

  • Классическое, статистическое и геометрическое определения вероятности. Дискретные случайные величины и законы их распределения. Числовые характеристики системы случайных величин. Законы равномерного и нормального распределения систем случайных величин.

    дипломная работа [797,0 K], добавлен 25.02.2011

  • Вероятность события. Теоремы сложения и умножения событий. Теорема полной вероятности события. Повторные независимые испытания. Формула Бернулли, формула Пуассона, формула Муавра-Лапласа. Закон распределения вероятностей случайных дискретных величин.

    контрольная работа [55,2 K], добавлен 19.12.2013

  • Описание случайных ошибок методами теории вероятностей. Непрерывные случайные величины. Числовые характеристики случайных величин. Нормальный закон распределения. Понятие функции случайной величины. Центральная предельная теорема. Закон больших чисел.

    реферат [146,5 K], добавлен 19.08.2015

  • Опыт со случайным исходом. Статистическая устойчивость. Понятие вероятности. Алгебра событий. Принцип двойственности для событий. Условные вероятности. Формулы сложения и умножения вероятностей. Формула Байеса. Пространство элементарных событий.

    реферат [402,7 K], добавлен 03.12.2007

  • Определение и оценка вероятности наступления заданного события. Методика решения задачи, с использованием теоремы сложения и умножения, формулы полной вероятности или Байеса. Применение схемы Бернулли при решении задач. Расчет квадратического отклонения.

    практическая работа [55,0 K], добавлен 23.08.2015

  • Принципы решения задач по основным разделам теории вероятностей: случайные события и их допустимость, непроизвольные величины, распределения и числовые характеристики градировки, основные предельные теоремы для сумм независимых вероятностных величин.

    контрольная работа [129,1 K], добавлен 03.12.2010

  • Теория вероятностей — раздел математики, изучающий закономерности случайных явлений: случайные события, случайные величины, их свойства и операции над ними. Методы решения задач по теории вероятности, определение математического ожидания и дисперсии.

    контрольная работа [157,5 K], добавлен 04.02.2012

  • Основные понятия, действия над случайными событиями. Классическое определение, свойства вероятностей. Правила вычисления вероятностей случайных событий. Построение законов распределения вероятностей случайных величин, вычисление числовых характеристик.

    задача [82,0 K], добавлен 12.02.2011

  • Вероятность и ее общее определение. Теоремы сложения и умножения вероятностей. Дискретные случайные величины и их числовые характеристики. Закон больших чисел. Статистическое распределение выборки. Элементы корреляционного и регрессионного анализа.

    курс лекций [759,3 K], добавлен 13.06.2015

  • Возможные варианты расчета вероятности событий. Выборочное пространство и события, их взаимосвязь. Общее правило сложения вероятностей. Законы распределения дискретных случайных величин, их математическое ожидание. Свойства биномиального распределения.

    презентация [1,4 M], добавлен 19.07.2015

  • Определение вероятности появления события в каждом из независимых испытаний. Случайные величины, заданные функцией распределения (интегральной функцией), нахождение дифференциальной функции (плотности вероятности), математического ожидания и дисперсии.

    контрольная работа [59,7 K], добавлен 26.07.2010

  • Случайные величины. Функция и плотность распределения вероятностей дискретной случайной величины. Сингулярные случайные величины. Математическое ожидание случайной величины. Неравенство Чебышева. Моменты, кумулянты и характеристическая функция.

    реферат [244,6 K], добавлен 03.12.2007

  • Случайные события, их классификация. Свойство статистической устойчивости относительной частоты события. Предельные теоремы в схеме Бернулли. Аксиоматическое и геометрическое определение вероятности. Локальная и интегральная теоремы Муавра-Лапласа.

    реферат [1,4 M], добавлен 18.02.2014

  • Случайное событие и его вероятность. Теорема сложения вероятностей. Закон равномерной плотности вероятности. Случайные величины. Функция распределения и ее свойства. Как наука теория вероятности зародилась в 17 веке.

    реферат [96,2 K], добавлен 12.02.2005

  • Определение числа всех равновероятных исходов испытания. Правило умножения вероятностей независимых событий, их полная система. Формула полной вероятности события. Построение ряда распределения случайной величины, ее математическое ожидание и дисперсия.

    контрольная работа [106,1 K], добавлен 23.06.2009

  • Классическое определение вероятности. Формулы сложения и умножения вероятностей. Дисперсия случайной величины. Число равновозможных событий . Матрица распределения вероятностей системы. Среднее квадратическое отклонение, доверительный интервал.

    контрольная работа [89,7 K], добавлен 07.09.2010

  • Статистическое, аксиоматическое и классическое определение вероятности. Дискретные случайные величины. Предельные теоремы Лапласа и Пуассона. Функция распределения вероятностей для многомерных случайных величин. Формула Байеса. Точечная оценка дисперсии.

    шпаргалка [328,7 K], добавлен 04.05.2015

  • Функция распределения вероятностей двух случайных величин. Функция и плотность распределения вероятностей случайного вектора. Многомерное нормальное распределение. Коэффициент корреляции. Распределение вероятностей функции одной случайной величины.

    реферат [241,8 K], добавлен 03.12.2007

  • Решение задач по определению вероятности событий, ряда и функции распределения с помощью формулы умножения вероятностей. Нахождение константы, математического описания и дисперсии непрерывной случайной величины из функции распределения случайной величины.

    контрольная работа [57,3 K], добавлен 07.09.2010

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.