Теория вероятности

Рассмотрение теоремы умножения вероятностей. Характеристика основных задач математической статистики. Выборка как набор объектов, случайно отобранных из генеральной совокупности, виды: повторная, бесповторная. Особенности непрерывных случайных величин.

Рубрика Математика
Вид дипломная работа
Язык русский
Дата добавления 07.12.2012
Размер файла 551,9 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Метод моментов

умножение вероятность математический величина

Метод моментов основан на том, что начальные и центральные эмпирические моменты являются состоятельными оценками соответственно начальных и центральных теоретических моментов, поэтому можно приравнять теоретические моменты соответствующим эмпирическим моментам того же порядка.

Если задан вид плотности распределения f(x, И), определяемой одним неизвестным параметром И, то для оценки этого параметра достаточно иметь одно уравнение. Например, можно приравнять начальные моменты первого порядка:

,

получив тем самым уравнение для определения И. Его решение И* будет точечной оценкой параметра, которая является функцией от выборочного среднего и, следовательно, и от вариант выборки:

И = ш (х1, х2, …, хп).

Если известный вид плотности распределения f(x, И1, И2 ) определяется двумя неизвестными параметрами И1 и И2, то требуется составить два уравнения, например

н1 = М1, м2 = т2.

Отсюда - система двух уравнений с двумя неизвестными И1 и И2. Ее решениями будут точечные оценки И1* и И2* - функции вариант выборки:

И1 = ш11, х2, …, хп),

И2 = ш21, х2, …, хп).

Теорема умножения вероятностей

Назовем условной вероятностью р(В/А) события В вероятность события В при условии, что событие А произошло.

Замечание. Понятие условной вероятности используется в основном в случаях, когда осуществление события А изменяет вероятность события В.

Примеры:

1) пусть событие А - извлечение из колоды в 32 карты туза, а событие В - то, что и вторая вынутая из колоды карта окажется тузом. Тогда, если после первого раза карта была возвращена в колоду, то вероятность вынуть вторично туз не меняется: Если же первая карта в колоду не возвращается, то осуществление события А приводит к тому, что в колоде осталась 31 карта, из которых только 3 туза. Поэтому

2) если событие А - попадание в самолет противника при первом выстреле из орудия, а В - при втором, то первое попадание уменьшает маневренность самолета, поэтому р(В/А) увеличится по сравнению с р(А).

Теорема 2.3 (теорема умножения). Вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого при условии, что первое событие произошло:

р (АВ) = р (А) ? р (В/А). (2.6)

Доказательство

Воспользуемся обозначениями теоремы 2.1. Тогда для вычисления р(В/А) множеством возможных исходов нужно считать тА (так как А произошло), а множеством благоприятных исходов - те, при которых произошли и А, и В ( тАВ ). Следовательно,

откуда следует утверждение теоремы.

Пример. Для поражения цели необходимо попасть в нее дважды. Вероятность первого попадания равна 0,2, затем она не меняется при промахах, но после первого попадания увеличивается вдвое. Найти вероятность того, что цель будет поражена первыми двумя выстрелами.

Решение. Пусть событие А - попадание при первом выстреле, а событие В - попадание при втором. Тогда р (А) = 0,2, р (В/А) = 0,4, р (АВ) = 0,2?0,4 = 0,08.

Следствие. Если подобным образом вычислить вероятность события ВА, совпадающего с событием АВ, то получим, что р (ВА) = р (В) ? р (А/В). Следовательно,

р (А) ? р (В/А) = р (В) ? р (А/В). (2.7)

Событие В называется независимым от события А, если появление события А не изменяет вероятности В, то есть р (В/А) = р (В).

Замечание. Если событие В не зависит от А, то и А не зависит от В. Действительно, из (2.7) следует при этом, что р (А) ? р (В) = р (В) ? р (А/В), откуда р (А/В) = р (А). Значит, свойство независимости событий взаимно.

Теорема умножения для независимых событий имеет вид:

р (АВ) = р (А) ? р (В) , (2.8)

то есть вероятность произведения независимых событий равна произведению их вероятностей.

При решении задач теоремы сложения и умножения обычно применяются вместе.

Пример. Два стрелка делают по одному выстрелу по мишени. Вероятности их попадания при одном выстреле равны соответственно 0,6 и 0,7. Найти вероятности следующих событий:

А - хотя бы одно попадание при двух выстрелах;

В - ровно одно попадание при двух выстрелах;

С - два попадания;

D - ни одного попадания.

Решение. Пусть событие Н1 - попадание первого стрелка, Н2 - попадание второго. Тогда

А = Н1 + Н2, В =Н1 События Н1 и Н2совместны и независимы, поэтому теорема сложения применяется в общем виде, а теорема умножения - в виде (2.8). Следовательно, р(С) = 0,6?0,7 = 0,42, р(А) = 0,6 + 0,7 - 0,42 = 0,88,

р(B) = 0,6?0,3 + 0,7?0,4 = 0,46 (так как события и несовместны),

р(D) = 0,4?0,3 = 0,12. Заметим, что события А и D являются противоположными, поэтому

р(А) = 1 - р(D).

Понятие начального и центрального моментов

Начальным моментом порядка k случайной величины Х называется математическое ожидание величины Xk:

нk = M (Xk). (9.1)

В частности, н1 = М(Х), н2 = М(Х2). Следовательно, дисперсия D(X) = н2 - н1?.

Определение 9.2. Центральным моментом порядка k случайной величины Х называется математическое ожидание величины (Х - М(Х))k:

мk = M((Х - М(Х))k). (9.2)

В частности, м1 = M(Х - М(Х)) = 0, м2 = M((Х - М(Х))2) = D(X).

Можно получить соотношения, связывающие начальные и центральные моменты:

Понятие генеральной и выборочной совокупности

Математическая статистика занимается установлением закономерностей, которым подчинены массовые случайные явления, на основе обработки статистических данных, полученных в результате наблюдений. Двумя основными задачами математической статистики являются:

- определение способов сбора и группировки этих статистических данных;

- разработка методов анализа полученных данных в зависимости от целей исследования, к которым относятся:

а) оценка неизвестной вероятности события; оценка неизвестной функции распределения; оценка параметров распределения, вид которого известен; оценка зависимости от других случайных величин и т.д.;

б) проверка статистических гипотез о виде неизвестного распределения или о значениях параметров известного распределения.

Для решения этих задач необходимо выбрать из большой совокупности однородных объектов ограниченное количество объектов, по результатам изучения которых можно сделать прогноз относительно исследуемого признака этих объектов.

Определим основные понятия математической статистики.

Генеральная совокупность - все множество имеющихся объектов.

Выборка - набор объектов, случайно отобранных из генеральной совокупности.

Объем генеральной совокупности N и объем выборки n - число объектов в рассматриваемой совокупности.

Виды выборки:

Повторная - каждый отобранный объект перед выбором следующего возвращается в генеральную совокупность;

Бесповторная - отобранный объект в генеральную совокупность не возвращается.

Замечание. Для того, чтобы по исследованию выборки можно было сделать выводы о поведении интересующего нас признака генеральной совокупности, нужно, чтобы выборка правильно представляла пропорции генеральной совокупности, то есть была репрезентативной (представительной). Учитывая закон больших чисел, можно утверждать, что это условие выполняется, если каждый объект выбран случайно, причем для любого объекта вероятность попасть в выборку одинакова.

Первичная обработка результатов.

Пусть интересующая нас случайная величина Х принимает в выборке значение х1 п1 раз, х2- п2 раз, …, хк - пк раз, причем где п - объем выборки. Тогда наблюдаемые значения случайной величины х1, х2,…, хк называют вариантами, а п1, п2,…, пк - частотами. Если разделить каждую частоту на объем выборки, то получим относительные частоты Последовательность вариант, записанных в порядке возрастания, называют вариационным рядом, а перечень вариант и соответствующих им частот или относительных частот - статистическим рядом:

Таблица

xi

x1

x2

xk

ni

n1

n2

nk

wi

w1

w2

wk

Пример.

При проведении 20 серий из 10 бросков игральной кости число выпадений шести очков оказалось равным 1,1,4,0,1,2,1,2,2,0,5,3,3,1,0,2,2,3,4,1.Составим вариационный ряд: 0,1,2,3,4,5. Статистический ряд для абсолютных и относительных частот имеет вид:

Таблица

xi

0

1

2

3

4

5

ni

3

6

5

3

2

1

wi

0,15

0,3

0,25

0,15

0,1

0,05

Если исследуется некоторый непрерывный признак, то вариационный ряд может состоять из очень большого количества чисел. В этом случае удобнее использовать группированную выборку. Для ее получения интервал, в котором заключены все наблюдаемые значения признака, разбивают на несколько равных частичных интервалов длиной h, а затем находят для каждого частичного интервала ni - сумму частот вариант, попавших в i-й интервал. Составленная по этим результатам таблица называется группированным статистическим рядом:

Таблица

Номера интервалов

1

2

k

Границы интервалов

(a, a + h)

(a + h, a +2h)

(b - h, b)

Сумма частот вариант, попавших в интервал

n1

n2

nk

Полигон частот. Выборочная функция распределения и гистограмма.

Для наглядного представления о поведении исследуемой случайной величины в выборке можно строить различные графики. Один из них - полигон частот: ломаная, отрезки которой соединяют точки с координатами (x1, n1), (x2, n2),…, (xk, nk), где xiоткладываются на оси абсцисс, а ni- на оси ординат. Если на оси ординат откладывать не абсолютные (ni), а относительные (wi) частоты, то получим полигон относительных частот (рис.1).

Рис. 1.

По аналогии с функцией распределения случайной величины можно задать некоторую функцию, относительную частоту события X < x.

Выборочной (эмпирической) функцией распределения называют функцию F*(x), определяющую для каждого значения х относительную частоту события X < x.Таким образом,

, (15.1)

где пх - число вариант, меньших х, п - объем выборки.

Замечание. В отличие от эмпирической функции распределения, найденной опытным путем, функцию распределения F(x) генеральной совокупности называют теоретической функцией распределения. F(x) определяет вероятность события X < x, а F*(x) - его относительную частоту. При достаточно больших п, как следует из теоремы Бернулли, F*(x) стремится по вероятности к F(x).

Из определения эмпирической функции распределения видно, что ее свойства совпадают со свойствами F(x), а именно:

1) 0 ? F*(x) ? 1.

2) F*(x) - неубывающая функция.

3) Если х1 - наименьшая варианта, то F*(x) = 0 при х? х1; если хк - наибольшая варианта, то F*(x) = 1 при х > хк .

Для непрерывного признака графической иллюстрацией служит гистограмма, то есть ступенчатая фигура, состоящая из прямоугольников, основаниями которых служат частичные интервалы длиной h, а высотами - отрезки длиной ni /h (гистограмма частот) или wi /h(гистограмма относительных частот). В первом случае площадь гистограммы равна объему выборки, во втором - единице (рис.2).

Рис.2.

Оценка числовых характеристик

Закон распределения (функция распределения и ряд распределения или плотность вероятности) полностью описывают поведение случайной величины. Но в ряде задач достаточно знать некоторые числовые характеристики исследуемой величины (например, ее среднее значение и возможное отклонение от него), чтобы ответить на поставленный вопрос. Рассмотрим основные числовые характеристики дискретных случайных величин.

Математическое ожидание

Математическим ожиданием дискретной случайной величины называется сумма произведений ее возможных значений на соответствующие им вероятности:

М(Х) = х1р1 + х2р2 + … + хпрп . (7.1)

Если число возможных значений случайной величины бесконечно, то , если полученный ряд сходится абсолютно.

Замечание 1. Математическое ожидание называют иногда взвешенным средним, так как оно приближенно равно среднему арифметическому наблюдаемых значений случайной величины при большом числе опытов.

Замечание 2. Из определения математического ожидания следует, что его значение не меньше наименьшего возможного значения случайной величины и не больше наибольшего.

Замечание 3. Математическое ожидание дискретной случайной величины есть неслучайная (постоянная) величина. В дальнейшем увидим, что это же справедливо и для непрерывных случайных величин.

Пример 1. Найдем математическое ожидание случайной величины Х - числа стандартных деталей среди трех, отобранных из партии в 10 деталей, среди которых 2 бракованных. Составим ряд распределения для Х. Из условия задачи следует, что Х может принимать значения 1, 2, 3.

Тогда

Пример 2. Определим математическое ожидание случайной величины Х - числа бросков монеты до первого появления герба. Эта величина может принимать бесконечное число значений (множество возможных значений есть множество натуральных чисел). Ряд ее распределения имеет вид:

Таблица

Х

1

2

п

р

0,5

(0,5)2

(0,5)п

Тогда

..+

+

(при вычислении дважды использовалась формула суммы бесконечно убывающей геометрической прогрессии: , откуда ).

Свойства математического ожидания

1) Математическое ожидание постоянной равно самой постоянной:

М(С) = С. (7.2)

Доказательство. Если рассматривать С как дискретную случайную величину, принимающую только одно значение С с вероятностью р = 1, то М(С) = С?1 = С.

2) Постоянный множитель можно выносит за знак математического ожидания:

М(СХ) = С М(Х). (7.3)

Доказательство. Если случайная величина Х задана рядом распределения

Таблица

xi

x1

x2

xn

pi

p1

p2

pn

то ряд распределения для СХ имеет вид:

Таблица

Сxi

Сx1

Сx2

Сxn

pi

p1

p2

pn

Тогда М(СХ) = Сх1р1 + Сх2р2 + … + Схпрп = С( х1р1 + х2р2 + … + хпрп) = СМ(Х).

Две случайные величины называются независимыми, если закон распределения одной из них не зависит от того, какие значения приняла другая. В противном случае случайные величины зависимы.

Назовем произведением независимых случайных величин Х и Yслучайную величину XY, возможные значения которой равны произведениям всех возможных значений Х на все возможные значения Y, а соответствующие им вероятности равны произведениям вероятностей сомножителей.

3) Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий:

M(XY) = M(X)M(Y). (7.4)

Доказательство. Для упрощения вычислений ограничимся случаем, когда Х и Y принимают только по два возможных значения:

Таблица

xi

x1

x2

pi

p1

p2

Таблица

уi

у1

у2

gi

g1

g2

Тогда ряд распределения для XY выглядит так:

Таблица

ХY

x1y1

x2y1

x1y2

x2y2

p

p1g1

p2 g1

p1g2

p2g2

Следовательно, M(XY) = x1y1?p1g1 + x2y1?p2g1 + x1y2?p1g2 + x2y2?p2g2 = y1g1(x1p1 + x2p2) + +y2g2(x1p1 + x2p2) = (y1g1 + y2g2) (x1p1 + x2p2) = M(X)?M(Y).

Замечание 1. Аналогично можно доказать это свойство для большего количества возможных значений сомножителей.

Замечание 2. Свойство 3 справедливо для произведения любого числа независимых случайных величин, что доказывается методом математической индукции.

Определим сумму случайных величин Х и Y как случайную величину Х +Y, возможные значения которой равны суммам каждого возможного значения Х с каждым возможным значением Y; вероятности таких сумм равны произведениям вероятностей слагаемых (для зависимых случайных величин - произведениям вероятности одного слагаемого на условную вероятность второго).

4) Математическое ожидание суммы двух случайных величин ( зависимых или независимых ) равно сумме математических ожиданий слагаемых:

M (X + Y) = M (X) + M (Y). (7.5)

Доказательство

Вновь рассмотрим случайные величины, заданные рядами распределения, приведенными при доказательстве свойства 3. Тогда возможными значениями X + Y являются х1 + у1, х1 + у22 + у1, х2 + у2. Обозначим их вероятности соответственно как р11, р12, р21 и р22. Найдем М( Х +Y) = (x1 + y1)p11 + (x1 + y2)p12 + (x2 + y1)p21 + (x2 + y2)p22 =

= x1(p11 + p12) + x2(p21 + p22) + y1(p11 + p21) + y2(p12 + p22).

Докажем, что р11 + р22 = р1. Действительно, событие, состоящее в том, что X + Y примет значения х1 + у1 или х1 + у2 и вероятность которого равна р11 + р22, совпадает с событием, заключающемся в том, что Х = х1 (его вероятность - р1). Аналогично доказывается, что p21 + p22= р2, p11 + p21 = g1, p12 + p22 = g2. Значит,

M(X + Y) = x1p1 + x2p2 + y1g1 + y2g2 = M (X) + M (Y).

Замечание. Из свойства 4 следует, что сумма любого числа случайных величин равна сумме математических ожиданий слагаемых.

Пример. Найти математическое ожидание суммы числа очков, выпавших при броске пяти игральных костей.

Найдем математическое ожидание числа очков, выпавших при броске одной кости:

М(Х1) = (1 + 2 + 3 + 4 + 5 + 6) Тому же числу равно математическое ожидание числа очков, выпавших на любой кости. Следовательно, по свойству 4 М(Х)=

Дисперсия

Для того, чтобы иметь представление о поведении случайной величины, недостаточно знать только ее математическое ожидание. Рассмотрим две случайные величины: Х и Y, заданные рядами распределения вида

Таблица

Х

49

50

51

р

0,1

0,8

0,1

Y

0

100

p

0,5

0,5

Найдем М(Х) = 49?0,1 + 50?0,8 + 51?0,1 = 50, М(Y) = 0?0,5 + 100?0,5 = 50. Как видно, математические ожидания обеих величин равны, но если для Х М(Х) хорошо описывает поведение случайной величины, являясь ее наиболее вероятным возможным значением (причем остальные значения ненамного отличаются от 50), то значения Y существенно отстоят от М(Y). Следовательно, наряду с математическим ожиданием желательно знать, насколько значения случайной величины отклоняются от него. Для характеристики этого показателя служит дисперсия.

Определение 7.5. Дисперсией (рассеянием) случайной величины называется математическое ожидание квадрата ее отклонения от ее математического ожидания:

D(X) = M (X - M(X))?. (7.6)

Пример

Найдем дисперсию случайной величины Х (числа стандартных деталей среди отобранных) в примере 1 данной лекции. Вычислим значения квадрата отклонения каждого возможного значения от математического ожидания:

(1 - 2,4)2 = 1,96; (2 - 2,4)2 = 0,16; (3 - 2,4)2 = 0,36. Следовательно,

Замечание 1. В определении дисперсии оценивается не само отклонение от среднего, а его квадрат. Это сделано для того, чтобы отклонения разных знаков не компенсировали друг друга.

Замечание 2. Из определения дисперсии следует, что эта величина принимает только неотрицательные значения.

Замечание 3. Существует более удобная для расчетов формула для вычисления дисперсии, справедливость которой доказывается в следующей теореме:

Теорема 7.1. D(X) = M(X ?) - M ?(X). (7.7)

Доказательство

Используя то, что М(Х) - постоянная величина, и свойства математического ожидания, преобразуем формулу (7.6) к виду:

D(X) = M(X - M(X))? = M(X? - 2X?M(X) + M?(X)) = M(X?) - 2M(X)?M(X) + M?(X) =

= M(X?) - 2M?(X) + M?(X) = M(X?) - M?(X), что и требовалось доказать.

Пример. Вычислим дисперсии случайных величин Х и Y, рассмотренных в начале этого раздела. М(Х) = (492?0,1 + 502?0,8 + 512?0,1) - 502 = 2500,2 - 2500 = 0,2.

М(Y) = (02?0,5 + 100??0,5) - 50? = 5000 - 2500 = 2500. Итак, дисперсия второй случайной величины в несколько тысяч раз больше дисперсии первой. Таким образом, даже не зная законов распределения этих величин, по известным значениям дисперсии мы можем утверждать, что Х мало отклоняется от своего математического ожидания, в то время как для Y это отклонение весьма существенно.

Свойства дисперсии.

1) Дисперсия постоянной величины С равна нулю:

D (C) = 0. (7.8)

Доказательство. D(C) = M((C - M(C))?) = M((C - C)?) = M(0) = 0.

2) Постоянный множитель можно выносить за знак дисперсии, возведя его в квадрат:

D(CX) = C?D(X). (7.9)

Доказательство. D(CX) = M((CX - M(CX))?) = M((CX - CM(X))?) = M(C?(X - M(X))?) = C?D(X).

3) Дисперсия суммы двух независимых случайных величин равна сумме их дисперсий:

D(X + Y) = D(X) + D(Y). (7.10)

Доказательство. D(X + Y) = M(X? + 2XY + Y?) - (M(X) + M(Y))? = M(X?) + 2M(X)M(Y) +

+ M(Y?) - M?(X) - 2M(X)M(Y) - M?(Y) = (M(X?) - M?(X)) + (M(Y?) - M?(Y)) = D(X) + D(Y).

Следствие 1. Дисперсия суммы нескольких взаимно независимых случайных величин равна сумме их дисперсий.

Следствие 2. Дисперсия суммы постоянной и случайной величин равна дисперсии случайной величины.

4) Дисперсия разности двух независимых случайных величин равна сумме их дисперсий:

D(X - Y) = D(X) + D(Y). (7.11)

Доказательство. D(X - Y) = D(X) + D(-Y) = D(X) + (-1)?D(Y) = D(X) + D(X).

Дисперсия дает среднее значение квадрата отклонения случайной величины от среднего; для оценки самого отклонения служит величина, называемая средним квадратическим отклонением.

Определение 7.6. Средним квадратическим отклонением у случайной величины Х называется квадратный корень из дисперсии:

Пример. В предыдущем примере средние квадратические отклонения Х и Y равны соответственно

Числовые характеристики непрерывных случайных величин

Распространим определения числовых характеристик случайных величин на непрерывные случайные величины, для которых плотность распределения служит в некотором роде аналогом понятия вероятности.

Определение 7.7. Математическим ожиданием непрерывной случайной величины называется

(7.13)

Замечание 1. Общее определение дисперсии сохраняется для непрерывной случайной величины таким же, как и для дискретной (опр. 7.5), а формула для ее вычисления имеет вид:

(7.14)

Среднее квадратическое отклонение вычисляется по формуле (7.12).

Замечание 2. Если все возможные значения непрерывной случайной величины не выходят за пределы интервала [a, b], то интегралы в формулах (7.13) и (7.14) вычисляются в этих пределах.

Пример. Плотность распределения случайной величины Х имеет вид:

Найти М(Х), D(X), у.

Решение.

Показательный закон распределения и его свойства

Показательное распределение.

Показательным (экспоненциальным) называют распределение вероятностей непрерывной случайной величины Х, которое описывается плотностью

(6.5)

В отличие от нормального распределения, показательный закон определяется только одним параметром л. В этом его преимущество, так как обычно параметры распределения заранее не известны и их приходится оценивать приближенно. Понятно, что оценить один параметр проще, чем несколько.

Найдем функцию распределения показательного закона:

Следовательно,

(6.6)

Теперь можно найти вероятность попадания показательно распределенной случайной величины в интервал (а, b):

. (6.7)

Значения функции е можно найти из таблиц.

Функция надежности.

Пусть элемент (то есть некоторое устройство) начинает работать в момент времени t0 = 0 и должен проработать в течение периода времени t. Обозначим за Т непрерывную случайную величину - время безотказной работы элемента, тогда функция F(t) = p(T > t) определяет вероятность отказа за время t. Следовательно, вероятность безотказной работы за это же время равна

R(t) = p(T > t) = 1 - F(t). (6.8)

Эта функция называется функцией надежности.

Показательный закон надежности.

Часто длительность безотказной работы элемента имеет показательное распределение, то есть

F(t) = 1 - e-лt .

Следовательно, функция надежности в этом случае имеет вид:

R(t) = 1 - F(t) = 1 - (1 - e-лt) = e-лt .

Определение 6.4. Показательным законом надежности называют функцию надежности, определяемую равенством

R(t) = e-лt , (6.9)

где л - интенсивность отказов.

Пример. Пусть время безотказной работы элемента распределено по показательному закону с плотностью распределения f(t) = 0,1 e-0,1t при t ? 0. Найти вероятность того, что элемент проработает безотказно в течение 10 часов.

Решение. Так как л = 0,1, R(10) = e-0,1?10 = e-1 = 0,368.

Формула Байеса (теорема гипотез)

Пример. Имеются три одинаковые урны с шарами. В первой из них 3 белых и 4 черных шара, во второй - 2 белых и 5 черных, в третьей - 10 черных шаров. Из случайно выбранной урны наудачу вынут шар.

Пусть известен результат опыта, а именно то, что произошло событие А. Этот факт может изменить априорные (то есть известные до опыта) вероятности гипотез. Например, в предыдущем примере извлечение из урны белого шара говорит о том, что этой урной не могла быть третья, в которой нет белых шаров, то есть р (Н3/А) = 0. Для переоценки вероятностей гипотез при известном результате опыта используется формула Байеса:

(3.2)

Действительно, из (2.7) получим, что откуда следует справедливость формулы (3.2).

Пример. После двух выстрелов двух стрелков, вероятности попаданий которых равны 0,6 и 0,7, в мишени оказалась одна пробоина. Найти вероятность того, что попал первый стрелок.

Решение. Пусть событие А - одно попадание при двух выстрелах, а гипотезы: Н1 - первый попал, а второй промахнулся, Н2 - первый промахнулся, а второй попал, Н3 - оба попали, Н4 - оба промахнулись. Вероятности гипотез: р(Н1) = 0,6?0,3 = 0,18, р(Н2) = 0,4?0,7 = 0,28, р(Н3) = 0,6?0,7 = 0,42, р(Н4) = 0,4?0,3 = 0,12. Тогда р(А/Н1) = р(А/Н2) = 1, р(А/Н3) = р(А/Н4) = 0. Следовательно, полная вероятность р(А) = 0,18?1 + 0,28?1 + 0,42?0 + 0,12?0 = 0,46. Применяя формулу Байеса, получим:

Математическое ожидание и его свойства

Определение 7.1. Математическим ожиданием дискретной случайной величины называется сумма произведений ее возможных значений на соответствующие им вероятности:

М(Х) = х1р1 + х2р2 + … + хпрп . (7.1)

Если число возможных значений случайной величины бесконечно, то , если полученный ряд сходится абсолютно.

Замечание 1. Математическое ожидание называют иногда взвешенным средним, так как оно приближенно равно среднему арифметическому наблюдаемых значений случайной величины при большом числе опытов.

Замечание 2. Из определения математического ожидания следует, что его значение не меньше наименьшего возможного значения случайной величины и не больше наибольшего.

Замечание 3. Математическое ожидание дискретной случайной величины есть неслучайная (постоянная) величина. В дальнейшем увидим, что это же справедливо и для непрерывных случайных величин.

Пример 1. Найдем математическое ожидание случайной величины Х - числа стандартных деталей среди трех, отобранных из партии в 10 деталей, среди которых 2 бракованных. Составим ряд распределения для Х. Из условия задачи следует, что Х может принимать значения 1, 2, 3.

Тогда

Пример 2. Определим математическое ожидание случайной величины Х - числа бросков монеты до первого появления герба. Эта величина может принимать бесконечное число значений (множество возможных значений есть множество натуральных чисел). Ряд ее распределения имеет вид:

Таблица

Х

1

2

п

р

0,5

(0,5)2

(0,5)п

Тогда

..+

+ (при вычислении дважды использовалась формула суммы бесконечно убывающей геометрической прогрессии: , откуда ).

Свойства математического ожидания.

1) Математическое ожидание постоянной равно самой постоянной:

М(С) = С. (7.2)

Доказательство. Если рассматривать С как дискретную случайную величину, принимающую только одно значение С с вероятностью р = 1, то М(С) = С?1 = С.

2) Постоянный множитель можно выносит за знак математического ожидания:

М(СХ) = С М(Х). (7.3)

Доказательство. Если случайная величина Х задана рядом распределения

Таблица

xi

x1

x2

xn

pi

p1

p2

pn

то ряд распределения для СХ имеет вид:

Таблица

Сxi

Сx1

Сx2

Сxn

pi

p1

p2

pn

Тогда М(СХ) = Сх1р1 + Сх2р2 + … + Схпрп = С( х1р1 + х2р2 + … + хпрп) = СМ(Х).

Две случайные величины называются независимыми, если закон распределения одной из них не зависит от того, какие значения приняла другая. В противном случае случайные величины зависимы.

Назовем произведением независимых случайных величин Х и Yслучайную величину XY, возможные значения которой равны произведениям всех возможных значений Х на все возможные значения Y, а соответствующие им вероятности равны произведениям вероятностей сомножителей.

3) Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий:

M(XY) = M(X)M(Y). (7.4)

Доказательство. Для упрощения вычислений ограничимся случаем, когда Х и Y принимают только по два возможных значения:

Таблица

xi

x1

x2

pi

p1

p2

Таблица

уi

у1

у2

gi

g1

g2

Тогда ряд распределения для XY выглядит так:

Таблица

ХY

x1y1

x2y1

x1y2

x2y2

p

p1g1

p2 g1

p1g2

p2g2

Следовательно, M(XY) = x1y1?p1g1 + x2y1?p2g1 + x1y2?p1g2 + x2y2?p2g2 = y1g1(x1p1 + x2p2) + +y2g2(x1p1 + x2p2) = (y1g1 + y2g2) (x1p1 + x2p2) = M(X)?M(Y).

Замечание 1. Аналогично можно доказать это свойство для большего количества возможных значений сомножителей.

Замечание 2. Свойство 3 справедливо для произведения любого числа независимых случайных величин, что доказывается методом математической индукции.

Определим сумму случайных величин Х и Y как случайную величину Х +Y, возможные значения которой равны суммам каждого возможного значения Х с каждым возможным значением Y; вероятности таких сумм равны произведениям вероятностей слагаемых (для зависимых случайных величин - произведениям вероятности одного слагаемого на условную вероятность второго).

4) Математическое ожидание суммы двух случайных величин ( зависимых или независимых ) равно сумме математических ожиданий слагаемых:

M (X + Y) = M (X) + M (Y). (7.5)

Доказательство

Вновь рассмотрим случайные величины, заданные рядами распределения, приведенными при доказательстве свойства 3. Тогда возможными значениями X + Y являются х1 + у1, х1 + у22 + у1, х2 + у2. Обозначим их вероятности соответственно как р11, р12, р21 и р22. Найдем М( Х +Y) = (x1 + y1)p11 + (x1 + y2)p12 + (x2 + y1)p21 + (x2 + y2)p22 =

= x1(p11 + p12) + x2(p21 + p22) + y1(p11 + p21) + y2(p12 + p22).

Докажем, что р11 + р22 = р1. Действительно, событие, состоящее в том, что X + Y примет значения х1 + у1 или х1 + у2 и вероятность которого равна р11 + р22, совпадает с событием, заключающемся в том, что Х = х1 (его вероятность - р1). Аналогично доказывается, что p21 + p22= р2, p11 + p21 = g1, p12 + p22 = g2. Значит,

M(X + Y) = x1p1 + x2p2 + y1g1 + y2g2 = M (X) + M (Y).

Замечание. Из свойства 4 следует, что сумма любого числа случайных величин равна сумме математических ожиданий слагаемых.

Пример. Найти математическое ожидание суммы числа очков, выпавших при броске пяти игральных костей.

Найдем математическое ожидание числа очков, выпавших при броске одной кости:

М(Х1) = (1 + 2 + 3 + 4 + 5 + 6) Тому же числу равно математическое ожидание числа очков, выпавших на любой кости. Следовательно, по свойству 4 М(Х)=

Условный закон распределения двумерной случайной величины

Двумерная случайная величина

Пусть на вероятностном пространстве заданы две случайные величины: . Каждому элементарному событию ставится в соответствие упорядоченная пара значений случайных величин .

Упорядоченную пару двух одномерных случайных величин называют двумерной случайной величиной.

Двумерную случайную величину называют также случайным двумерным вектором, случайной двумерной точкой, системой двух случайных величин. Одномерные случайные величины называются компонентами двумерной случайной величины .

Функцией распределения двумерной случайной величины называется вероятность произведения событий и , определенная для любых вещественных : . (1)

Функция для краткости называется двумерной функцией распределения. Геометрический смысл равенства (1): функция есть вероятность того, что случайная точка попадет в бесконечный квадрат с вершиной в точке ; точка будет левее и ниже этой вершины.

Определение. Распределение одной случайной величины, входящей в систему, найденное при условии, что другая случайная величина приняла определенное значение, называется условным законом распределения. Условный закон распределения можно задавать как функцией распределения так и плотностью распределения. Условная плотность распределения вычисляется по формулам:

Условная плотность распределения обладает всеми свойствами плотности распределения одной случайной величины.

Условное математическое ожидание.

Определение. Условным математическим ожиданием дискретной случайной величины Y при X = x (х - определенное возможное значение Х) называется произведение всех возможных значений Y на их условные вероятности. Для непрерывных случайных величин: , где f(y/x) - условная плотность случайной величины Y при X=x. Условное математическое ожидание M(Y/x)=f(x) является функцией от х и называется функцией регрессии Х на Y. Пример. Найти условное математическое ожидание составляющей Y при X= x1=1 для дискретной двумерной случайной величины, заданной таблицей:

Таблица

Y

X

x1=1

x2=3

x3=4

x4=8

y1=3

0,15

0,06

0,25

0,04

y2=6

0,30

0,10

0,03

0,07

Аналогично определяются условная дисперсия и условные моменты системы случайных величин.

Теорема умножения независимых событий

Пример 1. Два стрелка делают по одному выстрелу по мишени. Событие А - попадание первого стрелка, а событие В - второго

Определение 1.2. Произведением АВ событий А и В называется событие, состоящее в том, что произошло и событие А, и событие В. Аналогично произведением нескольких событий называется событие, заключающееся в том, что произошли все эти события.

Пример 3. В примере два выстрела по мишени событием АВ будет попадание обоих стрелков.

Пример 4. Если событие А состоит в том, что из колоды карт извлечена карта пиковой масти, а событие В - в том, что из колоды вынута дама, то событием АВ будет извлечение из колоды дамы пик.

P(AB)=P(A)*P(B)

Неравенство Чебышева

Неравенство Чебышева, используемое для доказательства дальнейших теорем, справедливо как для непрерывных, так и для дискретных случайных величин. Докажем его для дискретных случайных величин.

Теорема 13.1(неравенство Чебышева). p( | X - M(X)| < е ) ? D(X) / е?. (13.1)

Доказательство. Пусть Х задается рядом распределения

Таблица

Х

х1

х2

хп

р

р1

р2

рп

Так как события |X - M(X)| < е и |X - M(X)| ? е противоположны, то р ( |X - M(X)| < е ) + + р ( |X - M(X)| ? е ) = 1, следовательно, р ( |X - M(X)| < е ) = 1 - р ( |X - M(X)| ? е ). Найдем р ( |X - M(X)| ? е ).

D(X) = (x1 - M(X))?p1 + (x2 - M(X))?p2 + … + (xn - M(X))?pn . Исключим из этой суммы те слагаемые, для которых |X - M(X)| < е. При этом сумма может только уменьшиться, так как все входящие в нее слагаемые неотрицательны. Для определенности будем считать, что отброшены первые kслагаемых. Тогда

D(X) ? (xk+1 - M(X))?pk+1 + (xk+2 - M(X))?pk+2 + … + (xn - M(X))?pn ? е? (pk+1 + pk+2 + … + pn).

Отметим, что pk+1 + pk+2 + … + pn есть вероятность того, что |X - M(X)| ? е, так как это сумма вероятностей всех возможных значений Х, для которых это неравенство справедливо. Следовательно, D(X) ? е? р(|X - M(X)| ? е), или р (|X - M(X)| ? е) ? D(X) / е?. Тогда вероятность противоположного события p( | X - M(X)| < е ) ? D(X) / е?, что и требовалось доказать.

Теорема Чебышева

Теорема 13.2 (теорема Чебышева). Если Х1, Х2,…, Хп - попарно независимые случайные величины, дисперсии которых равномерно ограничены ( D(Xi) ? C), то для сколь угодно малого числа е вероятность неравенства

будет сколь угодно близка к 1, если число случайных величин достаточно велико.

Замечание. Иначе говоря, при выполнении этих условий

Доказательство. Рассмотрим новую случайную величину и найдем ее математическое ожидание. Используя свойства математического ожидания, получим, что . Применим к неравенство Чебышева:

Так как рассматриваемые случайные величины независимы, то, учитывая условие теоремы, имеем:

Используя этот результат, представим предыдущее неравенство в виде:

Перейдем к пределу при :

Поскольку вероятность не может быть больше 1, можно утверждать, что

Теорема доказана

Следствие.

Если Х1, Х2, …, Хп - попарно независимые случайные величины с равномерно ограниченными дисперсиями, имеющие одинаковое математическое ожидание, равное а, то для любого сколь угодно малого е > 0 вероятность неравенства будет как угодно близка к 1, если число случайных величин достаточно велико. Иначе говоря, .

Вывод: среднее арифметическое достаточно большого числа случайных величин принимает значения, близкие к сумме их математических ожиданий, то есть утрачивает характер случайной величины. Например, если проводится серия измерений какой-либо физической величины, причем: а) результат каждого измерения не зависит от результатов остальных, то есть все результаты представляют собой попарно независимые случайные величины; б) измерения производятся без систематических ошибок (их математические ожидания равны между собой и равны истинному значению а измеряемой величины); в) обеспечена определенная точность измерений, следовательно, дисперсии рассматриваемых случайных величин равномерно ограничены; то при достаточно большом числе измерений их среднее арифметическое окажется сколь угодно близким к истинному значению измеряемой величины.

Классификация событий

В различных разделах науки и техники нередко возникают ситуации, когда результат каждого из многих проводимых опытов заранее предугадать невозможно, однако можно исследовать закономерности, возникающие при проведении серии опытов. Нельзя, например, точно сказать, какая сторона монеты окажется сверху при данном броске: герб или цифра - но при большом количестве бросков число выпадений герба приближается к половине количества бросков; нельзя заранее предсказать результат одного выстрела из данного орудия по данной цели, но при большом числе выстрелов частота попадания приближается к некоторому постоянному числу. Исследование вероятностных закономерностей массовых однородных явлений составляет предмет теории вероятностей. Основным интуитивным понятием классической теории вероятностей является случайное событие. События, которые могут произойти в результате опыта, можно подразделить на три вида:

а) достоверное событие - событие, которое всегда происходит при проведении опыта;

б) невозможное событие - событие, которое в результате опыта произойти не может;

в) случайное событие - событие, которое может либо произойти, либо не произойти. Например, при броске игральной кости достоверным событием является выпадение числа очков, не превышающего 6, невозможным - выпадение 10 очков, а случайным - выпадение 3 очков.

Совместные события - когда наступление одного из них не исключает появление другого.

Несовместные события - наступление одного полностью исключает появление другого.

Единственно возможные события - если в результате испытания хотя бы одно из них обязательно произойдёт.

Равновозможные события - если ни одно из них не имеет большую вероятность наступления, чем другое.

Противоположные события - одно из событий обязательно должно произойти, при этом исключается наступление другого.

Полная группа событий - совокупность всех единственно возможных и несовместных событий.

Нормальный закон распределения и его свойства

Непрерывная случайная величина называется распределенной по нормальному закону, если ее плотность распределения имеет вид:

(6.1)

Замечание. Таким образом, нормальное распределение определяется двумя параметрами: аи у.

График плотности нормального распределения называют нормальной кривой (кривой Гаусса). Выясним, какой вид имеет эта кривая, для чего исследуем функцию (6.1).

1) Область определения этой функции: (-?, +?).

2) f(x) > 0 при любом х (следовательно, весь график расположен выше оси Ох).

3) то есть ось Ох служит горизонтальной асимптотой графика при

4) при х = а; при x > a, ...


Подобные документы

  • Теория вероятности, понятие вероятности события и её классификация. Понятие комбинаторики и её основные правила. Теоремы умножения вероятностей. Понятие и виды случайных величин. Задачи математической статистики. Расчёт коэффициента корреляции.

    шпаргалка [945,2 K], добавлен 18.06.2012

  • Классификация случайных событий. Функция распределения. Числовые характеристики дискретных случайных величин. Закон равномерного распределения вероятностей. Распределение Стьюдента. Задачи математической статистики. Оценки параметров совокупности.

    лекция [387,7 K], добавлен 12.12.2011

  • Сходимость последовательностей случайных величин. Центральная предельная теорема для независимых одинаково распределенных случайных величин. Основные задачи математической статистики, их характеристика. Проверка гипотез по критерию однородности Смирнова.

    курсовая работа [1,6 M], добавлен 13.11.2012

  • Общая характеристика сходимости последовательностей случайных величин и вероятностных распределений. Значение метода характеристических функций в теории вероятностей. Методика решения задач о типах сходимости. Анализ теоремы Ляпунова и Линдеберга.

    курсовая работа [2,6 M], добавлен 22.07.2011

  • Пространство элементарных событий. Понятие совместных и несовместных событий и их вероятностей. Плотность распределения вероятностей системы двух случайных величин. Числовые характеристики системы. Закон генеральной совокупности и его параметры.

    контрольная работа [98,1 K], добавлен 15.06.2012

  • Основные понятия, которые касаются центральной предельной теоремы для независимых одинаково распределенных случайных величин и проверки статистических гипотез. Анализ сходимости последовательностей случайных величин и вероятностных распределений.

    курсовая работа [582,0 K], добавлен 13.11.2012

  • Статистическое, аксиоматическое и классическое определение вероятности. Дискретные случайные величины. Предельные теоремы Лапласа и Пуассона. Функция распределения вероятностей для многомерных случайных величин. Формула Байеса. Точечная оценка дисперсии.

    шпаргалка [328,7 K], добавлен 04.05.2015

  • Вероятность события. Теоремы сложения и умножения событий. Теорема полной вероятности события. Повторные независимые испытания. Формула Бернулли, формула Пуассона, формула Муавра-Лапласа. Закон распределения вероятностей случайных дискретных величин.

    контрольная работа [55,2 K], добавлен 19.12.2013

  • Определение числа исходов, благоприятствующих данному событию. Теорема умножения вероятностей и сложения несовместных событий, локальная теорема Лапласа. Расчет среднеквадратического отклонения величин. Несмещенная оценка генеральной средней и дисперсии.

    контрольная работа [91,0 K], добавлен 31.01.2011

  • Сходимость последовательностей случайных величин и вероятностных распределений. Метод характеристических функций. Проверка статистических гипотез и выполнение центральной предельной теоремы для заданных последовательностей независимых случайных величин.

    курсовая работа [364,8 K], добавлен 13.11.2012

  • Основные методы формализованного описания и анализа случайных явлений, обработки и анализа результатов физических и численных экспериментов теории вероятности. Основные понятия и аксиомы теории вероятности. Базовые понятия математической статистики.

    курс лекций [1,1 M], добавлен 08.04.2011

  • Предмет и метод математической статистики. Распределение непрерывной случайной величины с точки зрения теории вероятности на примере логарифмически-нормального распределения. Расчет корреляции величин и нахождение линейной зависимости случайных величин.

    курсовая работа [988,5 K], добавлен 19.01.2011

  • Изучение закономерностей массовых случайных явлений. Степень взаимосвязи теории вероятностей и статистики. Невозможные, возможные и достоверные события. Статистическое, классическое, геометрическое, аксиоматическое определение вероятности. Формула Бейеса.

    реферат [114,7 K], добавлен 08.05.2011

  • Вероятность и ее общее определение. Теоремы сложения и умножения вероятностей. Дискретные случайные величины и их числовые характеристики. Закон больших чисел. Статистическое распределение выборки. Элементы корреляционного и регрессионного анализа.

    курс лекций [759,3 K], добавлен 13.06.2015

  • Примеры пространства элементарных событий. Вероятность появления одного из двух несовместных событий. Функция распределения F(x,y) системы случайных величин. Расчет математического ожидания и дисперсии. Закон генеральной совокупности и его параметры.

    контрольная работа [178,1 K], добавлен 15.06.2012

  • Пространство элементарных событий, математическое ожидание. Функции распределения и плотности распределения составляющих системы случайных величин. Числовые характеристики системы. Условия нормировки плотности системы случайных непрерывных величин.

    практическая работа [103,1 K], добавлен 15.06.2012

  • Бесконечное число возможных значений непрерывных случайных величин. Рассмотрение непрерывной случайной величины Х с функцией распределения F(x). Кривая, изображающая плотность вероятности. Определение вероятности попадания на участок a до b через f(x).

    презентация [64,0 K], добавлен 01.11.2013

  • Показатели безотказности как показатели надежности невосстанавливаемых объектов. Классическое и геометрическое определение вероятности. Частота случайного события и "статистическое определение" вероятности. Теоремы сложения и умножения вероятностей.

    курсовая работа [328,1 K], добавлен 18.11.2011

  • История и основные этапы становления и развития основ теории вероятности, ее яркие представители и их вклад в развитие данного научного направления. Классификация случайных событий, их разновидности и отличия. Формулы умножения и сложения вероятностей.

    контрольная работа [22,6 K], добавлен 20.12.2009

  • Понятия теории вероятностей и математической статистики, применение их на практике. Определение случайной величины. Виды и примеры случайных величин. Закон распределения дискретной случайной величины. Законы распределения непрерывной случайной величины.

    реферат [174,7 K], добавлен 25.10.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.