Пример расчета некоторых математических функций

Примеры конечных и бесконечных множеств с помощью перечисления или описания. Прямые произведения множеств, сочетаний, размещений, перестановок. Способы представления бинарных отношений. Анализ рефлексивных, симметричных, транзитивных бинарных отношений.

Рубрика Математика
Вид шпаргалка
Язык русский
Дата добавления 27.10.2013
Размер файла 4,6 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Определения:

· Под суммой нескольких событий понимается событие, состоящее в том, что хотя бы одно из суммируемых событий произойдет.

· Под произведением нескольких событий понимается событие, состоящее в совместном наступлении всех событий.

Теорема сложения вероятностей несовместных событий:

Следствия:

· Для полной системы событий

· Вероятность противоположного события: P()= 1-Р(А).

Теорема сложения вероятностей двух совместных событий:

P(A+B)=P(A)+P(B)-P(AB).

Теорема умножения вероятностей:

где события Аi () - могут быть, в общем случае, зависимыми; - условные вероятности событий.

Теорема умножения вероятностей независимых событий:

Полная вероятность события:

Если о событии A известно, что оно может появляться только вместе с одним из событий полной системы событий: то

- полная вероятность события А, формула полной вероятности;

- вероятность «гипотезы», формула Байеса.

39. Сформулировать понятие условной вероятности. Охарактеризовать свойство независимости случайных событий. Указать критерий независимости событий

Пусть функция f(x) определена на полуоси и интегрируема по любому отрезку [a,b], принадлежащему этой полуоси. Предел интеграла при называется несобственным интегралом функции f(x) от a до и обозначается . Итак, по определению, . Если этот предел существует и конечен, интеграл называется сходящимся; если предел не существует или бесконечен, интеграл называется расходящимся. Примеры: 1. ; этот предел не существует; следовательно, исследуемый интеграл расходится. 2.

;

следовательно, интеграл сходится и равен . Аналогично интегралу с бесконечным верхним пределом интегрирования определяется интеграл в пределах от до b : и в пределах от до : . В последнем случае f(x) определена на всей числовой оси, интегрируема по любому отрезку; c - произвольная (собственная) точка числовой оси; интеграл называется сходящимся, если существуют и конечны оба входящих в определение предела. Пользуясь свойством аддитивности определённого интеграла, можно показать, что существование конечных пределов и их сумма не зависят от выбора точки c. Примеры: 3.

.

Интеграл сходится. 4.

следовательно, интеграл сходится и равен . Очевидно следующее утверждение, которое мы сформулируем для интеграла с бесконечным верхним пределом: сходится тогда и только тогда, когда для любого c, удовлетворяющего неравенству c > a, сходится интеграл (док-во: так как при a < c < b по свойству аддитивности , и от b не зависит, то конечный предел при для интеграла в левой части существует тогда и только тогда, когда существует конечный предел для интеграла в правой части равенства).

40. Как вычисляется вероятность произведения А) Независимых в совокупности событий Б) Произвольных событий?

А) Событие называется независимым от события , если вероятность события не зависит от того, произошло событие или нет.

Событие называется зависимым от события , если вероятность события А меняется в зависимости от того, произошло событие или нет.

Рассмотрим примеры.

1) Опыт состоит в бросании двух монет; рассматриваются события:

- появление герба на первой монете,

- появление герба на второй монете.

В данном случае вероятность события не зависит от того, произошло событие или нет; событие независимо от события .

2) В урне два белых шара и один черный; два лица вынимают из урны по одному шару; рассматриваются события:

- появление белого шара у 1-го лица,

- появление белого шара у 2-го лица.

Вероятность события до того, как известно что-либо о событии , равна 2/3. Если стало известно, что событие произошло, то вероятность события становится равной Ѕ, из чего заключаем, что событие зависит от события .

Вероятность события , вычисленная при условии, что имело место другое событие , называется условной вероятностью события и обозначается

.

Для условий последнего примера

; .

Условие независимости события от события можно записать в виде:

,

а условие зависимости - в виде:

.

Перейдем к формулировке и доказательству теоремы умножения вероятностей.

Теорема умножения вероятностей формулируется следующим образом.

Вероятность произведения двух событий равна произведению вероятностей одного из них на условную вероятность другого, вычисленную при условии, что первое имело место:

. (3.3.1)

Докажем теорему умножения для схемы случаев. Пусть возможные исходы опыта сводятся к случаям, которые мы снова для наглядности изобразим в виде точек:

Предположим, что событию благоприятны случаев, а событию благоприятны случаев. Так как мы не предполагали события и несовместными, то вообще существуют случаи, благоприятные и событию, и событию одновременно. Пусть число таких случаев .

Тогда

.

Вычислим , т.е. условную вероятность события в предположении, что имело место. Если известно, что событие произошло, то из ранее возможных случаев остаются возможными только те , которые благоприятствовали событию . Из них случаев благоприятны событию . Следовательно,

.

Подставляя выражения и в формулу (3.3.1), получим тождество. Теорема доказана.

Очевидно, при применении теоремы умножения вполне безразлично, какое из событий и считать первым, а какое вторым, и теорему умножения можно записать в таком виде:

.

Отметим следствия, вытекающие из теоремы умножения.

Следствие 1. Если событие не зависит от события , то и событие не зависит от события .

Доказательство. Дано, что событие не зависит от , т.е.

. (3.3.2)

Требуется доказать, что и событие не зависит от , т.е.

.

При доказательстве будем предполагать, что .

Напишем теорему вероятности в двух формах:

,

,

откуда

или, согласно условию (3.3.2),

. (3.3.3)

Разделим обе части равенства (3.3.3) на . Получим:

,

что и требовалось доказать.

Из следствия 1 вытекает, что зависимость или независимость событий всегда взаимны. В связи с этим модно дать следующее новое определение независимых событий.

Два события называются независимыми, если появление одного из них не изменяет вероятности появления другого.

Понятие независимости событий может быть распространено на случай произвольного числа событий. Несколько событий называются независимыми, если любое из них не зависит от любой совокупности остальных.

Б)

Для произвольных событий A и B имеет место формула:

В случае n слагаемых (n>2) эта формула принимает вид:

Вероятность p(В|А) события В при условии наступления события А по определению равна:

Из этого определения следует формула для вычисления вероятности произведения двух событий:

Для вычисления вероятности произведения n событий (n>2) служит общая формула:

События называются независимыми в совокупности, если вероятность любого из них не меняется при наступлении какого угодно числа событий из остальных.

Правило умножения вероятностей для n событий: если события независимы, то вероятность их произведения равна произведению их вероятностей, т.е.

Вычисление вероятности суммы событий можно свести к вычислению вероятности произведения противоположных событий по формуле

В частности, если события независимы, то

41. Как вычисляется вероятность суммы А) несовместных событий Б) Произвольных событий

Вероятность суммы двух несовместимых событий равна сумме вероятностей этих событий:

. (3.2.1)

Докажем теорему сложения вероятностей для схемы случаев. Пусть возможные исходы опыта сводятся к совокупности случаев, которые мы для наглядности изобразим в виде n точек:

Предположим, что из этих случаев благоприятны событию, а - событию. Тогда

Так как события и несовместимы, то нет таких случаев, которые благоприятны и, и вместе. Следовательно, событию благоприятны случаев и

Подставляя полученные выражения в формулу (3.2.1), получим тождество. Теорема доказана.

Обобщим теорему сложения на случай трех событий. Обозначая событие буквой , и присоединяя к сумме еще одно событие , легко доказать, что

Очевидно, методом полной индукции можно обобщить теорему сложения на произвольное число несовместных событий. Действительно, предположим, что она справедлива для n событий:

и докажем, что она будет справедлива для событий:

Обозначим:

Имеем:

.

Но так как для n событий мы считаем теорему уже доказанной, то

,

откуда

,

что и требовалось доказать.

Таким образом, теорема сложения вероятностей применима к любому числу несовместных событий. Её удобнее записать в виде:

. (3.2.2)

Отметим следствия, вытекающие из теоремы сложения вероятностей

Б)

Теорема сложения произвольных событий. Вероятность суммы двух произвольных событий равна разности суммы и произведения вероятностей этих событий:

P(A + B) = P(A) + P(B) - P(AB).

Следствие. Вероятность суммы произвольных событий никогда не превосходит суммы вероятностей этих событий:

P(A1 + A2 +...+ An) ? P(A1) + P(A2) +...+P(An).

42. Дать определение полной группе событий и охарактеризовать формулу полной вероятности

Полной группой событий в теории вероятностей называется система случайных событий такая, что в результате произведенного случайного эксперимента непременно произойдет одно из них. Сумма вероятностей всех событий в группе всегда равна 1.

Определение. Пусть есть вероятностное пространство. Любое разбиение множества элементами сигма-алгебры называется полной группой событий.

Пример

Предположим, проводится подбрасывание монеты. В результате этого эксперимента обязательно произойдет одно из следующих событий:

· : монета упадет орлом;

· : монета упадет решкой;

· : монета упадет на ребро;

Таким образом, система является полной группой событий.

Формула полной вероятности. Пусть событие A может произойти только вместе с одним из попарно несовместных событий H1, H2, ..., Hn, образующих полную группу. Тогда, если произошло событие A, то это значит, что произошло одно из попарно несовместных событий H1A, H2A, ..., HnA. Следовательно,

Применяя аксиому сложения вероятностей, имеем

Но (i=1, 2, ..., n), поэтому

(11)

Эта формула называется формулой полной вероятности. События H1, H2, ..., Hn часто называют «гипотезами». Пример. В магазин поступили электрические лампочки одного типа, изготовленные на четырех ламповых заводах: с 1-го завода 250 шт., со 2-го -- 525 шт., с 3-го -- 275 шт. и с 4-го -- 950 шт. Вероятность того, что лампочка прогорит более 1500 часов, для 1-го завода равна 0,15, для 2-го -- 0,30, для 3-го -- 0,20, для 4-го -- 0,10. При раскладке по полкам магазина лампочки были перемешаны. Какова вероятность того, что купленная лампочка прогорит более 1500 часов? решение:

Далее, из условия задачи следует, что

Используя формулу полной вероятности (11), имеем

43. Охарактеризовать формулы Байеса и их применение для оценки вероятностей гипотез

Теорема Байеса (или формула Байеса) -- одна из основных теорем теории вероятностей, которая позволяет определить вероятность того, что произошло какое-либо событие(гипотеза) при наличии лишь косвенных тому подтверждений (данных), которые могут быть неточны. Названа в честь её автора, преп. Томаса Байеса (посвящённая ей работа «AnEssaytowardssolving a ProblemintheDoctrineofChances» впервые опубликована в 1763 году, через 2 года после смерти автора). Полученную по формуле вероятность можно далее уточнять, принимая во внимание данные новых наблюдений.

Психологические эксперименты[2] показали, что люди, при оценках вероятности, игнорируют различие априорных вероятностей (ошибка обоснования оценки (англ.)русск.), и потому результаты по формуле Байеса и правильные результаты могут сильно отличаться от ожидаемых.

Формула Байеса:

,

где

-- априорная вероятность гипотезы A (смысл такой терминологии см. ниже);

-- вероятность гипотезы A при наступлении события B (апостериорная вероятность);

-- вероятность наступления события B при истинности гипотезы A;

-- полная вероятность наступления события B.

«Физический смысл» и терминология

Формула Байеса позволяет «переставить причину и следствие»: по известному факту события вычислить вероятность того, что оно было вызвано данной причиной.

События, отражающие действие «причин», в данном случае обычно называют гипотезами, так как они -- предполагаемые события, повлекшие данное. Безусловную вероятность справедливости гипотезы называют априорной (насколько вероятна причина вообще), а условную -- с учетом факта произошедшего события -- апостериорной (насколько вероятна причина оказалась с учетом данных о событии).

Следствие

Формула Байеса является важным следствием из формулы полной вероятности события, зависящего от нескольких несовместных гипотез (и только от них!).

-- вероятность наступления события B, зависящего от ряда гипотез , если известны степени достоверности этих гипотез (например, измерены экспериментально);

Вывод формулы

Пример

Событие B -- в баке нет бензина, событие A -- машина не заводится. Заметим, что вероятность Р(А|В) того, что машина не заведется, если в баке нет бензина, равняется единице. Тем самым, вероятность Р(В) того, что в баке нет бензина, равна произведению вероятности Р(А) того, что машина не заводится, на вероятность P(B|A) того, что причиной события А стало именно отсутствие бензина (событие В), а не, к примеру, разряженный аккумулятор.

Пример расчёта

Пусть вероятность брака у первого рабочего , у второго рабочего -- , а у третьего -- . Первый изготовил деталей, второй -- деталей, а третий -- деталей. Начальник цеха берёт случайную деталь, и она оказывается бракованной. Спрашивается, с какой вероятностью эту деталь изготовил третий рабочий?

Cобытие -- брак детали, событие -- деталь произвёл рабочий . Тогда , где , а . По формуле полной вероятности

По формуле Байеса получим:

45. Дать определение случайной величины и ее функции распределения. Описать свойства функции распределения случайной величины

Часто в результате испытания происходят события, заключающиеся в том, что некоторая величина принимает одно из своих возможных значений. В таких случаях удобно вместо множества событий рассматривать одну переменную величину (называемую случайной величиной). Случайная величина обозначается через X, Y, Z, … и т.д. Случайной называется величина, которая в результате испытания может принять то или иное возможное значение, неизвестное заранее, но обязательно одно. Пример. В студенческой группе 25 человек. Пусть величина Х - число студентов, находящихся в аудитории перед началом занятий. Ее возможными значениями будут числа 0, 1, 2,…,25. При каждом испытании (начало занятий) величина Х обязательно примет одно из своих возможных значений, т.е. наступит одно из событий Х = 0, Х = 1, …, Х = 25. Пример. Однократное бросание игральной кости. Возможные события заключаются в том, что на верхней грани выпадает Z: 1, 2, 3, 4, 5, 6. Пример. Подбрасывается монета n раз. Возможные результаты: герб выпал 0, 1, 2, …, n раз. Различают дискретные и непрерывные случайные величины. Если множество возможных значений случайной величины конечно или образуют бесконечную числовую последовательность, то такая случайная величина называется дискретной (примеры 3.1, 3.3, 3.4). Случайная величина, множество значений которой заполняет сплошь некоторый числовой промежуток, называется непрерывной (пример 3.2). Заметим, что дискретные и непрерывные величины не исчерпывают все типы случайных величин. Если случайная величина не относится ни к дискретным, ни к непрерывным случайным величинам, то ее называют смешанной. Соответствие между всеми возможными значениями дискретной случайной величины и их вероятностями называется законом распределения данной случайной величины. Простейшая формой задания закона распределения дискретной случайной величины является таблица, в которой перечислены возможные значения случайной величины (обычно в порядке возрастания) и соответствующие им вероятности:

Х

х1

х2

хn

Р

р1

р2

рn

Такая таблица называется рядом распределения. Допустим, что число возможных значений случайной величины конечно: х1, х2, …, хn. При одном испытании случайная величина принимает одно и только одно постоянное значение. Поэтому события Х = хi (i = 1, 2, … , n) образуют полную группу попарно независимых событий. Следовательно, р1 + р2 + … + рn = 1. Можно закон распределения изобразить и графически, откладывая на оси абсцисс возможные значения случайной величины, а на оси ординат - соответствующие вероятности. Для большей выразительности полученные точки соединяются прямолинейными отрезками. Получающая при этом фигура называется многоугольником (полигоном) распределения.

Свойства функции распределения случайной величины.

Непрерывную случайную величину нельзя охарактеризовать перечнем всех возможных ее значений и их вероятностей. Естественно, встает вопрос о том, нельзя ли охарактеризовать случайную величину иным способом, одинаково годным как для дискретных, так и для непрерывных случайных величин. Функцией распределения случайной величины Х называют функцию F(x), определяющую для каждого значения х, вероятность того, что случайная величина Х примет значение меньше х, т.е. F(x) = P (X <x). Иногда функцию F(x) называют интегральной функцией распределения. Функция распределения обладает следующими свойствами: 1. Значение функции распределения принадлежит отрезку [0,1]: 0 ? F(x) ? 1. 2. Функции распределения есть неубывающая функция. 3. Вероятность того, что случайная величина Х примет значение, заключенное в интервале (а, b), равна приращению функции распределения на этом интервале: Р(а < X < b) = F(b) - F(а). (2.1) 4. Если все возможные значения случайной величины Х принадлежат интервалу (а, b), то F(x) = 0 при х ? а;?F(x) = 1 при х ? b. 5. Справедливы следующие предельные отношения: . Для дискретной случайной величины Х, которая может принимать значения х1, х2, …,хn, функция распределения имеет вид где неравенство под знаком суммы означает, что суммирование касается всех тех значений хi, величина которых меньше х. Поясним эту формулу исходя из определения функции F(x). Предположим, что аргумент х принял какое-то определенное, но такое, что выполняется неравенство xi<x?xi+1. Тогда левее числа х на числовой оси окажутся только те значения случайной величины, которые имеют индекс 1, 2, 3, …, i. Поэтому неравенство Х<x выполняется, если величина Х примет значения хк, где k = 1, 2, …, i. Таким образом, событие Х<x наступит, если наступит любое, неважно какое, из событий Х = х1, Х=х2, Х=х3, …, Х=хi. Так как эти события несовместны, то по теореме сложения вероятностей имеем . (2.2) Предположим теперь, что для непрерывной случайной величины Х ее функция распределения F(x) имеет непрерывную производную F'(x)= ц(x). Функцию ц(x) называют плотностью вероятности (для данного распределения) или дифференциальной функцией. Так как плотность вероятности ц(x) является производной неубывающей функции F(x), то она неотрицательна: ц(x)?0. В отличие от функции распределения, плотность вероятности может принимать сколь угодно большие значения. Так как F(x) является первообразной для ц(x), то на основании формулы Ньютона-Лейбница имеем . Отсюда в силу (3.1) получаем P(a ? X ? b) = . (2.3) Полагая а=-? и b=+?, получаем достоверное событие Х принадлежащее (-?, +?), вероятность которого равна единице. Следовательно, В частности, если все возможные значения случайной величины принадлежат интервалу (а, b), то . Полагая в формуле а = -?, b = х и обозначая для ясности переменную интегрирования t, получим функцию распределения F(x) = P(- ? < X < x) = . Задача 2.1. Найти интегральную функцию распределения случайной величины Х, заданной рядом распределения:

Х

1

2

3

Р

0,3

0,2

0,5

и построить ее график. Решение. Пусть х ? 1, тогда F(x) = 0, так как событие Х < х будет невозможным. Если 1 < х ? 2, то на основании равенства (3.2) имеем F(x) = p1 = 0,3. Если 2 < х ? 3, то F(x) = p1 + p2 = 0,5. Если х > 3, то F(x) = p1 + p2 + p3 = 1. Окончательно получаем График функции F(х) изображен на рис. 3.1.

Рис. 3.1 Задача 2.2. Функция распределения случайной величины

Х задана выражением Найти коэффициент б; вероятность попадания значения случайной величины Х в результате опыта в интервал (р/4; 3р/4); построить график функции. Решение . При х=3 р/4 функция F(x ) равна 1, т.е. б? sin (3р/4-р/4)+1/2=1, или б?si n(р/2) + 1/2 = 1. Откуда б = 1/2. Подставляя а = р/4 и b = 3р/4 в равенство (3.1), получаем р (р/4 <X<3р/4) = F(3р/4) - F(р/4) = 1/2 Ч sin(р/2)+1/2-1/2 Ч sin 0 - 1/2 = 1/2. График функции у =1/2•sin(х-р/4 )+1/2 отличается от графика функции у = sinх тем, что он «сжат» по оси Оу в два раза, сдвинут вправо на р/4, поднят вверх на 1/2. Воспользовавшись этим замечанием, отразим график F(x) (рис. 3.2).

Рис. 3.1 Задача 2.3. Средняя продолжительность срока реализации товара (в часах)

имеет следующую плотность распределения: ц(х)= Вычислить: а) вероятность того, что товар будет реализован позднее 150 часов; б) вероятность того, что товар будет реализован позднее 200 часов и в то же время не позднее 300 часов. Решение. а) Обозначим срок реализации товара через Х. Мы знаем, что Р(Х > 150) = 1 - Р(Х < 150) и что Р(Х < 150) = F (150). В то же время .Следовательно

Р(Х > 150) = 1 - . б) .

46.Охарактеризовать случайные величины дискретного(СВДТ) и непрерывного (СВДТ) типов

Случайные величины (с.в.) - численное значение появляющееся в результате опыта, и принимающее произвольное значение из заранее определенного множества.

Существует два типа случайных величин: дискретные и непрерывные.

Дискретные случайные величины принимают в результате испытания одно из изолированного дискретного множества значений. Они хорошо подходят для описания результатов измерений, связанных с подсчетом и выражаемых целыми числами.

Примеры дискретных случайных величин: оценка, полученная на экзамене, число попаданий в мишень в серии из 10 выстрелов и т. п.

Вероятность принятия дискретной случайной величиной каждого из возможных ее значений больше нуля. Эта вероятность может быть записана как , где i =... ?1, 0, 1 ...

Здесь X -- обозначение случайной величины; xi -- конкретные числовые значения, принимаемые дискретной случайной величиной; pi -- вероятности этих значений.

Индекс i может в общем случае пробегать значения от ? до .

Функция , связывающая значения дискретной случайной величины с их вероятностями, называется ее распределением (законом распределения). Обычно закон распределения записывается в виде таблицы вида

Х

x1

x2

xn

Р

p1

p2

pn

Пример Пусть Х - число очков выпавшее на игральной кости при одном броске.

Тогда, эта с.в. распределена по закону

Х

1

2

3

4

5

6

Р

1/6

1/6

1/6

1/6

1/6

1/6

Непрерывные случайные величины в результате испытания могут принимать любые значения из некоторого интервала.

Примеры непрерывных случайных величин: спортивный результат в беге или прыжках, рост и масса тела человека, сила мышц и др.

Поскольку число возможных значений непрерывной случайной величины бесконечно велико и чаще всего нет оснований предположить, что одни значения появляются существенно чаще других, то вероятность принятия непрерывной случайной величиной каждого отдельного значения оказывается равной нулю. По этой причине нельзя описать распределение непрерывной случайной величины в виде вероятностей ее отдельных значений, как в случае дискретных случайных величин.

47. Как осуществляется графическое представление СВДТ и СВНТ? Функция плотности распределения СВНТ и е свойства

График функция распределения представляет собой теоретический аналог полигона накопленных частот

Вид графика плотности распределения вероятностей

Плотность распределения вероятностей

Для непрерывных случайных величин вводится понятие плотность распределения вероятностей, или "плотность вероятностей”, играющее исключительно важную роль при их описании.

Плотность вероятностей -- это производная от функции распределения непрерывной случайной величины, т.е.

(4.14)

Более подробно при рассмотрении конкретных непрерывных распределений об этой функции рассказано в разделе 4.9. Типичный вид графика плотности вероятностей показан на рис. 4.9.

Вероятность попадания непрерывной случайной величины в интервал между значениями х1 и х2 пропорциональная площади под кривой плотности вероятностей, заключенной между точками х1 и х2. Эта вероятность математически записывается в виде интеграла от f(x) в пределах х1 и х2.

. (4.15)

Свойства :

1. ;

2. при ;

3. при ;

4. .

48. Основные числовые характеристики дискретных и непрерывных случайных величин: математическое ожидание, дисперсия и среднее квадратическое отклонение. Их свойства и примеры

Закон распределения (функция распределения и ряд распределения или плотность вероятности) полностью описывают поведение случайной величины. Но в ряде задач достаточно знать некоторые числовые характеристики исследуемой величины (например, ее среднее значение и возможное отклонение от него), чтобы ответить на поставленный вопрос. Рассмотрим основные числовые характеристики дискретных случайных величин

Математическое ожидание.

Определение 7.1. Математическим ожиданием дискретной случайной величины называется сумма произведений ее возможных значений на соответствующие им вероятности М(Х) = х1р1 + х2р2 + … + хпрп . Если число возможных значений случайной величины бесконечно, то если полученный ряд сходится абсолютно арифметическому наблюдаемых значений случайной величины при большом числе опытов

Свойства математического ожидания.

1) Математическое ожидание постоянной равно самой постоянной:

М(С) = С

2) Постоянный множитель можно выносит за знак математического ожидания:

М(СХ) = С М(Х). (7.3)

3) Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий:

M(XY) = M(X)M(Y). (7.4)

Дисперсия.

Определение 7.5. Дисперсией (рассеянием) случайной величины называется математическое ожидание квадрата ее отклонения от ее математического ожидания:

D(X) = M (X - M(X))І. (7.6)

Теорема 7.1. D(X) = M(X І) - M І(X). (7.7)

Свойства дисперсии.

1) Дисперсия постоянной величины С равна нулю:

D (C) = 0. (7.8)

Доказательство. D(C) = M((C - M(C))І) = M((C - C)І) = M(0) = 0.

2) Постоянный множитель можно выносить за знак дисперсии, возведя его в квадрат:

D(CX) = CІD(X). (7.9)

Доказательство. D(CX) = M((CX - M(CX))І) = M((CX - CM(X))І) = M(CІ(X - M(X))І) = CІD(X).

3) Дисперсия суммы двух независимых случайных величин равна сумме их дисперсий:

D(X + Y) = D(X) + D(Y). (7.10)

Дисперсия дает среднее значение квадрата отклонения случайной величины от среднего; для оценки самого отклонения служит величина, называемая средним квадратическим отклонением.

Определение 7.6. Средним квадратическим отклонением у случайной величины Х называется квадратный корень из дисперсии.

корреляция-- статистическая взаимосвязь двух или нескольких (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом изменения значений одной или нескольких из этих величин сопутствуют систематическому изменению значений другой или других величин.

Математической мерой корреляции двух случайных величин служит корреляционное отношение [, либо коэффициент корреляции (или ). В случае, если изменение одной случайной величины не ведёт к закономерному изменению другой случайной величины, но приводит к изменению другой статистической характеристики данной случайной величины, то подобная связь не считается корреляционной, хотя и является статистической.

Важной характеристикой совместного распределения двух случайных величин является ковариация (или корреляционный момент). Ковариация является совместным центральным моментом второго порядка. Ковариация определяется как математическое ожидание произведения отклонений случайных величин:

Свойства ковариации:

· Ковариация двух независимых случайных величин X и Y равна нулю.

· Абсолютная величина ковариации двух случайных величин и не превышает среднего геометрического их дисперсий:

· Ковариация имеет размерность, равную произведению размерности случайных величин, то есть величина ковариации зависит от единиц измерения независимых величин. Данная особенность ковариации затрудняет её использование в целях корреляционного анализа

Коэффициент корреляции рассчитывается по формуле:

где , -- среднее значение выборок.

Коэффициент корреляции изменяется в пределах отминус единицы до плюс единицы

Свойства коэффициента корреляции

1)неравенство Коши-Бунаковского:

если принять в качестве скалярного произведения двух случайных величин ковариацию , то норма случайной величины будет равна , и следствием неравенства Коши -- Буняковского будет:

.

2)Коэффициент корреляции равен тогда и только тогда, когда и линейно зависимы (исключая события нулевой вероятности, когда несколько точек «выбиваются» из прямой, отражающей линейную зависимость случайных величин):

,

где . Более того в этом случае знаки и совпадают:

.

3)Если независимые случайные величины, то . Обратное в общем случае неверно.

49. Условные распределения и условные математические ожидания двумерной СВДТ

Функции и линии регрессии вычисленное при условии, что другая СВ приняла определенное значение. Замечание. То есть МО найденное на основе условного закона распределения. Если СВ дискретные, то

Если СВ X и Y непрерывные, то

Опр M[Y?X=x]=?(x) называется регрессией Y на x.

M[X?Y=y]=ш(y) называется регрессией X на y.

Графики этих зависимостей от x и от y называются линиями регрессии или кривыми регрессии.

Замечание. Для независимых СВ линии регрессии Y на x и X на y параллельны координатным осям так как МО каждой из них не зависит от того, какое значение приняла другая.

Линии регрессии могут быть параллельны координатным осям и для зависимых СВ, когда МО каждой из них зависит от того, какое значение приняла другая.

Так как все моменты начальные и центральные любых порядков представляют собой МО, то можно говорить об условных моментах. Например об условных дисперсиях D[Y?X=x], D[X?Y=y],.

38.Двумерные нормальные распределения. Опр.Нормальным законом распределения на плоскости называется распределение вероятностей двумерной СВ (X, Y), если

Итак, нормальный закон на плоскости определяется 5-ю параметрами: mX; mY; уY; уY; сXY . Убедимся в том, что если компоненты X и Y не коррелированы, то они тогда и не зависимы. сXY=0

Функция ц(х)=М(Y/Х=х), описывающая изменение условного математического ожидания случайной переменной Y при изменении значений х переменной Х, называется функцией регрессии, а ее график - линией регрессии.

Условное математическое ожидание М(Y/х) является функцией от х, следовательно, его оценка, т.е. условное среднее `ух, также функция от х; обозначив эту функцию через ц*(х), получим уравнение `ух = ц*(х). Это уравнение называют выборочным уравнением регрессии; функцию ц*(х) называют выборочной регрессией, а ее график - выборочной линией регрессии.

50. Задачи математической статистики. Генеральная и выборочная совокупности. Вариационные ряды. Выборочные числовые характеристики: их свойства и вычисления

Разработка методов регистрации, описания и анализа статистических экспериментальных данных, получаемых в результате наблюдения массовых случайных явлений, составляет предмет специальной науки - математической статистики.

Все задачи математической статистики касаются вопросов обработки наблюдений над массовыми случайными явлениями, но в зависимости от характера решаемого практического вопроса и от объема имеющегося экспериментального материала эти задачи могут принимать ту или иную форму.

Охарактеризуем вкратце некоторые типичные задачи математической статистики, часто встречаемые на практике.

1. Задача определения закона распределения случайной величины (или системы случайных величин) по статистическим данным закономерности, наблюдаемые в массовых случайных явлениях, проявляются тем точнее и отчетливее, чем больше объем статистического материала. При обработке обширных по своему объему статистических данных часто возникает вопрос об определении законов распределения тех или иных случайных величин. Теоретически при достаточном количестве опытов свойственные этим случайным величинам закономерности будут осуществляться сколь угодно точно. На практике нам всегда приходится иметь дело с ограниченным количеством экспериментальных данных; в связи с этим результаты наших наблюдений и их обработки всегда содержат больший или меньший элемент случайности. Возникает вопрос о том, какие черты наблюдаемого явления относятся к постоянным, устойчивым и действительно присущи ему, а какие являются случайными и проявляются в данной серии наблюдений только за счет ограниченного объема экспериментальных данных. Естественно, к методике обработки экспериментальных данных следует предъявить такие требования, чтобы она, по возможности, сохраняла типичные, характерные черты наблюдаемого явления и отбрасывала все несущественное, второстепенное, связанное с недостаточным объемом опытного материала. В связи с этим возникает характерная для математической статистики задача сглаживания или выравнивания статистических данных, представления их в наиболее компактном виде с помощью простых аналитических зависимостей.

2. Задача проверки правдоподобия гипотез

Эта задача тесно связана с предыдущей; при решении такого рода задач мы обычно не располагаем настолько обширным статистическим материалом, чтобы выявляющиеся в нем статистические закономерности были в достаточной мере свободны от элементов случайности. Статистический материал может с большим или меньшим правдоподобием подтверждать или не подтверждать справедливость той или иной гипотезы. Например, может возникнуть такой вопрос: согласуются ли результаты эксперимента с гипотезой о том, что данная случайная величина подчинена закону распределения ? Другой подобный вопрос: указывает ли наблюденная в опыте тенденция к зависимости между двумя случайными величинами на наличие действительной объективной зависимости между ними или же она объясняется случайными причинами, связанными с недостаточным объемом наблюдений? Для решения подобных вопросов математическая статистика выработала ряд специальных приемов.

3. Задача нахождения неизвестных параметров распределения

Часто при обработке статистического материала вовсе не возникает вопрос об определении законов распределения исследуемых случайных величин. Обыкновенно это бывает связано с крайне недостаточным объемом экспериментального материала. Иногда же характер закона распределения качественно известен до опыта, из теоретических соображений; например, часто можно утверждать заранее, что случайная величина подчинена нормальному закону. Тогда возникает более узкая задача обработки наблюдений - определить только некоторые параметры (числовые характеристики) случайной величины или системы случайных величин. При небольшом числе опытов задача более или менее точного определения этих параметров е может быть решена; в этих случаях экспериментальный материал содержит в себе неизбежно значительный элемент случайности; поэтому случайными оказываются и все параметры, вычисленные на основе этих данных. В таких условиях может быть поставлена только задача об определении так называемых «оценок» или «подходящих значений» для искомых параметров, т.е. таких приближенных значений, которые при массовом применении приводили бы в среднем к меньшим ошибкам, чем всякие другие. С задачей отыскания «подходящих значений» числовых характеристик тесно связана задача оценки их точности и надежности.

Генеральная и выборочная совокупности.

Статистическая совокупность1.Генеральная (включает все единицы наблюдения, которые могут быть к ней отнесены в соответствии с целью исследования.) Генеральная совокупность может рассматриваться не только в пределах конкретных производств или территориальных границ, но также и ограничиваться другими признаками (пол, возраст) и их сочетанием.

Таким образом, в зависимости от цели исследования и его задач изменяются границы генеральной совокупности, для этого используют основные признаки, ее ограничивающие.1. Выборочная (часть генеральной совокупности, которая должна быть репрезентативной по отношению к генеральной и наиболее полно отражать ее свойства). На основе анализа выборочной совокупности можно получить достаточно полное представление о закономерностях, присущих всей генеральной совокупности. Выборочная совокупность должна быть репрезентативной, т. е. в отобранной части должны быть представлены все элементы и в таком же соотношении, как в генеральной совокупности. Иными словами, выборочная совокупность должна отражать свойства генеральной совокупности, т. е. правильно ее представлять

Репрезентативность должна быть количественной и качественной. Количественная - основана на законе больших чисел и означает достаточную численность элементов выборочной совокупности, рассчитываемую по специальным формулам и таблицам. Качественная - основана на законе вероятности и означает соответствие (однотипность) признаков, характеризующих элементы выборочной совокупности по отношению к генеральной. Методы формирования выборки:-случайная выборка - отбор единиц наблюдения наугад.-Механическая выборка - арифметический подход к отбору единиц наблюдения- типологическая выборка - при формировании генеральная совокупность предварительно делится на типы с послед. отбором единиц наблюдения из каждой типической группы. При этом число единиц можно отобрать пропорционально численности типической группы и непропорционально- Серийная выборка (гнездовой выбор) - формируется с помощью отбора не отдельных единиц наблюдения, а целых групп, серий, или гнезд, в состав которых входят организованные отдельным образом единицы наблюдения

Метод многоступенчатого отбора - по количеству этапов различают одноступенчатый, двухступенчатый, трёхступенчатый и т.д.

метод направленного выбора - позволяет выявить влияние неизвестных факторов при установлении влияния известных

Вариационные ряды показывают закономерность распределения единиц изучаемой выборки по ранжированным значениям варьирующего признака, например, пробы воздуха по содержанию пылевых частиц.

Вариационные ряды бывают: а) прерывные, которые носят название дискретных, или ранжированных, т.е. расположенных в порядке возрастания от наименьшего значения к наибольшему; и б) непрерывные, называемые интервальными.

Диаграмма казусов дневной выработки деталей рабочими бригады. Вариационные ряды, как и статистические количественные признаки, подразделяются на дискретные и интервальные.

Вариационные ряды, в которых частоты вариантов, равноотстоящих от средней, равны между собой, называются симметричными.

Графически вариационные ряды изображаются в форме кривой распределения или полигона частоты.

Как подразделяются вариационные ряды распределения и на каких признаках основано такое деление.

После выбора информативных признаков вариационные ряды объединяются в одну таблицу, в которой каждый класс представлен уже несколькими эталонными объектами, охарактеризованными только информативными признаками.

В установленном порядке составляются вариационные ряды показателей работы реперного долота для сравниваемых интервалов и одним из статистических методов оценивается значимость различия характеристик вариационных рядов. Если различие статистически незначимо, то сравниваемые интервалы объединяются в одну режимную пачку.

Простейшим видом групповых таблиц являются атрибутивные и вариационные ряды распределения. Групповая таблица может быть более сложной, если в сказуемом приводятся не только число единиц в каждой группе, но и ряд других важных показателей, количественно и качественно характеризующих группы подлежащего. Такие таблицы часто используются в целях сопоставления обобщающих показателей по группам, что позволяет делать определенные практические выводы. Групповые таблицы позволяют выявить и охарактеризовать социально-экономические типы явлений, их структуру в зависимости только от одного признака.

По данным табл. II.7 составляют вариационные ряды показателей работы долот определенной модели или типа, отработанных при сходных режимах бурения. Ряды обрабатывают по изложенной выше методике; определяют средние значения показателей бурения и другие статистические характеристики для условий ряда.

Диаграмма казусов дневной выработки деталей рабочими бригады. В соответствии с этим они делятся на атрибутивные и вариационные ряды распределения.

Результаты испытаний для каждого из уровней напряжения располагают в вариационные ряды, на основании которых строят семейство кривых распределения долговечности в координатах Р - N на логарифмически нормальной вероятностной бумаге. Задаваясь значениями вероятности разрушения, на основании кривых распределения долговечности строят семейства кривых усталости равной вероятности.

В качестве анализируемого признака принята рейсовая скорость, величины которой представляют собой вариационные ряды и проранжированы. Наибольшие и наименьшие значения vp в строках проверены на возможность их малой вероятности по методике, изложенной в 5.2. Маловероятным оказалось значение 6 2 в третьем варианте, которое исключено из дальнейших расчетов.

Как правило, для анализа и последующей обработки экспериментальных данных первоначально составляются вариационные ряды и таблицы распределения, строятся гистограммы исследуемых распределений. Если число наблюдаемых величин велико, прибегают к более компактной форме - объединяют случайные величины в группы, т.е. получают интервальное распределение.

Трудоемкость работ в пооперационных нарядах, попавших в данный интервал календарного времени, суммируется, и получаются вариационные ряды ( абсолютного) распределения трудовых затрат каждого вида в течение фактической длительности производственного цикла изделия. Если на график точками нанести каждое значение отдельного вариационного ряда и последовательно соединить эти точки, то получится ломаная линия, отражающая фактическое календарное распределение трудоемкости выполнения работ определенного вида относительно длительности производственного цикла изготовления изделия.

Гистограммы и кривые распределения внутреннего давления. Таким образом, для повышения точности расчетов, связанных с оценкой несущей способности покрытий трубопроводов, с помощью доверительных интервалов необходимо строить вариационные ряды по данным замеров давления с учетом указанных факторов.

В соответствующие вариационные ряды включали данные ежедневных ( 3 раза в сутки) замеров за несколько лет.

У ( п2) - вариационные ряды, составленные из элементов первой и второй выборок соответственно. ЭВМ) для каждой категории скважин или по району добычи нефти ЭВМ вьщает таблицу, в которой содержатся средние характеристики скважин, показатели работы насосов и распределение числа отказов по их видам. При этом для больших объемов выборок выдаются вариационные ряды выработок для различных законов распределения.

Лилее используются известные из математической статистики критерии соответствия ( согласия), основанные на выборе определенной меры расхождения между выбранными теоретическими ( гипотетическими) и эмпирическим распределениями. Если такая мера ( критерий) для рассматриваемого теоретического распределения не превосходит установленный предел, то проверяемая гипотеза о выбранном распределении принимается.

Вариационный ряд представляет собой таблицу распределения, т.е. несколько столбцов, в одном из которых приводятся значения признака, а в другом - числа, показывающие, сколько раз встречается данное значение в исследуемой совокупности. В других столбцах той же таблицы могут быть относительные числа, плотности и другие расчетные величины. Вариационные ряды приобретают большую наглядность, когда они изображаются графически. Для этого в прямоугольной системе координат по оси абсцисс откладываются интервалы вариационного ряда, а по оси ординат - соответствующие абсолютные числа или относительные частоты. Полученная столбиковая диаграмма, состоящая из сомкнутых прямоугольников, называется гистограммой.

Одним из нормируемых показателей надежности является параметр потока отказов. По статистическим данным были составлены вариационные ряды наработки на отказ.

Ряды распределения принято оформлять в виде статистической таблицы. В зависимости от признака, положенного в основу образования ряда распределения, различают атрибутивные и вариационные ряды распределения.

Выборочные числовые характеристики

Для выборкиСВи для статистического ряда определяются следующие числовые характеристики.

О: Средним арифметическим выборкиназывается средним арифметическим статистического ряда (36.1): Дисперсией выборки называется дисперсией статистического ряда (36.1) -- Средним квадратическим отклонением называется

Пусть-- случайная величина с функцией распределения где-- неизвестный параметр распределения, т.е. неизвестная числовая характеристика СВНапример,имеет нормальное распределение с неизвестным параметромРассмотрим выборокэтой СВОбозначим через оценку величины 9, ее можно представить как случайную величину, зависящую отЧтобы выбрать в некотором смысле лучшую оценкурассматриваются свойства оценок: несмещенность, состоятельность, эффективность.

О: Оценкапараметраназывается несмещенной, если ее математическое ожиданиесостоятельной,

еслипо вероятности сходится кпри

т.е. Несмещенная оценка называетсяэффективной, если ее дисперсия-- наименьшая среди всех дисперсий, вычисляемых для оценокпо выборкам одинакового объема.

Т: Среднее арифметическое М* выборкислучайной величиныимеющей математическое ожидание и дисперсиюявляется несмещенной и состоятельной оценкой математического ожидания. В случае нормального распределения СВэта оценка является эффективной. Доказательство в [7. С. 505].

В качестве оценки математического ожидания генеральной совокупностиберется среднее арифметическое М* выборки. Выборочная дисперсия D* является смещенной состоятельной оценкой дисперсии, поэтому в качестве несмещенной состоятельной оценки дисперсии генеральной совокупности используется исправленная выборочная дисперсия

(-- объем выборки), S-- исправленное среднее квадратическое отклонение. Если объем выборки достаточно большойто

и в качестве оценки генеральной дисперсии берется D*.

Пример 3: Найти параметры распределения случайной величиныв примере 2 разд. 36.1, еслиимеет нормальный закон распределения.

Плотность вероятности для нормального закона распределения

неизвестные параметры --

Так как

то

51. Графическое представление выборочных распределений: полигон, гистограмма, кумулятивная кривая

Полигон

При построении полигона на горизонтальной оси (ось абсцисс) откладывают значения варьирующего признака, а на вертикальной оси (ось ординат) -- частоты или частности.

...

Подобные документы

  • Типичные примеры рефлексивных бинарных отношений. Понятие множества и его элементов. Операции над множествами: объединение, пересечение и разность. Декартово произведение множеств. Отношения функциональные, эквивалентности, порядка. Отношения степени n.

    контрольная работа [163,2 K], добавлен 08.11.2009

  • Математическая теория нечетких множеств, история развития. Функции принадлежности нечетких бинарных отношений. Формирование и оценка перспективного роста предприятия оптовой торговли. Порог разделения ассортимента, главные особенности его определения.

    контрольная работа [22,3 K], добавлен 08.11.2011

  • Теория множеств - одна из областей математики. Понятие, обозначение, основные элементы конечных и бесконечных множеств - совокупности или набора определенных и различимых между собой объектов, мыслимых как единое целое. Пустое и универсальное множество.

    реферат [126,6 K], добавлен 14.12.2011

  • Понятия множеств и их элементов, подмножеств и принадлежности. Способы задания множеств, парадокс Рассела. Количество элементов или мощность. Сравнение множеств, их объединение, пересечение, разность и дополнение. Аксиоматическая теория множеств.

    курсовая работа [1,5 M], добавлен 07.02.2011

  • Понятие множества и его элементов. Обозначение принадлежности элемента множеству. Конечные и бесконечные множества. Строгое и нестрогое включение. Способы задания множеств. Равенство множеств и двухсторонее включение. Диаграммы Венна для трех множеств.

    презентация [564,8 K], добавлен 23.12.2013

  • Основные понятия размерности упорядоченных множеств. Определение размерности упорядоченного множества. Свойства размерности конечных упорядоченных множеств. Порядковая структура и элементы алгебраической теории решёток.

    дипломная работа [191,8 K], добавлен 08.08.2007

  • Мономорфные стрелки. Эпиморфные стрелки. Изострелки. КатегориЯ множеств. Мономорфизм в категории множеств. Эпиморфизм в категории множеств. Начальные и конечные объекты в категории множеств. Произведение в категории множеств.

    дипломная работа [144,3 K], добавлен 08.08.2007

  • Краткое историческое описание становления теории множеств. Теоремы теории множеств и их применение к выявлению структуры различных числовых множеств. Определение основных понятий, таких как мощность, счетные, замкнутые множества, континуальное множество.

    дипломная работа [440,3 K], добавлен 30.03.2011

  • Содержание правил суммы и произведения; их применение с целью решения комбинаторных задач. Виды комбинаторных соединений. Обозначение и свойства факториала. Формулы расчета всех возможных перестановок и размещений. Понятие и разновидности сочетаний.

    реферат [22,1 K], добавлен 08.09.2014

  • Изучение вопросов применения теории множеств, их отношений и свойств и теории графов, а также математических методов конечно-разностных аппроксимаций для описания конструкций РЭА (радиоэлектронной аппаратуры) и моделирования протекающих в них процессов.

    реферат [206,9 K], добавлен 26.09.2010

  • Определение понятия множеств Г. Кантора, их примеры и обозначения. Способы задания, включение и равенство множеств, операции над ними: объединение, пересечения, разность, дополнение, их определение и наглядное представление на диаграмме Эйлера-Венна.

    реферат [70,9 K], добавлен 11.03.2009

  • Способы решения логических задач типа "Кто есть кто?" методами графов, табличным способом, сопоставлением трех множеств; тактических, истинностных задач, на нахождение пересечения множеств или их объединения. Буквенные ребусы и примеры со звездочками.

    курсовая работа [622,2 K], добавлен 15.06.2010

  • Предпосылки развития алгебры множеств. Основы силлогистики и соотношение между множествами. Применение и типы жергонновых отношений. Понятие пустого множества и универсума. Построение диаграмм Эйлера и обоснование законов транзитивности и контрапозиции.

    контрольная работа [369,0 K], добавлен 03.09.2010

  • Математическая теория нечетких множеств и нечеткая логика как обобщения классической теории множеств и классической формальной логики. Сферы и особенности применения нечетких экспертных систем. Анализ математического аппарата, способы задания функций.

    презентация [1,0 M], добавлен 17.04.2013

  • Понятие множества, его обозначения. Операции объединения, пересечения и дополнения множеств. Свойства счетных множеств. История развития представлений о числе, появление множества натуральных, рациональных и действительных чисел, операции с ними.

    курсовая работа [358,3 K], добавлен 07.12.2012

  • Проведение исследования на уроках обобщающего повторения курса математики в контексте ведущего понятия "порядковая структура". Примеры алгебраических и геометрических бинарных отношений. Включение учащихся в исследовательскую и проектную деятельность.

    курсовая работа [1,6 M], добавлен 01.12.2014

  • Понятие множества, его трактование Георгом Кантором. Условные обозначения множеств. Виды множеств, способы их задания. Операции над множествами (пересечение, объединение, разность и дополнение), условия их равенства и основные свойства, отношения.

    презентация [1,2 M], добавлен 12.12.2012

  • Построение логических взаимосвязей между цветами при помощи аппарата дискретной математики. Структуры объекта в виде множеств, граф отношений между ними. Исследование на рефлексивность, транзитивность, симметричность. Матрицы смежности и инцидентности.

    контрольная работа [129,4 K], добавлен 07.06.2010

  • Характеристика булевой алгебры и способы представления булевых функций. Понятие и сущность бинарных диаграммах решений. Упорядоченные бинарные диаграммы решений, их построение и особенности применения для обработки запросов в реляционных базах данных.

    дипломная работа [391,7 K], добавлен 21.01.2010

  • Основные принципы и формулы классической комбинаторики. Использование методов комбинаторики в теории вероятностей. Формулы числа перестановок, сочетаний, размещений. Формула бинома Ньютона. Свойства биномиальных коэффициентов. Решение комбинаторных задач.

    учебное пособие [659,6 K], добавлен 07.05.2012

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.