Теория вероятности

Рассмотрение теоремы умножения вероятностей. Характеристика основных задач математической статистики. Выборка как набор объектов, случайно отобранных из генеральной совокупности, виды: повторная, бесповторная. Особенности непрерывных случайных величин.

Рубрика Математика
Вид дипломная работа
Язык русский
Дата добавления 07.12.2012
Размер файла 551,9 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Характеристические функции

Для доказательства центральной предельной теоремы используется метод характеристических функций.

Определение 15.1. Характеристической функцией случайной величины Х называется функция

g(t) = M ( eitX) (15.1)

Таким образом, g (t) представляет собой математическое ожидание некоторой комплексной случайной величины U = eitX, связанной с величиной Х. В частности, если Х - дискретная случайная величина, заданная рядом распределения, то

Для непрерывной случайной величины с плотностью распределения f(x)

Пример 1. Пусть Х - число выпадений 6 очков при одном броске игральной кости. Тогда по формуле (15.2) g(t) =

Пример 2. Найдем характеристическую функцию для нормированной непрерывной случайной величины, распределенной по нормальному закону . По формуле (15.3) ( использовалась формула и то, что i? = -1).

Свойства характеристических функций.

1. Функцию f(x) можно найти по известной функции g(t) по формуле ( преобразование (15.3) называется преобразованием Фурье, а преобразование (15.4) - обратным преобразованием Фурье ).

2. Если случайные величины Х и Y связаны соотношением Y = aX, то их характеристические функции связаны соотношением

gy (t) = gx (at). (15.5)

3. Характеристическая функция суммы независимых случайных величин равна произведению характеристических функций слагаемых: для

Теорема 14.1 (центральная предельная теорема для одинаково распределенных слагае-мых). Если Х1, Х2,…, Хп,… - независимые случайные величины с одинаковым законом распределения, математическим ожиданием т и дисперсией у2, то при неограниченном увеличении п закон распределения суммы неограниченно приближается к нор-мальному.

Доказательство.

Докажем теорему для непрерывных случайных величин Х1, Х2,…, Хп (доказательство для дискретных величин аналогично). Согласно условию теоремы, характеристические функции слагаемых одинаковы: Тогда по свойству 3 характеристическая функция суммы Yn будет Разложим функцию gx(t) в ряд Маклорена: , где при .

Найдем

Если предположить, что т = 0 ( то есть перенести начало отсчета в точку т ), то (так как т = 0). Подставив полученные результаты в формулу Маклорена, найдем, что

Рассмотрим новую случайную величину , отличающуюся от Yn тем, что ее дисперсия при любом п равна 0. Так как Yn и Zn связаны линейной зависимостью, достаточно доказать, что Zn распределена по нормальному закону, или, что то же самое, что ее характеристическая функция приближается к характеристической функции нормального закона (см. пример 2). По свойству характеристических функций

Прологарифмируем полученное выражение:

Разложим в ряд при п > ?, ограничившись двумя членами разложения, тогда ln(1 - k) ? - k. Отсюда

, где последний предел равен 0, так как при . Следовательно, , то есть - характеристическая функция нормального распределения. Итак, при неограниченном увеличении числа слагаемых характеристическая функция величины Zn неограниченно приближается к характеристической функции нормального закона; следова-тельно, закон распределения Zn( и Yn) неограниченно приближается к нормальному. Теорема доказана.

А.М.Ляпунов доказал центральную предельную теорему для условий более общего вида:

Теорема 15.2 (теорема Ляпунова). Если случайная величина Х представляет собой сумму очень большого числа взаимно независимых случайных величин, для которых выполнено условие:

где bk- третий абсолютный центральный момент величины Хк, а Dk - ее дисперсия, то Х имеет распределение, близкое к нормальному ( условие Ляпунова означает, что влияние каждого слагаемого на сумму ничтожно мало). Практически можно использовать центральную предельную теорему при достаточно небольшом количестве слагаемых, так как вероятностные расчеты требуют сравнительно малой точности. Опыт показывает, что для суммы даже десяти и менее слагаемых закон их распределения можно заменить нормальным. Частным случаем центральной предельной теоремы для дискретных случайных величин является теорема Муавра-Лапласа.

Теорема 15.3 (теорема Муавра-Лапласа). Если производится п независимых опытов, в каждом из которых событие А появляется с вероятностью р, то справедливо соотношение.

Доказательство

Будем считать, что , где Хi - число появлений события А в i-м опыте. Тогда случайную величину (см. теорему 15.1) можно считать распределенной по нормальному закону и нормированной, следовательно, вероятность ее попадания в интервал (б, в) можно найти по формуле

Поскольку Y имеет биномиальное распределение, . Тогда . Подставляя это выражение в предыдущую формулу, получим равенство (14.8).

Следствие

В условиях теоремы Муавра-Лапласа вероятность того, что событие А появится в п опытах ровно k раз, при большом количестве опытов можно найти по формуле:

где , а (значения этой функции приводятся в специальных таблицах).

Пример 3. Найти вероятность того, что при 100 бросках монеты число выпадений герба окажется в пределах от 40 до 60.

Применим формулу (15.8), учитывая, что п = 0,5. Тогда пр = 100?0,5 = 50,

Тогда, если Следовательно,

Пример 4. В условиях предыдущего примера найти вероятность того, что выпадет 45 гербов.

Найдем , тогда

Метод максимального правдоподобия

Основные свойства статистических характеристик параметров распределения: несмещенность, состоятельность, эффективность. Несмещенность и состоятельность выборочного среднего как оценки математического ожидания. Смещенность выборочной дисперсии. Пример несмещенной оценки дисперсии. Асимптотически несмещенные оценки. Способы построения оценок: метод наибольшего правдоподобия, метод моментов, метод квантили, метод наименьших квадратов, байесовский подход к получению оценок.

Получив статистические оценки параметров распределения (выборочное среднее, выборочную дисперсию и т.д.), нужно убедиться, что они в достаточной степени служат приближением соответствующих характеристик генеральной совокупности. Определим требования, которые должны при этом выполняться.

Пусть И* - статистическая оценка неизвестного параметра И теоретического распределения. Извлечем из генеральной совокупности несколько выборок одного и того же объема п и вычислим для каждой из них оценку параметра И: Тогда оценку И* можно рассматривать как случайную величину, принимающую возможные значения Если математическое ожидание И* не равно оцениваемому параметру, мы будем получать при вычислении оценок систематические ошибки одного знака (с избытком, если М( И*) >И, и с недостатком, если М(И*) < И). Следовательно, необходимым условием отсутствия систематических ошибок является требование М(И*) = И.

Определение 16.2. Статистическая оценка И* называется несмещенной, если ее математическое ожидание равно оцениваемому параметру И при любом объеме выборки:

М(И*) = И. (16.1)

Смещенной называют оценку, математическое ожидание которой не равно оцениваемому параметру.

Однако несмещенность не является достаточным условием хорошего приближения к истинному значению оцениваемого параметра. Если при этом возможные значения И* могут значительно отклоняться от среднего значения, то есть дисперсия И* велика, то значение, найденное по данным одной выборки, может значительно отличаться от оцениваемого параметра. Следовательно, требуется наложить ограничения на дисперсию.

Определение 16.2. Статистическая оценка называется эффективной, если она при заданном объеме выборки п имеет наименьшую возможную дисперсию.

При рассмотрении выборок большого объема к статистическим оценкам предъявляется еще и требование состоятельности.

Определение 16.3. Состоятельной называется статистическая оценка, которая при п>? стремится по вероятности к оцениваемому параметру (если эта оценка несмещенная, то она будет состоятельной, если при п>? ее дисперсия стремится к 0).

Убедимся, что представляет собой несмещенную оценку математического ожидания М(Х).

Будем рассматривать как случайную величину, а х1, х2,…, хп, то есть значения исследуемой случайной величины, составляющие выборку, - как независимые, одинаково распределенные случайные величины Х1, Х2,…, Хп, имеющие математическое ожидание а. Из свойств математического ожидания следует, что

Но, поскольку каждая из величин Х1, Х2,…, Хп имеет такое же распределение, что и генеральная совокупность, а = М(Х), то есть М() = М(Х), что и требовалось доказать.

Выборочное среднее является не только несмещенной, но и состоятельной оценкой математического ожидания. Если предположить, что Х1, Х2,…, Хп имеют ограниченные дисперсии, то из теоремы Чебышева следует, что их среднее арифметическое, то есть , при увеличении п стремится по вероятности к математическому ожиданию а каждой их величин, то есть к М(Х). Следовательно, выборочное среднее есть состоятельная оценка математического ожидания.

В отличие от выборочного среднего, выборочная дисперсия является смещенной оценкой дисперсии генеральной совокупности.

Способы построения оценок.

1. Метод наибольшего правдоподобия.

Пусть Х - дискретная случайная величина, которая в результате п испытаний приняла значения х1, х2, …, хп. Предположим, что нам известен закон распределения этой величины, определяемый параметром И, но неизвестно численное значение этого параметра. Найдем его точечную оценку.

Пусть р(хi, И) - вероятность того, что в результате испытания величина Х примет значение хi. Назовем функцией правдоподобия дискретной случайной величины Х функцию аргумента И, определяемую по формуле:

L(х1, х2, …, хп; И) = p(x1,И)p(x2,И)…p(xn,И).

Тогда в качестве точечной оценки параметра И принимают такое его значение И* = И(х1, х2, …, хп), при котором функция правдоподобия достигает максимума. Оценку И* называют оценкой наибольшего правдоподобия.

Поскольку функции L и lnL достигают максимума при одном и том же значении И, удобнее искать максимум ln L - логарифмической функции правдоподобия. Для этого нужно:

1) найти производную ;

2) приравнять ее нулю (получим так называемое уравнение правдоподобия) и найти критическую точку;

3) найти вторую производную ; если она отрицательна в критической точке, то это - точка максимума.

Достоинства метода наибольшего правдоподобия: полученные оценки состоятельны (хотя могут быть смещенными), распределены асимптотически нормально при больших значениях п и имеют наименьшую дисперсию по сравнению с другими асимптотически нормальными оценками; если для оцениваемого параметра И существует эффективная оценка И*, то уравнение правдоподобия имеет единственное решение И*; метод наиболее полно использует данные выборки и поэтому особенно полезен в случае малых выборок.

Недостаток метода наибольшего правдоподобия: сложность вычислений.

Для непрерывной случайной величины с известным видом плотности распределения f(x) и неизвестным параметром И функция правдоподобия имеет вид:

L(х1, х2, …, хп; И) = f(x1,И)f(x2,И)…f(xn,И).

Оценка наибольшего правдоподобия неизвестного параметра проводится так же, как для дискретной случайной величины.

Метод моментов

Метод моментов основан на том, что начальные и центральные эмпирические моменты являются состоятельными оценками соответственно начальных и центральных теоретических моментов, поэтому можно приравнять теоретические моменты соответствующим эмпирическим моментам того же порядка.

Если задан вид плотности распределения f(x, И), определяемой одним неизвестным параметром И, то для оценки этого параметра достаточно иметь одно уравнение. Например, можно приравнять начальные моменты первого порядка получив тем самым уравнение для определения И. Его решение И* будет точечной оценкой параметра, которая является функцией от выборочного среднего и, следовательно, и от вариант выборки:

И = ш (х1, х2, …, хп).

Если известный вид плотности распределения f(x, И1, И2 ) определяется двумя неизвестными параметрами И1 и И2, то требуется составить два уравнения, например

н1 = М1, м2 = т2.

Отсюда - система двух уравнений с двумя неизвестными И1 и И2. Ее решениями будут точечные оценки И1* и И2* - функции вариант выборки:

И1 = ш1 (х1, х2, …, хп),

И2 = ш2(х1, х2, …, хп).

Метод наименьших квадратов

Если требуется оценить зависимость величин у и х, причем известен вид связывающей их функции, но неизвестны значения входящих в нее коэффициентов, их величины можно оценить по имеющейся выборке с помощью метода наименьших квадратов. Для этого функция у = ц (х) выбирается так, чтобы сумма квадратов отклонений наблюдаемых значений у1, у2,…, уп от ц(хi) была минимальной:

При этом требуется найти стационарную точку функции ц(x; a, b, c…), то есть решить систему (решение, конечно, возможно только в случае, когда известен конкретный вид функции ц).

Рассмотрим в качестве примера подбор параметров линейной функции методом наименьших квадратов.

Для того, чтобы оценить параметры а и b в функции y = ax + b, найдем Тогда . Отсюда . Разделив оба полученных уравнения на п и вспомнив определения эмпирических моментов, можно получить выражения для а и b в виде следовательно, связь между х и у можно задать в виде:

Байесовский подход к получению оценок

Пусть (Y, X) - случайный вектор, для которого известна плотность р(у|x) условного распределения Y при каждом значении Х = х. Если в результате эксперимента получены лишь значения Y, а соответствующие значения Х неизвестны, то для оценки некоторой заданной функции ц(х) в качестве ее приближенного значения предлагается искать условное математическое ожидание М ( ц (х) Y), вычисляемое по формуле:

, где , р(х) - плотность безусловного распределения Х, q(y) - плотность безусловного распределения Y. Задача может быть решена только тогда, когда известна р(х). Иногда, однако, удается построить состоятельную оценку для q(y), зависящую только от полученных в выборке значений Y.

Закон больших чисел

Закон больших чисел. Неравенство Чебышева. Теоремы Чебышева и Бернулли. Изучение статистических закономерностей позволило установить, что при некоторых условиях суммарное поведение большого количества случайных величин почти утрачивает случайный характер и становится закономерным (иначе говоря, случайные отклонения от некоторого среднего поведения взаимно погашаются). В частности, если влияние на сумму отдельных слагаемых является равномерно малым, закон распределения суммы приближается к нормальному. Математическая формулировка этого утверждения дается в группе теорем, называемой законом больших чисел.

Неравенство Чебышева, используемое для доказательства дальнейших теорем, справедливо как для непрерывных, так и для дискретных случайных величин. Докажем его для дискретных случайных величин.

Теорема 17.1(неравенство Чебышева). p( | X - M(X)| < е ) ? D(X) / е?. (17.1)

Доказательство. Пусть Х задается рядом распределения

Таблица

Х

х1

х2

хп

р

р1

р2

рп

Так как события |X - M(X)| < е и |X - M(X)| ? е противоположны, то р ( |X - M(X)| < е ) + + р ( |X - M(X)| ? е ) = 1, следовательно, р ( |X - M(X)| < е ) = 1 - р ( |X - M(X)| ? е ). Найдем р ( |X - M(X)| ? е ).

D(X) = (x1 - M(X))?p1 + (x2 - M(X))?p2 + … + (xn - M(X))?pn . Исключим из этой суммы те слагаемые, для которых |X - M(X)| < е. При этом сумма может только уменьшиться, так как все входящие в нее слагаемые неотрицательны. Для определенности будем считать, что отброшены первые kслагаемых. Тогда

D(X) ? (xk+1 - M(X))?pk+1 + (xk+2 - M(X))?pk+2 + … + (xn - M(X))?pn ? е? (pk+1 + pk+2 + … + pn).

Отметим, что pk+1 + pk+2 + … + pn есть вероятность того, что |X - M(X)| ? е, так как это сумма вероятностей всех возможных значений Х, для которых это неравенство справедливо. Следовательно, D(X) ? е? р(|X - M(X)| ? е), или р (|X - M(X)| ? е) ? D(X) / е?. Тогда вероятность противоположного события p( | X - M(X)| < е ) ? D(X) / е?, что и требо-валось доказать.

Теоремы Чебышева и Бернулли

Теорема 17.2 (теорема Чебышева). Если Х1, Х2,…, Хп - попарно независимые случайные величины, дисперсии которых равномерно ограничены ( D(Xi) ? C), то для сколь угодно малого числа е вероятность неравенства будет сколь угодно близка к 1, если число случайных величин достаточно велико.

Замечание. Иначе говоря, при выполнении этих условий

Доказательство. Рассмотрим новую случайную величину и найдем ее математическое ожидание. Используя свойства математического ожидания, получим, что . Применим к неравенство Чебышева: Так как рассматриваемые случайные величины независимы, то, учитывая условие теоремы, имеем: Используя этот результат, представим предыдущее неравенство в виде:

Перейдем к пределу при : Поскольку вероятность не может быть больше 1, можно утверждать, что

Теорема доказана.

Следствие: Если Х1, Х2, …, Хп - попарно независимые случайные величины с равномерно ограниченными дисперсиями, имеющие одинаковое математическое ожидание, равное а, то для любого сколь угодно малого е > 0 вероятность неравенства будет как угодно близка к 1, если число случайных величин достаточно велико. Иначе говоря, .

Вывод: среднее арифметическое достаточно большого числа случайных величин принимает значения, близкие к сумме их математических ожиданий, то есть утрачивает характер случайной величины. Например, если проводится серия измерений какой-либо физической величины, причем: а) результат каждого измерения не зависит от результатов остальных, то есть все результаты представляют собой попарно независимые случайные величины; б) измерения производятся без систематических ошибок (их математические ожидания равны между собой и равны истинному значению а измеряемой величины); в) обеспечена определенная точность измерений, следовательно, дисперсии рассматриваемых случайных величин равномерно ограничены; то при достаточно большом числе измерений их среднее арифметическое окажется сколь угодно близким к истинному значению измеряемой величины.

Теорема Бернулли

Теорема 17.3 (теорема Бернулли). Если в каждом из п независимых опытов вероятность р появления события А постоянна, то при достаточно большом числе испытаний вероятность того, что модуль отклонения относительной частоты появлений А в п опытах от р будет сколь угодно малым, как угодно близка к 1 доказательство. Введем случайные величины Х1, Х2, …, Хп, где Xi - число появлений А в i-м опыте. При этом Xiмогут принимать только два значения: 1(с вероятностью р) и 0 (с вероятностью q = 1 - p). Кроме того, рассматриваемые случайные величины попарно независимы и их дисперсии равномерно ограничены (так как D(Xi) = pq, p + q = 1, откуда pq? ? ). Следовательно, к ним можно применить теорему Чебышева при Mi = p: Но , так как Xi принимает значение, равное 1, при появлении А в данном опыте, и значение, равное 0, если А не произошло. Таким образом, что и требовалось доказать. Замечание. Из теоремы Бернулли не следует, что Речь идет лишь о вероятности того, что разность относительной частоты и вероятности по модулю может стать сколь угодно малой. Разница заключается в следующем: при обычной сходимости, рассматриваемой в математическом анализе, для всех п, начиная с некоторого значения, неравенство выполняется всегда; в нашем случае могут найтись такие значения п, при которых это неравенство неверно. Этот вид сходимости называют сходимостью по вероятности.

Основные свойства плотностей и интегральных плотностей. Дисперсия, мода, медиана и их свойства

Некоторые числовые характеристики одномерных случайных величин: начальные и центральные моменты, мода, медиана, квантиль, коэффициенты асимметрии и эксцесса. Числовые характеристики двумерных случайных величин: начальные и центральные моменты. Корреляционный момент и коэффициент корреляции. Коррелированность и зависимость случайных величин.

Начальным моментом порядка k случайной величины Х называется математическое ожидание величины Xk:

нk = M (Xk). (9.1)

В частности, н1 = М(Х), н2 = М(Х2). Следовательно, дисперсия D(X) = н2 - н1?.

Определение 9.2. Центральным моментом порядка k случайной величины Х называется математическое ожидание величины (Х - М(Х))k:

мk = M((Х - М(Х))k). (9.2)

В частности, м1 = M(Х - М(Х)) = 0, м2 = M((Х - М(Х))2) = D(X).

Можно получить соотношения, связывающие начальные и центральные моменты

Мода и медиана

Такая характеристика случайной величины, как математическое ожидание, называется иногда характеристикой положения, так как она дает представление о положении случайной величины на числовой оси. Другими характеристиками положения являются мода и медиана.

Определение 9.3. Модой М дискретной случайной величины называется ее наиболее вероятное значение, модой М непрерывной случайной величины - значение, в котором плотность вероятности максимальна.

Пример 1.

Если ряд распределения дискретной случайной величины Х имеет вид:

Таблица

Х

1

2

3

4

р

0,1

0,7

0,15

0,05

то М = 2.

Пример 2.

Для непрерывной случайной величины, заданной плотностью распределения , модой является абсцисса точки максимума: М = 0.

Замечание 1. Если кривая распределения имеет больше одного максимума, распределение называется полимодальным, если эта кривая не имеет максимума, но имеет минимум - антимодальным.

Замечание 2. В общем случае мода и математическое ожидание не совпадают. Но, если распределение является симметричным и модальным (то есть кривая распределения симметрична относительно прямой х = М) и имеет математическое ожидание, оно совпадает с модой.

Определение 9.4. Медианой Ме непрерывной случайной величины называют такое ее значение, для которого

p( X < Me ) = p( X > Me ). (9.3)

Графически прямая х = Ме делит площадь фигуры, ограниченной кривой распределения, на две равные части.

Замечание. Для симметричного модального распределения медиана совпадает с математическим ожиданием и модой.

Определение 9.5. Для случайной величины Х с функцией распределения F(X) квантилью порядка р (0 < p < 1) называется число Кр такое, что F(Kp) ? p, F(Kp + 0) ? p. В частности, если F(X) строго монотонна, Кр: F(Kp) = p.

Асимметрия и эксцесс

Если распределение не является симметричным, можно оценить асимметрию кривой распределения с помощью центрального момента 3-го порядка. Действительно, для симметричного распределения все нечетные центральные моменты равны 0 ( как интегралы от нечетных функций в симметричных пределах), поэтому выбран нечетный момент наименьшего порядка, не тождественно равный 0. Чтобы получить безразмерную характеристику, его делят на у3 (так как м3 имеет размерность куба случайной величины).

В частности, для кривой, изображенной на рис.1, Sk > 0, а на рис.2 - Sk < 0.

Для оценки поведения кривой распределения вблизи точки максимума (для определения того, насколько «крутой» будет его вершина) применяется центральный момент 4-го порядка.

Определение 9.7. Эксцессом случайной величины называется величина

Замечание. Можно показать, что для нормального распределения , и, соответственно, Ех = 0. Для кривых с более острой вершиной Ех >0, в случае более плоской вершины Ех < 0.

Числовые характеристики двумерных случайных величин.

Такие характеристики, как начальные и центральные моменты, можно ввести и для системы двух случайных величин. Начальным моментом порядка k, s двумерной случайной величины (Х, Y) называется математическое ожидание произведения Xk на Ys:

бk,s = M (XkYs). (9.6)

Для дискретных случайных величин для непрерывных случайных величин

Определение 9.9. Центральным моментом порядка k, s двумерной случайной величины (Х, Y) называется математическое ожидание произведения (X - M(X))k на (Y - M(Y))s:

мk,s = M((X - M(X))k(Y - M(Y))s). (9.7)

Для дискретных случайных величин для непрерывных случайных величин

При этом М(Х) = б1,0, M(Y) = б0,1, D(X) = м2,0, D(Y) = м0,2.

Корреляционный момент и коэффициент корреляции.

Определение 9.10. Корреляционным моментом системы двух случайных величин называется второй смешанный центральный момент:

Kxy = м1,1 = M((X - M(X))(Y - M(Y))). (9.8)

Для дискретных случайных величин для непрерывных случайных величин

Безразмерной характеристикой коррелированности двух случайных величин является коэффициент корреляции

Корреляционный момент описывает связь между составляющими двумерной случайной величины. Действительно, убедимся, что для независимых Х и Y Kxy = 0. В этом случае f(x,y) = =f1(x)f2(y), тогда

Итак, две независимые случайные величины являются и некоррелированными. Однако понятия коррелированности и зависимости не эквивалентны, а именно, величины могут быть зависимыми, но при этом некоррелированными. Дело в том, что коэффициент корреляции характеризует не всякую зависимость, а только линейную. В частности, если Y = aX + b, то rxy = ±1. Найдем возможные значения коэффициента корреляции.

Теорема 9.1.

Доказательство. Докажем сначала, что Действительно, если рассмотреть случайную величину и найти ее дисперсию, то получим:. Так как дисперсия всегда неотрицательна, то откуда Отсюда что и требовалось доказать.

Основные свойства оценок. Вероятности. Условная вероятность

Геометрические вероятности. Теорема сложения вероятностей. Противоположные события. Условные вероятности. Теорема умножения вероятностей. Независимые события. Вероятность появления хотя бы одного события.

Одним из недостатков классического определения вероятности является то, что оно неприменимо к испытаниям с бесконечным количеством исходов. В таких случаях можно воспользоваться понятием геометрической вероятности.

Пусть на отрезок L наудачу брошена точка. Это означает, что точка обязательно попадет на отрезок L и с равной возможностью может совпасть с любой точкой этого отрезка. При этом вероятность попадания точки на любую часть отрезка L не зависит от расположения этой части на отрезке и пропорциональна его длине. Тогда вероятность того, что брошенная точка попадет на отрезок l, являющийся частью отрезка L, вычисляется по формуле:

Пример 1. Найти вероятность того, что точка, наудачу брошенная в круг, не попадет в правильный шестиугольник, вписанный в него.

Решение. Пусть радиус круга равен R , тогда сторона шестиугольника тоже равна R. При этом площадь круга а площадь шестиугольника Следовательно,

Пример 2. На отрезок АВ случайным образом брошены три точки: С, D и М. Найти вероятность того, что из отрезков АС, АD и АМ можно построить треугольник.

Решение. Обозначим длины отрезков АС, АD и АМ через x, y и z и рассмотрим в качестве возможных исходов множество точек трехмерного пространства с координатами (х, у, z). Если принять длину отрезка равной 1, то эти множество возможных исходов представляет собой куб с ребром, равным 1. Тогда множество благоприятных исходов состоит из точек, для координат которых выполнены неравенства треугольника: x + y > z, x + z > y, y + z > x. Это часть куба, отрезанная от него плоскостями x + y = z, x + z = y, y + z = x (одна из них, плоскость x + y = z, проведена на рис.1). Каждая такая плоскость отделяет от куба пирамиду, объем которой равен . Следовательно, объем оставшейся части

Теорема сложения вероятностей.

Теорема 2.1 (теорема сложения). Вероятность р(А + В) суммы событий А и В равна

Р (А + В ) = р (А) + р (В) - р (АВ). (2.2)

Доказательство.

Докажем теорему сложения для схемы случаев. Пусть п - число возможных исходов опыта, тА - число исходов, благоприятных событию А, тВ - число исходов, благоприятных событию В, а тАВ - число исходов опыта, при которых происходят оба события (то есть исходов, благоприятных произведению АВ). Тогда число исходов, при которых имеет место событие А + В, равно тА + тВ - тАВ (так как в сумме (тА + тВ) тАВ учтено дважды: как исходы, благоприятные А, и исходы, благоприятные В). Следовательно, вероятность суммы можно определить по формуле (1.1).

Следствие 1. Теорему 2.1 можно распространить на случай суммы любого числа событий. Например, для суммы трех событий А, В и С

Р(А + В + С) = р(А) + р(В) + р(С) - р(АВ) - р(АС) - р(ВС) + р(АВС) (2.3)

Следствие 2. Если события А и В несовместны, то тАВ = 0, и, следовательно, вероятность суммы несовместных событий равна сумме их вероятностей:

Р(А + В) = р(А) + р(В). (2.4)

Определение 2.1. Противоположными событиями называют два несовместных события, образующих полную группу. Если одно из них назвать А, то второе принято обозначать .

Замечание. Таким образом, заключается в том, что событие А не произошло.

Теорема 2.2. Сумма вероятностей противоположных событий равна 1:

р(А) + р() = 1. (2.5)

Доказательство.

Так как А и образуют полную группу, то одно из них обязательно произойдет в результате опыта, то есть событие А +является достоверным. Следовательно,

Р( А +) = 1. Но, так как А несовместны, из (2.4) следует, что Р(А +) = р(А) + р(). Значит, р(А) + р() = 1, что и требовалось доказать.

Замечание. В ряде задач проще искать не вероятность заданного события, а вероятность события, противоположного ему, а затем найти требуемую вероятность по формуле (2.5).

Пример. Из урны, содержащей 2 белых и 6 черных шаров, случайным образом извлекаются 5 шаров. Найти вероятность того, что вынуты шары разных цветов.

Решение. Событие , противоположное заданному, заключается в том, что из урны вынуто 5 шаров одного цвета, а так как белых шаров в ней всего два, то этот цвет может быть только черным. Множество возможных исходов опыта найдем по формуле (1.5) а множество исходов, благоприятных событию - это число возможных наборов по 5 шаров только из шести черных:

Тогда а

Теорема умножения вероятностей (условные вероятности).

Определение 2.2. Назовем условной вероятностью р(В/А) события В вероятность события В при условии, что событие А произошло.

Замечание. Понятие условной вероятности используется в основном в случаях, когда осуществление события А изменяет вероятность события В.

Примеры:

1) пусть событие А - извлечение из колоды в 32 карты туза, а событие В - то, что и вторая вынутая из колоды карта окажется тузом. Тогда, если после первого раза карта была возвращена в колоду, то вероятность вынуть вторично туз не меняется: Если же первая карта в колоду не возвращается, то осуществление события А приводит к тому, что в колоде осталась 31 карта, из которых только 3 туза. Поэтому

2) если событие А - попадание в самолет противника при первом выстреле из орудия, а В - при втором, то первое попадание уменьшает маневренность самолета, поэтому р(В/А) увеличится по сравнению с р(А).

Теорема 2.3 (теорема умножения). Вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого при условии, что первое событие произошло:

р (АВ) = р (А) ? р (В/А). (2.6)

Доказательство

Воспользуемся обозначениями теоремы 2.1. Тогда для вычисления р(В/А) множеством возможных исходов нужно считать тА (так как А произошло), а множеством благоприятных исходов - те, при которых произошли и А, и В ( тАВ ). Следовательно,

откуда следует утверждение теоремы.

Пример. Для поражения цели необходимо попасть в нее дважды. Вероятность первого попадания равна 0,2, затем она не меняется при промахах, но после первого попадания увеличивается вдвое. Найти вероятность того, что цель будет поражена первыми двумя выстрелами.

Решение. Пусть событие А - попадание при первом выстреле, а событие В - попадание при втором. Тогда р (А) = 0,2, р (В/А) = 0,4, р (АВ) = 0,2?0,4 = 0,08.

Следствие. Если подобным образом вычислить вероятность события ВА, совпадающего с событием АВ, то получим, что р (ВА) = р (В) ? р (А/В). Следовательно,

р (А) ? р (В/А) = р (В) ? р (А/В). (2.7)

Определение 2.3. Событие В называется независимым от события А, если появление события А не изменяет вероятности В, то есть р (В/А) = р (В).

Замечание. Если событие В не зависит от А, то и А не зависит от В. Действительно, из (2.7) следует при этом, что р (А) ? р (В) = р (В) ? р (А/В), откуда р (А/В) = р (А). Значит, свойство независимости событий взаимно.

Теорема умножения для независимых событий имеет вид:

р (АВ) = р (А) ? р (В) , (2.8)

то есть вероятность произведения независимых событий равна произведению их вероятностей.

При решении задач теоремы сложения и умножения обычно применяются вместе.

Пример. Два стрелка делают по одному выстрелу по мишени. Вероятности их попадания при одном выстреле равны соответственно 0,6 и 0,7. Найти вероятности следующих событий:

А - хотя бы одно попадание при двух выстрелах;

В - ровно одно попадание при двух выстрелах;

С - два попадания;

D - ни одного попадания.

Решение. Пусть событие Н1 - попадание первого стрелка, Н2 - попадание второго. Тогда

А = Н1 + Н2, В =Н1События Н1 и Н2 совместны и независимы, поэтому теорема сложения применяется в общем виде, а теорема умножения - в виде (2.8). Следовательно, р(С) = 0,6?0,7 = 0,42, р(А) = 0,6 + 0,7 - 0,42 = 0,88,

р(B) = 0,6?0,3 + 0,7?0,4 = 0,46 (так как события и несовместны),

р(D) = 0,4?0,3 = 0,12. Заметим, что события А и D являются противоположными, поэтому

р(А) = 1 - р(D).

Вероятность появления хотя бы одного события.

Теорема 2.4. Вероятность появления хотя бы одного из попарно независимых событий

А1, А2,…, Ап равна

р (А) = 1 - q1q2…qn , (2.9)

где qi - вероятность события , противоположного событию Аi .

Доказательство.

Если событие А заключается в появлении хотя бы одного события из А1, А2,…, Ап, то события А и противоположны, поэтому по теореме 2.2 сумма их вероятностей равна 1. Кроме того, поскольку А1, А2,…, Ап независимы, то независимы и , следовательно, р() = . Отсюда следует справедливость формулы (2.9).

Пример. Сколько нужно произвести бросков монеты, чтобы с вероятностью не менее 0,9 выпал хотя бы один герб?

Решение. Вероятность выпадения герба при одном броске равна вероятности противоположного события (выпадения цифры) и равна 0,5. Тогда вероятность выпадения хотя бы одного герба при п выстрелах равна 1- (0,5)п . Тогда из решения неравенства 1- (0,5)п > 0,9 следует, что п > log210 ? 4.

Оценка дисперсии, Гистограмма

Основные понятия математической статистики. Генеральная совокупность и выборка. Вариационный ряд, статистический ряд. Группированная выборка. Группированный статистический ряд. Полигон частот. Выборочная функция распределения и гистограмма.

Математическая статистика занимается установлением закономерностей, которым подчинены массовые случайные явления, на основе обработки статистических данных, полученных в результате наблюдений. Двумя основными задачами математической статистики являются:

- определение способов сбора и группировки этих статистических данных;

- разработка методов анализа полученных данных в зависимости от целей исследования, к которым относятся:

а) оценка неизвестной вероятности события; оценка неизвестной функции распределения; оценка параметров распределения, вид которого известен; оценка зависимости от других случайных величин и т.д.;

б) проверка статистических гипотез о виде неизвестного распределения или о значениях параметров известного распределения.

Для решения этих задач необходимо выбрать из большой совокупности однородных объектов ограниченное количество объектов, по результатам изучения которых можно сделать прогноз относительно исследуемого признака этих объектов.

Определим основные понятия математической статистики.

Генеральная совокупность - все множество имеющихся объектов.

Выборка - набор объектов, случайно отобранных из генеральной совокупности.

Объем генеральной совокупности N и объем выборки n - число объектов в рассматриваемой совокупности.

Виды выборки:

Повторная - каждый отобранный объект перед выбором следующего возвращается в генеральную совокупность;

Бесповторная - отобранный объект в генеральную совокупность не возвращается.

Замечание. Для того, чтобы по исследованию выборки можно было сделать выводы о поведении интересующего нас признака генеральной совокупности, нужно, чтобы выборка правильно представляла пропорции генеральной совокупности, то есть была репрезентативной (представительной). Учитывая закон больших чисел, можно утверждать, что это условие выполняется, если каждый объект выбран случайно, причем для любого объекта вероятность попасть в выборку одинакова.

Первичная обработка результатов.

Пусть интересующая нас случайная величина Х принимает в выборке значение х1 п1 раз, х2 - п2 раз, …, хк - пк раз, причем где п - объем выборки. Тогда наблюдаемые значения случайной величины х1, х2,…, хк называют вариантами, а п1, п2,…, пк - частотами. Если разделить каждую частоту на объем выборки, то получим относительные частоты Последовательность вариант, записанных в порядке возрастания, называют вариационным рядом, а перечень вариант и соответствующих им частот или относительных частот - статистическим рядом:

Таблица

xi

x1

x2

xk

ni

n1

n2

nk

wi

w1

w2

wk

Пример

При проведении 20 серий из 10 бросков игральной кости число выпадений шести очков оказалось равным 1,1,4,0,1,2,1,2,2,0,5,3,3,1,0,2,2,3,4,1.Составим вариационный ряд: 0,1,2,3,4,5. Статистический ряд для абсолютных и относительных частот имеет вид:

Таблица

xi

0

1

2

3

4

5

ni

3

6

5

3

2

1

wi

0,15

0,3

0,25

0,15

0,1

0,05

Если исследуется некоторый непрерывный признак, то вариационный ряд может состоять из очень большого количества чисел. В этом случае удобнее использовать группированную выборку. Для ее получения интервал, в котором заключены все наблюдаемые значения признака, разбивают на несколько равных частичных интервалов длиной h, а затем находят для каждого частичного интервала ni - сумму частот вариант, попавших в i-й интервал. Составленная по этим результатам таблица называется группированным статистическим рядом:

Таблица

Номера интервалов

1

2

k

Границы интервалов

(a, a + h)

(a + h, a + 2h)

(b - h, b)

Сумма частот вариант, попавших в интервал

n1

n2

nk

Полигон частот. Выборочная функция распределения и гистограмма.

Рис. 1.

Для наглядного представления о поведении исследуемой случайной величины в выборке можно строить различные графики. Один из них - полигон частот: ломаная, отрезки которой соединяют точки с координатами (x1, n1), (x2, n2),…, (xk, nk), где xiоткладываются на оси абсцисс, а ni- на оси ординат. Если на оси ординат откладывать не абсолютные (ni), а относительные (wi) частоты, то получим полигон относительных частот (рис.1). Рис. 1.

По аналогии с функцией распределения случайной величины можно задать некоторую функцию, относительную частоту события X < x.

Определение 15.1. Выборочной (эмпирической) функцией распределения называют функцию F*(x), определяющую для каждого значения х относительную частоту события X < x.

Замечание. В отличие от эмпирической функции распределения, найденной опытным путем, функцию распределения F(x) генеральной совокупности называют теоретической функцией распределения. F(x) определяет вероятность события X < x, а F*(x) - его относительную частоту. При достаточно больших п, как следует из теоремы Бернулли, F*(x) стремится по вероятности к F(x).

Из определения эмпирической функции распределения видно, что ее свойства совпадают со свойствами F(x), а именно:

1) 0 ? F*(x) ? 1.

2) F*(x) - неубывающая функция.

3) Если х1 - наименьшая варианта, то F*(x) = 0 при х? х1; если хк - наибольшая варианта, то F*(x) = 1 при х > хк .

Для непрерывного признака графической иллюстрацией служит гистограмма, то есть ступенчатая фигура, состоящая из прямоугольников, основаниями которых служат частичные интервалы длиной h, а высотами - отрезки длиной ni /h (гистограмма частот) или wi /h (гистограмма относительных частот). В первом случае площадь гистограммы равна объему выборки, во втором - единице (рис.2). Рис.2.

Примеры построения гистограмм

По результатам тестирования по математике учащихся 7-го класса получены данные о доступности заданий теста (отношение числа учащихся, правильно выполнивших задания, к числу тестировавшихся учащихся), представленные ниже, в таблице. Тест содержал 25 заданий. Построить гистограмму.

Таблица

Доступность задания x, %

25-35

35-45

45-55

55-65

65-75

75-85

85-95

Количество задач n

1

1

5

7

7

3

1

Решение.

Откладываем на оси абсцисс 7 отрезков длиной 10. На них, как на основаниях, строим прямоугольники, высоты которых соответственно равны 1, 1, 5, 7, 7, 3, 1. Полученная ступенчатая фигура и является искомой гистограммой.

Рис.

Данные, приведенные в предыдущем примере представим более подробно (см. таблицу ниже.). Построить гистограмму.

Таблица

Доступность задания x, %

30-35

35-40

40-45

45-50

50-55

55-60

Количество задач n

1

1

0

3

2

2

Доступность задания x, %

60-65

65-70

70-75

75-80

80-85

85-90

Количество задач n

5

3

4

0

3

1

Решение. Далее на рисунке построена гистограмма по этим данным. Получено изображение более подробной информации о распределении данных.

Рис.

Понятие случайной величины

Случайные величины

Случайной называют величину, которая в результате испытания примет одно и только одно возможное значение, наперед неизвестное и зависящее от случайных причин, которые заранее не могут быть учтены.

Пример I. Число родившихся мальчиков среди ста новорожденных есть случайная величина, которая имеет следующие возможные значения: 0, 1, 2 100.

Пример 2. Расстояние, которое пролетит снаряд при выстреле из орудия, есть случайная величина. Действительно, расстояние зависит не только от установки прицела, но и от многих других причин (силы и направления ветра, температуры и т. д.), которые не могут быть полностью учтены. Возможные значения этой величины принадлежат некоторому промежутку (а, Ь).

Мы будем далее обозначать случайные величины прописными буквами X, Y, Z, а их возможные значения соответствующими строчными буквами х, у, z. Например, если случайная величина X имеет три возможных значения, то они будут обозначены так: x1, х2, х3.

Дискретные и непрерывные случайные величины

Вернемся к примерам, приведенным выше. В первом из них случайная величина X могла принять одно из следующих возможных значений: 0, 1,2, .... 100. Эти значения отделены одно от другого промежутками, в которых нет возможных значений X. Таким образом, в этом примере случайная величина принимает отдельные, изолированные возможные значения.

Во втором примере случайная величина могла принять любое из значении промежутка (а, Ь). Здесь нельзя отделить одно возможное значение от другого промежутком, не содержащим возможных значений случайной величины.

Уже из сказанного можно заключить о целесообразности различать случайные величины, принимающие лишь отдельные, изолированные значения и случайные величины, возможные значения которых сплошь заполняют некоторый промежуток.

Дискретной (прерывной) называют случайную величину, которая принимает отдельные, изолированные возможные значения с определенными вероятностями. Число возможных значений дискретной случайной величины может быть конечным или бесконечным.

Непрерывной называют случайную величину, которая может принимать все значения из некоторого конечного или бесконечного промежутка. Очевидно, число возможных значений непрерывной случайной величины - бесконечно.

Размещено на Allbest.ru

...

Подобные документы

  • Теория вероятности, понятие вероятности события и её классификация. Понятие комбинаторики и её основные правила. Теоремы умножения вероятностей. Понятие и виды случайных величин. Задачи математической статистики. Расчёт коэффициента корреляции.

    шпаргалка [945,2 K], добавлен 18.06.2012

  • Классификация случайных событий. Функция распределения. Числовые характеристики дискретных случайных величин. Закон равномерного распределения вероятностей. Распределение Стьюдента. Задачи математической статистики. Оценки параметров совокупности.

    лекция [387,7 K], добавлен 12.12.2011

  • Сходимость последовательностей случайных величин. Центральная предельная теорема для независимых одинаково распределенных случайных величин. Основные задачи математической статистики, их характеристика. Проверка гипотез по критерию однородности Смирнова.

    курсовая работа [1,6 M], добавлен 13.11.2012

  • Общая характеристика сходимости последовательностей случайных величин и вероятностных распределений. Значение метода характеристических функций в теории вероятностей. Методика решения задач о типах сходимости. Анализ теоремы Ляпунова и Линдеберга.

    курсовая работа [2,6 M], добавлен 22.07.2011

  • Пространство элементарных событий. Понятие совместных и несовместных событий и их вероятностей. Плотность распределения вероятностей системы двух случайных величин. Числовые характеристики системы. Закон генеральной совокупности и его параметры.

    контрольная работа [98,1 K], добавлен 15.06.2012

  • Основные понятия, которые касаются центральной предельной теоремы для независимых одинаково распределенных случайных величин и проверки статистических гипотез. Анализ сходимости последовательностей случайных величин и вероятностных распределений.

    курсовая работа [582,0 K], добавлен 13.11.2012

  • Статистическое, аксиоматическое и классическое определение вероятности. Дискретные случайные величины. Предельные теоремы Лапласа и Пуассона. Функция распределения вероятностей для многомерных случайных величин. Формула Байеса. Точечная оценка дисперсии.

    шпаргалка [328,7 K], добавлен 04.05.2015

  • Вероятность события. Теоремы сложения и умножения событий. Теорема полной вероятности события. Повторные независимые испытания. Формула Бернулли, формула Пуассона, формула Муавра-Лапласа. Закон распределения вероятностей случайных дискретных величин.

    контрольная работа [55,2 K], добавлен 19.12.2013

  • Определение числа исходов, благоприятствующих данному событию. Теорема умножения вероятностей и сложения несовместных событий, локальная теорема Лапласа. Расчет среднеквадратического отклонения величин. Несмещенная оценка генеральной средней и дисперсии.

    контрольная работа [91,0 K], добавлен 31.01.2011

  • Сходимость последовательностей случайных величин и вероятностных распределений. Метод характеристических функций. Проверка статистических гипотез и выполнение центральной предельной теоремы для заданных последовательностей независимых случайных величин.

    курсовая работа [364,8 K], добавлен 13.11.2012

  • Основные методы формализованного описания и анализа случайных явлений, обработки и анализа результатов физических и численных экспериментов теории вероятности. Основные понятия и аксиомы теории вероятности. Базовые понятия математической статистики.

    курс лекций [1,1 M], добавлен 08.04.2011

  • Предмет и метод математической статистики. Распределение непрерывной случайной величины с точки зрения теории вероятности на примере логарифмически-нормального распределения. Расчет корреляции величин и нахождение линейной зависимости случайных величин.

    курсовая работа [988,5 K], добавлен 19.01.2011

  • Изучение закономерностей массовых случайных явлений. Степень взаимосвязи теории вероятностей и статистики. Невозможные, возможные и достоверные события. Статистическое, классическое, геометрическое, аксиоматическое определение вероятности. Формула Бейеса.

    реферат [114,7 K], добавлен 08.05.2011

  • Вероятность и ее общее определение. Теоремы сложения и умножения вероятностей. Дискретные случайные величины и их числовые характеристики. Закон больших чисел. Статистическое распределение выборки. Элементы корреляционного и регрессионного анализа.

    курс лекций [759,3 K], добавлен 13.06.2015

  • Примеры пространства элементарных событий. Вероятность появления одного из двух несовместных событий. Функция распределения F(x,y) системы случайных величин. Расчет математического ожидания и дисперсии. Закон генеральной совокупности и его параметры.

    контрольная работа [178,1 K], добавлен 15.06.2012

  • Пространство элементарных событий, математическое ожидание. Функции распределения и плотности распределения составляющих системы случайных величин. Числовые характеристики системы. Условия нормировки плотности системы случайных непрерывных величин.

    практическая работа [103,1 K], добавлен 15.06.2012

  • Бесконечное число возможных значений непрерывных случайных величин. Рассмотрение непрерывной случайной величины Х с функцией распределения F(x). Кривая, изображающая плотность вероятности. Определение вероятности попадания на участок a до b через f(x).

    презентация [64,0 K], добавлен 01.11.2013

  • Показатели безотказности как показатели надежности невосстанавливаемых объектов. Классическое и геометрическое определение вероятности. Частота случайного события и "статистическое определение" вероятности. Теоремы сложения и умножения вероятностей.

    курсовая работа [328,1 K], добавлен 18.11.2011

  • История и основные этапы становления и развития основ теории вероятности, ее яркие представители и их вклад в развитие данного научного направления. Классификация случайных событий, их разновидности и отличия. Формулы умножения и сложения вероятностей.

    контрольная работа [22,6 K], добавлен 20.12.2009

  • Понятия теории вероятностей и математической статистики, применение их на практике. Определение случайной величины. Виды и примеры случайных величин. Закон распределения дискретной случайной величины. Законы распределения непрерывной случайной величины.

    реферат [174,7 K], добавлен 25.10.2015

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.