Теория вероятностей
Рассмотрение предмета теории вероятностей. Наивероятнейшее число наступлений события в независимых испытаниях. Дискретные величины и их виды. Законы распределения дискретных случайных величин. Сущность закона больших чисел и его значение в статистике.
Рубрика | Экономика и экономическая теория |
Вид | курс лекций |
Язык | русский |
Дата добавления | 04.12.2014 |
Размер файла | 669,7 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru/
1. Случайные события
1.1 Предмет теории вероятностей
вероятность дискретный статистика
В процессе всей своей жизни человек часто сталкивается с событиями и явлениями, исход которых заранее не определен. Например, студент не знает, какие именно вопросы задаст экзаменатор, служащий - сколько времени у него займет дорога на работу завтра (через неделю), инвестор - окупятся ли его инвестиции, страховщик - причину и размер выплаты страхового вознаграждения и т. д. Тем не менее, в подобных ситуациях, связанных с неопределенностью, человеку необходимо принимать решение.
Теория вероятностей - это математическая дисциплина, изучающая закономерности, происходящие в массовых однородных случайных явлениях и процессах.
С возникновением теории вероятностей наука получила мощный аппарат исследования случайных явлений и процессов, до этого исследовались лишь детерминированные явления и опыты, в которых первоначальные условия однозначно позволяли определить исход. Между тем, случайные явления присутствуют во многих областях науки (биологии, генетике, агрономии, экономике, демографии, технике и т.д.), когда заранее невозможно предсказать результат опыта.
Исторически зарождение и развитие теории вероятностей связано с азартными играми, в которых требовалось обосновать то или иное решение..
Вероятность события - это число, всегда связанное с каким-либо пространством элементарных событий, природа которого не имеет значения. Понятие вероятности обычно строится на интуитивных соображениях (например, вероятность появления герба при подбрасывании симметричной монеты очевидно равна 1/2) и связано с понятием статистической устойчивости относительной частоты события при большом числе опытов. При подбрасывании монеты достаточно большое число раз относительная частота появлений герба будет колебаться около 0,5, следовательно, можно говорить, что вероятность появления герба равна 0,5. Наличие устойчивости относительной частоты появления события позволяет судить о вероятности, как об объективной характеристике события в данном опыте, имеющей вполне определенное значение, независимо от того, будут проводиться опыты или нет.
Целью современной теории вероятностей является выявление общих закономерностей и зависимостей, а также описание физических явлений с помощью абстрактных моделей.
Математическая статистика - это раздел математики, в котором изучаются математические методы систематизации, обработки, анализа и представления статистических данных для научных и практических выводов.
Математическая статистика использует математический аппарат и выводы теории вероятностей. Связующим звеном между теорией вероятностей и математической статистикой является закон больших чисел и так называемые предельные теоремы
2. Алгебра событий
Одним из основных понятий теории вероятностей является опыт. Под опытом понимается выполнение комплекса условий, в результате которого происходят или не происходят определенные события (факты). Событие это возможный результат опыта или испытания.
Простейшие неразложимые результаты опыта называются элементарными событиями (i), а вся совокупность элементарных событий называется пространством элементарных событий ={i}. С каждым опытом связано свое пространство элементарных событий .
Любое конечное или счетное подмножество называется событием. Различают три типа событий:
достоверные (),
случайные,
невозможные (Ш или ).
События обычно обозначают первыми прописными буквами латинского алфавита: А, В, С,…. Событие называется достоверным, если в результате опыта оно обязательно произойдет. Событие называется невозможным, если оно не может произойти в данном опыте. Случайным называется событие, которое в данном опыте может произойти, а может и не произойти..
События А и В несовместны, если в результате одного опыта они не могут происходить одновременно, в противном случае - совместны. Например, при одном подбрасывании монеты не могут одновременно появиться герб и решетка.
Элементы последовательности событий А1, А2,…,Аn попарно несовместны, если любые два из них несовместны. Например, при подбрасывании игральной кости никакие два элементарных исхода (появление цифр 1, 2, 3, 4, 5, 6) не могут произойти одновременно. Несколько событий равновозможные, если ни одно из них не является более возможным, чем другие. Несколько событий называются единственно возможными, если в результате испытания произойдет хотя бы одно из них.
События А1,…,Аn образуют полную группу, если в результате опыта кроме этих событий ничего не может произойти, т. е. они являются несовместными и единственно возможными. Обычно изображают на плоскости в виде некоторой области, а i в виде точек этой области, устанавливая, таким образом, соответствие между событиями и точечными множествами. Над событиями вводятся операции, совпадающие с операциями над множествами: сумма, произведение, отрицание. 1. Суммой событий А и В называется такое третье событие А+В (или АВ), которое заключается в наступлении хотя бы одного из событий или А, или В. 2. Произведением двух событий А и В называется такое третье событие АВ (или ), которое заключается в наступлении событий А и В одновременно. Если события А и В несовместны, то АВ= . 3. Отрицанием события А называется событие (не А), заключающееся в не наступлении события А
А+=, А=
Причем, если в результате опыта может произойти событие А, то может произойти и обратное ему событие .
Если наступление события А приводит к наступлению события В и наоборот (наступление В влечет наступление А), то события А и В равны (А=В).
Пусть S - множество всех подмножеств , для которого выполняются следующие свойства:
если то
если то
если то ,
тогда множество S называется алгеброй событий.
1.3 Определения вероятности события
Существует несколько подходов к определению вероятности события. Аксиоматическое определение вероятности.
Вероятность события - это численная мера объективной возможности его появления.
Аксиомы вероятности:
Каждому событию A ставится в соответствие неотрицательное число p, которое называется вероятностью события A:
Если события несовместны, то верно равенство:
,
.P() = 1 ,
где - истинное (достоверное) событие.
Пространство элементарных событий с заданной в нем алгеброй S (или - алгеброй) и определенной на S вероятностью - неотрицательной мерой P(A), AS называется вероятностным пространством и обозначается (, S, P). Вероятностное пространство служит математической моделью любого случайного явления в теории вероятностей.
Аксиоматический подход не указывает, как конкретно находить вероятность, поэтому для решения задач целесообразно использовать подходы к определению вероятности, которые перечислены ниже.
Классическое определение вероятности.
Пусть события S (*)
образуют множество элементарных событий. Тогда события, из (*), которые приводят к наступлению события A, называются благоприятствующими исходами для события А, m(A) - число благоприятствующих исходов.
Вероятностью события А называется отношение числа исходов, благоприятствующих наступлению события А к числу всех возможных элементарных исходов
. (1.1)
Из классического определения следуют свойства вероятности:
,
P()=1,
P()=0.
= - достоверное событие, поэтому
или
Статистическое определение вероятности.
Пусть проводится серия опытов (n раз), в результате которой наступает или не наступает некоторое событие А (m раз), тогда отношение , при , называется статистической вероятностью события А.
Иногда, при рассмотрении бесконечных множеств удобно рассматривать геометрическое определение вероятности.
Геометрическое определение вероятности.
Геометрической вероятностью события А называется отношение меры области, благоприятствующей появлению события А, к мере всей области.
1.4 Элементы комбинаторики
Комбинаторика (комбинаторный анализ) - раздел дискретной математики, посвященный решению задач выбора и расположения элементов некоторого, обычно конечного, множества в соответствии с заданными правилами.
Правило произведения. Пусть из некоторого конечного множества
1-й объект можно выбрать к 1 способами,
2-ой объект - к 2 способами,
n-ый объект - к n способами.
Тогда произвольный набор, перечисленных n объектов, из данного множества можно выбрать к1·к2·…·кn способами.
Правило суммы. При выполнении условий (1.2), любой из объектов можно выбрать к1 + к2 + к3 + …+ кn способами.
Обычно в комбинаторике рассматривается идеализированный эксперимент по выбору наудачу к элементов из n. При этом элементы: а) не возвращаются обратно (схема выбора без возвращений); б) возвращаются обратно (схема выбора с возвращением).
I. Схема выбора без возвращений. Размещением из n элементов по к называют любой упорядоченный набор из к элементов, принадлежащих n элементному множеству. Различные размещения отличны друг от друга или порядком элементов, или составом.
Число размещений из n элементов по к обозначается и вычисляется по формуле
, (1.3)
где n!=, 1!=1 , 0!=1.
Перестановкой из n элементов называют размещение из n элементов по n. Перестановки отличаются друг от друга порядком своих элементов. Число перестановок из n элементов обозначают Рn и вычисляют по формуле
. (1.4)
Сочетанием из n элементов по к называется любой набор из к элементов, принадлежащих n элементному множеству. Различные сочетания отличаются друг от друга только составом своих элементов.
Число сочетаний из n элементов по к обозначается и вычисляется по формуле
. (1.5)
Справедливы тождества:
(1.6)
II.Схема выбора с возвращениями. Если при выборе к элементов из n - элементы возвращаются обратно и упорядочиваются, то говорят, что это размещения с повторениями.
Число размещений с повторениями
. (1.7)
Если при выборе к элементов из n элементы возвращаются обратно без последующего упорядочивания, то говорят, что это сочетания с повторениями. Число сочетаний с повторениями из n элементов по к
. (1.8)
III. Схема упорядоченных разбиений. Пусть к1,к2,…,кr - целые числа, такие, что
к1 + к2+…+кr=n, кi0 (i=1,2,...,r)
Число способов, которыми генеральную совокупность из n элементов можно разделить на r упорядоченных частей (r подмножеств или r групп), из которых первая содержит к1 элементов, вторая - к2 элементов и r-тая - кr элементов обозначается Сn (к1, к2,…, кr) и вычисляется по формуле
. (1.9)
Числа, которые определяются по формуле (1.9), называются полиномиальными коэффициентами.
2. Основные теоремы теории вероятностей
2.1 Теоремы сложения вероятностей
Теорема 1. Вероятность суммы двух несовместных событий А и В равна сумме их вероятностей:
P(A+B)=P(A)+P(B). (1.10)
Следствие 1. Если - попарно несовместные события, то вероятность их суммы равна сумме вероятностей этих событий:
. (1.11)
Следствие 2. Вероятность суммы попарно несовместных событий, образующих полную группу, равна 1:
. (1.12)
Следствие 3. События А и несовместны и образуют полную группу событий, поэтому
. (1.13)
Отсюда,
Теорема 2. Вероятность суммы двух совместных событий А и В равна сумме вероятностей этих событий без вероятности их произведения:
. (1.14)
Введем понятие зависимых и независимых событий.
Два события А и В называются независимыми, если появление одного из них не влияет на вероятность появления другого (в противном случае события зависимы).
Теорема 3. Вероятность произведения двух независимых событий А и В равна произведению их вероятностей:
(1.15)
Следствие. Вероятность произведения n независимых событий ,,..., равна произведению их вероятностей:
. (1.16)
Условной вероятностью события В, при условии, что событие А уже произошло, называется число P(AB)/P(A), которое обозначается
.
Аналогично,
условная вероятность события А, при условии, что событие В уже произошло.
Теорема 4. Вероятность произведения 2-х зависимых событий А и В равна произведению вероятности наступления события А на условную вероятность события В при условии, что событие А уже произошло:
. (1.17)
Следствие. Если события А и В независимы, то из теоремы 4 следует теорема 3.
Событие В не зависит от события А, если P(B/A)=P(B).
Теорема 5. Вероятность произведения n зависимых событий - ,,..., равна произведению последовательных условных вероятностей:
.(1.18)
Теорема 6. Вероятность наступления хотя бы одного из событий А1, А2,…, Аn равна разности между единицей и вероятностью произведения отрицаний событий А1, А2,…, Аn:
.
Следствие 1. Вероятность наступления хотя бы одного из событий ,, ... , , независимых в совокупности, равна разности между единицей и произведением вероятностей противоположных событий:
P(A)=1-P()·P()·...·P(). (1.20)
Следствие 2. Если события имеют одинаковую вероятность появиться (P()=р, P()=1-р=q, где i=1, 2,…, n), то вероятность появления хотя бы одного из них равна
Замечание. В теоремах 1-6 неявно предполагается, что все события, в рамках каждой теоремы, принадлежат одному пространству элементарных событий.
2.2 Формула полной вероятности. Формула вероятности гипотез
Пусть событие А может наступать только одновременно с одним несовместных событий Н1,Н2, …,Hn, образующих полную группу. Тогда вероятность события А определятся по формуле полной вероятности:
Р(A)= Р(H1)МР(A/H1)+Р(H2)МР(A/H2)+…+ Р(Hn)МР(A/Hn)
Р(A)= Hi)МР(A/Hi), (1.22)
где события Н1,Н2, …,Hn, - гипотезы, а P(A/Hi) - условная вероятность наступления события А при наступлении i-ой гипотезы (i=1, 2,…, n).
Условная вероятность гипотезы , при условии того, что событие А произошло, определяется по формуле вероятности гипотез или формуле Байеса (она позволяет пересмотреть вероятности гипотез после наступления события А):
(1.23)
3. Повторные независимые испытания
3.1 Формула Бернулли
Постоянные условия опыта. а) Пусть некоторый опыт повторяется в неизменных условиях n раз, причём каждый раз может либо наступить (успех), либо не наступить (неудача) некоторое событие А, где Р(А)=р ? вероятность успеха, Р()= 1- р= q - вероятность неудачи. Тогда вероятность того, что в к случаях из n произойдёт событие А вычисляется по формуле Бернулли:
. (1.24)
Условия, приводящие к формуле Бернулли, называются частной схемой повторных независимых испытаний или схемой Бернулли. Так как вероятности Pn(к) для различных значений к представляют собой слагаемые в разложении бинома Ньютона:
++…+…+,
то распределение вероятностей Pn(к), где , называется биномиальным.
Переменные условия опыта. Если в каждом из независимых испытаний вероятности наступления события А разные (общая схема повторения опытов), то вероятность наступления события А к раз в n опытах, определяется как коэффициент, при к-ой степени полинома
(1.25)
n(Z) - производящая функция.
3.2 Наивероятнейшее число наступлений события в независимых испытаниях
Число наступления события А в п независимых испытаниях называется наивероятнейшим, если вероятность наступить событию это число раз является наибольшей по сравнению с вероятностями других исходов.
Наивероятнейшее число наступивших событий в схеме Бернулли - ко (коN), определяется из следующего неравенства:
np- qко np+ p. (1.26)
3.3 Локальная теорема Муавра-Лапласа
При большом числе опытов по схеме Бернулли удобнее пользоваться приближенными формулами.
Если вероятность р наступления события А в каждом из п независимых испытаний постоянна и отлична от 0 и 1, а число испытаний ьдостаточно велико (npq10), то вероятность того, что событие А появится к раз в п независимых испытаниях приближенно равна, то
Рn (к) , (1.27)
где x=. (1.28)
Для облегчения вычислений функция
(x)= (1.29)
представлена в виде таблицы и имеет следующие свойства:
(x) - четная;
при x4, (x) 0
3.4 Интегральная теорема Муавра-Лапласа. Пуассоновское приближение
Формула Пуассона.
Если вероятность р наступления события А в каждом испытании постоянна и стремится к нулю, а число испытаний достаточно велико (npq<10 и p<0,1), то вероятность того, что событие А появится к раз в п независимых испытаниях приближенно равна
, (1.30)
где .
При больших значениях n , для вычисления вероятности того, что произойдет от к1 до к2 событий в п независимых испытаниях по схеме Бернулли, используется интегральная формула Муавра-Лапласса:
Рn ()=Ф(x2) - Ф(x1), (1.31)
где x1 = , x2 =, Ф(х) - функция Лапласа.
Ф(x) имеет следующие свойства:
1) Ф(-x)= -Ф(x) - функция нечетная, поэтому достаточно применять её для неотрицательных значений x:
Ф(x)= ; (1.32)
2) функция Ф(x) возрастает на всей числовой оси;
3) при x4, Ф(x)( y=0,5- горизонтальная асимптота при x>0), поэтому функция представлена в виде таблицы для ;
Вероятность отклонения относительной частоты от постоянной вероятности в независимых испытаниях не более чем на некоторое число >0:
Рn = 2Ф. (1.33)
4. Дискретные случайные величины
4.1 Дискретные величины и их виды
Случайной величиной (СВ) называют такую величину, которая в результате опыта может принимать те или иные значения, причем до опыта мы не можем сказать какое именно значение она примет. Случайные величины обозначаются последними буквами латинского алфавита - X,Y,Z… Случайные величины могут быть трех типов:
- дискретные:
- непрерывные;
- смешанные (дискретно-непрерывные).
Дискретная случайная величина (ДСВ) может принимать конечное или бесконечное счетное число значений. Например, подбрасываем монету 5 раз. Случайная величина Х - число появлений герба: 0, 1, 2, 3, 4, 5.
Непрерывная случайная величина (НСВ) в отличие от ДСВ принимает бесконечное несчетное число значений. Например, мишень имеет форму круга радиуса R. По этой мишени произвели выстрел с обязательным попаданием. Обозначим через Y расстояние от центра до точки попадания в мишень, Y [0; R]. Y - непрерывная случайная величина, так как она принимает бесконечное неcчетное число значений.
Пусть Х - дискретная случайная величина, которая принимает значения: x1, x2, …,xn некоторой вероятностью рi , где i = 1, 2,…,п, тогда можно говорить о вероятности того, что случайная величина Х приняла значение xi: рi=P(X =xi).
4.2 Закон распределения вероятностей дискретной случайной величины
Законом распределения случайной величина называется всякое соотношение, устанавливающее связь между возможными значениями случайной величины и соответствующими им вероятностями. Закон распределения дискретной случайной величины может быть задан в виде таблицы, графика или аналитически.
Значения xi и соответствующие рi представляют в виде таблицы:
xi |
x1 |
x2 |
x3 |
… |
xn |
|
рi |
р1 |
р2 |
р3 |
… |
рn |
Эта таблица является одной из форм задания ДСВ. Обычно значения случайной величины располагаются в возрастающем порядке. Основное свойство таблицы заключено в том, что сумма вероятностей равна 1:
= р1 + р2 + р3 +…+ рn +…= 1. (2.1)
Дискретная случайная величина может быть представлена так же в виде многоугольника (полигона) распределения - фигуры состоящей из точек (xi, pi), соединённых отрезками.
Над случайными величинами устанавливаются операции сложения и умножения.
1. Суммой двух случайных величин Х и Y называется случайная величина Z, которая получается в результате сложения всех значений случайной величины X и всех значений случайной величины Y, соответствующие вероятности перемножаются.
2. Произведением двух случайных величин Х и Y называется случайная величина U, которая получается в результате перемножения всех значений случайной величины Х и всех значений случайной величины Y, соответствующие вероятности перемножаются.
4.3 Математическое ожидание и его свойства.
На практике нет необходимости характеризовать величину полностью. Обычно достаточно указать только отдельные числовые параметры распределения. Такие числовые параметры принято называть числовыми характеристиками распределения. Прежде всего, это характеристики положения ряда распределения: математическое ожидание, медиана, мода; характеристики рассеяния: дисперсия, среднее квадратическое отклонение.
Две случайные величины называются независимыми, если закон распределения одной из них не меняется от того, какие значения приняла другая случайная величина. В противном случае они являются зависимыми.
Математическим ожиданием M(X) дискретной случайной величины X называется среднее значение случайной величины:
===. (2.6)
Или иначе, M(X) - это сумма парных произведений случайной величины на соответствующую вероятность:
=. (2.7)
Мода Mо(X) распределения - это значение случайной величины, имеющее наиболее вероятное значение.
Медиана Me(X) - это значение случайной величины, которое делит таблицу (закон) распределения на две части таким образом, что вероятность попадания в одну из них равна 0,5.
Свойства математического ожидания:
1) M(C) = C, где C =const;
2) M(CX) = CM(X);
3) M(X±Y) = M(X) ± M(Y);
Если случайные величины X и Y, независимы, то
M(XY) = M(X)M(Y);
М (Х - М(Х)) = 0.
Для распределения Бернулли М(Х)=p;
для биномиального распределения: M(X)=np;
для геометрического закона: M(X)=q/p;
для геометрического закона +1: M(X)= 1/р;
для отрицательного биномиального распределения: М(Х)=(кq)/p;
для распределения Пуассона: M(X)=.
4.4 Дисперсия дискретной случайной величины и ее свойства
Дисперсия служит для характеристики рассеяния случайной величины относительно ее математического ожидания и характеризует форму кривой распределения.
Дисперсией дискретной случайной величины X называется математическое ожидание квадрата отклонений случайной величины от ее математического ожидания:
==.
Свойства дисперсии:
D(С) = 0, где C=const;
D(CX)=C2D(X);
D(X)=M(X2)-(M(X))2,
где ;
Если случайные величины X и Y независимы, то:
D(XY)= D(X) + D(Y);
5) D(C+X)= D(X);
6) Для любых случайных величин Х и Y, D(XY)=D(X)+D(Y)2cov(X,Y),
где cov(X,Y)=M((X-mx)(Y-my)) - ковариация случайных величин X и Y (М(Х)= mx, М(Y)= my).
Дисперсия случайной величины равна разности между математическим ожиданием квадрата случайной величины и квадратом ее математического ожидания.
Дисперсия характеризует средний квадрат отклонения ДСВ, поэтому на практике часто используют в качестве характеристики разброса среднее квадратическое отклонение
(X)=
которое имеет ту же размерность, что и СВ Х.
Для распределения Бернулли: D(Х)=pq;
для биноминального закона: D(X)= npq, (Х)=;
для геометрического закона и для геометрического закона+1: D(X)=;
для отрицательного биномиального распределения:D(Х)= (кq)/(p2);
для гипергеометрического: D(X)=;
для распределения Пуассона: D(X)= .
Только для распределения Пуассона M(X)=D(X) =.
4.5 Одинаково распределенные взаимно-независимые случайные величины
Случайные величины называют одинаково распределенными, если они имеют одинаковые законы распределения.
Поэтому у них совпадают числовые характеристики: математическое ожидание, дисперсия, среднее квадратическое отклонение.
Пусть X1, X2,…, Xn одинаково распределенные, взаимно независимые дискретные случайные величины, тогда:
M(X1) = M(X2) = …= M(Xn) = M(X), D(X1) = D(X2) = …= D(Xn) = D(X).
Рассмотрим характеристики их средней арифметической
=:
М()==(M(X1) + M(X2) + …+ M(Xn))=n M(X)= M(X);
2) D()==(D(X1) + D(X2) + …+ D(Xn))=n D(X). D()=D(X)/n;
3)
стандартное отклонение среднего арифметического взаимно независимых одинаково распределенных случайных величин.
4) Дисперсия относительной частоты появления события А в n независимых испытаниях (в каждом из которых событие А появляется с вероятностью равной р, и не появляется с вероятностью q=1-p; m - число появлений события А в серии из n испытаний), равна
D=.
5. Непрерывные случайные величины
5.1 Интегральная функция распределения случайной величины и ее свойства
Для непрерывной случайной величины X вероятность 0, поэтому для нее удобнее использовать вероятность того, что случайная величина Х примет значение меньше х, где- текущее значение переменной. Эта вероятность = называется интегральной функцией распределения. Интегральная функция является универсальным способом задания случайных величин.
Свойства интегральной функции распределения:
1) не убывающая функция, т. е. если , то ;
2) =0;
3) =1;
4) вероятность попадания случайной величины X в интервал а <Х< b:
Р(аХ<b)=-. (3.1)
Вообще для непрерывных случайных вевичин верно:
Р(а<Х<b)= Р(аХ<b) =Р(а<Хb)= Р(аХb).
5.2 Дифференциальная функция (плотность распределения) непрерывной случайной величины и ее свойства
Случайная величина X непрерывна, если ее интегральная функция непрерывна на всей числовой оси. Случайная величина X непрерывна и имеет дифференциальную функцию, если ее интегральная функция непрерывна и дифференцируема всюду, за исключением конечного числа точек на любом конечном промежутке.
Дифференциальной функцией (функцией плотности вероятности) случайной величины X называется производная ее функции распределения:
f(x)=. (3.2)
С помощью дифференциальной функции можно получить формулу вероятности попадания случайной величины X в заданный интервал:
P ()=-. (3.3)
Свойства дифференциальной функции:
1) f(x)0;
2) 1;
3) F(x)= .
5.3 Числовые характеристики непрерывных случайных величин
1) Математическое ожидание непрерывной случайной величины X определяется по формуле:
M(X)= . (3.4)
Если непрерывная случайная величина X определена на интервале (а; b), то:
M(X)= . (3.5)
2) Мода непрерывной случайной величины X будет определяться как максимум ее дифференциальной функции:
Mо(X) (3.6)
3) Медиана определяется как значение случайной величины, которое делит площадь под дифференциальной функцией на две равные части.
Mе(X): . (3.7)
4) Дисперсия непрерывной случайной величины :
D(X)==. (3.8)
Все свойства дисперсии и математического ожидания, установленные для ДСВ, сохраняются для НСВ.
Если распределение симметрично, то его мода, медиана и математическое ожидание совпадают.
6. Основные законы распределения случайных величин
6.1 Основные законы распределения дискретных случайных величин.
Закон распределения Бернулли. Случайная величина Х, распределенная по закону Бернулли, принимает значения 1- успех или 0 - неудача, с вероятностями p и q соответственно (p+q=1).
xi |
0 |
1 |
|
pi |
q |
p |
2. Биномиальный закон распределения. Случайная величина X принимает значения: 0, 1, 2, 3, 4, 5,…, n , с вероятностью, определяемой по формуле Бернулли (1.24):
xi |
0 |
1 |
2 |
… |
к |
… |
n |
|
pi |
… |
… |
3. Закон распределения Пуассона. Случайная величина Х принимает бесконечное счетное число значений: 0, 1, 2, 3, 4, 5,…, к ,… , с вероятностью, определяющейся по формуле Пуассона:
Р(Х=к)=, (2.2)
где >0 - параметр распределения Пуассона.
xi |
0 |
1 |
2 |
… |
к |
… |
|
pi |
… |
… |
При n и p0 биномиальный закон приближается к закону распределения Пуассона, где =np.
4. Геометрический закон распределения. Пусть P(А)=p- вероятность наступления события А в каждом опыте, соответственно, q=1-p - вероятность не наступления события А (схема Бернулли).
Вероятность появления к - неудач до первого наступления события А определяется по формуле:
P(X=m)=pqm. (2.3)
Случайная величина Х распределенная по геометрическому закону принимает значения: 0,1,2,…,к,…, с вероятностью, определяемой по формуле (2.3):
xi |
0 |
1 |
2 |
… |
m |
… |
|
рi |
p |
pq |
pq2 |
… |
Pqm |
… |
5. Геометрический закон распределения сдвинутый на единицу.
Вероятность наступления события А в m-ом опыте определяется по формуле:
P(X=к)=pqm-1. (2.4)
Случайная величина Х - распределенная по геометрическому закону, сдвинутому на 1 (геометрический закон +1), означает число опытов до первого появления события А и принимает значения: 1, 2,…,к,… , с вероятностью, определяемой по формуле (2.4):
xi |
1 |
2 |
3 |
… |
к |
… |
|
рi |
p |
pq |
pq2 |
… |
pqк-1 |
… |
6. Отрицательное биномиальное распределение. Если производится ряд независимых опытов в каждом из которых событие А появляется с вероятностью р, до получения m успехов (m=0,1,2,…),то при этом вероятность Х=к "неудачных" опытов можно определить по формуле:
(к = 0,1,2,...). (2.5)
Вероятность появления к-неудач, до получения m-успехов совпадает с m-ым членом разложения выражения qк(1-р)-к по степеням р, т.е. отрицательного бинома (отсюда и название):
.
Распределение определяется двумя параметрами «m» и «р».
6.2 Равномерное распределение
Случайная величина X распределена по равномерному (прямоугольному) закону, если ее функция плотности вероятностей принимает постоянное значение на промежутке (a.b) и равна нулю вне его.
Дифференциальная функция равномерного закона на интервале (,)
(4.1)
Интегральная функция равномерного закона на интервале (,) (рис.11):
(4.2)
Основные числовые характеристики равномерного закона:
1. Математическое ожидание:
=====. (4.3)
совпадает, в силу симметрии распределения, с медианой.
2. Моды равномерное распределение не имеет.
3. Дисперсия: ==
==-=-
-==. (4.4)
Отсюда, среднее квадратическое отклонение (x)==. (4.5)
6. Вероятность попадания случайной величины в заданный интервал (a;b).
====. (4.6)
6.3 Нормальное распределение
Нормальное распределение играет исключительную роль в теории вероятностей. Это наиболее часто встречающийся закон распределения, главной особенностью которого является то, что он является предельным законом, к которому, при определённых условиях, приближаются другие законы распределения.
Дифференциальная функция нормального закона имеет вид:
f(x) = . (4.7)
Числовые характеристики нормального закона:
1. Математическое ожидание характеризует центр распределения:
== а, где = exp (x);
2. Дисперсия характеризует форму распределения:
D(X) = -()2= .
Свойства дифференциальной функции нормального закона:
1. Область определения: Df = R;
2. Ось 0X - горизонтальная асимптота;
3. x = ау - две точки перегиба;
4. Максимум в точке с координатами:
а;
5. График симметричен относительно прямой x=а;
6. Вероятность попадания нормально распределенной случайной величины в заданный интервал определяется, по свойству интегральной функции:
Р(< x <) = Ф*-Ф*=Ф-Ф, где
- (4.8)
интегральная функция нормального закона; Ф(х) - функция Лапласа.
Вероятность заданного отклонения. Правило трех сигм. Найдем вероятность того, что случайная величина Х, распределённая по нормальному закону, отклонится от математического ожидания M(X)=a не более чем на величину >0.
Р (| x - а| <)= Р (-< x - а < +) = Р (а -< x < а +) =
= Ф*- Ф*= Ф*- (1- Ф* ) = 2 Ф* - 1
или используя функцию Лапласа:
P(|X-а|<)=2Ф. (4.9)
Найдём вероятность того, что нормально распределённая случайная величина X отклонится от M(X) = а на 3:
Р(| x - а| < 3)= 2 Ф=2 Ф(3)= 20,4965 = 0,9973.
Отсюда следует правило 3: если случайная величина X имеет нормальное распределение, то отклонение этой случайной величины от ее математического ожидания по абсолютной величине не превышает утроенное среднее квадратическое отклонение (3).
4) Показательное распределение. Непрерывная случайная величина Х, принимающая неотрицательные значения, имеет показательное распределение, если ее дифференциальная функция имеет вид
(4.10)
где =const, >0.
Интегральная функция показательного закона:
(4.11)
Числовые характеристики показательного закона:
Математическое ожидание:;
2. Дисперсия: ,
3. Среднее квадратическое отклонение: (Х)==.
Вероятность попадания случайной величины Х в заданный интервал:
=. (4.12)
Показательное распределение играет большую роль в теории массового обслуживания (ТМО), теории надежности. В ТМО - среднее число событий приходящихся на единицу времени. При определенных условиях, число событий, произошедших за промежуток времени , распределено по закону Пуассона с математическим ожиданием а = . Длина промежутка t, между произвольными двумя соседними событиями, подчиняется показательному закону: P(T<t)=F(t)=1-et .
7. Функции случайных величин и векторов
7.1 Закон распределения функции случайных величин
Пусть имеется непрерывная случайная величина X с функцией плотности вероятности f(x). Другая случайная величина Y связана со случайной величиной X функциональной зависимостью: Y=ц(X). Случайная точка (X, Y) может находиться только на кривой y=ц(x).
Дифференциальная функция случайной величины Y определяется при условии, что ц(x) - монотонна на интервале (a, b), тогда для функции ц(x) существует обратная функция:
ц-1=Ш, х = Ш(y).
Обычно числовая прямая разбивается на n промежутков монотонности и обратная функция находится на каждом из них, поэтому:
, (5.1)
g(y) - дифференциальная функция случайной величины Y.
Математическое ожидание и дисперсию случайной величины Y - функции случайной величины X(Y=(Х)), имеющей дифференциальную функцию f(x), можно определить по формулам:
(5.2)
. (5.3)
Пример. Случайная величина X подчиняется нормальному закону распределения с математическим ожиданием а и дисперсией 2, то есть дифференциальная функция имеет вид:
Найти дифференциальную функцию случайной величины Y=X2
Решение. На (0;) , для y=x2, обратная функция x= = 1;
на (- ;0) - обратная функция
x= -= 2 . По формуле (5.1):
g(y)= =
=
При a=0 и =1: .
7.2 Композиция законов распределения
В приложениях часто рассматривается вопрос о распределении суммы нескольких случайных величин. Например, пусть Z=X+Y, тогда G(z) -интегральную функцию случайной величины Z можно определить по формуле:
G(z) =dyf(x, z-x)dx=dxf(z-y,y)dy, (5.4)
где f(x,y)-дифференциальная функция системы случайных величин (X,Y);
область D - полуплоскость, ограниченная сверху прямой y=z-x.
Отсюда,
.
Если X и Y независимы, то говорят о композиции законов распределения случайных величин и дифференциальная функция случайной величины Z определяется как
g(z)=f 1 (x) f2(z-x)dx=f 1 (z-y) f2(y)dx, (5.5)
где f 1 (x) и f2(y) дифференциальные функции случайной величины X и Y соответственно.
Если возможные значения аргументов неотрицательны, то дифференциальную функцию случайной величины Z определяют по формуле:
g(z)=f 1 (x) f2(z-x)dx (5.6)
g(z)=f 1 (z-y) f2(y)dy. (5.7)
7.3 Специальные законы распределения
1. 2 -распределение Пирсона. Пусть X1, X2, …,Xn одинаково распределенные по нормальному закону случайные величины, являющиеся взаимно-независимыми, для которых математическое ожидание равно нулю, а среднеквадратическое отклонение 1, тогда сумма квадратов этих случайных величин носит название случайной величины ч2 - xu-квадрат с =n степенями свободы:
(5.8)
При н=1 (учитывая пример ) дифференциальная функция 2:
Дифференциальная функция распределения ч2 с =n степенями свободы
задаётся формулой
, (5.9)
где Г(x) -гамма, функция Эйлера.
Г(x)=, при R+; если nZ, то Г(n+1)=n!
С возрастанием числа степеней свободы = n, распределение ч2 медленно приближается к нормальному закону распределения. На практике используют обычно не плотность вероятности, а квантили распределения (прил. 2).
2. t- распределение Стьюдента. Это распределение имеет большое значение при статистических вычислениях, связанных с нормальным законом распределения, где - неизвестный параметр распределения и подлежит определению из опытных данных, например, при статистической обработке наблюдений с неизвестной точностью.
Пусть X, X1, X2,…,Xk ? независимые нормально распределённые случайные величины с нулевыми математическими ожиданиями и одинаковыми дисперсиями. Безразмерная величина t:
t = =, (5.10)
называется дробью Стьюдента.
Ее распределение не зависит от в силу ее безразмерности. Дифференциальная функция t-распределения с =k степенями свободы имеет вид:
f(t)=. (5.11)
t-распределение Стьюдента, которое быстрее, чем ч2 стремится к нормальному.
3. F- распределение Фишера-Снедекора.
Пусть X1, X2, …,Xm и Y1, Y2, …,Yn одинаково распределенные по нормальному закону случайные величины, являющиеся взаимно-независимыми, для которых математическое ожидание равно нулю, а среднеквадратическое отклонение равно единице.
Рассмотрим дробь Фишера:
F(m, n)=, (5.12)
она имеет F - распределение с 1=m - числом степеней свободы числителя, и 2=n - числом степеней свободы знаменателя ((m, n) степенями свободы), которое называется распределением Фишера-Снедекора.)
Распределения 2 - Пирсона, t - Стьюдента, F - Фишера-Снедекора нашли широкое применение в математической статистике, в частности при проверке статистических гипотез и в дисперсионном анализе.
8. Многомерные случайные величины
8.1 Понятие многомерной случайной величины и способы ее задания на примере двумерной дискретной случайной величины
В практических задачах приходится сталкиваться со случаями, когда результат описывается двумя и более случайными величинами, образующими систему случайных величин (случайный вектор) (x1, x2,…, xn). Например, точка попадания снаряда имеет две координаты: x и y, которые можно принять за систему случайных величин, (x, y) определенных на одном и том же пространстве элементарных событий . Случайные величины, входящие в систему, могут быть как дискретными, так и непрерывными.
Закон распределения дискретной двумерной случайной величины можно представить в виде таблицы, характеризующей собой совокупность всех значений случайных величин и соответствующих вероятностей:
x1 |
x2 |
… |
xn |
P(yj) |
||
y1 |
P(x1,y1) |
P(x2,y2) |
… |
P(xn,y1) |
P(y1) |
|
y2 |
P(x1,y2) |
P(x2,y2) |
… |
P(xn,y2) |
P(y2) |
|
… |
… |
… |
… |
… |
… |
|
ym |
P(x1,ym) |
P(x2,ym) |
… |
P(xn,ym) |
P(ym) |
|
Pxi |
P(x1) |
P(x2) |
… |
P(xn) |
1 |
Так как события, состоящие в том, что случайная величина Х примет значение х, а случайная величина У примет значение у несовместные и единственно возможные, то их сумма равна единице.
8.2 Функции распределения многомерной случайной величины
В общем случае двумерная случайная величина задается в виде интегральной функции: F(x, y) = P(X<x, Y<y), которая означает вероятность попадания двумерной случайной величины в квадрант левее и ниже точки с координатами (x, y).
Свойства интегральной функции:
1. F- не убывающая и непрерывная функция слева по каждому аргументу;
2. F(-, y)= F(x,-)= F(-, -)= 0;
3. F(+, y)= F2(y) - функция распределения случайной величины Y;
F(x,+)= F1(x) - функция распределения случайной величины X;
4. F(+, +)= 1.
Дифференциальная функция системы двух непрерывных случайных величин определяется как вторая смешанная производная функции распределения:
f (x, y) = = (x, y). (6.1)
Свойства дифференциальной функции:
1.f (x, y)>0;
2.= 1;
3.F(x, y) =.
Геометрически свойство 2 означает, что объем тела ограниченного поверхностью f (x, y) и плоскостью XОY равен 1.
Если случайные величины x и y независимы, то
f(x, y) = f1(x) f2(y), (6.2)
где f1(x)= (x), f2(y)= (y)
безусловные законы распределения.
В противном случае:
f(x, y) = f1(x) f(y/x) или f(x,y) = f2(y) f(x/y), где
f(y/x)= - (6.3)
условная дифференциальная функция случайной величины Y при заданном значении X = x,
f(x/y)= - (6.4)
условная дифференциальная функция случайной величины X при заданном значении Y= y;
и
дифференциальные функции отдельных величин X и Y, входящих в систему.
Вероятность попадания двумерной случайной величины в полуполосу и прямоугольник.
Вероятность попадания двумерной случайной величины в прямоугольник определяется, исходя из определения интегральной функции двумерной случайной величины (рис.1):
P ((x, y) D) = F (,) - F (,) - F (,) + F (,) (6.5)
Числовые характеристики системы двух случайных величин
Начальным моментом порядка s,h системы двух случайных величин X, Y называется математическое ожидание произведения степени s случайной величины Х и степени h случайной величины Y:
(6.6)
Центральным моментом порядка s, h систем двух случайных величин (X, Y) называется математическое ожидание произведения степеней s, h соответствующих центрированных случайных величин
(6.7)
где = X - M (X),= Y - M (Y)
центрированные случайные величины X и Y.
Основным моментом порядка s, h систем двух случайных величин (X,Y) называется нормированный центральный момент порядка s,
. (6.8)
Начальные моменты 1,0, 0,1:
1,0 = M ()= M (X); 0,1 = M () = M (Y). (6.10)
Вторые центральные моменты:
Характеризует рассеяние случайных величин в направлении оси 0X.
(6.11)
Характеризует рассеяние случайных величин в направлении оси 0Y.
Особую роль в качестве характеристики совместной вариации случайных величин X и Y играет второй смешанный центральный момент, который называется корреляционным моментом (ковариацией):
м1,1=M()=К(X,Y)=cov(X, Y)=M(XY) - M(X)M(Y). (6.12)
Корреляционный момент является мерой связи случайных величин.
Если случайные величины X и Y независимы, то математическое ожидание ХУ равно произведению их математических ожиданий:
M (XY)= M (X) M (Y), отсюда cov (X,Y)=0.
Если ковариация случайных величин не равна нулю, то случайные величины коррелированны. Ковариация может принимать значения на всей числовой оси, поэтому в качестве меры связи используют основной момент порядка s=1, h=1,который называют коэффициентом корреляции:
rxy=, (6.13)
где ,.
Коэффициент корреляции служит мерой линейной зависимости между случайными величинами.
Свойства коэффициента корреляции:
1. -1 rxy 1;
2. Если rxy =1, то случайные величины линейно зависимы;
3. Если rxy = 0, то случайные величины не коррелированны, что не означает их независимости вообще.
Замечание. Если случайные величины Х и Y подчиняются нормальному закону распределения, то некоррелированность СВ Х и Y означает их независимость.
9. Закон больших чисел
9.1 Сущность закона больших чисел и его значение в статистике и экономике
Под законом больших чисел в теории вероятностей понимается совокупность теорем, в которых устанавливается связь между средним арифметическим достаточно большого числа случайных величин и средним арифметическим их математических ожиданий.
В повседневной жизни, бизнесе, научных исследованиях мы постоянно сталкиваемся с событиями и явлениями с неопределённым исходом. Например, торговец не знает, сколько посетителей придёт к нему в магазин, бизнесмен не знает курс доллара через 1 день или год; банкир - вернут ли ему заём в срок; страховые компании - когда и кому придётся выплачивать страховое вознаграждение.
Развитие любой науки предполагает установление основных закономерностей и причинно-следственных связей в виде определений, правил, аксиом, теорем.
Связующим звеном между теорией вероятностей и математической статистикой являются так называемые предельные теоремы, к которым относится закон больших чисел. Закон больших чисел определяет условия, при которых совокупное воздействие множества факторов приводит к результату, не зависящего от случая. В самом общем виде закон больших чисел сформулировал П.Л.Чебышев. Большой вклад в изучение закона больших чисел внесли А.Н.Колмогоров, А.Я.Хинчин, Б.В.Гнеденко, В.И.Гливенко.
К предельным теоремам относится также так называемая Центральная предельная теорема А.Ляпунова, определяющая условия, при которых сумма случайных величин будет стремиться к случайной величине с нормальным законом распределения. Эта теорема позволяет обосновать методы проверки статистических гипотез, корреляционно-регрессионный анализ и другие методы математической статистики.
Дальнейшее развитие центральной предельной теоремы связано с именами Линденберга, С.Н. Бернштейна, А.Я. Хинчина, П.Леви.
Практическое применение методов теории вероятностей и математической статистики основано на двух принципах, фактически основывающихся на предельных теоремах:
принцип невозможности наступления маловероятного события;
принцип достаточной уверенности в наступлении события, вероятность которого близка к 1.
В социально - экономическом смысле под законом больших чисел понимается общий принцип, в силу которого количественные закономерности, присущие массовым общественным явлениям, отчетливо проявляются лишь в достаточно большом числе наблюдений. Закон больших чисел порожден особыми свойствами массовых социальных явлений. Последние, в силу своей индивидуальности, отличаются друг от друга, а также имеют нечто общее, обусловленное их принадлежностью к определенному виду, классу, к определенным группам. Единичные явления в большей степени подвержены воздействию случайных и несущественных факторов, чем масса в целом. В большом числе наблюдений взаимно погашаются случайные отклонения от закономерностей. В результате взаимопогашения случайных отклонений средние, исчисленные для величин одного и того же вида, становятся типичными, отражающими действие постоянных и существенных факторов в данных условиях места и времени. Тенденции и закономерности, вскрытые с помощью закона больших чисел, - это массовые статистические закономерности.
9.2 Неравенство и теорема Чебышева
Лемма Чебышева (Маркова). Если случайная величина X принимает только неотрицательные значения и имеет математическое ожидание M(X), то для любого имеет место неравенство:
P(X). (7.1)
Неравенство Чебышева. Если случайная величина Х имеет математическое ожидание M(X) и дисперсию D(X), то для любого имеет место неравенство:
P(|x-|<) 1- . (7.2)
Неравенство Чебышева является в теории вероятностей общим фактом и позволяет оценить нижнюю границу вероятности.
Если произведено n независимых испытаний по схеме Бернулли, где p - вероятность успеха, q - вероятность неудачи, n - число опытов, к - число успехов, то для случайной величины имеет место неравенство:
. (7.3)
Для относительной частоты появления события аналогичное неравенство имеет вид:
. (7.4)
Теорема. Закон больших чисел Чебышева. Пусть X1, X2, …,Xn - последовательность попарно независимых случайных величин, имеющих конечные математические ожидания и дисперсии, ограниченные сверху постоянной
С = const (D(Xi) С (i=1, 2,…,n))
Тогда для любого >0,
(7.5)
Теорема показывает, что среднее арифметическое большого числа случайных величин с вероятностью, сколь угодно близкой к 1, будет мало отклоняться от среднего арифметического математических ожиданий.
Следствие 1. Если вероятность наступления события A в каждом из n независимых испытаний равна p, к - число наступлений события A в серии из n независимых испытаний, то, каково бы ни было число >0, имеет место предел:
(|-p|<) = 1 (7.6)
Таким образом устанавливается связь между относительной частотой появления события A и постоянной вероятностью р в серии из n независимых испытаний.
Следствие 2. Теорема Пуассона. Если в последовательности независимых испытаний вероятность появления события А в r-ом испытании равна рr, то
(7.7)
где к - число появлений события А в серии из n испытаний.
Следствие 3. Теорема Бернулли. Если X1, X2, …,Xn - последовательность независимых случайных величин таких, что M(X1) =
M(X2) =…= M(Xn) = а, D(X1) < C, D(X2) < C,…,D(Xn) < C,
где C = const, то, каково бы ни было постоянное число >0, имеет место предел:
(|-а|<) = 1. (7.8)
Законы больших чисел не позволяют уменьшить неопределённость в каждом конкретном случае, они утверждают лишь о существовании закономерности при достаточно большом числе опытов. Например, если при подбрасывании монеты 10 раз появился герб, то это не означает, что в 11 раз появится цифра.
9.3 Понятие о центральной предельной теореме
В теории вероятностей и математической статистике большое значение имеет центральная предельная теорема Ляпунова, в которой утверждается, что если сложить большое число случайных величин, имеющих один или различные законы распределения, то случайная величина, являющаяся результатом суммы, при некоторых условиях будет иметь нормальный закон распределения.
Примером центральной предельной теоремы (для последовательности независимых случайных величин) является интегральная теорема Муавра-Лапласа.
Теорема 1. Пусть производится n независимых опытов в каждом из которых вероятность наступления события А равна р (не наступления q=1-р, p0, p1). Если К - число появлений события А в серии из n испытаний, то при достаточно больших n случайную величину К можно считать нормально распределенной
M(К)=np, :
P(К<к) P(X<x0) = , (7.9)
где x0 = , =, Ф(x0) - функция Лапласа.
В более общем случае верна следующая теорема.
Теорема 2. Если случайные величины Х1, Х2,… Хn независимы, одинаково распределены и имеют конечную дисперсию, то при n:
, (7.10)
где M(Хi)=а, 2=D(Хi);
U - нормально распределенная случайная величина, M(U)=0, D(U)=1.
10. Математическая статистика
10.1 Предмет и основные задачи математической статистики.
Математическая статистика - это раздел математики, в котором изучаются математические методы систематизации, обработки, анализа и представления статистических данных для научных и практических выводов.
Математическая статистика использует математический аппарат и выводы теории вероятностей. Связующим звеном между теорией вероятностей и математической статистикой является закон больших чисел и так называемые предельные теоремы. В частности, закон больших чисел аргументирует применение средней арифметической в качестве оценки математического ожидания и относительной частоты появления события как оценки вероятности. Последнее обосновывает понятие статистической устойчивости.
Всю жизнь человек вынужден принимать решения. Принятие решений обычно преследует одну из целей: прогнозирование будущего состояния процесса (объекта); управление (т.е. как следует изменять одни параметры объекта (процесса), чтобы другие параметры приняли желаемое значение); объяснение внутренней структуры объекта (процесса).
Одним из основных подходов к обоснованию и последующему принятию решений является статистический.
В математической статистике предполагается, что результаты опытных данных и наблюдений являются реализацией различных случайных процессов, имеющих те или иные законы распределения (причем неизвестные заранее), а иногда и детерминированные составляющие (регрессионный анализ). Отсюда вытекают основные задачи математической статистики:
организация наблюдений;
нахождение по результатам выборочных наблюдений оценок числовых характеристик всей совокупности и исследование точности их приближения (выборочный метод);
решение вопроса согласования результатов оценивания с опытными данными (проверка статистических гипотез);
оценка существенности влияния факторных признаков на результативный (дисперсионный анализ);
выявление аналитической зависимости между наблюдениями факторных и результативных признаков (корреляционно-регрессионный анализ).
По существу математическая статистика дает единственный, математически обоснованный аппарат для решения задач управления и прогнозирования при отсутствии явных закономерностей (наличии случайностей) в изучаемых процессах.
Математическая статистика позволяет обосновать ответ на вопросы: случайно или закономерно изучаемое явление; как зависит результативный признак от факторного; сколько необходимо провести наблюдений для объективного суждения об изучаемом явлении; какой фактор сильнее влияет на результат и т.д.
Методы математической статистики можно разделить на описательные (дескриптивные) и аналитические. Описательные методы позволяют охарактеризовать реальные наблюдения с помощью таблиц, графиков, параметров положения (среднее арифметическое, мода, медиана), рассеяния (среднее квадратическое отклонение, дисперсия, коэффициент вариации) и т. д.
Аналитические методы позволяют на основании выборочных наблюдений сделать статистически значимые выводы о наличии закономерностей для всей совокупности. Аналитические методы обычно основываются на соответствующих вероятностных моделях, предполагающих нормальное (или другое известное) распределение совокупности изучаемого признака - методы параметрической статистики.
Другим направлением аналитических методов, являются методы непараметрической статистики, которые не опираются на нормальное распределение (или любое другое) и не используют его свойства.
Основная цель математической статистики - это получение и обработка данных для статистически значимой поддержки процесса принятия решения, например, при решении задач планирования, управления, прогнозирования.
...Подобные документы
Законы распределения случайных величин. Закон распределения Пуассона. Свойства плотности вероятности. Критериальные случайные величины. Свойство коэффициента корреляции. Закон больших чисел и его следствия. Предельные теоремы теории вероятностей.
курс лекций [774,3 K], добавлен 11.03.2011Комбинаторный метод вычисления вероятностей. Понятие случайных величин. Характеристики положения и рассеивания. Закон больших чисел. Центральная предельная теорема. Статистическое оценивание характеристик распределения генеральной совокупности по выборке.
учебное пособие [554,6 K], добавлен 15.06.2015Распределение вероятностей случайных величин. Числовые характеристики случайных величин. Смешанные начальный и центральный моменты совместного распределения совокупности случайных величин. Физический смысл понятия корреляции. Модель потока редких событий.
лекция [429,8 K], добавлен 02.08.2009Составление закона распределения случайной величины X—числа студентов, успешно сдавших экзамен. Расчет математического ожидания, дисперсии и среднего квадратического отклонения случайной величины. Таблица накопленных частот для сгруппированной выборки.
курсовая работа [1,8 M], добавлен 11.01.2015Основы статистического контроля качества продукции. Типовые расчеты по курсу теории вероятностей: построение закона распределения и расчет основных характеристик непрерывной случайной величины. Интервальное оценивание параметров генеральной совокупности.
контрольная работа [1,2 M], добавлен 21.01.2016Математические методы систематизации и использования статистических данных для научных и практических выводов. Формирование закономерностей массовых социально-экономических процессов. Толкование экономических явлений посредством закона больших чисел.
контрольная работа [19,5 K], добавлен 28.10.2010Группы средних величин: степенные, структурные. Особенности применения средних величин, виды. Рассмотрение основных свойств средней арифметической. Характеристика структурных средних величин. Анализ примеров на основе реальных статистических данных.
курсовая работа [230,6 K], добавлен 24.09.2012Виды и применение абсолютных и относительных статистических величин. Сущность средней в статистике, виды и формы средних величин. Формулы и техника расчетов средней арифметической, средней гармонической, структурной средней. Расчет показателей вариации.
лекция [985,6 K], добавлен 13.02.2011Абсолютные и относительные статистические показатели, методы прогнозирования. Закон распределения вероятностей дискретной случайной величины. Оценки параметров генеральной совокупности. Статистическое исследование социально-экономического потенциала.
шпаргалка [1,8 M], добавлен 16.05.2012Сущность и разновидности средних величин в статистике. Определение и особенности однородной статистической совокупности. Расчет показателей математической статистики. Что такое мода и медиана. Основные показатели вариации и их значение в статистике.
реферат [162,6 K], добавлен 04.06.2010Абсолютная величина как объем или размер изучаемого события. Виды абсолютных величин: абсолютная и суммарная. Группы величин: моментная и интервальная единицы измерения. Виды относительных величин. Виды средних величин: степенные и структурные.
презентация [173,3 K], добавлен 22.03.2012Понятие абсолютной и относительной величины в статистике. Виды и взаимосвязи относительных величин. Средние величины и общие принципы их применения. Расчет средней через показатели структуры, по результатам группировки. Определение показателей вариации.
лекция [29,1 K], добавлен 25.09.2011Статистические ряды распределения, их значение в статистике. Подразделение вариационных рядов на дискретные и интервальные, особенности их применения. Практическое задание: использование статистических рядов для оценки состояния предприятия и отрасли.
контрольная работа [134,2 K], добавлен 17.11.2009Теория стоимости и ее эволюция. Трудовая теория стоимости. Прибавочная теория стоимости. Теория издержек производства как основа ценообразования. Теория предельной полезности. Сущность и значение закона стоимости. Формирование закона стоимости.
курсовая работа [68,8 K], добавлен 02.01.2003Познавательная, методологическая и практическая функции экономической теории. Ее составляющие: теория оптимального функционирования национальной экономики и ее элементов, рационалистическая теория потребления, производства, распределения и обмена.
контрольная работа [26,6 K], добавлен 03.04.2009Схема собственно-случайной бесповторной выборки. Определение средней ошибки выборки для среднего значения, среднего квадратического отклонения и предельной ошибки выборки. Определение эмпирического распределения. Расчетное значение критерия Пирсона.
контрольная работа [96,3 K], добавлен 05.03.2012Экономическая теория как наука, её метод и функции. Индукция как выведение теории из фактов. Позитивная и нормативная экономическая теория. Микро- и макроэкономика как часть экономической теории. Сущность основных экономических моделей и экспериментов.
контрольная работа [31,2 K], добавлен 08.09.2010Анализ взаимосвязи и взаимодействия человеческого общества и экономической среды. Общая характеристика этапов эволюции предмета экономики. Основные методы изучения экономической теории. Понятие, значение и виды потребностей и экономических ресурсов.
реферат [20,5 K], добавлен 24.02.2010Экономическая теория: предмет и метод. Категории и законы. Товар, его сущность и возможности. Стоимость как общественное отношение. Свойства товара. Развитие отношений обмена. Маркетинг, его сущность и проблема маркетинга в Украине. Теории потребления.
контрольная работа [23,7 K], добавлен 13.02.2009Первичный анализ экспериментальных данных. Построение эмпирической плотности распределения случайной анализируемой величины и расчет ее характеристик. Определение вида закона распределения величины и расчёт его параметров при помощи метода моментов.
курсовая работа [1,2 M], добавлен 23.05.2009