Элементы теории вероятности

Случайные события и их классификация, понятие о вероятности события. Изучение операций над спонтанными явлениями, вероятности их суммы и произведения. Повторные независимые испытания, формула Бернулли. Случайная величина и её числовые характеристики.

Рубрика Математика
Вид лекция
Язык русский
Дата добавления 25.01.2013
Размер файла 1,3 M

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

1) Проверить гипотезу Н0 о нормальном законе распределения случайной величины Х - времени бесперебойной работы станка. Применить критерий согласия при уровне значимости равном 0,05;

2) Выписать плотность вероятности и функцию распределения этой случайной величины;

3) Найти вероятность того, что время бесперебойной работы станка будет не менее 35 часов;

4) Построить гистограмму и кривую распределения этой случайной величины;

Дано:

Время бесперебойной работы t б - в

кол-во станков ni

xi

xi *ni

20-30

10

25

250

2890

0,1

0,084

8

0,29

30-40

30

35

1050

1470

0,3

0,321

32

0,14

40-50

40

45

1800

360

0,4

0,400

40

0,00

50-60

20

55

1100

3380

0,2

0,164

16

0,79

m = 4

n = 100

;

По таблице получено опытное значение

По таблице на странице 558 получено критическое значение

Опытное значение < , следовательно Н0 не отвергается.

2)

Неизвестные параметры б и у приближенно равны их выборочным оценкам . При достаточно большом объеме выборки в соответствии с законом больших чисел практически достоверно, что разница между оценкой и параметром сколь угодно мала.

3)

Расхождение между теоретическим и опытным значением связано с тем, что изучалась не вся совокупность, а лишь ее часть.

Замечание:

Расхождение между теоретическими и опытными данными неизбежно, т.к. рассматривается лишь часть генеральной совокупности, однако, если расхождение велико, то это заставляет предполагать, что теоретическая модель неадекватна реальности.

Двумерная случайная величина

Двумерной случайной величиной называется упорядоченная пара случайных величин .

Каждое значение двумерной случайной величины Z это упорядоченная пара чисел x и y. Вероятность этого значения это вероятность совместного наступления событий:

Пусть двумерная случайная величина Z принимает только дискретные значения, т.е. обе случайные величины x и y являются дискретными. Тогда каждое значение случайной величины Z определяется парой и характеризуется совместной вероятностью .

Закон распределения дискретной двумерной величины можно записать в виде таблицы, которая называется корреляционной таблицей и содержит значения случайных величин X и Y и их совместные вероятности.

Таблица 1.

...

...

...

...

В нижней строчке таблицы стоят полные вероятности для каждого из значений Х.

(1)

В крайнем правом столбце таблицы стоят полные вероятности для каждого из значений Y.

(2)

Из каждой из составленной случайной величины можно составить отдельный закон распределения.

Таблица 2.

...

Таблица 3.

...

Для случайных величин X и Y по таблице 2 и 3 можно вычислить M и D по обычным формулам.

Пример № 1.

Пусть двумерная случайная величина Z (X; Y) задана корреляционной таблицей. Найти:

1 вероятность того, что P (Z), где Z (10;200)

2 M(X), D(X), у(X)

3 M(Y), D(Y), у(Y)

10

20

30

100

0,1

0,2

0,1

0,4

200

0,3

0,1

0,2

0,6

0,4

0,3

0,3

Р (10;200)=0,3

10

20

30

0,4

0,3

0,5

100

200

0,4

0,6

Для двумерной случайной величины вводят понятие условного распределения. Фиксируем какое-либо значение одной из случайных величин и находим условную вероятность для другой случайной величины.

(3) , где

- условная вероятность того, что при условии, что Y принимает значения i и j;

- совместная вероятность того, что , , т.е.

- полная вероятность того, что Y приняло значение , т.е.

(3)

Аналогично можно определить условную вероятность того, что Y принимает значение при фиксированном значении Х.

(4)

Пример № 1 (продолжение):

- вычислить условную вероятность, что х = 30 при y = 100;

- составить условное распределение для х при y = 200;

- найти условную вероятность, что y = 100 при х = 20;

- составить условное распределение для y при х = 10;

1)

2) y = 200

10

20

30

3)

4) x = 10

100

200

Условные математические ожидания.

Если построить условное распределение, т.е. ряд распределения одной случайной величины при фиксированном значении другой случайной величины, то можно для каждого из условных распределений посчитать математическое ожидание, которое называется условным математическим ожиданием.

Если фиксировано значение , то условное математическое ожидание для y вычисляется по формуле:

(5)

Если фиксировано значение , то условное математическое ожидание для х определяется формулой:

(6)

Пример № 1 (продолжение):

1) вычислить условное математическое ожидание для х при условии y = 200;

2) вычислить условное математическое ожидание для y при условии х = 10;

1) y = 200

10

20

30

2) x = 10

100

200

Условные математические ожидания являются функциями от той переменной, которая задает условия.

(7)

Уравнения, выражающие зависимость условного математического ожидания от условия называются уравнениями регрессии, т.е. уравнения 7 это уравнения регрессии.

Виды зависимости между случайными величинами

1. Функциональная - если каждому значению х соответствует единственное значение y.

2. Статистическая - если каждому значению х соответствует целый ряд распределения значения y (и наоборот). Такая зависимость задается корреляционной таблицей 1.

3. Корреляционная - это функциональная зависимость между значениями одной случайной величины и условными математическими ожиданиями другой случайной величины. Корреляционная зависимость выражается уравнениями регрессии.

Частота или мера корреляционной зависимости определяется корреляционным моментом.

Корреляционный момент это:

(8)

Если случайны величины Х и Y независимы, то корреляционный момент равен 0. обратное неверно.

Если , то случайные величины называются не корреляционными.

Линейная регрессия

Если уравнение регрессии является линейным, то говорят, что между x и y существует линейная корреляционная зависимость.

Линейная корреляционная зависимость задается следующими уравнениями зависимости:

(I) - I линейное уравнение регрессии y по х;

(II) - II линейное уравнение регрессии х по y;

Как правило параметры a, b, c, d неизвестны.

Чтобы их найти организуют случайную выборку и по результатам этой выборки методом наименьших квадратов определяют параметры a, b, c, d.

Мерой тесноты линейной корреляционной зависимости является коэффициент линейной корреляции.

(9)

По результатам выборки неизвестные характеристики генеральной совокупности заменяются их выборочными оценками.

Генеральная совокупность

Выборочная оценка

Генеральная совокупность

Выборочная оценка

- выборочный корреляционный момент

(10)

(11)

- выборочный коэффициент линейной корреляции;

- групповые средние y по x, т.е. средние значения y вычисленные при фиксированном значении x;

- групповые средние x по y, т.е. средние значения x вычисленные при фиксированном значении y;

Свойства коэффициента линейной корреляции

- r служит для определения тесноты линейной корреляционной зависимости;

- r принимает значения от ;

- если r = 0, то между х и y не существует линейной корреляционной зависимости (но может быть не линейная);

- чем ближе модуль r к 1, тем теснее линейная корреляционная связь;

- если

- если , то между х и y возникает функциональная зависимость. Обе прямые регрессии совпадают;

значение r совпадает со знаком м (см. ф-лу 11);

Если , то между х и y существует прямая корреляционная зависимость, т.е. с ростом одной переменной другая, в среднем, тоже возрастает.

Если , то между х и y существует обратная корреляционная зависимость, т.е. с ростом значений одной переменной, другая, в среднем, убывает.

Нахождение параметров линейных уравнений регрессии методом наименьших квадратов

После того, как сделана выборка, в линейных уравнениях регрессии I и II условные математические ожидания заменяются их оценками - групповыми средними. Тогда уравнения регрессии принимают следующий вид:

- I

- II

Метод наименьших квадратов состоит в том, что неизвестные параметры a и b - I, c, d - II находятся из принципа минимизации суммы квадратов расстояний от опытных точек, полученных по выборке, до теоретических точек, полученных соответственно по уравнениям I и II. Для нахождения min указанной суммы, находятся частный производные и приравниваются к 0. Получается сумма уравнений, которые называются нормальными системами:

I

Коэффициент а в уравнении регрессии I называют коэффициентом регрессии y по x и обозначается:

(12)

Тогда уравнение регрессии I приобретает вид:

- I

В дальнейшем для удобства обозначается y и уравнение I приобретает вид:

- I, где

II аналогично с помощью M и K составляем систему нормальных уравнений для нахождения параметров c и d.

Коэффициент с обозначением называется коэффициентом регрессии x по y.

(13)

Тогда уравнение регрессии II приобретает вид:

- II

В дальнейшем для удобства обозначается y и уравнение II приобретает вид:

- II

где

Свойства коэффициентов регрессии

коэффициенты регрессии имеют одинаковый знак , совпадающий со знаком м;

коэффициенты регрессии являются угловыми коэффициентами для соответствующих прямых I и II относительно соответствующих осей, поэтому, если м > 0 и коэффициент регрессии отрицателен, то обе прямые наклонены налево.

Замечание: Прямые регрессии пересекаются в точке А с координатами .

Связь между коэффициентами корреляции и коэффициентами регрессии.

Сравнивая формулы 11, 12 и 13 получаем, что

,

где значение r выбирается так, чтобы он совпадал со знаком м.

Проверка значимости коэффициента корреляции

Выдвигается гипотеза Н0, которая заключается в том, что между переменными х и y во всей генеральной совокупности не существует линейной корреляции не существует линейной корреляционной зависимости.

Коэффициент линейной корреляции R равен 0, а его оценка r не равна 0 только потому, что вместо всей генеральной совокупности рассматривается выборка. Фактически по выборке ни о чем не говорит. Значение r не равное 0 не значимо. Т.е. проверяется гипотеза Н0: R = 0, линейной корреляционной связи нет. Для проверки этой гипотезы применяется t-критерий Стьюдента, статистика которого вычисляется по формуле:

(15)

Эта статистика затабулирована в учебнике.

Критическое значение определяется 2-мя параметрами:

1 - б, где б - уровень значимости;

n - объем выборки;

Опытное, или эмпирическое, значение t определяется по формуле 15. Если t больше tкритич. , то гипотеза Н0 отвергается, т.е. значение значимо, между х и y существует линейная корреляционная зависимость.

Пример № 3:

10 участков земли обследуются с целью определения взаимосвязи между урожайностью Y и количеством внесенных удобрений Х. данные приведены в таблице. Предполагаем, что между переменными х и y существует корреляционная зависимость. Выполнить следующие задания:

1) Вычислить групповые средние для х и для y и изобразить их на корреляционном поле, построив эмпирические линии регрессии;

2) Написать уравнения регрессии х по y и y по x и построить их графики на том же чертеже.

3) Вычислить коэффициент корреляции r и проверить его значимость при б = 0,05. сделать выводы о тесноте и направлении корреляционной связи.

4) Используя соответствующие уравнения регрессии вычислить среднюю урожайность когда количество удобрений равно 10 кг и сравнить с соответствующей средней.

12

13

14

15

5

2

1

3

10

2

2

1

5

15

1

1

2

2

3

3

2

а) групповые средние y по x:

б) групповые средние x по y:

Предварительный анализ: по групповым средним построены эмпирические линии регрессии, точки которых образуют так называемое корреляционное поле. По результатам выборки можно предварительно заключить, что связь между переменными х и y прямая, т.е. с ростом значений одной переменной, групповые средние для другой переменной возрастают. Т.к. линии расположены близко друг к другу, можно предположить, что связь между х и y достаточно тесная.

2) для уравнений регрессии нужно вычислить:

5

3

15

10

5

50

15

2

30

12

2

24

13

3

39

14

3

42

15

2

30

3) коэффициент линейной корреляции r можно вычислить по 2-м формулам:

Вывод:

- т.к. , то между переменными х и y существует прямая зависимость, т.е. с ростом одной переменной, другая в среднем возрастает;

- т.к. , то связь между х и y - тесная;

- т.к. коэффициенты регрессии > 0, то обе прямые наклонены направо;

- т.к. связь тесная, то угол между прямыми маленький, прямые близко расположены друг к другу;

Проверка значимости коэффициента корреляции.

.

Т.к. , то коэффициент корреляции r значим, между урожайностью и количеством удобрений существует тесная корреляционная зависимость;

4) Дано: Х = 10 - аргумент.

Выберем то уравнение регрессии, в котором х является аргументом. Это уравнение I. Подставляем туда 10 и получаем.

Такой будет средняя урожайность при 10 кг удобрений.

значит модель адекватна действительности.

Замечания:

1. по уравнениям регрессии I и II можно делать прогнозы, однако эти прогнозы адекватны реальности (соответствуют действительности) только вблизи центра корреляционного поля (точки );

2. если предположить, что между х и y существует не линейная корреляционная зависимость, т.е. уравнения I и II не линейные, то их неизвестные параметры тоже можно найти методом наименьших квадратов.

Размещено на Allbest.ru

...

Подобные документы

  • Вероятность события. Теоремы сложения и умножения событий. Теорема полной вероятности события. Повторные независимые испытания. Формула Бернулли, формула Пуассона, формула Муавра-Лапласа. Закон распределения вероятностей случайных дискретных величин.

    контрольная работа [55,2 K], добавлен 19.12.2013

  • Правила применения уравнения Бернулли для определения возможности наступления события. Использование формул Муавра-Лапласа и Пуассона при неограниченном возрастании числа испытаний. Примеры решения задач с помощью теоремы Бернулли о частоте вероятности.

    курсовая работа [265,6 K], добавлен 21.01.2011

  • Случайные события, их классификация. Свойство статистической устойчивости относительной частоты события. Предельные теоремы в схеме Бернулли. Аксиоматическое и геометрическое определение вероятности. Локальная и интегральная теоремы Муавра-Лапласа.

    реферат [1,4 M], добавлен 18.02.2014

  • Возникновение теории вероятности как науки. Классическое определение вероятности. Частость наступления события. Операции над событиями. Сложение и умножение вероятности. Схема повторных независимых испытаний (система Бернулли). Формула полной вероятности.

    реферат [175,1 K], добавлен 22.12.2013

  • Закон распределения случайной величины дискретного типа (принимающей отдельные числовые значения). Предельные теоремы схемы Бернулли. Вычисление вероятности появления события по локальной теореме Муавра-Лапласа. Интегральная формула данной теоремы.

    презентация [611,2 K], добавлен 17.08.2015

  • Определение вероятности появления события в каждом из независимых испытаний. Случайные величины, заданные функцией распределения (интегральной функцией), нахождение дифференциальной функции (плотности вероятности), математического ожидания и дисперсии.

    контрольная работа [59,7 K], добавлен 26.07.2010

  • Определение и оценка вероятности наступления заданного события. Методика решения задачи, с использованием теоремы сложения и умножения, формулы полной вероятности или Байеса. Применение схемы Бернулли при решении задач. Расчет квадратического отклонения.

    практическая работа [55,0 K], добавлен 23.08.2015

  • Определение вероятности наступления события, используя формулу Бернулли. Вычисление математического ожидания и дисперсии величины. Расчет и построение графика функции распределения. Построение графика случайной величины, определение плотности вероятности.

    контрольная работа [390,7 K], добавлен 29.05.2014

  • Опыт со случайным исходом. Статистическая устойчивость. Понятие вероятности. Алгебра событий. Принцип двойственности для событий. Условные вероятности. Формулы сложения и умножения вероятностей. Формула Байеса. Пространство элементарных событий.

    реферат [402,7 K], добавлен 03.12.2007

  • Теория вероятностей — раздел математики, изучающий закономерности случайных явлений: случайные события, случайные величины, их свойства и операции над ними. Методы решения задач по теории вероятности, определение математического ожидания и дисперсии.

    контрольная работа [157,5 K], добавлен 04.02.2012

  • Определение вероятности появления поломок. Расчет вероятности успеха, согласно последовательности испытаний по схеме Бернулли. Нахождение вероятности определенных событий по формуле гипергеометрической вероятности. Расчет дискретной случайной величины.

    контрольная работа [69,3 K], добавлен 17.09.2013

  • Понятие случайной величины, а также ее основные числовые характеристики. Случайная величина, подчиняющаяся нормальному закону распределения. Кривые плотности вероятности. Использование генератора случайных чисел. Изображение векторов в виде графика.

    лабораторная работа [301,4 K], добавлен 27.05.2015

  • Нахождение вероятности события, используя формулу Бернулли. Составление закона распределения случайной величины и уравнения регрессии. Расчет математического ожидания и дисперсии, сравнение эмпирических и теоретических частот, используя критерий Пирсона.

    контрольная работа [167,7 K], добавлен 29.04.2012

  • Показатели безотказности как показатели надежности невосстанавливаемых объектов. Классическое и геометрическое определение вероятности. Частота случайного события и "статистическое определение" вероятности. Теоремы сложения и умножения вероятностей.

    курсовая работа [328,1 K], добавлен 18.11.2011

  • Алгоритм определения вероятности события и выполнения статистических ожиданий. Оценка возможных значений случайной величины и их вероятности. Расчет математического ожидания, дисперсии и среднего квадратического отклонения. Анализ характеристик признака.

    контрольная работа [263,8 K], добавлен 13.01.2014

  • Теория вероятности, понятие вероятности события и её классификация. Понятие комбинаторики и её основные правила. Теоремы умножения вероятностей. Понятие и виды случайных величин. Задачи математической статистики. Расчёт коэффициента корреляции.

    шпаргалка [945,2 K], добавлен 18.06.2012

  • Классическое определение вероятности события. Способы вычисления наступления предполагаемого события. Построение многоугольника распределения. Поиск случайных величин с заданной плотностью распределения. Решение задач, связанных с темой вероятности.

    задача [104,1 K], добавлен 14.01.2011

  • Общее понятие и характеристика простейшего пространства элементарных исходов. Способы вычисления вероятности события. Классическая вероятностная модель, ее главные свойства и доказательства. Основные аксиомы теории вероятности, примеры решения задач.

    реферат [42,6 K], добавлен 24.04.2009

  • Определение вероятности наступления события по формуле Бернулли. Построение эмпирической функции распределения и гистограммы для случайной величины. Вычисление коэффициента корреляции, получение уравнения регрессии. Пример решения задачи симплекс-методом.

    контрольная работа [547,6 K], добавлен 02.02.2012

  • Определение числа всех равновероятных исходов испытания. Правило умножения вероятностей независимых событий, их полная система. Формула полной вероятности события. Построение ряда распределения случайной величины, ее математическое ожидание и дисперсия.

    контрольная работа [106,1 K], добавлен 23.06.2009

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.