Теория вероятностей

Исторические сведения о возникновении и развитии теории вероятностей. Определение случайного события и условные вероятности. Определение случайной величины и ее числовые характеристики, понятие математического ожидания. Примеры дискретных распределений.

Рубрика Математика
Вид курс лекций
Язык русский
Дата добавления 08.04.2015
Размер файла 237,1 K

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже

Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.

Размещено на http://www.allbest.ru/

Лекция 1. Некоторые исторические сведения о возникновении и развитии теории вероятностей

Теория вероятностей- это математическая наука, изучающая закономерности случайных явлений. Возникновение теории вероятностей относится к середине XVII века и связано с именами Гюйгенса (1629-1695), Паскаля (1623-1662),Ферма (1601-1665) и Я.Бернулли (1654-1705).В переписке Паскаля и Ферма, вызванной задачами, поставленными азартными играми и не укладывающимися в рамки математики того времени, привели постепенно к таким важным понятиям , как вероятность и математическое ожидание. При этом, конечно, выдающиеся ученые, занимаясь задачами азартных игр, предвидели и фундаментальную роль науки, изучающей случайные явления. Они были убеждены в том , что на базе массовых случайных событий могут возникать четкие закономерности. Формально-математический аппарат, посредством которого решались возникавшие в теории вероятностей задачи, сводился исключительно к элементарным арифметическим и комбинаторным методам.

Требования со стороны естествознания и общественной практики (теория ошибок наблюдений, задачи теории стрельбы, проблемы статистики) привели к необходимости дальнейшего развития теории вероятностей и привлечения аналитического аппарата. Особенно значительную роль в развитии аналитических методов сыграли Муавр (1667-1754), Лаплас (1749-1827), Гаусс (1777-1855), Пуассон(1781-1840). С середины XIX столетия и приблизительно до двадцатых годов ХХ столетия развитие теории вероятностей связано в значительной мере с именами русских ученых - Чебышева П.Л(1821-1894), Маркова А.А. (1856-1922), Ляпунова А.М. (1856-1918).Этот успех русской науки был подготовлен деятельностью Буняковского В.Я. (1804-1889), широко использовавшего исследования по применению теории вероятностей в статистике, в особенности в страховом деле и демографии.

Современное развитие теории вероятностей характеризуется всеобщим подъемом интереса к ней, а также расширением круга ее практических приложений. Одной из важнейших сфер приложения теории вероятностей является экономика. Многие экономические показатели (производительность труда, заработная плата, выработка на одного рабочего за смену ,, страховой запас, резервные мощности, государственные резервы, спрос на товары производителя и др.) являются случайными величинами. Прогнозирование экономических явлений осуществляется на основе эконометрического моделирования ,, регрессионного анализа, трендовых и сглаживающих моделей, опирающихся на теорию вероятностей. Результаты теории вероятностей используются для организации производства (статистический контроль в производстве). Большое значение имеет разработка статистических методов управления качеством продукции в процессе производства. Для инженерного дела серьезную роль приобрела теория надежности, широко использующая методы теории вероятностей.

Мы определили в самом начале теорию вероятностей как науку, изучающую случайные явления. Какой смысл вкладывается в понятие «случайное явление» мы рассмотрим несколько позже, а сейчас ограничимся некоторыми замечаниями. В обыденных представлениях, житейской практике считается, что случайные события представляют собой нечто крайне редкое, идущее вразрез установившемуся порядку вещей, закономерному развитию событий . Случайные события, как они понимаются в теории вероятностей, обладают рядом характерных особенностей; в частности, все они происходят в массовых явлениях, способных многократно повторяться при воспроизведении определенного комплекса условий. Теория вероятностей не занимается изучением уникальных событий , которые не допускают повторений .

теория вероятность математический дискретный

Случайные события. Стохастический эксперимент, пространство элементарных исходов

Исходными понятиями теории вероятностей являются понятия стохастического эксперимента, cлучайного события и вероятности случайного события. Стохастическими называются эксперименты, возможные исходы которых известны, но заранее предугадать, какой из них будет иметь место нельзя. Все возможные исходы эксперимента называют пространством элементарных исходов и обозначают =.

Таким образом, рассматриваемому эксперименту поставлено в соответствие некоторое множество ,точками которого являются взаимоисключающие элементарные исходы . Результатом эксперимента является один и только один исход. Рассмотрим примеры.

1. Производится эксперимент: один раз бросают монету. Множество , где буква Г означает появление герба, буква Р-появление решки.

2. Один раз бросают игральный кубик. Возможные исходы этого эксперимента - выпадение числа очков, равного 1, 2, 3, 4, 5, 6, т.е.

{1, 2, 3, 4, 5, 6} .

3. Монету бросают дважды,

Здесь ГГ означает ,что оба раза появится герб,

ГР-при первом бросании появится герб,а при втором -решка,

РГ-при первом бросании появится решка, при втором -герб,

РР-оба раза появится решка.

4. Монету бросают до первого появления герба. Возможные исходы эксперимента:

Г-герб выпадет с первого раза,

РГ-герб выпадет при втором бросании,

РРГ-герб выпадет при третьем бросании и т.д

Теоретически эксперимент может продолжаться бесконечно долго. Пространством элементарных событий такого эксперимента является бесконечное множество

5. Два лица А и В условились встретиться в интервале времени [0,T]. Обозначим

x - время прихода лица А,

Y - время прихода лица В.

Геометрически это пространство представляет квадрат, изображенный на Рис.1

Рис.1

Множество называют пространством элементарных исходов (событий).

Приведенные примеры показывают,что множество может быть дискретным и непрерывным. К дискретным относятся конечные или счетные множества элементарных исходов, к непрерывным - множества типа континуума (любой конечный или бесконечный интервал на числовой прямой является примером множества типа континуума ).

Пространство элементарных исходов зависит от условий, в которых производится случайный эксперимент. В дальнейшем будем рассматривать условия, при которых исходы эксперимента равновозможны, т.е. никакой

исход эксперимента не имеет объективного преимущества перед другими.

В рассмотренных выше примерах предполагается, что эксперименты производятся в идеальных условиях (идеальная монета бросается на идеально гладкую поверхность и т.д.).

Лекция 2. Определение случайного события

Элементарные исходы эксперимента - это простейшие случайные события и определению не подлежат. Однако в каждом случайном эксперименте кроме элементарных могут происходить и другие случайные события. Так, например, в примере 2 можно рассмотреть события:

А - выпадение четного числа очков,

В - выпадение числа очков, не меньше 4,

С - выпадение нечетного числа очков и т. д.Событие А произойдет, если будет иметь место один из исходов эксперимента выпадет число очков, равное 2 или 4 или 6. Таким образом,

А = {2, 4, 6} , В = {4, 5, 6}, C = {1, 3, 5} .

В примере 3 могут произойти события:

А - хотя бы один раз выпадет герб,

В - герб выпадет при первом бросании,

С - хотя бы один раз выпадет решка и т.д. Здесь А={ГГ, ГР, РГ}, В={ГГ,ГР}, С = {РР,РГ,ГР}.

Пусть в примере 4 событие А состоит в том, что будет сделано не более трех бросаний. Тогда

А = .

Рассмотрим задачу о встрече (пример 4).Предположим, что каждое из лиц А и В ожидает другого время, не большее чем t ,<t <Т. Пусть С-событие, состоящее в том, что встреча произойдет. Тогда

С ={(x, y) : }

Рис.2

Те элементарные исходы, при которых событие А наступает, называют благоприятствующими событию А.

Итак, случайное событие А - это некоторое подмножество . состоящее из всех тех точек - элементарных событий, которые благоприятствуют событию А.

Алгебра событий

Событие называется невозможным, если оно в эксперименте заведомо не наступит и обозначается Событие называется достоверным, если оно в эксперименте заведомо наступит и обозначается . Само множество является достоверным событием, поскольку один из его исходов обязательно произойдет. Так , в примере 2 событие - « выпадение числа очков, равного 7», является в данном случае невозможным , а событие - «выпадение числа очков, не более 6», - достоверное событие.

Если в случайном эксперименте из наступления события А следует наступление события В, то говорят , что А влечет В ( А В ).

Если А В , а В А. то говорят ,что события А и В равносильны ( А = В ).

Суммой двух событий А и В называют событие А + В (АВ), происходящее тогда и только тогда, когда происходит или событие А , или событие В. Сумма событий соответствует объединению множеств , Рис.3.

Рис.3

В примере 2 А + В= { 2, 4, 5, 6}.

Аналогичный смысл имеет сумма любого числа событий. Если I-произвольное множество значений некоторого индекса i, A -некоторое множество событий то сумма есть событие ,происходящее тогда и только тогда, когда происходит хотя бы одно событие.

Произведением двух событий А и B называют событие AВ (А В), происходящее тогда и только тогда, когда происходит и событие А, и событие В ( все события А, i) .

Произведение событий соответствует пересечению множеств, (Рис.4).

Рис.4

Для событий из примера 2 АВ = { 4, 6 }.

Разностью А \ В двух событий А и В есть событие, происходящее тогда и только тогда. когда происходит А , но не происходит В. Разность событий соответствует разности множеств, (Рис.5)

Рис.5.

В примере 2 А \ В = {2}.

Событие называется противоположным событию А, если оно происходит тогда и только тогда, когда не происходит А (соответствует дополнению множеств) Рис. 6.

Рис.6.

В примере 2 = { 1, 3, 5 }.

Операции сложения и умножения событий обладают следующими свойствами :

а) А+В = В+А , АВ = ВА (коммутативность);

б) (А+В)+С=А+(В+С) , А(ВС)=(АВ)С (ассоциативность);

в) (А+В)С=АС+ВС) (дистрибутивность умножения относительно cложения).

Отметим еще некоторые очевидные соотношения:

А, А, , .

Два события А и В называются несовместными, если невозможно их совместное наступление, иными словами АВ = .Примером несовместных событий являются А и .

Совокупность событий А ,А, … , А составляет полную группу попарно несовместных событий , если:

1) хотя бы одно из этих событий непременно происходит;

2) любая пара событий несовместна , АА=,ij, i,j=.

Лекция 3. Классическое определение вероятности

Вероятность - это количественная оценка возможности наступления

случайного события. По классическому определению, вероятностью случайного события Р(А) называется отношение числа m благоприятствующих исходов к общему числу n равновозможных исходов эксперимента

Р(А) =

Классическая вероятность обладает следующими свойствами: Р(А)0.

1. Вероятность достоверного события равна 1: Р()=1.

2. Если событие С = А+В, причем А и В несовместны, то

Р(С) = Р(А)+Р(В).

4. Вероятность противоположного события равна

Р()=1- Р(А)

5. Вероятность невозможного события равна нулю: Р() = 0.Если

АВ, то Р(А) Р(В)

6. Вероятность любого события заключена между нулем и единицей: 0 Р(А) 1.

Рассмотрим примеры на вычисление вероятностей.

Пример 1. Один раз подбрасывают монету. Чему равна вероятность выпадения герба?

Здесь , причем исходы эксперимента равновозможны , А={Г} , таким образом m=1, n=2, P(A) = .

Пример 2. Один раз подбрасывают шестигранный игральный кубик. Чему равна вероятность того, что выпадет число очков, не менее четырех?

-равновозможны, А={4,5,6}, m=3, n=6, P(A) = .

В более сложных задачах не представляется возможным наглядно записать все исходы эксперимента, а также благоприятные случайному событию исходы. В таких случаях применяются комбинаторные методы подсчета чисел m и n.

Пример 3. В ящике находится 10 деталей, среди которых 3 бракованных. Из ящика наугад извлекают 5 деталей. Найти вероятность того, что среди них окажется две бракованных.

Событие А - среди 5-ти извлеченных деталей 2 бракованных, а три доброкачественных.

Для подсчета m и n используем правило сочетаний:

n =, P(A) = = = .

Отметим недостатки классического определения вероятностей:

1.Классическое определение невозможно применить в случае бесконечного пространства элементарных исходов.

2.Существует проблема нахождения разумного способа выделения «равновозможных случаев». Например, как определить вероятность того, что родившийся ребенок окажется мальчиком?

По мере развития теории вероятностей появлялись другие определения вероятности, которые устраняли недостатки классического. Эти определения будут рассмотрены немного позже.

Лекция 4. Условные вероятности. Независимость событий

В ряде случав приходится рассматривать вероятности событий при условии, что имело место некоторое другое событие. Такие вероятности называются условными и обозначаются Р(А / В) .

Пример. Брошены две игральные кости. Чему равна вероятность того, что сумма выпавших очков равна 8, если известно , что эта сумма является четным числом?

Пусть А - сумма выпавших очков равна 8,

В - сумма выпавших очков четное число.

Найдем сначала безусловную вероятность Р(А) по классическому определению. Число всех возможных исходов эксперимента n=66=36, а сумма очков, равная 8, выпадет в следующих комбинациях:

(2,6), (3,5), (4,4), (5,3), (6,2).

Таким образом m=5 и Р(А) = .

Теперь вычислим вероятность события А при условии, что наступило событие В. В этом случае возможные исходы эксперимента составляют комбинации, при которых сумма выпавших очков- четное число, таких комбинаций - 18, поэтому m = 5, n = 18, а условная вероятность Р(А / В) = .

Два события А и В называются независимыми , если наступление одного из них не влияет на вероятность наступления другого, иными словами, если условная вероятность равна безусловной , Р(А / В) = Р(А). В противном случае события считают зависимыми. Так, в приведенном выше примере, события А и В являются зависимыми.

События А ,А, … , А называются независимыми в совокупности ,если для любого Аиз их числа и любого подмножества данной совокупности , событие А и произведение событий из подмножества взаимно независимы.

Рассмотрим пример. Тетраэдр ,три грани которого окрашены соответственно в красный , зеленый и синий цвета, а четвертая грань содержит все три цвета, бросается наудачу на плоскость. События А, В, С состоят в том , что тетраэдр упал на грань, содержащую соответственно красный, зеленый либо синий цвет.

Безусловные вероятности

Р(А) = Р(В) = Р(С) = ,

Условные вероятности

Р(А/В) = Р(А/С) = Р(В/С) = Р(С/А) = Р(В/А) =.

Следовательно попарно события - независимы, однако Р(А/ВС) = 1, а это свидетельствует о том ,что в совокупности события - зависимы.

Рассмотрим формулы, которые используются для вычисления вероятностей сложных событий. Сложным событием называется наблюдаемое событие,

выраженное через другие наблюдаемые в том же эксперименте события с помощью допустимых алгебраических операций.

Формула сложения. Для произвольных событий А и В справедливо соотношение

Р(А+В) = Р(А) + Р(В) - Р(АВ)

Для произвольного конечного числа событий формулы сложения имеет вид:

Р(А+А+…+А)=Р(А)+Р)+…+Р(А)-Р(АА)-Р(АА)-…- Р(АА)+Р(ААА)+Р(ААА)+…+Р(ААА)-… (-1)Р(АА…А)

Для несовместных событий вероятность суммы событий равна сумме вероятностей этих событий, т.е.

Р(А+А+…+А) = Р(А)+Р)+ … +Р(А)

Формула умножения. Для произвольных событий А и В

Р(АВ) = Р(А) Р(B/A)=P(B)P(A/B.

Формула справедлива, если Р(А) > 0, P(B) > 0, и позволяет вычислять вероятность совместного осуществления событий А и В в тех случаях, когда условная вероятность считается известной (из дополнительных опытов) или определяется методом вспомогательного эксперимента.

Для произвольного конечного числа событий формула умножения имеет вид:

Р(АА…А)=Р(А)Р(А/А)Р(А/АА)Р(А/ААА)…Р(А/АА…А) .

Для независимых в совокупности событий вероятность произведения событий равна произведению их вероятностей, т.е.

Р(АА…А) = Р(АА…А) .

Пример 4. В условиях эксперимента, рассмотренного в примере 3 найти вероятности того, что среди выбранных изделий содержатся :

а) не более одного бракованного;

б) хотя бы одно бракованное.

Пусть событие А - среди выбранных изделий не более одного бракованного,

Рассмотрим события: А- среди выбранных изделий - ни одного бракованного,

А - среди выбранных изделий - одно бракованное.

Тогда А = А + А , причем А, А - несовместны. По формуле сложения искомая вероятность

Р(А) =Р( А + А ) =Р(А) +Р(А),

Р(А) = = = , Р(А) = = = ,

Р(А) =

Пусть событие В - среди выбранных изделий хотя бы одно бракованное.

Можно решить эту задачу с помощью формулы сложения, но решение будет значительно проще, если перейти к противоположному событию - среди выбранных изделий нет бракованных.

= А , Р() = Р (А) = , Р(В) = 1 - Р() = 1 - =

Пример 5. Определить вероятность того , что выбранное наудачу изделие является первосортным, если известно, что 5% всей продукции является браком, а 80% небракованных изделий удовлетворяют требованиям 1-го сорта.

Обозначим А - выбранное изделие является небракованным,

В - выбранное изделие удовлетворяет требованиям 1-го сорта,

тогда АВ - выбранное изделие является первосортным , а искомая вероятность

Р(АВ) = Р(А)Р(В/А) = ,

здесь Р(А) = 1 - 0,05 , Р(В/А) = 0,8 .

Лекция 5. Формула полной вероятности

Пример 6. Пусть в одном из трех ящиков находится 3 белых и 2 черных шара, во втором - 2 белых и 3 черных, в третьем - только белые шары. Из наугад выбранного ящика извлекают один шар. Найти вероятность того, что он белого цвета.

Обозначим через А событие, состоящее в том, что выбранный шар белого цвета. Вероятность этого события зависит от того, из какого ящика выбран шар.

Рассмотрим события :

H - шар взят из первого ящика,

H - шар взят из второго ящика,

H - шар взят из третьего ящика.

События H, H, H - несовместны, тогда событие А можно представить в виде суммы произведений

А= HА + HА + HА

Применяя формулы сложения и умножения получим,

Р(А) = Р(HА + HА + HА ) = Р(HА) + Р(HА) + (HА) =Р(H)Р(А/ H) + Р(H)Р(А/ H) + Р(H)Р(А/ H) =

Это и есть формула полной вероятности. Запишем ее в общем виде.

Пусть событие А может произойти только совместо с одним из событий

H, H, … , H, образующих полную группу несовместных событий (гипотез).

Вероятность Р(А) определяется формулой полной вероятности

Р(А) = Р( H)P(A/ H),

где Р( H) = 1.

Пример 7. На двух автоматических станках изготовляются одинаковые валики. Вероятность изготовления валика высшего сорта на первом станке равна 0,95 , а на втором - 0,80. Изготовленные на обоих станках нерассортированные валики находятся на складе, среди них валиков, изготовленных на первом станке, в три раза больше, чем на втором. Определить вероятность того, что наудачу взятый валик окажется высшего сорта.

Обозначим А - событие, состоящее в том, что взятый наудачу валик окажется высшего сорта;

В - событие, состоящее в том, что взятый наудачу валик произведен на первом станке;

В - событие, состоящее в том, что валик произведен на втором станке.

Применив формулу полной вероятности получим:

Р(А) = Р(В)Р(А/ В) + Р(В)Р(А/ В).

Поскольку валиков, произведенных на первом станке , в 3 раза больше, чем на втором, то Р(В) = , Р(В) = .

В задаче даны условные вероятности:

Р(А/ В) = 0,92 и Р(А/ В) = 0,80.

Искомая вероятность

Р(А) = = 0,89.

Формулы Байеса

В условиях Примера 6, выбранный из ящика шар, оказался белого цвета. Найти вероятность того, что шар был взят из третьего ящика.

Эта задача отличается тем, что известно событие, наступившее в результате эксперимента: А - извлечен шар белого цвета. Требуется найти вероятность гипотезы при условии, что наступило событие А, т.е. Р(Н/А).

Рассмотрим вероятность Р(А Н) , по формуле умножения

Р(А Н) = Р(А)Р(Н/А) = Р(Н)Р(А/ Н).

Из последнего равенства выразим искомую вероятность

Р(Н/А) = ,

где Р(А) - полная вероятность события А.

Полученное равенство и есть формула Байеса для Н. Аналогично можно получить формулы для гипотез H и H.

Используя результаты Примера 6 , получим

Р(Н/А) = = .

Запишем формулы Байеса в общем виде :

Р(

Р(А) - полная вероятность события А,

Р( H) = 1, k = .

Пример 8. В условиях Примера 7, взятый наугад валик оказался высшего сорта.

Определить вероятность того, что он произведен на первом станке.

Используя обозначения Примера 7, по формуле Баейса получим:

Р(В/А) = = = 0,76.

Формула Бернулли

На практике приходится сталкиваться с задачами, которые можно представить в виде многократно повторяющихся испытаний, в результате каждого из которых может появиться или не появиться событие А. При этом интерес представляет исход не каждого отдельного испытания, а общее число появлений события А в результате определенного количества испытаний. В подобных случаях нужно уметь определять вероятность любого числа m появлений события А в результате n испытаний.

Рассмотрим случай, когда испытания являются независимыми и вероятность появления события А в каждом испытании одинакова и равна р, тогда

Р() = 1 - р = q

Рассмотрим пример.

Монету подбрасывают 5 раз. Найти вероятность того, что герб появится 3 раза.

Обозначим события:

А - появление герба в одном испытании,

В - герб появится 3 раза в серии из пяти испытаний.

С помощью алгебраических действий событие В можно записать:

В = ААА + ААА + ААА + ААА + ААА + ААА +

В каждое произведение событие А входит 3 раза, а событие 5-3=2 раз, число слагаемых равно .

По формулам сложения и умножения получим

Р(В) = Р(ААА) + Р(ААА) + Р(ААА) + Р(ААА) + Р(ААА) + + Р(ААА ) + Р(ААА) + Р(ААА) + Р(ААА) + Р(ААА) = =

это и есть формула Бернулли.

Запишем эту формулу в общем виде. Пусть Р(n,m) - вероятность того, что в n

независимых испытаниях событие А наступит m раз. Тогда

Р(n,m) = .

Доказательство формулы Бернулли аналогично решению рассмотренной выше задачи.

Пример 9. Изделия некоторого производства содержат 5% брака. Найти вероятность того, что среди шести, взятых наудачу изделий:

1) будут два бракованных;

2) не будет бракованных;

3) будет хотя бы одно бракованное.

Здесь А - появление бракованного изделия, Р(А) = 0,05 , Р() = 1- 0,05 = 0,95,

n=6. По формуле Бернулли

1) при m = 2, Р(6,2) = = 0,03;

2) при m = 0, Р(6,0) = (0,95) 0,73;

3) в этом случае задачу можно решить двумя способами.

Первый способ. Используя формулу сложения , получим

Р(6,1) + Р(6,2) = 0,27.

Второй способ. Перейдем к противоположному событию - среди выбранных изделий нет бракованных. Вероятность этого события вычислена в п.2) и равна 0,73. Тогда искомая вероятность

Р(1 - 0,73 = 0,27.

Лекция 6. Наивероятнейшее число появлений события

Наивероятнейшим числом появления события А в n независимых испытаниях называется такое число m, для которого вероятность, соответствующая этому числу , не меньше вероятности каждого из остальных возможных чисел появления события А. Обозначим вероятность, соответствующую числу m, через Р(n, m), тогда согласно определению

Р(n, m) Р(n, m).

Для нахождения m рассмотрим два неравенства

Решая совместно эти неравенства относительно m, получим, что m лежит в интервале единичной длины

np - q m np + p .

Пример 10. Оптовая база снабжает 10 магазинов, от каждого из которых может поступить заявка на очередной день с вероятностью 0,4 независимо от заявок других магазинов. Найти наивероятнейшее число заявок в день и вероятность получения этого числа заявок.

В данной задаче n = 10, p = 0,4 , q = 1-p = 1 - 0,4 = 0,6 . Подставим эти данные в приведенное выше неравенство

10 m 10 ,

3,4 m 4,4 ,

и окончательно, m = 4. Наивероятнейшее число заявок равно 4.

Найдем теперь вероятность получения четырех заявок по формуле Бернулли

Р(10,4) = = 0,25.

Статистическая оценка вероятности

Длительные наблюдения над появлением или не появлением события А при большом числе независимых испытаний в ряде случаев показывают, что число

появлений события А подчиняется устойчивым закономерностям. Обозначим

- число появлений события А,

n - число испытаний,

- частота появления события А при достаточно большом n сохраняет постоянную величину. Таким образом, под статистической вероятностью понимается относительная частота появления события А в n произведенных опытах.

Статистическая вероятность обладает теми же свойствами, что и классическая вероятность, но при этом не требуется равновозможности исходов .

Наиболее общим является аксиоматическое определение вероятности, которое

сформулировал советский математик Колмогоров А.Н. в 1933 г..Однако это рассмотрение этого определения выходит за рамки данного курса лекций.

Случайные величины. Определение случайной величины

Случайной величиной называется величина, значение которой заранее предсказать нельзя. Все экономические показатели являются случайными величинами. Это и заработная плата работников, и объем выпуска продукции, и рентабельность, и производительность труда и др. Понятие случайной величины тесно связано с понятием случайного события. Рассмотрим пример: один раз подбрасывают монету. Пусть случайная величина - число выпадений герба. Эта случайная величина принимает два значения: = 0, если выпадает «решка» и = 1, если выпадает «герб».Таким образом, случайная величина принимает свои значения в зависимости от элементарных исходов эксперимента т.е. является функцией от элементарных исходов эксперимента = f (), , т.е. каждое значение случайной величины ставится в соответствие исходу эксперимента. Возможные значения случайной величины будем обозначать малыми буквами латинского алфавита.

Поскольку множество исходов эксперимента может быть конечным или бесконечным, то будем рассматривать случайные величины двух типов.

Случайная величина называется случайной величиной дискретного типа, если множество ее возможных значений конечно или счетно. Случайная величина называется случайной величиной непрерывного типа, если ее значения заполняют сплошь некоторый интервал.

Рассмотрим сначала дискретные случайные величины.

Дискретные случайные величины. Ряд распределения

Рядом распределения или законом распределения случайной величины называется перечень значений случайной величины и соответствующих этим значениям вероятностей. Пусть р(=а) = р>0, = 1, где суммирование распространяется на все возможные значения k.

Пример 11.Монету бросают дважды. Найти ряд распределения числа появлений герба.

Здесь - число появления герба, ряд распределения приведен в Таблице 1.

Таблица 1

РР

ГР + РГ

ГГ

а

0

1

2

р

1/4

1/2

1/4

р( = 0) = р(РР) = 1/2 * 1/2 = 1/4,

р( = 1) = р(ГР + РГ) = Р(ГР) + Р(РГ) = 1/2 * 1/2 + 1/2*1/2= 1/2,

р( =2) = р (ГГ) = 1/2 * 1/2 = 1/4 ,

= 1/4 +1/2 + 1/4 = 1 .

Функция распределения

Функцией распределения F(x) называется вероятность того, что случайная величина примет значение меньше x, где x - любое действительное число,

F(x) = р ( х), где - х

Свойства функции распределения:

0 F(x) 1

При х - F(x) 0

3. При х + F(x) 1

Вероятность попадания случайной величины в произвольный интервал действительной оси [x,x] определяется формулой

р( х1 < х2) = F (х2) - F (х1)

Докажем это свойство. Для этого рассмотрим событие ( х2). Очевидно, что это событие можно записать в виде суммы:

( х2) = ( х1 < х2) + ( х1)

используя формулу сложения для несовместных событий, получим

р( х2) = р( х1 < х2) + р( х1)

откуда следует

F (х2) = р( х1 < х2) + F (х1) или р( х1 < х2) = F (х2)- F (х1).

5. Функция распределения F (х) - неубывающая функция на всей оси Ох, т.е.

если х2 х1 , тоF (х2) F (х1).

Действительно, пусть х2 х1 , в пункте 5 показано, что для F (х2) справедливо равенство F (х2) = р( х1 < х2) + F (х1), а так как ( х1 < х2)0, то отсюда следует, что F (х2) F (х1).

6. Функция распределения непрерывна слева, т.е.

.

Зная закон распределения дискретной случайной величины, можно вычислить функцию распределения по формуле

F (x) =,

где суммирование распространяется на все те значения индекса i, для которых

.

Пример 12. Построить функцию распределения для случайной величины, рассмотренной в Примере 11. Поскольку функция F(x) определена для всей действительных значений x, то рассмотрим последовательно интервалы:

1. х (- ?; 0],F (x) = р( < x) = 0, так как событие ( < x) на данном интервале является невозможным событием.

2. х (0; 1],F (x) = р( = 0) = 1/4 , здесь неравенству < x удовлетворяет одно значение = 0.

3. х (1; 2],F (x) = р( = 0) + P ( = 1) = 1/4 + 1/2 = 3/4 ,здесь неравенству < x удовлетворяют два значения = 0 и = 1.

4. х (2; ?) F (x) = P ( = 0) + P ( = 1) + P ( = 2) = 1/4 + 1/2 + 1/4 = 1, на этом интервале неравенству < x удовлетворяют все значения случайной величины. Таким образом,

F(x) =

График вычисленной функции приведен на Рис.7.

Рис. 7

Квантилью порядка р распределения случайной величины непрерывного типа называется действительное число x, удовлетворяющее уравнению р= р

Лекция 7. Числовые характеристики случайной величины. Математическое ожидание

Случайные величины помимо законов распределения могут описываться также числовыми характеристиками .

Математическим ожиданием М () случайной величины называется ее среднее значение .

Математическое ожидание дискретной случайной величины вычисляется по формуле

М () =, (1)

где - значения случайной величины, рi - их вероятности .

Рассмотрим свойства математического ожидания:

1. Математическое ожидание константы равно самой константе

М (С) = С

2. Если случайную величину умножить на некоторое число k, то и математическое ожидание умножится на это же число

М (k) = kМ ()

3. Математическое ожидание суммы случайных величин равно сумме их математических ожиданий

М (1 + 2 + … + n) = М (1) + М (2) +…+ М (n)

М (1 - 2) = М (1) - М (2)

5. Для независимых случайных величин 1, 2, … n математическое ожидание произведения равно произведению их математических ожиданий

М (1, 2, … n ) = М (1) М (2) … М (n)

М ( - М ()) = М () - М (М()) = М () - М () = 0

Вычислим математическое ожидание для случайной величины из Примера 11.

М () = = .

Пример 12. Пусть случайные величины 1, 2 заданы соответственно законами распределения:

Таблица 2

а

- 0,1

- 0,01

0

0,01

0,1

р

0,1

0,2

0,4

0,2

0,1

Таблица 3

b

- 20

- 10

0

10

20

р

0,3

0,1

0,2

0,1

0,3

Вычислим М (1) и М (2)

М (1) = (- 0,1) 0,1 + (- 0,01) 0,2 + 0 ? 0,4 + 0,01 ? 0,2 + 0,1 ? 0,1 = 0

М (2) = (- 20) 0,3 + (- 10) 0,1 + 0 ? 0,2 + 10 ? 0,1 + 20 ? 0,3 = 0

Математические ожидания обеих случайных величин одинаковы- они равны нулю. Однако характер их распределения различный. Если значения 1 мало отличаются от своего математического ожидания, то значения 2 в большой степени отличаются от своего математического ожидания, и вероятности таких отклонений не малы. Эти примеры показывают, что по среднему значению нельзя определить, какие отклонения от него имеют место как в меньшую, так и в большую сторону. Так при одинаковой средней величине выпадающих в двух местностях осадков за год нельзя сказать, что эти местности одинаково благоприятны для сельскохозяйственных работ. Аналогично по показателю средней заработной платы не возможно судить об удельном весе высоко- и низкооплачиваемых работниках. Поэтому, вводится числовая характеристика - дисперсия D () , которая характеризует степень отклонения случайной величины от своего среднего значения:

D () = M ( - M ())2 . (2)

Дисперсия -это математическое ожидание квадрата отклонения случайной величины от математического ожидания. Для дискретной случайной величины дисперсия вычисляется по формуле:

D () = = (3)

Из определения дисперсии следует , что D ()0.

Свойства дисперсии:

1. Дисперсия константы равна нулю

D (C) = 0

2. Если случайную величину умножить на некоторое число k , то дисперсия умножится на квадрат этого числа

D (k) = k2 D ()

D () = М (2) - М2 ()

3. Для попарно независимых случайных величин 1, 2, … n дисперсия суммы равна сумме дисперсий.

D (1 + 2 + … + n) = D (1) + D (2) +…+ D (n)

Вычислим дисперсию для случайной величины из Примера 11.

Математическое ожидание М () = 1. Поэтому по формуле (3) имеем:

D () = (0 - 1)2?1/4 + (1 - 1)2?1/2 + (2 - 1)2?1/4 =1?1/4 +1?1/4= 1/2

Отметим, что дисперсию вычислять проще, если воспользоваться свойством 3:

D () = М (2) - М2 ().

Вычислим дисперсии для случайных величин 1, 2 из Примера 12 по этой формуле. Математические ожидания обеих случайных величин равны нулю.

D (1) = 0,01? 0,1 + 0,0001? 0,2 + 0,0001? 0,2 + 0,01? 0,1 = 0,001 + 0,00002 + 0,00002 + 0,001 = 0,00204

D (2) = (-20)2 ? 0,3 + (-10)2 ? 0,1 + 102 ? 0,1 + 202 ? 0,3 = 240 +20 = 260

Чем ближе значение дисперсии к нулю, тем меньше разброс случайной величины относительно среднего значения.

Величина называется среднеквадратическим отклонением. Модой случайной величины дискретного типа Md называется такое значение случайной величины, которому соответствует наибольшая вероятность.

Модой случайной величины непрерывного типа Md, называется действительное число, определяемое как точка максимума плотности распределения вероятностей f(x).

Медианой случайной величины непрерывного типа Mn называется действительное число, удовлетворяющее уравнению

F(x) = .

Лекция 8. Примеры дискретных распределений

1. Биноминальное. Пусть произведено n независимых испытаний. В каждом испытании наступает либо событие А, либо соответственно с вероятностями р, 1 -р. Рассмотрим случайную величину - число появлений события А в последовательности испытаний.

Закон распределения этой случайной величины можно записать следующим образом

Р ( = m) = , m=0,1,2,…n. (4)

Действительно, рассмотрим выражение (p + q)n =1 , разложим двучлен (p + q)n по формуле бинома Ньютона. Получим

т.е. сумма вероятностей значений случайной величины равна единице, следовательно (4) является законом распределения.

Найдем математическое ожидание:

M () = ,

Рассмотрим случайные величины 1, 2, … n , с одинаковым законом распределения :

k =

где k = 1,2,…n . Тогда

= 1 + 2 + … + n.

Используя свойства математического ожидания получим:

М () = М (1 + 2 + … + n) = М (1) + М (2) +…+ М (n) .

Найдем математическое ожидание k , М (k) = 0 ? (1 - p) + 1? p = р, тогда

М () = np

Аналогично найдем дисперсию:

D () = D (1 + 2 + … + n) = D (1) + D (2) +…+ D (n)

D (k) = (0 - p)2 (1 - p) + (1 - p)2 p = p2 (1 - p) + (1 - p)2 p= p (1 - p) (p + 1 - p) = p (1 - p) = p q

D () = n p q,

2. Распределение Пуассона.

Пусть произведено бесконечное число испытаний. Рассмотрим случайную величину -число появлений события А.

m = 0, 1, 2, ...

Закон распределения в данном случае имеет вид:

p ( =m) =

л > 0 - параметр распределения, m = 0, 1, 2, ... (5)

Покажем, что сумма вероятностей равна единице.

.

Аналогично можно показать, что математическое ожидание и дисперсия соответственно равны ,

М () = , D () = .

Закон Пуассона называют законом редких событий.

Непрерывные случайные величины. Плотность распределения

Плотность распределения вероятностей f(x) характеризует вероятность попадания случайной величины в некоторый интервал. Эта вероятность равна площади, заключенной между осью абсцисс и функцией f(x) на интервале

f(x) =

Рис. 8

Плотность распределения обладает следующими свойствами:

f (x) ? 0

p( a

f(x) =

в точках непрерывности функции f(x).

Понятие функции распределения, математического ожидания и дисперсии имеет такой же смысл, как в дискретном случае, а вычисляются соответственно по формулам (6) - (8).

(6)

M () = (7)

D() = (8)

Пример 13. Случайная величина распределена по закону , определяемому плотностью распределения вероятностей вида

f (x) =

Найти параметр a, F(x), M () , D() .

Параметр a найдем из свойства , интеграл разобьем на сумму трех интегралов

Нарисуем график плотности распределения f (x) (Рис.9)

Рис. 9

Вычислим функцию распределения, для этого рассмотрим интервалы .

х (- ?, 0) ,

х [0, 2] ,

х (2,) .

График функции приведен на Рис. 10.

Вычислим математическое ожидание и дисперсию:

Рис.10

Лекция 9. Примеры распределений непрерывной случайной величины

1. Равномерное распределение.Случайная величина непрерывного типа называется распределенной равномерно на отрезке [a,b], если ее плотность распределения постоянна на этом отрезке:

f(x) = (9)

Вычислим математическое ожидание и дисперсию:

,

Рассмотренное в Примере 13 распределение является равномерным при a = 0

и b = 1.

2. Показательное (экспоненциальное) распределение:

Случайная величина называется распределенной по показательному (экспоненциальному) закону с параметром >0, если она непрерывного типа и ее плотность распределения задается формулой

f(x) = (10)

График функции приведен на Рис.11.

Рис. 11.

Математическое ожидание и дисперсия соответственно равны:

M () = , D ()=

3. Закон нормального распределения.

Случайная величина называется распределенной по нормальному закону с параметрами а и >0, если плотность распределения вероятностей имеет вид

f(x) = (11)

Для того, чтобы построить график этой функции, проведем ее исследование. Вычислим производную

.

При x < a > 0, следовательно на интервале функция возрастает, а при x >a < 0, - функция убывает. В точке x = a - функция имеет максимум.

График функции приведен на Рис.12.

Важное значение в прикладных задачах имеет частный случай плотности нормального распределения при a = 0 и =1

. (12)

Функция (12) - четная , т.е. (-x) = (x).

Для значений этой функции имеются таблицы ( Приложение 1).

Рис. 12

Вычислим математическое ожидание и дисперсию:

;;.

При вычислении интегралов использованы свойства:

1) = 0, как интеграл от нечетной функции в симметричных пределах;

2) =1, как интеграл от плотности нормального распределения с параметрами a = 0 и = 1 ( свойство 2 функции плотности распределения).

Аналогично можно показать, что D () = 2 . Параметры a и совпадают с основными характеристиками распределения. В дальнейшем, если плотность распределения случайной величины имеет вид (11),то для краткости будем записывать ~ N ().

Вероятность попадания случайной величины в интервал вычисляется по формуле (13)

, (13)

где - функция Лапласа

, (14)

функция нормального распределения N(0,1),

для этой функции имеются таблицы (Приложение 2). Отметим, что

Ф(-x) = 1 - Ф(x) (15)

Пример 14. Коробки с шоколадом упаковывают автоматически. Их средняя масса равна 1,06 кг. Известно, что 5 % коробок имеют массу меньше 1 кг. Какой процент коробок, масса которых превышает 940 г. (вес коробок распределен нормально)?

Из условия задачи параметр а = 1,06, параметр -неизвестен.

Рассмотрим случайную величину - масса коробок. Требуется определить

p ( > 0,94), т.е. p ( > 0,94) = p (0,94 < < + ?)

Из таблицы Приложения 2 определим , по формуле (14) имеем

= 1-, тогда

p (0,94 < < + ?) 1-1+= .

Параметр у найдем из условия р ( < 1) = 0,5

т.е. 1- откуда получим ) = 0,95.

По таблице Приложения 3 определим = 1,645, тогда из равенства

найдем значение . Окончательно получим

.

4. Распределение Парето

Распределение Парето используется при изучении распределения доходов, превышающих некоторый пороговый уровень x0.

f(x) = x0 < x < ?, б > 0, х0 > 0 - параметры распределения.,

M(о)=, D(о)=.

Лекция 10. Моменты случайных величин. Начальные моменты

Начальным моментом порядка k называется математическое ожидание k-ой степени случайной величины

хк = M(ок), k = 1,2,…n (16)

х1 = M(о) , первый начальный момент - это математическое ожидание.

Центральные моменты

Центральным моментом степени k называется математическое ожидание к-ой степени отклонения случайной величины от среднего значения.

мк = М (о-М(о))к (17)

м1 = М (о-М(о)) = 0

м2 = М (о-М(о))2 = D(о)

Центральные моменты всегда можно выразить через начальные.

Например:

М2= М(о-М(о))2 = М (о2-2оМ(о)+М2(о) = М(о2) - М(2оМ(о))+М(М2(о)) = М(о2)-2М(о)М(о)+М2(о) = М(о2) -М2(о) = х2- х12

Центральный момент степени k можно преобразовать к выражению через начальные моменты, используя формулу бинома Ньютона.

Запишем формулы для 3-го и 4-го центральных моментов:

м3 = х3 - 3х1х2 + 2х12

м4 = х4 - 4х1х3 + 6х1х22 - 3х14

Коэффициент асимметрии

(18)

характеризует степень асимметричности распределения. Для симметричного распределения А=0. При А<0 - левосторонняя асимметрия, А>0 - правосторонняя асимметрия.

Рис.13

Коэффициент эксцесса

(19)

характеризует степень островерхости распределения. Для нормального распределения Е=0.

Размещено на http://www.allbest.ru/

Рис. 14.

Многомерные случайные величины

На одном и том же пространстве элементарных исходов можно рассматривать не одну, а несколько случайных величин. Например, подбрасывают три игральных кубика. Можно рассматривать одну случайную величину о - сумма выпавших очков или три случайных величины:

о1- число выпавших очков на 1-ом кубике,

о2 - число выпавших очков на 2-ом кубике,

о3 - число выпавших очков на 3-ем кубике.

В экономике, как правило, на показатель действует несколько факторов, например, качество продукции зависит от многих факторов.

Пусть о1, о2, … , оn-система случайных величин, определенных на множестве.

Функция распределения системы случайных величин определяется формулой

F(x1, x2, … , xn) = P(о1<x1, о2<x2, ... ,оn<xn), (20)

где x1, x2, … , xn ()

При этом F(x1, x2, … , xn) - неубывающая функция каждого аргумента.

Для дискретной системы случайной величины закон распределения определяется заданием вектора x1, x2, … ,xn и вектора вероятностей

,

таких, что .

Функция распределения выражается в виде кратной суммы

F(x1, x2, … , xn) = , (21)

где суммирование производится по всем возможным значениям каждой из случайных величин, для которых .

Система о1, о2, … , оn называется непрерывной ,если существует

f( x1, x2, … , xn ) 0 такая, что для любых x1, x2, … , xn функцию распределения

F(x) можно представить в виде n-мерного интеграла

F(x) =. (22)

Функция f() называется плотностью распределения вероятностей системы случайных величин,

f() = (23)

в точках непрерывности.

случайные величины о1, о2, … , оn называются независимыми , если для любых

x1, x2, … , xn независимы события .

Для не зависимых о1, о2, … , оn функция распределения равна произведению

функций распределения каждой случайной величины

F(x1, x2, … , xn) = . (24)

Также справедливы равенства :

для дискретных случайных величин

Р =,

для непрерывных случайных величин f() = .

Основными числовыми характеристиками n случайных величин являются математические ожидания

М() = (25)

и дисперсии

D() = = . (26)

Лекция 11. Закон распределения

Условным законом распределения одной случайной величины ,входящей в систему, называется закон, найденный при условии, что другая случайная величина , входящая в эту же систему , приняла определенное значение. Условный закон распределения задается как функцией распределения, так и плотностью распределения. Если рассматривается распределение случайной величины оi при условии, что другая случайная величина оj приняла определенное значение, то условная функция распределения обозначается

F(x/y), а плотность - f(x/ y).

Важными характеристиками являются условные математические ожидания и условные дисперсии. Пусть случайная величина оi принимает значения

a = (), а случайная величина оj - b = ().

Условным математическим ожиданием дискретной случайной величины оi при оj = b называют сумму произведений возможных значений оi на их условные вероятности . Тогда условное математическое ожидание вычисляется по формуле:

M(оi / оj =b) = . (27)

Для непрерывных случайных величин

M(оi / оj =b) = . (28)

Особая роль в изучении системы случайных величин принадлежит корреляционному моменту ( ковариации). Ковариацией случайных величин оi и оj называется число

= cov(оiоj) = M((оi-M(оi))(оj-M(оj)))=M(оiоj)-M(оi)M(оj) , i,j=1,2,…n.

Для независимых случайных величин ковариация равна нулю т.к. в этом случае

M(оiоj ) = M(оi)M(оj).

Очевидно, что

= = D(), cov(оiоj) = cov(оо)

Все парные ковариации составляют симметричную относительно главной диагонали ковариационную матрицу размерностью (nn).

=

Определитель ковариационной матрицы является обобщенной дисперсией системы случайных величин..

Рассмотрим систему только двух случайных величин, пусть о1, о2. Пусть случайная величина о1 принимает значения из множества X , о2 - из множества Y, ( X,Y) -действительные числа. Мерой линейной зависимости двух случайных величин о1, о2 является коэффициент корреляции

...

Подобные документы

  • Определение вероятности случайного события; вероятности выиграшных лотерейных билетов; пересечения двух независимых событий; непоражения цели при одном выстреле. Расчет математического ожидания, дисперсии, функции распределения случайной величины.

    контрольная работа [480,0 K], добавлен 29.06.2010

  • Определение вероятностей различных событий по формуле Бернулли. Составление закона распределения дискретной случайной величины, вычисление математического ожидания, дисперсии и среднеквадратического отклонения случайной величины, плотностей вероятности.

    контрольная работа [344,8 K], добавлен 31.10.2013

  • Вычисление математического ожидания, дисперсии, функции распределения и среднеквадратического отклонения случайной величины. Закон распределения случайной величины. Классическое определение вероятности события. Нахождение плотности распределения.

    контрольная работа [38,5 K], добавлен 25.03.2015

  • Дискретные случайные величины и их распределения. Формула полной вероятности и формула Байеса. Общие свойства математического ожидания. Дисперсия случайной величины. Функция распределения случайной величины. Классическое определение вероятностей.

    контрольная работа [33,8 K], добавлен 13.12.2010

  • Теория вероятностей — раздел математики, изучающий закономерности случайных явлений: случайные события, случайные величины, их свойства и операции над ними. Методы решения задач по теории вероятности, определение математического ожидания и дисперсии.

    контрольная работа [157,5 K], добавлен 04.02.2012

  • Описание случайных ошибок методами теории вероятностей. Непрерывные случайные величины. Числовые характеристики случайных величин. Нормальный закон распределения. Понятие функции случайной величины. Центральная предельная теорема. Закон больших чисел.

    реферат [146,5 K], добавлен 19.08.2015

  • Классическая формула для вероятности события, отношение благоприятного числа исходов опыта к общему числу всех равновозможных несовместных исходов. Понятие непрерывной и дискретной случайной величины, их числовые характеристики и законы распределения.

    презентация [5,5 M], добавлен 19.07.2015

  • Теория вероятности как математическая наука, изучающая закономерность в массовых однородных случаях, явлениях и процессах, предмет, основные понятия и элементарные события. Определение вероятности события. Анализ основных теорем теории вероятностей.

    шпаргалка [777,8 K], добавлен 24.12.2010

  • Определение вероятности того, что из урны взят белый шар. Нахождение математического ожидания, среднего квадратического отклонения и дисперсии случайной величины Х, построение гистограммы распределения. Определение параметров распределения Релея.

    контрольная работа [91,7 K], добавлен 15.11.2011

  • Принципы решения задач по основным разделам теории вероятностей: случайные события и их допустимость, непроизвольные величины, распределения и числовые характеристики градировки, основные предельные теоремы для сумм независимых вероятностных величин.

    контрольная работа [129,1 K], добавлен 03.12.2010

  • Понятия теории вероятностей и математической статистики, применение их на практике. Определение случайной величины. Виды и примеры случайных величин. Закон распределения дискретной случайной величины. Законы распределения непрерывной случайной величины.

    реферат [174,7 K], добавлен 25.10.2015

  • Определение вероятности определенного события. Вычисление математического ожидания, дисперсии, среднеквадратического отклонения дискретной случайной величины Х по известному закону ее распределения, заданному таблично. Расчет корреляционных признаков.

    контрольная работа [725,5 K], добавлен 12.02.2010

  • Определение дифференциальной функции распределения f(x)=F'(x) и математического ожидания случайной величины Х. Применение локальной и интегральной теоремы Лапласа. Составление уравнения прямой линии регрессии. Определение оптимального плана перевозок.

    контрольная работа [149,6 K], добавлен 12.11.2012

  • Определение вероятности наступления события, используя формулу Бернулли. Вычисление математического ожидания и дисперсии величины. Расчет и построение графика функции распределения. Построение графика случайной величины, определение плотности вероятности.

    контрольная работа [390,7 K], добавлен 29.05.2014

  • Вычисление вероятностей возможных значений случайной величины по формуле Бернулли. Расчет математического ожидания, дисперсии, среднеквадратического отклонения, медианы и моды. Нахождение интегральной функции, построение многоугольника распределения.

    контрольная работа [162,6 K], добавлен 28.05.2012

  • Изучение закономерностей массовых случайных явлений. Степень взаимосвязи теории вероятностей и статистики. Невозможные, возможные и достоверные события. Статистическое, классическое, геометрическое, аксиоматическое определение вероятности. Формула Бейеса.

    реферат [114,7 K], добавлен 08.05.2011

  • Нахождение вероятности события, используя формулу Бернулли. Составление закона распределения случайной величины и уравнения регрессии. Расчет математического ожидания и дисперсии, сравнение эмпирических и теоретических частот, используя критерий Пирсона.

    контрольная работа [167,7 K], добавлен 29.04.2012

  • Алгоритм определения вероятности события и выполнения статистических ожиданий. Оценка возможных значений случайной величины и их вероятности. Расчет математического ожидания, дисперсии и среднего квадратического отклонения. Анализ характеристик признака.

    контрольная работа [263,8 K], добавлен 13.01.2014

  • Вероятность попадания случайной величины Х в заданный интервал. Построение графика функции распределения случайной величины. Определение вероятности того, что наудачу взятое изделие отвечает стандарту. Закон распределения дискретной случайной величины.

    контрольная работа [104,7 K], добавлен 24.01.2013

  • Решение задач по определению вероятности событий, ряда и функции распределения с помощью формулы умножения вероятностей. Нахождение константы, математического описания и дисперсии непрерывной случайной величины из функции распределения случайной величины.

    контрольная работа [57,3 K], добавлен 07.09.2010

Работы в архивах красиво оформлены согласно требованиям ВУЗов и содержат рисунки, диаграммы, формулы и т.д.
PPT, PPTX и PDF-файлы представлены только в архивах.
Рекомендуем скачать работу.