Понятия события и вероятности события
Математическое ожидание, дисперсия, коэффициенты корреляции - основные характеристики совместного распределения нескольких случайных величин. Специфические особенности применения теоремы умножения вероятностей для рассмотрения составных испытаний.
Рубрика | Математика |
Вид | реферат |
Язык | русский |
Дата добавления | 05.12.2021 |
Размер файла | 18,4 K |
Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже
Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны.
Размещено на http://www.allbest.ru
Размещено на http://www.allbest.ru
Частное образовательное учреждение высшего образования
«БАЛТИЙСКАЯ АКАДЕМИЯ ТУРИЗМА И ПРЕДПРИНИМАТЕЛЬСТВА»
РЕФЕРАТ
по дисциплине: Математика и статистика
на тему: Понятия события и вероятности события
Тюрина Анна Станиславовна
Санкт-Петербург - 2020
Введение
Теория вероятностей - математическая наука, позволяющая по вероятностям одних случайных событий находить вероятности других случайных событий, связанных каким-либо образом с первыми.
Утверждение о том, что какое-либо событие наступает с вероятностью, равной, например, Ѕ, ещё не представляет само по себе окончательной ценности, так как мы стремимся к достоверному знанию. Окончательную познавательную ценность имеют те результаты теории вероятностей, которые позволяют утверждать, что вероятность наступления какого-либо события А весьма близка к единице или (что то же самое) вероятность не наступления события А весьма мала. В соответствии с принципом «пренебрежения достаточно малыми вероятностями» такое событие справедливо считают практически достоверным. Ниже (в разделе Предельные теоремы) показано, что имеющие научный и практический интерес выводы такого рода обычно основаны на допущении, что наступление или не наступление события А зависит от большого числа случайных, мало связанных друг с другом факторов. Поэтому можно также сказать, что теория вероятностей есть математическая наука, выясняющая закономерности, которые возникают при взаимодействии большого числа случайных факторов.
Предмет теории вероятностей
Для описания закономерной связи между некоторыми условиями S и событием А, наступление или не наступление которого при данных условиях может быть точно установлено, естествознание использует обычно одну из следующих двух схем:
а) при каждом осуществлении условий S наступает событие А. Такой вид, например, имеют все законы классической механики, которые утверждают, что при заданных начальных условиях и силах, действующих на тело или систему тел, движение будет происходить однозначно определённым образом.
б) При условиях S событие А имеет определённую вероятность P (A / S), равную р. Так, например, законы радиоактивного излучения утверждают, что для каждого радиоактивного вещества существует определённая вероятность того, что из данного количества вещества за данный промежуток времени распадётся какое-либо число N атомов.
Назовем частотой события А в данной серии из n испытаний (то есть из n повторных осуществлений условий S) отношение h = m/n числа m тех испытаний, в которых А наступило, к общему их числу n. Наличие у события А при условиях S определённой вероятности, равной р, проявляется в том, что почти в каждой достаточно длинной серии испытаний частота события А приблизительно равна р.
Статистические закономерности, то есть закономерности, описываемые схемой типа (б), были впервые обнаружены на примере азартных игр, подобных игре в кости. Очень давно известны также статистические закономерности рождения, смерти (например, вероятность новорождённому быть мальчиком равна 0,515). Конец 19 в. и 1-я половина 20в. отмечены открытием большого числа статистических закономерностей в физике, химии, биологии и т.п.
Возможность применения методов теории вероятностей к изучению статистических закономерностей, относящихся к весьма далёким друг от друга областям науки, основана на том, что вероятности событий всегда удовлетворяют некоторым простым соотношениям, о которых будет сказано ниже (см. раздел Основные понятия теории вероятностей). Изучение свойств вероятностей событий на основе этих простых соотношений и составляет предмет теории вероятностей.
Основные понятия теории вероятностей
Наиболее просто определяются основные понятия теории вероятностей как математической дисциплины в рамках так называемой элементарной теории вероятностей. Каждое испытание Т, рассматриваемое в элементарной теорией вероятностей, таково, что оно заканчивается одним и только одним из событий E1, E2,..., ES (тем или иным, в зависимости от случая). Эти события называются исходами испытания. С каждым исходом Ek связывается положительное число рк - вероятность этого исхода. Числа pk должны при этом в сумме давать единицу. Рассматриваются затем события А, заключающиеся в том, что "наступает или Ei, или Ej,..., или Ek". Исходы Ei, Ej,..., Ek называются благоприятствующими А, и по определению полагают вероятность Р (А) события А, равной сумме вероятностей благоприятствующих ему исходов:
P (A) = pi + ps + … + pk. (1)
Частный случай p1 = p2 =... ps = 1/S приводит к формуле
Р (А) = r/s. (2)
Формула (2) выражает так называемое классическое определение вероятности, в соответствии с которым вероятность какого-либо события А равна отношению числа r исходов, благоприятствующих А, к числу s всех «равновозможных» исходов. Классическое определение вероятности лишь сводит понятие «вероятности» к понятию «равновозможности», которое остаётся без ясного определения.
Пример. При бросании двух игральных костей каждый из 36 возможных исходов может быть обозначен (i, j), где i - число очков, выпадающее на первой кости, j - на второй. Исходы предполагаются равновероятными. Событию А - "сумма очков равна 4", благоприятствуют три исхода (1; 3), (2; 2), (3; 1). Следовательно, Р (A) = 3/36 = 1/12.
Исходя из каких-либо данных событий, можно определить два новых события: их объединение (сумму) и совмещение (произведение). Событие В называется объединением событий A 1, A 2,..., Ar,-, если оно имеет вид: "наступает или A1, или А2,..., или Ar".
Событие С называется совмещением событий A1, А.2,..., Ar, если оно имеет вид: "наступает и A1, и A2,..., и Ar". Объединение событий обозначают знаком И, а совмещение - знаком З. Таким образом, пишут:
B = A1 И A2 И … И Ar, C = A1 З A2 З … З Ar.
События А и В называют несовместными, если их одновременное осуществление невозможно, то есть если не существует среди исходов испытания ни одного благоприятствующего и А, и В.
С введёнными операциями объединения и совмещения событий связаны две основные теоремы В. т. - теоремы сложения и умножения вероятностей.
Теорема сложения вероятностей. Если события A1, A2,..., Ar таковы, что каждые два из них несовместны, то вероятность их объединения равна сумме их вероятностей.
Так, в приведённом выше примере с бросанием двух костей событие В - "сумма очков не превосходит 4", есть объединение трёх несовместных событий A2, A3, A4, заключающихся в том, что сумма очков равна соответственно 2, 3, 4. Вероятности этих событий 1/36; 2/36; 3/36. По теореме сложения вероятность Р (В) равна
1/36 + 2/36 + 3/36 = 6/36 = 1/6.
Условную вероятность события В при условии А определяют формулой что, как можно показать, находится в полном соответствии со свойствами частот. События A1, A2,..., Ar называются независимыми, если условная вероятность каждого из них при условии, что какие-либо из остальных наступили, равна его "безусловной" вероятности.
Теорема умножения вероятностей. Вероятность совмещения событий A1, A2,..., Ar равна вероятности события A1,умноженной на вероятность события A2, взятую при условии, что А1 наступило,..., умноженной на вероятность события Ar при условии, что A1, A2,..., Ar-1 наступили. Для независимых событий теорема умножения приводит к формуле:
P (A1 З A2 З … З Ar) = P (A1) * P (A2) * … * P (Ar), (3)
то есть вероятность совмещения независимых событий равна произведению вероятностей этих событий. Формула (3) остаётся справедливой, если в обеих её частях некоторые из событий заменить на противоположные им.
Пример. Производится 4 выстрела по цели с вероятностью попадания 0,2 при отдельном выстреле. Попадания в цель при различных выстрелах предполагаются независимыми событиями. Какова вероятность попадания в цель ровно три раза?
Каждый исход испытания может быть обозначен последовательностью из четырёх букв [напр., (у, н, н, у) означает, что при первом и четвёртом выстрелах были попадания (успех), а при втором и третьем попаданий не было (неудача)]. Всего будет 16 исходов. В соответствии с предположением о независимости результатов отдельных выстрелов следует для определения вероятностей этих исходов использовать формулу (3) и примечание к ней. Так, вероятность исхода (у, н. н, н) следует положить равной 0,2*0,8*0,8*0,8 = 0,1024; здесь 0,8 = 1-0,2 - вероятность промаха при отдельном выстреле. Событию "в цель попадают три раза" благоприятствуют исходы (у, у, у, н), (у, у, н, у), (у, н, у, у). (н, у, у, у), вероятность каждого одна и та же:
0,2*0,2*0,2*0,8 =...... =0,8*0,2*0,2*0,2 = 0,0064;
следовательно, искомая вероятность равна
4*0,0064 = 0,0256.
Обобщая рассуждения разобранного примера, можно вывести одну из основных формул теории вероятностей: если события A1, A2,..., An независимы и имеют каждое вероятность р, то вероятность наступления ровно m из них равна
Pn (m) = Cnmpm (1 - p) n-m; (4)
здесь Cnm обозначает число сочетаний из n элементов по m. При больших n вычисления по формуле (4) становятся затруднительными. Пусть в предыдущем примере число выстрелов равно 100, и ставится вопрос об отыскании вероятности х того, что число попаданий лежит в пределах от 8 до 32. Применение формулы (4) и теоремы сложения даёт точное, но практически мало пригодное выражение искомой вероятности.
Приближённое значение вероятности х можно найти по теореме Лапласа причём ошибка не превосходит 0,0009. Найденный результат показывает, что событие 8 Ј m Ј 32 практически достоверно. Это самый простой, но типичный пример использования предельных теорем теории вероятностей.
К числу основных формул элементарной теории вероятностей относится также так называемая формула полной вероятности: если события A1, A2,..., Ar попарно несовместны и их объединение есть достоверное событие, то для любого события В его вероятность равна сумме.
Теорема умножения вероятностей оказывается особенно полезной при рассмотрении составных испытаний. Говорят, что испытание Т составлено из испытаний T1, T2,..., Tn-1, Tn, если каждый исход испытания Т есть совмещение некоторых исходов Ai, Bj,..., Xk, Yl соответствующих испытаний T1, T2,..., Tn-1, Tn. Из тех или иных соображений часто бывают известны вероятности
вероятность математический дисперсия случайный
P (Ai), P (Bj/Ai), …, P (Yl/Ai З Bj З … З Xk). (5)
По вероятностям (5) с помощью теоремы умножения могут быть определены вероятности Р (Е) для всех исходов Е составного испытания, а вместе с тем и вероятности всех событий, связанных с этим испытанием (подобно тому, как это было сделано в разобранном выше примере). Наиболее значительными с практической точки зрения представляются два типа составных испытаний: а) составляющие испытания не зависимы, то есть вероятности (5) равны безусловным вероятностям P (Ai), P (Bj),..., P (Yl); б) на вероятности исходов какого-либо испытания влияют результаты лишь непосредственно предшествующего испытания, то есть вероятности (5) равны соответственно: P (Ai), P (Bj /Ai),..., P (Yi / Xk). В этом случае говорят об испытаниях, связанных в цепь Маркова. Вероятности всех событий, связанных с составным испытанием, вполне определяются здесь начальными вероятностями Р (Аi) и переходными вероятностями P (Bj / Ai),..., P (Yl / Xk)
Случайные величины. Если каждому исходу Er испытания Т поставлено в соответствие число х,, то говорят, что задана случайная величина X. Среди чисел x1, х2,......, xs могут быть и равные; совокупность различных значений хг при r = 1, 2,..., s называют совокупностью возможных значений случайной величины. Набор возможных значений случайной величины и соответствующих им вероятностей называется распределением вероятностей случайной величины. Так, в примере с бросанием двух костей с каждым исходом испытания (i, j) связывается случайная величина Х = i + j - сумма очков на обеих костях. Возможные значения суть 2, 3, 4, ..., 11, 12; соответствующие вероятности равны 1/36, 2/36, 3/36,..., 2/36, 1/36.
При одновременном изучении нескольких случайных величин вводится понятие их совместного распределения, которое задаётся указанием возможных значений каждой из них и вероятностей совмещения событий
{X1 = x1}, {X2 = x2}, …, {Xn = xn}, (6)
где xk - какое-либо из возможных значений величины Xk. Случайные величины называются независимыми, если при любом выборе xk события (6) независимы. С помощью совместного распределения случайных величин можно вычислить вероятность любого события, определяемого этими величинами, например события a < X1 + Х2 +... + Xn < b и т.п.
Часто вместо полного задания распределения вероятностей случайной величины предпочитают пользоваться небольшим количеством числовых характеристик. Из них наиболее употребительны математическое ожидание и дисперсия.
В число основных характеристик совместного распределения нескольких случайных величин, наряду с математическими ожиданиями и дисперсиями этих величин, включаются коэффициенты корреляции и т.п. Смысл перечисленных характеристик в значительной степени разъясняется предельными теоремами.
Схема испытаний с конечным числом исходов недостаточна уже для самых простых применений теории вероятностей. Так, при изучении случайного разброса точек попаданий снарядов вокруг центра цели, при изучении случайных ошибок, возникающих при измерении какой-либо величины, и т.д. уже невозможно ограничиться испытаниями с конечным числом исходов. При этом в одних случаях результат испытания может быть выражен числом или системой чисел, в других - результатом испытания может быть функция (например, запись изменения давления в данной точке атмосферы за данный промежуток времени), системы функций и т.п. Следует отметить, что многие данные выше определения и теоремы с незначительными по существу изменениями приложимы и в этих более общих обстоятельствах, хотя способы задания распределений вероятностей изменяются.
Наиболее серьёзное изменение претерпевает определение вероятности, которое в элементарном случае давалось формулой (2). В более общих схемах, о которых идёт речь, события являются объединениями бесконечного числа исходов (или, как говорят, элементарных событий), вероятность каждого из которых может быть равна нулю. В соответствии с этим свойство, выраженное теоремой сложения, не выводится из определения вероятности, а включается в него.
Наиболее распространённая в настоящее время логическая схема построения основ теории вероятностей разработана в 1933 советским математиком А. Н. Колмогоровым. Основные черты этой схемы следующие. При изучении какой-либо реальной задачи - методами теории вероятностей прежде всего выделяется множество U элементов u, называемых элементарными событиями. Всякое событие вполне описывается множеством благоприятствующих ему элементарных событий и потому рассматривается как некое множество элементарных событий. С некоторыми из событий А связываются определённые числа Р (A), называемые их вероятностями и удовлетворяющие условиям
1. 0 Ј Р (А) Ј 1,
2. P (U) = 1,
3. Если события A1,..., An попарно несовместны и А - их сумма, то
Р (А) = Р (A1) + P (A2) + … + Р (An).
Для создания полноценной математической теории требуют, чтобы условие 3 выполнялось и для бесконечных последовательностей попарно несовместных событий. Свойства не отрицательности и аддитивности есть основные свойства меры множества. Теория вероятностей может, таким образом, с формальной точки зрения рассматриваться как часть меры теории. Основные понятия теории вероятностей получают при таком подходе новое освещение. Случайные величины превращаются в измеримые функции, их математические ожидания - в абстрактные интегралы Лебега и т.п. Однако основные проблемы теории вероятностей и теории меры различны. Основным, специфическим для теории вероятностей является понятие независимости событий, испытаний, случайных величин. Наряду с этим теория вероятностей тщательно изучает и такие объекты, как условные распределения, условные математические ожидания и т.п.
Предельные теоремы
При формальном изложении теории вероятностей предельные теоремы появляются в виде своего рода надстройки над ее элементарными разделами, в которых все задачи имеют конечный, чисто арифметический характер. Однако познавательная ценность В. т. раскрывается только предельными теоремами. Так, Теорема Бернулли показывает, что при независимых испытаниях частота появления какого-либо события, как правило, мало отклоняется от его вероятности, а Теорема Лапласа указывает вероятности тех или иных отклонений. Аналогично смысл таких характеристик случайной величины, как её математическое ожидание и дисперсия, разъясняется законом больших чисел и центральной предельной теоремой
Пусть,
X1, Х2,..., Xn,... (7)
- независимые случайные величины, имеющие одно и то же распределение вероятностей с EXk = а, DXk = s2 и Yn - среднее арифметическое первых n величин из последовательности (7):
Yn = (X1 + X2 + … +Xn)/n.
В соответствии с законом больших чисел, каково бы ни было e > 0, вероятность неравенства |Yn - a| Ј e имеет при n ®Ґ пределом 1, и, таким образом, Yn как правило, мало отличается от а. Центральная предельная теорема уточняет этот результат, показывая, что отклонения Yn от а приближённо подчинены нормальному распределению со средним 0 и дисперсией s2 / n. Таким образом, для определения вероятностей тех или иных отклонений Yn от а при больших n нет надобности знать во всех деталях распределение величин Xn, достаточно знать лишь их дисперсию.
В 20-х гг. 20 в. было обнаружено, что даже в схеме последовательности одинаково распределённых и независимых случайных величин могут вполне естественным образом возникать предельные распределения, отличные от нормального. Так, например, если X1 время до первого возвращения некоторой случайно меняющейся системы в исходное положение, Х2 - время между первым и вторым возвращениями и т.д., то при очень общих условиях распределение суммы X1 +... + Xn (то есть времени до n-говозвращения) после умножения на n 1/a (а - постоянная, меньшая 1) сходится к некоторому предельному распределению. Таким образом, время до n-го возвращения растет, грубо говоря, как n 1/a, то есть быстрее n (в случае приложимости закона больших чисел оно было бы порядка n).
Механизм возникновения большинства предельных закономерностей может быть до конца понят лишь в связи с теорией случайных процессов.
Случайные процессы
В ряде физических и химических исследований последних десятилетий возникла потребность, наряду с одномерными и многомерными случайными величинами, рассматривать случайные процессы, то есть процессы, для которых определена вероятность того или иного их течения. Примером случайного процесса может служить координата частицы, совершающей броуновское движение. В В. т. случайный процесс рассматривают обычно как однопараметрическое семейство случайных величин Х (t). В подавляющем числе приложений параметр t является временем, но этим параметром может быть, например, точка пространства, и тогда обычно говорят о случайной функции. В том случае, когда параметр t пробегает целочисленные значения, случайная функция называется случайной последовательностью. Подобно тому, как случайная величина характеризуется законом распределения, случайный процесс может быть охарактеризован совокупностью совместных законов распределения для X (t1), X (t2),..., X (tn)для всевозможных моментов времени t1, t2, ..., tn при любом n > 0. В настоящее время наиболее интересные конкретные результаты теории случайных процессов получены в двух специальных направлениях.
Исторически первыми изучались марковские процессы. Случайный процесс Х (t) называется марковским, если для любых двух моментов времени t0 и t1 (t0 < t1) условное распределение вероятностей X (t1) при условии, что заданы все значения Х (t) при t Ј t0, зависит только от X (t0) (в силу этого марковские случайные процессы иногда называют процессами без последействия). Марковские процессы являются естественным обобщением детерминированных процессов, рассматриваемых в классической физике. В детерминированных процессах состояние системы в момент времени t0 однозначно определяет ход процесса в будущем; в марковских процессах состояние системы в момент времени t0 однозначно определяет распределение вероятностей хода процесса при t > t0, причём никакие сведения о ходе процесса до момента времени t0 не изменяют это распределение.
Вторым крупным направлением теории случайных процессов является теория стационарных случайных процессов. Стационарность процесса, то есть неизменность во времени его вероятностных закономерностей, налагает сильное ограничение на процесс и позволяет из одного этого допущения извлечь ряд важных следствий (например, возможность так называемого спектрального разложения где z (l) случайная функция с независимыми приращениями). В то же время схема стационарных процессов с хорошим приближением описывает многие физические явления.
Теория случайных процессов тесно связана с классической проблематикой предельных теорем для сумм случайных величин. Те законы распределения, которые выступают при изучении сумм случайных величин как предельные, в теории случайных процессов являются точными законами распределения соответствующих характеристик. Этот факт позволяет доказывать многие предельные теоремы с помощью соответствующих случайных процессов.
Заключение
Теория вероятностей возникла в середине 17 в. Первые работы по теории вероятностей, принадлежащие французским учёным Б. Паскалю и П. Ферма и голландскому учёному X. Гюйгенсу, появились в связи с подсчётом различных вероятностей в азартных играх. Крупный успех теории вероятностей связан с именем швейцарского математика Я. Бернулли, установившего закон больших чисел для схемы независимых испытаний с двумя исходами (опубликовано в 1713).
Следующий (второй) период истории теории вероятностей (18 в. и начало 19 в.) связан с именами А. Муавра (Англия), П. Лапласа (Франция), К. Гаусса (Германия) и С. Пуассона (Франция). Это - период, когда теория вероятностей уже находит ряд весьма актуальных применений в естествознании и технике (главным образом в теории ошибок наблюдений, развившейся в связи с потребностями геодезии и астрономии, и в теории стрельбы). К этому периоду относится доказательство первых предельных теорем, носящих теперь названия теорем Лапласа (1812) и Пуассона (1837); А. Лежандром (Франция, 1806) и Гауссом (1808) в это же время был разработан способ наименьших квадратов.
Третий период истории теории вероятностей. (2-я половина 19 в.) связан в основном с именами русских математиков П. Л. Чебышева, А. М. Ляпунова и А. А. Маркова (старшего). Теория вероятностей развивалась в России и раньше (в 18 в. ряд трудов по В. т. был написан работавшими в России Л. Эйлером, Н. Бернулли и Д. Бернулли; во второй период развития теории вероятностей следует отметить работы М. В. Остроградского по вопросам теории вероятностей, связанным с математической статистикой, и В. Я. Буняковского по применениям теории вероятностей к страховому делу, статистике и демографии). Со 2-й половины 19 в. исследования по теории вероятностей в России занимают ведущее место в мире. Чебышев и его ученики Ляпунов н Марков поставили и решили ряд общих задач в теории вероятностей, обобщающих теоремы Бернулли и Лапласа. Чебышев чрезвычайно просто доказал (1867) закон больших чисел при весьма общих предположениях. Он же впервые сформулировал (1887) центральную предельную теорему для сумм независимых случайных величин и указал один из методов её доказательства. Другим методом Ляпунов получил (1901) близкое к окончательному решение этого вопроса. Марков впервые рассмотрел (1907) один случай зависимых испытаний, который впоследствии получил название цепей Маркова.
В Западной Европе во 2-й половине 19 в. получили большое развитие работы по математической статистике (в Бельгии - А. Кетле, в Англии - Ф. Гальтон) и статистической физике (в Австрии - Л. Больцман), которые наряду с основными теоретическими работами Чебышева, Ляпунова и Маркова создали основу для существенного расширения проблематики теории вероятностей в четвёртом (современном) периоде её развития. Этот период истории теории вероятностей характеризуется чрезвычайным расширением круга её применений, созданием нескольких систем безукоризненно строгого математического обоснования теории вероятностей, новых мощных методов, требующих иногда применения (помимо классического анализа) средств теории множеств, теории функций действительного переменного и функционального анализа. В этот период при очень большом усилении работы по теории вероятностей за рубежом (во Франции - Э. Борель, П. Леви, М. Фреше, в Германии - Р. Мизес, в США - Н. Винер, В. Феллер, Дж. Дуб, в Швеции - Г. Крамер) советская наука продолжает занимать значительное, а в ряде направлений и ведущее положение. В нашей стране новый период развития теории вероятностей открывается деятельностью С. Н. Бернштейна, значительно обобщившего классические предельные теоремы Чебышева, Ляпунова и Маркова и впервые в России широко поставившего работу по применениям теории вероятностей к естествознанию. В Москве А. Я. Хинчин и А. Н. Колмогоров начали с применения к вопросам теории вероятностей методов теории функций действительного переменного. Позднее (в 30-х гг.) они (и Е. Е. Слуцкий) заложили основы теории случайных процессов. В. И. Романовский (Ташкент) и Н. В. Смирнов (Москва) поставили на большую высоту работу по применениям теории вероятностей к математической статистике. Кроме обширной московской группы специалистов по теории вероятностей, в настоящее время в России разработкой проблем занимаются в Санкт-Петербурге.
Список литературы
1. Дорофеев Г.В., «Математика», учебник для общеобразовательных учебных заведений 5-11 класс. Москва, 2016г. С - 350.
2. Колмогоров Д.А., Фосс С.Г. «Сборник задач и упражнений по теории вероятности». Новосибирск, 2016г. С - 38.
3. Конспекты лекций по теории вероятности. УрГПУ, 2017г. С - 100.
4. Пугачев В.С., переиздание «Теория вероятности и математическая статистика». Москва, 2017г. С - 78.
5. Соколенко А.И. «Высшая математика», учебник. Москва, 2016г. С - 140.
6. Гнеденко Б. В. и Хинчин А. Я., Элементарное введение в теорию вероятностей, 3 изд., М. - Л., 1952;
7. Гнеденко Б. В., Курс теории вероятностей, 4 изд., М., 1965
8. Феллер В., Введение в теорию вероятностей и её приложение (Дискретные распределения), пер. с англ., 2 изд., т. 1-2, М., 1967.
9. Бернштейн С. Н., Теория вероятностей, 4 изд., М. - Л., 1946.
Размещено на Allbest.ru
...Подобные документы
Пространство элементарных событий, совместные и несовместные события, поиск их вероятности. Функция распределения системы случайных величин. Числовые характеристики системы: математическое ожидание и дисперсия. Оценка закона генеральной совокупности.
задача [73,6 K], добавлен 15.06.2012Возможные варианты расчета вероятности событий. Выборочное пространство и события, их взаимосвязь. Общее правило сложения вероятностей. Законы распределения дискретных случайных величин, их математическое ожидание. Свойства биномиального распределения.
презентация [1,4 M], добавлен 19.07.2015Определение числа всех равновероятных исходов испытания. Правило умножения вероятностей независимых событий, их полная система. Формула полной вероятности события. Построение ряда распределения случайной величины, ее математическое ожидание и дисперсия.
контрольная работа [106,1 K], добавлен 23.06.2009События и случайные величины. Функция распределения и ее характерные свойства. Сущность и определение основных числовых характеристик случайных величин: математическое ожидание, дисперсия, моменты. Критерии и факторы, влияющие на их формирование.
контрольная работа [118,5 K], добавлен 30.01.2015Вероятность события. Теоремы сложения и умножения событий. Теорема полной вероятности события. Повторные независимые испытания. Формула Бернулли, формула Пуассона, формула Муавра-Лапласа. Закон распределения вероятностей случайных дискретных величин.
контрольная работа [55,2 K], добавлен 19.12.2013Теория вероятности, понятие вероятности события и её классификация. Понятие комбинаторики и её основные правила. Теоремы умножения вероятностей. Понятие и виды случайных величин. Задачи математической статистики. Расчёт коэффициента корреляции.
шпаргалка [945,2 K], добавлен 18.06.2012Дискретные системы двух случайных величин. Композиция законов распределения, входящих в систему. Определение вероятности попадания случайной величины в интервал; числовые характеристики функции; математическое ожидание и дисперсия случайной величины.
контрольная работа [705,1 K], добавлен 22.11.2013Основные понятия, действия над случайными событиями. Классическое определение, свойства вероятностей. Правила вычисления вероятностей случайных событий. Построение законов распределения вероятностей случайных величин, вычисление числовых характеристик.
задача [82,0 K], добавлен 12.02.2011Понятие комплекса случайных величин, закона их распределения и вероятностной зависимости. Числовые характеристики случайных величин: математическое ожидание, момент, дисперсия и корреляционный момент. Показатель интенсивности связи между переменными.
курсовая работа [2,4 M], добавлен 07.02.2011Пространство элементарных событий, математическое ожидание. Функции распределения и плотности распределения составляющих системы случайных величин. Числовые характеристики системы. Условия нормировки плотности системы случайных непрерывных величин.
практическая работа [103,1 K], добавлен 15.06.2012Математическое ожидание случайной величины. Свойства математического ожидания, дисперсия случайной величины, их суммы. Функция от случайных величин, ее математическое ожидание. Коэффициент корреляции, виды сходимости последовательности случайных величин.
лекция [285,3 K], добавлен 17.12.2010Случайный процесс в теории вероятностей. Математическое ожидание и дисперсия. Многомерные законы распределения. Вероятностные характеристики "входной" и "выходной" функций. Сечение случайной функции. Совокупность случайных величин, зависящих от параметра.
курсовая работа [1,8 M], добавлен 23.12.2012Классическое определение вероятности события. Способы вычисления наступления предполагаемого события. Построение многоугольника распределения. Поиск случайных величин с заданной плотностью распределения. Решение задач, связанных с темой вероятности.
задача [104,1 K], добавлен 14.01.2011Фактор как одна из случайных величин, зависимость между которыми анализируется. Дисперсия как характеристика общей изменчивости значений У. Математическое ожидание как центр группирования значений У при Х=а. Нахождение коэффициента детерминации.
презентация [115,4 K], добавлен 01.11.2013Классическое, статистическое и геометрическое определения вероятности. Дискретные случайные величины и законы их распределения. Числовые характеристики системы случайных величин. Законы равномерного и нормального распределения систем случайных величин.
дипломная работа [797,0 K], добавлен 25.02.2011Вероятность появления события в серии из независимых испытаний. Закон распределения дискретной случайной, интегральной, дифференциальной, имперической функции распределения, математическое ожидание, дисперсия, и среднее квадратическое отклонение.
контрольная работа [397,9 K], добавлен 15.11.2010Статистическое, аксиоматическое и классическое определение вероятности. Дискретные случайные величины. Предельные теоремы Лапласа и Пуассона. Функция распределения вероятностей для многомерных случайных величин. Формула Байеса. Точечная оценка дисперсии.
шпаргалка [328,7 K], добавлен 04.05.2015Нахождение плотности, среднеквадратического отклонения, дисперсии, ковариации и коэффициента корреляции системы случайных величин. Определение доверительного интервала для оценки математического ожидания нормального распределения с заданной надежностью.
контрольная работа [200,3 K], добавлен 16.08.2010Определение вероятности появления события в каждом из независимых испытаний. Случайные величины, заданные функцией распределения (интегральной функцией), нахождение дифференциальной функции (плотности вероятности), математического ожидания и дисперсии.
контрольная работа [59,7 K], добавлен 26.07.2010Математическое ожидание дискретной случайной величины, его свойства и определение. Дисперсия и формула для ее вычисления. Среднее квадратическое отклонение. Ковариация и коэффициент корреляции. Коррелированные и некоррелированные случайные величины.
курсовая работа [133,7 K], добавлен 05.06.2011