Политех в Сети

Сайт для Учебы

ПРИЛОЖЕНИЕ А. ОСНОВНЫЕ ПОНЯТИЯ ТЕОРИИ ВЕРОЯТНОСТЕЙ

Рейтинг пользователей: / 0
ХудшийЛучший 

§1. Понятие вероятности события

Под событием в теории вероятностей понимают всякий факт, который в результате опыта может произойти или не произойти. Разные события имеют разную возможность наступить. Чтобы количественно сравнить события по степени возможности наступить с каждым событием связывают определённое число, называемое вероятностью события, которое тем больше, чем более возможно событие. В качестве единицы измерения вероятности естественно принять вероятность достоверного события. Так же естественно, невозможному событию приписать вероятность равную нулю. Таким образом, по определению, диапазон изменения вероятностей — [0,1], т. е. вероятность возможного, но недостоверного события А:

(А1)

Где буквой Р обозначена вероятность события А.

Введём некоторые вспомогательные понятия.

1. Говорят, что события А1, ..., АN образуют полную группу событий, если в результате опыта обязательно наблюдается одно из них.

К примеру, выпадение орла (событие A1) и выпадение решки (событие А2) при бросаниях монеты образуют полную группу событий. Так же образуют полную группу шесть событий наблюдаемых при бросании игральной кости (кубика из однородного материала).

2. События А1, ..., АN в данном опыте называют несовместными, если никакие два из них не могут произойти вместе.

3. События А1, ..., АN в данном опыте называют равновозможными (равно­вероятными), если по условиям симметрии опыта следует считать, что ни одно из этих событий не имеет объективного предпочтения перед другим в возможности наступить.

Очевидно, что события в каждом из двух выше приведённых примерах несовместны, равновероятны и образуют полную группу событий.

Если исходы некоторого опыта образуют полную группу несовместных и равновероятных событий (тогда говорят о схеме случаев), то вероятность каждого из этих исходов (событий), очевидно, можно вычислить по формуле

(А2)

Где M — число случаев, благоприятных событию А, а N — общее число случаев.

Пример. Пусть имеется закрытый сосуд с воздухом, который разделён на три равные по объёму части. Введём в сосуд молекулу эфира. Обозначим через АI (I = 1, 2, 3) событие, состоящее в том, что молекула эфира будет обнаружена в i-ой части сосуда. Очевидно, что события A1, А2, А3 образуют полную группу событий, они несовместны, т. е. нельзя одновременно обнаружить молекулу эфира в двух разных объёмах, и равновозможны, т. к. нет объективных причин утверждать, что молекула предпочтёт находиться чаще, к примеру, во втором из равных объёмов, чем в первом или третьем (предполагается отсутствие внешних полей). Поэтому согласно (А2) вероятность встретить молекулу эфира, к примеру, во второй части объёма сосуда Р(А2)=1/3.

Формула (А2) для непосредственного подсчёта вероятностей применима только, когда опыт, в результате которого может появиться интересующее событие, обладает симметрией возможных исходов. Однако, существует обширный класс случайных явлений, в которых вероятности тех или иных событий нельзя вычислить так просто. К примеру, невозможно по формуле (А2) вычислить вероятность следующего события: случайно взятая молекула воздуха имеет скорость, заключённую в интервале от 400 м/с до 500 м/с.

Чтобы уметь вычислять вероятность подобных событий, необходимо знать некоторые теоремы теории вероятностей.

§2. Простейшие теоремы теории вероятностей

Определение: Суммой С = А + В Двух событий А и В называется событие С, состоящее в появлении хотя бы одного из событий А или В.

Теорема 1. Вероятность суммы двух несовместных событий равна сумме вероятностей этих событий, т. е.

(А3)

Р(А+В)(А)(В)

Доказательство проведем для событий, составляющих схему случаев.

Пусть возможные исходы опыта сводятся к совокупности случаев, которые мы для наглядности изобразим в виде N точек.

Предположим, что из N случаев M благоприятны событию А, а K — событию В. Тогда

(А4)

Так как события А и В несовместны по условию теоремы, то нет таких случаев, которые благоприятны и А, и В вместе. Следовательно, событию А + В благоприятны M + K случаев и

(А5)

Подставляя (А4) и (А5) в (АЗ), получим тождество, что доказывает теорему.

Теорему сложения вероятностей, доказанную для двух событий, легко по индукции распространить на любое число несовместных событий:

P(A1 + А2 + ... + АN) = Р(А1) + Р(А2) + ... + Р(АN)

Или

(А6)

Следствие 1. Если события А1, ..., АN образуют полную группу несовместимых событий, то сумма их вероятностей равна единице

(А7)

Доказательство. Так как событие А1, ..., АN образуют полную группу, то появление в опыте хотя бы одного из них достоверное событие

(А8)

P(A1 + А2 + ... + АN) =1

Так как А1, ..., АN по условию несовместны, то к ним применима теорема сложения вероятностей:

(А9)

P(A1 + А2 + ... + АN) = Р(А1) + Р(А2) + ... + Р(АN)=

Из (А8) и (А9) следует, что

Определение. Противоположными событиями и называют два несовместных события, образующих полную группу.

Сумма вероятностей противоположных событий, на основании следствия 1, очевидно, равна единице, т. е.

(А10)

Определение. Событие А называют независимым от события В, если вероятность события А не зависит от того произошло событие В или нет, т. е.

(А11)

Р(А/В) = Р(А)

В выражении (А11) Р(А/В) — есть вероятность события А при условии, что событие В имело место. Говорят, что Р(А/В) условная вероятность события А.

Пример: Пусть в урне имеется 3 белых и два чёрных шара. Два лица вынимают из урны по одному шару. Рассмотрим два события:

А — появление белого шара у 1-го лица.

В — появление белого шара у 2-го лица.

Вероятность события А до того, как известно что-либо о событии В, равна 3/5. Если стало известно, что событие В произошло, то вероятность события А становиться равной 1/2, из чего заключаем, что событие А зависит от события В.

Определение. Произведением двух событий А и В называется событие состоящее в совместном (или одновременном) появлении этих двух событий.

Теорема 2. Вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого, вычисленную при условии, что первое событие имело место:

(А12)

Р(А, В) = Р(А)Р(В/А)

Докажем теорему 2 для событий, сводящихся к схеме случаев. Пусть возможные исходы опыта сводятся к N случаям, которые изобразим в виде точек

Предположим, что событию А благоприятны M случаев, а событию В благоприятны K случаев. Так как по условию теоремы не предполагается, что события А и В несовместны, то вообще говоря существуют случаи, благоприятные и событию А, и событию В одновременно. Пусть число таких случаев L. Тогда

(А13)

Вычислим Р(В/А), т. е. условную вероятность события B в предположении, что А имело место. Если известно, что событие А произошло, то из ранее возможных N случаев остаются возможными только те M случаев, которые благоприятствовали событию А. Из них L случаев благоприятны событию В. Поэтому

(А14)

Подставляя (А13) и (А14) в (А12) получим тождество. Теорема доказана.

Следствие 1. Вероятность произведения двух независимых событий равна произведению вероятностей этих событий.

Следствие 1 непосредственно вытекает из определения независимости событий Р(В/А)(В) и теоремы 2.

§3. Интегральная функция распределения случайной величины

Определение. Случайной величиной Х называют величину, которая в результате опыта принимает то или иное значение, заранее неизвестно какое.

Случайную величину Х будем предполагать непрерывной, принимающей свои возможные значения из интервала ().

Определение. Интегральной функцией распределения F(Х) называется вероятность того, что случайная величина Х примет значение меньшее Х, т. е.

(А15)

Докажем некоторые свойства функции F(X).

1. Функция F(Х) неубывающая функция своего аргумента, т. е. если Х2 > Х1, то

Для доказательства свойства 1 разобьём интервал () на два несовместных (не имеющих общих точек): () и [). Тогда по теореме сложения несовместных событий

Т. к.

(А16)

2.

(А17)

3.

Последние два свойства очевидны.

4. Вероятность того, что случайная величина Х примет значение на интервале от α до β, равна приращению функции на этом интервале, т. е.

(А18)

Для доказательства разобьём интервал () на два несовместных интервала: () и [). Тогда по теореме сложения

Или

Из последнего равенства непосредственно следует утверждение четвертого свойства.

§4. Плотность вероятности

По определению производной интегральной функции распределения

(А19)

В числителе правой части последнего выражения стоит вероятность, что случайная величина примет значение на интервале ΔХ, лежащем возле точки Х. Ясно, что эта вероятность зависит от того, где взять эту точку Х, т. е.

Если эту величину разделить на ΔХ и устремить ΔХ к нулю, то получим плотность вероятности (по аналогии линейной плотности массы, «размазанный» по оси х) случайной величины Х в точке Х. Таким образом, если обозначить плотность вероятности ω(Х), то из (А19)

(А20)

Отметим некоторые полезные свойства плотности вероятности ω(Х).

1).

Это свойство сразу же следует из первого свойства интегральной функции распределения F(Х) и выражения (А20).

2) .

Для доказательства, найдём из (А20) F(Х).

(А21)

Положив в (А21) и учтя, что , получим второе свойство.

3). Чтобы найти вероятность принятия случайной величиной значения на интервале (α, β), необходимо проинтегрировать плотность ω(Х) на этом интервале, т. е.

(А22)

Для доказательства воспользуемся четвертым свойством функции F(Х) и выражением (A21):

Что и требовалось доказать.

§5. Среднее значение

Среднее значение является важнейшей, хотя и грубой, характеристикой случайной величины X. Она характеризует среднее, ориентировочное значение, около которого группируются все возможные значения случайной величины. Чтобы установить правило, по которому её вычисляют, рассмотрим сначала дискретную случайную величину X, характеризуемую рядом распределения

Xi

X1

X2

Xn

P(Xi)

P(X1)

P(X2)

P(Xn)

Где Xi — возможные значения, которые принимает на опыте случайная величина X, а P(Xi) — их вероятности появления.

Пусть произведено большое число N измерений случайной величины Х так, что значение X1 было наблюдено Т1 раз, Х2M2 раз, ... XnMn раз. При этом, очевидно

Среднее арифметическое наблюдаемых значений случайной величины X, очевидно, равно:

(А23)

,

Где — величина, характеризующая, как часто принимает в опыте значение Xi случайная величина X. Величину Называют частотой события Xi. Можно доказать, что частота с вероятностью почти единица (т. е. достоверно) равна вероятности, если только число опытов (Теорема Бернулли). С учётом этой теоремы равенство (А23) можно переписать в виде:

(А24)

Величину (А24) называют средним значением случайной величины Х и обозначают. Таким образом, среднее значение дискретной случайной величины Х равно сумме произведений каждого из её возможного значения Xi на его вероятность Р(ХI).

В случае непрерывной случайной величины Х нетрудно получить аналогичное выражение для вычисления её среднего значения:

(А25)

Если некоторая случайная величина Y связана с X функциональной зависимостью , то среднее значение случайной величины Y, очевидно, находится по формуле

(А26)

К примеру, если , то

(А27)