Главная страница
qrcode

ТЕРВЕР. Теория. РB(А) Р(А) то событияАиВ независимы. Для двух независимых событийАиВ имеем Р(АВ) Р(А) Р(В)


Скачать 322.92 Kb.
НазваниеРB(А) Р(А) то событияАиВ независимы. Для двух независимых событийАиВ имеем Р(АВ) Р(А) Р(В)
АнкорТЕРВЕР. Теория.docx
Дата13.10.2017
Размер322.92 Kb.
Формат файлаdocx
Имя файлаТЕРВЕР. Теория.docx
ТипДокументы
#42570
страница1 из 3
Каталогtutuchan

С этим файлом связано 33 файл(ов). Среди них: Бухучет. Памятка по счетам и основам.doc, BUKhUChET_Ekzamen_AST.pdf, Менеджмент.docx, ДКОиМП (без ответов).doc, ДКОиМП.docx, Теория игр. Теория к экзамену.docx, Оценка собственности (полная версия).doc, МАКРА. Теория к экзамену.doc, Оценка собственности (сокр.вариант).doc и ещё 23 файл(а).
Показать все связанные файлы
  1   2   3

  1. Какие события называются независимыми? Докажите, что если события

A и B независимы, то независимы события A и B’

Если выполняется равенство РB(А)=Р(А) то события А и В независимы. Для двух независимых событий А и В имеем Р(АВ)=Р(А)*Р(В)- правило умножения вероятностей для двух событий.

А=АВ+АВ’ Р(А)= Р(АВ)+Р(АВ’), или Р(А)=Р(АВ’)+Р(А)Р(В). Отсюда Р(АВ’)=Р(А)1-Р(В), или Р(АВ’)=Р(А)Р(В’)


  1. Сформулируйте и докажите формулу полной вероятности.

Пусть событие А может наступить при условии появления одного из несовместных событий В1, В2,В3 ,…., Вn, которые образуют полную группу. Пусть известны вероятности этих событий и условные вероятности Р в2 (А), …., Рвn (А) события А. Найдем вероятность события А.

Вероятность события А, которое может наступить лишь при условии появления одного из несовместных событий В1, В2,…,Вn, образующих полную группу, равна сумме произведений вероятностей каждого из этих событий на соответствующую условную вероятность события А:

Р(А) = Р(В1) Рв1(А) + Р(В2) Рв2(А) +….+ Р(Вn) Рвn(А).

Эта формула называется «формулой полной вероятности».

Докажем ее…

По условию, событие А может наступить, если наступит одно из несовместных событий В1,В2,…,Вn. Другими словами, появление события А означает осуществление одного, безразлично какого, из несовместных событий В1А, В2А,…, ВnА. Пользуясь для вычисления события А теоремой сложения, получаем

Р(А) = Р(В1А) + Р(В2А) +….+ Р(ВnА) (1)

Остается вычислить каждое из слагаемых. По теореме умножения вероятностей зависимых событий имеем:

Р(В1А) = Р(В1) Рв1(А); Р(В2) Рв2(А): …. Р(ВnА) = Р(Вn) Р( bn) (А)

Подставляем правые части этих равенств в соотношение (1) и получаем формулу полной вероятности:

Р(А) = Р(В1) Рв1(А) + Р(В2)Рв2 (А) + ….+ Р(Вn) Рвn (А)


  1. Сформулируйте и докажите формулу Байеса.

Пусть событие А может наступить при условии появления одного из несовместных событий В1,В2,…,Вn, образующих полную группу. Поскольку заранее неизвестно, какое из этих событий наступит, их называют гипотезами. Вероятность появления события А определяется по формуле полной вероятности:

Р(А) = Р(В1) Рв1(А) + Р(В2)Рв2 (А) + ….+ Р(Вn) Рвn (А) (1)

Допустим, что произведено испытание, в результате которого появилось событие А. Определим, как изменились, в связи с тем, что событие А уже наступило, вероятности гипотез. Другими словами, будем искать условные вероятности

Ра(В1), Ра(В2),…., Ра(Вn).

Найдем вначале условную вероятность Ра(В1). По теореме умножения имеем

Р(АВ1) = Р(А) Ра(В1) = Р(В1)Рв1(А)

Отсюда

Ра(В1) = Р(В1)Рв1(А)

Р(А)

Заменим здесь Р(А) по формуле (1), получаем

pA(Hi)=рвi(A)p(Вi) .

рВ11)р(В1)+рВ2(А)р(В2)+…+рВn(А)р(Вn)

Аналогично выводятся формулы, определяющие условные вероятности остальных гипотез, т.е. условная вероятность любой гипотезы Вi (i= 1,2,…,n) может быть вычислена по формуле

Ра(Вi) = Р(Вi) Рвi(А)

Р(В1) Рв1(А) + Р(В2) Рв2(А)+….+Р(Вn) Рвn(А)

Полученные формулы называются формулы Байеса. Они позволяют переоценить вероятности гипотез после того, как становится известным результат испытания, в итоге которого появилось событие А.


  1. Выведите формулу для наиболее вероятного числа успехов в серии n испытаний по схеме Бернулли.

Рассмотрим 2 соседних числа Рn(k) и Рn(k+1). Они либо равны, либо 1<2го, либо 2<1го. Рn(k)/ Рn(k+1)<>=1.

Рn(k)=Сnkpkqn-k; Pn(k+1)=Cnk+1pk+1qn-k-1. Cnk+1nk*(n-k)/(k+1). Сл-но (k+1)/(n-k)<>=1. Или (k+1)*q<>=(n-k)*p. Сл-но k<>=n*p-q. Обозначим np-q как a. Сл-но для любого kn(k)n(k+1), для k=a-1 (если а – целое число) Pn(k)=Pn(k+1), при k>a-1, Pn(k)>Pn(k+1). При kn(k) возрастает, при k>a-1, убывает.То есть, если а не являя-ся целым, то ф-я имеет единственный максимум, он достигается при ближайшем к а слева целом значении k, k=[a]=[n*p +p]. Если а =целое, то 2 разных максимума достигаются при k=a-1, k=a.




Н-во Чебышева: пусть X – случ. величина, у кот есть M(X)=m и D(X)=a, тогда  >0 справедливо н-во

P(|X-m|)  D(X)/2. Противоположное событие: 1 - P(|X-m|)  1 - D(X)/2; P(|X-m|<) 1 - D(X)/2.

Правило 3: Пусть =3: P(|X-m|<3)  1-2/92 = 8/9.

  1. Используя интегральную приближённую формулу Лапласа, выведите формулу для оценки отклонения относительной частоты события А от вероятности p наступления A в одном опыте.

В условиях схемы Бернулли с заданными значениями n и p для данного >0 оценим вероятность события , где k – число успехов в n опытах. Это неравенство эквивалентно |k-np|n, т.е. -n  k-np  n или np-n  k  np+n. Таким образом, речь идёт о получении оценки для вероятности события k1  k  k2, где k1 = np-n, k2 = np+n. Применяя интегральную приближённую формулу Лапласа, получим:

P(.

С учётом нечётности функции Лапласа получаем приближённое равенство P( 2Ф(. Примечание: т.к. по условию n=1, то подставляем вместо n единицу и получаем окончательный ответ.


  1. Пусть X – дискретная случайная величина, принимающая только неотрицательные значения и имеющая математическое ожидание m . Докажите, что P(X 4) m/4 .

Докажем неравенство Маркова:

Если x>0 и a=const, a>0, то

Док-во: Введём новую величину:

Y

0

a

P

P(x

P(xa)


XY

M(x) M(y), M(y)= aP(Xa)

aP(Xa) M(x)

P(Xa)

В нашем примере a=4 (т.е. a=const), a>0, M(x)=m

По неравенству Маркова: P(X4) m/4


  1. Докажите, что если X и Y – независимые дискретные случайные величины, принимающие конечное множество значений, то М(XY)=М(X)М(Y)

Если случайные величины X и Y независимы, то математическое ожидание их произведения равно произведению их математических ожиданий (теорема умножения математических ожиданий).

Возможные значения X обозначим x1, x2, , возможные значения Y - y1, y2, а pij=P(X=xi, Y=yj). Закон распределения величины XY будет выражаться соответствующей таблицей. А M(XY)= Ввиду независимости величин X и Y имеем: P(X= xi, Y=yj)= P(X=xi) P(Y=yj). Обозначив P(X=xi)=ri, P(Y=yj)=sj, перепишем данное равенство в виде pij=risj

Таким образом, M(XY)= =. Преобразуя полученное равенство, выводим: M(XY)=( )() = M(X)M(Y)

  1. Докажите, что если X и Y – дискретные случайные величины, принимающие конечное множество значений, то М(X +Y) = М(X ) (Y).

Математическое ожидание суммы двух случайных величин равно сумме математических ожиданий слагаемых:M(X+Y)= M(X)+M(Y). Док-во. Пусть случайные величины X и Y заданы следующими законами распределения(*)( возьмем 2 значения):


X x1 x2

p p1 p2

Y y1 y2

g g1 g2
Составим все возможные значения величины X+Y. Для этого к каждому возможному значению X прибавим возможное значение Y; получим x1+y1, x1+y2, x2+y1, x2+y2. Предположим, что эти возможные значения различны( если не так, то доказательство аналогично), и обозначим их вероятности соответственно через p11,p12,p21,p22. Математическое ожидание величины X+Y равно сумме произведений возможных значений на их вероятности: M(X+Y) = (x1+y1)* *p11+(x1+y2)* p12+(x2+y1)* p21+(x2+y2)* p22, или M(X+Y) = x1*(p11+p12)+ x2*(p21+p22)+ +y1*(p11+p21)+ y1*(p12+p22). Докажем, что p11+p12=p1. Событие, состоящие в том, что X примет значение x1 (вероятность этого события равна p1), влечет за собой событие, которое состоит в том, что X+Y примет значение x1+y1 или x1+y2 (вероятность этого события по теореме сложения равна p11+p12), и обратно. Отсюда следует, что p11+p12=p1. Аналогично доказываются равенства p21+p22=p2, p11+p21=g1 и p12+p22=g2. Подставляя правые части этих равенств в соотношение (*), получим M(X+Y)=(x1p1+x2p2)+(y1g1+y2g2), или M(X+Y)= M(X)+M(Y).

  1. Пусть Х – дискретная случайная величина, распределенная по биномиальному закону распределения с параметрами n и р. Докажите, что М(Х)=nр, D(Х)=nр(1-р).

Пусть производится n независимых испытаний, в каждом из которых может появиться событие А с вероятностью р, так что вероятность противоположного события Ā равна q=1-p. Рассмотрим сл. величину Х – число появления события А в n опытах. Представим Х в виде суммы индикаторов события А для каждого испытания: Х=Х12+…+Хn. Теперь докажем, что М(Хi)=р, D(Хi)=np. Для этого рассмотрим закон распределения сл. величины, который имеет вид:


Х

0

1

Р

Р

q
Очевидно, что М(Х)=р, случайная величина Х2 имеет тот же закон распределения, поэтому D(Х)=М(Х2)-М2(Х)=р-р2=р(1-р)=рq. Таким образом, М(Хi)=р, D(Хi)=pq. По теореме сложения математических ожиданий М(Х)=М(Х1)+..+М(Хn)=nр, D(Х)=D(Х1)+…+Dn)=npq=np(1-р).


  1. Пусть X – дискретная случайная величина, распределенная по закону Пуассона с параметром . Докажите, что M(X ) = D(X ) = λ .

Закон Пуассона задается таблицей:

X

0

1

2

3



P

λ−e

λλ−e

λλ−e!22

λλ−e!33




Отсюда имеем:

=

Таким образом, параметр λ, характеризующий данное пуассоновское распределение, есть не что иное как математическое ожидание величины X. Это легко понять, если вспомнить, что формулы Пуассона получились как предельный вариант формул Бернулли, когда , причем ∞→n∞→nλ = np. Поскольку для биномиального закона математическое ожидание равно np, то неудивительно, что для пуассоновского закона M(X) = . Более того, мы можем предположить, что дисперсия X тоже будет равна λ, поскольку для биномиального закона D(X) = npq и 1 при →q. Действительно, непосредственный подсчет дисперсии подтверждает это предположение, однако мы не приводим его здесь из-за сложности выкладок. Ниже мы выведем эти формулы более простым способом. Таким образом, для закона Пуассона

  1. M(X) = λ, D(X) = λ



  1   2   3

перейти в каталог файлов


связь с админом