Основные случайные величины

Любой сходящийся интеграл от неотрицательной функции порождает постоянное распределение. Как раз, в случае если? j(x)dx=I,?то роль плотности играется
p(x)= j(x), в случае если xIA,
0, в случае если xIA.

Каждая конечная сумма либо сходящийся последовательность с неотрицательными слагаемыми порождает дискретное распределение. Как раз: в случае если qk=S, то роль дискретных возможностей играются pk= qk, а в качестве xk возможно забрать каждые числа; самый простой выбор: xk=k.

Разглядим конкретные примеры.
1°. Равномерное распределение. Его порождает интеграл dx=b-a.

p(x)=
, в случае если xI[a, b],
0, в случае если xI[a, b].

Данный закон распределения будем обозначать R(a, b); числа a и b именуются параметрами распределения. Тот факт, что случайная величина X равномерно распределена на отрезке [a, b], будем обозначать следующим образом: X~R(a, b).

В частности, плотность случайной величины X~R(0, 1) имеет самый простой вид:

p(x)=1, в случае если xI[0, 1],
0, в случае если xI[0, 1].

Функция распределения таковой случайной величины равна:

F(x)=0, в случае если x x, в случае если 0?x?1,
1, в случае если x0.

В случае если мы наугад выбираем точку на отрезке [0, 1], то её абсцисса x есть конкретным значением случайной величины X~R(0, 1). Слово »наугад имеет в теории возможностей терминологическое значение и говорится с целью выделить, что соответствующая постоянная случайная величина распределена равномерно, либо дискретная случайная величина имеет конечное число N вероятных равновероятных значений.

2°. Экспоненциальное распределение.

Его порождает интеграл e-mxdx= , m0.

Плотность возможности, разумеется, равна

p(x)=me-mx, в случае если x³0,
0, в случае если x

а
F(x)=
функция распределения:

1-me-mx, в случае если x³0,
0, в случае если x

То событие, что случайная величина распределена по экспоненциальному закону, будем записывать так: X~Exp(m), m именуется параметром распределения (m0).

5°. Обычное распределение. Его порождает интеграл Пуассона:

I= dx= .

Распределение с плотностью

p(x)= , xI(-¥; +¥)

именуется стандартным обычным законом и обозначается N(0, 1).

Ему соответствует функция распределения:

F0(x)= dx.

В большинстве случаев принято табулировать интеграл

F(x)= dx,

именуемый интегралом неточностей либо интегралом Лапласа. Функция распределения стандартного обычного закона через данный интеграл:

F0(x)= + F(x).

В случае если в интеграл Пуассона ввести параметры сдвига и масштаба посредством замены переменной, заменив x на , то он примет вид:

dx=1.

Случайную величину с плотностью возможности

p(x)= , xI(-¥; +¥),

именуют нормально распределённой случайной величиной либо легко обычной. Соответствующий ей закон распределения обозначают N(a, s), a и s – параметры распределения (s0, a – любое вещественное число).

Биномиальная случайная величина появляется, к примеру, в схеме Бернулли, именуемой кроме этого схемой последовательных свободных опробований. Состоит она в следующем: осуществляется некий комплекс условий, при котором мы имеем одно и лишь одно из двух событий: или успех, или неуспех, причём возможность успеха равна p, возможность неудачи равна q=
=1-p; эта попытка свободным образом повторяется n раз. Полагая опытом все n попыток, можем вычислять элементарным событием опыта цепочку длины n, взятых в следствии опыта удач (У) и неудач (Н): УУУННУ
Н¼У.

Определим случайную величину X, задав её как число удач в одном опыте. Событию {X=k} помогают те элементарные события, каковые содержат успех ровно k раз, а неудачу – остальные?n-k?раз. Число таких помогающих событию {X=k} элементарных событий, равняется, разумеется, ,?а возможности всех их однообразны и по теореме умножения для свободных событий равныpkqn-k. Совсем приобретаем: P{X=k}= pkqn-k, а вероятными значениями случайной величины Xоказываются числа?xk=k, k=
=0, 1, 2, ¼ n.?Так, число удач X в схеме Бернулли – биномиальная случайная величина:X~B(n, p).

Пускай имеется вероятностное пространство (W, A, P(?)) и рассматривается некое событие A. Обозначим его возможность P(A)=p. Пускай опробование свободным образом повторяется n раз, причём событие A в этихn последовательных попытках наблюдалось k раз. Число k именуется полной частотой события A. Оно есть конкретным значением случайной величины X, определённой на серии из n свободных опробований. Нет ничего, что мешает заявить событие A успехом, а событие – неудачей. Это превращает последовательность из n опробований в схему Бернулли, а полная частота события A выясняется распределённой по закону Бернулли.

Геометрическое распределение кроме этого легко связано со схемой Бернулли: будем повторять попытку до появления первого успеха. Элементарным событием в таком опыте есть цепочка, у которой успех расположен лишь на последнем (k-м) месте, а на всех прошлых местах (а их k-1) – лишь неудачи: ННННН¼НУ. Свяжем с этим опытом случайную величину X – неспециализированное число попыток в опыте. Разумеется, значениями данной случайной величины смогут быть?xk=k, k=1, 2, 3, ¼ ,?а их возможности?pk=qk-1p,?что и сходится с геометрическим распределением G(p).

Числовые характеристики случайных размеров:
математическое ожидание, дисперсия,
коэффициент корреляции

Наиболее все данные о случайной величине содержится в законе её распределения. Более бедную, но и более конкретную данные о ней дают её числовые характеристики. Несложной из них являетсяматематическое ожидание, которое интерпретируется как среднее значение случайной величины. В случае если взглянуть на закон распределения как на распределение единичной вероятностной массы между значениями случайной величины, то в качестве среднего значения возможно забрать координаты центратяжести данной массы. По известным из анализа и механики формулам приобретаем формулы для вычисления абсциссы центра тяжести:

xp(x)dx – в постоянном случае,
xkpk – в дискретном случае.

Возвратимся к изучению числовых черт случайных размеров.

1°. Выше мы ввели понятие математического ожидания для дискретной и постоянной случайных размеров.

Пускай сейчас ^ X – случайная величина с функцией распределения F(x). Заберём произвольную функцию j(x).

Назовём математическим ожиданием функции j от случайной величины X число Mj(X), определяемое равенством:

Mj(X)= j(x)dF(x).

В частности, для постоянной случайной величины с плотностью возможности p(x) приобретаем:

Mj(X)= j(x)p(x)dx,

а для дискретной случайной величины с распределением?pk=P{X=xk}:

Mj(X)= j(xk)pk.

При, в то время, когда?j(x)=x,?последние три формулы принимают вид:

MX= xdF(x) – в общем случае,
MX= xp(x)dx – в постоянном случае,
MX= xkpk – в дискретном случае.

Формулы для постоянного и дискретного случаев совпали с формулами для абсциссы центра тяжести распределения вероятностной массы, и тем самым оправдывается истолкование математического ожидания случайной величины X как среднего значения.

Для корректности определения математического ожидания направляться обсудить вопрос о его единственности и существовании.

Вопрос о единственности Mj(X) появляется вследствие того что j(X) сама есть случайной величиной со своей функцией распределения Fj(x) и в соответствии с нашим определением её математическое ожидание равняется xdFj(x).

Для однозначности определения нужно исполнение равенства

j(x)p(x)dx= xdFj(x)

и такое равенство вправду возможно доказать: оно даёт правило замены переменных в интеграле Стилтьеса. Мы тут вынуждены принять его без доказательства.

Вопрос о существовании математического ожидания: ясно, что в постоянном и дискретном случае каждая ограниченная случайная величина имеет математическое ожидание. В случае если же X может принимать сколь угодно громадные значения, то в дискретном случае сумма, определяющая MX, делается нескончаемым рядом, а в постоянном – интеграл делается несобственным, причём оба смогут расходиться. Разумеется, в постоянном случае достаточным условием существования среднего значения у случайной величины есть

p(x)=O( ) при x®±¥ (e0),

а в дискретном случае:

xkpk=O( ) при k®¥ (e0).

Но оба эти условия не являются нужными.

Легко кроме этого придумать примеры случайных размеров, не имеющих среднего. Для постоянного случая таким примером может служить распределение Коши. В дискретном подобный пример придумать ещё легче, в случае если учесть, что возможность pk возможно приписать сколь угодно солидным числам xk.

В случае если дана двумерная случайная величина (X, Y), то математическое ожидание функции j(X, Y) определяется равенствами

Mj(X, Y)= j(x, y)p(x, y)dxdy – в постоянном случае
(интеграл берётся по всей плоскости),

Mj(X, Y)=j(xi, yj)pij – в дискретном случае
(сумма берётся по всем вероятным значениям
двумерной случайной величины).

2°. Второй по важности числовой чёртом случайной величины ^ X помогает её дисперсия DX. Дисперсией именуется

DX=M[(X-MX)2]= (x-MX)2dF(x),

т. е. среднее значение квадрата отклонения случайной величины от её среднего. Эта формула в постоянном случае переходит в

DX= (x-MX)2p(x)dx,

а в дискретном в:

DX= (xk-MX)2pk.

В случае если среднее имеется не у всех случайных размеров, то дисперсия и подавно. В будущем все теоремы о MX иDX без особенных оговорок формулируются только для тех X, каковые их имеют.

Размерность дисперсии равна квадрату размерности случайной величины ^ X. Исходя из этого время от времени комфортно вместо DX разглядывать величину sX= , именуемую средним квадратичным отклонением случайной величины X либо легко стандартом.

стандарт и Дисперсия мыслятся как меры разброса значений случайной величины около её среднего.

3°. Докажем пара несложных утверждений:

Математическое ожидание постоянной C равняется C:?MC=C.

Постоянный множитель возможно выносить за символ математического ожидания:

??????????????M(CX)=CMX.

Дисперсия постоянной равна нулю:?DC=0.

Постоянный множитель выносится за символ дисперсии в квадрате:

??????????????D(CX)=C2DX.

Постоянную C возможно разглядывать как частный случай дискретной случайной величины, принимающей единственное значение C с возможностью, равной 1. Исходя из этого MC=C?1=C.

Свойство?M(CX)=CMX?направляться из определения математического ожидания как предела интегральных сумм: постоянный множитель возможно выносить за знак интеграла и знак суммы.

О дисперсии:

DC=M[(C-MC)2]=M[(C-C)2]=M0=0;

D(CX)=M[(CX-M(CX))2]=M[(CX-CM(X))2]=
=M[C2(C-MC)2]=C2?M[(X-MX)2]=C2DX.

4°. Математическое ожидание суммы случайных размеров равняется сумме их математических ожиданий:

M(X+Y)=MX+MY.

6°. Ещё одна формула для дисперсии:?DX=M(X2)-M2(X).

Вправду, DX=M[(X-MX)2]=M(X2)-MX?MX+M[M(X)2]=
=M(X2)-2.M2(X)+M2(X)=M(X2)-M2(X).

В частности, в случае если?MX=0,?то?DX=M(X2).

7°. Нормированной случайной величиной X* назовём:

X*= .

Это – безразмерная случайная величина, причём:

a) MX*=0,?b) M(X*2)=1,?c) DX*=1.

Вправду
MX*=M( )= (MX-MX)=0,
M(X*2)=M[ ]= M[(X-MX)2]= DX=1,
DX*=M(X*2)-(MX*)2=1-0=1.

8°. В случае если?DX=0,?то практически возможно?X=const.?Вправду,

DX= (x-MX)2dF(x).

Интегрируемая функция?(x-MX)2?неотрицательна, причём обращается в ноль, лишь в точке?x=MX.?Интегрирующая функция?F(x)?монотонно неубывающая, причём её мельчайшее значение ³0, а громаднейшее ?1. Разумеется, равенство?DX=0?вероятно только в том случае, в то время, когда целый рост функции?F(x)?сосредоточен в точке?MX,? а это и свидетельствует, что?X=const?практически возможно.

9°. Пускай дана двумерная случайная величина (X, Y). Назовем коэффициентом корреляции двумерной случайной величины число

r=r(X, Y)=M(X*, Y*)= .

Числитель тут именуется ковариацией случайных размеров X и Y:

cov(X, Y)=M[(X-MX)(Y-MY)]=M(XY)-MX?MY.

Из определения коэффициента корреляции направляться, что

cov(X, Y)=r? ? .

Разумеется, коэффициент корреляции не изменяется при линейном преобразовании случайных размеров; в частности,?r(X, Y)=r(X*, Y*).

Коэффициент корреляции – числовая черта пары случайных размеров, определённых на одном и том же вероятностном пространстве, –заслужил репутацию меры линейной связи размеров X и Y.

Основанием к этому помогают последующие теоремы о коэффициенте корреляции.

10°.?M(XY)=MX?MY+cov(X, Y)?либо?M(XY)=MX?MY+r? ? .

Вправду:

M(XY)=M{[(X-MX)+MX]?[(Y-MY)+MY]}=
=M[(X-MX)?(Y-MY)]+MY?M(X-MX)+MX?M(Y-MY)+M(MX?MY)=
=MX?MY+cov(X, Y).

???В случае если коэффициент корреляции равен нулю, то математическое ожидание произведения случайных размеров равняется произведению их математических ожиданий:?r=0?U?M(X?Y)=MX?MY.

???Случайные размеры X и Y, коэффициент корреляции которых равен нулю, именуются некоррелированными.

11°. В случае если случайные размеры X и Y свободны, то?M(XY)=MX?MY.

12°. В случае если случайные размеры X и Y свободны, то они некоррелированы:?r=0.

Это утверждение направляться из формулы для коэффициента корреляции:

r= .

13°. Для двух произвольных случайных размеров X и Y:

D(X±Y)=DX+DY±2r

либо

D(X±Y)=sX2+sY2±2rsXsY.

Для некоррелированных, тем более – для свободных случайных размеров:

D(X±Y)=DX+DY.

В частности,?D(aX+b)=a2DX,?D(X+c)=DX.

14°. Как частный случай теоремы 13° находим:?D(X*±Y*)=2(1±r).

17°. Пускай отмечается двумерная случайная величина (X, Y), наряду с этим воображает интерес случайная величина Y, в то время как измерению дешёвы значения случайной величины X. Нужно по X угадать (в каком-то смысле – наилучшим образом) Y. В качестве предсказания возможно мыслить разные функции j(X):?Y»j(X),?а уровень качества приближения оценивать среднеквадратической неточностью: оптимальным вычислять такое приближение j(X), которое минимизирует математическое ожидание?M[(Y-j(X))2].

Тут мы отыщем лучшее приближение среди всех линейных приближений, причём будем решать эту задачу для нормированных случайных размеров X*, Y*, т. е. будем предполагать, что?Y*»aX*±b.

Ищем такие a и b, каковые минимизируют функцию

I(a, b)=M[(Y*-aX*-b)2].

Разумеется,

I(a, b)=M(Y*2)+a2(MX*)2+b2-2aM(X*Y*)+2bMY*+2abMX*

и по теореме 7°:

I(a, b)=1+a2-b2-2ar.

Уравнения для нахождения экстремума:

=2a-2r=0,
=2b=0.

Из этого следует, что?a=r, b=0?и наилучшее предсказание:?Y*»rX*?либо:

»r ,

что возможно переписать в виде:

Y»r (X-MX)+MY

(как раз эту формулу мы бы взяли, если бы решали задачу для (X, Y), а не для (X*, Y*)).

Прямая

y=r (x-MX)+MY

именуется линией регрессии Y на X.

В частности, в случае если X и Y – свободные случайной величины, то отечественная формула показывает следующее наилучшее предсказание: Y»MY и никакой информации о Y случайная величина X не содержит.

Приложение 1

Таблица – Удачи студентов учебной группы (форма)

ФИО Эссе 1 презентация и Доклад 1 Эссе 2 презентация и Доклад 2 Авторское изучение Контроль 1 Контроль 2 Итого
Иванова 10*
**
Блохин
…………………….
………………………
* — результаты исполнения личных заданий оцениваются учителем, большое количество баллов за каждое задание указано в верхней строчке оценок студента. ** — в нижней строчке – оценка работы студента в баллах, отражающая его удачи.

закон и Случайная величина ее распределения


Также читать:

Понравилась статья? Поделиться с друзьями: