Условным законом распределения величины X, входящей в систему , называется её закон распределения, вычисленный при условии, что другая случайная величина Y приняла определённое значение y.

Зная закон распределения одной из величин и условный закон распределения другой, можно составить закон распределения системы.

Так как вероятность попадания системы в прямоугольник со сторонами , примыкающими к точке есть элемент вероятности , а с другой стороны это вероятность одновременного попадания случайной точки в элементарную полосу, опирающуюся на отрезок , и в полосу, опирающуюся на отрезок , то

Вероятность произведения этих двух событий, по теореме умножения вероятностей, равна вероятности попадания в элементарную полосу 1, умноженную на условную вероятность попадания в элементарную полосу 2, вычисленную при условии, что первое событие имело место.

Это условие в пределе равносильно условию , следовательно

.

Окончательно получаем:

.

Это теорема умножения законов распределения.

Аналогично

.

Можем определить условные законы распределения через безусловные:

;

.

Случайная величина называется независимой от случайной величины , если закон распределения величины не зависит от того, какое значение приняла величина .

Для непрерывных случайных величин условие независимости от может быть записано в виде:

при любом у.

Если зависит от , то

.

Зависимость или независимость случайных величин всегда взаимны: если величина не зависит от , то и величина не зависит от .

Случайные величины и называются независимыми, если закон распределения каждой из них не зависит от того, какое значение приняла другая. В противном случае величины и называются зависимыми.

Для независимых непрерывных случайных величин теорема умножения законов распределения принимает вид:

,

т.е. плотность распределения системы независимых случайных величин равна произведению плотностей распределения отдельных величин, входящих в систему.

Это условие может рассматриваться как необходимое и достаточное условие независимости случайных величин.

Часто по самому виду функции можно заключить, что случайные величины , являются независимыми, а именно: если плотность распределения распадается на произведение двух функций, из которых одна зависит только от x, другая – только от , то случайные величины независимы.

 

Пример 3.1. Система двух случайных величин подчинена закону распределения с плотностью: .

Найти функцию распределения . Определить вероятность попадания случайной точки в квадрат с координатами: (1, 1), (0, 1), (1, 0), (0, 0).

Решение.

.

Тогда вероятность попадания в квадрат (прямоугольник) :

Пример 3.2. Плотность распределения системы имеет вид:

.

Определить, зависимы или независимы величины и .

Решение. Разлагая знаменатель на множители, имеем:

.

Из того, что функция распалась на произведение двух функций, из которых одна зависит только от , другая – только от , заключаем, что величины и должны быть независимы. Действительно,

.

Аналогично, .

Отсюда убеждаемся, что , и, следовательно, величины и независимы.

3.3. Числовые характеристики системы двух величин

Начальным моментом порядка системы называется математическое ожидание произведения на :

Центральным моментом порядка системы называется математическое ожидание произведения –й и s–й степеней соответствующих центрированных величин:

Для дискретных случайных величин начальные и центральные моменты вычисляются, соответственно, по формулам:

;

,

где – вероятность того, что система примет значения , а суммирование распространяется по всем возможным значениям случайных величин , .

Для непрерывных случайных величин:

; ,

где – плотность распределения системы .

Очевидно, что

;

.

Совокупность математических ожиданий и представляет собой характеристику положения центра системы .

Геометрически это координаты средней точки на плоскости (центр тяжести), вокруг которой происходит рассеяние всех точек .

Дисперсии величин Х и Y характеризуют рассеяние случайной точки в направлении осей и :

.

.

Особую роль как характеристики системы играет второй смешанный центральный момент

,

т.е. математическое ожидание произведения центрированных величин.

Это ковариационный момент (т.е. момент связи, корреляционный момент) случайных величин , .

Для дискретных случайных величин корреляционный момент выражается формулой

а для непрерывных

.

Корреляционный момент есть характеристика системы случайных величин, описывающая, помимо рассеяния величин и , ещё и связь между ними. Для независимых случайных величин корреляционный момент равен нулю.

Корреляционный момент характеризует не только зависимость величин, но и их рассеяние. Поэтому для характеристики степени тесноты связи между величинами в чистом виде переходят от момента к безразмерной характеристике

где – средние квадратические отклонения величин и .

Эта характеристика называется коэффициентом корреляции величин и .

Две независимые случайные величины всегда являются некоррелированными. Обратное верно не всегда. Равенство нулю коэффициента корреляции (корреляционного момента) есть необходимое, но недостаточное условие независимости случайных величин.

Условие независимости случайных величин – более жёсткое, чем условие некоррелированности.

Коэффициент корреляции характеризует степень тесноты только линейной зависимости между случайными величинами.

Свойства коэффициента корреляции:

, где – константы;

Пример 3.3. Система случайных величин подчинена закону распределения с плотностью

Требуется: определить параметр a; вычислить вероятность попадания точки в прямоугольник, ограниченный прямыми

.

Вычислить характеристики

Решение. Найдём параметр a из уравнения

.

Отсюда:

.

Искомая вероятность

.

По соответствующим формулам вычисляем другие числовые характеристики:

; ;

.

Пример 3.4. События А и В имеют одинаковую вероятность p. Какова должна быть условная вероятность Р(А|В), чтобы коэффициент корреляции между А и В был равен числу r.

Решение. Пусть Х = 1 или 0 в зависимости от того, произошло событие А или нет. Пусть Y = 1 или 0 в зависимости от того, произошло событие B или нет. Обозначим P(A|B) = P(B|A) = p1.

Тогда P(AB) = pp1, P( B) = p (1 – p1), P( ) = p(1 – p1), P( ) = 1 – pp1 – 2p(1– p1) = 1 – 2p + pp1, т.е. совместное распределение (Х,Y) задаётся таблицей:

 

 

Y (В)

X (А) 1 0
1 pp1 p(1 – p1)
0 p(1 – p1) 1 – 2p + pp1

 

Следовательно,

M[X] = M[Y] = p,

D[X] = D[Y] = p(1 – p),

M[XY] = pp1,

Rxy = p(p1 p),

rxy = = r,

т.е.

p1 = P(A|B) = p + r(1 – p).