Определение: Нормированной корреляционной (автокорреляционной)
функцией случайного процесса называется нормированная
ковариационная (автоковариационная ) функция, получаемая
делением ковариационной функции на произведение
среднеквадратичных отклонений
. ( 11 )
Нормированная корреляционная функция случайного процесса Rx (t1,t2) обладает свойствами:
1) при t1 = t2 = t нормированная корреляционная функция равна 1
Kx(t,t) Dx( t)
Rx(t,t) = ¾¾¾¾¾ = ¾¾¾¾ = 1.
sx(t) sх(t) sx2 (t)
2) нормированная корреляционная функция случайного процесса симметрична относительно своих аргументов
Rx(t1,t2) = Rx(t2,t1).
3) нормированная корреляционная функция случайного процесса принимает значения от -1 до +1, т.е. ½Rx(t1,t2) ½ £ 1.
!Замечание! : В некоторых учебниках и задачниках, например [4],[5], корреляционная функция (10) называется ковариационной функцией, а нормированная корреляционная функция называется корреляционной функцией.
Более сложным объектом по сравнению со случайным процессом Х(t) является векторный случайный процесс Х* (t), состоящий из k - компонент - случайных процессов Х i (t)
Х* (t) = {Х1 (t), Х2 (t), ... , Х k (t) } . ( 12 )
Каждая компонента векторного случайного процесса (12) имеет характеристики:
М [Хi (t)] = m i (t) ; D[Xi (t)] = ϭi 2 ; K(xi ; t1, t2) = Ki (t1 , t2).
Для определения зависимости между компонентами векторного с.п. используют взаимную корреляционную функцию Ki j (t1, t2) двух случайных процессов.
Определение: Взаимной корреляционной функцией Ki j (t1, t2) двух случай-
ных процессов Хi (t) и Хj (t) называется неслучайная функция
двух аргументов t1 и t2 , которая при каждой паре значений
( t1, t2) равна ковариации двух сечений случайных процессов
Хi (t) и Хj (t) и вычисляется по формуле
Ki j (t1, t2) = М [Х0i (t1) Х0j (t2)] = M[(Хi (t1) - mx(t1)) (Хj (t2) - mx(t2))] =
= M[Хi (t1) Хj (t2) ] - mi (t1)mj(t2) . (13)
рис. 4 рис.5
Свойства взаимной корреляционной функции:
1) взаимная корреляционная функция Ki j (t1, t2) в общем случае не равна
Ki j (t2, t1), т.к. ковариация между сечениями Хi (t1) и Хj (t2) в общем случае не равна ковариации сечений Хi (t2) и Хj (t1)
Кi j (t1, t2) ¹ Кi j (t2, t1) ;
2) при одновременной перемене мест индексов и аргументов взаимная корреляционная функция не меняется
Кi j (t1, t2) = Кj i (t2, t1).
3) при равенстве индексов i = j взаимная корреляционная функция равна автокорреляционной функции
Кi j (t1, t2) = М[ Хi (t1) Хj (t2)] = Кi (t1, t2) .
Нормированная взаимная корреляционная функция определяется по формуле
. ( 14 )
Из свойств 1) ¸ 3) следуют свойства нормированной взаимной корреляционной функции:
а. Ri j (t1, t2) = Rj i (t2, t1) ;
б. Ri i (t1, t2) = Ri (t1, t2) .
Таким образом в качестве характеристик векторного случайного процесса
Х* (t) = {Х1 (t), Х2 (t), ... , Хn (t) }
рассматривают:
1. математическое ожидание векторного с.п. Х* (t) - неслучайный вектор, зависящий от параметра t :
mx(t) = { m1(t), m2(t), ... , mk(t) },
где mi(t) = M[ Xi (t) ] - математическое ожидание i - ой компоненты векторного с.п.
2. квадратную матрицу взаимных корреляционных функций
(размерности k´k) векторного с.п. :
K11(t1, t2) K12(t1, t2) ... K1k(t1, t2)
K21(t1, t2) K22(t1, t2) ... K2k(t1, t2)
½½ Ki j (t1, t2) ½½ = . . ( 15 )
. .
Kk1(t1, t2) Kk2(t1, t2) ... Kkk(t1, t2) ,
где каждая компонента Ki j (t1, t2) определяется по формуле ( 13 ).
Случайные процессы Xi ( t ) и Xj ( t ) называются некоррелированными, если соответствующая им взаимная корреляционная функция Ki j (t1, t2) обращается в ноль при любых значениях аргументов t1 t2 для всех i ¹ j.
Векторный случайный процесс X* ( t ) называется процессом с некоррелированными составляющими, если матрица взаимных корреляционных функций является диагональной, т.е. Кi j ( t1, t2) при всех
i ¹ j.
В простых задачах случайные процессы можно представлять через элементарные случайные функции.
Определение: Элементарная случайная функция - это такая функция
аргумента t, в которой зависимость от t представлена
неслучайной элементарной функцией, а параметром является
одна или несколько случайных величин, не зависящих от
аргумента t.
Примеры элементарных случайных функций:
1) Y (t) = X ×e - t (t> 0) ,
где Х - непрерывная случайная величина с известным законом распределения
(например, равномерным на интервале [ -1, +1] ) ; e - t - элементарная функция;
2) Y (t) = e - X× t (t>0) ,
где Х - случайная величина , принимающая только положительные значения;
3) Y (t) = a×t + X;
4) Y (t) = a + X× t ;
5) Y (t) = X× cos (a× t) ;
где Х - случайная величина; a - неслучайный параметр.
Семейства реализаций случайных процессов 1) ¸ 5) представлены на рисунках 6 ¸ 10 :
рис. 6 рис. 7
рис. 8 рис. 9
рис. 10
Рассмотрим некоторые примеры на определение основных характеристик случайных процессов, представленных элементарными функциями.
Пример 1. Элементарная случайная функция имеет вид Y (t) = X e - t (t>0),
где Х - равномерно распределенная на отрезке [ a, b ] случайная
величина . Найти характеристики с.п. Y (t) :
1) математическое ожидание Му (t) ;
2) дисперсию Dy (t) ;
3) корреляционную Ку (t1, t2) и нормированную корреляционную
R y (t1, t2) функции.
Решение: 1) Используя свойства математического ожидания получим
Му(t) = М ( Х e- t) = e - t M (X), где М(Х) = (a+b)/ 2 ; Þ My(t) = (a+b)× e- t .
2) D y (t) = D (X×e - t) = (e- t)× D(x) = (b-a)2× e- 2 t / 12, где D(x) = (b - a)2 /12 .
3) K y (t1, t2) = M [(Y(t1) - My(t1))×( Y(t2) - My(t2))] = e - (t1+ t2) M[ (X - M(X))2] =
= e- (t1+ t2) ×D(X).
При t1 = t2 = t в данном случае получим Ку(t, t ) = e - 2t D(x) = Dy (t)
Корреляционная функция для с.п. У (t) будет
Ry (t1, t2) = 1.
Пример 2. Элементарная случайная функция имеет вид У (t) = e - хt (t>0),
где случайная величина Х распределена по показательному
закону с плотностью f (x) = l× e - l x (x>0 ; l>0). Найти
характеристики с.п. У (t) :
1) Му(t) ; 2) Dy(t) ; 3) Ky(t1, t2) и Ry(t1, t2) .
Решение: 1) По определению математического ожидания случайной величины найдем +¥ +¥
Му (t) = М (e - хt) = ò l× e - xt e -l dx = -l×(t + l)-1 e- (t + l) x ½ = l/( t+ l).
° 0
2) По определению дисперсии имеем Dy( t) = M[ Y2(t) ] - M2 [ Y(t) ], где
+¥ +¥
M[ Y2(t) ] = ò l e - 2xt e - x dx = [-l/( 2t+l)] e - ( l + 2t) x ½ = l/( 2t + l).
0 0
Тогда Dy(t) = l/( t+ l) - [l/( 2t + l)]2 = lt2/(2t + l) (t + l) .
3) Предварительно найдем M[ Y(t1) Y(t2)] = M( e- хt1 e- хt2) =
+¥ l
= ò e - x(t + t ) l e - x dx = ¾¾¾¾ ;
0 l + t1 + t2
Тогда Ky ( t1, t2) = M[ Y(t1) Y(t2)] - My(t1) My(t2) =
l l2 l t1 t2
= ¾¾¾¾ - ¾¾¾¾¾¾ = ¾¾¾¾¾¾¾¾¾¾¾ .
l + t1 + t2 (t1 + l) (t2 + l) (l + t1 + t2) (t1 + l) (t2 + l)
l t2
При t1 = t2 = t получаем Ky (t, t) = Dy (t) = ¾¾¾¾¾¾ .
(l+ t)2 (l + 2t)
Далее по определению найдем
_________ _________
Ky( t1, t2) Ö 2t1 + l × Ö 2t2 + l
Ry (t1, t2) = ¾¾¾¾ = ¾¾¾¾¾¾¾¾¾ .
sy(t1) sy(t2) l + t1 + t2
Пример 3. Элементарная случайная функция имеет вид
Z ( t ) = Х× cos wt + У× sin wt , где w - постоянная величина; Х и У
- взаимно независимые гауссовские случайные величины с
нулевыми математическими ожиданиями mx( t ) и my( t ) = 0 и
дисперсиями D (x) = D (y) = s2 .
Найти одномерную f (z, t) и двумерную f ( z1, z2; t1, t2 ) плотности
распределения вероятностей.
Решение: Функции cos wt и sin wt являются детерминированными функциями,
т.е. известными функциями в любой момент времени при любом
значении параметра w . Тогда случайная величина Z = Z ( t ) при
любом фиксированном значении t представляет собой линейную
комбинацию гауссовских случайных величин и, в силу этого, также является гауссовской случайной величиной.
По этому для определения плотностей распределения f (z, t) и f ( z1, z2; t1, t2 )
необходимо найти математическое ожидание Мz ( t ) и корреляционную функ-
цию Kz ( t1, t2) . Так как mx ( t ) и my ( t ) = 0 , то математическое ожидание
Mz ( t ) будет
Mz ( t ) = M [x× cos wt + y× sin wt] = cos wt× M(x) + sin wt×M(y) = 0.
Далее
Kz( t1, t2 ) = M[ z( t1 ) z( t2 ) ] = M[(x× cos wt1 + y× sin wt1)( x× cos wt2 + y× sin wt2)]=
= cos wt1 cos wt2 M(x2) + sin wt1 cos wt2 M(xy) + cos wt1 sin wt2 M(xy) +
+ sin wt1 sin wt1 M(y2) = cos wt1 cos wt2 M(x2) + sin wt1 sin wt1 M(y2) =
= cos wt1 cos wt2 s2 + sin wt1 sin wt1 s2 = s2 cos w(t2 - t1),
поскольку M(xy) = M(x)× M(y) = 0.
Дисперсию Dz (t) получим из формулы для Кz (t1 ,t2), положив
t1 = t2 = t
Dz (t) = Kz (t, t) = s2 .
Тогда одномерная функция плотности будет иметь вид
1
f (z, t) = ¾¾¾ exp { - [ z (t) ]2 / 2s2 }.
Ö 2 p s
Для нахождения двумерной функции плотности вероятностей вспомним функцию плотности двумерной гауссовской случайной величины
В нашем случае sx = sy = s ; rxy = Kxy / sxsy = s2 cos w(t2-t1) / s2 = cos wt ,
где ( t2 - t1) = t . Тогда искомая двумерная плотность вероятностей будет
.
Классификация случайных процессов.
Рассмотрим два варианта классификации случайных процессов.
1. Классификация случайных процессов по характеру реализаций xi (t) с.п.,
т.е. в зависимости от возможных значений, принимаемых случайной функцией
X(t) и ее аргументом t.
Случайный процесс Х( t ) называется процессом с дискретным временем, если система в которой он протекает, может менять свои состояния только в моменты времени t1, t2, ... , ti, ... , число которых конечно или счетно. Здесь множество параметров Т - дискретное множество.
Случайный процесс X(t) называется процессом с непрерывным временем, если переходы системы из состояния в состояние могут происходить в любой момент времени t наблюдаемого промежутка tÎ Т .
Случайный процесс X(t) называется процессом с непрерывными (дискретными) состояниями, если его сечение в любой момент времени t представляет непрерывную (дискретную) случайную величину.
Исходя из выше изложенного различают следующие виды случайных процессов:
1) Дискретная случайная последовательность - случайный процесс с дискретным временем и дискретным множеством состояний ( рис. 11). Процессы такого вида получаются после аналого-цифрового квантования по амплитуде и по времени.
2) Случайная последовательность - случайный процесс с дискретным временем и непрерывными состояниями (рис. 12 ).
рис. 11 рис. 12
3) Дискретный (разрывный ) случайный процесс - с.п. с непрерывным временем и дискретными состояниями ( рис. 13).
4) Непрерывный( непрерывнозначный) случайный процесс - с.п. непрерывным временем и непрерывными состояниями (рис. 14). Примерами такого с.п. могут служить: напряжение в сети электропитания; амплитуда звукового сигнала на выходе радиоприемника и т.д.
рис. 13 рис. 14
2. Классификация случайных процессов по виду закона распределения отдельного сечения или совокупности сечений процесса.
2-1. Гауссовский случайный процесс.
Случайный процесс называется гауссовским, если все его конечномерные расп ределения являются гауссовскими (нормальными). Многомерная плотность распределения вероятностей задается формулой
,
(16)
где ½К½ - определитель ковариационной матрицы ( 15 ), Аi j – алгебраическое
дополнение элемента Кi j матрицы ( 15 ).
Векторная форма записи формулы ( 16 ) имеет вид
(17)
где символ ( ) Т означает операцию транспонирования.
Гауссовский случайный процесс обладает следующими важными свойствами:
а) гауссовский с.п. исчерпывающим образом определяется заданием математического ожидания mx(t) и ковариационной функцией Kij (t1,t2), что видно из формулы( 16 );
б) для гауссовского с.п. некоррелированность значений процесса тождественна их независимости . Тогда многомерная плотность распре -
деления ( 16 ) распадается в произведение одномерных гауссовских плотностей
(18)
2 – 2. Винеровский процесс или процесс броуновского движения
Винеровский процесс служит приближенной моделью хаотического (случайного) движения частиц.
Винеровским процессом, выходящим из начала координат, называется такой с.п. Х(t) , который обладает следующими свойствами:
а) Х(t = 0) = 0 ;
б) для любых 0 £ t1 <t2 < , ... ,< tn случайные величины Х(t2) -Х(t1); Х(t3) -Х(t2); ... ; Х(tn) -Х(tn-1) независимы ;
в) случайные величины Х(t) - Х(s) распределены по нормальному закону с параметрами М [ Х(t) - Х(s) ] = 0 ; D [ Х(t) - Х(s) ] = t - s ; 0 £ s £ t .
2 – 3. Пуассоновский случайный процесс
Пуассоновским называется такой случайный процесс Х(t) с параметром l(l>0), который удовлетворяет следующим условиям:
а) Х(t = 0) = 0 ;
б) для любых 0 £ t1 <t2 < , ... ,< tn случайные величины Х(t2) -Х(t1); Х(t3) -Х(t2); ... ; Х(tn) -Х(t n-1) независимы ;
в) случайные величины Х(t) - Х(s) ; 0 £ s £ t, распределены по закону Пуассона с параметром l ( t - s)
Р[ Х(t) - Х(s) = k ] = [l ( t - s)]k × e - l (t - s ) / k ! , k = 0,1,2, ... .
2 – 4. Марковский случайный процесс.
Марковским случайным процессом ( процессом А.А. Маркова) называется с.п. без последействия , для которого исчерпывающей вероятностной характеристикой является условная функция распределения, удовлетворяющая для любых n моментов времени t1 < t2 < , ... , < tn соотношению
F ( xn , tn / x1, t1; ... ; xn-1, tn-1 ) = F ( xn, tn / xn-1 , tn-1 ). ( 19 )
Если существует условная плотность вероятностей f ( xn, tn / xn-1 , tn-1 ), которая называется переходной плотностью вероятностей , то важное свойство марковского с.п. состоит в том, что его совместная плотность вероятностей может быть представлена в виде произведения переходных вероятностей
n
f(x1, ... , xn;t1, ... ,tn) = f (x1, t1)× P f (xi , ti / xi-1 , ti-1 ) . ( 20 )
i = 2
Таким образом для марковского процесса условные функции распределения и переходные плотности вероятностей f (xi , ti / xi-1 , ti-1) его значений xi в момент времени ti зависят только от значений xi-1 в момент ti-1 и не зависят от значений процесса до момента времени ti - 1 .
Примерами марковских процессов являются пуассновский и винеровский с.п.
Для марковских процессов также применима классификация по “времени” и
по “состояниям”.
2 – 5. Случайные процессы с независимыми приращениями.
Случайным процессом с независимыми приращениями называется такой с.п.
Х(t) , приращения которого на непересекающихся отрезках времени не зависят
друг от друга и для t1 <t2 < , ... ,< tn случайные величины
Х(t2) -Х(t1); Х(t3) -Х(t2); ... , Х(tn) -Х(tn-1) независимы .
Примерами таких с.п. являются рассмотренные выше винеровский и пуассо -
новский процессы.
Здесь же можно отметить случайные процессы с некоррелированными приращениями, для которых приращения на неперекрывающихся отрезках времени некоррелированы.
2 – 6. Стационарные случайные процессы.
Стационарным случайным процессом “в узком” смысле называется процесс
Х(t) , для которого для любого действительного t его конечномерные распределения не меняются при сдвиге на величину t
F(x1, ... , xn; t1, ... ,tn) = F (x1 , ... , xn; t1 + t, ... ,tn + t ) ,
где t1 + t, ... ,tn + t Î Т.
Стационарным случайным процессом “в широком” смысле называется про- цесс Х(t) , для которого существуют первый и второй начальные моменты и при этом выполняются условия:
а) М[ Х(t) ] = m ; D[ Х(t) ] = ϭ2 ;
b) K (t1, t2) = K (t2 - t1) = K ( t ) ,
т.е. математическое ожидание с.п. не зависит от времени, а ковариационная функция не зависит от моментов времени t1 и t2 , а зависит лишь от разности
t = t2 - t1.