Определение: Нормированной корреляционной (автокорреляционной)

функцией случайного процесса называется нормированная

ковариационная (автоковариационная ) функция, получаемая

делением ковариационной функции на произведение

среднеквадратичных отклонений

 

. ( 11 )

 

Нормированная корреляционная функция случайного процесса Rx (t1,t2) обладает свойствами:

1) при t1 = t2 = t нормированная корреляционная функция равна 1

 

Kx(t,t) Dx( t)

Rx(t,t) = ¾¾¾¾¾ = ¾¾¾¾ = 1.

sx(t) sх(t) sx2 (t)

2) нормированная корреляционная функция случайного процесса симметрична относительно своих аргументов

Rx(t1,t2) = Rx(t2,t1).

3) нормированная корреляционная функция случайного процесса принимает значения от -1 до +1, т.е. ½Rx(t1,t2) ½ £ 1.

!Замечание! : В некоторых учебниках и задачниках, например [4],[5], корреляционная функция (10) называется ковариационной функцией, а нормированная корреляционная функция называется корреляционной функцией.

 

Более сложным объектом по сравнению со случайным процессом Х(t) является векторный случайный процесс Х* (t), состоящий из k - компонент - случайных процессов Х i (t)

 

Х* (t) = {Х1 (t), Х2 (t), ... , Х k (t) } . ( 12 )

 

Каждая компонента векторного случайного процесса (12) имеет характеристики:

 

М [Хi (t)] = m i (t) ; D[Xi (t)] = ϭi 2 ; K(xi ; t1, t2) = Ki (t1 , t2).

 

Для определения зависимости между компонентами векторного с.п. используют взаимную корреляционную функцию Ki j (t1, t2) двух случайных процессов.

 

Определение: Взаимной корреляционной функцией Ki j (t1, t2) двух случай-

ных процессов Хi (t) и Хj (t) называется неслучайная функция

двух аргументов t1 и t2 , которая при каждой паре значений

( t1, t2) равна ковариации двух сечений случайных процессов

Хi (t) и Хj (t) и вычисляется по формуле

 

Ki j (t1, t2) = М [Х0i (t1) Х0j (t2)] = M[(Хi (t1) - mx(t1)) (Хj (t2) - mx(t2))] =

= M[Хi (t1) Хj (t2) ] - mi (t1)mj(t2) . (13)

 

 

 

рис. 4 рис.5

 

Свойства взаимной корреляционной функции:

 

1) взаимная корреляционная функция Ki j (t1, t2) в общем случае не равна

Ki j (t2, t1), т.к. ковариация между сечениями Хi (t1) и Хj (t2) в общем случае не равна ковариации сечений Хi (t2) и Хj (t1)

Кi j (t1, t2) ¹ Кi j (t2, t1) ;

2) при одновременной перемене мест индексов и аргументов взаимная корреляционная функция не меняется

 

Кi j (t1, t2) = Кj i (t2, t1).

 

3) при равенстве индексов i = j взаимная корреляционная функция равна автокорреляционной функции

 

Кi j (t1, t2) = М[ Хi (t1) Хj (t2)] = Кi (t1, t2) .

 

Нормированная взаимная корреляционная функция определяется по формуле

 

. ( 14 )

 

Из свойств 1) ¸ 3) следуют свойства нормированной взаимной корреляционной функции:

а. Ri j (t1, t2) = Rj i (t2, t1) ;

б. Ri i (t1, t2) = Ri (t1, t2) .

 

Таким образом в качестве характеристик векторного случайного процесса

Х* (t) = {Х1 (t), Х2 (t), ... , Хn (t) }

рассматривают:

1. математическое ожидание векторного с.п. Х* (t) - неслучайный вектор, зависящий от параметра t :

mx(t) = { m1(t), m2(t), ... , mk(t) },

 

где mi(t) = M[ Xi (t) ] - математическое ожидание i - ой компоненты векторного с.п.

2. квадратную матрицу взаимных корреляционных функций

(размерности k´k) векторного с.п. :

 

 

K11(t1, t2) K12(t1, t2) ... K1k(t1, t2)

K21(t1, t2) K22(t1, t2) ... K2k(t1, t2)

½½ Ki j (t1, t2) ½½ = . . ( 15 )

. .

Kk1(t1, t2) Kk2(t1, t2) ... Kkk(t1, t2) ,

 

где каждая компонента Ki j (t1, t2) определяется по формуле ( 13 ).

 

 

Случайные процессы Xi ( t ) и Xj ( t ) называются некоррелированными, если соответствующая им взаимная корреляционная функция Ki j (t1, t2) обращается в ноль при любых значениях аргументов t1 t2 для всех i ¹ j.

Векторный случайный процесс X* ( t ) называется процессом с некоррелированными составляющими, если матрица взаимных корреляционных функций является диагональной, т.е. Кi j ( t1, t2) при всех

i ¹ j.

 

В простых задачах случайные процессы можно представлять через элементарные случайные функции.

 

Определение: Элементарная случайная функция - это такая функция

аргумента t, в которой зависимость от t представлена

неслучайной элементарной функцией, а параметром является

одна или несколько случайных величин, не зависящих от

аргумента t.

 

Примеры элементарных случайных функций:

 

1) Y (t) = X ×e - t (t> 0) ,

где Х - непрерывная случайная величина с известным законом распределения

(например, равномерным на интервале [ -1, +1] ) ; e - t - элементарная функция;

 

2) Y (t) = e - X× t (t>0) ,

где Х - случайная величина , принимающая только положительные значения;

 

3) Y (t) = a×t + X;

4) Y (t) = a + X× t ;

5) Y (t) = X× cos (a× t) ;

где Х - случайная величина; a - неслучайный параметр.

Семейства реализаций случайных процессов 1) ¸ 5) представлены на рисунках 6 ¸ 10 :

 

 

рис. 6 рис. 7

 

 

рис. 8 рис. 9

рис. 10

Рассмотрим некоторые примеры на определение основных характеристик случайных процессов, представленных элементарными функциями.

Пример 1. Элементарная случайная функция имеет вид Y (t) = X e - t (t>0),

где Х - равномерно распределенная на отрезке [ a, b ] случайная

величина . Найти характеристики с.п. Y (t) :

1) математическое ожидание Му (t) ;

2) дисперсию Dy (t) ;

3) корреляционную Ку (t1, t2) и нормированную корреляционную

R y (t1, t2) функции.

Решение: 1) Используя свойства математического ожидания получим

Му(t) = М ( Х e- t) = e - t M (X), где М(Х) = (a+b)/ 2 ; Þ My(t) = (a+b)× e- t .

2) D y (t) = D (X×e - t) = (e- t)× D(x) = (b-a)2× e- 2 t / 12, где D(x) = (b - a)2 /12 .

3) K y (t1, t2) = M [(Y(t1) - My(t1))×( Y(t2) - My(t2))] = e - (t1+ t2) M[ (X - M(X))2] =

= e- (t1+ t2) ×D(X).

При t1 = t2 = t в данном случае получим Ку(t, t ) = e - 2t D(x) = Dy (t)

Корреляционная функция для с.п. У (t) будет

 

Ry (t1, t2) = 1.

 

 

Пример 2. Элементарная случайная функция имеет вид У (t) = e - хt (t>0),

где случайная величина Х распределена по показательному

закону с плотностью f (x) = l× e - l x (x>0 ; l>0). Найти

характеристики с.п. У (t) :

1) Му(t) ; 2) Dy(t) ; 3) Ky(t1, t2) и Ry(t1, t2) .

Решение: 1) По определению математического ожидания случайной величины найдем +¥ +¥

Му (t) = М (e - хt) = ò l× e - xt e -l dx = -l×(t + l)-1 e- (t + l) x ½ = l/( t+ l).

° 0

2) По определению дисперсии имеем Dy( t) = M[ Y2(t) ] - M2 [ Y(t) ], где

+¥ +¥

M[ Y2(t) ] = ò l e - 2xt e - x dx = [-l/( 2t+l)] e - ( l + 2t) x ½ = l/( 2t + l).

0 0

Тогда Dy(t) = l/( t+ l) - [l/( 2t + l)]2 = lt2/(2t + l) (t + l) .

3) Предварительно найдем M[ Y(t1) Y(t2)] = M( e- хt1 e- хt2) =

+¥ l

= ò e - x(t + t ) l e - x dx = ¾¾¾¾ ;

0 l + t1 + t2

Тогда Ky ( t1, t2) = M[ Y(t1) Y(t2)] - My(t1) My(t2) =

 

l l2 l t1 t2

= ¾¾¾¾ - ¾¾¾¾¾¾ = ¾¾¾¾¾¾¾¾¾¾¾ .

l + t1 + t2 (t1 + l) (t2 + l) (l + t1 + t2) (t1 + l) (t2 + l)

 

l t2

При t1 = t2 = t получаем Ky (t, t) = Dy (t) = ¾¾¾¾¾¾ .

(l+ t)2 (l + 2t)

 

Далее по определению найдем

_________ _________

Ky( t1, t2) Ö 2t1 + l × Ö 2t2 + l

Ry (t1, t2) = ¾¾¾¾ = ¾¾¾¾¾¾¾¾¾ .

sy(t1) sy(t2) l + t1 + t2

 

Пример 3. Элементарная случайная функция имеет вид

Z ( t ) = Х× cos wt + У× sin wt , где w - постоянная величина; Х и У

- взаимно независимые гауссовские случайные величины с

нулевыми математическими ожиданиями mx( t ) и my( t ) = 0 и

дисперсиями D (x) = D (y) = s2 .

Найти одномерную f (z, t) и двумерную f ( z1, z2; t1, t2 ) плотности

распределения вероятностей.

Решение: Функции cos wt и sin wt являются детерминированными функциями,

т.е. известными функциями в любой момент времени при любом

значении параметра w . Тогда случайная величина Z = Z ( t ) при

любом фиксированном значении t представляет собой линейную

комбинацию гауссовских случайных величин и, в силу этого, также является гауссовской случайной величиной.

По этому для определения плотностей распределения f (z, t) и f ( z1, z2; t1, t2 )

необходимо найти математическое ожидание Мz ( t ) и корреляционную функ-

цию Kz ( t1, t2) . Так как mx ( t ) и my ( t ) = 0 , то математическое ожидание

Mz ( t ) будет

Mz ( t ) = M [x× cos wt + y× sin wt] = cos wt× M(x) + sin wt×M(y) = 0.

Далее

Kz( t1, t2 ) = M[ z( t1 ) z( t2 ) ] = M[(x× cos wt1 + y× sin wt1)( x× cos wt2 + y× sin wt2)]=

= cos wt1 cos wt2 M(x2) + sin wt1 cos wt2 M(xy) + cos wt1 sin wt2 M(xy) +

+ sin wt1 sin wt1 M(y2) = cos wt1 cos wt2 M(x2) + sin wt1 sin wt1 M(y2) =

= cos wt1 cos wt2 s2 + sin wt1 sin wt1 s2 = s2 cos w(t2 - t1),

поскольку M(xy) = M(x)× M(y) = 0.

Дисперсию Dz (t) получим из формулы для Кz (t1 ,t2), положив

t1 = t2 = t

Dz (t) = Kz (t, t) = s2 .

Тогда одномерная функция плотности будет иметь вид

1

f (z, t) = ¾¾¾ exp { - [ z (t) ]2 / 2s2 }.

Ö 2 p s

Для нахождения двумерной функции плотности вероятностей вспомним функцию плотности двумерной гауссовской случайной величины

 

 

 

В нашем случае sx = sy = s ; rxy = Kxy / sxsy = s2 cos w(t2-t1) / s2 = cos wt ,

где ( t2 - t1) = t . Тогда искомая двумерная плотность вероятностей будет

 

 

.

 

 

Классификация случайных процессов.

 

Рассмотрим два варианта классификации случайных процессов.

 

1. Классификация случайных процессов по характеру реализаций xi (t) с.п.,

т.е. в зависимости от возможных значений, принимаемых случайной функцией

X(t) и ее аргументом t.

Случайный процесс Х( t ) называется процессом с дискретным временем, если система в которой он протекает, может менять свои состояния только в моменты времени t1, t2, ... , ti, ... , число которых конечно или счетно. Здесь множество параметров Т - дискретное множество.

Случайный процесс X(t) называется процессом с непрерывным временем, если переходы системы из состояния в состояние могут происходить в любой момент времени t наблюдаемого промежутка tÎ Т .

Случайный процесс X(t) называется процессом с непрерывными (дискретными) состояниями, если его сечение в любой момент времени t представляет непрерывную (дискретную) случайную величину.

Исходя из выше изложенного различают следующие виды случайных процессов:

1) Дискретная случайная последовательность - случайный процесс с дискретным временем и дискретным множеством состояний ( рис. 11). Процессы такого вида получаются после аналого-цифрового квантования по амплитуде и по времени.

2) Случайная последовательность - случайный процесс с дискретным временем и непрерывными состояниями (рис. 12 ).

 

 

 

рис. 11 рис. 12

 

3) Дискретный (разрывный ) случайный процесс - с.п. с непрерывным временем и дискретными состояниями ( рис. 13).

4) Непрерывный( непрерывнозначный) случайный процесс - с.п. непрерывным временем и непрерывными состояниями (рис. 14). Примерами такого с.п. могут служить: напряжение в сети электропитания; амплитуда звукового сигнала на выходе радиоприемника и т.д.

 

 

 

 

рис. 13 рис. 14

 

2. Классификация случайных процессов по виду закона распределения отдельного сечения или совокупности сечений процесса.

 

2-1. Гауссовский случайный процесс.

 

Случайный процесс называется гауссовским, если все его конечномерные расп ределения являются гауссовскими (нормальными). Многомерная плотность распределения вероятностей задается формулой

 

 

,

(16)

где ½К½ - определитель ковариационной матрицы ( 15 ), Аi j – алгебраическое

дополнение элемента Кi j матрицы ( 15 ).

Векторная форма записи формулы ( 16 ) имеет вид

 

(17)

 

 

где символ ( ) Т означает операцию транспонирования.

 

Гауссовский случайный процесс обладает следующими важными свойствами:

а) гауссовский с.п. исчерпывающим образом определяется заданием математического ожидания mx(t) и ковариационной функцией Kij (t1,t2), что видно из формулы( 16 );

б) для гауссовского с.п. некоррелированность значений процесса тождественна их независимости . Тогда многомерная плотность распре -

деления ( 16 ) распадается в произведение одномерных гауссовских плотностей

 

 

(18)

 

 

2 – 2. Винеровский процесс или процесс броуновского движения

 

Винеровский процесс служит приближенной моделью хаотического (случайного) движения частиц.

 

Винеровским процессом, выходящим из начала координат, называется такой с.п. Х(t) , который обладает следующими свойствами:

а) Х(t = 0) = 0 ;

б) для любых 0 £ t1 <t2 < , ... ,< tn случайные величины Х(t2) -Х(t1); Х(t3) -Х(t2); ... ; Х(tn) -Х(tn-1) независимы ;

в) случайные величины Х(t) - Х(s) распределены по нормальному закону с параметрами М [ Х(t) - Х(s) ] = 0 ; D [ Х(t) - Х(s) ] = t - s ; 0 £ s £ t .

 

2 – 3. Пуассоновский случайный процесс

 

Пуассоновским называется такой случайный процесс Х(t) с параметром l(l>0), который удовлетворяет следующим условиям:

а) Х(t = 0) = 0 ;

б) для любых 0 £ t1 <t2 < , ... ,< tn случайные величины Х(t2) -Х(t1); Х(t3) -Х(t2); ... ; Х(tn) -Х(t n-1) независимы ;

в) случайные величины Х(t) - Х(s) ; 0 £ s £ t, распределены по закону Пуассона с параметром l ( t - s)

 

Р[ Х(t) - Х(s) = k ] = [l ( t - s)]k × e - l (t - s ) / k ! , k = 0,1,2, ... .

 

 

2 – 4. Марковский случайный процесс.

 

Марковским случайным процессом ( процессом А.А. Маркова) называется с.п. без последействия , для которого исчерпывающей вероятностной характеристикой является условная функция распределения, удовлетворяющая для любых n моментов времени t1 < t2 < , ... , < tn соотношению

 

F ( xn , tn / x1, t1; ... ; xn-1, tn-1 ) = F ( xn, tn / xn-1 , tn-1 ). ( 19 )

 

Если существует условная плотность вероятностей f ( xn, tn / xn-1 , tn-1 ), которая называется переходной плотностью вероятностей , то важное свойство марковского с.п. состоит в том, что его совместная плотность вероятностей может быть представлена в виде произведения переходных вероятностей

n

f(x1, ... , xn;t1, ... ,tn) = f (x1, t1)× P f (xi , ti / xi-1 , ti-1 ) . ( 20 )

i = 2

Таким образом для марковского процесса условные функции распределения и переходные плотности вероятностей f (xi , ti / xi-1 , ti-1) его значений xi в момент времени ti зависят только от значений xi-1 в момент ti-1 и не зависят от значений процесса до момента времени ti - 1 .

Примерами марковских процессов являются пуассновский и винеровский с.п.

Для марковских процессов также применима классификация по “времени” и

по “состояниям”.

 

2 – 5. Случайные процессы с независимыми приращениями.

 

Случайным процессом с независимыми приращениями называется такой с.п.

Х(t) , приращения которого на непересекающихся отрезках времени не зависят

друг от друга и для t1 <t2 < , ... ,< tn случайные величины

Х(t2) -Х(t1); Х(t3) -Х(t2); ... , Х(tn) -Х(tn-1) независимы .

Примерами таких с.п. являются рассмотренные выше винеровский и пуассо -

новский процессы.

Здесь же можно отметить случайные процессы с некоррелированными приращениями, для которых приращения на неперекрывающихся отрезках времени некоррелированы.

 

2 – 6. Стационарные случайные процессы.

 

Стационарным случайным процессом “в узком” смысле называется процесс

Х(t) , для которого для любого действительного t его конечномерные распределения не меняются при сдвиге на величину t

F(x1, ... , xn; t1, ... ,tn) = F (x1 , ... , xn; t1 + t, ... ,tn + t ) ,

где t1 + t, ... ,tn + t Î Т.

Стационарным случайным процессом “в широком” смысле называется про- цесс Х(t) , для которого существуют первый и второй начальные моменты и при этом выполняются условия:

 

а) М[ Х(t) ] = m ; D[ Х(t) ] = ϭ2 ;

b) K (t1, t2) = K (t2 - t1) = K ( t ) ,

 

т.е. математическое ожидание с.п. не зависит от времени, а ковариационная функция не зависит от моментов времени t1 и t2 , а зависит лишь от разности

t = t2 - t1.