Типы случайных процессов. Определение случайного процесса. Основные подходы к заданию. Случайные процессы с независимыми приращениями

Лекция 18

Понятие случайного процесса. Характеристики случайных процессов.

Стационарные случайные процессы.

Случайные процессы с независимыми приращениями

Определение. Случайным процессом называется семейство случайных величин , заданных на вероятностном пространстве
, где есть текущее время. Множество значений параметра называют областью определения случайного процесса , а множество возможных значений
пространством значений случайного процесса .

Случайный процесс, в отличие от детерминированного процесса, заранее предсказать невозможно. В качестве примеров случайных процессов можно рассмотреть броуновское движение частиц, работу телефонных станций, помехи в радиотехнических системах и т. д.

Если область определения случайного процесса представляет конечное или счетное множество отсчетов времени, то говорят, что
случайный процесс с дискретным временем или случайная последовательность (цепь ), а если область определения – континуум, то
называют случайным процессом с непрерывным временем .

В том случае, когда пространство значений случайного процесса является конечным или счетным множеством, то случайный процесс называют дискретным . Если же пространство значений случайного процесса – континуум, то случайный процесс называют непрерывным .

Действительную функцию
при некотором фиксированном значении называют реализацией или траекторией случайного процесса . Таким образом, случайный процесс представляет собой совокупность всевозможных своих реализаций, то есть
, где индикатор реализаций
может принадлежать счетному множеству действительных чисел или континууму. Детерминированный же процесс имеет единственную реализацию, описываемую заданной функцией
.

При фиксированном
получаем обычную случайную величину
, которая называется сечением случайного процесса в момент времени .

Одномерной функцией распределения случайного процесса
при фиксированном
называется функция

,
.

Эта функция задает вероятность множества траекторий, которые при фиксированном
проходят ниже точки
.

При
из определения (5.1.1) одномерной функции распределения следует, что равенство задает вероятность множества траекторий, проходящих через «ворота» между точками
и
.

Двумерной функцией распределения случайного процесса
при фиксированных и называется функция

,
.

Эта функция задает вероятность множества траекторий, которые одновременно проходят ниже точек
и
.

Аналогично -мерная функция распределения случайного процесса
при фиксированных
определяется равенством

для всех
из
.

Если эта функция достаточное число раз дифференцируема, то - мерная совместная плотность вероятности случайного процесса
имеет вид

.

Функция распределения или плотность вероятности тем полнее описывает сам случайный процесс, чем больше . Эти функции учитывают связь хотя и между любыми, но лишь фиксированными сечениями этого процесса. Случайный процесс считается заданным, если задано множество всех его - мерных законов распределения или - мерных плотностей вероятности для любых . При этом функция распределения должна удовлетворять условиям симметрии и согласованности Колмогорова . Условие симметрии состоит в том, что
– симметричная функция для всех пар
,
, в том смысле, что, например,

Условие же согласованности означает, что

то есть - мерный закон распределения случайного процесса
определяет все законы распределения более низкой размерности.

Рассмотрим различные характеристики случайных процессов.

Определение. Математическим ожиданием или средним значением случайного процесса
называется функция

,

где
– одномерная плотность вероятности случайного процесса. Геометрически математическому ожиданию соответствует некоторая кривая, около которой группируются траектории случайного процесса.

Определение. Дисперсией случайного процесса
называется функция

Таким образом, математическое ожидание и дисперсия случайного процесса
зависят от одномерной плотности вероятности и являются неслучайными функциями времени . Дисперсия случайного процесса характеризует степень разброса траекторий относительно его среднего значения
. Чем больше дисперсия, тем значительнее разброс траекторий. Если дисперсия равна нулю, то все траектории случайного процесса
совпадают с математическим ожиданием
, а сам процесс является детерминированным.

Определение. Корреляционная функция
случайного процесса
определяется равенством

где
– двумерная плотность вероятности случайного процесса.

Корреляционная функция
характеризует степень связи между ординатами случайного процесса
для двух моментов времени и . При этом, чем больше корреляционная функция, тем более гладкими являются траектории случайного процесса
, и наоборот.

Корреляционная функция обладает следующими свойствами.

1 0 . Симметричность: ,
.

2 0 . ,
.

Эти свойства следуют из соответствующих свойств ковариации случайной величины.

Теория, изучающая случайные процессы на основе математического ожидания и корреляционной функции, называется корреляционной теорией . С помощью методов корреляционной теории исследуются в основном линейные системы автоматического регулирования и управления.

Определение. Случайный процесс
,
, называется стационарным в узком смысле, если совместное распределение случайных величин

И ,

одинаково и не зависит от , то есть

Отсюда для - мерной плотности вероятности справедливо соотношение

Учитывая, что в случае одномерной плотности вероятности, и полагая в этом соотношении
, имеем . Отсюда для стационарного случайного процесса находим следующее выражение для математического ожидания:

.

Аналогично для двумерной плотности вероятности из равенства при
получим . Следовательно, корреляционную функцию можно записать в виде

где
.

Таким образом, для стационарных случайных процессов в узком смысле, математическое ожидание есть постоянная величина, а корреляционная функция зависит только от разности аргументов, то есть , так как корреляционная функция симметрична.

Определение. Случайный процесс с постоянным математическим ожиданием и корреляционной функцией, зависящей только от разности аргументов, называется случайным процессом, стационарным в широком смысле . Ясно, что стационарный в узком смысле случайный процесс является стационарным и в широком смысле. Обратное же утверждение в общем случае неверно.

Корреляционная функция стационарного случайного процесса обладает приведенными ниже свойствами.

1 0 .
, то есть функция
– четная.

2 0 . Справедливо неравенство
.

3 0 . Для дисперсии стационарного случайного процесса
справедливо соотношение .

Пусть
,
, – стационарный случайный процесс, непрерывный по времени , с математическим ожиданием
и корреляционной функцией
.

Определение. Функция, обозначаемая
и определяемая соотношением

,

называется спектральной плотностью .

Если известна спектральная плотность
, то с помощью преобразования Фурье можно найти корреляционную функцию

.

Последние два равенства называются формулами Винера – Хинчина .

Очевидно, что для существования обратного преобразования Фурье достаточно существования интеграла
, то есть достаточно абсолютной интегрируемости на промежутке
корреляционной функции
.

Можно показать, что спектральная плотность
стационарного случайного процесса является четной функцией, то есть
.

Так как
– четная функция, то

,

.

Из этих формул и определения корреляционной функции
следует, что дисперсия стационарного случайного процесса
равна

.

Если случайный процесс есть флуктуация электрического тока или напряжения, то дисперсия случайного процесса как среднее значение квадрата тока или напряжения пропорциональна средней мощности этого процесса. Поэтому из последнего равенства следует, что спектральная плотность
в этом случае характеризует плотность мощности, приходящуюся на единицу круговой частоты
.

На практике вместо спектральной плотности
часто применяют нормированную спектральную плотность
, равную

.

Тогда, как нетрудно убедиться, так называемая нормированная корреляционная функция и нормированная спектральная плотность
связаны прямым и обратным преобразованиями Фурье:

,
.

Полагая
и учитывая, что
, имеем

.

Учитывая четность спектральной функции, получаем

,

то есть полная площадь, ограниченная снизу осью
и сверху графиком нормированной спектральной плотности, равна единице.

Определение. Случайный процесс
,
, называется процессом с независимыми приращениями , если для любых
,
,
, случайные величины

,
, …,

независимы.

В этом случае для различных пар случайных величин корреляционная функция равна нулю.

Если случайные величины попарно некоррелированы, то случайный процесс
называется процессом с некоррелированными или ортогональными приращениями .

Так как случайные величины независимы, то они некоррелированы (ортогональны). Тем самым всякий процесс с независимыми приращениями есть процесс с ортогональными приращениями.

Пусть
– случайный процесс с ортогональными приращениями. Тогда для
получаем

поскольку случайные величины
и
ортогональны.

Аналогично при
получим, что .

Таким образом, корреляционная функция
случайного процесса с ортогональными приращениями обладает свойством

Применяя функцию Хевисайда
, корреляционную функцию можно записать в виде

1.1.1. Гауссовские случайные процессы

гауссовским , если все его конечномерные распределения являются нормальными, то есть

t 1 ,t 2 ,…,t n T

случайный вектор

(X(t 1);X(t 2);…;X(t n))

имеет следующую плотность распределения:

,

где a i =MX(t i); =M(X(t i)-a i) 2 ; с ij =M((X(t i)-a i)(X(t j)-a j));
;

-алгебраическое дополнение элемента с ij .

1.1.2. Случайные процессы с независимыми приращениями

с независимыми приращениями , если его приращения на непересекающихся временных промежутках не зависят друг от друга:

t 1 ,t 2 ,…,t n T:t 1 ≤t 2 ≤…≤t n ,

случайные величины

X(t 2)-X(t 1); X(t 3)-X(t 2); …; X(t n)-X(t n-1)

независимы.

1.1.3. Случайные процессы с некоррелированными приращениями

Случайный процесс X(t) называется процессомс некоррелированными приращениями, если выполняются следующие условия:

1) tT: МX 2 (t) < ∞;

2) t 1 ,t 2 ,t 3 ,t 4 T:t 1 ≤t 2 ≤t 3 ≤t 4: М((X(t 2)-X(t 1))(X(t 4)-X(t 3)))=0.

1.1.4. Стационарные случайные процессы (см. Глава 5)

1.1.5. Марковские случайные процессы

Ограничимся определением марковского случайного процесса с дискретными состояниями и дискретным временем (цепь Маркова).

Пусть система А может находиться в одном из несовместных состояний А 1 ; А 2 ;…;А n , и при этом вероятность Р ij ( s ) того, что в s -ом испытании система переходит из состояния в состояние А j , не зависит от состояния системы в испытаниях, предшествующих s -1-ому. Случайный процесс данного типа называется цепью Маркова.

1.1.6. Пуассоновские случайные процессы

Случайный процесс X(t) называетсяпуассоновским процессом с параметром а (а>0), если он обладает следующими свойствами:

1) tT; Т= и корреляционная функция K х (t 1 ,t 2) однозначно определяют распределение его параметров, следовательно, и процесс в целом.

Стационарный случайный процесс (однородный во времени случайный процесс) - это такой случайный процесс X(t), статистические характеристики которого постоянны во времени, то есть инвариантны к кратковременным возмущениям: t → t + τ, X(t) → X(t + τ) при любом фиксированном значении τ. Процесс полностью определяется математическим ожиданием M и корреляционной функцией

К х (t,τ) = M.

Марковский случайный процесс - это такой случайный процесс, при котором вероятность нахождения системы в каком-либо состоянии в будущем зависит от того, в каком состоянии система находится в заданный момент времени и не зависит от того, каким путем система перешла в это состояние. Короче - «будущее» и «прошлое» процесса при известном его «настоящем» не связаны друг с другом. Часто марковский процесс характеризуется вероятностями перехода системы из одного состояния в другое (переходными вероятностями).

Изменение технического состояния системы

Как уже говорилось, задача прогнозирования технического состояния, в самом общем понимании, представляет собой получение некоторых вероятностных характеристик работоспособности системы в будущем на основе данных контроля ее настоящего и прошедших состояний.

В зависимости от того, какая характеристика случайного процесса определяется при прогнозировании, различают прогнозирование надежности (определение условной плотности вероятности безотказной работы системы после контроля) и прогнозирование технического состояния (определение условной плотности распределения вероятностей значений определяющего параметра) на основе прошлых и настоящего состояний. На рис 8.1 проиллюстрирована разница между этими характеристиками. На этом рисунке x(t) - отрезок реализации случайного процесса X(t), описывающий изменение во времени некоторого определяющего параметра системы, имеющего допустимые границы (а, b) изменения. Отрезок реализации получен в результате наблюдения за конкретным экземпляром системы из заданного класса систем на интервале времени (0, t k 2). В момент t k 2 был осуществлен последний контроль системы, и на его основе необходимо решить - пригодна ли система к эксплуатации до наступления очередного момента контроля t k 3 .



рис. 8.1 Условная плотность вероятности безотказной работы р{x(t)} и f{(x(t)} условная плотность распределения вероятностей значений определяющего параметра

В связи с тем, что внешние воздействия, воспринимаемые системой, имеют случайный характер, случайный процесс после момента t k 2 может изменяться по разному (см. пунктирные линии на рис. 8.1). Процесс, являющийся продолжением некоторого исходного процесса при условии, что на интервале (0,t k 2) его реализация имела конкретный вид х(t), называется условным , или апостериорным , случайным процессом:

Х ps (t)=x. (8.5)

Следовательно, для принятия обоснованного решения о назначении срока очередного контроля системы необходимо знать характеристики апостериорного случайного процесса. Пригодной для выполнения задачи будет считаться система, определяющие параметры которой находятся в допустимых границах (а, b) в момент предыдущего контроля и не выйдут из этих границ до конца заданного срока функционирования. Поскольку выход определяющих параметров за допустимые границы является случайным событием, то оценкой работоспособности системы может быть условная вероятность безотказной ее работы после контроля. Это вероятность того, что случайный процесс ни разу не пересечет границу (a, b) после момента контроля; ее называют прогнозированной надежностью системы и обозначают

P{x(t)=<<(ba)/X(t)=x(t), 0<

Таким образом, прогнозированием надежности называется определение условной вероятности безотказной работы системы при условии, что в момент контроля она находилась в некотором фиксированном работоспособном состоянии.

Наиболее полной характеристикой будущего технического состояния системы является условная плотность распределения вероятностей ее определяющих параметров, то есть будущих значений случайного процесса

f{x(t k 3)/X(t)=x(t), 0<

при условии, что на интервале (0,t k 3) реализация процесса имела конкретный вид (рис. 8.1).

Применение общих определений, приведенных в предыдущем параграфе, иллюстрируется ниже на нескольких характерных случайных процессах.

Наряду с обозначением случайного процесса символом будет применяться в том же смысле обозначение под которым подразумевается случайная функция времени. Как и ранее, обозначает реализацию случайной функции

1. ГАРМОНИЧЕСКОЕ КОЛЕБАНИЕ СО СЛУЧАЙНОЙ АМПЛИТУДОЙ

Пусть в выражении, определяющем сигнал

частота и начальная фаза являются детерминированными и постоянными величинами, а амплитуда А - случайная, равновероятная в интервале от 0 до величина (рис. 4.2).

Найдем одномерную плотность вероятности для фиксированного момента времени . Мгновенное значение может быть любым в интервале от 0 до причем будем считать, что . Следовательно,

Рис. 4.2. Совокупность гармонических колебаний со случайной амплитудой

Рис. 4.3. Плотность вероятности гармонического колебания со случайной амплитудой

График функции для фиксированного значения представлен на рис. 4.3.

Математическое ожиданир

Наконец, дисперсия

Рассматриваемый случайный процесс нестационарный и неэргодический.

2. ГАРМОНИЧЕСКОЕ КОЛЕБАНИЕ СО СЛУЧАЙНОЙ ФАЗОЙ

Пусть амплитуда и частота гармонического сигнала заранее достоверно известны, а начальная фаза - случайная величина, которая с одинаковой вероятностью может принимать любое значение в интервале от до . Это означает, что плотность вероятности начальной фазы

Рис. 4.4. Совокупность гармонических колебаний со случайными фазами

Одну из реализаций случайного процесса образуемого совокупностью гармонических колебаний со случайными фазами (рис. 4.4), можно определить выражением

(4.23)

Полная фаза колебания является случайной величиной, равновероятной в интервале от до . Следовательно,

Рис. 4.5. К определению плотности вероятности гармонического колебания со случайной фазой

Рис. 4.6. Плотность вероятности гармонического колебания со случайной фазой

Найдем одномерную плотность вероятности случайного процесса . Выделим интервал (рис. 4.5) и определим вероятность того, что при измерении, проведенном в промежутке времени от до мгновенное значение сигнала окажется в интервале Эту вероятность можно записать в виде , где - искомая плотность вероятности. Очевидно, что вероятность совпадает с вероятностью попадания случайной фазы колебаний в один из двух заштрихованных на рис. 4.5 фазовых интервалов. Эта последняя вероятность равна Следовательно,

откуда искомая функция

Таким образом, окончательно

График этой функции изображен на рис. 4.6.

Существенно, что одномерная плотность вероятности не зависит от выбора момента времени t, а среднее по множеству (см. (2.271.7) в )

совпадает со средним по времени

(Это справедливо для любой реализации рассматриваемого случайного процесса.)

Корреляционную функцию в данном случае можно получить усреднением произведения по множеству без обращения к двумерной плотности вероятности [см. общее выражение (4.8)]. Подставляя в (4.8)

а также учитывая, что первое слагаемое является детерминированной величиной, а второе слагаемое при статистическом усреднении с помощью одномерной плотности вероятности [см. (4.22)] обращается в нуль, получаем

Такой же результат получается и при усреднении произведения по времени для любой реализации процесса.

Независимость среднего значения от и корреляционной функции от положения интервала - на оси времени позволяет считать рассматриваемый процесс стационарным. Совпадение же результатов усреднения по множеству и времени (для любой реализации) указывает на эргодичность процесса. Аналогичным образом нетрудно показать, что гармоническое колебание со случайной амплитудой и случайной фазой образует стационарный, но не эргодический процесс (различные реализации обладают неодинаковой дисперсией).

3. ГАУССОВСКИЙ СЛУЧАЙНЫЙ ПРОЦЕСС

Нормальный (гауссовский) закон распределения случайных величин чаще других встречается в природе. Нормальный процесс особенно характерен для помех канала связи. Он очень удобен для анализа. Поэтому случайные процессы, распределение которых не слишком сильно отличается от нормального, часто заменяют гауссовским процессом. Одномерная плотность вероятности нормального процесса определяется выражением

В данном параграфе рассматривается стационарный и эргодический гауссовский процесс. Поэтому под можно подразумевать соответственно постоянную составляющую и среднюю мощность флуктуационной составляющей одной (достаточно длительной) реализации случайного процесса.

Графики плотности вероятности при нормальном законе для некоторых значений изображены на рис. 4.7. Функция симметрична относительно среднего значения. Чем больше тем меньше максимум, а кривая становится более пологой [площадь под кривой равна единице при любых значениях ].

Широкое распространение нормального закона распределения в природе объясняется тем, что при суммировании достаточно большого числа независимых или слабо зависимых случайных величин распределение суммы близко к нормальному при любом распределении отдельных слагаемых.

Это положение, сформулированное в 1901 г. А. М. Ляпуновым, получило название центральной предельной теоремы.

Наглядными физическими примерами случайного процесса с нормальным законом распределения являются шумы, обусловленные тепловым движением свободных электронов в проводниках электрической цепи как дробовым эффектом в электронных приборах (см. § 7.3.).

Рис. 4.7. Одномерная плотность вероятности нормального распределения

Рис. 4.8. Случайные функции с одинаковым распределением (нормальным), но с различными частотными спектрами

Не только шумы и помехи, но и полезные сигналы, являющиеся суммой большого числа незавнси случайных элементарных сигналов, например гармонических колебаний со случайной фазой или амплитудой, часто можно трактовать гауссовские случайные процессы.

На основе функции можно найти относительное время пребывания сигнала в определенном интервале уровней, отношение максимальных значений к среднеквадратическому (пикфактор) и ряд других важных для практики параметров случайного сигнала. Поясним это на примере одной из реализаций гауссовского процесса, изображенной на рис. 4.8, а для Эта функция времени соответствует шумовой помехе, энергетический спектр которой простирается от нулевой частоты до некоторой граничной частоты. Вероятность пребывания значения х(t) в интервале от а до b определяется выражением (4.1). Подставляя в это выражение (4.28), при получаем

Глава 1. Основные понятия теории случайных процессов

Определение случайного процесса. Основные подходы к заданию

Случайных процессов. Понятие реализации и сечения.

Элементарные случайные процессы.

Случайным (стохастическим, вероятностным) процессом называется функция действительного переменного t, значениями которой являются соответствующие случайные величины X(t).

В теории случайных процессов t трактуется как время, принимающее значения из некоторого подмножества Т множества действительных чисел (t T, T R).

В рамках классического математического анализа под функцией y=f(t) понимается такой тип зависимости переменных величин t и y, когда конкретному числовому значению аргумента t соответствует и притом единственное числовое значение функции y. Для случайных процессов ситуация принципиально иная: задание конкретного аргумента t приводит к появлению случайной величины X(t) с известным законом распределения (если это дискретная случайная величина) или с заданной плотностью распределения (если это непрерывная случайная величина). Другими словами, исследуемая характеристика в каждый момент времени носит случайный характер с неслучайным распределением.

Значения, которые принимает обычная функция y=f(t) в каждый момент времени, полностью определяет структуру и свойства этой функции. Для случайных процессов дело обстоит совершенно иным образом: здесь совершенно не достаточно знать распределение случайной величины X(t) при каждом значении t, необходима информация об ожидаемых изменениях и их вероятностях, то есть информация о степени зависимости предстоящего значения случайного процесса от его предыстории.

Наиболее общий подход в описании случайных процессов состоит в задании всех его многомерных распределений, когда определена вероятность одновременного выполнения следующих событий:

t 1 , t 2 ,…,t n T, n N: X(t i) x i ; i=1,2,…,n;

F(t 1 ;t 2 ;…;t n ;x 1 ;x 2 ;…;x n) = P(X(t 1)≤x 1 ; X(t 2)≤x 2 ;…; X(t n)≤x n).

Такой способ описания случайных процессов универсален, но весьма громоздок. Для получения существенных результатов выделяют наиболее важные частные случаи, допускающие применение более совершенного аналитического аппарата. В частности, удобно рассматривать случайный процессX(t, ω) как функцию двух переменных: t T, ω Ω , которая при любом фиксированном значении t T становится случайной величиной, определенной на вероятностном пространстве (Ω, AА, P), где Ω - непустое множество элементарных событий ω; AА - σ-алгебра подмножеств множества Ω, то есть множество событий; P - вероятностная мера, определенная на AА.

Неслучайная числовая функция x(t)=X(t, ω 0) называется реализацией (траекторией) случайного процесса X(t, ω).

Сечением случайного процесса X(t, ω) называется случайная величина, которая соответствует значению t=t 0 .

Если аргумент t принимает все действительные значения или все значения из некоторого интервала T действительной оси, то говорят о случайном процессе с непрерывным временем . Если t принимает только фиксированные значения, то говорят о случайном процессе с дискретным временем .

Если сечение случайного процесса - дискретная случайная величина, то такой процесс называется процессом с дискретными состояниями . Если же любое сечение - непрерывная случайная величина, то случайный процесс называется процессом с непрерывными состояниями .

В общем случае задать случайный процесс аналитически невозможно. Исключение составляют так называемые элементарные случайные процессы , вид которых известен, а случайные величины входят как параметры:

X(t)=Х(t,A 1 ,…,A n), где A i , i=1,…,n - произвольные случайные величины с конкретным распределением.

Пример 1 . Рассматривается случайный процесс X(t)=A·e - t , где А - равномерно распределенная дискретная случайная величина, принимающая значения {-1;0;1}; t≥0. Изобразить все его реализации случайного процесса X(t) и показать сечения в моменты времени t 0 =0; t 1 =1; t 2 =2.

Решение.

Данный случайный процесс является процессом с непрерывным временем и дискретными состояниями. При t=0 сечением случайного процесса X(t) является дискретная случайная величина А{-1;0;1}, распределенная равномерно.

При t=0 сечением случайного процесса X(t) является дискретная случайная величина А{-1;0;1}, распределенная равномерно.

При t=1 сечением случайного процесса X(t) является дискретная случайная величина {-1/е;0;1/е}., распределенная равномерно.

При t=2 сечением случайного процесса X(t) является дискретная случайная величина {-1/е 2 ;0;1/е 2 }., распределенная равномерно.

Пример 2 . Рассматривается случайный процесс X(t)=sin At, где А - дискретная случайная величина, принимающая значения {0;1;2}; аргумент t принимает дискретные значения {0; π/4; π/2; π }. Изобразить графически все реализации и сечения данного случайного процесса.

Решение.

Данный случайный процесс является процессом с дискретным временем и дискретными состояниями.

Процессов

Функция вида

Функция вида

Решение.

Математическое ожидание: m Y (t)=M(Xe - t)=e - t m X =me - t .

Дисперсия: D Y (t)=D(Xe - t)=e -2 t DX=σ 2 e -2 t .

Стандартное отклонение:

Корреляционная функция: K Y (t 1 ; t 2)=M((X e - t 1 -m e - t 1)×(X e - t 2 -m e - t 2))=

E -(t 1+ t 2) M(X-m) 2 =σ 2 e -(t 1+ t 2) .

Нормированная корреляционная функция:

По условию задачи случайная величина X распределена нормально; при фиксированном значении t сечение Y(t) линейно зависит от случайной величины X, и по свойству нормального распределения сечение Y(t) также распределено нормально с одномерной плотностью распределения:

Пример 4. Найти основные характеристики случайного процесса Y(t)=W×e - Ut (t>0), где W и U - независимые случайные величины; U распределена равномерно на отрезке ; W имеет математическое ожидание m W и стандартное отклонение σ W .

Решение.

Математическое ожидание: m Y (t)=M(We - Ut)=MW×M(e - Ut)=m w ×*M(e - Ut);

, (t>0).

Корреляционная функция:

так как

Дисперсия:

Пример 5. Найти одномерный закон распределения случайного процесса: Y(t)=Vcos(Ψt-U), где V и U независимые случайные величины; V нормально распределена с параметрами (m V ; σ V); Ψ-const; U- равномерно распределена на отрезке .

Решение.

Математическое ожидание случайного процесса Y(t):

Дисперсия:

Стандартное отклонение:

Переходим к выводу одномерного закона распределения. Пусть t-фиксированный момент времени, и случайная величина U принимает фиксированное значение U=u - const; u , тогда получаем следующие условные характеристики случайного процесса Y(t):

M(Y(t)| U=u)=m V ×cos(Ψt-u);

D(Y(t)| U=u)= ×cos 2 (Ψt-u);

σ(Y(t)| U=u)= ×|cos(Ψt-u)|.

Так как случайная величина V распределена нормально и при заданном значении случайной величины U=u все сечения линейно зависимы, то условное распределение в каждом сечении является нормальным и имеет следующую плотность:

Безусловная одномерная плотность случайного процесса Y(t):

Очевидно, что это распределение уже не является нормальным.

Сходимость и непрерывность

Сходимость по вероятности.

Говорят, что последовательность случайных величин {Х n } сходится по вероятности к случайной величине Х при n®¥, если

Обозначение:

Обратите внимание, что при n®¥ имеет место классическая сходимость вероятности к 1, то есть с возрастанием номера n можно гарантировать сколь угодно близкие к 1 значения вероятности. Но при этом нельзя гарантировать близости значений случайных величин Х n к значениям случайной величины Х ни при каких сколь угодно больших значениях n, поскольку мы имеем дело со случайными величинами.

стохастически непрерывным в точке t 0 T, если

3. Сходимость в среднем в степени p³1.

Говорят, что последовательность случайных величин {X n } сходится в среднем в степени 1 к случайной величине Х, если

Обозначение: X n X.

В частности, {X n } сходится в среднеквадратичном к случайной величине Х, если

Обозначение:

Случайный процесс X(t), t T называется непрерывным в среднеквадратичном в точке t 0 T, если

4. Сходимость почти наверное (сходимость с вероятностью единица).

Говорят, что последовательность случайных величин {Х n } сходится почти наверное к случайной величине Х, если

где ωÎW - элементарное событие вероятностного пространства (W, AА, Р).

Обозначение: .

Слабая сходимость.

Говорят, что последовательность { F Xn (x)} функций распределения случайных величин Х n слабо сходится к функции распределения F X (x) случайной величины Х, если имеет место поточечная сходимость в каждой точке непрерывности функции F X (x).

Обозначение: F Xn (x)Þ F X (x).

Решение.

1) Математическое ожидание, дисперсия, стандартное отклонение, корреляционная функция и нормированная корреляционная функция случайного процесса X(t) имеют вид (см. Пример 3 ):

2) Переходим к расчету характеристик случайного процесса X ’ (t). В соответствии с Tтеоремами 1-3 получаем:

За исключением математического ожидания (которое поменяло знак), все остальные характеристики сохранились полностью. Взаимные корреляционные функции случайного процесса X(t) и его производной X ’ (t) имеют вид:

3) В соответствии с Теоремами 41-64 основные характеристики интеграла от случайного процесса X(t) имеют следующие значения:

D (t1;t2)=?????????????

Взаимные корреляционные функции случайного процесса X(t) и его интеграла Y(t):

Выражение вида

,

где φ ik (t), k=1;2;…-неслучайные функции; V i , k=1;2;…-некоррелированные центрированные случайные величины, называется каноническим разложением случайного процесса X(t), при этом случайные величины V i называются коэффициентами канонического разложения; а неслучайные функции φ ki (t) - координатными функциями канонического разложения.

Рассмотрим характеристики случайного процесса

Так как по условию то

Очевидно, что один и тот же случайный процесс имеет различные виды канонического разложения в зависимости от выбора координатных функций. Более того, даже при состоявшемся выборе координатных функций существует произвол в распределении случайных величин V к. На практике по итогам экспериментов получают оценки для математического ожидания и корреляционной функции: . После разложения в двойной ряд Фурье по координатным функциям φ к (t):

получают значения дисперсий D Vk случайных величин V k .

Пример 7 . Случайный процесс Х(t) имеет следующее каноническое разложение: , где V k -нормально распределенные некоррелированные случайные величины с параметрами (0; σ к); m 0 (t) - неслучайная функция. Найти основные характеристики случайного процесса Х(t), включая плотности распределения.

Решение.

Из полученных ранее общих формул имеем:

В каждом сечении случайный процесс Х(t) имеет нормальное распределение, так как является линейной комбинацией некоррелированных нормально распределенных случайных величин V k , при этом одномерная плотность распределения имеет вид:

Двумерный закон распределения также является нормальным и имеет следующую двумерную плотность распределения:

Пример 8. Известныо математическое ожидание m X (t) и корреляционная функция К X (t 1 ;t 2)=t 1 t 2 случайного процесса Х(t), где . Найти каноническое разложение Х(t) по координатным функциям при условии, что коэффициенты разложения V k - нормально распределенные случайные величины.

Решение.

Корреляционная функция имеет следующее разложение

следовательно,

;

;

Так как ,

то ; .

Плотность распределения случайных величин V k:

Каноническое разложение случайного процесса Х(t) имеет вид:

.

Узком и широком смыслах.

Значительное число происходящих в природе событий, в частности, связанных с эксплуатацией технических устройств, носит «почти» установившиейся характер, то есть картина таких событий, подверженных незначительным случайным флуктуациям, тем не менее, в целом с течением времени сохраняется. В этих случаях принятно говорить о стационарных случайных процессах.

Например, летчик выдерживает заданную высоту полета, но разнообразные внешние факторы (порывы ветра, всходящие потоки, изменение тяги двигателей и т.п.) приводят к тому, что высота полета колеблется около заданного значения. Другим примером могла бы служить траектория движения маятника. Если бы он был предоставлен сам себе, то при условии отсутствия систематических факторов, приводящих к затуханию колебаний, маятник находился бы в режиме установившихся колебаний. Но различные внешние факторы (порывы ветра, случайные колебания точки подвеса и т.п.), не меняя в целом параметров колебательного режима, тем не менее делают характеристики движения не детерминированными, а случайными.

Стационарным (однородным во времени) называют случайный процессСП, статистические характеристики которого не меняются с течением времени, то естьт.е. являются инвариантными относительно временных и сдвигов.

Различают случайные процессыСП стационарные в широком и узком смысле.

Таких, что

Выполняется условие

F(t 1 ; t 2 ;… ;t n ; x 1 ; x 2 ;…; x n)=F(t 1 +τ; t 2 +τ;… ;t n +τ; x 1 ; x 2 ;…; x n),

и, следовательно, все n-мерные распределения зависят не от моментов времени t 1 ; t 2 ;… ;t n , а от n-1 длительности временных промежутков τ i ;:

В частности, одномерная плотность распределения вообще не зависит от времени t:

двумерная плотность сечений в моменты времени t 1 и t 2

n-мерная плотность сечений в моменты времени t 1 ; t 2 ...; t n:

Случайный процессСП Хx(t) называется стационарным в широком смысле, если его моменты первого и второго порядка инвариантны относительно временного сдвига, то есть его математическое ожидание не зависит от времени t и является константой, а корреляционная функция зависит только от длины временного промежутка между сечениями:

Очевидно, что стационарный случайный процессССП в узком смысле является стационарным случайным процессомССП и в широком смысле;, обратное утверждение не верно.

ПроцессаССП

2. 3. Корреляционная функция стационарного случайного процессаССП четна:

Поскольку она обладает следующей симметрией

4. Дисперсия стационарного случайного процесса ССП есть константа, равная

знзнаачению ее корреляционной функции в точке :

6. Корреляционная функция стационарного случайного процессаССП является

положительно определенной, то есть

Нормированная корреляционная функция стационарного случайного процессаССП также четна, положительно определена и при этом

Пример 11. Найти характеристики и сделать вывод о типе случайного процессаСП Хx(t):

гГде U 1 иb U 2 - некоррелированные случайные величиныСВ;

Решение.

Следовательно, случайный процесс Х(t) является стационарным в широком смысле. Как следует из Ппримера 10… , если U 1 и U 2 независимые, центрирование и нормально распределенные случайные величиныСВ, то случайный процессСП также является стационарным в широком смысле.

Пример 12. Доказать, стационарность в широком смыслечто случайного процессаСП Хx(t) является стационарным в широком смысле:

где V и независимые случайные величиныСВ; MV=m vV - const; - норравномерномально распределенная на отрезке случайная величинаСВ;

Решение.

Запишем Хx(t) следующим образом:

Так как случайная величина равномерно распределена на отрезке , то плотность распределения имеет вид:

следовательно,

Получаем

Так как cлучайный процессСП Хx(t) имеет постоянные математическое ожидание и дисперсию, а корреляционная функция является функцией , то вне зависимости от закона распределения случайной величиныСВ V М случайный процессСП Х x(t) является стационарным в широком смысле.

Стационарно связанные СП

Cлучайные процессыСП X(t)X(t) и Y(t)Y(t) называются стационарно связанными, если их взаимная корреляционная функция зависит только от разности аргументов τ =t 2 -t 1:

R x XY y (t 1 ;t 2)=r x XY y (τ).

Стационарность самих случайных процессов СП X(t) X(t) и Y(t) Y(t) не означает их стационарной связанности.

Отметим основные свойства стационарно связанных случайных процессовСП, производной и интеграла от стационарных случайных процессовССП,

1) 1) rR x XYy (τ)=rR y YXx (-τ).

2) 2)

3) 3)

где

5) 5) где

6) 6) ;

Пример 13. Корреляционная функция стационарного случайного процессаССП X(t)X(t) имеет вид

Найти корреляционные функции, дисперсии, взаимные корреляционные функции случайных процессовСП X(t), X’(t), .

Решение.

Ограничимся анализом случая значениями D x Х (t)=1.

Воспользуемся следующим соотношением:

Получаем:

Обратите внимание, что в результатепри дифференцированияи стационарный случайный процессССП X(t) переходит в стационарный случайный процессССП X’(t) , при этом X(t) и X’(t) стационарно связаны. При интегрировании стационарного случайного процессаССП X(t) возникает нестационарный случайный процессСП Y(t), и при этом X(t) и Y(t) не являются стационарно связанными.

И их характеристики

Среди стационарных случайных процессовССП есть особый класс процессов, называемых эргодическими , которые обладают следующими свойствоами: их характеристики, полученные усреднением множества всех реализаций,совпадают с соответствующими характеристиками, полученными усреднением по времени одной реализации, наблюдаемой на интервале (0, T) достаточно большой продолжительности. То есть на достаточнобольшом временном промежутке любая реализация проходит через любое состояние независимо от того, каково было исходное состояние системы при t=0; и в этом смысле любая реализация полностью представляет всю совокупность реализаций.



Поделиться