Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше
Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике
17.8. Определение характеристик эргодической стационарной случайной функции по одной реализации
Рассмотрим стационарную случайную
функцию ,
обладающую эргодическим свойством, и предположим, что в нашем распоряжении
имеется всего одна реализация этой случайной функции, но зато на достаточно
большом участке времени . Для эргодической стационарной случайной
функции одна реализация достаточно большой продолжительности практически
эквивалентна (в смысле объема сведений о случайной функции) множеству
реализаций той же общей продолжительности; характеристики случайной функции
могут быть приближенно определены не как средние по множеству наблюдений, а как
средние по времени . В частности, при достаточно большом математическое
ожидание может
быть приближенно вычислено по формуле
.
(17.8.1)
Аналогично может быть приближенно
найдена корреляционная функция при любом . Действительно, корреляционная функция,
по определению, представляет собой не что иное, как математическое ожидание
случайной функции :
(17.8.2)
Это
математическое ожидание также, очевидно, может быть приближенно вычислено как
среднее по времени.
Фиксируем некоторое значение и вычислим указанным
способом корреляционную функцию . Для этого удобно предварительно
«центрировать» данную реализацию , т. е. вычесть из нее математическое
ожидание (17.8.1):
.
(17.8.3)
Вычислим при заданном математическое
ожидание случайной функции как среднее по времени. При этом,
очевидно, нам придется учитывать не весь участок времени от 0 до , а несколько меньший,
так как второй сомножитель известен нам не для всех , а только для тех, для
которых .
Вычисляя среднее по времени
указанным выше способом, получим:
. (17.8.4)
Вычислив интеграл (17.8.4) для
ряда значений ,
можно приближенно воспроизвести по точкам весь ход корреляционной функции.
На практике обычно интегралы
(17.8.1) и (17.8.4) заменяют конечными суммами. Покажем, как это делается. Разобьем
интервал записи случайной функции на равных частей длиной и обозначим середины
полученных участков (рис.
17.8.1).
Рис. 17.8.1.
Предоставим
интеграл (17.8.1) как сумму интегралов по элементарным участкам и на каждом из них
вынесем функцию из-под
знака интеграла средним значением, соответствующим центру интервала . Получим приближенно:
,
или
.
(17.8.5)
Аналогично можно вычислить
корреляционную функцию для значений , равных . Придадим, например, величине значение
вычислим
интеграл (17.8.4), деля интервал интегрирования
на
равных
участков длиной и
вынося на каждом из них функцию за знак интеграла средним значением.
Получим:
,
или
окончательно
. (17.8.6)
Вычисление корреляционной функции
по формуле (17.8.6) производят для последовательно вплоть до таких значений
, при
которых корреляционная функция становится практически равной нулю или начинает
совершать небольшие нерегулярные колебания около нуля. Общий ход функции воспроизводится по
отдельным точкам (рис. 17.8.2).
Рис. 17.8.2.
Для того чтобы математическое
ожидание и
корреляционная функция были определены с удовлетворительной
точностью, нужно, чтобы число точек было достаточно велико (порядка сотни, а
в некоторых случаях даже нескольких сотен). Выбор длины элементарного участка определяется
характером изменения случайной функции. Если случайная функция изменяется
сравнительно плавно, участок можно выбирать большим, чем когда она
совершает резкие и частые колебания. Чем более высокочастотный состав имеют
колебания, образующие случайную функцию, тем чаще нужно располагать опорные
точки при обработке. Ориентировочно можно рекомендовать выбирать элементарный
участок так,
чтобы на полный период самой высокочастотной гармоники в составе случайной
функции приходилось порядка 5-10 опорных точек.
Часто выбор опорных точек вообще
не зависит от обрабатывающего, а диктуется темпом работы записывающей
аппаратуры. В этом случае следует вести обработку непосредственно полученного
из опыта материала, не пытаясь вставить между наблюденными значениями
промежуточные, так как эхо не может повысить точности результата, а излишне
осложнит обработку.
Пример. В условиях
горизонтального полета самолета произведена запись вертикальной перегрузки,
действующей на самолет. Перегрузка регистрировалась на участке времени 200 сек
с интервалом 2 сек. Результаты приведены в таблице 17.8.1.
Таблица
17.8.1
(сек)
|
Перегрузка
|
(сек)
|
Перегрузка
|
(сек)
|
Перегрузка
|
(сек)
|
Перегрузка
|
0
|
1,0
|
50
|
1,0
|
100
|
1,2
|
150
|
0,8
|
2
|
1,3
|
52
|
1,1
|
102
|
1,4
|
152
|
0,6
|
4
|
1,1
|
54
|
1,5
|
104
|
0,8
|
154
|
0,9
|
6
|
0,7
|
56
|
1,0
|
106
|
0,9
|
156
|
1,2
|
8
|
0,7
|
58
|
0,8
|
108
|
1,0
|
158
|
1,3
|
10
|
1,1
|
60
|
1,1
|
110
|
0,8
|
160
|
0,9
|
12
|
1,3
|
62
|
1,1
|
112
|
0,8
|
162
|
1,3
|
14
|
0,8
|
64
|
1,2
|
114
|
1,4
|
164
|
1,5
|
16
|
0,8
|
66
|
1,0
|
116
|
1,6
|
166
|
1,2
|
18
|
0,4
|
68
|
0,8
|
118
|
1,7
|
168
|
1,4
|
20
|
0,3
|
70
|
0,8
|
120
|
1,3
|
170
|
1,4
|
22
|
0,3
|
72
|
1,2
|
122
|
1,6
|
172
|
0,8
|
24
|
0,6
|
74
|
0,7
|
124
|
0,8
|
174
|
0,8
|
26
|
0,3
|
76
|
0,7
|
126
|
1,2
|
176
|
1,3
|
28
|
0,5
|
78
|
1,1
|
128
|
0,6
|
178
|
1,0
|
30
|
0,5
|
80
|
1,2
|
130
|
1,0
|
180
|
0,7
|
32
|
0,7
|
82
|
1,0
|
132
|
0,3
|
182
|
1,1
|
34
|
0,8
|
84
|
0,6
|
134
|
0,8
|
184
|
0,9
|
36
|
0,6
|
86
|
0,9
|
136
|
0,7
|
186
|
0,9
|
38
|
1,0
|
88
|
0,8
|
138
|
0,9
|
188
|
1,1
|
40
|
0,5
|
90
|
0,8
|
140
|
1,3
|
190
|
1,2
|
42
|
1,0
|
92
|
0,9
|
142
|
1,5
|
192
|
1,3
|
44
|
0,9
|
94
|
0,9
|
144
|
1,1
|
194
|
1,3
|
46
|
1,4
|
96
|
0,6
|
146
|
0,7
|
196
|
1,6
|
48
|
1,4
|
98
|
0,4
|
148
|
1,0
|
198
|
1,5
|
Считая
процесс изменения перегрузки стационарным, определить приближенно
математическое ожидание перегрузки , дисперсию и нормированную корреляционную функцию . Аппроксимировать какой-либо
аналитической функцией, найти и построить спектральную плотность случайного
процесса.
Решение. По формуле (17.8.5)
имеем:
.
Центрируем случайную функцию
(табл. 17.8.2).
Таблица
17.8.2
(сек)
|
|
(сек)
|
|
(сек)
|
|
(сек)
|
|
0
|
0,02
|
50
|
0,02
|
100
|
0,22
|
150
|
-0,18
|
2
|
0,32
|
52
|
0,12
|
102
|
0,42
|
152
|
-0,38
|
4
|
0,12
|
54
|
0,52
|
104
|
-0,18
|
154
|
-0,08
|
6
|
-0,28
|
56
|
0,02
|
106
|
-0,08
|
156
|
0,22
|
8
|
-0,28
|
58
|
-0,18
|
108
|
0,02
|
158
|
0,32
|
10
|
0,12
|
60
|
0,12
|
110
|
-0,18
|
160
|
-0,08
|
12
|
0,32
|
62
|
0,12
|
112
|
-0,18
|
162
|
0,32
|
14
|
-0,18
|
64
|
0,22
|
114
|
0,42
|
164
|
0,52
|
16
|
-0,18
|
66
|
0,02
|
116
|
0,62
|
166
|
0,22
|
18
|
-0,58
|
68
|
-0,18
|
118
|
0,72
|
168
|
0,42
|
20
|
-0,68
|
70
|
-0,18
|
120
|
0,32
|
170
|
0,42
|
22
|
-0,68
|
72
|
0,22
|
122
|
0,62
|
172
|
-0,18
|
24
|
-0,38
|
74
|
-0,28
|
124
|
-0,18
|
174
|
-0,18
|
26
|
-0,68
|
76
|
-0,28
|
126
|
0,22
|
176
|
0,32
|
28
|
-0,48
|
78
|
0,12
|
128
|
-0,38
|
178
|
0,02
|
30
|
-0,48
|
80
|
0,52
|
130
|
0,02
|
180
|
-0,28
|
32
|
-0,28
|
82
|
0,02
|
132
|
-0,38
|
182
|
0,12
|
34
|
-0,18
|
84
|
-0,38
|
134
|
-0,18
|
184
|
-0,08
|
36
|
-0,38
|
86
|
-0,08
|
136
|
-0,28
|
186
|
-0,08
|
38
|
0,02
|
88
|
-0,18
|
138
|
-0,08
|
188
|
0,12
|
40
|
-0,48
|
90
|
-0,18
|
140
|
0,32
|
190
|
0,22
|
42
|
0,02
|
92
|
-0,08
|
142
|
0,52
|
192
|
0,32
|
44
|
-0,08
|
94
|
-0,08
|
144
|
0,12
|
194
|
0,32
|
46
|
0,42
|
96
|
-0,38
|
146
|
-0,28
|
196
|
0,62
|
48
|
0,42
|
98
|
-0,58
|
148
|
0,02
|
198
|
0,52
|
Возводя в квадрат все значения и деля сумму на получим приближенно
дисперсию случайной функции :
и
среднее квадратическое отклонение:
.
Перемножая
значения ,
разделенные интервалом , и деля сумму произведений
соответственно на ;
; ; …, получим значения
корреляционной функции . Нормируя корреляционную функцию
делением на ,
получим таблицу значений функции (табл. 17.8.3).
Таблица
17.8.3
|
|
|
0
|
1,000
|
1,000
|
2
|
0,505
|
0,598
|
4
|
0,276
|
0,358
|
6
|
0,277
|
0,214
|
8
|
0,231
|
0,128
|
10
|
-0,015
|
0,077
|
12
|
0,014
|
0,046
|
14
|
0,071
|
0,027
|
График функции представлен на рис.
17.8.3 в виде точек, соединенных пунктиром.
Рис. 17.8.3.
Не
вполне гладкий ход корреляционной функции может быть объяснен недостаточным
объемом экспериментальных данных (недостаточной продолжительностью опыта), в
связи с чем случайные неровности в ходе функции не успевают сгладиться.
Вычисление продолжено
до таких значений при которых фактически корреляционная связь пропадает.
Для того чтобы сгладить явно
незакономерные колебания экспериментально найденной функции , заменим ее приближенно
функцией вида:
,
где
параметр подберем
методом наименьших квадратов (см. 14.5).
Применяя
этот метод, находим .
Вычисляя значения функции при , построим график сглаживающей кривой. На
рис. 17.8.3 он проведен сплошной линией. В последнем столбце таблицы 17.8.3
приведены значения функции .
Пользуясь приближенным выражением
корреляционной функции (17.8.6), получим (см. 17.4, пример 1) нормированную
спектральную плотность случайного процесса в виде:
.
График
нормированной спектральной плотности представлен на рис. 17.8.4.
Рис. 17.8.4.
|
1 |
Оглавление
- Глава 1. Введение
- ПРЕДИСЛОВИЕ
- 1.1. Предмет теории вероятностей
- Теория вероятностей: 1.2. Краткие исторические сведения
- Глава 2. Основные понятия теории вероятностей
- 2.1. Событие. Вероятность события
- 2.2. Непосредственный подсчет вероятностей
- 2.3. Частота, или статистическая вероятность, события
- 2.4. Случайная величина
- 2.5. Практически невозможные и практически достоверные события. Принцип практической универсальности
- Глава 3. Основные теоремы теории вероятностей
- 3.1. Назначение основных теорем. Сумма и произведение событий
- 3.2. Теорема сложения вероятностей
- 3.3. Теорема умножения вероятностей
- 3.4. Формула полной вероятности
- 3.5. Теорема гипотез (формула Бейеса)
- Глава 4. Повторение опытов
- 4.1. Частная теорема о повторении опытов
- 4.2. Общая теорема о повторении опытов
- Глава 5. Случайные величины и их законы распределения
- 5.1. Ряд распределения. Многоугольник распределения
- 5.2. Функция распределения
- 5.3. Вероятность попадания случайной величины на заданный участок
- 5.4. Плотность распределения
- 5.5. Числовые характеристики случайных величин. Их роль и назначение
- 5.6. Характеристики положения (математическое ожидание, мода, медиана)
- 5.7. Моменты. Дисперсия. Среднее квадратичное отклонение
- 5.8. Закон равномерной плотности
- 5.9. Закон Пуассона
- Глава 6. Нормальный закон распределения
- 6.1. Нормальный закон распределения и его параметры
- 6.2. Моменты нормального распределения
- 6.3. Вероятность попадания случайной величины, подчиненной нормальному закону, на заданный участок. Нормальная функция распределения
- 6.4. Вероятное (срединное) отклонение
- Глава 7. Определение законов распределения случайных величин на основе опытных данных
- 7.1. Основные задачи математической статистики
- 7.2. Простая статистическая совокупность. Статистическая функция распределения
- 7.3. Статистический ряд. Гистограмма
- 7.4 Числовые характеристики статистического распределения
- 7.5. Выравнивание статистических рядов
- 7.6. Критерии согласия
- Глава 8. Системы случайных величин
- 8.1. Понятие о системе случайных величин
- 8.2. Функция распределения системы двух случайных величин
- 8.3. Плотность распределения системы двух случайных величин
- 8.4. Законы распределения отдельных величин, входящих в систему. Условные законы распределения
- 8.5 Зависимые и независимые случайные величины
- 8.6. Числовые характеристики системы двух случайных величин. Корреляционный момент. Коэффициент корреляции
- 8.7. Система произвольного числа случайных величин
- 8.8. Числовые характеристики системы нескольких случайных величин
- Глава 9. Нормальный закон распределении дли системы случайных величин
- 9.1. Нормальный закон на плоскости
- 9.2 Эллипсы рассеивания. Приведение нормального закона к каноническому виду
- 9.3. Вероятность попадания в прямоугольник со сторонами, параллельными главным осям рассеивания
- 9.4. Вероятность попадания в эллипс рассеивания
- 9.5. Вероятность попадания в область произвольной формы
- 9.6. Нормальный закон в пространстве трех измерений. Общая запись нормального закона для системы произвольного числа случайных величин
- Глава 10. Числовые характеристики функций случайных величин
- 10.1. Математическое ожидание функции. Дисперсия функции
- 10.2. Теоремы о числовых характеристиках
- 10.3. Применения теорем о числовых характеристиках
- Глава 11. Линеаризация функций
- 11.1. Метод линеаризации функций случайных аргументов
- 11.2. Линеаризация функции одного случайного аргумента
- 11.3. Линеаризация функции нескольких случайных аргументов
- 11.4. Уточнение результатов, полученных методом линеаризации
- Глава 12. Законы распределения функций случайных аргументов
- 12.1. Закон распределения монотонной функции одного случайного аргумента
- 12.2. Закон распределения линейной функции от аргумента, подчиненного нормальному закону
- 12.3. Закон распределения немонотонной функции одного случайного аргумента
- 12.4. Закон распределения функции двух случайных величин
- 12.5. Закон распределения суммы двух случайных величин. Композиция законов распределения
- 12.6. Композиция нормальных законов
- 12.7. Линейные функции от нормально распределенных аргументов
- 12.8. Композиция нормальных законов на плоскости
- Глава 13. Предельные теоремы теории вероятностей
- 13.1. Закон больших чисел и центральная предельная теорема
- 13.2. Неравенство Чебышева
- 13.3. Закон больших чисел (теорема Чебышева)
- 13.4. Обобщенная теорема Чебышева. Теорема Маркова
- 13.5. Следствия закона больших чисел: теоремы Бернулли и Пуассона
- 13.6. Массовые случайные явления и центральная предельная теорема
- 13.7. Характеристические функции
- 13.8. Центральная предельная теорема для одинаково распределенных слагаемых
- 13.9. Формулы, выражающие центральную предельную теорему и встречающиеся при ее практическом применении
- Глава 14. Обработка опытов
- 14.1. Особенности обработки ограниченного числа опытов. Оценки дли неизвестных параметров закона распределения
- 14.2. Оценки для математического ожидания и дисперсии
- 14.3. Доверительный интервал. Доверительная вероятность
- 14.4. Точные методы построения доверительных интервалов для параметров случайной величины, распределенной по нормальному закону
- 14.5. Оценка вероятности по частоте
- 14.6. Оценки для числовых характеристик системы случайных величин
- 14.7. Обработка стрельб
- 14.8. Сглаживание экспериментальных зависимостей по методу наименьших квадратов
- Глава 15. Основные понятия теории случайных функций
- 15.1. Понятие о случайной функции
- 15.2. Понятие о случайной функции как расширение понятия о системе случайных величин. Закон распределения случайной функции
- 15.3. Характеристики случайных функций
- 15.4. Определение характеристик случайной функции из опыта
- 15.5. Методы определения характеристик преобразованных случайных функций по характеристикам исходных случайных функций
- 15.6. Линейные и нелинейные операторы. Оператор динамической системы
- 15.7. Линейные преобразования случайных функций
- 15.7.1. Интеграл от случайной функции
- 15.7.2. Производная от случайной функции
- 15.8. Сложение случайных функций
- 15.9. Комплексные случайные функции
- Глава 16. Канонические разложения случайных функций
- 16.1. Идея метода канонических разложений. Представление случайной функции в виде суммы элементарных случайных функций
- 16.2. Каноническое разложение случайной функции
- 16.3. Линейные преобразования случайных функций, заданных каноническими разложениями
- Глава 17. Стационарные случайные функции
- 17.1. Понятие о стационарном случайном процессе
- 17.2. Спектральное разложение стационарной случайной функции на конечном участке времени. Спектр дисперсий
- 17.3. Спектральное разложение стационарной случайной функции на бесконечном участке времени. Спектральная плотность стационарной случайной функции
- 17.4. Спектральное разложение случайной функции в комплексной форме
- 17.5. Преобразование стационарной случайной функции стационарной линейной системой
- 17.6. Применения теории стационарных случайных процессов к решению задач, связанных с анализом и синтезом динамических систем
- 17.7. Эргодическое свойство стационарных случайных функций
- 17.8. Определение характеристик эргодической стационарной случайной функции по одной реализации
- Глава 18. Основные понятия теории информации
- 18.1. Предмет и задачи теории информации
- 18.2. Энтропия как мера степени неопределенности состояния физической системы
- 18.3. Энтропия сложной системы. Теорема сложения энтропий
- 18.4. Условная энтропия. Объединение зависимых систем
- 18.5. Энтропия и информация
- 18.6. Частная информация о системе, содержащаяся в сообщении о событии. Частная информация о событии, содержащаяся в сообщении о другом событии
- 18.7. Энтропия и информация для систем с непрерывным множеством состояний
- 18.8. Задачи кодирования сообщений. Код Шеннона-Фэно
- 18.9. Передача информации с искажениями. Пропускная способность канала с помехами
- Глава 19. Элементы теории массового обслуживания
- 19.1. Предмет теории массового обслуживания
- 19.2. Случайный процесс со счетным множеством состояний
- 19.3. Поток событий. Простейший поток и его свойства
- 19.4 Нестационарный пуассоновский поток
- 19.5. Поток с ограниченным последействием (поток Пальма)
- 19.6. Время обслуживания
- 19.7. Марковский случайный процесс
- 19.8. Система массового обслуживания с отказами. Уравнения Эрланга
- 19.9. Установившийся режим обслуживания. Формулы Эрланга
- 19.10. Система массового обслуживания с ожиданием
- 19.11. Система смешанного типа с ограничением по длине очереди
- Приложения
- Таблица 1 Значения нормальной функции распределения
- Таблица 2. Значения экспоненциальной функции
- Таблица 3. Значения нормальной функции
- Таблица 4. Значения «хи-квадрат» в зависимости от r и p
- Таблица 5. Значения удовлетворяющие равенству
- Таблица 6. Таблица двоичных логарифмов целых чисел от 1 до 100
- Таблица 7. Таблица значений функции
- Таблица 8. Значения распределение Пуассона
|