Главная > Теория информации и передачи сигналов
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

5.9. ВЫВОДЫ

1. Основными информационными характеристиками источников дискретных сообщений являются энтропия, условная энтропия, производительность и избыточность. Энтропия — это среднее количество информации, приходящееся на один символ сообщения. Если символы сообщения коррелированы, то энтропия уменьшается. Чтобы это учесть, вводят понятие условной энтропии. Она характеризует среднее количество информации, которое несет последующий символ сообщения при условии, что уже известен ряд предыдущих символов. Корреляционные связи и неравномерность распределения вероятностей появления символов характеризует избыточность источника — отношение количества информации, теряемой из-за воздействия этих факторов, к максимальному количеству информации, которое несет один символ.

2. Основными информационными характеристиками дискретных каналов являются скорость передачи информации, пропускная способность и коэффициент использования. Если помехи в канале отсутствуют, скорость передачи информации равна производительности кодера. Пропускной способностью канала без шумов называют максимальную скорость передачи информации при фиксированных условиях передачи и приема сигналов. Степень согласования источника с каналом характеризуют отношением; скорости передачи информации к пропускной способности канала, называемым коэффициентом использования канала.

Среднее количество принятой информации определяют как разность среднего количества переданной информации и среднего, количества информации, потерянной в канале из-за помех. Скорость передачи информации и пропускную способность каналов: с шумами определяют через среднее количество принятой в единицу времени информации. Пропускная способность дискретных каналов с Сумами полностью определяется скоростью передачи кодовых символов, вероятностью появления ошибки при передаче одного символа и основанием кода. Влияние помех проявляется в том, что для обеспечения сколь угодно малой вероятности ошибки необходимо увеличивать избыточность кода.

3. Сущность оптимального эффективного кодирования заключается в том, что разрабатывают такие коды, которые позволяют перевести неравномерное распределение вероятностей коррелированных символов в равномерное распределение вероятностей появления независимых кодовых символов. Конечная цель оптимального кодирования — приблизить скорость передачи информации к пропускной способности канала. Наличие шумов в канале приводит к тому, что эффективность оптимального кодирования

падает. Кодирование сообщений дискретных источников с памятью выполняют в два этапа: на первом устраняют корреляцию символов первичного алфавита, на (втором -выравнивают распределение вероятностей появления независимых кодовых символов. Эффективное оптимальное кодирование полезно для тех реальных каналов, в которых отношение сигнал/шум значительно превышает единицу.

4. Основными информационными характеристиками источников непрерывных сообщений являются энтропия, условная энтропия, эпсилон-энтропия, эпсилон-производительность, избыточность и объем информации. Формулу для энтропии источника непрерывных сообщений получают из формулы для энтропии источника дискретных сообщений путем предельного перехода. Среди всех источников с ограниченной и одинаковой мощностью сигналов наибольшей энтропией обладает источник с гауссовскими сигналами. Энтропия гауссовского белого шума является максимальной в классе гауссовских непрерывных сигналов. Поэтому помеха типа «гауссовский белый шум» является наиболее тяжелой и ее часто используют для оценки качества связи в наихудшем случае. Отсюда же следует целесообразность применения сигналов-переносчиков, по свойствам близких к гауссовскому белому шуму. Понятие эпсилон-энтропии вводят потому, что невозможно передать непрерывный сигнал абсолютно точно. Эпсилон-энтропия характеризует то среднее количество информации в одном независимом отсчете непрерывного случайного процесса, которое необходимо для воспроизведения этого процесса с заданной среднеквадратической погрешностью. Максимального значения эпсилон-энтропия достигает для гауссовских процессов. Эпсилон-производительность определяют как произведение средней скорости выдачи отсчетов на эпсилон-энтропию одного отсчета. Максимальный объем информации, выданной источником за время существования сигнала, равен произведению максимальной эпсилон-производительности на длительность сигнала. Избыточность источника характеризуют формулой (5.75).

5. Основными информационными характеристиками непрерывных каналов, как и дискретных, являются скорость передачи информации, пропускная способность и коэффициент использования. Пропускная способность гауссова непрерывного канала определяется его полосой пропускания и отношением сигнал/шум в канале. Чем шире спектр сигнала при прочих равных условиях, тем ближе пропускная способность канала к предельному значению. Поэтому целесообразно применять широкополосные (шумоподобные) сигналы-переносчики.

6. Предельные возможности согласования источников с каналами определены в теоремах кодирования Шеннона. Сущность этих теорем в том, что существуют способы оптимального кодирования, при которых вероятности ошибки (или для непрерывных сообщений среднеквадрагические отклонения принятых сигналов от переданных) будут сколь угодно малы, если

производительность источника меньше пропускной способности канала. Под. оптимальным кодированием непрерывных сообщений в (непрерывные сигналы понимают аналоговую модуляцию (см. § 3.1). Эффективность использования дискретными и непрерывными источниками пропускной способности непрерывного канала характеризуют коэффициентами (5.83), (5.87).

7. Сравнение пропускных способностей дискретного и «непрерывного каналов показывает, что пропускная способность дискретного канала всегда меньше или равна пропускной способности соответствующего непрерывного канала. Равенство имеет место только тогда, когда и отношение сигнал/шум, и основание кода стремятся к бесконечности. Если вместо флуктуационной помехи в канале действует сосредоточенная помеха, то пропускная способность канала увеличивается. Если имеют место искажения и замирания сигналов в канале, то отношение сигнал/шум падает, а это приводит к уменьшению пропускной способности каналов.

8. Энтропия и производительность источника, скорость передачи информации и пропускная способность канала, коэффициенты (5.83), (5.87) широко используют для согласования характеристик функциональных узлов различных информационных систем.

1
Оглавление
email@scask.ru