Главная > Теория информации и надежная связь
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

3.1. КОДЫ С ФИКСИРОВАННОЙ ДЛИНОЙ

Обозначим через последовательность последовательных букв дискретного источника. Каждая буква выбирается из алфавита таким образом, имеются различных последовательностей длины которые могут появляться на выходе источника. Предположим, что нужно закодировать эти последовательности в слова кода с фиксированной длиной. Если кодовый алфавит состоит из символов и если длина каждого кодового слова равна то существуют различных последовательностей кодовых букв, которые могут быть рассмотрены как кодовые слова. Следовательно, если нужно сопоставить различные кодовые слова разным последовательностям источника (это необходимо сделать, если требуется восстановить каждую возможную последовательность источника по ее кодовому слову), то получаем

Таким образом, для кодов с фиксированной длиной всегда, когда требуется декодировать последовательность источника по кодовому слову, необходимо иметь по меньшей мере кодовых букв на одну букву источника. Так, например, в случае телетайпа источник

имеет алфавит из символов (26 английских букв и 6 специальных символов). Кодируя одну букву источника в буквы двоичного кода нужно иметь двоичных символов на один символ источника для того, чтобы удовлетворить условию (3.1.1).

Если мы хотим использовать меньше чем кодовых букв на один символ источника, то, очевидно, нужно ослабить требование того, чтобы всегда было возможно декодировать последовательность источника по кодовой последовательности. Отсюда следует, что мы должны приписать кодовые слова только некоторому подмножеству последовательностей источника длины Далее будет показано, что для достаточно больших вероятность получения последовательности источника, которая не соответствует никакому слову, может быть сделана произвольно малой и в то же самое время число кодовых букв на один символ источника может быть сделано сколь угодно близким к

Для источника без памяти вероятность данной последовательности из букв источника равна произведению вероятностей отдельных букв источника

В этом равенстве каждая буква выбирается из алфавита с вероятностью Так, например, если источник имеет алфавит из двух букв то вероятность последовательности при равна Собственная информация последовательности имеет вид

Каждая буква представляет собой статистически независимую выборку для одного и того же источника и, следовательно, (3.1.2) утверждает, что является суммой независимых одинаково распределенных случайных величин. Так как среднее значение каждой из случайных величин является энтропией источника то из закона больших чисел следует, что, если велико, то будет с большой вероятностью близко к

Символ в равенстве (3.1.3) используется как для того, чтобы показать приближенность равенства, так и для того, чтобы подчеркнуть, что мы не хотим указать точный смысл этого приближения. В начале

рассмотрим следствия равенства (3.1.3), а затем возвратимся, чтобы дать необходимые математические уточнения. Из (3.1.3) имеем

Здесь и до конца этой главы все энтропии будут выражаться в битах, т. е. будут определены логарифмами с основанием 2. Из равенства (3.1.5) вероятность любой типичной достаточно длинной последовательности источника длины в некотором смысле приближенно равна следовательно, число таких типичных последовательностей должно быть приближенно равно

Если требуется сопоставить двоичные кодовые слова всем этим типичным последовательностям, то следует отметить, что имеется различных двоичных последовательностей и, следовательно, требуется, чтобы N было приближенно равно для того, чтобы представить все типичные последовательности источника.

Приведенные эвристические соображения дают три различных толкования энтропии источника; одно с помощью вероятности типичных длинных последовательностей источника; другое с помощью числа типичных длинных последовательностей источника и третье с помощью числа двоичных символов, требуемых для представления типичных последовательностей источника. Эти эвристические идеи очень полезны для получения простой картины поведения источников, и они легко обобщаются на источники, в которых имеется статистическая зависимость между последовательными буквами. Однако до того как развить эти идеи, необходимо привести ряд уточнений.

Как было показано, является суммой независимых одинаково распределенных случайных величин, каждая из которых имеет конечное математическое ожидание Закон больших чисел утверждает при этом, что для любого существует такое что

и

Это означает, что вероятность того, что выборочное среднее отличается от более чем на произвольную фиксированную

величину стремится к нулю при увеличении Для некоторых заданных пусть множество последовательностей для которых

Это множество ранее мы называли множеством типичных последовательностей; из (3.1.7) получаем

Преобразуя (3.1.9), получаем для

Можно ограничить число последовательностей в заметив, что

Отсюда, используя (3.1.12) в качестве нижней границы для принадлежащих получаем

Точно так же, используя (3.1.10), получаем

и, используя (3.1.12) в качестве верхней границы для принадлежащих находим

Неравенства дают точные утверждения, соответствующие (3.1.5) и (3.1.6).

Предположим далее, что требуется закодировать последовательности источника в последовательности длины представляющие собой кодовые слова с алфавитом из букв. Будем отображать только одну последовательность источника сообщений в каждую кодовую последовательность, при этом часто будут возникать последовательности из множества последовательностей сообщения, которым не будет сопоставлено никакое кодовое слово. Определим вероятность ошибки как вероятность множества, которому не сопоставлены кодовые слова. Выберем вначале так, чтобы удовлетворить неравенству

Тогда из (3.1.13) следует, что общее число кодовых слов больше, чем и можно сопоставить кодовые слова всем принадлежащим Используя этот метод, получаем

Если теперь считать, что достаточно велико и, одновременно увеличивая удовлетворить то можно увидеть из (3.1.8) и (3.1.16), что стремится к 0 при любом Покажем теперь, что, если фиксировать равным любому числу, меньшему то вероятность ошибки должна стремиться к 1 при стремящемся к Выберем теперь N так, чтобы

Таким образом, число кодовых слов не больше чем Так как любая последовательность из Т имеет вероятность, не большую чем то полная вероятность последовательностей, принадлежащих которым можно сопоставить кодовые слова, не больше чем Можно было бы также сопоставить кодовые слова некоторым последовательностям источника, не принадлежащим множеству в частности тем, которые имеют большую вероятность. Вместе с тем общая вероятность последовательностей, не принадлежащих не больше Следовательно, вероятность множества всех последовательностей, принадлежащих и не принадлежащих которым могут быть сопоставлены кодовые слова, ограничена сверху в случае, если удовлетворяется (3.1.7), следующим образом:

Таким образом, если то должна стремиться к 1 при любом Можно подытожить эти результаты следующей фундаментальной теоремой.

Теорема 3.1.1. (Теорема кодирования для источника.) Пусть дискретный источник без памяти имеет конечную энтропию Рассмотрим кодирование последовательностей из букв источника в последовательности из N кодовых букв, принадлежащих кодовому алфавиту объема Каждой кодовой последовательности может быть сопоставлена только одна последовательность источника. Пусть вероятность появления последовательности источника, которой не сопоставлена никакая кодовая последовательность. Тогда, если при каком-либо

то можно сделать произвольно малой, выбирая достаточно большим. Обратно, если

то становится сколь угодно близкой к 1, когда становится достаточно большим.

Теореме 3.1.1 можно дать очень простое и полезное эвристическое толкование. Так как кодовые слова дают попросту другое представление вероятных последовательностей источника, то они должны иметь в точности такую же энтропию, как последовательности источника.

Кроме того, как было показано в гл. представляет собой наибольшую энтропию на одну букву, которой может обладать последовательность букв алфавита объема такая энтропия возникает, когда буквы равновероятны и статистически независимы. Теорема 3.1.1 утверждает, таким образом, что можно закодировать буквы произвольного дискретного источника без памяти так, что энтропия кодовых букв будет, по существу, максимальной.

В интерпретации этой теоремы можно представлять себе как общее число сообщений, которые выходят из источника во время его работы, и представлять себе N как общее число кодовых букв, которые мы пожелали использовать для представления источника. Затем любой метод може быть использован для кодирования и теорема утверждает, что является наименьшим числом кодовых букв на одну букву источника, которые можно использовать, чтобы все еще представлять источник с высокой вероятностью. То, что такое кодирование последовательностей фиксированной длины в последовательности фиксированной длины при очень больших длинах является довольно непрактичным, несущественно для рассматриваемого общего толкования.

1
Оглавление
email@scask.ru