Главная > Прикладная теория цифровых автоматов
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

1.2. КОЛИЧЕСТВО ИНФОРМАЦИИ И ЭНТРОПИЯ

Известны информационные меры оценки информации; структурная, статистическая, семантическая, каждая из которых имеет свои области применения для качественной и количественной оценки информационных систем. Необходимость в оценке информации по различным морам приводит и к различным способам ее оценки. В простейшем случае информация может оцениваться количеством букв, слов, цифр, физических сигналов. Однако такая оценка основана на статистическом учете информации без оценки ее ценности и смысла.

Например, преподаватель может кончить лекцию по звонку или посмотрев на часы. Другими словами, есть два способа передачи информации о конце лекции: с помощью звукового сигнала и с помощью часов; а также две формы сообщений: звуковой сигнал и показание времени на часах. В обоих случаях количество информации, полученное преподавателем, — одно и то же. От чего же зависит количество информации? Пусть необходимо передать информацию о месте расположения некоторой фигуры на шахматной доске. Решим задачу двумя способами:

присвоим каждой клетке доски номер, тогда для определения местонахождения фигуры нужно передать только номер клетки доски;

пронумеруем вертикали и горизонтали доски, тогда для определения местонахождения фигуры нужно передать номер вертикали и номер горизонтали.

Количество информации, передаваемое в обоих случаях, одинаково — мы определяем местонахождение фигуры, способы передачи информации — разные. Следовательно, количество информации не зависит от способа ее передачи. Длина сообщения в рассматриваемых способах передачи информации также различна. В первом случае передается одна цифра, соответствующая номеру клетки доски, во

втором — уже две цифры (номер вертикали и номер горизонтали). Следовательно, количество информации не зависит от длины сообщения. Вместе с тем, количество информации зависит от числа передаваемых сообщений. Действительно, чем большее число координат фигур мы передаем, тем полнее узнаем ситуацию на шахматной доске.

Фраза «Лекция окончена. Можно идти домой» потенциально может содержать большее количество информации, чем, например, фраза «Завтра конец света», так как первая фраза передается большим числом сообщений. Здесь нельзя путать термины количество информации и ценность. Теория информации не занимается определением ценности информации.

Таким образом, количество информации зависит от числа передаваемых сообщений, если каждое из них снижает содержательную неопределенность.

При использовании структурных мер оценки информации различают! геометрические, комбинаторные, аддитивные меры информации.

Геометрические меры информации — это длина, площадь, объем геометрической модели в количестве неделимых частей информации. Геометрическую меру информации можно применить как для оценки информационной емкости всего информационного комплекса, так и для оценки количества информации, содержащейся в одном сообщении. !

Комбинаторную меру применяют при оценке возможности передачи информации с помощью различных комбинаций информационных элементов, а количество информации вычисляют как количество комбинаций элементов.

Количество информации I при применении комбинаторной меры заключается не в простом подсчете количества неделимых частей информации, как при оценке геометрической меры, а в определении количества возможных или существующих комбинаций! сочетаний из элементов по

перестановок

размещений о повторениями из элементов по

Наибольшее распространение получила двоичная мера Хартли.

Пусть — число сообщений, — длина сообщения, число элементов некоторого кода, используемого для передачи сообщений. Очевидно, что Число М, а следовательно, и количество информации находятся в экспоненциальной зависимости от длины сообщения. Поэтому неудобно использовать как меру количества информации. В качестве меры количества информации Р. Хартли предложил использовать величину вычисляемую соотношением (основание логарифма зависит от выбираемой единицы количества информации).

Если для кодирования информации использовать двоичные символы 0 и 1, то . В этом случае удобно в качестве основания логарифма взять число 2, так как т. е.

При это количество информации принято считать единицей количества информации и называть битом. Передача сообщений длиной эквивалентна выбору одного из двух возможных равновероятных сообщений. Одно из них кодируется нулем, другое — единицей.

Пример. Какое количество информации нужно затратить для выбора одной из

8 равновероятностных букв? Фактически передается 8 сообщений, т. е. Поэтому бит/символ. Полученная величина является длиной сообщения при двоичном кодировании буквы. Действительно, 8 различных букв можно закодировать, например, используя следующие комбинации двоичных символов:

Пример. Текст составлен из 32 букв русского алфавита и передается по телетайпу в двоичном коде (т. е. используя только символы 0 и 1). Чему равно количество информации, приходящееся на одну принятую букву?

Очевидно, Следовательно,

Пример, Текст, составленный из 15 букв некоторого алфавита, передается по телетайпу в двоичном коде. Чему равно количество информации, приходящееся на одну букву?

Из последнего примера следует, что если число передаваемых символов алфавита является одним из чисел степенного ряда 2, то количество информации не равно целой степени двойки и вычисляется как двоичный логарифм данного числа. При этом следует отметить, что все сказанное выше справедливо для независимых равновероятных событий.

В статистической теории информации, когда приемником информации является цифровой автомат, классическим подходом к оценке количества информации является вероятностный.

При вероятностном подходе информация рассматривается как сообщение об исходе случайных событий, а количество информации ставится в зависимость от априорных вероятностей этих событий.

Действительно, предположим, имеется алфавит из букв а вероятность выбора любой буквы заведомо одинакова и равна Тогда т. е. количество информации о выборе той или иной буквы тем больше, чем меньше вероятность выбора буквы. Если выбранные буквы как бы возвращать назад, то вероятности их появления будут оставаться равными (количество информации не изменяется), но если буквы не возвращать, то вероятность появления нужной буквы будет расти (количество информации, получаемое пользователем о появлении нужной буквы, падает). В предельном случае, если остается одна буква, так как заведомо известно, что именно эта буква появится.

Если же имеет место сложное событие, состоящее, например, из двух независимых событий с вероятностями появления то вероятность его появления, как известно, можно оценить по формуле Количество информации в сообщении, содержащем совокупность событий будет равно

Выражение характеризует количество информации, содержащееся в сообщении Оно характеризует также априорную неопределенность этого сообщения. В связи с этим указанное выражение может быть использовано для количественной оценки неопределенности сообщения: называемое частной энтропией. Количество информации и неопределенность для всей совокупности случайных сообщений X можно получить усреднением но всем событиям;

Зависимости для выражают соответственно среднее количество информации и энтропии на одно сообщение. Термин «энтропия» заимствован из термодинамики, где аналогичное выражение характеризует среднюю неопределенность состояния системы молекул.

Несмотря на совпадение выражений для , понятия количество информации и энтропия принципиально различны. Н (X), выражающая среднюю неопределенность состояния источника сообщений, может быть вычислена априорно, т. е. до получения сообщения. Величина же определяется апостериорно, т. е. после получения сообщений. Н (X) есть мера недостатка информации о состоянии системы. С поступлением информации о состоянии системы энтропия последней снижается. Совпадение выражений для свидетельствует лишь о том, что количество получаемой информации равно численно энтропии, которая имела место относительно источника сообщений. На рассмотренной взаимосвязи количества информации о энтропией проявляется известный диалектический закон единства и борьбы противоположностей, так как информация рассматривается в связи со своей противоположностью — энтропией — и, с другой стороны, рассматривается как мера уничтожения, т. е. снятия энтропии.

Количество информации только тогда равно энтропии, когда неопределенность ситуации снимается полностью. Наибольшее количество информации получается тогда, когда вероятности всех событий одинаковы и при этом снимается неопределенность. По Хартли это максимальное количество информации оценивается как

Абсолютная избыточность информации а относительная избыточность определяется из выражения

Рассмотренные структурная и статистическая оценки информации относятся к синтаксическому аспекту. Семантические меры

информации служат для понимания смысла информации приемником, как правило, человеком. К семантическим мерам информации относятся! целесообразность, динамическая энтропия, существенность информации.

1
Оглавление
email@scask.ru