Пред.
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 233 234 235 236 237 238 239 240 241 242 243 244 245 246 247 248 249 250 251 252 253 254 255 256 257 258 259 260 261 262 263 264 265 266 267 268 269 270 След.
Макеты страниц
Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO
5.9. ВЫВОДЫ1. Основными информационными характеристиками источников дискретных сообщений являются энтропия, условная энтропия, производительность и избыточность. Энтропия — это среднее количество информации, приходящееся на один символ сообщения. Если символы сообщения коррелированы, то энтропия уменьшается. Чтобы это учесть, вводят понятие условной энтропии. Она характеризует среднее количество информации, которое несет последующий символ сообщения при условии, что уже известен ряд предыдущих символов. Корреляционные связи и неравномерность распределения вероятностей появления символов характеризует избыточность источника — отношение количества информации, теряемой из-за воздействия этих факторов, к максимальному количеству информации, которое несет один символ. 2. Основными информационными характеристиками дискретных каналов являются скорость передачи информации, пропускная способность и коэффициент использования. Если помехи в канале отсутствуют, скорость передачи информации равна производительности кодера. Пропускной способностью канала без шумов называют максимальную скорость передачи информации при фиксированных условиях передачи и приема сигналов. Степень согласования источника с каналом характеризуют отношением; скорости передачи информации к пропускной способности канала, называемым коэффициентом использования канала. Среднее количество принятой информации определяют как разность среднего количества переданной информации и среднего, количества информации, потерянной в канале из-за помех. Скорость передачи информации и пропускную способность каналов: с шумами определяют через среднее количество принятой в единицу времени информации. Пропускная способность дискретных каналов с Сумами полностью определяется скоростью передачи кодовых символов, вероятностью появления ошибки при передаче одного символа и основанием кода. Влияние помех проявляется в том, что для обеспечения сколь угодно малой вероятности ошибки необходимо увеличивать избыточность кода. 3. Сущность оптимального эффективного кодирования заключается в том, что разрабатывают такие коды, которые позволяют перевести неравномерное распределение вероятностей коррелированных символов в равномерное распределение вероятностей появления независимых кодовых символов. Конечная цель оптимального кодирования — приблизить скорость передачи информации к пропускной способности канала. Наличие шумов в канале приводит к тому, что эффективность оптимального кодирования падает. Кодирование сообщений дискретных источников с памятью выполняют в два этапа: на первом устраняют корреляцию символов первичного алфавита, на (втором -выравнивают распределение вероятностей появления независимых кодовых символов. Эффективное оптимальное кодирование полезно для тех реальных каналов, в которых отношение сигнал/шум значительно превышает единицу. 4. Основными информационными характеристиками источников непрерывных сообщений являются энтропия, условная энтропия, эпсилон-энтропия, эпсилон-производительность, избыточность и объем информации. Формулу для энтропии источника непрерывных сообщений получают из формулы для энтропии источника дискретных сообщений путем предельного перехода. Среди всех источников с ограниченной и одинаковой мощностью сигналов наибольшей энтропией обладает источник с гауссовскими сигналами. Энтропия гауссовского белого шума является максимальной в классе гауссовских непрерывных сигналов. Поэтому помеха типа «гауссовский белый шум» является наиболее тяжелой и ее часто используют для оценки качества связи в наихудшем случае. Отсюда же следует целесообразность применения сигналов-переносчиков, по свойствам близких к гауссовскому белому шуму. Понятие эпсилон-энтропии вводят потому, что невозможно передать непрерывный сигнал абсолютно точно. Эпсилон-энтропия характеризует то среднее количество информации в одном независимом отсчете непрерывного случайного процесса, которое необходимо для воспроизведения этого процесса с заданной среднеквадратической погрешностью. Максимального значения эпсилон-энтропия достигает для гауссовских процессов. Эпсилон-производительность определяют как произведение средней скорости выдачи отсчетов на эпсилон-энтропию одного отсчета. Максимальный объем информации, выданной источником за время существования сигнала, равен произведению максимальной эпсилон-производительности на длительность сигнала. Избыточность источника характеризуют формулой (5.75). 5. Основными информационными характеристиками непрерывных каналов, как и дискретных, являются скорость передачи информации, пропускная способность и коэффициент использования. Пропускная способность гауссова непрерывного канала определяется его полосой пропускания и отношением сигнал/шум в канале. Чем шире спектр сигнала при прочих равных условиях, тем ближе пропускная способность канала к предельному значению. Поэтому целесообразно применять широкополосные (шумоподобные) сигналы-переносчики. 6. Предельные возможности согласования источников с каналами определены в теоремах кодирования Шеннона. Сущность этих теорем в том, что существуют способы оптимального кодирования, при которых вероятности ошибки (или для непрерывных сообщений среднеквадрагические отклонения принятых сигналов от переданных) будут сколь угодно малы, если производительность источника меньше пропускной способности канала. Под. оптимальным кодированием непрерывных сообщений в (непрерывные сигналы понимают аналоговую модуляцию (см. § 3.1). Эффективность использования дискретными и непрерывными источниками пропускной способности непрерывного канала характеризуют коэффициентами (5.83), (5.87). 7. Сравнение пропускных способностей дискретного и «непрерывного каналов показывает, что пропускная способность дискретного канала всегда меньше или равна пропускной способности соответствующего непрерывного канала. Равенство имеет место только тогда, когда и отношение сигнал/шум, и основание кода стремятся к бесконечности. Если вместо флуктуационной помехи в канале действует сосредоточенная помеха, то пропускная способность канала увеличивается. Если имеют место искажения и замирания сигналов в канале, то отношение сигнал/шум падает, а это приводит к уменьшению пропускной способности каналов. 8. Энтропия и производительность источника, скорость передачи информации и пропускная способность канала, коэффициенты (5.83), (5.87) широко используют для согласования характеристик функциональных узлов различных информационных систем.
|
1 |
Оглавление
|