Передача информации. Статическая теория связи

  

Фано Р. Передача информации. Статическая теория связи. Под. ред. Р. Л. Добрушина. Перевод с англ. И. А. Овсеевича, М. С. Пинскера. М.: изд-во Мир, 1965 г. - 437 с.

В книге известного американского ученого Р. Фано систематически излагаются основы теории информации; наряду с основополагающими результатами шенноновской теории кодирования приводится ряд новых интересных данных. Подробно исследуются свойства основной меры информации, рассматриваются различные типы источников и каналов передачи информации, в первую очередь дискретные каналы без памяти и гауссовские каналы. Автор широко использует физическую интерпретацию изучаемого материала и приводит многочисленные примеры. Большое количество хорошо подобранных задач позволяет читателю закрепить полученные знания.

Книга предназначена для научных работников и инженеров, занимающихся теорией информации и теорией связи, а также для математиков, интересующихся приложениями своей науки. Она может служить учебным пособием для студентов и аспирантов соответствующих специальностей.



Оглавление

ПРЕДИСЛОВИЕ РЕДАКТОРА ПЕРЕВОДА
Глава 1. ПЕРЕДАЧА ИНФОРМАЦИИ
1.1. Модель системы связи
1.2. Цель системы связи
1.3. Кодирование и декодирование, относящиеся к источнику
1.4. Средства связи
1.5. Кодирование на входе и декодирование на выходе канала
1.6. Эффективность передачи, вероятность ошибки и сложность устройств
1.7. Краткое содержание и выводы
Глава 2. ИЗМЕРЕНИЕ ИНФОРМАЦИИ
2.2 Обзор основных определений
2.3. Измерение информации
2.4. Свойство аддитивности количества информации
2.5 Аксиоматическое введение количества информации
2.6. Количество собственной информации
2.7. Информация как случайная величина
2.8. Энтропия
2.9. Средняя взаимная информация
2.10. Обобщение количества взаимной информации на непрерывные пространства
2.11. Средняя взаимная информация и энтропия для непрерывных пространств
2.12. Взаимная информация между произвольным числом событий
2.13. Краткое содержание и выводы
Глава 3. АНСАМБЛИ ПРОСТЫХ СООБЩЕНИЙ
3.1. Нижняя граница для средней длины кодового слова
3.2. Иллюстративные примеры
3.3. Кодовое дерево для множества кодовых слов
3.4. Неравенство Крафта [2]
3.5. Основная теорема кодирования
3.6. Источники статистически независимых сообщений
3.7. Метод оптимального кодирования
3.8. Краткое содержание и выводы
Глава 4. ДИСКРЕТНЫЕ СЛУЧАЙНЫЕ ИСТОЧНИКИ
4.1. Дискретные случайные источники
4.2. Энтропия стационарного источника
4.3. Кодирование стационарных источников с управляемой скоростью
4.4. Среднее по ансамблю и среднее по последовательности
4.5. Эргодические источники
4.6. Кодирование статистически независимых событий, порождаемых источником с фиксированной скоростью
4.7. Кодирование эргодических источников с фиксированной скоростью
4.8. Марковские источники
4.9. Свойства непериодического марковского источника с конечным числом состояний
4.10. Свойства периодических марковских источников с конечным числом состояний
4.11. Пример
4.12. Кодирование марковских источников с управляемой скоростью
4.13. Краткое содержание и выводы
Глава 5. КАНАЛЫ СВЯЗИ
5.2. Дискретные постоянные каналы
5.3. Симметричные постоянные каналы
5.4. Выпуклость средней взаимной информации
5.5. Вычисление пропускной способности дискретных постоянных каналов
5.6. Непрерывные постоянные каналы с дискретным временем и аддитивным шумом
5.7. Временные функции с ограниченной полосой частот
5.8. Частотно-ограниченный канал с аддитивным, белым гауссовским шумом
5.9. Представление стационарных гауссовских процессов
5.10. Гауссовские каналы с непрерывным временем
5.11. Краткое содержание и выводы
Глава 6. КОДИРОВАНИЕ И ДЕКОДИРОВАНИЕ В КАНАЛЕ
6.2. Вероятность ошибки и ненадежность
6.3. Декодирование сигналов при белом гауссовском шуме
6.4. Корреляционное декодирование
6.5. Ортонормальные сигналы в белом гауссовском шуме
6.6. Обсуждение результатов
6.7. Краткое содержание и выводы
Глава 7. КОДИРОВАНИЕ В ДВОИЧНЫХ СИММЕТРИЧНЫХ КАНАЛАХ
7.1. Биномиальное распределение
7.2. Нижняя граница вероятности ошибки
7.3. Верхняя граница вероятности ошибки
7.4. Коды с проверкой на четность
7.5. Краткое содержание и выводы
Глава 8. ПОЛИНОМИАЛЬНЫЕ РАСПРЕДЕЛЕНИЯ
8.2. Перекос распределений вероятностей
8.3. Верхние границы полиномиальных функций распределения
8.4. Нижние границы полиномиальных слагаемых
8.5. Нижние границы для полиномиальной функции распределения
8.6. Краткое содержание и выводы
Глава 9. ИОДИРОВАНИЕ ДЛЯ ДИСНРЕТНЫХ ПОСТОЯННЫХ НАНАЛОВ
9.2. Нижняя граница вероятности ошибки
9.4. Оптимизация нижней границы
9.5. Случайное кодирование для дискретного постоянного канала
9.6. Вероятность ошибки для случайных кодов с фиксированной композицей
9.7. Вероятность ошибки для случайных кодов
9.8. Оптимизация входного распределения вероятностей
9.9. Краткое содержание и выводы
email@scask.ru