Главная > Хаотические колебания
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

ИНФОРМАЦИОННАЯ РАЗМЕРНОСТЬ

Многие исследователи предлагали другое определение фрактальной размерности, аналогичное емкости (6.1.2), но учитывающее в той или иной форме частоту, с которой траектория попадает в элемент разбиения — сферу или куб. Как и в случае емкости, устраивают покрытие множества точек, размерность которого требуется определить, N кубами с ребром длины е. В свою очередь множество точек рассматривается как равномерная дискретизация непрерывной траектории. (Предполагается, что траектория выбрана достаточно длинная и что она эффективно покрывает аттрактор, размерность которого подлежит измерению. Например, если движение квазипериодическое, то траекторию следует рассматривать на достаточно продолжительном временном интервале, чтобы она успела «посетить» все области на тороидальной поверхности аттрактора.)

Для вычисления информационной размерности мы находим число точек N, в каждой из N ячеек покрытия и оцениваем вероятность Р найти точку в ячейке:

(6.2.7)

где — общее число точек в множестве.

Подчеркнем, что

Информационная энтропия определяется выражением

(6.2.8)

[Если логарифм берется по основанию 2, то измеряется в единицах, которые называются битами.] Известно, что при малых информационная энтропия ведет себя как

поэтому при малых информационную размерность можно определить как

(6.2.5)

Информационная размерность связана с емкостью. Убедиться в этом мы можем, заметив, что если бы вероятности были равны для всех ячеек, т. е. если бы выполнялось соотношение

то

и . Можно показать [36], что в общем случае

(6.2.11)

Более подробный анализ понятия информационной размерности можно найти в работах Фармера и др. [36], Грассбергера и Прокачча [4"] и Шоу [171].

Мерой непредсказуемости в системе служит информационная энтропия. Иначе говоря, в случае, когда все ячейки равновероятны, или величина максимальна. Если же все точки сосредоточены в одной ячейке (максимальная предсказуемость), то . В этом нетрудно убедиться с помощью вычислений. Действительно,

Определение (6.2.8) и обозначение приводят к путанице в литературе. Шоу [171] использует символ Я для обозначения энтропии и символ для обозначения негэнтропии , или информации. По Шоу, более предсказуемая система (с более «острым» — менее расплывшимся — распределением вероятности ) обладает большей информацией.

1
Оглавление
email@scask.ru