Главная > Прикладная статистика: Исследование зависимостей
НАПИШУ ВСЁ ЧТО ЗАДАЛИ
СЕКРЕТНЫЙ БОТ В ТЕЛЕГЕ
<< Предыдущий параграф Следующий параграф >>
Пред.
След.
Макеты страниц

Распознанный текст, спецсимволы и формулы могут содержать ошибки, поэтому с корректным вариантом рекомендуем ознакомиться на отсканированных изображениях учебника выше

Также, советуем воспользоваться поиском по сайту, мы уверены, что вы сможете найти больше информации по нужной Вам тематике

ДЛЯ СТУДЕНТОВ И ШКОЛЬНИКОВ ЕСТЬ
ZADANIA.TO

3.1.4. Меры связи между строками и столбцами таблицы.

Если связь, обнаруживающаяся при проверке гипотез независимости или однородности, оказывается значимой, то полезно иметь численную меру ее. Хотя величина дает нам удобный критерий значимости связи, она не может служить мерой связи. Так, если оставить неизменными все относительные величины в таблице и увеличивать общее число измерений , то величина будет расти пропорционально . Предложено много различных мер связи [23], но наиболее известными среди них являются меры, основанные на отношении — квадратный корень из среднего квадрата сопряженности:

— коэффициент сопряженности;

— мера связи Чупрова.

Наряду с ними практический интерес представляют информационные меры связи. Прежде чем переходить к ним, введем понятие энтропии случайной величины и информации, содержащейся в одной случайной величине относительно другой случайной величины.

Пусть случайная величина принимает конечное число значений с вероятностями, соответственно равными тогда

называют энтропией и рассматривают в качестве меры неопределенности Энтропия обладает следующими свойствами:

1) , причем равенство достигается тогда и только тогда, когда принимает только одно значение;

2) не меняется при взаимно-однозначных преобразованиях

3) максимально, когда все возможные значения равновероятны.

По аналогии с определяются энтропия распределения пары случайных величин и условная энтропия:

Основные свойства :

1)

2)

3) , причем равенство достигается тогда и только тогда, когда статистически независимы. Основные свойства :

1) , причем равенство достигается тогда и только тогда, когда статистически независимы.

Информационная мера зависимости определяется как

Про говорят, что она измеряет количество информации в относительно или количество информации в относительно Основные свойства легко следуют из свойств

1) причем равенство достигается тогда и только тогда, когда статистически независимы;

2)

При анализе таблиц сопряженности используют направленные меры связи:

Коэффициенты С заключены в пределах между 0 и 1 и по своим свойствам во многом аналогичны обычным коэффициентам корреляции. Они равны нулю, когда переменные и статистически независимы; равно 1, когда I однозначно определяется по они не меняются при взаимнооднозначных преобразованиях переменных.

Пример 3.1. Пусть взаимное распределение задано с помощью табл. 3.1.

Тогда

Таблица 3.1

1
Оглавление
email@scask.ru