ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 26.07.2024

Просмотров: 381

Скачиваний: 0

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Если несколько независимых систем объединяют в одну, то их энтропии складывают. В этом выражается аддитивность энтропии.

Пример 6.4. Пусть для измерения величины x был использован прибор со шкалой от x1 до x2 (например, амперметр со шкалой от –50 А до +50 А). Абсолютная погрешность прибора принимается равной ± . Требуется определить количество информации, полученное в результате измерения.

Вероятностное описание ситуации до измерения состоит в том, что вероятность получить показания прибора в интервалах (− ∞; x1 ) и (x2 ; + ∞) равна

нулю, т.е. плотность распределения вероятностей p(x) в этих интервалах также

равна

нулю.

Следовательно, показание можно

 

ожидать

только в

 

интервале

[x1; x2 ] . Если предположить, что оно с равной вероятностью может принимать

любое значение из этого диапазона, то вероятностное описание ситуации до

измерения можно изобразить равномерным распределением x в пределах от x1 до

x2 (рис. 6.8) и записать в виде

 

 

 

 

 

 

 

 

 

 

 

 

p(x)

 

 

 

 

1 (x

2

x )

при

x [x ; x

2

];

 

 

 

 

 

p(x) =

 

1

при

1

 

 

1/(2

)

 

 

 

0

 

 

 

x [x1; x2 ].

 

2

 

 

Отсюда энтропия до

измерения согласно

 

 

 

 

 

 

 

 

 

 

 

(6.11)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x2

 

 

1

 

 

1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

H (x) = −

x

2

x ln x

2

x dx = ln(x2 x1) .

 

 

 

 

 

 

x

 

1

 

1

 

 

 

1/(x2

- x1)

 

 

1

 

 

 

 

 

 

 

 

 

 

 

Таким образом, до измерения интервал

 

 

 

 

 

x

0

x1

xи

x2

неопределенности

предстоящего отсчета

 

 

[x1; x2 ] , а энтропия есть логарифмическая

Рис. 6.8. Интервалы неопределен-

мера длины этого интервала.

ности x до и после измерения

После

проведения измерения мы

погрешности прибора, равной ±

получаем

отсчет xи. Однако вследствие

, можем лишь утверждать, что действительное

значение измеряемой величины лежит где-то в пределах интервала неопределенности d = 2 . Если прибор обладает погрешностью с равномерным распределением, то ситуация после измерения описывается распределением, показанным на рис. 6.8, с шириной d = 2 и плотностью p(x) =1(2 ) .

Таким образом, в понятиях теории информации смысл измерения состоит в

сужении интервала неопределенности от x2 x1 до измерения до d = 2 – после

измерения, т.е. в N раз

N = x22x1 .

Энтропия результата измерения после получения показания xи

x

+

1

 

1

 

H (x xи) = − и

ln

dx = ln(2 ),

2

2

xи

 

 

77


т. е. также является логарифмической мерой нового интервала неопределенности. Количество информации, полученное в результате измерения, равно разности

исходной и полученной после измерения энтропий, т. е.

 

I = H (x) H (x x

и

) = ln(x

2

x ) ln(2

) = ln

x2 x1

= ln N .

 

 

 

 

 

 

 

 

1

2

 

Число

N = (x2 x1 )

 

 

 

 

 

 

 

 

(2 )

показывает,

сколько

интервалов

неопределенности

d = 2

укладывается

во

всем диапазоне x2 x1 ,

т. е. какое

число различимых

градаций измеряемой величины позволяет получить данный прибор или метод измерения.

Энтропийный интервал неопределенности. Соотношения

I = ln N и

N =

x2 x1

d

 

 

справедливы при любом законе распределения погрешности, если только интервал неопределенности d будет найден через энтропию.

В этом случае величину N называют числом различимых градаций измеряемой величины, а число d энтропийным интервалом неопределенности результата измерения.

Основное достоинство информационного подхода к математическому описанию случайных погрешностей состоит в том, что размер энтропийного интервала неопределенности может быть вычислен строго математически для любого закона распределения погрешности как величина, стоящая под знаком логарифма в выражении для энтропии H (x xи) , устраняя тем самым исторически

сложившийся произвол при волевом назначении различных значений доверительной вероятности.

Пример 6.5. Определить энтропийный интервал неопределенности результата измерения при нормальном законе распределения погрешности

p(x) =

1

 

x2

 

 

exp

 

.

σ 2π

2σ2

 

 

 

Вычислим натуральный логарифм плотности распределения p(x) ln p(x) = −ln(σ 2π)x2 (2σ2 ).

Тогда энтропия погрешности равна

+∞

+∞

 

 

H (x xи) = − p(x)ln p(x)dx = p(x)[ln(σ 2π)+ x2 (2σ2 )]dx =

−∞

−∞

 

 

+∞

 

1

+∞

= ln(σ 2π)p(x)dx +

x2 p(x)dx .

2σ2

−∞

 

−∞

Учитывая, что

78


+∞

p(x)dx =1

−∞

и по определению дисперсии

+∞

 

 

x2 p(x)dx = σ2 ,

−∞

 

 

получаем

 

 

H (x xи) = ln(σ 2π)+

1

= ln(σ 2π)+ ln e = ln(σ 2πe),

 

2

 

т. е. интервал неопределенности, найденный через энтропию в соответствии с теорией информации, однозначно (без каких-либо предположений о выборе уровня доверительной вероятности) равен

d= σ 2πe 4,133σ,

ачисло различимых градаций результата измерения при равномерном распределении вероятности различных значений измеряемой величины

N = x2 dx1 = x42,133xσ1 .

Подобным же образом энтропийный интервал неопределенности результата измерения может быть однозначно найден для любого выраженного аналитически закона распределения погрешности. Например, при распределении погрешности по треугольному закону Симпсона

H (x xи) = ln(σ 6e ) и = σ 6 d4,04σ. e

Разделение диапазона x2 x1 на отдельные различимые градации на основе формальных положений теории информации в виде функционала (6.11) для энтропии представлено на рис. 6.9.

79


p(x)

 

 

 

 

x

x1

d

x2

p(x)

 

 

 

 

x

x1

d

x2

p(x)

 

 

x1

 

x

d

x2

Рис. 6.9. Разделение диапазона x2 x1

на отдельные различимые градации

Здесь диапазон x2 x1 разбит на интервалы длиной d, вычисленные указанным выше способом. Относительно центра каждого такого интервала, как начала координат, построена кривая соответствующего закона распределения погрешности: равномерного, треугольного и нормального. Отсюда видно, что следствие определения энтропии помехи состоит в том, что только при равномерном распределении погрешности границы интервалов неопределенности, логарифм числа которых есть количество получаемой при измерении информации I = ln N , совпадают с границами распределения погрешности, т. е. отдельные полосы погрешностей лишь соприкасаются между собой. При треугольном, а тем более при неограниченных распределениях интервалы неопределенности определяются лишь той частью распределения, где сосредоточена основная масса этих погрешностей.

Таким образом, то различие в интервалах неопределенности при равномерном распределении погрешности и при неограниченных распределениях погрешности, которое исторически пытались преодолеть назначением соответствующих значений доверительной вероятности, математически строго и наглядно описывается при использовании в теории погрешностей информационного подхода.

Энтропийное значение случайной погрешности. На практике при использовании изложенного информационного подхода для оценки точности результатов измерений оперируют не значением энтропийного интервала неопределенности результата измерения d, а величиной, равной половине этого

интервала, – энтропийным значением погрешности

э.

Энтропийным значением погрешности

э

называется значение с

равномерным распределением, которое оказывает такое же дезинформационное действие (или вносит такую же неопределенность), что и погрешность с заданным законом распределения.

80