ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 26.07.2024
Просмотров: 455
Скачиваний: 1
Если несколько независимых систем объединяют в одну, то их энтропии складывают. В этом выражается аддитивность энтропии.
Пример 6.4. Пусть для измерения величины x был использован прибор со шкалой от x1 до x2 (например, амперметр со шкалой от –50 А до +50 А). Абсолютная погрешность прибора принимается равной ± . Требуется определить количество информации, полученное в результате измерения.
Вероятностное описание ситуации до измерения состоит в том, что вероятность получить показания прибора в интервалах (− ∞; x1 ) и (x2 ; + ∞) равна
нулю, т.е. плотность распределения вероятностей p(x) в этих интервалах также |
|||||||||||||||
равна |
нулю. |
Следовательно, показание можно |
|
ожидать |
только в |
|
интервале |
||||||||
[x1; x2 ] . Если предположить, что оно с равной вероятностью может принимать |
|||||||||||||||
любое значение из этого диапазона, то вероятностное описание ситуации до |
|||||||||||||||
измерения можно изобразить равномерным распределением x в пределах от x1 до |
|||||||||||||||
x2 (рис. 6.8) и записать в виде |
|
|
|
|
|
|
|
|
|
|
|
||||
|
p(x) |
|
|
|
|
1 (x |
2 |
− x ) |
при |
x [x ; x |
2 |
]; |
|||
|
|
|
|
|
p(x) = |
|
1 |
при |
1 |
|
|||||
|
1/(2 |
) |
|
|
|
0 |
|
|
|
x [x1; x2 ]. |
|||||
|
2 |
|
|
Отсюда энтропия до |
измерения согласно |
||||||||||
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
(6.11) |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
x2 |
|
|
1 |
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
H (x) = − ∫ |
x |
2 |
− x ln x |
2 |
− x dx = ln(x2 − x1) . |
||||
|
|
|
|
|
|
x |
|
1 |
|
1 |
|
|
|||
|
1/(x2 |
- x1) |
|
|
1 |
|
|
|
|
|
|
|
|
||
|
|
|
Таким образом, до измерения интервал |
||||||||||||
|
|
|
|
|
x |
||||||||||
0 |
x1 |
xи |
x2 |
неопределенности |
предстоящего отсчета |
||||||||||
|
|||||||||||||||
|
[x1; x2 ] , а энтропия есть логарифмическая |
Рис. 6.8. Интервалы неопределен- |
мера длины этого интервала. |
|
ности x до и после измерения |
После |
проведения измерения мы |
погрешности прибора, равной ± |
получаем |
отсчет xи. Однако вследствие |
, можем лишь утверждать, что действительное |
значение измеряемой величины лежит где-то в пределах интервала неопределенности d = 2 . Если прибор обладает погрешностью с равномерным распределением, то ситуация после измерения описывается распределением, показанным на рис. 6.8, с шириной d = 2 и плотностью p(x) =1(2 ) .
Таким образом, в понятиях теории информации смысл измерения состоит в
сужении интервала неопределенности от x2 − x1 до измерения до d = 2 – после
измерения, т.е. в N раз
N = x22− x1 .
Энтропия результата измерения после получения показания xи
x |
+ |
1 |
|
1 |
|
|
H (x xи) = − и |
∫ |
ln |
dx = ln(2 ), |
|||
2 |
2 |
|||||
xи − |
|
|
77
т. е. также является логарифмической мерой нового интервала неопределенности. Количество информации, полученное в результате измерения, равно разности
исходной и полученной после измерения энтропий, т. е.
|
I = H (x) − H (x x |
и |
) = ln(x |
2 |
− x ) − ln(2 |
) = ln |
x2 − x1 |
= ln N . |
|||
|
|
||||||||||
|
|
|
|
|
|
1 |
2 |
|
|||
Число |
N = (x2 − x1 ) |
|
|
|
|
|
|
|
|
||
(2 ) |
показывает, |
сколько |
интервалов |
неопределенности |
|||||||
d = 2 |
укладывается |
во |
всем диапазоне x2 − x1 , |
т. е. какое |
число различимых |
градаций измеряемой величины позволяет получить данный прибор или метод измерения.
Энтропийный интервал неопределенности. Соотношения
I = ln N и |
N = |
x2 − x1 |
|
d |
|||
|
|
справедливы при любом законе распределения погрешности, если только интервал неопределенности d будет найден через энтропию.
В этом случае величину N называют числом различимых градаций измеряемой величины, а число d – энтропийным интервалом неопределенности результата измерения.
Основное достоинство информационного подхода к математическому описанию случайных погрешностей состоит в том, что размер энтропийного интервала неопределенности может быть вычислен строго математически для любого закона распределения погрешности как величина, стоящая под знаком логарифма в выражении для энтропии H (x xи) , устраняя тем самым исторически
сложившийся произвол при волевом назначении различных значений доверительной вероятности.
Пример 6.5. Определить энтропийный интервал неопределенности результата измерения при нормальном законе распределения погрешности
p(x) = |
1 |
|
x2 |
|
|
|
exp − |
|
. |
||
σ 2π |
2σ2 |
||||
|
|
|
Вычислим натуральный логарифм плотности распределения p(x) ln p(x) = −ln(σ 2π)− x2 (2σ2 ).
Тогда энтропия погрешности равна
+∞ |
+∞ |
|
|
|
H (x xи) = − ∫ p(x)ln p(x)dx = ∫ p(x)[ln(σ 2π)+ x2 (2σ2 )]dx = |
||||
−∞ |
−∞ |
|
|
|
+∞ |
|
1 |
+∞ |
|
= ln(σ 2π)∫ p(x)dx + |
∫ x2 p(x)dx . |
|||
2σ2 |
||||
−∞ |
|
−∞ |
Учитывая, что
78
+∞
∫ p(x)dx =1
−∞
и по определению дисперсии
+∞ |
|
|
∫ x2 p(x)dx = σ2 , |
||
−∞ |
|
|
получаем |
|
|
H (x xи) = ln(σ 2π)+ |
1 |
= ln(σ 2π)+ ln e = ln(σ 2πe), |
|
2 |
|
т. е. интервал неопределенности, найденный через энтропию в соответствии с теорией информации, однозначно (без каких-либо предположений о выборе уровня доверительной вероятности) равен
d= σ 2πe ≈ 4,133σ,
ачисло различимых градаций результата измерения при равномерном распределении вероятности различных значений измеряемой величины
N = x2 d− x1 = x42,133− xσ1 .
Подобным же образом энтропийный интервал неопределенности результата измерения может быть однозначно найден для любого выраженного аналитически закона распределения погрешности. Например, при распределении погрешности по треугольному закону Симпсона
H (x xи) = ln(σ 6e ) и = σ 6 ≈d4,04σ. e
Разделение диапазона x2 – x1 на отдельные различимые градации на основе формальных положений теории информации в виде функционала (6.11) для энтропии представлено на рис. 6.9.
79
p(x) |
|
|
|
|
x |
x1 |
d |
x2 |
p(x) |
|
|
|
|
x |
x1 |
d |
x2 |
p(x) |
|
|
x1 |
|
x |
d |
x2 |
|
Рис. 6.9. Разделение диапазона x2 – x1 |
||
на отдельные различимые градации |
Здесь диапазон x2 – x1 разбит на интервалы длиной d, вычисленные указанным выше способом. Относительно центра каждого такого интервала, как начала координат, построена кривая соответствующего закона распределения погрешности: равномерного, треугольного и нормального. Отсюда видно, что следствие определения энтропии помехи состоит в том, что только при равномерном распределении погрешности границы интервалов неопределенности, логарифм числа которых есть количество получаемой при измерении информации I = ln N , совпадают с границами распределения погрешности, т. е. отдельные полосы погрешностей лишь соприкасаются между собой. При треугольном, а тем более при неограниченных распределениях интервалы неопределенности определяются лишь той частью распределения, где сосредоточена основная масса этих погрешностей.
Таким образом, то различие в интервалах неопределенности при равномерном распределении погрешности и при неограниченных распределениях погрешности, которое исторически пытались преодолеть назначением соответствующих значений доверительной вероятности, математически строго и наглядно описывается при использовании в теории погрешностей информационного подхода.
Энтропийное значение случайной погрешности. На практике при использовании изложенного информационного подхода для оценки точности результатов измерений оперируют не значением энтропийного интервала неопределенности результата измерения d, а величиной, равной половине этого
интервала, – энтропийным значением погрешности |
э. |
|
Энтропийным значением погрешности |
э |
называется значение с |
равномерным распределением, которое оказывает такое же дезинформационное действие (или вносит такую же неопределенность), что и погрешность с заданным законом распределения.
80