Файл: КОНСТРУИРОВАНИЕ И ТЕХНОЛОГИЯ ПРОИЗВОДСТВА ПРИБОРОВ И АППАРАТОВ Учебник В трех частях Часть 2. Инженерное творчество (Оленев).pdf
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 05.04.2024
Просмотров: 144
Скачиваний: 1
Таким образом, почерпнув все необходимые сведения из результатов патентных исследований, приступают к следующему этапу проектирования – функциональному.
5.2. Учет необходимых и достаточных условий при использовании информации
Прежде чем приступить к функциональному проектированию на ин- формационно-логическом уровне, следует сначала обдумать вид и количество информации, необходимой и достаточной для нормального качественного функционирования объекта. Следует при этом помнить, что любая информация нужна нам в конечном счете, для управления, а поэтому она должна находить отклик в выработке управляющих воздействий. Например, какой смысл измерять температуру человеческого тела с точностью до 0,01 или 0,001 °С, если никаких ответных действий на это не последует?!
Более того, у каждого объекта существует разброс исходных данных, т.е. так называемая диффузность, в соответствии с которой эти данные случайным образом разнятся между собой. Поэтому разброс исходных данных исследуемого явления складывается из диффузности объекта, погрешности адекватной модели и погрешности средств измерения. При погрешности средств измерений много меньшей диффузности объекта измерений точность измерений не может быть повышена использованием более точных средств измерений. Наоборот, эффективность измерений, их воспроизводимость от опыта к опыту может быть достигнута за счет снижения точности средств измерений. При этом получаемая информация будет меньшего объема, что благоприятно скажется на ее последующей обработке и хранении.
Описание любого реального физического процесса, явления, системы или объекта связано, как правило, с объективно присутствующими при этом неопределенностями, обусловленными неточностью информации, погрешностями прогнозирования и непредсказуемостью влияния внешней среды, в которой эти объекты функционируют. Любое сообщение, с которым мы имеем дело в теории информации, является совокупностью сведений, описывающих состояние некой физической системы. Эта система случайным образом может оказаться в одном из возможных, присущих ей состояний, поэтому обладает неопределенностью Х. Очевидно, сведения, полученные о системе, будут тем ценнее, чем больше априори (до получе26
ния сведений) была неопределенность системы. Поскольку, если бы состояние системы было известно, то никакой ценной информации из сообщения мы бы не получили.
В качестве меры энтропийной неопределенности системы в теории информации применяется характеристика, которая называется энтропией. Энтропия системы – сумма произведений вероятностей различных состояний системы на логарифмы этих вероятностей, взятая с обратным знаком:
Н(Х )= −∑n рi log pi ,
i=1
где Н(Х) – энтропия; рi – вероятность того, что система примет i-е состояние; n – число возможных состояний.
Согласно К. Шеннону, количество информации I определяется как разность энтропий:
I = H (X )− H (X Y ),
где H(X) – энтропия системы до получения сведений (априори); Н(Х/Y) – энтропия Х при условии Y . Под Y может также пониматься некоторая другая система, связанная с системой Х и отображающая ее).
До получения сведений энтропия системы Х была Н(Х), после получения сведений остаточная энтропия
стала Н(Х/Y), а их разность, т.е. уничтоженная благодаря полученным сведениям энтропия, и есть количество полученной информации. Поэтому смысл получения информации (в понятиях теории информации) состоит в сужении интервала неопределенности.
Представим, что случайная ве- |
|
личина х может принимать значения |
Рис. 5.1. Изменение интервала |
от Х1 до Х2. Если принять, что слу- |
неопределенности случайной величины |
чайная величина с равной вероятно- |
|
стью может оказаться в любом месте этого диапазона, то функция плотно-
сти распределения случайной величины равна р(х)= Х2 1− Х1 (рис. 5.1). В
результате измерения было получено значение этой величины, равное Хи ± , вследствие погрешности ±Δ средства измерения. Если средство из-
27
мерения обладает погрешностью с равномерным распределением, то после измерения функция плотности будет равна р(х)= 21 . Поскольку величина
2 меньше значения (Х2 – Х1 ), то получилось сужение интервала неопределенности от (Х2 – Х1) до 2 . Следует заметить, что единицы энтропии и количества информации одни и те же, но их численное значение зависит от основания используемых логарифмов. При интегрировании и дифференцировании удобнее использовать натуральные логарифмы, и тогда энтропия и количество информации получаются в натуральных единицах – нитах. При использовании десятичных логарифмов информация измеряется в десятичных единицах – дитах, а при использовании двоичных логарифмов – в двоичных единицах (битах). Между указанными единицами легко установить соотношение: 1 бит = 0,69 нит = 0,3 дит.
Таким образом, энтропия Н(Х) до измерения была равна
Н(Х)= − |
Х2 |
|
|
1 |
|
|
|
|
|
|
1 |
|
|
dx = ln(Х2 − Х1 ), |
||||||
∫ |
|
|
|
|
ln |
|
|
|
|
|
||||||||||
Х |
2 |
− Х |
1 |
Х |
2 |
− Х |
1 |
|||||||||||||
|
|
|
|
|
|
|
||||||||||||||
|
Х1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
а после измерения стала |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
Н(Х / Хи )= − |
Хи+ |
|
|
1 |
|
ln |
|
1 |
dx = ln2 . |
|
|
|||||||||
|
∫ |
2 |
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
||||||
|
|
|
|
|
|
Хи− |
|
|
|
|
|
|
|
|
|
|
|
|
||
Тогда количество информации, полученное в результате измерения, |
||||||||||||||||||||
выразится |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
X 2 − X1 |
|
|
I = Н(Х)− Н(Х / Хи )= ln(X 2 |
− X1 )−ln2 = ln |
|
. |
|||||||||||||||||
|
2 |
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Чем точнее средство измерения, тем меньше будет значение 2 и тем большее мы получим количество информации, которое придется обрабатывать и хранить. Иногда бывает очень полезно с целью значительного уменьшения объемов переработки информации вообще отказаться от привычных на наш взгляд средств измерения.
Пусть для контроля пожароопасного участка производится измерение температуры t, являющейся случайной величиной, функция плотности
28
распределения р(t) которой представлена на рис. 5.2. Окружающее точку измерения пространство можно представить в виде некой физической системы Х с интервалом неопределенности от Т1 до Т4, состояния которой описываются указанной функцией р(t). В отсутствие пожара температура окружающей среды определяется величиной, характерной для данного времени года, а в случае возникновения загорания температура повышается и достигает значительно больших значений. Энтропия указанной системы равна
T4
H (Х)= −∫ р(t)lnр(t)dt .
T1
Рис. 5.2. Функция плотности распределения случайной величины температуры
Для получения информации о состоянии лесного массива в данной точке производятся измерения температуры некоторым средством с погрешностью 2 . Поскольку вероятность пожара мала, то, естественно, можно сказать, что практически все они попадут в область с характерными для данного периода года температурами от Т1 до Т2, при этом для контроля окружающей обстановки измерения следует производить периодически (через некоторые промежутки времени), но длительное время (практически постоянно). Получаемая при этом информация, собираемая в некотором пункте, например лесничестве, является, по существу, избыточной как по количеству, так и по качеству. Избыток по количеству очевиден: для того,
29
чтобы зафиксировать, например, одно возгорание за три года, приходится делать несколько тысяч измерений, которые, по сути несут, одинаковую информацию. Избыточность качества просматривается в неоправданной точности измерений. Без ущерба для информационного сообщения мы могли бы проводить замеры и менее точным средством, и даже, вообще, отказаться от него. Для констатации факта возгорания нам достаточно знать, что температура окружающего воздуха находится в пределах от Т1 до Т2. Поэтому выделим в системе Х систему Y, охватывающую значения температур от Т1 до Т2, и попробуем найти количество информации, которое дает нам о системе Х наблюдение системы Y.
Как уже нам известно, определять количество информации следует как уменьшение энтропии системы Х в результате получения сведений о состоянии системы Y, т.е. информации IY →X .
|
|
T |
|
T |
|
|
IY →X = H (X )− H (X / Y )= −∫4 p(t)lnp(t)dt + ∫2 p(t)lnp(t)dt = |
|
|||||
|
|
T1 |
|
T1 |
(5.1) |
|
T2 |
T4 |
|
T2 |
T4 |
||
|
||||||
= − ∫ p(t)lnp(t)dt + ∫ |
p(t)lnp(t)dt |
+ ∫ p(t)lnp(t)dt = −∫ p(t)lnp(t)dt. |
|
|||
T1 |
T2 |
|
T1 |
T2 |
|
Из выражения (5.1) видно, что до получения сведений о системе Y энтропия системы была Н(Х), а после получения – Н(Х/Y), следовательно, уничтоженная полученными сведениями энтропия и является информацией IY →X . Таким образом, получив сведения о системе Y, заключающиеся в том, что температура окружающей среды находится в пределах от Т1 до Т2, т.е. сведения, которые, по существу, просто подтверждают наличие системы Y, мы становимся обладателями информации о системе Х на участке температур от Т2 до Т1. Исходя из этого можно сделать логический вывод: наличие системы Y подтверждает что пожара в лесу в контролируемой точке (зоне) не было, а ее отсутствие указывает на очаг возгорания в этом месте. Поэтому достаточно зафиксировать исчезновение системы Y, т.е. переход системы Х в состояния с температурами от Т2 до Т4, чтобы получить сведения о начавшемся пожаре. При этом для регистрации указанного перехода (или исчезновения системы Y) иногда удобнее взять некую точку Т3, о которой будет рассказано ниже.
Таким образом, получив информацию о переходе системы, например через точку Т3, можно констатировать пожар на контролируемом участке. 30
Но как получить эту информацию, ведь значение вероятности такого перехода очень мало? Видимо, нужно специальное устройство, которое могло бы выполнять указанную функцию. О нем мы поговорим в следующем разделе.
5.3. Пассивный транслятор информации
Еще К. Шеннон писал, что с информацией можно обращаться почти так же, как с такими физическими величинами, как масса или энергия. Последуем этому высказыванию и попробуем реализовать его на практике.
Известно, что если на тело не действует внешняя сила, то оно находится в состоянии покоя или равномерного прямолинейного движения. Это свойство называется инерцией тел. Чтобы вывести тело из состояния покоя, необходимо приложить силу, т.е. вызвать причину (создать условия) для движения. Подобным образом следует поступить и с информацией, касающейся системы Х, изображенной на рис. 5.2. Пока не наступили определенные условия, характерные для лесного пожара, информация должна находиться в состоянии покоя, и только при наступлении определенных условий необходимо привести ее в движение, т.е. осуществить передачу. Заметим, что передача информации – это процесс переноса ее в пространстве.
Введем понятие пассивного транслятора информации (ПТИ).
Пассивный транслятор информации – физическая система, становящаяся носителем информации о фиксируемом явлении только при определенных, свойственных этому явлению условиях.
Поскольку транслятор становится носителем необходимой информации только при вполне определенных, заранее заданных и известных условиях, то передача информации также осуществляется только во время, соответствующее этим условиям, т.е. при наступлении интересующего нас события. В результате этого не требуется никаких действий с информацией в отсутствие указанного явления, а при его возникновении информационный сигнал объемом 1 бит может быть принят в качестве информационного сообщения. Например, если в эфире на отведенной для связи частоте отсутствует сигнал передатчика, то пожара нет, а появление сигнала (объем информации соответствует 1 бит) указывает на возникновение возгора-
31
ния. Оперирование с таким малым объемом информации не только выгодно, но и предполагает простую практическую реализацию, а также дает возможность преобразовывать информацию в удобную для регистрации форму (рис. 5.3).
Рис. 5.3. Пассивный преобразователь информации
Рассмотрим более подробно пассивный транслятор информации. Он содержит корпус 1 с герметичной крышкой 2, имеющей отверстие 3 для выпуска пара 4. На корпусе закреплен кронштейн 5 с катушкой 6, имеющей выводы 7, которая расположена в зазоре магнитной системы 8 с маг32