ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 22.02.2019

Просмотров: 2375

Скачиваний: 37

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Для того чтобы выяснить, насколько хорошо в источнике сообщений используются разные символы (а источник будет тем лучше, чем больше информации он будет вырабатывать), вводится параметр, называемый избыточностью и равный

. (1.24)

При этом есть максимальная энтропия или наибольшее количество информации, которое может приходиться на один символ источника при данном числе используемых символов.

Из (1.24) видно, что при энтропия источника , т.е. источник генерирует максимальное количество информации на символ. Если , то и, следовательно, информация, вырабатываемая источником, равна нулю. В общем случае . Чем меньше избыточность , тем рациональнее работает источник, тем большее количество информации он вырабатывает.

Следует, однако, иметь в виду, что не всегда нужно стремиться к тому, чтобы . Некоторая избыточность бывает полезной для обеспечения надежности передачи, регистрации и других преобразований информации. Известно, например, что лектора, который не повторяет или не разъясняет более подробно, на примерах отдельные положения, слушать и конспектировать значительно труднее, чем лектора, который в разумной мере пользуется этими приемами.

Если не различать буквы «е» и «ё», а также мягкий и твердый знаки, то в русском алфавите всего 31 буква, к ним нужно добавить еще пробел между словами, так что всего получается 32 символа. Если бы все символы были равновероятны, то энтропия такого языка была бы равна

.

В действительности, однако, вероятности различных символов различны; так, например, вероятность буквы «о» равна приблизительно 0,09, а буквы «ф» – 0,002. Кроме того, между символами имеют место значительные коррелятивные связи.

Проведенные исследования дают следующие значения энтропии:

при учете разной вероятности отдельных символов

,

при учете коррелятивных связей между двумя символами

,

при учете коррелятивных связей между тремя символами

.

Таким образом, можно утверждать, что избыточность русского языка

.

Анализ английского языка с учетом коррелятивных связей, распространяющихся на восемь соседних букв, показал, что избыточность его . Если учесть коррелятивные связи, распространяющиеся на достаточно большое число букв, то можно, по-видимому, убедиться что избыточность русского и других европейских языков более 50.%. Наличие этой избыточности позволяет легко исправлять отдельные ошибки или восстанавливать пропуски букв и даже слогов без искажения текста.


1.10 Энтропия источника при наличии коррелятивных связей между двумя соседними символами


Полученные ранее выражения для энтропии дискретного источника сообщений справедливы в случае, когда все сообщения независимы.

Рассмотрим источник, у которого имеют место коррелятивные связи между двумя соседними символами. Вероятность появления символа xi зависит лишь от того, какой символ был выработан до этого.


Для описания такого источника необходимо задать распределение вероятностей p(xi) и вероятности переходов (условная вероятность) p(xi|xk) или вероятности всех возможных пар символов p(xi, xk).

Нижеприведенное выражение описывает связь между этими вероятностями

. (1.25)

Если коррелятивные связи имеются между двумя соседними символами, то энтропия источника равна

(1.26)

Сравним энтропии источников с независимыми событиями и с коррелятивными связями между двумя соседними сообщениями.

Вероятности каждого из четырех сообщений равны:

p(x1)=1/2, p(x2)=1/4, p(x3)= p(x4)=1/8.

Для независимых событий

.

Пусть между двумя соседними символами имеются коррелятивные связи, которые описываются таблицей

xixj

p(xi, xj)

p(xi | xj)

xixj

p(xi, xj)

p(xi | xj)

x1x1

13/32

13/16

x3x1

0

0

x1x2

3/32

3/16

x3x2

0

0

x1x3

0

0

x3x3

0

0

x1x4

0

0

x3x4

1/8

1

x2x1

1/32

1/8

x4x1

1/16

1/2

x2x2

1/8

1/2

x4x2

1/32

1/4

x2x3

3/32

3/8

x4x3

1/32

1/4

x2x4

0

0

x4x4

0

0


По заданным вероятностям появления символов p(xi) и вероятностям пар импульсов p(xi, xj) из (1.25) определяются условные вероятности

, представленные в третьем и шестом столбцах таблицы.

Используя (1.26), получим , т.е. при наличии коррелятивных связей между сообщениями источника энтропия уменьшается.

2_21/09/18


Контрольные вопросы


  1. Дайте определение информационной системы и информационного процесса.

  2. Приведите понятие об информации.

  3. Количественная мера информации для равновозможных событий (сообщений). Мера Р. Хартли.

  4. Укажите недостатки меры Р. Хартли.

  5. Энтропия источника дискретных сообщений.

  6. Приведите пример вычисления энтропии двоичного канала как источника информации.

  7. Поясните свойства энтропии.

  8. Энтропия совместных сообщений.

  9. Что такое условная энтропия?

  10. Как определяется количество информации при неполной достоверности результатов опыта?

  11. Приведите некоторые свойства количественной меры информации при неполной достоверности результатов опыта.

  12. Приведите пример вычисления количественной меры информации для двоичного канала с помехами.

  13. Как оценивается избыточность источника сообщений?

  14. Укажите достоинства и недостатки избыточности сообщений.



Лк3


2. ИНФОРМАЦИОННЫЕ ХАРАКТЕРИСТИКИ НЕПРЕРЫВНЫХ (АНАЛОГОВЫХ) ИСТОЧНИКОВ ИНФОРМАЦИИ


2.1. Понятие о непрерывных (аналоговых) источниках информации


Для непрерывных источников характерным является непрерывное изменение во времени или пространстве физического параметра, значение которого измеряется, обрабатывается (например, вычисляется плотность распределения вероятности) или передается на расстояние для получения информации (сведений) о том или ином явлении, факте, процессе и т.п.


При исследовании различных процессов или явлений производят измерение большого количества разнообразных физических величин: температуры, давления, освещенности, перемещений, скорости движения, механического напряжения, электрического напряжения, силы тока и т.п.

Обычно все разнородные физические величины в современных измерительных системах с помощью специальных первичных преобразователей (часто называемых датчиками) переводят из неэлектрической формы в стандартные электрические сигналы, например, в электрическое напряжение, изменяющееся в строго определенном диапазоне: от –1 В до +1 В, от –5 В до +5 В и др. В качестве примера датчика, преобразующего изменение температуры в технологическом процессе в электрическое напряжение, можно привести хорошо известную термопару. Структурная схема такого преобразования показана на рисунке.






Смысл этого преобразования состоит в установке некоторого соответствия между величинами и .

Подобно источникам дискретных сообщений, для источников непрерывных сообщений можно ввести количественные меры информации.


2.2. Энтропия непрерывного источника информации. Количество информации в одном замере непрерывной случайной величины


Для того чтобы перейти от изучения источников дискретной информации к исследованию источников непрерывной информации, мы можем, как это обычно делается в математике, непрерывную величину, являющуюся переносчиком информации, приближенно представить как дискретную.

Почему это можно сделать. Значения параметров непрерывной величины получают в результате измерения. Все измерительные приборы имеют погрешность измерения и конечную разрешающую способность. Поэтому случайный непрерывный параметр Х может быть определен только с погрешностью ∆х. Вследствие этого можно перейти от непрерывного представления случайной величины к дискретному представлению.

Для этого диапазон изменения непрерывной случайной величины делим на конечное число малых интервалов и, перенумеровав их, можно совокупность всех значений внутри -го интервала представить одним средним значением . Априорная вероятность значения выражается через функцию плотности распределения вероятностей : .

Пример. Пусть на выходе датчика (см. рисунок) формируется напряжение в диапазоне от –5 В до +5 В ( = 10 В).



Если это напряжение измеряется стрелочным вольтметром с ценой деления .=.0,1.В, то в результате измерений мы, по сути, заменяем непрерывную шкалу значений выходного напряжения датчика дискретной шкалой с числом интервалов измерений .=.10.В./.0,1.В.=.100. В результате одного измерения (замера) мы получаем некоторое количество информации, для оценки которого мы можем воспользоваться формулой энтропии дискретного источника информации (1.6), которая в общем случае с учетом выше изложенных обозначений примет вид


. (2.1)

Устремляя , проделаем широко используемое в математике преобразование формулы (2.1) к виду


, (2.2)

где будем называть полной энтропией источника информации, – плотностью распределения вероятностей непрерывной случайной величины или, для краткости, плотностью распределения.

В формуле (2.2) введен дифференциал с учетом того, что . Однако в технике измерения и преобразования непрерывных величин значение (цена деления), каким бы малым ни было, остается конечным, что учтено в (2.2), где наряду с дифференциалом сохранено и обозначение .

Выражение (2.2) можно преобразовать следующим образом:

Учитывая, что [3], получим

, (2.3)

где первое слагаемое по структуре сходно с (1.6), что позволило его назвать приведенной энтропией источника непрерывной информации :


. (2.4)

В технике измерений и преобразований непрерывных величин цена деления часто обозначается . Поэтому в дальнейшем введем замену и тогда формулу (2.3) представим как


. (2.5)


2.3. Примеры вычисления энтропии непрерывных источников информации


2.3.1. Вычислить приведенную и полную энтропии источника с равномерным законом распределения непрерывной случайной величины.

Для такого источника

(2.6)

Приведенную энтропию находим по формуле (2.4) с учетом (2.6):

,

откуда

.

По формуле (2.5) находим полную энтропию

. (2.7)

Количественная мера информации (2.7) согласуется с нашими интуитивными представлениями. С уменьшением , т.е. с повышением разрешающей способности измерительных приборов, количество получаемой в результате измерений информации будет возрастать. При , в при , это соответствует случаю, когда измерения не проводятся.


2.3.2. Вычислить приведенную и полную энтропии источника с нормальным законом распределения непрерывной случайной величины.

Для этого источника примем

, (2.8)

где – дисперсия источника, которая в данном примере находится как

. (2.9)

Приведенную энтропию для этого примера находим по формуле (2.4) как

. (2.10)

Вычисление этого интеграла дает


. (2.11)


Полную энтропию находим по формулам (2.5) и (2.11):

.

В приведенных примерах вычислялись энтропии известных функций распределения. Можно решать и задачи обратного характера, например, найти функцию распределения , обеспечивающую максимальную энтропию источника при некоторых заданных ограничениях. Если таким ограничением является диапазон изменения непрерывной случайной величины источника, то наибольшее значение энтропии дает равномерное распределение. Если ограниченной величиной является дисперсия процесса при его неограниченном диапазоне изменения, то наибольшее значение энтропии достигается при нормальном распределении.


2.4. Количество информации, содержащееся в одном замере непрерывной случайной величины при неполной достоверности результатов измерения


Если бы измерение было абсолютно точным, т.е. не содержало погрешностей, то количество получаемой при этом информации, как уже отмечалось, должно было быть бесконечно большим.


В действительности, однако, измерение любой величины может быть выполнено лишь с некоторой степенью точности. Наличие погрешностей приводит к тому, что количество информации, содержащееся в результате измерений , об измеряемой величине становится конечным. Это позволяет распространить соотношения, определяющие для дискретных источников информации, на непрерывные источники.

Для перехода от дискретных источников к непрерывным, как это уже делалось в разделе 2.2, непрерывные величины и в первом приближении заменяем дискретными. Тогда выражение (1.21) примет вид

. (2.12)

В дроби, стоящей под знаком логарифма, умножим числитель и знаменатель на , тогда из (2.12) получим

. (2.13)

Переходя к пределу и , из (2.13) получаем

. (2.14)

Соотношение (2.14) дает ответ на вопрос о количестве информации, содержащейся в непрерывной случайной величине , о непрерывной величине .

Отметим некоторые свойства количественной меры информации (2.14).


2.4.1. . Это следует из аналогии с дискретным источником информации.


2.4.2. , причем , если и – статистически независимые случайные величины.


2.4.3. Значение не зависит от способа отсчета величин и . Если учесть, что , то выражение (2.14) может быть преобразовано к виду


, (2.15)

где ,

, (2.16)

и может быть названо приведенной условной энтропией.

3_05/10/2018


Контрольные вопросы


  1. Особенности источников непрерывных сообщений.

  2. Полная и приведенная энтропия непрерывного источника информации.

  3. Вычислите энтропию источника с равномерным законом распределения.

  4. Вычислите энтропию источника с нормальным законом распределения.

  5. Как определяется количество информации в одном замере при неполной достоверности результатов измерения?


Лк4

3. ПОНЯТИЕ О ПРОПУСКНОЙ СПОСОБНОСТИ КАНАЛОВ
И СКОРОСТИ ПЕРЕДАЧИ ИНФОРМАЦИИ


3.1. Пропускная способность дискретного (цифрового) канала


Структурная схема цифрового информационного канала показана на рис. 3.1 [1, 2].

На вход такого канала обычно поступают дискретные соотношения , например, в виде текста. Последние с помощью кодирующего устройства преобразуются в кодированные сигналы .



Рис. 3.1. Структурная схема цифрового канала


Как известно, для кодирования используется некоторый алфавит элементарных сигналов (символов) – , а существо кодирования сводится к представлению отдельных сообщений или последовательностей сообщений некоторыми комбинациями символов используемого алфавита. Декодирующее устройство преобразует кодированные сигналы в сообщения в форме, наиболее приемлемой для получателя, которым может быть не только человек, но и различные технические устройства (принтер, монитор, ПЭВМ и др.). В современных информационно-вычислительных комплексах исходные сообщения могут быть и в непрерывной форме, но с помощью кодирующих устройств последние преобразуют в кодированные сигналы.