ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 22.02.2019

Просмотров: 2378

Скачиваний: 37

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

2) На приемной стороне в тех же проверочных группах производится r проверок на четность.

3) Проверочные группы строятся таким образом, чтобы записи результатов каждой проверки в двоичной форме давало бы r-разрядное двоичное число , указывающее номер разряда (в исчислении с основанием 10) искаженного элемента. Это выражение называют синдромом ошибки.

Для того чтобы обнаружить и исправить все ошибки кратности 1, число проверочных символов выбирается из соотношения . Добавление слагаемого +1 соответствует случаю отсутствия ошибок.









Число элементов помехоустойчивой кодовой комбинации определяется из решения уравнения относительно n:

. (4.6)

Изначально известно число k. Определив n из уравнения (4.6), получим число проверочных разрядов r в новых кодовых комбинациях (таблица 4.1).


Таблица 4.1 – Соотношение числа информационных и проверочных разрядов

k

2

3

4

5

6

7

8

9

10

11

12

n

5

6

7

9

10

11

12

13

14

15

17

r

3

3

3

4

4

4

4

4

4

4

5


Выбор значений и позиций проверочных элементов

Если ошибок нет, то синдром ошибки имеет значение 00…00.

При наличии ошибки двоичный код синдрома ошибки должен указать номер разряда кодовой комбинации (в исчислении с основанием 10), в котором произошло искажение элемента.

Единица в первом разряде синдрома ошибки появляется при искажении любого нечетного разряда кодовой комбинации.

Таким образом, в первую проверку должны войти все нечетные элементы принятой кодовой комбинации

(4.7)

То есть в первую проверку должны входить все элементы кодовой комбинации, в первом (младшем) разряде содержится 1. Если , то один из элементов искажен.

Аналогично, во вторую проверочную группу должны входить все элементы кодовой комбинации, во втором разряде которых содержится 1.

(4.8)

Если S2=1, то один из элементов искажен:

Третья проверочная группа содержит элементы, принимающие значение 1 в третьем разряде новой кодовой комбинации:

(4.9)

Четвертая проверочная группа содержит элементы, принимающие значение 1 в четвертом разряде новой кодовой комбинации:

(4.10)

Проверочные элементы каждой кодовой комбинации должны входить только в одну проверку. Таким образом, проверочными должны быть символы, расположенные в 1-м, 2-м, 4-м, 8-м и т. д. (16-м, 32-м,…) разрядах полученной кодовой комбинации.

Обозначим проверочные символы как . Тогда

; ; ; . (4.11)

Пример:

1 0 0 0 0 1 1 – исходная кодовая комбинация (младший разряд слева), k=7.

k1k2k3k4k5k6k7

По таблице 4.1 найдем число проверочных символов r=4. Помехоустойчивая кодовая комбинация должна содержать n=k+r =11 элементов (разрядов)

k1 k2 k3 k4 k5 k6 k7

а1 а2 а3 а4 а5 а6 а7 а8 а9 а10 а11 (а1 – младший разряд).


b1 b2 b3 b4

Выполнив проверку на четность по описанным выше правилам, определим значения проверочных элементов:

;

;

;

.

Получится новая кодовая комбинация 01100000011, содержащая информационные биты и проверочные биты.

Пусть принят код 01101000011, то есть произошла ошибка в 5-м разряде.

Проверочные группы на приемной стороне:

;

;

;

;

Таким образом, синдром ошибки

, то есть, выявлена ошибка в бите .

Для ее исправления надо выполнить операцию суммирования а5 с 1 по модулю 2: а5= а51.


ИСПРАВЛЯЮЩАЯ СПОСОБНОСТЬ КОДА ХЕММИНГА

Если имеется n символов, то вероятность правильного приема этих символов равна , где р – вероятность искажения одного символа.

Вероятность появления однократной ошибки .

Вероятность ошибочного приема кодовой комбинации:

;

;

.

Для исправления ошибки кратности больше 1 необходимо выполнение условия , где t – кратность ошибки.

Эти выражения справедливы при вероятности .


Контрольные вопросы


  1. Приведите структурную схему цифрового канала.

  2. Как определяются скорость передачи и пропускная способность цифровых каналов без помех?

  3. Приведите примеры вычисления скорости передачи и пропускной способности цифровых каналов.

  4. Какое кодирование называется эффективным?

  5. Как осуществляется построение кода Шеннона - Фано?

  6. Приведите примеры построения кода Шеннона - Фано.

  7. Пропускная способность цифровых каналов с шумами.

  8. Приведите модель двоичного канала с шумами.

  9. Пропускная способность аналоговых каналов.

  10. Определите скорость передачи и пропускную способность аналогового канала.

  11. Сравнение идеального канала по Шеннону и реальных информационных каналов.



Библиографический список


  1. Душин В.К. Теоретические основы информационных процессов и систем: учебник. – М.: Издательско-торговая корпорация «Дашков и Кº», 2003. – 348 с.

  2. Кудряшов Б.Д. Теория информации: учебник для вузов. – СПб.: Питер, 2009. – 320 с.

  3. Вентцель Е.С., Овчаров Л.А. Теория вероятностей и ее инженерные приложения. – М.: Высшая школа, 2010. – 480 с.

  4. Нечаев Г.И. Прикладная теория информации: учебное пособие. – Рязань: РГРТУ, 2015.



Лабораторная работа №4

КОД ХЕММИНГА


1 С и м в о л ы и с х о д н о й к о д о в о й к о м б и н а ц и и

2 О п р е д е л е н и е п р о в е р о ч н ы х э л е м е н т о в

3 О п р е д е л и т ь с и м в о л ы п о м е х о у с т о й ч и в о й к о д о в о й

к о м б и н а ц и и

4 В ы п о л н е н и е п р о в е р о к н а п р и е м н о й с т о р о н е .

О П Р Е Д Е Л Е Н И Е С И Н Д Р О М А О Ш И Б К И

4.1 С л у ч а й о т с у т с т в и я и с к а ж е н и я с и м в о л о в п р и п е р е д а ч е

Д е с я т и ч н о е п р е д с т а в л е н и е с и н д р о м а о ш и б к и



















В е к т о р с и м в о л о в к о д о в о й к о м б и н а ц и и п р и н я т о й б е з о ш и б о к














4.2 С л у ч а й н а л и ч и я и с к а ж е н и я с и м в о л о в п р и п е р е д а ч е

з а д а н и е н о м е р а с и м в о л а , к о т о р ы й и с к а ж а е т с я п р и п е р е д а ч е

и с к а ж е н н а я к о д о в а я к о м б и н а ц и я

5 В ы п о л н е н и е п р о в е р о к н а п р и е м н о й с т о р о н е .

О П Р Е Д Е Л Е Н И Е С И Н Д Р О М А О Ш И Б К И

6 Д е с я т и ч н о е п р е д с т а в л е н и е с и н д р о м а о ш и б к и

7 И с п р а в л е н и е и с к а ж е н н о г о с и м в о л а

8 В п . 4.2 з а д а т ь н о м е р и р с к а ж е н н о г о с и м в о л а n=7


В ы п о л н и т ь п у н к т ы 5, 6 и 7. П р о в е р н и т ь н а л и ч и е

и с п р а в л е н и я и с к а ж е н н о г о с и м в о л а


9 З а д а т ь э л е м е н т ы и с х о д н о й к о д о в о й к о м б и н а ц и и

В ы п о л н и т ь п у н к т ы 2-7.




















ОГЛАВЛЕНИЕ


Введение ...................................................................................................... 1

1. Основные понятия и количественная мера информации ................... 1

1.1. Понятие информации ...................................................................... 1

1.2. Количественная мера информации для равновозможных событий 3

1.3. Количественная мера информации для разновозможных

сообщений (сообщений). Энтропия источника дискретных

(цифровых) сообщений ..................................................................... 5

1.4. Свойства энтропии источника дискретных сообщений .............. 8

1.5. Энтропия источника совместных событий ................................. 10

1.6. Определение количества информации источника дискретных

сообщений при неполной достоверности результатов опыта ...12

1.7. Некоторые свойства количественной меры информации

источника дискретных сообщений

при неполной достоверности результатов опыта ....................... 14

1.8. Пример вычисления количественной меры информации

при неполной достоверности результатов опыта ....................... 15

1.9. Избыточность источника сообщений .......................................... 16

Контрольные вопросы .......................................................................... 18

2. Информационные характеристики непрерывных (аналоговых) источников информации ...................................................................... 19

2.1. Понятие о непрерывных (аналоговых) источниках


информации ................................................................................... 19

2.2. Энтропия непрерывного источника информации.

Количество информации в одном замере непрерывной

случайной величины ..................................................................... 19

2.3. Примеры вычисления энтропии непрерывных источников

информации ................................................................................... 21

2.4. Количество информации, содержащееся в одном замере

непрерывной случайной величины при неполной

достоверности результатов измерения ........................................ 22

Контрольные вопросы ......................................................................... 24

3. Понятие о пропускной способности каналов

и скорости передачи информации ...................................................... 24

3.1. Пропускная способность дискретного (цифрового) канала ...... 24

3.1.1. Пропускная способность дискретных (цифровых)

каналов при отсутствии шумов .......................................... 25

3.1.2. Пропускная способность дискретных (цифровых)

каналов с шумами ............................................................... 33

3.2. Пропускная способность непрерывных (аналоговых)

каналов ........................................................................................... 37

3.3. Определение пропускной способности непрерывного канала . 39

Контрольные вопросы ......................................................................... 47

Библиографический список ..................................................................... 47



КОНТРОЛЬНАЯ РАБОТА № 1


1. Мера Хартли

1.1. Условия применения.

1.2. Математическое описание.

1.3 Недостатки.

1.4 Вычислить количество информации, полученной в результате опыта, от источника с N состояниями:

1.4.1. N=N1 и равно сумме чисел, соответствующих числу и месяцу Вашего рождения.

1.4.2. N=N2 и равно числу, составленному из двух последних цифр года Вашего рождения.

1.4.3. N=N1+N2.


2. Энтропия ансамбля дискретных событий (формула Шеннона)

2.1. Условия применения.

2.2. Математическое описание.

2.3 Достоинства и недостатки.

2.4. Энтропия двоичного канала как источника сообщений. Зависимость от вероятности нахождения канала в каждом из состояний (0 или 1).

2.5. Перечислите свойства энтропии.


3. Вычислить энтропию источника дискретных сообщений, число состояний которого взять из п.п. 1.4.1-1.4.3. При этом вероятности первых двух состояний принять равными pi – 0.01, а последних двух состояний pi+0.01, где pi – вероятности состояний, определенные в п.п. 1.4.1-1.4.3.


4 Определение количества информации при неполной достоверности результатов опыта

4.1. Математическое описание.

4.2. Свойства количественной меры информации при неполной достоверности результатов опыта.






КОНТРОЛЬНАЯ РАБОТА № 2


1. Полная и приведенная энтропия источника непрерывных сообщений. Математическое описание.


2. Вычислить энтропию источника с равномерным законом распределения непрерывной случайной величины

2.1. Задать нижнюю (а) и верхнюю (b) границы диапазона L изменения случайной величины:

а = сумма чисел месяца и дня рождения;


b = год рождения.

2.2. Вычислить полную энтропию при следующих погрешностях измерения непрерывной величины:

2.2.1. Δ = 0.1.

2.2.2. Δ = 0.01.

2.2.3. Δ = 0.001.


3. Вычислить энтропию источника с нормальным законом распределения случайной величины

3.1. Задать среднеквадратическое отклонение случайной величины

,

где L – диапазон, определенный в п. 2.1.

3.2. Вычислить полную энтропию при погрешностях измерения, заданных в п.п. 2.2.1-2.2.3.


  1. Сравнить значения энтропий, полученные в п. 2.2 и п. 3.2. Объяснить различие.











Задачи


1. Вычислить энтропию ансамбля событий:


1.1 Р(х1)= 1/2; Р(х2)=1/4; Р(x3)= 1/4.


Н(х)=-(1/2*log1/2+1/4*log1/4+1/4*log1/4)= -[1/2*(-1)+1/4*(-2)+1/4*(-2)] =1/2+1/2+1/2=1.5 дв.ед.<1.58 дв.ед. при равновероятных событиях Pi=1/3


1.2 Р(х1)= 1/2; Р(х2)=1/8; Р(x3)= 1/8, P(х4)=1/4.


H(x)=1/2+3/8+3/8+1/2=14/8 дв.ед.<2 дв.ед. при равновероятных событиях Pi)=1/4.


66