ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 18.01.2024
Просмотров: 23
Скачиваний: 2
ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
ПРАКТИЧЕСКОЕ ЗАНЯТИЕ № 1
Основы теории передачи информации
Цель занятия: Изучение практических приложений теории информации для сравнительной оценки информационных характеристик дискретных и непрерывных источников сообщений и каналов связи.
Литература:
1.Передача дискретных сообщений: Учебник для вузов/ В.П.Шувалов, Н.В.Захарченко, В.О.Шварцман и др.; Под ред. В.П.Шувалова. - М.: Радио и связь,1990.-464 с.: ил. - стр. 12-29.
Контрольные вопросы:
-
Что такое информация? Какое сообщение содержит информацию?
-
Что является мерой количества информации в сообщении?
-
Какое сообщение содержит 1 двоичную единицу информации?
Как определяется энтропия источника дискретных сообщений
- с независимыми элементами сообщений;
- с зависимыми элементами сообщений?
-
Когда энтропия источника минимальна, когда максимальна?
-
Как определяется совместная информация 2-х элементов сообщения и совместная энтропия 2-х источников информации? Когда она максимальна и когда минимальна?
-
Как определяется взаимная информация 2-х элементов сообщения? Когда она максимальна и когда минимальна?
-
Что такое избыточность источника? Причины избыточности. Что такое производительность источника?
-
Что такое пропускная способность канала связи? Ее размерность?
-
Что утверждает теорема К.Шеннона для каналов связи с помехами?
-
Чем отличаются изохронные сигналы от анизохронных?
-
Какой сигнал называется цифровым сигналом данных (ЦСД)?
-
Перечислите известные вам критерии оптимизации систем ПДС. Каковы их достоинства и недостатки?
-
При какой плотности распределения вероятностей случайная непрерывная величина имеет максимальную энтропию? Чему равен этот максимум?
-
Как определяется энтропия и производительность источника непрерывных сообщений с ограниченным спектром?
Задачи:
1.1.Самолет противника с равной вероятностью может находиться в одной из 1024 зон воздушного пространства. Какое количество информации получает оператор радиолокационной станции, когда он фиксирует наличие самолета в одной из них.
1.2.Символы алфавита азбуки Морзе появляются в сообщении со следующими вероятностями:
-
0,51 для "точки"; -
0,31 для "тире"; -
0,12 для промежутка между буквами; -
0,06 для промежутка между словами.
Определить среднее количество информации в сообщении из 500 символов данного алфавита, считая, что связь между последовательными символами отсутствует.
1.3.Определить энтропию и избыточность двоичного источника, для которого вероятности выбора “0” и “1” равны 0,8 и 0,2 соответственно.
1.4.Напряжение изменяется в пределах U2 - U1 = 8 B. При равномерном квантовании датчик регистрирует приращение напряжения U = 0,1 B. Вычислить максимальное количество информации в 5 отсчетах.
1.5.Определить энтропию и избыточность источника с зависимыми элементами (буквами), для которого вероятности переходов заданы в табл.1.1. Изобразить на чертеже диаграмму состояний и переходов источника.
Таблица 1.1
| 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |
() | 0.3 | 0.4 | 0.45 | 0.1 | 0.5 | 0.8 | 0.6 | 0.1 | 0.4 | 0.3 |
() | 0.2 | 0.1 | 0.05 | 0.3 | 0.1 | 0.8 | 0.4 | 0.1 | 0.4 | 0.7 |
1.6.Согласно экспериментальным данным безусловные вероятности букв русского алфавита характеризуются следующими величинами (табл. 1.2):
Таблица 1.2
буква | Вероятность | буква | Вероятность | буква | Вероятность | буква | Вероятность |
пробел | 0.175 | р | 0.040 | я | 0.018 | х | 0.009 |
о | 0.090 | в | 0.038 | ы | 0.016 | ж | 0.007 |
е | 0.072 | л | 0.035 | з | 0.016 | ю | 0.006 |
а | 0.062 | к | 0.028 | ь,ъ | 0.014 | ш | 0.006 |
и | 0.062 | м | 0.026 | б | 0.014 | ц | 0.004 |
т | 0.053 | д | 0.025 | г | 0.013 | щ | 0.003 |
н | 0.053 | п | 0.023 | ч | 0.012 | э | 0.002 |
с | 0.045 | у | 0.021 | й | 0.010 | ф | 0.002 |
Найти энтропию источника, выдающего текст из этих букв при отсутствии статистических связей между буквами.
Вычислить избыточность источника, обусловленную неравновероятностью выбора букв, а также и их статистической связью (памятью источника), если по экспериментальным данным энтропия такого источника H(A)=1 бит/символ.
1.7.Согласно экспериментальным данным безусловные вероятности букв английского алфавита характеризуются следующими величинами (табл.1.3):
Таблица 1.3
буква | Вероятность | буква | Вероятность | буква | Вероятность |
пробел | 0.200 | h | 0.047 | w | 0.012 |
e | 0.105 | d | 0.035 | g | 0.011 |
t | 0.072 | l | 0.028 | b | 0.010 |
o | 0.065 | c | 0.023 | v | 0.008 |
a | 0.063 | f | 0.023 | k | 0.003 |
n | 0.058 | u | 0.023 | x | 0.001 |
i | 0.055 | m | 0.021 | j | 0.001 |
r | 0.052 | p | 0.018 | q | 0.001 |
s | 0.052 | y | 0.012 | z | 0.001 |
Найти энтропию источника, выдающего текст из этих букв при отсутствии статистических связей между буквами.
Вычислить избыточность источника, если по экспериментальным данным энтропия такого источника с учетом 8-буквенных сочетаний H(A) =1,86 бит/символ за счет неравновероятности выбора букв и их статистической связи.
1.8.Согласно экспериментальным данным безусловные вероятности букв немецкого алфавита характеризуются следующими величинами (табл.1.4):
Таблица 1.4
буква | Вероятность | буква | Вероятность | буква | Вероятность |
пробел | 0.15149 | u | 0.03188 | k | 0.00956 |
e | 0.14701 | l | 0.02931 | v | 0.00735 |
n | 0.08835 | c | 0.02673 | u” | 0.00580 |
r | 0.06858 | g | 0.02667 | p | 0.00499 |
i | 0.06377 | m | 0.02134 | a” | 0.00491 |
s | 0.05388 | o | 0.01772 | o” | 0.00255 |
t | 0.04731 | b | 0.01597 | j | 0.00165 |
d | 0.04385 | z | 0.01423 | y | 0.00017 |
h | 0.04355 | w | 0.01420 | q | 0.00014 |
a | 0.04331 | f | 0.01360 | x | 0.00013 |
Найти энтропию источника, выдающего текст из этих букв при отсутствии статистических связей между буквами.
1.9. Найти количество информации, которое содержится в квантованном телевизионном сигнале, соответствующем одному кадру развертки изображения, если:
-
в кадре 625 строк; -
сигнал, соответствующий одной строке развертки изображения представляет собой последовательность из 833 случайных по амплитуде импульсов, каждый из которых может с равной вероятностью принимать любое значение в интервале от 0 до 16 ; -
каждый импульс квантуется по величине с шагом квантования 1; -
импульсы изображения между собой не коррелированны.
Найти избыточность ТВ сигнала, если фактически кадр изображения с 16 градациями уровней содержит 9,3710 бит информации.
1.10. Плотность распределения значений случайного сигнала имеет вид:
1. , ;
2. , ;
3. , (равномерный закон);
4. , (нормальный закон);
5. , - (закон Симпсона);
6. , (закон Релея);
7. , (закон Коши).
Найти энтропию сигнала.
1.11. На вход приемного устройства воздействует сигнал
,
где - сигнал и - помеха являются независимыми случайными гауссовскими процессами с нулевыми средними значениями и дисперсиями, равными соответственно и .
Определить:
а) Количество информации , которое содержится в принятом значении сигнала о сигнале ;
б) Среднюю взаимную информацию .