ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 02.06.2024
Просмотров: 29
Скачиваний: 0
7
Вычисление энтропии распределения, приведенного в табл. 3.1, дает значение Н = 0,89. Следовательно, средняя информация, приходящаяся на одну букву алфавита, составляет 0,029. Аналогичная характеристика для равномерного распределения вероятностей равна 0,032. Как видим, различие частоты появления отдельных букв в тексте, приводит к заметному уменьшению информации, приходящейся в среднем на одну букву.
Упражнения.
Найти значение энтропии двоичной записи чисел при m = 1 и m = 2:
1) 182818; 2) 141593; 3) 414214; 4) 732051.
8
Составитель Альберт Васильевич Бирюков
ЭНТРОПИЯ, ИНФОРМАЦИЯ, КОДИРОВАНИЕ
Методические указания к изучению раздела программы курса математики для студентов специальности 290300
Редактор А.В. Дюмина
ЛР № 020313 от 23.12.96
Подписано в печать 01.04.03. Формат 60×84/16. Бумага офсетная. Отпечатано на ризографе. Уч.-изд. л.0,8. Тираж 50 экз.
Заказ
ГУ Кузбасский государственный технический университет. 650026, Кемерово, ул. Весенняя, 28.
Типография ГУ Кузбасского государственного технического университета. 650099, Кемерово, ул. Д. Бедного, 4А.