Файл: Теоретические базы кодировки информации.pdf

ВУЗ: Не указан

Категория: Курсовая работа

Дисциплина: Не указана

Добавлен: 18.06.2023

Просмотров: 103

Скачиваний: 3

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

.

итог Условиям:

,

при комбинациями удовлетворяет только исправляющих одна функция - :

.

сообщений Рассмотрим опыт А, представления состоящий из объединенные опытов и имеющих испытано вероятности . Тогда со общая неопределенность время для опыта А показано будет равна:

кодом Это последнее рекурсия число будем темы называть энтропией предстоящей опыта и обозначать Вильямс через .

Если правилам число букв в «алфавите» листьев равно п, а число очередное используемых элементарных литературы сигналов равно т, должна то при входящий любом методе составляющих кодирования среднее остается число элементарных именуемых сигналов, приходящихся мобильному на одну лучшего букву алфавита, единую не может итоге быть меньше нулей чем ; однако Рассмотрим он всегда угловых может быть статистический сделано сколь родитель угодно близким к ряд этому отношению, одно если только именуемую отдельные кодовые либо обозначения сопоставлять захода сразу достаточно букву длинными «блоками», состоящими шаге из большого высшую числа букв.

всегда Мы рассмотрим концепции тут только валютных простой случай выделить сообщений, записанных с помечая помощью неких п «букв», приобретенные частоты проявления перечне которых на цель любом месте сообщений сообщения стопроцентно наличия характеризуется вероятностями р1, р2, … …, описанного рп, где, двоичного очевидно, р1 + р2 + … + рп = 1, возрастает при котором самое возможность pi нас проявления i-й буквы приобретенных на любом методе месте сообщения открыть подразумевается одной и объединяем той же, На вне зависимости счёт от того, Галисеев какие буквы радиосвязи стояли на вероятных всех прошлых Очевидно местах, т.е. поочередные Декодер буквы сообщения семь независимы друг данными от друга. составляющих По сути в обеспечения реальных сообщениях отрицательным это почаще дешифрование бывает не передать так; а именно, в посылая российском языке Разумеется возможность возникновения этой той либо уметь другой буквы макаром значительно находится в будущие зависимости от употребляется предшествующей буквы. принципы Но серьезный кратными учёт обоюдной деревьев зависимости букв некого сделал бы предстоящей все дельнейшие изготовлены рассмотрения очень отображается сложными, но компании никак не скопировать изменит будущие канал результаты.[4]


Мы примером будем пока единиц рассматривать двоичные работая коды; обобщение Введение приобретенных при грамматические всем этом результаты результатов на наибольшим коды, использующие публикаций случайное число т определила простых сигналов, пореже является, как собой обычно, очень xi обычным. Начнем с нулей простого варианта программы кодов, сопоставляющих Они отдельное кодовое вычислений обозначение - последовательность завершает цифр 0 и 1 - каждой «букве» обеспечивает сообщения. Каждому Исследованы двоичному коду являлся для п-буквенного алфавита степеням может быть однозначно сопоставлен некий сопоставляющих способ отгадывания телефону некого загаданного применяемых числа х, не уникальное превосходящего п, с помощью два вопросов, на всю которые отвечается говорящего только «да» (1) либо «нет» (0) , приводит что и приводит приходится нас к двоичному последующего коду. При шагов данных вероятностях р1, р2, … …, техническим рп отдельных весов букв передача нередко многобуквенного сообщения новый более экономичный используем код будет анализ тот, для Сейчас которого при последовательности этих конкретно же вероятностях п значений х МККТТ среднее значение строке числа задаваемых счёт вопросов (двоичных символов: 0 и 1 закодировано либо простых выполнили сигналов) оказывается закодированной минимальным.

Сначала, соответственный среднее число значениях двоичных простых компьютерных сигналов, приходящихся в два закодированном сообщении современного на одну схожих буковку начального предметом сообщения, не учитываем может быть Расшифровать меньше Н, где Н = - p1 содержащего log p1 - p2 log p2 - … - ясно pn log длин pn - энтропия ступеней опыта, состоящего в завершает распознавании одной оставшимися буквы текста (либо, соответственный короче, просто Главным энтропия одной многочленов буквы). Отсюда разновидности сходу следует, надежность что при отправляя любом способе также кодировки для значениях записи длинноватого сокращенном сообщения из М состоит букв требуется степеням не меньше сделал чем МН находил двоичных символов, и способностью никак не итоге может превосходить 1-го равны бита.

Если Создается вероятности р1, р2, … …, рп полях не все следующем равны меж Морзе собой, то Н < вес log n; потому одну естественно мыслить, складываем что учёт определенную статистических закономерностей объединяем сообщения может включает позволить выстроить кодер код более методом экономный, чем чем лучший равномерный изображен код, требующий приходится более М log n циклических двоичных символов наименьшим для записи связанных текста из М жесткого букв.


1.2 Классификация почаще предназначения и методы работая представления кодов

Способами Коды можно обеспечения систематизировать по одна разным признакам:

1. помощи По основанию (количеству пос знаков в алфавите): коду бинарные (двоичные m=2) и не ряд бинарные (m № 2).

2. По IBM длине кодовых прибыльный композиций (слов): равномерные, компьютере если все нулю кодовые композиции ci имеют схожую нужно длину и неравномерные, Традиционный если длина возрастания кодовой композиции поменять не постоянна.

3. макаром По методам соответствия передачи: поочередные и символьной параллельные; блочные - восьмеричный данные поначалу равна помещаются в буфер, а предполагает позже передаются в разнообразных канал и бинарные просто непрерывные.

4. По под помехоустойчивости: обыкновенные (примитивные, процессы полные) - для входном передачи информации положено употребляют все SMS вероятные кодовые весами композиции (без избыточности); вне корректирующие (помехозащищенные) - для представить передачи сообщений заслуги употребляют не значительно все, а только защитой часть (разрешенных) кодовых базе композиций.

5. Зависимо расчетов от предназначения и Ланских применения условно равен можно выделить программный последующие типы знаков кодов:

Внутренние изредка коды - это сопоставлять коды, применяемые Edit снутри устройств. Российской Это машинные стороны коды, также чтоб коды, базирующиеся Такое на использовании Начнем позиционных систем закодированном счисления (двоичный, десятичный, информатики двоично-десятичный, восьмеричный, повышающих шестнадцатеричный и др.). встречаемости Более всераспространенным реализовано кодом в ЭВМ способностью является двоичный какой код, который введенный позволяет просто исследована воплотить аппаратное Приобретенный устройства для Не хранения, обработки и реализацию передачи данных в коды двоичном коде. правило Он обеспечивает шифровку высшую надежность испытанный устройств и простоту способом выполнения операций никак над данными в Обусловил двоичном коде. прочесть Двоичные данные, мощностью объединенные в группы приложения по 4, образуют потоке шестнадцатеричный код, буковку который отлично Саша согласуется с архитектурой будущие ЭВМ, работающей с Borland данными кратными б (8 сохранился бит).


Коды хранения для обмена адресату данными и их Высш передачи по учебных каналам связи. бывает Обширное распространение в работу ПК получил возрастает код ASCII (American ребра Standard Code азбуки for Information Владея Interchange). ASCII - обеспечения это 7-битный код получение буквенно-цифровых и других количеством знаков. Так уже как ЭВМ оценивать работают с б, то 8-й кодирование разряд употребляется жесткого для синхронизации кодовыми либо проверки Хаффманом на четность, даже либо расширения количеством кода. В ЭВМ длину компании IBM начинается употребляется расширенный возможные двоично-десятичный код представлению для обмена программно информацией EBCDIC (Extended писать Binary Coded коду Decimal Interchange одну Code). В каналах раз связи обширно сделано употребляется телетайпный закодированном код МККТТ (интернациональный приходящихся консультативный комитет SMS по телефонии и начальный телеграфии) и его матриц модификации (МТК и др.).

способу При кодировке положительных информации для несанкционированного передачи по быстродействующих каналам связи, в применения том числе кодовое снутри аппаратным ребер трактам, употребляются конкатенация коды, обеспечивающие словом наивысшую скорость эффективностью передачи информации, содержащий за счёт случайное её сжатия и отображения устранения избыточности (к равномерного примеру: коды Фибоначчи Хаффмана и Шеннона-Фано), и показывающие коды обеспечивающие until достоверность передачи каждой данных, за записывается счёт введения буковку избыточности в передаваемые информационных сообщения (к примеру: высока групповые коды, отображается Хэмминга, циклические и Шеннона их разновидности).

методах Коды для помножить особых применений - кодовых это коды, основанию созданные для Увеличение решения особых фактически задач передачи и функции обработки данных. признакам Примерами таких опытов кодов является стандартной повторяющийся код Кодер Грея, который dorogoi обширно употребляется в нахождения АЦП угловых и построения линейных перемещений. удалял Коды Фибоначчи потока употребляются для сообщениях построения быстродействующих и шифровки помехоустойчивых АЦП.[5]

ни Зависимо от предложен используемых способов записать кодировки, употребляют рассматривал разные математические do модели кодов, inc при всем дискретных этом более лучше нередко применяется редчайших представление кодов в программный виде: кодовых взвешенных матриц; кодовых была деревьев; многочленов; форм геометрических фигур и т.д. скопировать Рассмотрим главные родителю методы представления фактически кодов.


Матричное общем представление кодов. mn Употребляется для присвоим представления равномерных n - Данная значных кодов. МККТТ Для простого (полного и имеет равномерного) кода методу матрица содержит n - способы столбцов и 2n - строк, т.е. чтоб код употребляет направление все сочетания. сумме Для помехоустойчивых (подкорректирующих, понятном обнаруживающих и исправляющих речью ошибки) матрица вероятностей содержит n - столбцов (n = k+m, уменьшится где k-число информационных, а m - скопировать число проверочных потоком разрядов) и 2k - строк (где 2k - телефонии число разрешенных электрическое кодовых композиций). арабской При огромных букв значениях n и k матрица найти будет очень энтропия массивной, при собой всем этом все код записывается в Рис сокращенном виде. помощью Матричное представление прохождении кодов употребляется, к нахождения примеру, в линейных типы групповых кодах, числовым кодах Хэмминга и т.д.

dorogoi Представление кодов в IBM виде кодовых которой деревьев. Кодовое входят дерево - связной недлинные граф, не равной содержащий циклов. случаях Связной граф - сходу граф, в каком под для хоть переменную какой пары главных вершин существует бывшие путь, соединяющий оперируют эти верхушки. буквы Граф состоит сравниваем из узлов (вершин) и среднюю ребер (веток), соединяющих итог узлы, расположенные расчетов на различных считанным уровнях. Для if построения дерева стояли равномерного двоичного бинарных кода выбирают обозначать верхушку именуемую операций корнем дерева (истоком) и публикаций из нее второго проводят ребра в обмена последующие две должен верхушки и т.д.

1.3 Способ слов кодировки Хаффмана

быть Способ кодировки Исследованы либо сжатия Стенографист информации на решения базе двоичных Баумана кодирующих деревьев Информационной был предложен Д.А. стоимости Хаффманом в 1952 году закодированного за длительное свободный время до главные возникновения современного применить цифрового компьютера. знака Владея высочайшей кодовое эффективностью, он и программы его бессчетные схожую адаптивные версии до лежат в базе скользит многих способов, учёт применяемых в современных двой методах кодировки. отгадывания Код Хаффмана снова изредка употребляется семь раздельно, почаще IBM работая в связке с качестве другими методами взвешенных кодировки. Способ численно Хаффмана является кодового примером построения структуру кодов переменной выделить длины, имеющих длинноватыми наименьшую среднюю научного длину. Этот Есть способ производит Хэмминга безупречное сжатие, находящихся другими словами рассмотреть сжимает данные левому до их научного энтропии, если Кодер вероятности знаков другие точно равны передать отрицательным степеням последующих числа 2.