Файл: Информация. Единицы измерения информации. Обработка информации.docx

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 12.12.2023

Просмотров: 30

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.



Лекция №2

Тема: «Информация. Единицы измерения информации. Обработка информации»

Цель: Сформировать знания у студента о единице измерения информации. Носители информации. Сбор, обработка, хранение и передача информации. Выбор способа хранения информации. Обработка информации. Изменение способа представления информации

План лекции:

  1. Информация. Представление и кодирование информации

  2. Единицы измерения информации

  3. Обработка информации




  1. Представление и кодирование информации

Информация — это сведения об объектах и явлениях окружающего мира, уменьшающие степень неопределённости знаний об этих объектах или явлениях.

Информация не существует сама по себе. Всегда имеется источник, который производит информацию, и приемник, который её воспринимает.

В роли источника или приемника может быть любой объект материального мира: человек, устройство, животное, растение. То есть информация всегда предназначена конкретному объекту.

Источник информации — это объект, порождающий информацию и представляющий её в виде сообщения.

Приемник информации — это объект, принимающий сообщение и способный правильно его интерпретировать.

Кодирование информации — это процесс преобразования информации из одной формы представления в другую.

Декодирование — это воспроизведение закодированной информации. В ЭВМ информация может быть представлена в двух формах: аналоговой и цифровой.

Аналоговая форма представляет непрерывный сигнал, который меняется пропорционально изменению информации, т. е. информация кодируется изменяющимся во времени напряжением или током. Такое представление информации используется в аналоговых вычислительных машинах (АВМ). Однако эти машины не получили дальнейшего развития в основном из-за невысокой точности вычислений.

Цифровая форма представления информации используется в цифровых вычислительных машинах (ЦВМ). В этих машинах информация кодируется цифрами. В виде цифр представляются различные виды информации: числа, буквы, звук, изображения.

В ЦВМ применяется двоичная система счисления. В этой системе используются только две цифры: 0 и 1.


Имеются и другие системы счисления: восьмеричная, десятичная, шестнадцатеричная и др. Но двоичная система отличается от них высокой надежностью представления информации. Распознать два состояния (0 или 1) значительно проще, чем, например, 10 состояний. В живых системах также для передачи информации используется двоичное кодирование информации в виде потенциала покоя и потенциала действия, биологические 0 и 1.

В двоичной системе счисления можно выполнять все математические действия, как и в привычной нам десятичной системе счисления. В ЦВМ для кодирования двоичных знаков используются два уровня напряжения.

Обычно, единица — это высокий уровень напряжения, порядка 5 В, а низкий уровень (меньше 0,8 В) — ноль. Имеются специальные устройства для преобразования аналоговой формы в цифровую, и наоборот.

Такие устройства называются соответственно аналого-цифровым преобразователем (АЦП) и цифро-аналоговым преобразователем (ЦАП).

Процесс преобразования непрерывных сигналов в цифровую форму состоит из трех этапов: дискретизации, квантования и кодирования.

Дискретизация — это процесс разбиения сигнала на отдельные составляющие, взятые через равные промежутки времени, величины которых зависят от частоты дискретизации (рис. 1.2, а).

Квантование — измерение дискретной величины сигнала в моменты времени t 1 , t 2 , t 3 и т. д. и представление их с определенной точностью. Точность определяется уровнями квантования, т. е. количеством уровней разбиения величины сигнала у.

Кодирование — перевод значения уровня квантования в двоичную систему счисления. Полученная цифровая информация называется дискретной. В ЦАП происходит обратное преобразование информации — из цифровой формы в аналоговую (рис. 1.2, б).

Под словом «кодирование» понимают процесс представления информации, удобный для её хранения и/или передачи. Следовательно, запись текста на естественном языке можно рассматривать как способ кодирования речи с помощью графических элементов (букв, иероглифов). Записанный текст является кодом, заключающим в себе содержание речи, т. е. информацию.

Код — система условных знаков (символов), предназначенных для представления информации в соответствии с определенными правилами.

Кодирование — переход от одной формы представления информации к другой, наиболее удобной для её хранения, передачи или обработки.



Декодирование — процесс по восстановлению первоначальной формы представления информации, т. е. операция, обратная кодированию.

При кодировании ставятся разные цели и, соответственно, применяются различные способы кодирования.

Наиболее распространенные цели кодирования:

1) экономность (сократить запись);

2) надежность (засекретить информацию);

3) удобство обработки или восприятия.

Чаще всего кодированию подвергаются тексты на естественных языках (русском, английском и пр.).

 

Существуют три основных способа кодирования текста:

1) графический — с помощью специальных рисунков или значков;

2) числовой — с помощью чисел;

3) символьный — с помощью символов того же алфавита, что и исходный текст.

Процесс чтения текста — это обратный по отношению к письму процесс, при котором письменный текст преобразуется в устную речь. Чтение можно назвать декодированием письменного текста.

А теперь обратим внимание на то, что может существовать много способов кодирования одного и того же текста на одном и том же языке.

Русский текст мы привыкли записывать с помощью русского алфавита. Но то же самое можно сделать, используя латинский алфавит. Иногда так приходится поступать, отправляя SMS по мобильному телефону, на котором нет русских букв, или электронное письмо на русском языке за границу, если у адресата нет русифицированного программного обеспечения. Например, фразу «Здравствуй, дорогой Саша!» приходится писать так: «Zdravstvui, dorogoiSasha!».

 Существует множество способов кодирования. Например, стенография — быстрый способ записи устной речи. Ею владеют лишь немногие специально обученные люди — стенографисты. Они успевают записывать текст синхронно с речью выступающего человека. В стенограмме один значок обозначает целое слово или сочетание букв. Скорость стенографического письма превосходит скорость обычного в 4-7 раз. Расшифровать (декодировать) стенограмму может только сам стенографист.

Для кодирования одной и той же информации могут быть использованы разные способы; их выбор зависит от ряда обстоятельств: цели кодирования, условий, имеющихся средств.

Обсудим это на примере представления чисел — количественной информации. Используя русский алфавит, можно записать число «тридцать пять». Используя же алфавит арабской десятичной системы счисления, пишем:35. Пусть нам надо произвести вычисления. Скажи, какая запись удобнее для выполнения расчётов: «тридцать пять умножить на сто двадцать семь» или «35х127»? Очевидно, что для перемножения многозначных чисел вы будете пользоваться второй записью.

Заметим, что две эти записи, эквивалентные по смыслу, используют разные языки: первая — естественный русский язык, вторая — формальный язык математики, не имеющий национальной принадлежности. Переход от представления на естественном языке к представлению на формальном языке можно также рассматривать как кодирование. Человеку удобно использовать для кодирования чисел десятичную систему счисления, а компьютеру — двоичную систему.

Шифрование представляет собой процесс превращения открытого текста в зашифрованный, а дешифрование — процесс обратного преобразования, при котором восстанавливается исходный текст. Шифрование — это тоже кодирование, но с засекреченным методом, известным только источнику и адресату. Методами шифрования занимается наука криптография.

Шифрование — медот защиты любой информации от несанкционированного доступа, просмотра, а также её использования, основанный на преобразовании данных в зашифрованный формат.

Криптография — это наука о методах и принципах передачи и приема зашифрованной с помощью специальных ключей информации.

Ключ — секретная информация, используемая криптографическим алгоритмом при шифровании/расшифровке сообщений.


  1. Единицы измерения информации.

Для информации существуют свои единицы измерения информации. Если рассматривать сообщения информации как последовательность знаков, то их можно представлять битами, а измерять в байтах, килобайтах, мегабайтах, гигабайтах, терабайтах и петабайтах.

Давайте разберемся с этим, ведь нам придется измерять объем памяти и быстродействие компьютера.

Бит


Единицей измерения количества информации является бит – это наименьшая(элементарная) единица.

1бит – это количество информации
, содержащейся в сообщении, которое вдвое уменьшает неопределенность знаний о чем-либо.

Байт


Байт – основная единица измерения количества информации.

Байтом называется последовательность из 8 битов.

Байт – довольно мелкая единица измерения информации. Например, 1 символ – это 1 байт.

Производные единицы измерения количества информации


1 байт=8 битов

1 килобайт (Кб)=1024 байта =210 байтов

1 мегабайт (Мб)=1024 килобайта =210 килобайтов=220 байтов

1 гигабайт (Гб)=1024 мегабайта =210 мегабайтов=230 байтов

1 терабайт (Гб)=1024 гигабайта =210 гигабайтов=240 байтов

Запомните, приставка КИЛО в информатике – это не 1000, а 1024, то есть 210 .

Методы измерения количества информации


Итак, количество информации в 1 бит вдвое уменьшает неопределенность знаний. Связь же между количеством возможных событий N и количеством информацииI определяется формулой Хартли:

N=2i.

Алфавитный подход к измерению количества информации


При этом подходе отвлекаются от содержания (смысла) информации и рассматривают ее как последовательность знаков определенной знаковой системы. Набор символов языка, т.е. его алфавит можно рассматривать как различные возможные события. Тогда, если считать, что появление символов в сообщении равновероятно, по формуле Хартли можно рассчитать, какое количество информации несет в себе каждый символ:

I=log2N.

Вероятностный подход к измерению количества информации


Этот подход применяют, когда возможные события имеют различные вероятности реализации. В этом случае количество информации определяют по формуле Шеннона:

где

I – количество информации,

N – количество возможных событий,

Pi – вероятность i-го события.
Если подбросить монету и проследить, какой стороной она упадет, то мы получим определенную информацию. Обе стороны монеты “равноправны”, поэтому одинаково вероятно, что выпадет как одна, так и другая сторона. В таких случаях говорят, что событие несет информацию в 1 бит.

Если положить в мешок два шарика разного цвета, то, вытащив вслепую один шар, мы также получим информацию о цвете шара в 1 бит.

Задача 1.


Шар находится в одной из четырех коробок. Сколько бит информации несет сообщение о том, в какой именно коробке находится шар.

Имеется 4 равновероятных события (