Файл: Лекции по информатике учебнометодическое пособие.doc

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 29.10.2023

Просмотров: 501

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

СОДЕРЖАНИЕ

ВВЕДЕНИЕ

Требования к уровню освоения содержания дисциплины

Основные свойства информации

Количество информации как мера уменьшения неопределенности знаний

Алфавитный подход к определению количества информации

Единицы измерения информации

Характеристики основных типов данных

Кодирование числовой информации в компьютере

Кодирование текстовой информации в компьютере

Кодирование графической информации в компьютере

Кодирование аудио информации в компьютере

ОСНОВЫ ЛОГИКИ И ЛОГИЧЕСКИЕ ОСНОВЫ КОМПЬЮТЕРА

Логические основы ЭВМ

Вопросы для самопроверки по теме 2

3. ТЕХНИЧЕСКИЕ СРЕДСТВА РЕАЛИЗАЦИИ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ

Принципы работы электронной вычислительной

Виды внутренней памяти

Виды внешней памяти (ВЗУ)

Процессор

Системный блок

Устройства ввода

Устройства вывода

ПРОГРАММНЫЕ СРЕДСТВА РЕАЛИЗАЦИИ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ

Файловая структура ОС. Операции с файлами

Инструментальное программное обеспечение ЭВМ

Основные понятия алгоритмических языков. Алфавит.

Прикладное программное обеспечение ЭВМ

Вопросы для самопроверки по теме 4

МОДЕЛИ РЕШЕНИЯ ФУНКЦИОНАЛЬНЫХ И ВЫЧИСЛИТЕЛЬНЫХ ЗАДАЧ

Базы данных и базы знаний

Этапы моделирования

АЛГОРИТМИЗАЦИЯ И ПРОГРАММИРОВАНИЕ

Примеры блок-схем алгоритмов

Вопросы для самопроверки по теме 6

7. ТЕХНОЛОГИИ ПРОГРАММИРОВАНИЯ

Основные принципы структурного программирования (программирование без GO TO)

Этапы решения задач на компьютере

ЛОКАЛЬНЫЕ И ГЛОБАЛЬНЫЕ СЕТИ ЭВМ МЕТОДЫ ЗАЩИТЫ ИНФОРМАЦИИ

Протоколы электронной почты

Основные понятия криптографии

Электронно-цифровая подпись (ЭЦП)

Классификация антивирусных программ

Вопросы для самопроверки по теме 8

ОТВЕТЫ НА ВОПРОСЫ ДЛЯ САМОСТОЯТЕЛЬНОЙ РАБОТЫ

Программные средства реализации информационных процессов

Технологии программирования

Петрунина Елена Борисовна

Учебно-методическое пособие

Количество информации как мера уменьшения неопределенности знаний


Подход к информации как к мере уменьшения неопределѐнно- сти наших знаний позволяет количественно измерять информацию, полученную через некоторое сообщение.

Например, после сдачи зачета Вы получаете одно из двух ин- формационных сообщений: "зачет" или "незачет", а после сдачи эк- замена одно из четырех информационных сообщений: "2", "3", "4"

или "5".

Информационное сообщение об оценке за зачет приводит к уменьшению неопределенности вашего знания в два раза, так как реализуется один из двух возможных вариантов. Информационное сообщение об оценке за экзамен приводит к уменьшению неопреде- ленности вашего знания в четыре раза, так как получено одно из че- тырех возможных информационных сообщений.

Ясно, что чем более неопределенна первоначальная ситуация, тем больше мы получим новой информации при получении инфор- мационного сообщения о том, как она разрешилась (тем в большее количество раз уменьшится неопределенность знания).

Клод Шеннон предложил в 1948 году формулу для определе- ния количества информации, которую мы получаем после получения одного из N возможных сообщений:

I = (p1log2p1+ p2log2p2+… pilog2pi+…+ pNlog2pN)

Здесь pi – вероятность того, что будет получено именно i-е со- общение. Если все сообщения равновероятны, то все pi=1/N, и из этой формулы получается формула Хартли:

I = log2N

Для количественного выражения любой величины необходимо сначала определить единицу измерения. Так, для измерения длины

в качестве единицы выбран метр, для измерения массы - килограмм и
т. д. Аналогично, для определения количества информации необхо- димо ввести единицу измерения.

Из формулы Хартли следует: если I=1, то N=2, то есть в каче- стве единицы измерения информации можно взять тот объѐм инфор- мации, который мы получаем при принятии сигнала о том, что же произошло в ситуации с двумя возможными исходами. Такая едини- ца названа битом.

Наряду с единицей бит иногда используют в качестве единиц информации количества, взятые по логарифмам с другими основа- ниями: дит – по десятичному логарифму (за единицу информации выбирается количество информации, необходимой для различения десяти равновероятных сообщений), нат – по натуральному основа- нию.

Используя формулу Хартли можно, также, зная количество информации, пришедшее с одним из равновероятных сообщений, оп- ределить, сколько сообщений вообще можно было ожидать в данной ситуации. Решив это уравнение относительно N, получим при равно- вероятных исходах:

I = log2N = 2I

Например, на экзамене вы берете экзаменационный билет, и учитель сообщает, что зрительное информационное сообщение о его номере несет 5 бит информации. Если вы хотите определить ко- личество экзаменационных билетов, то достаточно определить коли- чество возможных информационных сообщений об их номерах из формулы Хартли:

5 = log2N = 25 = 32.

Таким образом, количество экзаменационных билетов равно

32.

Задача: Представьте себе, что вы управляете движением ро-

бота и можете задавать направление его движения с помощью ин- формационных сообщений: "север", "северо-восток", "восток", "юго- восток", "юг", "юго-запад", "запад" и "северо-запад" (рис. 1.1). Какое

количество информации будет получать робот после каждого сооб- щения?




Рис. 1.1. Управление роботом с использова- нием информационных сообщений


В этой задаче робот может получить 8 разных информацион- ных сообщений. Формула Хартли принимает вид уравнения относи- тельно I:

8 = 2I

Так как 8 = 23, получаем

23 = 2I I = 3

Количество информации, которое несет роботу каждое инфор- мационное сообщение, равно 3 битам.
    1. 1   2   3   4   5   6   7   8   9   ...   45

Алфавитный подход к определению количества информации


При алфавитном подходе к определению количества информа- ции отвлекаются от содержания информации и рассматривают ин- формационное сообщение как последовательность знаков определен- ной знаковой системы.

Представим себе, что необходимо передать информационное сообщение по каналу передачи информации от отправителя к получа- телю. Пусть сообщение кодируется с помощью знаковой системы, алфавит которой состоит из N знаков {1, ..., N} и вероятности появ- ления каждого знака в сообщении равны.

В простейшем случае, когда длина кода сообщения составляет один знак, отправитель может послать N разных сообщений. Количе- ство информации I, которое несет каждое сообщение, то есть один знак, можно рассчитать по формуле Хартли.

I = log2N

Эта величина называется информационнойемкостьюзнака. С помощью этой формулы можно, например, определить информа- ционную емкость знака двоичной знаковой системы:

I = log22 = 1 бит

Интересно, что сама единица измерения количества информа- ции "бит" (bit) получила свое название от английского словосочета- ния "binary digit" "двоичная цифра".

Чем большее количество знаков содержит алфавит знаковой системы, тем большее количество информации несет один знак. В качестве примера определим количество информации, которое несет буква русского алфавита. В русский алфавит входят 33 буквы, однако на практике часто для передачи сообщений используются только 32 буквы (исключается буква "ѐ").

С помощью формулы Хартли определим количество информа- ции, которое несет буква русского алфавита:


N = 32 I = log232 I = log225 I=5 бит.

Таким образом, информационная емкость буквы русского ал- фавита равна 5 битам (если считать, что все буквы используются в сообщении с равной вероятностью).

Количество информации, которое несет знак, зависит от веро- ятности его получения. Если получатель заранее точно знает, какой знак придет, то полученное количество информации будет равно 0. Наоборот, чем менее вероятно получение знака, тем больше его ин- формационная емкость.

Сообщение состоит из последовательности знаков, каждый из которых несет определенное количество информации. Если знаки не- сут одинаковое количество информации, то количество информации Ic в сообщении можно подсчитать, умножив количество информации Iз, которое несет один знак, на длину кода К (количество знаков в со- общении):

Ic = Iз * K

Например, каждая цифра двоичного компьютерного кода несет информацию в 1 бит. Следовательно, две цифры несут информацию в 2 бита, три цифры - в 3 бита и т. д. Количество информации в битах равно количеству цифр двоичного компьютерного кода (табл. 1.1).

Таблица 1.1.

Количество информации, которое несет двоичный компьютерный код


Двоичный компьютерный код

111

01

11

011

0001

Количество информации

3 бит

2 бит

2 бит

3 бит

4 бит

В русской письменной речи частота использования букв в тек- сте различна, так в среднем на 1000 знаков осмысленного текста при- ходится 200 букв "а" и в сто раз меньшее количество буквы "ф" (все-