Файл: Тема Подходы к понятию информации и измерению информации. Информационные объекты различных видов. Цель.doc

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 07.11.2023

Просмотров: 32

Скачиваний: 2

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

Тема: Подходы к понятию информации и измерению информации. Информационные объекты различных видов.

Цель: дать представление о различиях подходах к понятию информации, рассмотреть информационные объекты различных видов.

Задачи:

  • Образовательные: дать понятие количества информации, познакомить с вероятностным и алфавитным подходом при определении количества информации, познакомить с единицами измерения информации, формировать практические навыки по определению количества информации.

  • Развивающие: продолжить формирование научного мировоззрения, расширять словарный запас по теме «Информация»

  • Воспитательные: формировать интерес к предмету, воспитывать настойчивость в преодолении трудностей в учебной работе.

Вопросы:

  1. Информация.Информационные объекты различных видов.

  2. Подходы к понятию информации и измерению информации.

Теоретический материал.

1. Информация. Информационные объекты различных видов

Информатика - это наука об организации процессов получения, хранения, обработки и передачи информации в системах различной природы. Информатика также изучает возможность автоматизации информационных процессов компьютерными средствами. Синонимом слова "компьютер" является "электронно-вычислительная машина" или ЭВМ. Персональный компьютер - один из видов компьютеров наряду с многопроцессорными и мультисистемными компьютерами. Сущность же компьютера - это транзисторная технология, которая реализована во всей современной радиотехнике. Более того, процессор как основа компьютера также не является уникальным явлением, так как процессоры сегодня могут иметь как телефоны, телевизоры, так и другие бытовые устройства.

Информация (в переводе с латинского informatio - разъяснение, изложение) - это ключевое понятие современной науки, которое стоит в одном ряду с такими как "вещество" и "энергия". Существует три основные интерпретации понятия "информация".

Научная интерпретация. Информация - исходная общенаучная категория, отражающая структуру материи и способы ее познания, несводимая к другим, более простым понятиям.


Абстрактная интерпретация. Информация - некоторая последовательность символов, которые несут как вместе, так в отдельности некоторую смысловую нагрузку для исполнителя.

Конкретная интерпретация. В данной плоскости рассматриваются конкретные исполнители с учетом специфики их систем команд и семантики языка. Так, например, для машины информация - нули и единицы; для человека - звуки, образы, и т.п.

Существуют несколько концепций (теорий) информации.

Первая концепция (концепция К. Шеннона), отражая количественно-информационный подход, определяет информацию как меру неопределенности (энтропию) события. Количество информации в том или ином случае зависит от вероятности его получения: чем более вероятным является сообщение, тем меньше информации содержится в нем.

Вторая концепция рассматривает информацию как свойство (атрибут) материи. Ее появление связано с развитием кибернетики и основано на утверждении, что информацию содержат любые сообщения, воспринимаемые человеком или приборами. Наиболее ярко и образно эта концепция информации выражена академиком В.М. Глушковым.

Третья концепция основана на логико-семантическом (семантика - изучение текста с точки зрения смысла) подходе, при котором информация трактуется как знание, причем не любое знание, а та его часть, которая используется для ориентировки, для активного действия, для управления и самоуправления. Иными словами, информация - это действующая, полезная, "работающая" часть знаний. Представитель этой концепции В.Г. Афанасьев.

В настоящее время термин информация имеет глубокий и многогранный смысл. Во многом, оставаясь интуитивным, он получает разные смысловые наполнения в разных отраслях человеческой деятельности:

  • в житейском аспекте под информацией понимают сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальными устройствами;

  • в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;

  • в теории информации (по К.Шеннону) важны не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую неопределенность;

  • в кибернетике, по определению Н. Винера, информация - эта та часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы;

  • в семантической теории (смысл сообщения) - это сведения, обладающие новизной, и так далее...


Такое разнообразие подходов не случайность, а следствие того, что выявилась необходимость осознанной организации процессов движения и обработки того, что имеет общее название - информация.

    1. Подходы к понятию информации и измерению информации.

Содержательный подход к измерению информации. Сообщение – информативный поток, который в процессе передачи информации поступает к приемнику.  Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными  Информация - знания человека? сообщение должно быть информативно. Если сообщение не информативно, то количество информации с точки зрения человека = 0. (Пример: вузовский учебник по высшей математике содержит знания, но они не доступны 1-класснику)

Алфавитный подход к измерению информации не связывает кол-во информации с содержанием сообщения. Алфавитный подход - объективный подход к измерению информации. Он  удобен при использовании технических средств работы с информацией, т.к. не зависит от содержания сообщения. Кол-во информации зависит от объема текста и мощности алфавита. Ограничений на max мощность алфавита нет, но есть достаточный алфавит мощностью 256 символов. Этот алфавит используется для представления текстов в компьютере. Поскольку 256=28, то 1символ несет в тексте 8 бит информации.

Вероятностный подход к измерения информации. Все события происходят с различной вероятностью, но  зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил  Шеннон.


I  - количество информации

N – количество возможных событий

pi – вероятности отдельных событий

Количество информации  - это мера уменьшения неопределенности.

1 БИТ – такое кол-во информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза.

БИТ- это наименьшая единица измерения информации


Единицы измерения информации: 1байт = 8 бит

1Кб (килобайт) = 210 байт = 1024 байт

1Мб (мегабайт) = 210 Кб = 1024 Кб

1Гб (гигабайт) = 210 Мб = 1024 Мб

Задача 1: Какое количество информации будет содержать зрительное сообщение о цвете вынутого шарика, если в непрозрачном мешочке находится 50 белых, 25 красных, 25 синих шариков. Для этого необходимо использовать следующую формулу где i - это количество информации, р - вероятность события.

Вероятность события выражается в долях единицы и вычисляется по формуле: где К — величина, показывающая, сколько раз произошло интересующее нас событие, N — общее число возможных исходов какого-то процесса.

1) всего шаров 50+25+25=100

2) вероятности шаров 50/100=1/2, 25/100=1/4, 25/100=1/4

3) I= -(1/2*log21/2 + ¼*log21/4 + ¼*log21/4) = -(1/2*(0-1) +1/4*(0-2) +1/4*(0-2)) = 1,5 бит

Количество информации достигает max значения, если события равновероятны, поэтому количество информации можно рассчитать по формуле 

Задача 2 В корзине лежит 16 шаров разного цвета. Сколько информации несет сообщение, что достали белый шар?

т.к. N = 16 шаров,  то  I = log2 N = log2 16 = 4 бит.

Упражнение (устно)

1) Какое количество информации будет получено при отгадывании числа из интервала:

- от 1 до 64 - от 1 до 61 - от 1 до 20.

2) Какое количество информации будет получено после первого хода в игре «крестики-нолики» на поле:

- 3x3 - 4x4.

3) Сколько могло произойти событий, если при реализации одного из них получилось 6 бит информации.

Задачи для самостоятельного решения

  1. В розыгрыше лотереи участвуют 64 шара. Выпал первый шар. Сколько информации содержит зрительное сообщение об этом?

  2. В игре «лото» используется 50 чисел. Какое количество информации несет выпавшее число?

  3. Какое количество информации несет сообщение о том, что встреча назначена на 3 июля в 18.00 часов?

  4. Вы угадываете знак зодиака вашего друга. Сколько вопросов вам нужно при этом задать? Какое количество информации вы получите?

  5. В ящике лежат фигурки разной формы - треугольные и круглые. Треугольных фигурок в ящике 15. Сообщение о том, что из ящика достали фигуру круглой формы, несет 2 бита информации. Сколько всего фигурок было в ящике?

  6. В ведерке у рыбака караси и щуки. Щук в ведерке 3. Зрительное сообщение о том, что из ведра достали карася, несет 1 бит информации. Сколько всего рыб поймал рыбак?

  7. Частотный словарь русского языка - словарь вероятностей (частот) появления букв в произвольном тексте — приведен ниже. Определите, какое количество информации несет каждая буква этого словаря.


Символ

Частота

Символ

Частота

Символ

Частота

Символ

Частота

о

0.090

в

0.035

я

0.018

ж

0.007

е, ё

0.072

к

0.028

Ы, 3

0.016

ю, ш

0.006

а, и

0.062

м

0.026

ь, ъ, б

0.014

ц, щ, э

0.003

т, н

0.053

д

0.025

ч

0.013

Ф

0.002

с

0.045

п

0.023

и

0.012







Р

0.040

У

0.021

X

0.009







Используя результат решения предыдущей задачи, определите количество информации в слове «КОМПЬЮТЕР».

Литература:

Информатика и ИКТ, 10 класс, Базовый уровень, Макарова Н.В., 2009

Информатика. Макарова Н.В., В.Б. Волков, Питер 2011

Информатика и ИКТ. 10 класс. Профильный уровень. Угринович Н.Д. 3-е изд., испр. - М.: 2008.

Энциклопедия знаний - http://www.pandia.ru/text/77/203/78371.php

Школьный интернет-учебник М.А. и М.В. Выграненко - http://iiikt.narod.ru/osnov/2_1_lang.htm