Файл: Курсовая работа по дисциплине Теория информационных процессов и систем на тему Информационная мера Ральфа Хартли.pdf
Добавлен: 30.11.2023
Просмотров: 246
Скачиваний: 24
ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
МИНОБРНАУКИ РОССИИ
ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ БЮДЖЕТНОЕ ОБРАЗОВАТЕЛЬНОЕ
УЧРЕЖДЕНИЕ
ВЫСШЕГО ОБРАЗОВАНИЯ
«ВОРОНЕЖСКИЙ ГОСУДАРСТВЕННЫЙ УНИВЕРСИТЕТ»
(ФГБОУ ВО «ВГУ»)
Факультет компьютерных наук
Кафедра информационных систем
Курсовая работа
по дисциплине: «Теория информационных процессов и систем» на тему: «Информационная мера Ральфа Хартли», «Структура и классификация информационных систем (ИС)»
Выполнил студент Шевцов Р. С.
Группа: 4
Проверила профессор Десятирикова Е. Н.
Воронеж
2022
2
СОДЕРЖАНИЕ
Содержание .............................................................................................................. 2 1 Информационная мера Ральфа Хартли .............................................................. 4 1.1 Понятие информации..................................................................................... 4 1.2 Меры информации в системе........................................................................ 4 1.3 Способы измерения информации ................................................................. 5 1.4 Научная деятельность Ральфа Хартли ......................................................... 6 1.5 Информационная мера .................................................................................. 7 1.6 Примеры ........................................................................................................ 12 2 Структура и классификация информационных систем (ИС) ........................ 14 2.1 Структура информационных систем ......................................................... 14 2.1.1 Типы обеспечивающих подсистем ...................................................... 14 2.1.2 Информационное обеспечение ............................................................. 14 2.1.3 Техническое обеспечение ..................................................................... 17 2.1.4 Математическое и программное обеспечение .................................... 19 2.1.5 Организационное обеспечение ............................................................. 20 2.1.6 Правовое обеспечение ........................................................................... 20 2.2 Классификация информационных систем по функциональному признаку и уровням. .......................................................................................... 21 2.2.1 Что означает функциональный признак .............................................. 21 2.2.2 Типы информационных систем ............................................................ 23 2.2.3 Информационные системы оперативного уровня .............................. 24 2.2.4 Информационные системы специалистов ........................................... 25 2.2.5 Информационные системы для менеджеров среднего звена ............ 26 2.2.6 Стратегические информационные системы ........................................ 27 2.2.7 Информационные системы в фирме .................................................... 30
3
Список использованных источников .................................................................. 32
4
1 Информационная мера Ральфа Хартли
1.1 Понятие информации
Информация — сведения независимо от формы их представления.
Несмотря на широкую распространѐнность, понятие информации остаѐтся одним из самых дискуссионных в науке, а термин может иметь различные значения в разных отраслях человеческой деятельности.
Определений информации существует множество, причѐм академик Н.
Н. Моисеев даже полагал, что в силу широты этого понятия нет и не может быть строгого и достаточно универсального определения информации.
Хотя информация должна обрести некоторую форму представления (то есть превратиться в данные), чтобы ею можно было обмениваться, информация есть в первую очередь интерпретация (смысл) такого представления. Поэтому в строгом смысле информация отличается от данных, хотя в неформальном контексте эти два термина очень часто используют как синонимы.
Первоначально «информация» — сведения, передаваемые людьми устным, письменным или каким-либо другим способом (с помощью условных сигналов, технических средств и т. д.); с середины 20 века термин
«информация» превратился в общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму (например, генетическая информация); одно из основных понятий кибернетики. [1]
1.2 Меры информации в системе
Рассматриваются различные способы введения меры измерения количества информации, их положительные и отрицательные стороны, связь с изменением информации в системе, примеры. Информация может пониматься и интерпретироваться в различных проблемах, предметных областях по-разному. Вследствие этого, имеются различные подходы к
5 определению измерения информации и различные способы введения меры количества информации. Количество информации - числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности
(упорядоченности), определенности, выбору состояний отображаемой системы.
Если рассматривается некоторая система, которая может принимать одно из n возможных состояний, то актуальной задачей является задача оценки этого выбора, исхода. Такой оценкой может стать мера информации
(события).
Мера, как было сказано выше, - непрерывная действительная неотрицательная функция, определенная на множестве событий и являющаяся аддитивной (мера суммы равна сумме мер). Меры могут быть статические и динамические, в зависимости от того, какую информацию они позволяют оценивать: статическую (не актуализированную; на самом деле оцениваются сообщения без учета ресурсов и формы актуализации) или динамическую (актуализированную т.е. оцениваются также и затраты ресурсов для актуализации информации). [2]
1.3 Способы измерения информации
Пионером в области информационной теории был Ральф Хартли. Он ввѐл понятие «информации» (энтропии) как случайной переменной и был первым, кто попытался определить «меру информации».
Простейшей единицей измерения информации является бит — единица измерения количества информации, принимающая 2 логических значения: да или нет, истина или ложь, включено или выключено; 1 или 0 в двоичной системе счисления.
В современных вычислительных системах одномоментно обрабатываются 8 бит информации, называемые байтом. Байт может принимать одно из 256 (2 8
) различных значений (состояний, кодов).
Производные от байта десятичные единицы измерения, соответственно,
6 именуются килобайт (10 3
= 1000 байт), мегабайт (10 6
= 1000000 байт), гигабайт (10 9
= 1000000000 байт) и т. д.
Производные от байта двоичные (бинарные) единицы измерения именуются кибибайт (2 10
= 1024 байт), мебибайт (2 20
= 1048576 байт), гибибайт (2 30
= 1073741824 байт) и так далее.
Также, информацию измеряют такими единицами как:
Трит — логарифмическая единица измерения в теории информации, минимальная целая единица измерения количества информации источников с тремя равновероятными сообщениями. Энтропию в 1 трит имеет источник информации с тремя равновероятными состояниями. Проще говоря, по аналогии с битом, который «уменьшает незнание» об исследуемом объекте в два раза, трит «уменьшает незнание» в три раза. Один трит равен log
2 3 (около
1,58496) битам информации. Применяется в теории информации.
Нат — одна из единиц измерения информации. Определяется через натуральный логарифм, в отличие от других единиц, где основание логарифма является целым числом. Нат равен log
2
e ≈ 1,443 бит. Применяется в теории информации (см.: собственная информация), в математической лингвистике, а также для исчисления энтропии в термодинамике и эконометрике. По смыслу единица измерения нат эквивалентна неперу (для силовых величин), и может пониматься как количество информации в системе по отношению к элементарной системе, содержащей одно состояние.
Отличие состоит лишь в том, что непер традиционно имеет другую область применения (электротехника). [3]
1.4 Научная деятельность Ральфа Хартли
После войны ученый вплотную занялся проблемой передачи информации (в частности звуковой). В течение этого периода он сформулировал закон, "что общая сумма информации, которая может быть передана, пропорциональна переданному частотному диапазону и времени передачи." Хартли был пионером в области Информационной Теории. Он
7 ввѐл понятие "информации" как случайная переменная и был первый, кто попытался определить "меру информации" (1928: " Передача Информации", в Технологии Системы Звонка. Журнал, издание 7, стр 535-563). Публикация в том же самом журнале как Nyquist, и все же не цитируя Nyquist (или кто - либо еще, впрочем), Хартли развивал понятие информации, основанной на "физическом как противопоставлено с психологическими рассмотрениями" для использования в изучении электронных коммуникаций. Фактически,
Хартли соответственно определяет это основное понятие. Вместо этого он обращается к "точности ... информации" и "количества информации".
Информация существует в передаче символов, с символами, имеющими "определенные значения к партийному сообщению". Когда кто - то получает информацию, каждый полученный символ позволяет получателю "устранять возможности", исключая другие возможные символы и их связанные значения".
Точность информации зависит от того, что другие последовательности символа, возможно, были выбраны"; мера этих других последовательностей обеспечивает признак количества переданной информации. Nyquist тогда предлагает, чтобы мы взяли "как наша практическая мера информации логарифм числа возможных последовательностей символа". Таким образом, если бы мы получили 4 различных символа, происходящие с равной частотой, то это представило бы 2 бита Хартли награжден премиями за отличия в области науки, этот ученый состоял в американской Ассоциации
Продвижения Науки. Хартли принадлежат больше чем 70 патентов
(изобретений). [4]
1.5 Информационная мера
Попытки количественного измерения информации предпринимались неоднократно. Первые отчетливые предложения об общих способах измерения количества информации были сделаны Р. Фишером (1921 г.) в процессе решения вопросов математической статистики. Проблемами
8 хранения информации, передачи ее по каналам связи и задачами определения количества информации занимались Р. Хартли (1928 г.) и X. Найквист (1924 г.).
Р. Хартли заложил основы теории информации, определив меру количества информации для некоторых задач. Наиболее убедительно эти вопросы были разработаны и обобщены американским инженером Клодом
Шенноном в 1948 г. С этого времени началось интенсивное развитие теории информации вообще и углубленное исследование вопроса об измерении ее количества в частности. [8]
Для того чтобы применить математические средства для изучения информации, потребовалось отвлечься от смысла, содержания информации.
Этот подход был общим для упомянутых нами исследователей, так как чистая математика оперирует с количественными соотношениями, не вдаваясь в физическую природу тех объектов, за которыми стоят соотношения. Например, если находится сумма двух чисел 5 и 10, то она в равной мере будет справедлива для любых объектов, определяемых этими числами. Поэтому, если смысл выхолощен из сообщений, то отправной точкой для информационной оценки события остается только множество отличных друг от друга событий и соответственно сообщений о них.
Предположим, нас интересует следующая информация о состоянии некоторых объектов: в каком из четырех возможных состояний (твердое, жидкое, газообразное, плазма) находится некоторое вещество? на каком из четырех курсов техникума учится студент?
Во всех этих случаях имеет место неопределенность интересующего нас события, характеризующаяся наличием выбора одной из четырех возможностей. Если в ответах на приведенные вопросы отвлечься от их смысла, то оба ответа будут нести одинаковое количество информации
, так как каждый из них выделяет одно из четырех возможных состояний объекта и, следовательно, снимает одну и ту же неопределенность сообщения.
9
Неопределенность неотъемлема от понятия вероятности. Уменьшение неопределенности всегда связано с выбором (отбором) одного или нескольких элементов (альтернатив) из некоторой их совокупности. Такая взаимная обратимость понятий вероятности и неопределенности послужила основой для использования понятия вероятности при измерении степени неопределенности в теории информации. Если предположить, что любой из четырех ответов на вопросы равновероятен, то его вероятность во всех вопросах равна 1/4. Одинаковая вероятность ответов в этом примере обусловливает и равную неопределенность, снимаемую ответом в каждом из двух вопросов, и, следовательно, каждый ответ несет одинаковую информацию.
Теперь попробуем сравнить следующие два вопроса: на каком из четырех курсов техникума учится студент? Как упадет монета при подбрасывании: вверх «гербом» или «цифрой»? В первом случае возможны четыре равновероятных ответа, во втором – два. Следовательно, вероятность какого-то ответа во втором случае больше, чем в первом (1/2 > 1/4), в то время как неопределенность, снимаемая ответами, больше в первом случае.
Любой из возможных ответов на первый вопрос снимает большую неопределенность, чем любой ответ на второй вопрос. Поэтому ответ на первый вопрос несет больше информации! Следовательно, чем меньше вероятность какого-либо события, тем большую неопределенность снимает сообщение о его появлении и, следовательно, тем большую информацию оно несет.
Предположим, что какое-то событие имеет m равновероятных исходов.
Таким событием может быть, например, появление любого символа из алфавита, содержащего m таких символов. Как измерить количество информации, которое может быть передано при помощи такого алфавита?
Это можно сделать, определив число N возможных сообщений, которые могут быть переданы при помощи этого алфавита. Если сообщение формируется из одного символа, то N = m, если из двух, то N = m + m = m2.
10
Если сообщение содержит n символов (n – длина сообщения), то N = mn.
Казалось бы, искомая мера количества информации найдена. Ее можно понимать как меру неопределенности исхода опыта, если под опытом подразумевать случайный выбор какого-либо сообщения из некоторого числа возможных. Однако эта мера не совсем удобна. При наличии алфавита, состоящего из одного символа, т.е. когда m = 1, возможно появление только этого символа. Следовательно, неопределенности в этом случае не существует, и появление этого символа не несет никакой информации.
Между тем, значение N при m = 1 не обращается в нуль. Для двух независимых источников сообщений (или алфавита) с N1 и N2 числом возможных сообщений общее число возможных сообщений N = N1N2, в то время как логичнее было бы считать, что количество информации, получаемое от двух независимых источников, должно быть не произведением, а суммой составляющих величин.
Выход из положения был найден Р. Хартли, который предложил информацию I, приходящуюся на одно сообщение, определять логарифмом общего числа возможных сообщений N:
( )
Если же все множество возможных сообщений состоит из одного (N = m = 1), то I (N) = log 1 = 0, что соответствует отсутствию информации в этом случае. При наличии независимых источников информации с N1 и N2 числом возможных сообщений
( ) т.е. количество информации, приходящееся на одно сообщение, равно сумме количеств информации, которые были бы получены от двух
11 независимых источников, взятых порознь. Формула, предложенная Хартли, удовлетворяет предъявленным требованиям. Поэтому ее можно использовать для измерения количества информации.
Если возможность появления любого символа алфавита равновероятна
(а мы до сих пор предполагали, что это именно так), то эта вероятность р =
1/m. Полагая, что N = m,
( ) (
) т.е. количество информации на каждый равновероятный сигнал равно минус логарифму вероятности отдельного сигнала. Полученная формула позволяет для некоторых случаев определить количество информации.
Однако для практических целей необходимо задаться единицей его измерения. Для этого предположим, что информация – это устраненная неопределенность. Тогда в простейшем случае неопределенности выбор будет производиться между двумя взаимоисключающими друг друга равновероятными сообщениями, например между двумя качественными признаками: положительным и отрицательным импульсами, импульсом и паузой и т.п. Количество информации, переданное в этом простейшем случае, наиболее удобно принять за единицу количества информации.
Именно такое количество информации может быть получено, если применить формулу (2) и взять логарифм по основанию 2. Тогда
Полученная единица количества информации, представляющая собой выбор из двух равновероятных событий, получила название двоичной единицы, или бита. Название bit образовано из двух начальных и последней
12 буквы английского выражения binary digit, что значит двоичная единица. Бит является не только единицей количества информации, но и единицей измерения степени неопределенности. При этом имеется в виду неопределенность, которая содержится в одном опыте, имеющем два равновероятных исхода.
На количество информации, получаемой из сообщения, влияет фактор неожиданности его для получателя, который зависит от вероятности получения того или иного сообщения. Чем меньше эта вероятность, тем сообщение более неожиданно и, следовательно, более информативно.
Сообщение, вероятность которого высока и, соответственно, низка степень неожиданности, несет немного информации. [7]
Р. Хартли понимал, что сообщения имеют различную вероятность и, следовательно, неожиданность их появления для получателя неодинакова.
Но, определяя количество информации, он пытался полностью исключить фактор «неожиданности». Поэтому формула Хартли позволяет определить количество информации в сообщении только для случая, когда появление символов равновероятно и они статистически независимы. На практике эти условия выполняются редко. При определении количества информации необходимо учитывать не только количество разнообразных сообщений, которые можно получить от источника, но и вероятность их получения. [5]
1.6 Примеры
1. Имеются 192 монеты. Известно, что одна из них - фальшивая, например, более легкая по весу. Определим, сколько взвешиваний нужно произвести, чтобы выявить ее. Если положить на весы равное количество монет, то получим 3 независимые возможности: а) левая чашка ниже; б) правая чашка ниже; в) чашки уравновешены. Таким образом, каждое взвешивание дает количество информации
I=log2(3), следовательно, для определения фальшивой монеты нужно