ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 23.11.2023
Просмотров: 176
Скачиваний: 2
ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
Основы теории систем и системного анализа 47 найти производственную или какую-либо другую действующую систему с от- сутствующими горизонтальными связями.
Важное значение при морфологическом описании системы имеют ее композиционные свойства. Композиционные свойства систем определяются способом объединения элементов в подсистемы.
Будем различать подсистемы в соответствии с композиционными свойст- вами, которые представлены на рисунке 4.8.
Рисунок 4.8 - Виды подсистем по способу объединения элементов
Эффекторные подсистемы способны преобразовывать воздействие и воздействовать веществом или энергией на другие подсистемы и системы, в том числе на среду.
Рецепторные подсистемы преобразовывают внешнее воздействие в ин- формационные сигналы, передают и переносят информацию.
Рефлексивные подсистемы способны воспроизводить внутри себя про- цессы на информационном уровне, генерировать информацию.
Композиция систем, не содержащих (до элементного уровня) подсистем с выраженными свойствами, называется слабой. Композиция систем, содержа- щих элементы с выраженными функциями, называется соответственно с эф- фекторными, рецепторными или рефлексивными подсистемами; возможны комбинации.
Композицию систем, включающих подсистемы всех трех видов, будем называть полной. Элементы системы (т.е. подсистемы, в глубь которых морфо- логический анализ не распространяется) могут иметь эффекторные, рецептор- ные или рефлексивные свойства, а также их комбинации.
На теоретико-множественном языке морфологическое описание предста- вимо в виде:
SM = {S, V, δ, K},
где S={Si} — множество элементов и их свойств (под элементом в данном слу- чае понимается подсистема, вглубь которой морфологическое описание не про- никает); V ={Vj}j — множество связей; δ — структура; К — композиция.
Все множества считаем конечными.
Будем различать в S состав: гомогенный, гетерогенный, смешанный
48 Основы теории систем и системного анализа
Свойства элементов: информационные, энергетические, информационно- энергетические, вещественно-энергетические.
Будем различать во множестве V назначение связей: информационные, вещественные, энергетические.
Характер связей: прямые, обратные, нейтральные.
Будем различать в δ устойчивость структуры: детерминированная, веро- ятностная, хаотическая.
Построения: иерархические, многосвязные, смешанные, преобразующие- ся.
Будем различать во множестве К композиции: слабые, эффекторными подсистемами, с рецепторными подсистемами, с рефлексивными подсистема- ми, полные, неопределенные.
Морфологическое описание, как и функциональное, строится по иерархи- ческому (многоуровневому) принципу путем последовательной декомпозиции подсистем. Уровни декомпозиции системы, уровни иерархии функционального и морфологического описания должны совпадать. Морфологическое описание можно выполнить последовательным расчленением системы. Это удобно в том случае, если связи между подсистемами одного уровня иерархии не слишком сложны. Наиболее продуктивны (для практических задач) описания с единст- венным членением или с небольшим их числом. Каждый элемент структуры можно, в свою очередь, описать функционально и информационно. Морфоло- гические свойства структуры характеризуются временем установления связи между элементами и пропускной способностью связи. Можно доказать, что множество элементов структуры образует нормальное метрическое пространст- во. Следовательно, в нем можно определить метрику (понятие расстояния). Для решения некоторых задач целесообразно введение метрики в структурном про- странстве.
Методы описания структур. Структурные схемы.
Формирование структуры является частью решения общей задачи описа- ния системы. Структура выявляет общую конфигурацию системы, а не опреде- ляет систему в целом.
Если изобразить систему как совокупность блоков, осуществляющих не- которые функциональные преобразования, и связей между ними, то получим структурную схему, в обобщенном виде описывающую структуру системы.
Под блоком обычно понимают, особенно в технических системах, функцио- нально законченное и оформленное в виде отдельного целого устройства. Чле- нение на блоки может осуществляться исходя из требуемой степени детализа- ции описания структуры, наглядности отображения в ней особенностей процес- сов функционирования, присущих системе. На рисунке 4.9 приведена схема ор- ганизационной структуры ЮЗГУ.
Основы теории систем и системного анализа 49
Рисунок 4.9 - Структурная схема управления ЮЗГУ
Помимо функциональных, в структурную схему могут включаться логи- ческие блоки, позволяющие изменять характер функционирования в зависимо- сти от того, выполняются или нет некоторые заранее заданные условия.
Структурные схемы наглядны и вмещают в себя информацию о большом числе структурных свойств системы. Они легко поддаются уточнению и кон- кретизации, в ходе которой не надо изменять всю схему, а достаточно заменить отдельные ее элементы структурными схемами, включающими не один, как раньше, а несколько взаимодействующих блоков.
Однако, структурная схема — это еще не модель структуры. Она с тру- дом поддается формализации и является скорее естественным мостиком, облег- чающим переход от содержательного описания системы к математическому, чем действительным инструментом анализа и синтеза структур.
50 Основы теории систем и системного анализа
5. КРИТЕРИИ ЭФФЕКТИВНОСТИ ФУНКЦИОНИРОВАНИЯ СИСТЕМ
Наиболее существенные свойства представления системы можно класси- фицировать не только по уровню сложности, но и по принадлежности к систе- мообразующим, структурным или функциональным группам. На рисунке 5.1 отображены показатели существенных свойств систем.
Рисунок 5.1- Показатели существенных свойств систем
При таком рассмотрении показатели качества можно отнести к области общесистемных и структурных свойств систем. Свойства, которые характери- зуют процесс функционирования системы, можно назвать операционными свойствами или свойствами операции, поскольку искусственные системы соз- даются для выполнения конкретных операций.
В общем случае оценка операционных свойств проводится, исходя из анализа:
исхода (результатов) операции;
алгоритма, обеспечивающего получение результатов.
Основы теории систем и системного анализа 51
Качество исхода операции и алгоритм, обеспечивающий получение ре- зультатов, оцениваются по показателям качества операции, к которым относят
результативность, ресурсоемкость и оперативность.
Результативность (Э) операции обусловливается получаемым целевым эффектом, ради которого функционирует система.
Ресурсоемкость ® характеризуется используемыми для получения целе- вого эффекта ресурсами (людскими, материально-техническими, энергетиче- скими, информационными, финансовыми и т.п.),
Оперативность (О) определяется временем, отводимым для достижения цели операции.
Оценка исхода операции (аспект 1) учитывает, что операция проводится для достижения определенной цели — исхода операции.
Под исходом операции понимается ситуация (состояние системы и внеш- ней среды), возникающая на момент ее завершения.
Для количественной оценки исхода операции вводится понятие показа-
теля исхода операции (ПИО):
( , , )
исх
Э
R
O
Y
Y Y Y
, где компоненты вектора представляют собой показатели его отдельных свойств, отражающие эффективность, ресурсоемкость и оперативность опе-
рации.
Оценка алгоритма функционирования (аспект 2) является ведущей при оценке эффективности. Такое утверждение основывается на теоретическом по- стулате, подтвержденном практикой: наличие хорошего «алгоритма» функцио- нирования системы повышает уверенность в получении требуемых результа- тов. Это положение особенно важно для организационно-технических систем и систем, в которых результаты операции используются в режиме реального вре- мени.
В совокупности результативность, ресурсоемкость и оперативность по- рождают комплексное свойство эффективность процесса— степень достижения цели (рис. 5.2).
Рисунок 5.2- Необходимые условия для определения эффективности процесса
52 Основы теории систем и системного анализа
Это свойство, присущее только операциям, проявляется при функциони- ровании системы и зависит как от свойств самой системы, так и от внешней среды.
В термин «эффективность» связывается и с системой, и с операцией, и с решением. Образуемые при этом понятия можно считать эквивалентными. В конечном счете, каждое из них отражает соответствие исхода операции постав- ленной цели. Обычно нужно иметь в виду, что одна или несколько операций реализуются системой. Для большинства операций процедура оценки эффек- тивности решений носит характер прогнозирования.
1 2 3 4 5 6 7 8 9 10 11
Выбор критерия эффективности является важным и центральным
моментом исследования системы.
Процесс выбора критерия эффективности, как и процесс определения це- ли, является в значительной мере субъективным, творческим, требующим в ка- ждом отдельном случае индивидуального подхода. Наибольшей сложностью отличается выбор критерия эффективности решений в операциях, реализуемых иерархическими системами.
Математическое выражение критерия эффективности называют целевой функцией, поскольку нахождение экстремума является отображением цели операции.
Для формирования критерия эффективности решений в операции прежде всего требуется определить поставленную цель.
Затем нужно найти множества управляемых и неуправляемых характери- стик системы, реализующей операцию.
Следующий шаг — определение показателей исходов операции. Только после этого возможны выбор и формирование критерия эффективности. Пока- затели (функции показателей) исходов операции, на основе которых формиру- ется критерий эффективности, принято называть показателями эффективности.
В отдельных операциях показатель исхода операции может прямо выступать критерием эффективности.
Конкретный физический смысл показателей определяется характером и целями операции, а также качеством реализующей ее системы и внешними воз- действиями.
В отдельных системах в качестве показателей результативности могут рассматриваться показатели ресурсоемкости или оперативности, однако каче- ство операции в целом не может быть охарактеризовано ни одним из перечис- ленных частных свойств в отдельности, а определяется, подобно ПИО, их сово- купностью Yисх =
Следует заметить, что конкретные операции достаточно разнообразны и существует ряд общих принципиальных положений, которыми необходимо ру- ководствоваться при формировании системы критериев эффективности реше- ний.
В зависимости от типа систем и внешних воздействий операции могут быть детерминированными, вероятностными или неопределенными. В со-
Основы теории систем и системного анализа 53 ответствии с этим выделяют три группы показателей и критериев эффективно- сти функционирования систем, которые представлены на рисунке 5.3.
Рисунок 5.3 – Группы показателей и критериев эффективности
Критерий пригодности для оценки детерминированной операции опре-
деляет правило, по которому операция считается эффективной, если все ча-
стные показатели исхода операции принадлежат области адекватности.
Критерий оптимальности для оценки детерминированной операции оп-
ределяет правило, по которому операция считается эффективной, если все
частные показатели исхода операции принадлежат области адекватности, а
радиус области адекватности по этим показателям оптимален.
Критерий пригодности для оценки эффективности вероятностной опера- ции определяет правило, по которому операция считается эффективной, если вероятность достижения цели по показателям эффективности Rдц(Yэф) не меньше требуемой вероятности достижения цели по этим показателям
Rдцтреб(Yэф).
Критерий оптимальности для оценки эффективности вероятностной опе- рации
Kопт: Rдц(Yэф) = Rдцтреб(Yопт) определяет правило, по которому операция считается эффективной, если вероятность достижения цели по показателям эффективности Rдц(Yэф) равна вероятности достижения цели с оптимальными значениями этих показателей
Rдцтреб(Yопт).
Основной проблемой оценки эффективности вероятностных операций яв- ляется неясность способа определения требуемых вероятностей. Это связано с отсутствием достаточной статистики. Известно, что применение методов клас- сической теории вероятностей допустимо при повторяемости опытов и одина- ковости условий. Эти требования в сложных системах выполняются не всегда.
Наибольшие трудности возникают при оценке эффективности систем в условиях неопределенности. Для решения этой задачи разработано несколько
детерминированные
Ви ды
вероятностные
неопределенные
ПИО отражают определенный исход детерминированной операции
ПИО - случайные величины с извест- ными законами распределения
ПИО - случайные величины с неиз- вестными законами распределения
54 Основы теории систем и системного анализа подходов. Порядок оценки эффективности систем в неопределенных операциях составляет один из разделов теории принятия решений.
Выбор показателей для конкретной системы связан с анализом большого объема плохо структурированной информации, и поэтому в системном анализе сформулированы требования, следование которым позволяет обосновать при- менимость показателей в данной задаче оценки.
Общими требованиями к показателям исхода операции представлены на рисунке 5.4.
Рисунок 5.4 - Общие требования к показателям исхода операции
Одним из основных требований является соответствие ПИО цели опера- ции, реализуемой системой. Цели операции в значительной степени зависят от предназначения системы. Например, для такой ИС, как АСУ, целями операции могут быть обеспечение требуемых значений оперативности, достоверности, устойчивости и безопасности решения задач управления и передачи сообщений и др. Для каждой из выдвигаемых целей должны быть определены одна или не- сколько составляющих ПИО.
К числу основных требований к ПИО относится также его полнота. Суть этого требования заключается в том, что ПИО Должен отражать желательные
(целевые) и нежелательные (побочные) последствия операции по показателям результативности, ресурсоемкости и оперативности. Заметим, что одним из по- казателей правильности выбора составляющих ПИО и их полноты является мо- нотонный характер функции полезности (ценности), построенной для каждой составляющей. Если при этом какая-либо из функций не монотонная, то это оз- начает, что упущены одна или несколько составляющих ПИО.
Следующее важное требование к ПИО — измеримость его составляющих с помощью либо натурного эксперимента, либо моделей операции. Если рас- сматриваемая операция не позволяет это сделать, ее целесообразно разложить на подоперации, обеспечивающие измеримость составляющих. Процесс деком- позиции операции на подоперации может быть многоуровневым. Например, операцию «Решение задач управления» можно разделить на подоперации: «Ре-
Основы теории систем и системного анализа 55 шение задач планирования» и «Решение задач оперативного управления», а по- следние, в свою очередь, — на «Решение задач учета», «Решение задач контро- ля» и т.д.
При определении задач ПИО необходимо стремиться к ясности их физи- ческого смысла, т.е. чтобы они измерялись с помощью количественных мер, доступных для восприятия. Однако достичь этого удается не всегда. Тогда при- ходится вводить так называемые субъективные составляющие ПИО. Например, такое свойство людей, как обученность, обычно не может быть определено с помощью характеристик, имеющих физический смысл. В этом случае часто вводят некоторую искусственную шкалу. Другой способ обеспечения измери- мости составляющих ПИО переход к показателям заменителям, косвенно ха- рактеризующим рассматриваемое свойство. Требование ясности физического смысла ограничивает возможности агрегирования частных показателей в один критерий. Так, например, не имеет физического смысла обобщенный скаляр- ный показатель, составленный из частных показателей результативности, ре- сурсоемкости и оперативности.
Важным требованием к ПИО является минимизация его размерности, т. е. обеспечение неизбыточного набора составляющих. С ростом количества со- ставляющих резко возрастает трудоемкость построения функции эффективно- сти.
И, наконец, в группу основных требований к составляющим ПИО обычно вводят их относительно высокую чувствительность к изменениям значений управляемых характеристик.
Таким образом, набор составляющих ПИО может быть определен раз- личными способами, поскольку к настоящему времени еще не существует фор- мальной теории, обеспечивающей объективное решение этой задачи. Два лица, принимающие решение на одну и ту же операцию, могут определить различ- ный состав ПИО. Важно лишь то, что, используя различные ПИО, они должны выбрать одинаковое решение — оптимальное.
56 Основы теории систем и системного анализа
6. ИНФОРМАЦИОННЫЙ ПОДХОД К АНАЛИЗУ СИСТЕМ
Процесс системного анализа и принятия решений представляют собой информационное взаимодействие участников (отправителей и получателей ин- формации), включают сбор сведений об объекте и анализ полученной инфор- мации. Информация является одним из самых важных атрибутов управления в системах. Разнообразные значения термина информация приведены на рисунке
6.1.
Рисунок 6.1 Различные значения термина информация
Информация в широком смысле – это отражение одного объекта на дру- гой, т.е. когда состояние одного объекта находится в соответствии с состоянием другого.
Информация рассматривается как фундаментальное свойство материи, т.к. свойство отражения присуще всей материи (рис.6.2).
Рисунок 6.2- Свойство информации
Основы теории систем и системного анализа 57
Существует множество определений понятия «информация», но до сих пор нет точного общепризнанного определения этого феномена. Приведем не- которые из определений информации. Разными исследователями она определя- ется как:
Рисунок 6.3 – Определение термина информация в трактовке разных исследователей
Единственное определение информации, которое не вызвало открытых возражений в научном сообществе, принадлежит "отцу кибернетики", матема- тику Норберту Винеру: «Информация есть информация, а не материя и не
энергия».
Из этого определения вытекает, что информация — не существующий ре- ально объект, а умственная абстракция, то есть созданная человеческим разу- мом фикция.
В смысле математической абстракции понятие информации введено Кло- дом Шенноном: «Информация противоположна энтропии, являющейся мерой неопределенности состояний изучаемого объекта».
Показатель информации о событии равен уменьшению энтропии в систе- ме, вызванной неопределенностью наступления события.
Понятие информации предполагает наличие двух объектов: источника
информации и потребителя. Информация от источника к потребителю пере- дается посредством сигналов, являющихся материальными носителями инфор- мации (рис.6.4).
58 Основы теории систем и системного анализа
Рисунок 6.4 – Общая схема передачи информации
Если сведения не имеют никакой пользы, то они представляют собой не информацию, а «шум». Если они отклоняют от правильного решения, то пред- ставляют собой дезинформацию. Таким образом, можно говорить о полезности информации и наличии в ней смысла для конкретной системы. Информация имеет воплощение в виде знаков, символов. Знак является материальным носи- телем информации. Приемник информации имеет способность к восприятию, преобразованию и воспроизводству знаков в определенном диапазоне, отведен- ном ему природой или искусственным устройством.
Основные формы проявления информации:
осведомляющая — движущаяся от объектов управления к соответст- вующим узлам управления (передается по каналам обратной связи);
управляющая— движется в обратном направлении и содержит указа- ния, директивы и т.п.;
преобразующая— определяет закономерности поведения узла управ- ления и алгоритмы функционирования его отдельных элементов.
При этом информация является неотъемлемой функцией высокооргани- зованных систем, включая человека.
Узлы управления преобразуют осведомляющую информацию в управ- ляющую с помощью преобразующей информации, заключенной в структуре и алгоритмах узла управления.
По мере движения вверх по иерархии информация постепенно обобщает- ся, преобразуется в различных узлах управления и поступает в находящийся на вершине иерархии главный узел управления.
Онтологическое понимание информации представлено на рисунке 6.5
Рисунок 6.5- Онтологическое представление информации
Основы теории систем и системного анализа 59
Любая социально-экономическая система – это одновременно информа- ционная система, которая может быть рассмотрена в двух аспектах: как множе- ство каналов связи (технический аспект) и как множество потоков сообщений – информационных потоков (содержательный аспект). Основная задача инфор- мационной системы – обеспечение управления (процесса принятия решений) необходимой информацией в нужное время и в нужном месте. Информацион- ные ресурсы организации – это весь объем информации в информационной системе.
Информация — продукт сознания, созданный людьми.
Известно, что только 10-30% данных, циркулирующих в экономических
системах, используются при решении задач, а остальные данные не исполь-
зуются вообще.
Методологическое представление информации представлено на рисунке
6.6.
Рисунок 6.6 - Методологическое представление информации
Различие между онтологическими и методологическими концепциямиза- ключается в том, что информация имеет разное место в механизме обществен- ного познания.
Методологические концепции трактуют информацию ее как метод ос- мысления изучаемых явлений, таких как: оценка их неопределенности, мате-
матическое моделирование, оптимизация кодирования сообщений и т. п.
Онтологические концепции трактуют информацию как объект познания, который нужно обнаружить в реальной действительности.
Для того, чтобы реализовать информационное описание системы необхо- димо выполнить действия, показанные на рисунке 6.7 60 Основы теории систем и системного анализа
Рисунок 6.7 – Последовательность действий при информационном описании системы
После публикаций Н. Винера и К. Шеннона во всем мире получил при- знание информационный подход, состоящий в рассмотрении объектов позна- ния через призму информации.
Физиологи, психологи, социологи, экономисты, технологи, генетики, языковеды, педагоги и др. стали находить информацию почти во всех органи- ческих, общественных и умственных процессах. Появились различные типы информации (рис. 6.8).
Рисунок 6.8 – Типы связей между видами коммуникаций и информации
Информация и информационные процессы — это результат информаци- онного подхода к коммуникации. Информационный подход корректно приме- няется в методологических концепциях, четко разграничивающих объекты по- знания и информационный инструментарий познающего субъекта.
К. Шеннон, предлагая математические формулы для подсчета количества информации в коммуникационных сообщениях, передаваемых по телефонно-
Основы теории систем и системного анализа 61 телеграфному каналу, ни в коем случае не отождествлял выраженную в
байтах информацию с сообщениями или содержанием сообщений.
Поскольку в центре внимания кибернетики находятся вопросы управле- ния, то и информация оценивается с точки зрения ее полезности для управле- ния.
Суть управления состоит в преобразовании информации: блок управле- ния воспринимает текущую информацию о состоянии объекта управления и ре- зультатах его деятельности, а также о состоянии внешней среды для выработки соответствующей управляющей информации, которая затем передается объекту управления (рис. 6.9).
Рисунок 6.9 – Преобразование информации в кибернетике
Осведомляющая и управляющая информация может генерироваться и по- требляться как внутри системы управления, так и вне ее, образуя информаци- онные потоки, связывающие систему управления с внешней средой.
Фактически информационные потоки системы являются отображением функциональной и структурной организации изучаемого объекта в ракурсе ме- ханизма принятия решений внутри системы. Параметры информационных по- токов системы представлены на рисунке 6.10.
62 Основы теории систем и системного анализа
Рисунок 6.10 – Параметры информационных потоков
Для количественной оценки информационных потоков в системах из- вестны следующие характеристики:
коэффициент трансформации x/y, где x — число входных показате- лей, а y — число выходных показателей, имеющих размерность потока за опре- деленное время- час, день, месяц, год. В вертикальных связях данный коэффи- циент получил название коэффициента сжатия.
коэффициент комплексности ∑k i
/x, где k i
— число участий входного показателя i в разработке других показателей.
коэффициент стабильности c/x, где c — число оставшихся неизмен- ными за определенный период показателей (показывает степень устойчивости информационных массивов).
Основы теории систем и системного анализа 63
7. МЕРЫ ИНФОРМАЦИИ В СИСТЕМЕ
В связи с тем, что информация может пониматься и интерпретироваться в различных проблемах, предметных областях по-разному, то имеются различ- ные подходы к определению измерения информации и различные способы вве- дения меры количества информации.
Количество информации - числовая величина, адекватно характери-
зующая актуализируемую информацию по разнообразию, сложности,
структурированности (упорядоченности), определенности, выбору со-
стояний отображаемой системы.
Если рассматривается некоторая система, которая может принимать одно из п возможных состояний, то актуальной задачей является задача оценки этого выбора, исхода. Такой оценкой может стать мера информации.
Мера - непрерывная действительная неотрицательная функция, оп-
ределенная на множестве событий и являющаяся аддитивной (мера суммы равна сумме мер).
В настоящее время принято рассматривать следующие виды мер:
Синтаксическая (техническая) – это точность, надежность, скорость передачи сигналов и т.п.;
Семантическая – это передача смысла текста с помощью кодов;
Прагматическая – это насколько эффективно информация влияет на поведение объекта.
Синтаксическая мера информации оперирует с обезличенной информаци- ей, не выражающей смыслового отношения к объекту. При этом объем данных
1 2 3 4 5 6 7 8 9 10 11
V
d в сообщении измеряется количеством символов (разрядов) в этом сообще- нии. В различных системах счисления один разряд имеет различный вес и, со- ответственно, меняется единица измерения данных:
в двоичной системе счис- ления единица измерения – бит;
в десятичной системе счисления единица из- мерения – дит.
Минимальным количеством информации является 1 бит. Эту меру ин- формации впервые предложил Р. Хартли (1928) от слияния binary, digit:
1 байт=8 бит;
1 Килобайт=1024байт;
1 Мегабайт=1024Кбайт;
1 Гигабайт=1024Мбайт;
1 Терабайт=1024Гбайт;
1 Петабайт=1024Тбайт;
1 Экзобайт=1024Пбайт;
1Зеттобайт=1024Эбайт;
1Йоттабайт=1024Збайт.
Прагматическая мера информации определяет полезность информации
(ценность) для достижения пользователем поставленной цели. Эта мера являет- ся величиной относительной, обусловленной особенностями использования
64 Основы теории систем и системного анализа информации в системе. Ценность информации целесообразно измерять в тех же единицах, в которых измеряется целевая функция.
1. Мера Р. Хартли. Пусть имеется N состояний системы S или N опытов с различными, равновозможными, последовательными состояниями системы.
Если каждое состояние системы закодировать, например, двоичными кодами определенной длины d, то эту длину необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N. Наименьшее число, при ко- тором это возможно, называется мерой разнообразия множества состояний
системы и задается формулой Р. Хартли:
N
k
H
a
log
,
где k - коэффициент пропорциональности (масштабирования, в зависимости от выбранной единицы измерения меры), а - основание системы меры.
Пример. Чтобы узнать положение точки в системе из двух клеток т.е. по- лучить некоторую информацию, необходимо задать 1 вопрос ("Левая или пра- вая клетка?"). Узнав положение точки, мы увеличиваем суммарную информа- цию о системе на 1 бит (I=
2
log
2
). Для системы из четырех клеток необходимо задать 2 аналогичных вопроса, а информация равна 2 битам (I=
4
log
2
). Если же система имеет п различных состояний, то максимальное количество информа-
ции будет определяться по формуле: I=log
2
n.
Справедливо утверждение Хартли: если в некотором множестве
n
x
x
x
X
,...,
,
2 1
необходимо выделить произвольный элемент
X
x
i
, то
для того, чтобы выделить (найти) его, необходимо получить не менее log
a
n
(единиц) информации.
Если N - число возможных равновероятных исходов, то величина klnN представляет собой меру нашего незнания о системе.
По Хартли, для того, чтобы мера информации имела практическую цен- ность, она должна быть такова, чтобы отражать количество информации про- порционально числу выборов.
Пример. ДНК человека можно представить как некоторое слово в четы- рехбуквенном алфавите, где каждой буквой помечается звено цепи ДНК или нуклеотид. Определим, сколько информации (в битах) содержит ДНК, если в нем содержится примерно 1, 5x10 23
нуклеотидов (есть и другие оценки этого объема, но мы рассмотрим данный вариант). На один нуклеотид прихо- дится 1од
2
(4)=2 (бит) информации. Следовательно, структура ДНК в орга- низме человека позволяет хранить 3*10 23
бит информации. Это вся информа- ция, сюда входит и избыточная. Реально используемой - структурированной в памяти человека информации, - гораздо меньше. В связи с этим, заметим, что человек за среднюю продолжительность жизни использует около 5-6% нейро- нов (нервных клеток мозга - "ячеек ОЗУ человека"). Генетический код - чрез- вычайно сложная и упорядоченная система записи информации. Информация, заложенная в генетическом коде (по учению Дарвина), накапливалась многие тысячелетия. Хромосомные структуры - своеобразный шифровальный код, при клеточном делении создаются копии шифра, каждая хромосома - удваивается, в
Основы теории систем и системного анализа 65 каждой клетке имеется шифровальный код, при этом каждый человек получает, как правило, свой набор хромосом (код) от матери и от отца. Шифровальный код разворачивает процесс эволюции человека. Вся жизнь, как отмечал Э.
Шредингер, "упорядоченное и закономерное поведение материи, основанное ...
на существовании упорядоченности, которая поддерживается все время".
Формула Хартли отвлечена от семантических и качественных, индивиду- альных свойств рассматриваемой системы (качества информации в проявлени- ях системы с помощью рассматриваемых N состояний системы). Это основная и положительная сторона формулы. Но имеется основная и отрицательная ее сторона: формула не учитывает различимость и различность рассматриваемых
N состояний системы.
Уменьшение (увеличение) Н может свидетельствовать об уменьшении
(увеличении) разнообразия состояний N системы. Обратное, как это следует из формулы Хартли (так как основание логарифма больше 1!), - также верно.
2. Мера К. Шеннона. Формула Шеннона дает оценку информации неза-
висимо, отвлеченно от ее смысла:
n
i
i
i
p
p
I
1 2
log
, где
n
- число состояний системы;
i
p - вероятность (или относительная часто- та) перехода системы в i-e состояние, причем сумма всех
i
p , равна 1.
Если все состояния равновероятны (т.е.
n
p
i
/
1
), то I = log
2
n.
К. Шенноном доказана теорема о единственности меры количества
информации. Для случая равномерного закона распределения плотности веро- ятности мера Шеннона совпадает с мерой Хартли. Справедливость и достаточ- ная универсальность формул Хартли и Шеннона подтверждается и данными нейропсихологии.
Пример. Время t реакции испытуемого на выбор предмета из имеющихся
N предметов линейно зависит от Iog
2
N: t=200+1801og
2
N (мс).
По аналогичному закону изменяется и время передачи информации в жи- вом организме. Один из опытов по определению психофизиологических реак- ций человека состоял в том, что перед испытуемым большое количество раз зажигалась одна из
n
лампочек, на которую он должен был указать в ходе экс- перимента. Оказалось, что среднее время, необходимое для правильного ответа испытуемого, пропорционально не числу
n
лампочек, а именно величине I, оп- ределяемой по формуле Шеннона, где
i
p - вероятность зажечь лампочку номер i.
Легко видеть, что в общем случае
n
p
p
I
n
i
i
i
2 1
2
log log
Если выбор i-ro варианта предопределен заранее (выбора, собственно го- воря, нет, Pi=l), то I = 0.
66 Основы теории систем и системного анализа
Сообщение о наступлении события с меньшей вероятностью несет в себе больше информации, чем сообщение о наступлении события с большей вероят- ностью. Сообщение о наступлении достоверно наступающего события несет в себе нулевую информацию (и это вполне ясно: событие всё" равно произойдет когда-либо).
Если
k
- коэффициент Больцмана, известный в физике как
16 10 38 1
k
эрг/град, то выражение
n
i
i
i
p
p
k
S
1 2
log в термодинамике известно как энтропия, или мера хаоса, беспорядка в
системе.
Сравнивая выражения I и S, видим, что I можно понимать как информа- ционную энтропию (энтропию из-за нехватки информации о/в системе).
Л. Больцман дал статистическое определение энтропии в 1877 г. и заме- тил, что энтропия характеризует недостающую информацию.
Спустя 70 лет, К. Шеннон сформулировал постулаты теории информа- ции, а затем было замечено, что формула Больцмана инвариантна информаци- онной энтропии, и была выявлена их системная связь, системность этих фун- даментальных понятий.
Важно отметить следующее.
Нулевой энтропии соответствует максимальная информация. Ос- новное соотношение между энтропией и информацией:
I + S(log
2
e) /k=const.
При переходе от состояния
1
S с информацией
1
I к состоянию S
2
с ин- формацией
2
I
возможны случаи:
1.
2 1
S
S
(
2 1
I
I
) - уничтожение (уменьшение) старой информации в
системе;
2.
2 1
S
S
(
2 1
I
I
) - сохранение информации в системе;
3.
2 1
S
S
(
2 1
I
I
) - рождение новой (увеличение) информации в систе-
ме.
Важным достоинством формулы Шеннона является ее отвлеченность
от семантических и качественных, индивидуальных свойств системы.
В отличие от формулы Хартли, она учитывает различность, разновероят- ность состояний - формула имеет статистический характер (учитывает структу- ру сообщений), что позволяет использовать эту формулу для практических вы- числений.
Основным недостатком формулы Шеннона является то, что она не разли- чает состояния (с одинаковой вероятностью достижения, например), не может оценивать состояния сложных и открытых систем и применима лишь для замк- нутых систем, отвлекаясь от смысла информации.