Файл: Гагин. Системный синтез. Линия жизни.doc

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 28.06.2024

Просмотров: 1305

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

СОДЕРЖАНИЕ

Г. Одесса

Оглавление

Глава I………………………………………………………………………….

Синергетика – раздел системного синтеза

1.1. Окружающий мир – системная конструкция Природы

1.2. Основные законы, общие принципы, свойства и особенности систем

1.2.1. Экстремальный принцип (Принцип оптимальности и обобщения)

1.2.1.2. Экстремальный принцип и энтропия системы

1.2.1.3. Экстремальный принцип и информация

1.2.2. Закон информационного противостояния

1.2.3. Закон роста энерговооружённости систем. Принцип экспансии.

1.2.4. Принцип эволюционного коридора

1.2.5. Принцип обратной связи

1.2.6. Пропорционирование и инвариантность систем (Гармоническое единство и резонанс)

1.2.6.2. Рекуррентный, аддитивный ряд чисел фибоначчи – ключ к гармонии мира

1.2.7. Принцип непрерывно– дискретной структуризации

1.2.8. Принцип спиральности

1.2.9. Генетическая связь неорганических и живых систем

2.1.Примеры конкретного проявления эволюционных принципов и законов, при создании Природой систем

2.1.1. Системы неорганической химии

2.1.2. Филлотаксис

2.1.3. Системы животного мира

2.1.4. Человек, как система. Подсистемы.

2.1.4.1 «Флейта-позвоночник» или балалайкой по хребту, и не только…

2.1.5. Земля, как система

2.1.6. Солнечная система

2.1.7. Системы мегамира

«Эволюция, есть закон Жизни,

3.1. Холизм – новое осмысление. Иллюстрации

3.1.1. Человечество и Земля

3. 1. 2. Человечество и Солнце

3.1.3.Феномен пульсирующего времени

3.1.4. Числа ряда Фибоначчи. Иллюстрации…

3.1.5.Семейство Золотых сечений.

3.1.6. Тайны квадратуры круга и не только…

4.1. Фундаментальные взаимодействия в Природе

4.1.1. Вещество, материя, масса.

4.1.2.Энергия

4.1.2.2. Энергия в древней философии.

4.1.3. Проблемы теории относительности.

4.1.4 .Теорема Нётер - фундаментальное достижение теоретической физики.

4.1.5. Теорема Гёделя, фундаментально озадачившая философию

4.1.6. Время.

4.1.7. Пространственные теории материи.

4.1.7.1.Геометродинамика. Геоны.

4.1.8 . Дискретность пространства и времени.

4.1.9. В каком же мире мы живём?

4.1.10. Информация – фундаментальная сущность Природы

4.1.11. «Чёрные дыры» Вселенной .

4.1.12. Фридмоны в иерархии систем .

5.1. «Нижние миры» Природы и Системный Синтез

5.1.1. Микромир.

5.1.1.4.Локализация микрочастиц в квантовой механике.

5.1.2. Квазимир - пустота, вакуум, эфир?

5.1.2.1. История эфира.

5.1.2.3. Кварки-антикварки, монополь.

5.1.3. Грануляция энергии в квазимире.

5.1.3.7. Стремление к грануляции и поисковая активность.

5.2. Вселенная, как система.

5.2.2. Асимметрия живого мира.

5.2.3. Сепарация энергии.

5.2.4. Монополи - кирпичи мироздания.

5.2.5. Асимметрия Вселенной.

5.2.6. Построим ли "вечный двигатель"?

5.2.7. Что же скрыл Эйнштейн от человечества?

5.3. Эволюция и асимметрия.

5.3.1. Горизонты эволюции природы.

6.Информация – ключи Творца.

6.1.. Информация – нераскрытая Сущность Природы.

6.1.1.Информация и Энтелехия.

6.1.2. Информация и клетка. Возникновение живых систем.

6.1.3. Информация и человек.

6.1.4. Третья сигнальная система – признак появления нового вида человека.

6.1.5. Информация и биологическое время системы.

6.1.6 .Информационное поле.

6.1.7. Носители информации.

6.1.8. Солитоны.

6.1.9. Экситоны.

6.2. Информация, как инструмент воздействия, на информационное поле человека.

6.2.1.Информационные болезни.

6.2.2.Любовь - болезнь или феномен эволюции?

6.2.3. Информационные войны.

6.2.4. Внутренние информационные войны. Pr-технологии.

6.3.Энергоинформационный обмен.

6.3.1. Человек – Земля – Космос.

6.3.2. Энергетика храмов.

7. Выборы эволюции. Модели.

7.1. Проблема выбора.

7.2. Принцип экономии энтропии.

7.3. Эволюция - информационный выбор.

Векторы эволюции.

Эволюция и духовность.

Использованная литература

1.2.1.2. Экстремальный принцип и энтропия системы

«Всё, что видим мы, - видимость только одна.

Далеко от поверхности мира до дна.

Полагай несущественным явное в мире,

Ибо тайная сущность вещей не видна».

(Хайям)

Энтропию можно определить, как меру неопределённости, или как меру разнообразия состояний системы. Если система, может находиться в одном из равновероятных состояний, то энтропия H равна:

Н = log n

Пример.Число возможных различных комбинаций положений ферзя на пустой шахматной доске равно 64 (n=64). Энтропия его возможных состояний равна:

H = log 64 = 6 бит

Напомним, из элементарной математики: логарифмом числа N, по основанию а (обозначается logaN) называется показатель степени, в которую надо возвести число а, чтобы получить число N, т. е., в = logaN, если ав = N.

Далее рассматриваем основание а =2.

Бит – единица количества информации в двоичной системе счисления. Соответствует информации, получаемой при осуществлении одного из двух равновероятных состояний.

Далее. Если часть шахматной доски занята фигурами, то разнообразие его (ферзя) возможных позиций и энтропия уменьшаются. Например, ферзь имеет возможность ходить только по одной диагонали доски. Тогда, число его возможных состояний n = 8, а энтропия:

H = log 8 = 3 бит

Если же, ферзю некуда ходить, т. е. число возможных состояний равно 1, то энтропия уменьшается до нуля:

Н = log 1 = 0

Таким образом, можно заключить, что энтропия служит мерой свободы системы: чем больше энтропия, тем больше состояний доступно системе, тем больше у неё степеней свободы.

Рассмотрим случай, когда состояния имеют разные вероятности. В этом случае, энтропия определяется сложнее – как средний логарифм вероятностей, взятый с обратным знаком:

n

Н = - åpilogpi

i=1


где, pi–вероятность i-го состояния, n - число состояний.

В частном случае, когда вероятности всех состояний одинаковы, они равны, очевидно,

р = 1/n

Тогда:

n

H = å 1/n log n = log n

i=1

Сформулируем важнейший принцип – максимума энтропии:

Энтропия максимальна, именно, при равномерном распределении вероятностей. Всякое отклонение от равномерности приводит к уменьшению энтропии.

Усложним пример. Рассмотрим движение молекулы в пространстве. Если ферзя мы рассматривали в двухмерном пространстве, то молекула находится в трехмерном. Но молекула движется, поэтому к её параметрам добавится ещё три скорости (вернее три импульса - произведение массы на скорость). Таким образом, состояние молекулы описывается 6 координатами. Они образуют фазовое пространство.

На систему наложены ограничения: пространство ограничено стенами сосуда «цилиндр с поршнем», а скорости ограничены запасом энергии молекулы.

Теперь энтропию можно определить как логарифм фазового объёма. Объём может быть разбит на ячейки «подобно шахматной доске» соответствующие различным состояниям. Тогда, энтропия опять-таки сведется к логарифму числа состояний. Выбор размеров ячейки равносилен выбору начала отсчета для энтропии, а начало отсчета - понятие условное. Квантовая механика предлагает и абсолютное начало отсчета: согласно её законам объём фазовой ячейки не может быть меньше некоторой предельной величины, определяемой постоянной Планка.

Из определения энтропии, как логарифма фазового объёма становится понятным, от чего зависит энтропия и как её можно изменить, например, увеличить. Для этого нужно увеличить фазовый объём. Увеличить пространственный объём просто: достаточно выдвинуть поршень. Чтобы увеличить фазовый объём по скоростным координатам, нужно увеличить скорость молекулы. Для этого достаточно передать молекуле дополнительную тепловую энергию. В обоих случаях энтропия возрастает.

Всё определённое для одной молекулы верно и для идеального газа, состоящего из N молекул. Энтропия такого газа будет в N раз больше энтропии одной молекулы.

Использование экстремального принципа в данном случае позволяет находить устойчивое равновесие для очень широкого класса систем: физических, биологических, социальных и пр. Запишем этот принцип - принцип максимума энтропии, в виде:


H (x) = å p (x) log 1/p(x) = max (1)

i p (xi)

Варьируемыми переменными в данном случае являются вероятности различных состояний p (xi).

Достигаемый максимум, как, правило, условен, т.к. в системе всегда есть ограничивающие условия, препятствующие бесконечному росту энтропии.

Ограничения могут быть различными. Но наиболее типичными, важными и универсальными являются ограничения на «ресурсы», U (xi) .

U (x)=å p (xi) U (x) £ const

i

Это является характеристикой степени замкнутости системы. Роль ресурсов играют: энергия, материя, пространство, время, количество операций.

С учётом ограничений, принцип максимума энтропии (для закрытых систем) записывается:

Н(х) = bU(x) = max (2)

p(хi)

Здесь, b- так называемый множитель Лагранжа. Он играет роль масштабного коэффициента, позволяющего приводить оба составляющих в выражении (2), к единой размерности. Кроме того, он характеризует дефицит ресурсов, т. е. важность второго составляющего в выражении. Например, если запас энергии в системе мал, тоbбудет большим, а это значит, что второе составляющее будет доминировать в поведении – система будет, главным образом, «экономить энергию». Если же запас энергии велик, тоbбудет малым, и в поведении системы будет преобладать стремление к экспансии, к увеличению энтропии.

Живой системе, ничуть не меньше чем физической, свойственно стремление к экспансии, к заполнению как можно большего объёма в пространстве. Помещённая в какое-то определённое состояние, живая система, рано или поздно, покидает его и начинает «диффузировать» в соседние области. Эта диффузия получила название «поисковой активности».

Биологи проводили эксперименты на крысах. Их помещали в комфортабельную клетку, где были созданы все условия для спокойной жизни. Как же вели себя крысы? Вот как описывает опыт В. Ротенберг и В.Аршавский:

«В одной из стенок камеры была дверь, которая вела в необжитое и неисследованное помещение, таившее в себе опасность самой неизведанностью. После относительно короткого освоения комфортабельной камеры, крысы, одна за другой, начинали предпринимать попытки проникнуть в это необследованное помещение. Это было, отнюдь, не праздное, спокойное любопытство, крысы не производили впечатления «бесящихся с жиру». Они осторожно продвигались по тёмному коридору, проявляя все признаки страха, – у них дыбилась шерсть, усиливалось мочеиспускание, учащался пульс. Они эпизодически, в быстром темпе, возвращались назад и, тем не менее, вновь и вновь пускались в своё рискованное и ничем непосредственно не спровоцированное путешествие».


Порою, вызывает удивление, как люди, без видимых на то причин, начинают обострять противоречия в реальной жизни, «портить отношения», идут на конфликты. Психология объясняет каждый конкретный случай, особенностью характеров, стечением обстоятельств и т. д. Но, причины, порой, заложены глубоко, самой Природой. Гармония и согласие с окружением - это уже стагнация, застой. А системе, для развития и эволюции нужна новая информация, новые среды обитания, новые территории.

Такие примеры можно отыскать в действиях любой «живой» системы. Причины, побуждающие отдельные народы и страны резко расширять свои территории, увеличивать среду обитания, действуя агрессивно, до настоящего времени, глубоко не изучены.

Дело, далеко не всегда, в рабах или золоте. Причины спрятаны значительно глубже и заложены в Программе поведения системы. Благодаря чему, возникла огромная Британская империя, в которой никогда не заходило Солнце? Из-за жадности и алчности англичан? Каковы причины немецкой экспансии? Что заставило горстку славян пройти и покорить огромные пространства за Уралом, на Дальнем Востоке, Аляске? Что создавало огромные империи: Российскую, США, КНР, СССР? Возникновение и распад империй – это возникновение и распад социальных систем, до определённой степени замкнутых и определённых уровнем запретов. Всё это требует отдельного исследования. Достигнув определённого уровня развития, человечество будет в состоянии предвидеть и как-то влиять, на соответствующие параметры, во избежание негативных сдвигов в человеческом сообществе.

Ещё довод в пользу принципа максимума энтропии. Лишите живое существо свободы движения, свободы выбора и вы обречёте его на страдания. Экстремальный принцип у живого существа выражен инстинктом свободы. Плен, рабство, тюрьма ведут, если не к смерти, то к тяжёлым мучениям.


1.2.1.3. Экстремальный принцип и информация

«Не то что мните вы, природа:

Не слепок, не бездушный лик;

В ней есть душа, в ней есть свобода,

В ней есть любовь, в ней есть язык».

( Ф. И. Тютчев)

Принцип оптимальности (экстремальности) информации – важнейший принцип динамической теории функционирования систем.

Оптимальность информации означает, что информация должна передаваться и обрабатываться за кратчайшее время, при наименьшем уровне помех, быть наилучшим образом закодирована, и представлена в оптимальной, для восприятия, форме.

Закрепим это математически. Основоположник теории информации Клод Шеннон предложил формулу. Информация, которую содержит событие (предмет, состояние) yо событии (предмете, состоянии)х, равна:

I(x,у) = log p(x/y)/p(x) (3)

где, p(x) – вероятность события xдо наступления событияy(безусловная вероятность); p(x/y) - вероятность событияxпри условии наступления событияy(условная вероятность).

Под событиями хиу, будем понимать стимул и реакцию, вход и выход, значения двух различных переменных, характеризующих состояние системы.

Пример. Сообщение уо событиихявляется абсолютно точным. Тогда, условная вероятность р (х/у) = 1 и:

I(x/y)=log1/[р(х)]

Допустим, поступила информация, что ферзь на доске стоит на поле а4. Если, до поступления этой информации, вероятности пребывания ферзя во всех позициях были одинаковы и равны р(х) = 1/64, то полученная информация равна:

I(x,y) = log 1/р(х) = log 64 = 6 бит

т.е., информация в этом случае равна энтропии системы Н(х). Информация, как и энтропия измеряется в битах, двоичных единицах.

Теперь, допустим, что сообщение было не совсем точным. Например, ферзь стоит, то ли на а3, то ли на а4. Условная вероятность его пребывания в позиции а4, теперь, равна не 1, а р(х/у) =1/2. Полученная информация будет равна:

I(х/y) = log{[р(х/у)]/р(х)} = log (1/2:1/64) = log 32 = 5 бит

т.е. она уменьшилась на 1 бит. Таким образом, чем точнее выражение, тем больше информации.

В дальнейшем, переменную (признак, параметр, множество событий и т. д.), будем обозначать заглавной Х. А конкретное значение переменной - строчнойх, несколько значений - х1,…, хп. Двоичные переменные имеют 2 градации - х0, х1.