Файл: Элементы математического моделирования в программных средах MATLAB 5 и Scilab (Андриевский Фрадков).pdf

ВУЗ: Не указан

Категория: Не указан

Дисциплина: Не указана

Добавлен: 05.04.2024

Просмотров: 436

Скачиваний: 1

ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.

После первого шага начальная ошибка уменьшается в 20 раз, после второго - еще в 19 раз, и уже для Е9 мы получим все шесть значащих цифр верных. Все дело в том, что формула (4.45), в отличие от (4.44), определяет устойчивый вычислительный процесс и погрешность результата каждого шага меньше погрешности исходных данных. Подробнее об устойчивости численных методов см., например, в [9, 112, 104].

П р а в и л о 7. Пользуйтесь только устойчивыми численными алгоритмами!

Заметим, что в современных вычислительных пакетах программ (в частности, в системе MATLAB на платформе PC Intel в средах ОС Windows-95/98) вычисления обычно выполняются с 32-разрядной арифметикой, тем не менее эффект накопления ошибок при неудачно организованных вычислениях может проявиться и пренебрегать вышеизложенными правилами не следует.

Разницы нет никакой между Правдой и Ложью, Если, конечно, и ту и другую раздеть.

Владимир Высоцкий

Г Л А ВА 5. О П Т И М И З А Ц И Я И СТРУКТУРНЫЙ СИНТЕЗ СИСТЕМ

5.1.Оптимизация технических объектов

5.1.1.Задача параметрической оптимизации и направления ее решения

Ниже приводится обзор некоторых основных терминов, используемых в оптимизации технических систем [72, 80, 97].

Оптимизация как выбор наилучшего варианта среди некоторого множества подразумевает наличие правил предпочтения одного варианта другому. Такое правило называют критерием оптимальности. В основе его построения лежит

целевая функция, которая называется также функцией качества. Аргументами этой функции являются управляемые параметры- внутренние параметры я, которые можно изменять на данном этапе проектирования. Через f(x) обозначим целевую функцию, а область ее определения - через Xq. Е С Л И множество Xd - дискретное, то задача относится к области

дискретного (целочисленного - в частном случае) программирования.

е-Окрестностью точки х0 называется множество 5е(х) точек, которые находятся от точки х0 на расстоянии, не превышающем заданное е > 0 :

5,(х0 ) = { х : ||х - Х о || < £ > .

(5-1)

Максимумом функции f(x) называют ее значение f(x*), если существует число е > 0, такое что для любой точки х G Se(x*) (х ф х*) выполняется неравенство

Дх) - /(*•) < 0.

 

(5.2)

Точку х* называют экстремальной точкой

(локальным

экс-

тремумом). Функция f(x) одно экстремальна

(унимодальна),

если она имеет один экстремум, и многоэкстремальна -

если

имеет более одного максимума (минимума).

 

 

172


Точкой глобального экстремума называется точка, в которой целевая функция имеет наибольшее (при решении задачи максимизации) значение среди всех локальных экстремумов.

К задачам безусловной оптимизации относятся задачи, в которых экстремум ищется в пределах неограниченного пространства параметров, т.е. задачи, в которых отсутствуют ограничения. Найденные при этом экстремумы называются

безусловными.

В задачах проектирования обычно присутствуют ограничения. Прямые ограничения описываются неравенствами

Xdi < х,- < xu.

(5.3)

(возможны и нестрогие неравенства, содержащие знаки <). Допустимой областью Хр в пространстве параметров на-

зывают область, удовлетворяющую прямым ограничениям:

ХР = {х : х е XD\ xdi < Xi < xu., i G [1 : n]}, n = dimX^. (5.4)

Кроме прямых ограничений имеются также функциональные

ограничения, имеющие вид неравенств или

равенств:

tp{x) > 0, ф{х) = 0.

(5.5)

Наличие ограничений приводит к задаче условной оптимиза-

ции, в результате решения которой находится условный

экс-

тремум. Область

 

ХР = {х : х 6 XD\ <р{х) > 0>(х) = 0}

(5.6)

в задачах проектирования называют также областью работоспособности.

5.1.2.Методы поисковой оптимизации

Классические методы безусловной оптимизации применяют, когда дано аналитическое выражение целевой функции. Как известно [80, 113], необходимым условием безусловного экстремума является равенство нулю вектора градиента целевой Функции по управляемым параметрам:

v,/(®') = 0.

173


Точки, удовлетворяющие этому условию, называются стационарными. Чтобы стационарная точка была экстремальной, достаточно выполнения неравенства

ДхТ ГДх < 0

(5.7)

в некоторой окрестности х*. Здесь через Г обозначена матрица Гессе (гессиан) рассматриваемой функции.

Зная координаты экстремальной точки, нельзя сделать никаких заключений о локальном или глобальном характере этого экстремума, не исследуя f(x) во всей области определения. Исключением являются задачи с унимодальной целевой функцией.

При известных аналитических выражениях целевой функции и ограничений условная оптимизация выполняется с помощью метода множителей Лагранжа, который применим к задачам с ограничениями типа равенств. Согласно этому методу, задача условной минимизации f(x) заменяется задачей безусловной минимизации следующей функции Лагранжа:

Ф(х,A) 4 /(х) + Yt \k1>k f(z) = /(*)+ < A,V(x) >,

(5.8)

Jk=i

 

где А = [Аь А2 ,..., Ар]т - вектор множителей Лагранжа.

Ме-

тод множителей Лагранжа может быть распространен и на задачи с ограничениями типа неравенств с помощью известной теоремы Куна-Таккера [80, 113].

Классические методы нахождения экстремумов целевых функций при проектировании практически не применяются, так как случаи аналитического задания целевых функций крайне редки [72]. Характерной ситуацией является наличие алгоритмических математических моделей. В такой ситуации используют поисковую оптимизацию, при которой поиск экстремума выполняется поледовательными шагами, ведущими от исходной точки х° в заданную ^-окрестность точки экстремума х*. Каждый шаг процесса оптимизации заключается в переходе от точки в точку х*. Лля такого перехода нужно определить направление перемещения дк и величину шага Л* в этом направлении, такие что х* = x*-i + hkgkТаким образом, содержанием любого алгорима поисковой оптимизации должны быть способы выбора:

174


-направления поиска дк;

-величины шага hk\

-формул для нормирования оптимизируемых параме-

тров; - критерия окочания поиска.

Эффективность поиска зависит от того, как сделан этот выбор. Составляющими эффективности являются

-надежность, т.е. вероятность достижения заданной е- окрестности экстремальной точки;

-точность, характеризуемая гарантированным значе-

нием е;

-экономичность, отождествляемая с потерями на поиск, т.е. трудоемкость процедуры оптимизации, которая обычно оценивается числом обращений к ММ объекта.

Способ выбора направления поиска gk является определяющим для методов безусловной оптимизации, которые бывают нулевого, первого и второго порядков.

В методах нулевого порядка для определения направления производные целевой функции по управляемым параметрам

X не используются. В методах первого и второго порядков

используются соответственно первые и вторые производные (Vr /(x), Гх /(х)).

Для выбора величины шага поиска hk обычно используются два способа. В способе оптимального шага на каждом к-м

шаге поиска экстремума исходной задачи minr f(x)

решается

вспомогательная задача одномерной оптимизации:

 

mm f(xk_x + hkgk).

(5.9)

Лк

 

Ее решением является оптимальная величина шага, миними-

зирующая f(x)

на луче, выходящем в направлении дк из точ-

ки хк_х.

В способе

задаваемого шага величина hk постоянна

на всей

траектории

поиска либо на ее частях, выделяемых

в зависимости

от близости к исходному экстремуму. При

выполнении условий попадания в заданную окрестность экстремальной точки X* значение hk уменьшается.

Нормирование управляемых

параметров осуществляется ли-

бо способом линейной нормализации

параметров

д Xi

(5.10)

Ui =

t*

 

175


где

- константа, равная

единице измерения

величины xi)

либо способом логарифмической нормализации

параметров

 

щ ±

log ( | i ) .

(5.11)

В качестве условия попадания в заданную окрестность оптимальной точки х* принимается условие малости расстояния, на которое прошло продвижение в пространстве параметров в результате последних г шагов. Это расстояние вычисляется по формуле

 

Pk = ||uk - Uk-rII,

(5.12)

и условие

попадания имеет вид

< 6, где 6 > О -

заданный

параметр

алгоритма.

 

 

 

Критерием прекращения

поиска являются условия: pk < 6 и

h>k <

Вместо pk < 6 иногда используется условие /(я*) —

-f{xk-r) < S.

 

 

 

Метод

покоординатного

спуска

{метод Гаусса-Зейделя) ха-

рактеризуется тем, что в нём избранное множество направлений поиска составляют направления вдоль п координатных осей пространства параметров. Для определения Л* используется способ оптимального шага. В условии (5.12) г принимается равым 7i, т.е. поиск заканчивается, если в цикле из п шагов вдоль каждой из координатных осей пройдено расстояние, меньшее 6.

Метод конфигураций включает выполнение циклов из п шагов покоординатного спуска. После каждого цикла делается один дополнительный шаг, определяемый с помощью одномерной оптимизации (5.9) вдоль направления Uk — Uk-n-

Метод Розенброка характеризуется тем, что в нем реализована идея поворота координатых осей после каждого цикла из п шагов покоординатного спуска таким образом, чтобы одна из осей новых координат оказалась параллельной линии, соединяющей точки Uk и i7jfc_n, т.е. заняла бы положение, близкое к параллельному по отношению к линии дна оврага.

Методы случайного поиска характеризуются большим числом реализующих их алгоритмов. Одним из них является метод, при котором элементы вектора gk - равномерно распределенные в диапазоне [—1,1] случайные числа и используется способ задаваемого шага. Неудачные шаги, приводящие к ухудшению целевой функции, не выполняются.

176