Файл: Элементы математического моделирования в программных средах MATLAB 5 и Scilab (Андриевский Фрадков).pdf
ВУЗ: Не указан
Категория: Не указан
Дисциплина: Не указана
Добавлен: 05.04.2024
Просмотров: 436
Скачиваний: 1
После первого шага начальная ошибка уменьшается в 20 раз, после второго - еще в 19 раз, и уже для Е9 мы получим все шесть значащих цифр верных. Все дело в том, что формула (4.45), в отличие от (4.44), определяет устойчивый вычислительный процесс и погрешность результата каждого шага меньше погрешности исходных данных. Подробнее об устойчивости численных методов см., например, в [9, 112, 104].
П р а в и л о 7. Пользуйтесь только устойчивыми численными алгоритмами!
Заметим, что в современных вычислительных пакетах программ (в частности, в системе MATLAB на платформе PC Intel в средах ОС Windows-95/98) вычисления обычно выполняются с 32-разрядной арифметикой, тем не менее эффект накопления ошибок при неудачно организованных вычислениях может проявиться и пренебрегать вышеизложенными правилами не следует.
Разницы нет никакой между Правдой и Ложью, Если, конечно, и ту и другую раздеть.
Владимир Высоцкий
Г Л А ВА 5. О П Т И М И З А Ц И Я И СТРУКТУРНЫЙ СИНТЕЗ СИСТЕМ
5.1.Оптимизация технических объектов
5.1.1.Задача параметрической оптимизации и направления ее решения
Ниже приводится обзор некоторых основных терминов, используемых в оптимизации технических систем [72, 80, 97].
Оптимизация как выбор наилучшего варианта среди некоторого множества подразумевает наличие правил предпочтения одного варианта другому. Такое правило называют критерием оптимальности. В основе его построения лежит
целевая функция, которая называется также функцией качества. Аргументами этой функции являются управляемые параметры- внутренние параметры я, которые можно изменять на данном этапе проектирования. Через f(x) обозначим целевую функцию, а область ее определения - через Xq. Е С Л И множество Xd - дискретное, то задача относится к области
дискретного (целочисленного - в частном случае) программирования.
е-Окрестностью точки х0 называется множество 5е(х) точек, которые находятся от точки х0 на расстоянии, не превышающем заданное е > 0 :
5,(х0 ) = { х : ||х - Х о || < £ > . |
(5-1) |
Максимумом функции f(x) называют ее значение f(x*), если существует число е > 0, такое что для любой точки х G Se(x*) (х ф х*) выполняется неравенство
Дх) - /(*•) < 0. |
|
(5.2) |
Точку х* называют экстремальной точкой |
(локальным |
экс- |
тремумом). Функция f(x) одно экстремальна |
(унимодальна), |
|
если она имеет один экстремум, и многоэкстремальна - |
если |
|
имеет более одного максимума (минимума). |
|
|
172
Точкой глобального экстремума называется точка, в которой целевая функция имеет наибольшее (при решении задачи максимизации) значение среди всех локальных экстремумов.
К задачам безусловной оптимизации относятся задачи, в которых экстремум ищется в пределах неограниченного пространства параметров, т.е. задачи, в которых отсутствуют ограничения. Найденные при этом экстремумы называются
безусловными.
В задачах проектирования обычно присутствуют ограничения. Прямые ограничения описываются неравенствами
Xdi < х,- < xu. |
(5.3) |
(возможны и нестрогие неравенства, содержащие знаки <). Допустимой областью Хр в пространстве параметров на-
зывают область, удовлетворяющую прямым ограничениям:
ХР = {х : х е XD\ xdi < Xi < xu., i G [1 : n]}, n = dimX^. (5.4)
Кроме прямых ограничений имеются также функциональные
ограничения, имеющие вид неравенств или |
равенств: |
tp{x) > 0, ф{х) = 0. |
(5.5) |
Наличие ограничений приводит к задаче условной оптимиза-
ции, в результате решения которой находится условный |
экс- |
тремум. Область |
|
ХР = {х : х 6 XD\ <р{х) > 0>(х) = 0} |
(5.6) |
в задачах проектирования называют также областью работоспособности.
5.1.2.Методы поисковой оптимизации
Классические методы безусловной оптимизации применяют, когда дано аналитическое выражение целевой функции. Как известно [80, 113], необходимым условием безусловного экстремума является равенство нулю вектора градиента целевой Функции по управляемым параметрам:
v,/(®') = 0.
173
Точки, удовлетворяющие этому условию, называются стационарными. Чтобы стационарная точка была экстремальной, достаточно выполнения неравенства
ДхТ ГДх < 0 |
(5.7) |
в некоторой окрестности х*. Здесь через Г обозначена матрица Гессе (гессиан) рассматриваемой функции.
Зная координаты экстремальной точки, нельзя сделать никаких заключений о локальном или глобальном характере этого экстремума, не исследуя f(x) во всей области определения. Исключением являются задачи с унимодальной целевой функцией.
При известных аналитических выражениях целевой функции и ограничений условная оптимизация выполняется с помощью метода множителей Лагранжа, который применим к задачам с ограничениями типа равенств. Согласно этому методу, задача условной минимизации f(x) заменяется задачей безусловной минимизации следующей функции Лагранжа:
Ф(х,A) 4 /(х) + Yt \k1>k f(z) = /(*)+ < A,V(x) >, |
(5.8) |
Jk=i |
|
где А = [Аь А2 ,..., Ар]т - вектор множителей Лагранжа. |
Ме- |
тод множителей Лагранжа может быть распространен и на задачи с ограничениями типа неравенств с помощью известной теоремы Куна-Таккера [80, 113].
Классические методы нахождения экстремумов целевых функций при проектировании практически не применяются, так как случаи аналитического задания целевых функций крайне редки [72]. Характерной ситуацией является наличие алгоритмических математических моделей. В такой ситуации используют поисковую оптимизацию, при которой поиск экстремума выполняется поледовательными шагами, ведущими от исходной точки х° в заданную ^-окрестность точки экстремума х*. Каждый шаг процесса оптимизации заключается в переходе от точки в точку х*. Лля такого перехода нужно определить направление перемещения дк и величину шага Л* в этом направлении, такие что х* = x*-i + hkgkТаким образом, содержанием любого алгорима поисковой оптимизации должны быть способы выбора:
174
-направления поиска дк;
-величины шага hk\
-формул для нормирования оптимизируемых параме-
тров; - критерия окочания поиска.
Эффективность поиска зависит от того, как сделан этот выбор. Составляющими эффективности являются
-надежность, т.е. вероятность достижения заданной е- окрестности экстремальной точки;
-точность, характеризуемая гарантированным значе-
нием е;
-экономичность, отождествляемая с потерями на поиск, т.е. трудоемкость процедуры оптимизации, которая обычно оценивается числом обращений к ММ объекта.
Способ выбора направления поиска gk является определяющим для методов безусловной оптимизации, которые бывают нулевого, первого и второго порядков.
В методах нулевого порядка для определения направления производные целевой функции по управляемым параметрам
X не используются. В методах первого и второго порядков
используются соответственно первые и вторые производные (Vr /(x), Гх /(х)).
Для выбора величины шага поиска hk обычно используются два способа. В способе оптимального шага на каждом к-м
шаге поиска экстремума исходной задачи minr f(x) |
решается |
вспомогательная задача одномерной оптимизации: |
|
mm f(xk_x + hkgk). |
(5.9) |
Лк |
|
Ее решением является оптимальная величина шага, миними-
зирующая f(x) |
на луче, выходящем в направлении дк из точ- |
||
ки хк_х. |
В способе |
задаваемого шага величина hk постоянна |
|
на всей |
траектории |
поиска либо на ее частях, выделяемых |
|
в зависимости |
от близости к исходному экстремуму. При |
выполнении условий попадания в заданную окрестность экстремальной точки X* значение hk уменьшается.
Нормирование управляемых |
параметров осуществляется ли- |
||
бо способом линейной нормализации |
параметров |
||
д Xi |
(5.10) |
||
Ui = |
t* |
||
|
175
где |
- константа, равная |
единице измерения |
величины xi) |
либо способом логарифмической нормализации |
параметров |
||
|
щ ± |
log ( | i ) . |
(5.11) |
В качестве условия попадания в заданную окрестность оптимальной точки х* принимается условие малости расстояния, на которое прошло продвижение в пространстве параметров в результате последних г шагов. Это расстояние вычисляется по формуле
|
Pk = ||uk - Uk-rII, |
(5.12) |
||
и условие |
попадания имеет вид |
< 6, где 6 > О - |
заданный |
|
параметр |
алгоритма. |
|
|
|
Критерием прекращения |
поиска являются условия: pk < 6 и |
|||
h>k < |
Вместо pk < 6 иногда используется условие /(я*) — |
|||
-f{xk-r) < S. |
|
|
|
|
Метод |
покоординатного |
спуска |
{метод Гаусса-Зейделя) ха- |
рактеризуется тем, что в нём избранное множество направлений поиска составляют направления вдоль п координатных осей пространства параметров. Для определения Л* используется способ оптимального шага. В условии (5.12) г принимается равым 7i, т.е. поиск заканчивается, если в цикле из п шагов вдоль каждой из координатных осей пройдено расстояние, меньшее 6.
Метод конфигураций включает выполнение циклов из п шагов покоординатного спуска. После каждого цикла делается один дополнительный шаг, определяемый с помощью одномерной оптимизации (5.9) вдоль направления Uk — Uk-n-
Метод Розенброка характеризуется тем, что в нем реализована идея поворота координатых осей после каждого цикла из п шагов покоординатного спуска таким образом, чтобы одна из осей новых координат оказалась параллельной линии, соединяющей точки Uk и i7jfc_n, т.е. заняла бы положение, близкое к параллельному по отношению к линии дна оврага.
Методы случайного поиска характеризуются большим числом реализующих их алгоритмов. Одним из них является метод, при котором элементы вектора gk - равномерно распределенные в диапазоне [—1,1] случайные числа и используется способ задаваемого шага. Неудачные шаги, приводящие к ухудшению целевой функции, не выполняются.
176