Добавлен: 09.01.2024
Просмотров: 134
Скачиваний: 2
ВНИМАНИЕ! Если данный файл нарушает Ваши авторские права, то обязательно сообщите нам.
m) < 0.
Если, однако, вторая производная равна нулю, ситуация остается неопределенной.
Полученные выше результаты могут найти надежное обоснование, если рассмотреть разложение функции f(x) в ряд Тейлора в окрестности точки x0 (или х*, или xm), что требует непрерывности функции f(x) и ее производных:
f(x0+ h) – f(x0) = h f’(x0) + (h2/2!) f”(x0) +...
Если в точке x0 достигается минимум, то левая часть уравнения будет неотрицательной для любого достаточно малого h. Следовательно, первая производная f’(x0) должна быть равна нулю. Это является достаточным условием (см. уравнение f’(x) = 0). Если бы она была положительной, то достаточно малое отрицательное значение h делало бы правую часть
f(x0+ h) – f(x0) = h f’(x0) + (h2/2!) f”(x0) +...
отрицательной, а если бы она была отрицательной, то достаточно малое положительное значение h делало бы правую часть отрицательной.
Так как всегда h2 > 0, то, если f”(x0) > 0, в точке x0 достигается минимум. Если f’(xm) = 0 и f”(xm) < 0, то из аналогичных соображений в точке xm достигается максимум. Для определения различия между локальным и глобальным минимумами необходимо сравнить значения функций f(x0) и f(x*).
Например, исследуем характер точек перегиба функции
f(x) = х3 – 2х2 + х + 1,
так как f’(x) = 3х2 – 4х + 1 = 0 и (3х – 1)(х – 1) = 0, то х = 1/3 или х = 1.
При х = 1/3 производная f′(x) меняет знак с положительного на отрицательный, а при х = 1 – с отрицательного на положительный. Следовательно, в точке х = 1/3 достигается максимум, а в точке х = 1 – минимум.
Этот пример может быть решен более простым способом, если вычислить вторую производную f”(x) = 6х – 4:
f”(1/3) = – 2, т.е. отрицательна, и при х = 1/3 достигается максимум;
f”(1) = 2, т.е. положительна, и при х = 1 достигается минимум. Неоднозначность, возникающую при
f”(x) = 0, можно разрешить, увеличив количество членов в формуле разложения в ряд Тейлора:
f(x0 + h) -f(x) = hf’(x0) + (h2/2!) f”(x0) + (h3/3!) f”’ (x0) + (h4/4!) f”’’ (x0) +...
При этом можно сформулировать следующее правило:
“Если функция f(x) и ее производные непрерывны, то точка x0 является точкой экстремума (максимума или минимума) тогда и только тогда, когда n четное, где n– порядок первой необращающейся в нуль в точке x0 производной. Если f”(x0) < 0, то в точке x0 достигается максимум, если f”( x0) > 0, то в точке x0 достигается минимум”.
Например, найдем точку перегиба функции f(x) = (х – 1)6.
f’(x) = 6(х – 1)5 = 0 при х = 1.
Первой необращающейся в нуль в точке х = 1 производной будет f6(1) = 6!. Следовательно, функция f(x) имеет минимум в точке х = 1.
Функцию n действительных переменных можно представить как
F(x1 , x2 , x3 ,..., xn).
Точка в n-мерном евклидовом пространстве с координатами x1 , x2 , x3 ,..., xn обозначается вектором-столбцом х. Градиент функции, т.е. вектор с компонентами f/x1, f/x2,…, f/xn, обозначается С f(x) или, иногда, g(x). Наиболее распространенные задачи оптимизации заключаются в нахождении минимума (или максимума) функции или функционала. В первом случае находят значение n переменных х1, х2, ..., хn, при которых функция F (х1, х2,..., хn) принимает экстремальное значение F = min(max).
В простейшем случае дифференцируемости функции и неравенства нулю вторых производных задача сводится к решению n алгебраических (в общем случае нелинейных) уравнений
d
(1-1)
F/dxi= 0, i = 1, 2, ..., n.
При оптимизации управления приходится оперировать с большим числом переменных. В этом специфика задач оптимизации, и это затрудняет решение уравнений оптимизации даже с помощью ЭВМ.
Если функция F(x), где x = (x1, x2,..., xn), помимо переменных x1, x2,..., xn
зависит еще (параметрически) от другой переменной λ, то решение для каждого значения λ соотношения (1-1) дает оптимальный закон управления
x() = {x1(), x2(),…, xn()}.
Здесь мы уже переходим, по существу, к понятию функционала, частным случаем которого является функция. Методы оптимизации, использующие этот критерий, составляют содержание раздела математики, названного вариационным исчислением. Понятие функционала в математике является дальнейшим обобщением понятия функции. Не очень строго функционал можно определить как функцию от функции, т.е. функцию, в которой в качестве независимой переменной выступает другая функция.
Если одному множеству М значений величины х (хМ) соответствует другое множество Nзначений величины y, то говорят, что y является функцией х, т.е. y = f(x).
Например, пусть М {1, 4, 9, 8} и N {20, 70,90, 110} и пусть каждому значению x из множества М соответствует одно значение y из множества N. Это – метод задания функции в виде таблиц. Он часто встречается в кибернетике. Аналитически функция может быть задана в виде y = x2, y = sin x.
Если М – множество функций и каждой функции f(x), принадлежащей М{f(x)M}, ставится в соответствие определенное значение величины y из множества N, то говорят, что на множестве М задан функционал.
Например
М {sin x, cos x, tg x, ctg x}
и
N {3, 4, 5, 18}.
Другим примером функционала может служить определенный интеграл
I = I {y(x)} =
Каждой функции y (x) будет соответствовать числовое значение I. Так, при y = x I = 1/2, при y = x2 I = 1/3.
Можно поставить задачу отыскивания такой функции y(x), которая обращала бы этот функционал в минимум (максимум), т.е.
I{y}→min(max).
В общем случае подынтегральное выражение в функционале может зависеть явно от аргумента х, у и производной y’:
I
(1-2)
{y} = (x, y, y’)dx.
Нетрудно показать, что запись (1-2) включает в себя функцию. Так, если положить
F (x, y, y’) = f(x) g (t-x),
то
I =
f(x) g (t-x)dx = f(x),
при a < t < b.
Аналогично, если положить
F (x, y, y’) = ci fi(x) g (ti-x),
то
I = ci fi(ti).
Иногда считают, что функционал является функцией бесконечного числа переменных. Соответственно, вариационное исчисление можно рассматривать как обобщение методов отыскивания экстремума функции на случай большого или бесконечного числа переменных. Действительно, функцию у(х) в формуле (1-2) можно заменить приближенно ломаной линией (рис. 1) с вершинами y0 = y(x0) = y(a), y1 = y(x0 +Δx), yn = y(x0 +Δnx) = y(b), а интеграл – суммой:
I = F (xi, yi(yi – yi–1)/ Δx)Δx.
Рис. 1. Замена интеграла на сумму
После этого вариационная задача приближенно решается как обычная задача на отыскивание экстремума функции n переменных
I = (y1, y2,..., yn).
Такой вывод использовал для своего основного уравнения вариационного исчисления Эйлер.
Однако большинство задач оптимизации содержит ограничения на исходную функцию. Пусть требуется минимизировать функционал
I = (x, y, y’)dx min
при наличии ограничений
k(x, y, y’)≤0;
k = 1, 2, 3, ..., m,
где φk - некоторые функции.
Смысл этих соотношений состоит в том, что отыскивается не любая функция у(х), обращающая функционал в минимум, а такая, которая удовлетворяет системе ограничений. Нетрудно убедиться, что тем самым значение условного экстремума (экстремум функции при условии, когда на критерий оптимизации наложены ограничения) не может быть меньше значения абсолютного экстремума (без ограничений). Аналогичным образом формируется критерий оптимальности (с ограничениями) для функции
F
(1-3)
(x1, x2, ..., xn) min;
k(x1, x2, ..., xn)≤0,
k = 1, 2, 3, ..., m.
В классическом вариационном исчислении в функционале интеграл понимается в обычном смысле как предел сумм Дарбу. Далее в целях соблюдения прикладного уровня изложения будет использовано классическое понятие функционала (если не дано специальных оговорок).
Следует заметить, что во всех приведенных формулах переменные х и у могут быть векторами:
х = (x1, x2, ..., xn);
y = (y1, y2,... yn ;
F = (F1, F2, ..., Fp).
Такая форма записи широко используется, и, в частности, она учитывает случаи оптимизации функции многих переменных и оптимизации нескольких функций.
Задачи оптимизации при наличии ограничений, по существу, привели к пересмотру классических методов и созданию новых методов, известных под названием методов программирования. Если в формулах (1-3) все функции линейные, налицо задача линейного программирования. В общем случае эти соотношения определяют задачу нелинейного программирования.
Если, однако, вторая производная равна нулю, ситуация остается неопределенной.
Полученные выше результаты могут найти надежное обоснование, если рассмотреть разложение функции f(x) в ряд Тейлора в окрестности точки x0 (или х*, или xm), что требует непрерывности функции f(x) и ее производных:
f(x0+ h) – f(x0) = h f’(x0) + (h2/2!) f”(x0) +...
Если в точке x0 достигается минимум, то левая часть уравнения будет неотрицательной для любого достаточно малого h. Следовательно, первая производная f’(x0) должна быть равна нулю. Это является достаточным условием (см. уравнение f’(x) = 0). Если бы она была положительной, то достаточно малое отрицательное значение h делало бы правую часть
f(x0+ h) – f(x0) = h f’(x0) + (h2/2!) f”(x0) +...
отрицательной, а если бы она была отрицательной, то достаточно малое положительное значение h делало бы правую часть отрицательной.
Так как всегда h2 > 0, то, если f”(x0) > 0, в точке x0 достигается минимум. Если f’(xm) = 0 и f”(xm) < 0, то из аналогичных соображений в точке xm достигается максимум. Для определения различия между локальным и глобальным минимумами необходимо сравнить значения функций f(x0) и f(x*).
Например, исследуем характер точек перегиба функции
f(x) = х3 – 2х2 + х + 1,
так как f’(x) = 3х2 – 4х + 1 = 0 и (3х – 1)(х – 1) = 0, то х = 1/3 или х = 1.
При х = 1/3 производная f′(x) меняет знак с положительного на отрицательный, а при х = 1 – с отрицательного на положительный. Следовательно, в точке х = 1/3 достигается максимум, а в точке х = 1 – минимум.
Этот пример может быть решен более простым способом, если вычислить вторую производную f”(x) = 6х – 4:
f”(1/3) = – 2, т.е. отрицательна, и при х = 1/3 достигается максимум;
f”(1) = 2, т.е. положительна, и при х = 1 достигается минимум. Неоднозначность, возникающую при
f”(x) = 0, можно разрешить, увеличив количество членов в формуле разложения в ряд Тейлора:
f(x0 + h) -f(x) = hf’(x0) + (h2/2!) f”(x0) + (h3/3!) f”’ (x0) + (h4/4!) f”’’ (x0) +...
При этом можно сформулировать следующее правило:
“Если функция f(x) и ее производные непрерывны, то точка x0 является точкой экстремума (максимума или минимума) тогда и только тогда, когда n четное, где n– порядок первой необращающейся в нуль в точке x0 производной. Если f”(x0) < 0, то в точке x0 достигается максимум, если f”( x0) > 0, то в точке x0 достигается минимум”.
Например, найдем точку перегиба функции f(x) = (х – 1)6.
f’(x) = 6(х – 1)5 = 0 при х = 1.
Первой необращающейся в нуль в точке х = 1 производной будет f6(1) = 6!. Следовательно, функция f(x) имеет минимум в точке х = 1.
Функцию n действительных переменных можно представить как
F(x1 , x2 , x3 ,..., xn).
Точка в n-мерном евклидовом пространстве с координатами x1 , x2 , x3 ,..., xn обозначается вектором-столбцом х. Градиент функции, т.е. вектор с компонентами f/x1, f/x2,…, f/xn, обозначается С f(x) или, иногда, g(x). Наиболее распространенные задачи оптимизации заключаются в нахождении минимума (или максимума) функции или функционала. В первом случае находят значение n переменных х1, х2, ..., хn, при которых функция F (х1, х2,..., хn) принимает экстремальное значение F = min(max).
В простейшем случае дифференцируемости функции и неравенства нулю вторых производных задача сводится к решению n алгебраических (в общем случае нелинейных) уравнений
d
(1-1)
F/dxi= 0, i = 1, 2, ..., n.
При оптимизации управления приходится оперировать с большим числом переменных. В этом специфика задач оптимизации, и это затрудняет решение уравнений оптимизации даже с помощью ЭВМ.
Если функция F(x), где x = (x1, x2,..., xn), помимо переменных x1, x2,..., xn
зависит еще (параметрически) от другой переменной λ, то решение для каждого значения λ соотношения (1-1) дает оптимальный закон управления
x() = {x1(), x2(),…, xn()}.
Здесь мы уже переходим, по существу, к понятию функционала, частным случаем которого является функция. Методы оптимизации, использующие этот критерий, составляют содержание раздела математики, названного вариационным исчислением. Понятие функционала в математике является дальнейшим обобщением понятия функции. Не очень строго функционал можно определить как функцию от функции, т.е. функцию, в которой в качестве независимой переменной выступает другая функция.
Если одному множеству М значений величины х (хМ) соответствует другое множество Nзначений величины y, то говорят, что y является функцией х, т.е. y = f(x).
Например, пусть М {1, 4, 9, 8} и N {20, 70,90, 110} и пусть каждому значению x из множества М соответствует одно значение y из множества N. Это – метод задания функции в виде таблиц. Он часто встречается в кибернетике. Аналитически функция может быть задана в виде y = x2, y = sin x.
Если М – множество функций и каждой функции f(x), принадлежащей М{f(x)M}, ставится в соответствие определенное значение величины y из множества N, то говорят, что на множестве М задан функционал.
Например
М {sin x, cos x, tg x, ctg x}
и
N {3, 4, 5, 18}.
Другим примером функционала может служить определенный интеграл
I = I {y(x)} =
Каждой функции y (x) будет соответствовать числовое значение I. Так, при y = x I = 1/2, при y = x2 I = 1/3.
Можно поставить задачу отыскивания такой функции y(x), которая обращала бы этот функционал в минимум (максимум), т.е.
I{y}→min(max).
В общем случае подынтегральное выражение в функционале может зависеть явно от аргумента х, у и производной y’:
I
(1-2)
{y} = (x, y, y’)dx.
Нетрудно показать, что запись (1-2) включает в себя функцию. Так, если положить
F (x, y, y’) = f(x) g (t-x),
то
I =
f(x) g (t-x)dx = f(x),
при a < t < b.
Аналогично, если положить
F (x, y, y’) = ci fi(x) g (ti-x),
то
I = ci fi(ti).
Иногда считают, что функционал является функцией бесконечного числа переменных. Соответственно, вариационное исчисление можно рассматривать как обобщение методов отыскивания экстремума функции на случай большого или бесконечного числа переменных. Действительно, функцию у(х) в формуле (1-2) можно заменить приближенно ломаной линией (рис. 1) с вершинами y0 = y(x0) = y(a), y1 = y(x0 +Δx), yn = y(x0 +Δnx) = y(b), а интеграл – суммой:
I = F (xi, yi(yi – yi–1)/ Δx)Δx.
Рис. 1. Замена интеграла на сумму
После этого вариационная задача приближенно решается как обычная задача на отыскивание экстремума функции n переменных
I = (y1, y2,..., yn).
Такой вывод использовал для своего основного уравнения вариационного исчисления Эйлер.
Однако большинство задач оптимизации содержит ограничения на исходную функцию. Пусть требуется минимизировать функционал
I = (x, y, y’)dx min
при наличии ограничений
k(x, y, y’)≤0;
k = 1, 2, 3, ..., m,
где φk - некоторые функции.
Смысл этих соотношений состоит в том, что отыскивается не любая функция у(х), обращающая функционал в минимум, а такая, которая удовлетворяет системе ограничений. Нетрудно убедиться, что тем самым значение условного экстремума (экстремум функции при условии, когда на критерий оптимизации наложены ограничения) не может быть меньше значения абсолютного экстремума (без ограничений). Аналогичным образом формируется критерий оптимальности (с ограничениями) для функции
F
(1-3)
(x1, x2, ..., xn) min;
k(x1, x2, ..., xn)≤0,
k = 1, 2, 3, ..., m.
В классическом вариационном исчислении в функционале интеграл понимается в обычном смысле как предел сумм Дарбу. Далее в целях соблюдения прикладного уровня изложения будет использовано классическое понятие функционала (если не дано специальных оговорок).
Следует заметить, что во всех приведенных формулах переменные х и у могут быть векторами:
х = (x1, x2, ..., xn);
y = (y1, y2,... yn ;
F = (F1, F2, ..., Fp).
Такая форма записи широко используется, и, в частности, она учитывает случаи оптимизации функции многих переменных и оптимизации нескольких функций.
Задачи оптимизации при наличии ограничений, по существу, привели к пересмотру классических методов и созданию новых методов, известных под названием методов программирования. Если в формулах (1-3) все функции линейные, налицо задача линейного программирования. В общем случае эти соотношения определяют задачу нелинейного программирования.