Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Opt_book_1

.pdf
Скачиваний:
105
Добавлен:
03.06.2015
Размер:
1.2 Mб
Скачать

3.2. УСЛОВИЯ ОПТИМАЛЬНОСТИ ДЛЯ ЗАДАЧ МП

121

где m < n. Относительно функции f(x) и вектор-функции g(x) считаем, что они непрерывно дифференцируемы. Считаем также, что в решении этой задачи точке x¤ выполняются необходимые условия Каруша-Куна-Таккера для классической функции Лагранжа. Обозначим d = n ¡ m.

Разобьем вектор x на две компоненты y 2 Rm и z 2 Rd. Для простоты считаем, что вектор y состоит из первых m компонент вектора x, а вектор z из последующих d компонент. Тогда x = [y; z], f(x) = f(x; y) и g(x) = g(x; y).

Возьмем некоторую точку x¤ = [y¤; z¤]. Если матрица Якоби gy(y¤; z¤) неособая, то по теореме о неявной функции можно указать некоторую окрестность ¢(z¤) точки z¤, в которой существует

непрерывно дифференцируемая функция y(z) такая, что

 

g(y(z); z) ´ 0;

(3.2.36)

причем y(z¤) = y¤. Поэтому, если точка x¤ является решением задачи (3.2.35), то точка z¤ является минимумом функции f~(z) = f(y(z); z).

Вычислим градиент функции f~(z). Дифференцируя сложную функцию, приходим к

f~z(z) = fz(y(z); z) + yzT (z)fy(y(z); z):

Из тождества (3.2.36) после его дифференцирования получаем

gy(y(z); z)yz(z) + gz(y(z); z) = 0:

Так как, по предположению, матрица gy(y(z); z) неособая в точке z¤, то в силу непрерывности она будет оставаться неособой и в окрестности ¢(z¤). Поэтому

yz(z) = ¡gy¡1(y(z); z)gz(y(z); z):

После подстановки имеем

f~

(z) = f

z

(y(z); z)

¡

gT (y(z); z)(g¡1

(y(z); z))T f (y(z); z):

(3.2.37)

z

 

 

z

y

y

К выражению (3.2.37) для производной функции f~(z) можно прийти, используя функцию Лагран-

жа

L(y; z; u) = f(y; z) + hu; g(y; z)i; u 2 Rm:

Если продифференцировать L(y; z; u) по z и y соответственно и приравнять производную по y нулю, то имеем

 

L (y; z; u) = f

(y; z) + gT (y; z)u;

 

 

(3.2.38)

 

z

z

z

 

 

 

L

(y; z; u) = f (y; z) + gT (y; z)u = 0

m

:

(3.2.39)

y

 

y

y

 

 

Вычислим на основании второго равенства (3.2.39) множитель u и подставим его в (3.2.38). Тогда получаем то же самое выражение для производной f~z(z), если положить y = y(z). Таким образом,

f~z(z) = Lz(y(z); z; u); Ly(y(z); z; u) = 0m:

Отметим, что вектор u есть фактически функция от z. В решением задачи (3.2.35) точке x¤ = [y¤; z¤], где y¤ = y(z¤), дополнительно выполняется равенство

f~z(z¤) = Lz(y¤; z¤; u¤) = 0d:

122

ГЛАВА 3. ОПТИМИЗАЦИОННЫЕ ЗАДАЧИ

Рассмотрим далее параметрическое семейство задач

 

: g(x) = bª

 

(3.2.40)

f¤(b) = x2X

X = ©x 2 R

n

:

min f(x);

 

 

 

 

 

Исходная задача (3.2.35) входит в это семейство при b = 0m.

Обозначим через x¤(b) решение задачи (3.2.40). Нас будет интересовать вопрос, как решение задачи (??) зависит от b, а точнее, как изменяется оптимальное значение целевой функции при малом изменении параметра b, т.е. когда b принадлежит в некоторой окрестности начала координат.

Если опять, учитывая связь g(x) = b, перейти к задаче с меньшим числом переменных, то теперь вместо зависимости y(z) у нас появится зависимость y(z; b) и будет выполняться тождество

g(y(z; b); z) ¡ b ´ 0m:

Функция f~ теперь становится функцией двух параметров,т.е. f~(z; b) = f(y(z; b); z). Используя примененный выше формализм Лагранжа для подсчета производной функции, аргументы которой связаны равенством, мы можем также подсчитать и производную функции f~(z; b) по b. Имеем теперь

f~b(z; b) = Lb(y; z; b; u);

(3.2.41)

где

L(y; z; b; u) = f(y; z) + hu; g(y; z) ¡ bi; u 2 Rm:

Вектор u в (3.2.41) удовлетворяет системе Ly(y; z; b; u) = 0m. Из (3.2.41) следует, что f~b(z; b) = ¡u =

¡u(y; z).

Если для каждого b из окрестности 0m найти решение задач (3.2.40) точки z¤ = z¤(b) и y¤ = y¤(b) = y(z¤; b), то поскольку f¤(b) = f(y¤(b); z¤(b)), мы получаем:

d f¤(0m)

= ¡u¤; u¤ = u(y¤(0m); z¤(0m)):

(3.2.42)

d b

Функция f¤(b), определяемая согласно (3.2.40), носит название функции чувствительности. Она указывает на влияние правой части в равенстве g(x) = b на решение задач оптимизации (3.2.40).

Из необходимого условия Lx(x¤; b¤; u¤) = 0n, вытекает в частности, что Ly(y¤; z¤; 0m; u¤) = 0m. Поэтому множитель Лагранжа u¤ в (3.2.42) на самом деле является тем же самым множителем

Лагранжа, который входит в систему условий Каруша-Куна-Таккера для задачи (3.2.35). Формула (3.2.42) показывает, что данный множитель u¤ есть антиградиент функции чувствительности. Таким образом, любая компонента ui¤ вектора u¤ указывает на влияние соответствующей компоненты вектора-возмущения bi на решение задачи (3.2.40) .

Аналогичную интерпретацию множителей Лагранжа можно получить для задачи c ограничениями типа неравенства g(x) · b. Понятно, что если решение x¤ таково, что для какой-то компоненты gi(x) имеет место строгое неравенство gi(x¤) < bi¤, то для соответствующего множителя ui¤ в силу условия дополняющей нежесткости выполняется ui¤ = 0. С точки зрения вышесказанного это означает, что изменение i-го ресурса (компоненты bi), совершенно не существенно для решения задачи.

3.2.2. Условия оптимальности для задач выпуклого программирования

Обратимся теперь к выпуклой задаче математического программирования

min f(x)

n

 

X = ©x 2 R : g(x) = 0l; h(x) · 0k; x 2 ¦ª;

(3.2.43)

x2X

3.2. УСЛОВИЯ ОПТИМАЛЬНОСТИ ДЛЯ ЗАДАЧ МП

123

в которой предполагается, что ¦ µ Rn выпуклое замкнутое множество и что f(x) и все компоненты вектор-функции h(x) = [h1(x); : : : ; hk(x)] выпуклые функции на Rn. Относительно компонент вектор-функции g(x) = [g1(x); : : : ; gl(x)] считается, что они линейные функции на Rn. Данную задачу принято называть задачей выпуклого программирования. Важно, что если она регулярная, то условия теоремы 3.2.3 оказываются не только необходимыми, но и достаточными, для того, чтобы точка x¤ оказалась ее глобальным решением. Составим для задачи (3.2.43) регулярную функцию Лагранжа

L(x; u; v) = f(x) + hg(x); ui + hh(x); vi:

Теорема 3.2.4. Пусть в выпуклой задаче математического программирования (3.2.43) функ-

ции f(x) и h(x) дифференцируемы. Тогда, если в точке x¤ 2 X при некоторых u¤ 2 Rl и v¤ 2 Rk+ выполнены условия

hLx(x¤; u¤; v¤); x ¡ x¤i ¸ 0 8x 2 ¦;

(3.2.44)

v¤jhj(x¤) = 0; 1 · j · k;

(3.2.45)

то x¤ глобальное решение задачи (3.2.43).

Доказательство. При сделанных предположениях функция L(x; u¤; v¤), где u¤ и v¤ фиксированы, выпукла по x на ¦. Более того, согласно (3.2.44), точка x¤ есть решение вариационного неравенства (3.1.23) с отображением F (x) = Lx(x; u¤; v¤). Поэтому в силу необходимых и достаточных условий теоремы 3.1.15 x¤ есть точка минимума функции L(x; u¤; v¤) на множество ¦, т.е.

L(x¤; u¤; v¤) · L(x; u¤; v¤) 8 x 2 ¦:

(3.2.46)

Так как g(x¤) = 0l, то hg(x¤); u¤i = 0. Кроме того, поскольку для активных ограничений hj(x¤) = 0, а для неактивных ограничений v¤j = 0, то на основании (3.2.45) имеем hv¤; h(x¤)i = 0. Тогда неравенство (3.2.46) переписывается в более подробном виде как

f(x¤) = L(x¤; u¤; v¤) · f(x) + hu¤; g(x)i + hv¤; h(x)i 8 x 2 ¦:

(3.2.47)

Учтем теперь, что g(x) = 0l и h(x) · 0k для всех x 2 X, а также, что v¤ ¸ 0k. Тогда hu¤; g(x)i = 0, hv¤; h(x)i · 0, если x 2 X. Поскольку X µ ¦, то из (3.2.47) получаем

f(x¤) · f(x) + hu¤; g(x)i + hv¤; h(x)i · f(x) 8 x 2 X:

Таким образом, точка x¤ является глобальным решением задачи (3.2.43). ¥

Утверждение теоремы 3.2.4 сохраняется и при более слабых требованиях относительно функций f(x) и h(x). Приведем его для случая, когда ¦ = Rn, т.е. когда дополнительное ограничение x 2 ¦ фактически отсутствует.

Теорема 3.2.5. Пусть в задаче (3.2.52), в которой ¦ = Rn, функция f(x) и вектор-функция h(x) дифференцируемы, а вектор-функция g(x) линейная. Пусть, кроме того, f(x) является псевдовыпуклой функцией на Rn и все компоненты вектор-функции h(x) квазивыпуклы. Тогда, если в

точке

 

x¤ 2kX = ©x 2 Rn : g(x) = 0l; h(x) · 0k

ª

при некоторых u¤ 2 R

l

 

и v¤ 2 R+ выполнены условия

 

 

 

Lx(x¤; u¤; v¤) = 0n;

(3.2.48)

124

ГЛАВА 3. ОПТИМИЗАЦИОННЫЕ ЗАДАЧИ

 

v¤jhj(x¤) = 0; 1 · j · k;

(3.2.49)

то x¤ глобальное решение задачи (3.2.43).

Доказательство. Из квазивыпуклости всех компонент вектор-функции h(x) следует, что допустимое множество X выпукло. Поэтому, если взять любую точку x 2 X, то отрезок, соединяющий x с x¤ целиком принадлежит этому множеству и, следовательно, вектор s = x ¡ x¤ является возможным направлением в точке x¤ 2 X относительно множества X. Но тогда согласно утверждению

??

hhjx(x¤); x ¡ x¤i · 0; j 2 J0(x¤);

и поскольку v¤j ¸ 0, j 2 J0(x¤), то

X

v¤jhhjx(x¤); x ¡ x¤i · 0: (3.2.50)

j2J0(x¤)

Кроме того, из-за линейности вектор-функции g(x) вытекает равенство

gx(x¤)(x ¡ x¤) = g(x) ¡ g(x¤) = 0m:

(3.2.51)

На основании (3.2.48) справедливо представление

Xk

fx(x¤) = ¡gxT (x¤)u¤ ¡ v¤jhjx(x¤);

j=1

которое с учетом условия дополняющей нежесткости (3.2.49) можно переписать как

X

fx(x¤) = ¡gxT (x¤)u¤ ¡ v¤jhjx(x¤):

j2J0(x¤)

Отсюда и из (3.2.50) и (3.2.51) приходим к неравенству

=

 

j J0

(x ) vj

hxj

(x ); xP x

 

0:

hfx(x¤); x ¡ x¤i =

¡hu¤; gx(x¤)(x ¡ x¤)i ¡

j2J0

(x¤) v¤jhhxj (x¤); x ¡ x¤i =

 

¡ P

2

¤ ¤h

 

¤

¡ ¤i ¸

 

Так как функция f(x) псевдовыпуклая, то выполнение данного неравенства означает, что f(x) ¸ f(x¤). Таким образом, x¤ точка глобального минимума функции f(x) на Rn. ¥

Для выпуклой задачи математического программирования можно сформулировать другое условие регулярности ограничений, которое более просто проверяется и не требует дифференцируемости от функций, задающих ограничения. Приведем его для задачи выпуклого программирования, в которой присутствуют только ограничения типа неравенства

x2X

X = ©x 2 R

n

: h(x) · 0k; x 2 ¦ª

;

(3.2.52)

min f(x)

 

 

 

 

 

где f(x) и все компоненты h(x) выпуклые функции, ¦ µ Rn выпуклое замкнутое множество.

Условие регулярности ограничений Слейтера. Существует такая точка x¹ 2 ¦, что hx) < 0k.

3.2. УСЛОВИЯ ОПТИМАЛЬНОСТИ ДЛЯ ЗАДАЧ МП

125

Использование этого условия, позволяет получить для выпуклой задачи минимизации (3.2.52) не только достаточные, но и необходимые условия оптимальности.

Теорема 3.2.6. Пусть в задаче выпуклого программирования (3.2.52) функции f(x) и h(x) дифференцируемы. Пусть, кроме того, выполнено условие регулярности ограничений Слейтера. Тогда, если x¤ 2 X есть решение задачи (3.2.52), то можно указать вектор v¤ 2 Rk+ такой, что для функции Лагранжа

L(x; v) = f(x) + hv; h(x)i

 

выполняется

 

hLx(x¤; v¤); x ¡ x¤i ¸ 0 8x 2 ¦;

(3.2.53)

v¤jhj(x¤) = 0; 1 · j · k:

(3.2.54)

Доказательство. Предположим сначала, что J0(x¤) =6 ;. Так как точка x¤ есть решение задачи (3.2.52), то система

f (x

); x

¡

x

¤i

<

0;

h jx ¤

 

 

 

 

hhx(x¤); x ¡ x¤i < 0; j 2 J0(x¤);

 

 

 

 

x

2

¦

не имеет решения. Поэтому по одному из вариантов теоремы Фана найдутся числа q ¸ 0 и v¤j ¸ 0, j 2 J0(x¤), такие, что они не равны нулю в совокупности и

X

hqfx(x¤) + v¤jhjx(x¤); x ¡ x¤i ¸ 0 8x 2 ¦: (3.2.55)

j2J0(x¤)

Допустим, что q = 0. Тогда хотя бы один из множителей v¤j, j 2 J0(x¤), должен быть строго положительным. Неравенство (3.2.55) переходит в следующее

X

h v¤jhjx(x¤); x ¡ x¤i ¸ 0 8x 2 ¦:

j2J0(x¤)

В частности, оно должно быть справедливым и для точки x¹ 2 ¦ из условия регулярности ограничений Слейтера

X

h v¤jhjx(x¤); x¹ ¡ x¤i ¸ 0: (3.2.56)

j2J0(x¤)

С другой стороны, в силу критерия выпуклости дифференцируемых функции hj(x),

 

hhxj (x¤); x¹ ¡ x¤i · hjx) ¡ hj(x¤) = hjx) < 0; j 2 J0(x¤):

(3.2.57)

Складывая неравенства (3.2.57), предварительно их умножив на соответствующие множители v¤j, получаем с учетом того, что хотя бы один из множителей v¤j, j 2 J0(x¤), строго положителен,

X

h v¤jhjx(x¤); x¹ ¡ x¤i < 0: (3.2.58)

j2J0(x¤)

Неравенство (3.2.58) противоречит (3.2.56). Таким образом, q > 0 и этот множитель в (3.2.55) можно взять равным единице. Введение условия дополняющей нежесткости (3.2.54) позволяет добавить в

126

ГЛАВА 3. ОПТИМИЗАЦИОННЫЕ ЗАДАЧИ

(3.2.55) градиенты hjx(x¤) неактивных в точке x¤ ограничений с множителями v¤j = 0, j 2 J¡(x¤). Тогда (3.2.55) переходит в неравенство (3.2.54).

Если J0(x¤) = ;, то точка x¤ 2 ¦ оказывается внутренней относительно множества X1 = fx 2 Rn : h(x) · 0kg. Задача (3.2.52) становится задачей минимизации выпуклой дифференцируемой функции на выпуклом множестве X = X1 \ ¦, причем в точке минимума x¤ конус возможных направлений относительно множества X совпадает с конусом возможных направлений относительно выпуклого множества ¦. Тогда, по теореме 3.1.15, hfx(x¤); x ¡ x¤i ¸ 0 для всех x 2 ¦. Данное условие совпадает с неравенством (3.2.53), если в нем положить v¤ = 0k. ¥

3.2.3. Достаточные условия второго порядка

Нами были получены условия оптимальности первого порядка для задач математического программирования (3.2.1) и (3.2.4). Условия (3.2.15), (3.2.16), как и в случае задачи безусловной минимизации (3.1.2), не зависят от того, какая из задач на минимимум или максимум рассматривается. Если бы в (3.2.1) вместо минимума целевой функции искался бы ее максимум, то условия оптимальности для этой задачи оказались бы фактически теми же самыми (поменялись бы только знаки у множителей Лагранжа, соответствующих ограничениям типа неравенства). Выделить те точки, где действительно реализуется миниминум целевой функции на допустимом множестве, а не максимум, позволяют условия второго порядка. Мы рассмотрим здесь только достаточные условия второго порядка, причем для задачи математического программирования (3.2.1). Как правило, при обосновании сходимости численных методов решения задач оптимизации обычно используются именно более сильные достаточные условия.

Далее будем предполагать, что функции, определяющие задачу (3.2.1), дважды непрерывно дифференцируемы на Rn. Через Lxx(x; u; v) будем обозначать матрицу вторых производных функции Лагранжа (3.2.28) относительно переменной x, которая составлена для задачи (3.2.1).

Ниже нам потребуются также следующее разбиение множества индексов активных ограничений J0(x) на два подмножества:

J0+(x; v) = ©j 2 J0(x) : vj > 0ª; J00(x; v) = ©j 2 J0(x) : vj = 0ª

и следующее условие, уточняющее условие дополняющей нежесткости.

Условие строгой дополняющей нежесткости. Мы скажем, что в точке [x; v] выполнено условие строгой дополняющей нежесткости, если в точке [x; v] выполнено условие дополняющей нежесткости и множество J00(x; v) пусто, т.е. J0(x) = J0+(x; v).

Введем в рассмотрение конус K(x; v), который есть пересечение двух линейных подпространств и конуса, а именно,

K(x; v) = K1(x) \ K2(x; v) \ K3(x; v);

 

 

 

где

©s Rn : hx(x); s

 

ª

 

0

 

 

 

K2(x; v) =

 

 

 

 

 

 

n

: gxT (jx)s = 0l

 

 

 

 

 

K1(x) =

s 2 Rn

;

+

 

ª:

K3(x; v) =

©s 2 R : hhxj (x); si

=

0; j 2

J00

(x; v)

 

© 2

h

i ·

2

 

 

ª

Если в точке [x; v] выполнено условие строгой дополняющей нежесткости, то K(x; v) = K1(x) \ K2(x; v) и фактически конус K(x; v) оказывается линейным подпространством, зависящим только от x.

3.2. УСЛОВИЯ ОПТИМАЛЬНОСТИ ДЛЯ ЗАДАЧ МП

127

Теорема 3.2.7. Пусть функции f(x), g(x) и h(x) дважды непрерывно дифференцируемы. Тогда для того, чтобы точка x¤ 2 Rn была строгим локальным решением задачи математического программирования (3.2.1) достаточно, чтобы нашлись u¤ 2 Rl и v¤ 2 Rk такие, что тройка [x¤; u¤; v¤] образует точку Каруша-Куна-Таккера, т.е.

Lx(x¤; u¤; v¤) = 0n;

 

Lu(x¤; u¤; v¤)

=

0l;

(3.2.59)

Lv(x¤; u¤; v¤) · 0k; v¤ ¸ 0k;

 

hLv(x¤; u¤; v¤); v¤i

=

0

 

и для любого ненулевого вектора s 2 K(x¤; v¤) выполняется неравенсто

hs; Lxx(x¤; u¤; v¤)si > 0:

(3.2.60)

Доказательство. Для простоты проведем его при дополнительном предположении, что в точке [x¤; v¤] выполнено условие строгой дополняющей нежесткости. В этом случае v¤j > 0, j 2 J0(x¤).

От противного, пусть x¤ не есть точка строгого локального минимума. Тогда найдется последовательность точек xk 2 X такая, что xk ! x¤ и f(xk) · f(x¤). Представим xk = x¤ + ±ksk, где kskk = 1 и ±k > 0, и рассмотрим любую предельную точку последовательности f[sk; ±k]g. Она существует, так как все точки sk принадлежат единичной сфере, являющейся компактным множеством, и ±k ! 0. Не умаляя общности, считаем, что сходится сама последовательность f[sk; ±k]g. Пусть

¹

sk ! s¹ и ±k ! ± = 0. Имеем ks¹k = 1 и

fi (xk) ¡ fi

(x¤) · 0;

 

 

gj (xk) ¡ gj

(x¤)

=

0; 1 · i · l;

(3.2.61)

h (xk) ¡ h (x¤)

·

0;

j 2 J0(x¤):

 

С учетом дифференцируемости всех функций f(x), g(x) и h(x) эти равенства и неравенства можно переписать как

±khfx(x¤); ski + o(±k)

±khgxi (x¤); ski + o(±k)

±khhjx(x¤); ski + o(±k)

·

0;

 

=

0; 1 · i · l;

· 0;

j 2 J0(x¤):

Разделив их на ±k и устремив k ! 1, отсюда приходим к

fx(x

); s¹

·

0;

 

 

 

 

 

h

i

¤

i

0; 1

 

i

 

l;

(3.2.62)

h

gx(x

); s¹

=

·

·

j

¤

i

 

 

 

 

 

hhx(x¤); s¹i · 0; j 2 J0(x¤):

 

Умножим в (3.2.62) вторые равенства на ui¤, а третьи неравенства на v¤j > 0 и сложим их все вместе. Учтем, кроме того, что v¤j = 0, когда j 2= J0(x¤). Тогда получаем

l

k

 

Xi

X

 

hfx(x¤) + u¤i gxi (x¤) +

v¤jhxj (x¤); s¹i · 0

 

=1

j=1

 

или, что то же самое,

 

 

hLx(x¤; u¤; v¤); s¹i · 0:

(3.2.63)

128

ГЛАВА 3. ОПТИМИЗАЦИОННЫЕ ЗАДАЧИ

Покажем, что s¹ 2 K(x¤; v¤) = K1(x¤) \ K2(x¤; v¤). Действительно, из (3.2.62) следует, что s¹ 2

K1(x¤). Далее, если хотя бы для одного индекса j 2 J0(x¤) = J0+(x¤; v¤) выполнялось бы hhjx(x¤); s¹i < 0; то из-за того, что для этого же индекса v¤j > 0, строгое неравенство выполнялось бы и в (3.2.63),

т.е.

hLx(x¤; u¤v¤); s¹i < 0:

(3.2.64)

Но строгое неравенство (3.2.64) не может иметь места, поскольку согласно (3.2.59) Lx(x¤; u¤; v¤) =

0n. Таким образом, s¹ 2 K(x¤; v¤).

Воспользуемся снова разложениями левых частей равенств и неравенств (3.2.61) в ряды Тейлора, но уже до членов второго порядка малости:

 

 

 

 

 

 

 

 

±2

 

 

 

2

 

 

 

 

 

 

 

 

 

 

 

k

 

 

 

 

 

 

f(xk) ¡ f(x¤) = ±khfx(x¤); ski +

 

 

hsk; fxx(x¤)ski + o(±

 

) · 0;

(3.2.65)

 

 

 

2

 

i

 

i

i

±2

i

 

 

 

2

 

 

 

 

 

 

k

 

 

 

 

 

 

 

g

(xk) ¡ g

(x¤) = ±khgx(x¤); ski +

 

 

 

hsk; gxx(x¤)ski + o(±

 

) = 0;

1 · i · l;

(3.2.66)

 

2

 

 

j

j

 

j

±k2

j

 

 

 

2

 

 

 

 

h (xk) ¡ h

(x¤) = ±khhx(x¤); ski +

 

 

hsk; hxx(x¤)ski + o(±

 

) · 0;

j 2 J0(x¤):

(3.2.67)

 

2

 

Умножим опять равенства (3.2.66) на соответствующие множители ui

, а неравенства (3.2.67) на

j

 

 

¤

 

 

 

множители v¤, и сложим их вместе с неравенством (3.2.65). Учтем, что Lx(x¤; u¤; v¤) = 0n. Тогда

после деления суммы на ±k2=2 приходим к неравенствам

 

 

 

hs¹k; 0fxx(x¤) +

u¤i gxxi (x¤) +

 

v¤jhxxj (x¤)1s¹ki + ±2k · 0:

@

l

j2X0 ¤

A

 

 

 

X

o(±2)

 

 

 

 

 

i=1

J (x )

 

 

k

 

 

 

 

 

 

Добавим во вторую сумму нулевые слагаемые v¤jhjxx(x¤), j 2 J¡(x¤), и перейдем к пределу при k ! 1, в результате получим неравенство:

hs;¹ Lxx(x¤; u¤; v¤si · 0:

Но, как было выяснено, s¹ 2 K(x¤; v¤). Поэтому данное неравенство противоречит условию (3.2.60).

¥

Для задач без ограничений конус K(x¤; v¤) есть Rn и условия теоремы 3.2.7 переходят в обычное достаточное условие второго порядка (3.1.25) локального минимума функции f(x) на всем пространстве Rn.

Достаточные условия оптимальности (3.2.59) (3.2.60) можно представить в более симметричном виде, если от функции Лагранжа (3.2.28) перейти к ее простейшей модификации. Данная модификация позволяет также единым образом учитывать как ограничения типа равенства, так и ограничения типа неравенства.

Пусть m = l+k общее число ограничений в задаче математического программирования (3.2.1). Перепишем ее, используя единые обозначения и единую нумерация для равенств и неравенств,

x2X

X = ©x 2 R

n

:

g

(x) = 0; 1 · i · l;

g

(x) · 0; l < i · mª:

(3.2.68)

min f(x);

 

 

 

 

 

 

 

 

Таким образом, первые l компонент вектор-функции

g(x) = £g1(x); g2(x); : : : ; gm(x)¤

и m-мерную вектор-функцию
p(u) = £p1(u); p2(u); : : : ; pm(u)¤

3.2. УСЛОВИЯ ОПТИМАЛЬНОСТИ ДЛЯ ЗАДАЧ МП

129

соответствуют ограничениям-равенствам, а последующие k = m ¡ l компонент ограничениямнеравенствам.

Введем вектор u 2 Rm

(3.2.69)

с компонентами

 

ui; 1 · i · l;

 

pi(u) =

 

½

(ui)2=2; l < i · m:

Для любого u 2 Rm все компоненты pi(u), l < i · m являются неотрицательными. Используя (3.2.69), составим функцию Лагранжа

L(x; u) = f(x) + hp(u); g(x)i:

(3.2.70)

В случае задачи (3.2.2), содержащей только ограничения типа равенства, данная функция полностью совпадает с классической функцией Лагранжа L(x; u) = f(x) + hu; g(x)i.

Применительно к функции (3.2.70) условие дополняющей нежесткости и условие строгой дополняющей нежесткости может быть переформулировано следующим образом.

Определение 3.2.1. В точке [x¤; u¤] выполнено условие дополняющей нежесткости, если gi(x¤)pi(u¤) = 0, l < i · m. Если, помимо того, pi(u¤) > 0 при i 2 J0(x¤), то в точке [x¤; u¤] выполнено условие строгой дополняющей нежесткости.

Предположим теперь, что все функции f(x) и gi(x), 1 · i · m, непрерывно дифференцируемы. Введем понятие стационарной точки функции Лагранжа (3.2.70).

Определение 3.2.2. Точка [x¤; u¤] называется стационарной точкой функции Лагранжа (3:2:70), если

Lx(x¤; u¤) = 0n;

Lu(x¤; u¤) = pu(u¤)g(x¤) = 0m:

(3.2.71)

Так как матрица pu(u) имеет диагональный вид

 

 

 

 

 

p (u) =

2 1

...

0

3

;

 

6

1

7

 

 

6

 

 

 

7

 

 

 

6

 

.

..

7

 

 

u

6

ul+1

 

7

 

(3.2.72)

6

 

 

7

 

 

6

0

 

 

7

 

 

 

6

 

 

m

7

 

 

 

6

 

 

u

7

 

 

 

4

 

 

 

5

 

 

то любая стационарная точка [x¤; u¤] такова, что в ней имеет место условие дополняющей нежесткости и, кроме того, точка x¤ удовлетворяет ограничениям типа равенства. Стационарную точку

[x¤; u¤] назовем точкой Куна-Таккера, если x¤ 2 X.

Ниже нам потребуются два линейных подпространства

K1(x¤; u¤) = ©y 2 Rn : pu(u¤)gx(x¤)y = 0mª; K2(u¤) = ©z 2 Rm : pu(u¤)z = 0mª:

Приведем достаточные условия второго порядка изолированного локального минимума в задаче (3.2.68). Эти условия являются переформулировкой с помощью функции Лагранжа (3.2.70) соответствующих условий теоремы 3.2.7. В них используются матрицы Lxx(x¤; u¤) и Luu(x¤; u¤) вторых производных функции Лагранжа (3.2.70) по x и u соответственно.

130

ГЛАВА 3. ОПТИМИЗАЦИОННЫЕ ЗАДАЧИ

Теорема 3.2.8. Пусть f(x) и gi(x), 1 · i · m, являются дважды непрерывно дифференцируемыми функциями. Пусть, кроме того, точка x¤ с некоторым u¤ 2 2 Rm образуют стационарную точку функции Лагранжа, в которой выполняются следующие два условия:

hy; Lxx(x¤; u¤)yi

>

0

8y 2 K1(x¤; u¤);

y 6= 0n;

(3.2.73)

hz; Luu(x¤; u¤)zi

<

0

8z 2 K2(u¤);

z 6= 0m:

(3.2.74)

Тогда в точке [x¤; u¤] выполнено условие строгой дополняющей нежесткости, а точка x¤ является изолированным локальным решением задачи (3:2:68).

Доказательство. Покажем сначала, что при сделанных предположениях точка x¤ является допустимой и в паре [x¤; u¤] выполнено условие строгой дополняющей нежесткости. С этой целью воспользуемся равенством Lu(x¤; u¤) = 0, следующим из определения стационарной точки. Согласно данному равенству, pu(u¤)g(x¤) = 0. Отсюда, с учетом представления (3.2.72) матрицы pu(u¤), получаем

gi(x¤) = 0;

i = 1; : : : ; l;

(3.2.75)

ui gi(x

¤

) = 0;

i = l + 1; : : : ; m:

(3.2.76)

¤

 

 

 

Таким образом, точка x¤ удовлетворяет ограничениям типа равенства и в паре [x¤; u¤] выполнено условие дополняющей нежесткости. Что касается ограничений типа неравенства, то, согласно (3.2.76), gi(x¤) = 0, если ui¤ =6 0, т.е. любое такое ограничение не только выполняется, но и является активным в точке x¤.

Далее, для любого z 2 K2(u¤), z =6 0m, выполнено неравенство (3.2.74). Но диагональная матрица pu(u¤) имеет вид (3.2.72), матрица Luu(x¤; u¤) также является диагональной:

 

 

 

 

 

2

0 ...

 

 

3

 

L

uu

(x

; u

) =

6

0

0

7

:

 

¤

¤

 

6

 

gl+1(x )

 

7

 

 

 

 

 

 

6

 

¤

 

7

 

 

 

 

 

 

6

 

.

..

7

 

 

 

 

 

 

6

0

 

7

 

 

 

 

 

 

6

 

 

7

 

 

 

 

 

 

6

 

 

gm(x )

7

 

 

 

 

 

 

6

 

 

¤

7

 

 

 

 

 

 

4

 

 

 

5

 

Пусть ui¤ = 0 для некоторого индекса i 2 [l + 1; m]. Возьмем в этом случае в качестве ненулевого вектора z 2 K2(u¤) единичный орт ei, у которого все компоненты, кроме i-й, равны нулю, а i-я компонента равна единице. Тогда, на основании (3.2.74),

hei; Luu(x¤; u¤)eii = gi(x¤) < 0:

Отсюда делаем вывод, что для тех индексов i 2 [l + 1; m], для которых ui¤ = 0, соответствующее ограничение типа неравенства также выполняется, причем как строгое. Поэтому точка x¤ является допустимой и, более того, в точке [x¤; u¤] выполнено условие строгой дополняющей нежесткости.

Оптимальность точки x¤ проверяется так же, как это делается в теореме 3.2.7. ¥

Достаточные условия второго порядка, задаваемые теоремой 3.2.7, могут быть перенесены и на случай общей задачи математического программирования, в которой присутствует дополнительное требование принадлежности решения множеству простой структуры ¦. Приведем их, предполагая для простоты, что в задаче (3.2.4) допустимое множество X помимо простого ограничения определяется только ограничениями-равенствами:

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]