20110224 systems of_typed_lambda_calculi_moskvin_lecture01
Pr i-8
1. §8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
2. §8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3. §8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
4. §8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
5. §8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
6. §8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
7. §8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
8. §8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
9. §8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
10. §8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
11. §8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
12. §8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
13. §8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
14. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
15. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
16. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
17. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
18. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
19. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
20. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
21. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
22. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
23. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
24. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
25. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
26. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
27. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
28. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
29. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
30. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
31. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
32. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
33. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
34. Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
35. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
36. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
37. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
38. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
39. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
40. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
41. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
42. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
43. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
44. Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
45. Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
46. Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
47. Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
48. Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
49. Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
50. Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
51. Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
52. Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
53. Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
54. Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
55. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
56. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
57. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
58. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
59. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
60. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
61. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
62. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
63. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
64. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
65. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
66. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
67. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
68. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
69. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
70. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
71. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
72. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
73. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
74. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
75. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
76. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
77. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
78. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
79. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
80. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
81. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
82. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
83. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
84. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
85. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
86. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
87. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
88. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
89. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
90. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
91. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
92. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
93. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
94. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
95. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
96. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
97. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
98. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
99. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
100. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
101. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
102. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
103. 0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
104. По I теореме отделимости в нормированных пространствах
множество B и точку 0 можно отделить
⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
inf
(b,˜y)∈B
{ (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0)
⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗)
Условие неотрицательности: (Rm+1
+ , 0) ⊂ B ⇒ (ei, 0) ∈ B,
где ei = (0, . . . , 0, 1
i
, 0, . . . , 0) ∈ B
(∗)
⇒ λi ≥ 0, i = 0, . . . , m.
Условие стационарности:
( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X
(∗)
⇒
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве
можно взять и h, и −h, то неравенство выполняется в виде
равенства:
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £
Галеев Э. М. МГУ
Лекции: Методы оптимизации
105. По I теореме отделимости в нормированных пространствах
множество B и точку 0 можно отделить
⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
inf
(b,˜y)∈B
{ (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0)
⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗)
Условие неотрицательности: (Rm+1
+ , 0) ⊂ B ⇒ (ei, 0) ∈ B,
где ei = (0, . . . , 0, 1
i
, 0, . . . , 0) ∈ B
(∗)
⇒ λi ≥ 0, i = 0, . . . , m.
Условие стационарности:
( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X
(∗)
⇒
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве
можно взять и h, и −h, то неравенство выполняется в виде
равенства:
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £
Галеев Э. М. МГУ
Лекции: Методы оптимизации
106. По I теореме отделимости в нормированных пространствах
множество B и точку 0 можно отделить
⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
inf
(b,˜y)∈B
{ (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0)
⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗)
Условие неотрицательности: (Rm+1
+ , 0) ⊂ B ⇒ (ei, 0) ∈ B,
где ei = (0, . . . , 0, 1
i
, 0, . . . , 0) ∈ B
(∗)
⇒ λi ≥ 0, i = 0, . . . , m.
Условие стационарности:
( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X
(∗)
⇒
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве
можно взять и h, и −h, то неравенство выполняется в виде
равенства:
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £
Галеев Э. М. МГУ
Лекции: Методы оптимизации
107. По I теореме отделимости в нормированных пространствах
множество B и точку 0 можно отделить
⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
inf
(b,˜y)∈B
{ (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0)
⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗)
Условие неотрицательности: (Rm+1
+ , 0) ⊂ B ⇒ (ei, 0) ∈ B,
где ei = (0, . . . , 0, 1
i
, 0, . . . , 0) ∈ B
(∗)
⇒ λi ≥ 0, i = 0, . . . , m.
Условие стационарности:
( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X
(∗)
⇒
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве
можно взять и h, и −h, то неравенство выполняется в виде
равенства:
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £
Галеев Э. М. МГУ
Лекции: Методы оптимизации
108. По I теореме отделимости в нормированных пространствах
множество B и точку 0 можно отделить
⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
inf
(b,˜y)∈B
{ (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0)
⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗)
Условие неотрицательности: (Rm+1
+ , 0) ⊂ B ⇒ (ei, 0) ∈ B,
где ei = (0, . . . , 0, 1
i
, 0, . . . , 0) ∈ B
(∗)
⇒ λi ≥ 0, i = 0, . . . , m.
Условие стационарности:
( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X
(∗)
⇒
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве
можно взять и h, и −h, то неравенство выполняется в виде
равенства:
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £
Галеев Э. М. МГУ
Лекции: Методы оптимизации
109. По I теореме отделимости в нормированных пространствах
множество B и точку 0 можно отделить
⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
inf
(b,˜y)∈B
{ (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0)
⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗)
Условие неотрицательности: (Rm+1
+ , 0) ⊂ B ⇒ (ei, 0) ∈ B,
где ei = (0, . . . , 0, 1
i
, 0, . . . , 0) ∈ B
(∗)
⇒ λi ≥ 0, i = 0, . . . , m.
Условие стационарности:
( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X
(∗)
⇒
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве
можно взять и h, и −h, то неравенство выполняется в виде
равенства:
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £
Галеев Э. М. МГУ
Лекции: Методы оптимизации
110. По I теореме отделимости в нормированных пространствах
множество B и точку 0 можно отделить
⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
inf
(b,˜y)∈B
{ (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0)
⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗)
Условие неотрицательности: (Rm+1
+ , 0) ⊂ B ⇒ (ei, 0) ∈ B,
где ei = (0, . . . , 0, 1
i
, 0, . . . , 0) ∈ B
(∗)
⇒ λi ≥ 0, i = 0, . . . , m.
Условие стационарности:
( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X
(∗)
⇒
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве
можно взять и h, и −h, то неравенство выполняется в виде
равенства:
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £
Галеев Э. М. МГУ
Лекции: Методы оптимизации