SlideShare a Scribd company logo
1 of 122
Download to read offline
§8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§8. Гладкая задача с равенствами и неравенствами
8.1 Постановка задачи
X, Y — линейные нормированные пространства,
fi : X → R, i = 0, 1, . . . , m, F : X → Y.
Гладкая задача с ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Допустимые точки — точки, удовлетворяющие
ограничениям задачи.
D(P) — множество допустимых точек в задаче (P).
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость),
Im F (ˆx) — замкнутое подпространство в Y (ослабленное
условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
для функции Лагранжа L (x) =
m
i=0
λifi(x) + y∗, F(x)
выполняются условия:
a) стационарности: L (ˆx) = 0
⇔
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X
⇔
m
i=0
λifi (ˆx) + F (ˆx)
∗
y∗ = 0 ;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P)
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx).
Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx).
Для локального экстремума такие ограничения
несущественны и полагаем λi = 0.
Таким образом, считаем, что условия дополняющей
нежесткости уже выполнены.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема (принцип Лагранжа)
ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) —
замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
a) стационарности:
m
i=0
λifi (ˆx) + (F (ˆx))∗y∗ = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m.
A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное
подпространство Y ⇒ по лемме о нетривиальности
аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает,
y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔
F (ˆx)
∗
y∗
, h = 0 ∀ h ∈ X ⇔ F (ˆx)
∗
y∗
= 0.
Остается положить λi = 0, i = 0, 1, . . . , m.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈
Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}.
B — непустое выпуклое множество.
Непустота: возьмем (b, ˜y), где b ∈ Rm+1
+ , ˜y = 0 ⇒ (b, ˜y) ∈ B
(в определении B надо взять h = 0).
Выпуклость: (b, ˜y), (b , ˜y ) ∈ B
def B
⇒ ∃ h и соответственно h .
Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ),
α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h .
Значит, (bα, F (ˆx)[hα]) ∈ B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
0 ∈ int B. Предположим противное, и придем к
противоречию с тем что ˆx ∈ locmin. Действительно, если
0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B
⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m.
F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве
Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}.
Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t),
ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1)
При малых t > 0 для i = 0, 1, . . . , m имеем неравенства
fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i)
(1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом
(10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что
ˆx ∈ locmin. Значит, 0 ∈ int B.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
По I теореме отделимости в нормированных пространствах
множество B и точку 0 можно отделить
⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
inf
(b,˜y)∈B
{ (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0)
⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗)
Условие неотрицательности: (Rm+1
+ , 0) ⊂ B ⇒ (ei, 0) ∈ B,
где ei = (0, . . . , 0, 1
i
, 0, . . . , 0) ∈ B
(∗)
⇒ λi ≥ 0, i = 0, . . . , m.
Условие стационарности:
( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X
(∗)
⇒
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве
можно взять и h, и −h, то неравенство выполняется в виде
равенства:
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £
Галеев Э. М. МГУ
Лекции: Методы оптимизации
По I теореме отделимости в нормированных пространствах
множество B и точку 0 можно отделить
⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
inf
(b,˜y)∈B
{ (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0)
⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗)
Условие неотрицательности: (Rm+1
+ , 0) ⊂ B ⇒ (ei, 0) ∈ B,
где ei = (0, . . . , 0, 1
i
, 0, . . . , 0) ∈ B
(∗)
⇒ λi ≥ 0, i = 0, . . . , m.
Условие стационарности:
( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X
(∗)
⇒
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве
можно взять и h, и −h, то неравенство выполняется в виде
равенства:
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £
Галеев Э. М. МГУ
Лекции: Методы оптимизации
По I теореме отделимости в нормированных пространствах
множество B и точку 0 можно отделить
⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
inf
(b,˜y)∈B
{ (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0)
⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗)
Условие неотрицательности: (Rm+1
+ , 0) ⊂ B ⇒ (ei, 0) ∈ B,
где ei = (0, . . . , 0, 1
i
, 0, . . . , 0) ∈ B
(∗)
⇒ λi ≥ 0, i = 0, . . . , m.
Условие стационарности:
( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X
(∗)
⇒
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве
можно взять и h, и −h, то неравенство выполняется в виде
равенства:
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £
Галеев Э. М. МГУ
Лекции: Методы оптимизации
По I теореме отделимости в нормированных пространствах
множество B и точку 0 можно отделить
⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
inf
(b,˜y)∈B
{ (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0)
⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗)
Условие неотрицательности: (Rm+1
+ , 0) ⊂ B ⇒ (ei, 0) ∈ B,
где ei = (0, . . . , 0, 1
i
, 0, . . . , 0) ∈ B
(∗)
⇒ λi ≥ 0, i = 0, . . . , m.
Условие стационарности:
( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X
(∗)
⇒
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве
можно взять и h, и −h, то неравенство выполняется в виде
равенства:
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £
Галеев Э. М. МГУ
Лекции: Методы оптимизации
По I теореме отделимости в нормированных пространствах
множество B и точку 0 можно отделить
⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
inf
(b,˜y)∈B
{ (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0)
⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗)
Условие неотрицательности: (Rm+1
+ , 0) ⊂ B ⇒ (ei, 0) ∈ B,
где ei = (0, . . . , 0, 1
i
, 0, . . . , 0) ∈ B
(∗)
⇒ λi ≥ 0, i = 0, . . . , m.
Условие стационарности:
( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X
(∗)
⇒
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве
можно взять и h, и −h, то неравенство выполняется в виде
равенства:
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £
Галеев Э. М. МГУ
Лекции: Методы оптимизации
По I теореме отделимости в нормированных пространствах
множество B и точку 0 можно отделить
⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
inf
(b,˜y)∈B
{ (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0)
⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗)
Условие неотрицательности: (Rm+1
+ , 0) ⊂ B ⇒ (ei, 0) ∈ B,
где ei = (0, . . . , 0, 1
i
, 0, . . . , 0) ∈ B
(∗)
⇒ λi ≥ 0, i = 0, . . . , m.
Условие стационарности:
( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X
(∗)
⇒
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве
можно взять и h, и −h, то неравенство выполняется в виде
равенства:
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £
Галеев Э. М. МГУ
Лекции: Методы оптимизации
По I теореме отделимости в нормированных пространствах
множество B и точку 0 можно отделить
⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 :
inf
(b,˜y)∈B
{ (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0)
⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗)
Условие неотрицательности: (Rm+1
+ , 0) ⊂ B ⇒ (ei, 0) ∈ B,
где ei = (0, . . . , 0, 1
i
, 0, . . . , 0) ∈ B
(∗)
⇒ λi ≥ 0, i = 0, . . . , m.
Условие стационарности:
( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X
(∗)
⇒
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве
можно взять и h, и −h, то неравенство выполняется в виде
равенства:
m
i=0
λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Pr i-8
Pr i-8
Pr i-8
Pr i-8
Pr i-8
Pr i-8
Pr i-8
Pr i-8
Pr i-8
Pr i-8
Pr i-8
Pr i-8

More Related Content

What's hot

Многочлены наилучших среднеквадратичных приближений
Многочлены наилучших среднеквадратичных приближенийМногочлены наилучших среднеквадратичных приближений
Многочлены наилучших среднеквадратичных приближенийTheoretical mechanics department
 
L3: Линейная и логистическая регрессия
L3: Линейная и логистическая регрессияL3: Линейная и логистическая регрессия
L3: Линейная и логистическая регрессияTechnosphere1
 
L6: Метод опорных векторов
L6: Метод опорных векторовL6: Метод опорных векторов
L6: Метод опорных векторовTechnosphere1
 
L2: Задача классификации и регрессии. Метрики ошибок
L2: Задача классификации и регрессии. Метрики ошибокL2: Задача классификации и регрессии. Метрики ошибок
L2: Задача классификации и регрессии. Метрики ошибокTechnosphere1
 
Метод проекции градиента для решения стационарной системы Стокса как задачи ...
Метод проекции градиента для решения стационарной системы Стокса  как задачи ...Метод проекции градиента для решения стационарной системы Стокса  как задачи ...
Метод проекции градиента для решения стационарной системы Стокса как задачи ...iST1
 
L5: Л5 Байесовские алгоритмы
L5: Л5 Байесовские алгоритмыL5: Л5 Байесовские алгоритмы
L5: Л5 Байесовские алгоритмыTechnosphere1
 
Решение краевых задач методом конечных элементов
Решение краевых задач методом конечных элементовРешение краевых задач методом конечных элементов
Решение краевых задач методом конечных элементовTheoretical mechanics department
 
Derivative lesson
Derivative lessonDerivative lesson
Derivative lessonmarinarum
 
20111202 machine learning_nikolenko_lecture02
20111202 machine learning_nikolenko_lecture0220111202 machine learning_nikolenko_lecture02
20111202 machine learning_nikolenko_lecture02Computer Science Club
 
Численное решение ОДУ. Метод Эйлера
Численное решение ОДУ. Метод ЭйлераЧисленное решение ОДУ. Метод Эйлера
Численное решение ОДУ. Метод ЭйлераTheoretical mechanics department
 
Методы численного интегрирования
Методы численного интегрированияМетоды численного интегрирования
Методы численного интегрированияTheoretical mechanics department
 
Лекция №6 "Линейные модели для классификации и регрессии"
Лекция №6 "Линейные модели для классификации и регрессии" Лекция №6 "Линейные модели для классификации и регрессии"
Лекция №6 "Линейные модели для классификации и регрессии" Technosphere1
 
Лекция №10 "Алгоритмические композиции. Завершение"
Лекция №10 "Алгоритмические композиции. Завершение" Лекция №10 "Алгоритмические композиции. Завершение"
Лекция №10 "Алгоритмические композиции. Завершение" Technosphere1
 
Morzhin o., november 03, 2011
Morzhin o., november 03, 2011Morzhin o., november 03, 2011
Morzhin o., november 03, 2011oleg_morzhin
 
L7:Задача кластеризации. Метрики качества
L7:Задача кластеризации. Метрики качестваL7:Задача кластеризации. Метрики качества
L7:Задача кластеризации. Метрики качестваTechnosphere1
 

What's hot (20)

Многочлены наилучших среднеквадратичных приближений
Многочлены наилучших среднеквадратичных приближенийМногочлены наилучших среднеквадратичных приближений
Многочлены наилучших среднеквадратичных приближений
 
Pr i-3
Pr i-3Pr i-3
Pr i-3
 
L3: Линейная и логистическая регрессия
L3: Линейная и логистическая регрессияL3: Линейная и логистическая регрессия
L3: Линейная и логистическая регрессия
 
L6: Метод опорных векторов
L6: Метод опорных векторовL6: Метод опорных векторов
L6: Метод опорных векторов
 
L2: Задача классификации и регрессии. Метрики ошибок
L2: Задача классификации и регрессии. Метрики ошибокL2: Задача классификации и регрессии. Метрики ошибок
L2: Задача классификации и регрессии. Метрики ошибок
 
Метод конечных разностей
Метод конечных разностейМетод конечных разностей
Метод конечных разностей
 
Метод проекции градиента для решения стационарной системы Стокса как задачи ...
Метод проекции градиента для решения стационарной системы Стокса  как задачи ...Метод проекции градиента для решения стационарной системы Стокса  как задачи ...
Метод проекции градиента для решения стационарной системы Стокса как задачи ...
 
L5: Л5 Байесовские алгоритмы
L5: Л5 Байесовские алгоритмыL5: Л5 Байесовские алгоритмы
L5: Л5 Байесовские алгоритмы
 
Integral1
Integral1Integral1
Integral1
 
Решение краевых задач методом конечных элементов
Решение краевых задач методом конечных элементовРешение краевых задач методом конечных элементов
Решение краевых задач методом конечных элементов
 
Derivative lesson
Derivative lessonDerivative lesson
Derivative lesson
 
20111202 machine learning_nikolenko_lecture02
20111202 machine learning_nikolenko_lecture0220111202 machine learning_nikolenko_lecture02
20111202 machine learning_nikolenko_lecture02
 
Сплайн интерполяция
Сплайн интерполяцияСплайн интерполяция
Сплайн интерполяция
 
Численное решение ОДУ. Метод Эйлера
Численное решение ОДУ. Метод ЭйлераЧисленное решение ОДУ. Метод Эйлера
Численное решение ОДУ. Метод Эйлера
 
Методы численного интегрирования
Методы численного интегрированияМетоды численного интегрирования
Методы численного интегрирования
 
Лекция №6 "Линейные модели для классификации и регрессии"
Лекция №6 "Линейные модели для классификации и регрессии" Лекция №6 "Линейные модели для классификации и регрессии"
Лекция №6 "Линейные модели для классификации и регрессии"
 
Лекция №10 "Алгоритмические композиции. Завершение"
Лекция №10 "Алгоритмические композиции. Завершение" Лекция №10 "Алгоритмические композиции. Завершение"
Лекция №10 "Алгоритмические композиции. Завершение"
 
Soboland Sat
Soboland SatSoboland Sat
Soboland Sat
 
Morzhin o., november 03, 2011
Morzhin o., november 03, 2011Morzhin o., november 03, 2011
Morzhin o., november 03, 2011
 
L7:Задача кластеризации. Метрики качества
L7:Задача кластеризации. Метрики качестваL7:Задача кластеризации. Метрики качества
L7:Задача кластеризации. Метрики качества
 

Viewers also liked

презентация лекции по выпуклому анализу
презентация лекции по выпуклому анализупрезентация лекции по выпуклому анализу
презентация лекции по выпуклому анализуgthtcnhjqrf1952
 
Stp summative assessment
Stp summative assessmentStp summative assessment
Stp summative assessmentTim Tse
 
人際關係電腦化:從通訊到社群(王慧明&amp;丁世峰)
人際關係電腦化:從通訊到社群(王慧明&amp;丁世峰)人際關係電腦化:從通訊到社群(王慧明&amp;丁世峰)
人際關係電腦化:從通訊到社群(王慧明&amp;丁世峰)慧明 王
 

Viewers also liked (10)

Pr i-5
Pr i-5Pr i-5
Pr i-5
 
Pr i-1
Pr i-1Pr i-1
Pr i-1
 
Pr i-1
Pr i-1Pr i-1
Pr i-1
 
Pr i-4
Pr i-4Pr i-4
Pr i-4
 
Pr i-4
Pr i-4Pr i-4
Pr i-4
 
презентация лекции по выпуклому анализу
презентация лекции по выпуклому анализупрезентация лекции по выпуклому анализу
презентация лекции по выпуклому анализу
 
Pr i-7
Pr i-7Pr i-7
Pr i-7
 
Kajian masalah pendengaran
Kajian masalah pendengaranKajian masalah pendengaran
Kajian masalah pendengaran
 
Stp summative assessment
Stp summative assessmentStp summative assessment
Stp summative assessment
 
人際關係電腦化:從通訊到社群(王慧明&amp;丁世峰)
人際關係電腦化:從通訊到社群(王慧明&amp;丁世峰)人際關係電腦化:從通訊到社群(王慧明&amp;丁世峰)
人際關係電腦化:從通訊到社群(王慧明&amp;丁世峰)
 

Similar to Pr i-8

Дифференцциальное исчисление
Дифференцциальное исчислениеДифференцциальное исчисление
Дифференцциальное исчислениеvladimiryaschuk
 
функциональный метод решения иррациональных уравнений
функциональный метод решения иррациональных уравненийфункциональный метод решения иррациональных уравнений
функциональный метод решения иррациональных уравненийludmilka88888
 
графики
графикиграфики
графикиveraka
 
графики Мехралиева С.А.
графики Мехралиева С.А.графики Мехралиева С.А.
графики Мехралиева С.А.veraka
 
Predel funk
Predel funkPredel funk
Predel funkAlex_Tam
 
Proizvodnaya funkcii
Proizvodnaya funkciiProizvodnaya funkcii
Proizvodnaya funkciiDimon4
 
10 a n_r
10 a n_r10 a n_r
10 a n_r4book
 
п.3.5решение неравенств методом интервалов к уроку
п.3.5решение неравенств методом интервалов к урокуп.3.5решение неравенств методом интервалов к уроку
п.3.5решение неравенств методом интервалов к урокуNTK Narva Taiskasvanute kool
 
Функции, 11-й клаас
Функции, 11-й клаасФункции, 11-й клаас
Функции, 11-й клаасAlbina
 
Matematika 10-klass-merzljak-2018-ros
Matematika 10-klass-merzljak-2018-rosMatematika 10-klass-merzljak-2018-ros
Matematika 10-klass-merzljak-2018-roskreidaros1
 
исследование функций
исследование функцийисследование функций
исследование функцийkillaruns
 
ИНТЕГРАЛ ТАЛБАЙ /Integral/
 ИНТЕГРАЛ ТАЛБАЙ /Integral/ ИНТЕГРАЛ ТАЛБАЙ /Integral/
ИНТЕГРАЛ ТАЛБАЙ /Integral/Khishighuu Myanganbuu
 
20081116 structuralcomplexitytheory lecture09-10
20081116 structuralcomplexitytheory lecture09-1020081116 structuralcomplexitytheory lecture09-10
20081116 structuralcomplexitytheory lecture09-10Computer Science Club
 
20110224 systems of_typed_lambda_calculi_moskvin_lecture01
20110224 systems of_typed_lambda_calculi_moskvin_lecture0120110224 systems of_typed_lambda_calculi_moskvin_lecture01
20110224 systems of_typed_lambda_calculi_moskvin_lecture01Computer Science Club
 

Similar to Pr i-8 (20)

Дифференцциальное исчисление
Дифференцциальное исчислениеДифференцциальное исчисление
Дифференцциальное исчисление
 
функциональный метод решения иррациональных уравнений
функциональный метод решения иррациональных уравненийфункциональный метод решения иррациональных уравнений
функциональный метод решения иррациональных уравнений
 
23
2323
23
 
графики
графикиграфики
графики
 
графики Мехралиева С.А.
графики Мехралиева С.А.графики Мехралиева С.А.
графики Мехралиева С.А.
 
Predel funk
Predel funkPredel funk
Predel funk
 
Proizvodnaya funkcii
Proizvodnaya funkciiProizvodnaya funkcii
Proizvodnaya funkcii
 
20131027 h10 lecture5_matiyasevich
20131027 h10 lecture5_matiyasevich20131027 h10 lecture5_matiyasevich
20131027 h10 lecture5_matiyasevich
 
10 a n_r
10 a n_r10 a n_r
10 a n_r
 
Question04
Question04Question04
Question04
 
п.3.5решение неравенств методом интервалов к уроку
п.3.5решение неравенств методом интервалов к урокуп.3.5решение неравенств методом интервалов к уроку
п.3.5решение неравенств методом интервалов к уроку
 
Функции, 11-й клаас
Функции, 11-й клаасФункции, 11-й клаас
Функции, 11-й клаас
 
презентация к уроку2
презентация к уроку2презентация к уроку2
презентация к уроку2
 
Matematika 10-klass-merzljak-2018-ros
Matematika 10-klass-merzljak-2018-rosMatematika 10-klass-merzljak-2018-ros
Matematika 10-klass-merzljak-2018-ros
 
исследование функций
исследование функцийисследование функций
исследование функций
 
Vzaimno obratnye funkcii
Vzaimno obratnye funkciiVzaimno obratnye funkcii
Vzaimno obratnye funkcii
 
ИНТЕГРАЛ ТАЛБАЙ /Integral/
 ИНТЕГРАЛ ТАЛБАЙ /Integral/ ИНТЕГРАЛ ТАЛБАЙ /Integral/
ИНТЕГРАЛ ТАЛБАЙ /Integral/
 
20081116 structuralcomplexitytheory lecture09-10
20081116 structuralcomplexitytheory lecture09-1020081116 structuralcomplexitytheory lecture09-10
20081116 structuralcomplexitytheory lecture09-10
 
M
MM
M
 
20110224 systems of_typed_lambda_calculi_moskvin_lecture01
20110224 systems of_typed_lambda_calculi_moskvin_lecture0120110224 systems of_typed_lambda_calculi_moskvin_lecture01
20110224 systems of_typed_lambda_calculi_moskvin_lecture01
 

Pr i-8

  • 1. §8. Гладкая задача с равенствами и неравенствами 8.1 Постановка задачи X, Y — линейные нормированные пространства, fi : X → R, i = 0, 1, . . . , m, F : X → Y. Гладкая задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Допустимые точки — точки, удовлетворяющие ограничениям задачи. D(P) — множество допустимых точек в задаче (P). Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 2. §8. Гладкая задача с равенствами и неравенствами 8.1 Постановка задачи X, Y — линейные нормированные пространства, fi : X → R, i = 0, 1, . . . , m, F : X → Y. Гладкая задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Допустимые точки — точки, удовлетворяющие ограничениям задачи. D(P) — множество допустимых точек в задаче (P). Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 3. §8. Гладкая задача с равенствами и неравенствами 8.1 Постановка задачи X, Y — линейные нормированные пространства, fi : X → R, i = 0, 1, . . . , m, F : X → Y. Гладкая задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Допустимые точки — точки, удовлетворяющие ограничениям задачи. D(P) — множество допустимых точек в задаче (P). Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 4. §8. Гладкая задача с равенствами и неравенствами 8.1 Постановка задачи X, Y — линейные нормированные пространства, fi : X → R, i = 0, 1, . . . , m, F : X → Y. Гладкая задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Допустимые точки — точки, удовлетворяющие ограничениям задачи. D(P) — множество допустимых точек в задаче (P). Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 5. §8. Гладкая задача с равенствами и неравенствами 8.1 Постановка задачи X, Y — линейные нормированные пространства, fi : X → R, i = 0, 1, . . . , m, F : X → Y. Гладкая задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Допустимые точки — точки, удовлетворяющие ограничениям задачи. D(P) — множество допустимых точек в задаче (P). Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 6. §8. Гладкая задача с равенствами и неравенствами 8.1 Постановка задачи X, Y — линейные нормированные пространства, fi : X → R, i = 0, 1, . . . , m, F : X → Y. Гладкая задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Допустимые точки — точки, удовлетворяющие ограничениям задачи. D(P) — множество допустимых точек в задаче (P). Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 7. §8. Гладкая задача с равенствами и неравенствами 8.1 Постановка задачи X, Y — линейные нормированные пространства, fi : X → R, i = 0, 1, . . . , m, F : X → Y. Гладкая задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Допустимые точки — точки, удовлетворяющие ограничениям задачи. D(P) — множество допустимых точек в задаче (P). Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 8. §8. Гладкая задача с равенствами и неравенствами 8.1 Постановка задачи X, Y — линейные нормированные пространства, fi : X → R, i = 0, 1, . . . , m, F : X → Y. Гладкая задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Допустимые точки — точки, удовлетворяющие ограничениям задачи. D(P) — множество допустимых точек в задаче (P). Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 9. §8. Гладкая задача с равенствами и неравенствами 8.1 Постановка задачи X, Y — линейные нормированные пространства, fi : X → R, i = 0, 1, . . . , m, F : X → Y. Гладкая задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Допустимые точки — точки, удовлетворяющие ограничениям задачи. D(P) — множество допустимых точек в задаче (P). Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 10. §8. Гладкая задача с равенствами и неравенствами 8.1 Постановка задачи X, Y — линейные нормированные пространства, fi : X → R, i = 0, 1, . . . , m, F : X → Y. Гладкая задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Допустимые точки — точки, удовлетворяющие ограничениям задачи. D(P) — множество допустимых точек в задаче (P). Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 11. §8. Гладкая задача с равенствами и неравенствами 8.1 Постановка задачи X, Y — линейные нормированные пространства, fi : X → R, i = 0, 1, . . . , m, F : X → Y. Гладкая задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Допустимые точки — точки, удовлетворяющие ограничениям задачи. D(P) — множество допустимых точек в задаче (P). Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 12. §8. Гладкая задача с равенствами и неравенствами 8.1 Постановка задачи X, Y — линейные нормированные пространства, fi : X → R, i = 0, 1, . . . , m, F : X → Y. Гладкая задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Допустимые точки — точки, удовлетворяющие ограничениям задачи. D(P) — множество допустимых точек в задаче (P). Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 13. §8. Гладкая задача с равенствами и неравенствами 8.1 Постановка задачи X, Y — линейные нормированные пространства, fi : X → R, i = 0, 1, . . . , m, F : X → Y. Гладкая задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Допустимые точки — точки, удовлетворяющие ограничениям задачи. D(P) — множество допустимых точек в задаче (P). Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 14. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 15. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 16. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 17. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 18. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 19. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 20. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 21. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 22. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 23. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 24. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 25. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 26. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 27. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 28. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 29. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 30. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 31. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 32. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 33. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 34. Теорема (принцип Лагранжа) ˆx ∈ locminP, X, Y — банаховы, fi, F ∈ SD(ˆx) (гладкость), Im F (ˆx) — замкнутое подпространство в Y (ослабленное условие регулярности) ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : для функции Лагранжа L (x) = m i=0 λifi(x) + y∗, F(x) выполняются условия: a) стационарности: L (ˆx) = 0 ⇔ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0 ∀ h ∈ X ⇔ m i=0 λifi (ˆx) + F (ˆx) ∗ y∗ = 0 ; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 35. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. ¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx). Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx). Для локального экстремума такие ограничения несущественны и полагаем λi = 0. Таким образом, считаем, что условия дополняющей нежесткости уже выполнены. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 36. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. ¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx). Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx). Для локального экстремума такие ограничения несущественны и полагаем λi = 0. Таким образом, считаем, что условия дополняющей нежесткости уже выполнены. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 37. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. ¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx). Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx). Для локального экстремума такие ограничения несущественны и полагаем λi = 0. Таким образом, считаем, что условия дополняющей нежесткости уже выполнены. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 38. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. ¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx). Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx). Для локального экстремума такие ограничения несущественны и полагаем λi = 0. Таким образом, считаем, что условия дополняющей нежесткости уже выполнены. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 39. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. ¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx). Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx). Для локального экстремума такие ограничения несущественны и полагаем λi = 0. Таким образом, считаем, что условия дополняющей нежесткости уже выполнены. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 40. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. ¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx). Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx). Для локального экстремума такие ограничения несущественны и полагаем λi = 0. Таким образом, считаем, что условия дополняющей нежесткости уже выполнены. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 41. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. ¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx). Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx). Для локального экстремума такие ограничения несущественны и полагаем λi = 0. Таким образом, считаем, что условия дополняющей нежесткости уже выполнены. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 42. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. ¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx). Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx). Для локального экстремума такие ограничения несущественны и полагаем λi = 0. Таким образом, считаем, что условия дополняющей нежесткости уже выполнены. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 43. f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m, F(x) = 0. (P) Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. ¡ НеОО f0(ˆx) = 0, иначе f0(x) = f0(x) − f0(ˆx). Если fi(ˆx) = 0 (1 ≤ i ≤ m) ⇒ fi(ˆx) < 0 ⇒ fi(x) < 0 ∀ x ∈ O(ˆx). Для локального экстремума такие ограничения несущественны и полагаем λi = 0. Таким образом, считаем, что условия дополняющей нежесткости уже выполнены. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 44. Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное подпространство Y ⇒ по лемме о нетривиальности аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает, y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔ F (ˆx) ∗ y∗ , h = 0 ∀ h ∈ X ⇔ F (ˆx) ∗ y∗ = 0. Остается положить λi = 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 45. Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное подпространство Y ⇒ по лемме о нетривиальности аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает, y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔ F (ˆx) ∗ y∗ , h = 0 ∀ h ∈ X ⇔ F (ˆx) ∗ y∗ = 0. Остается положить λi = 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 46. Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное подпространство Y ⇒ по лемме о нетривиальности аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает, y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔ F (ˆx) ∗ y∗ , h = 0 ∀ h ∈ X ⇔ F (ˆx) ∗ y∗ = 0. Остается положить λi = 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 47. Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное подпространство Y ⇒ по лемме о нетривиальности аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает, y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔ F (ˆx) ∗ y∗ , h = 0 ∀ h ∈ X ⇔ F (ˆx) ∗ y∗ = 0. Остается положить λi = 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 48. Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное подпространство Y ⇒ по лемме о нетривиальности аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает, y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔ F (ˆx) ∗ y∗ , h = 0 ∀ h ∈ X ⇔ F (ˆx) ∗ y∗ = 0. Остается положить λi = 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 49. Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное подпространство Y ⇒ по лемме о нетривиальности аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает, y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔ F (ˆx) ∗ y∗ , h = 0 ∀ h ∈ X ⇔ F (ˆx) ∗ y∗ = 0. Остается положить λi = 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 50. Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное подпространство Y ⇒ по лемме о нетривиальности аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает, y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔ F (ˆx) ∗ y∗ , h = 0 ∀ h ∈ X ⇔ F (ˆx) ∗ y∗ = 0. Остается положить λi = 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 51. Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное подпространство Y ⇒ по лемме о нетривиальности аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает, y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔ F (ˆx) ∗ y∗ , h = 0 ∀ h ∈ X ⇔ F (ˆx) ∗ y∗ = 0. Остается положить λi = 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 52. Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное подпространство Y ⇒ по лемме о нетривиальности аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает, y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔ F (ˆx) ∗ y∗ , h = 0 ∀ h ∈ X ⇔ F (ˆx) ∗ y∗ = 0. Остается положить λi = 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 53. Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное подпространство Y ⇒ по лемме о нетривиальности аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает, y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔ F (ˆx) ∗ y∗ , h = 0 ∀ h ∈ X ⇔ F (ˆx) ∗ y∗ = 0. Остается положить λi = 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 54. Теорема (принцип Лагранжа) ˆx ∈ locmin P, X, Y — банаховы, fi, F ∈ SD(ˆx), Im F (ˆx) — замкнуто в Y ⇒ ∃ (λ, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : a) стационарности: m i=0 λifi (ˆx) + (F (ˆx))∗y∗ = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m. A) Im F (ˆx) = Y ⇒ Im F (ˆx) — замкнутое собственное подпространство Y ⇒ по лемме о нетривиальности аннулятора ∃ y∗ ∈ (Im F (ˆx))⊥ ⊂ Y∗, y∗ = 0. Это означает, y∗, y = 0 ∀ y ∈ Im F (ˆx) ⇔ y∗, F (ˆx)[h] = 0 ⇔ F (ˆx) ∗ y∗ , h = 0 ∀ h ∈ X ⇔ F (ˆx) ∗ y∗ = 0. Остается положить λi = 0, i = 0, 1, . . . , m. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 55. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 56. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 57. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 58. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 59. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 60. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 61. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 62. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 63. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 64. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 65. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 66. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 67. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 68. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 69. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 70. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 71. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 72. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 73. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 74. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 75. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 76. B) Im F (ˆx) = Y. Положим b = (b0, . . . , bm), B := {(b, ˜y) ∈ Rm+1 × Y | ∃ h∈X : fi (ˆx), h ≤ bi, i = 0, . . . , m; ˜y = F (ˆx)[h]}. B — непустое выпуклое множество. Непустота: возьмем (b, ˜y), где b ∈ Rm+1 + , ˜y = 0 ⇒ (b, ˜y) ∈ B (в определении B надо взять h = 0). Выпуклость: (b, ˜y), (b , ˜y ) ∈ B def B ⇒ ∃ h и соответственно h . Тогда для вектора (bα, ˜yα) = α(b, ˜y) + (1 − α)(b , ˜y ), α ∈ [0, 1], надо взять вектор hα = αh + (1 − α)h . Значит, (bα, F (ˆx)[hα]) ∈ B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 77. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 78. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 79. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 80. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 81. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 82. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 83. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 84. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 85. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 86. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 87. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 88. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 89. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 90. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 91. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 92. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 93. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 94. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 95. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 96. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 97. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 98. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 99. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 100. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 101. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 102. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 103. 0 ∈ int B. Предположим противное, и придем к противоречию с тем что ˆx ∈ locmin. Действительно, если 0 ∈ int B ⇒ при достаточно малом β < 0 (β, . . . , β, 0) ∈ B ⇒ ∃ h : F (ˆx)[h] = 0, fi (ˆx), h ≤ β, i = 0, 1, . . . , m. F (ˆx)[h] = 0 ⇒ по т. о касательном пространстве Ker F (ˆx) = Tˆx M, где M := {x ∈ X | F(x) = F(ˆx) = 0}. Значит, ∃ r : [−ε, ε] → X (ε > 0) : r(t) = o(t), ˆx + th + r(t) ∈ M ⇔ F ˆx + th + r(t) = 0 ∀ t ∈ [−ε, ε]. (1) При малых t > 0 для i = 0, 1, . . . , m имеем неравенства fi ˆx + th + r(t) = fi(ˆx) + t fi (ˆx), h + o(t) < 0. (1i) (1), (1i), i = 1, . . . , m ⇒ ˆx + th + r(t) ∈ D(P). Но при этом (10) f0 ˆx + th + r(t) < 0 = f0(ˆx) противоречит тому, что ˆx ∈ locmin. Значит, 0 ∈ int B. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 104. По I теореме отделимости в нормированных пространствах множество B и точку 0 можно отделить ⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : inf (b,˜y)∈B { (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0) ⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗) Условие неотрицательности: (Rm+1 + , 0) ⊂ B ⇒ (ei, 0) ∈ B, где ei = (0, . . . , 0, 1 i , 0, . . . , 0) ∈ B (∗) ⇒ λi ≥ 0, i = 0, . . . , m. Условие стационарности: ( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X (∗) ⇒ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве можно взять и h, и −h, то неравенство выполняется в виде равенства: m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £ Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 105. По I теореме отделимости в нормированных пространствах множество B и точку 0 можно отделить ⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : inf (b,˜y)∈B { (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0) ⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗) Условие неотрицательности: (Rm+1 + , 0) ⊂ B ⇒ (ei, 0) ∈ B, где ei = (0, . . . , 0, 1 i , 0, . . . , 0) ∈ B (∗) ⇒ λi ≥ 0, i = 0, . . . , m. Условие стационарности: ( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X (∗) ⇒ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве можно взять и h, и −h, то неравенство выполняется в виде равенства: m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £ Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 106. По I теореме отделимости в нормированных пространствах множество B и точку 0 можно отделить ⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : inf (b,˜y)∈B { (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0) ⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗) Условие неотрицательности: (Rm+1 + , 0) ⊂ B ⇒ (ei, 0) ∈ B, где ei = (0, . . . , 0, 1 i , 0, . . . , 0) ∈ B (∗) ⇒ λi ≥ 0, i = 0, . . . , m. Условие стационарности: ( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X (∗) ⇒ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве можно взять и h, и −h, то неравенство выполняется в виде равенства: m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £ Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 107. По I теореме отделимости в нормированных пространствах множество B и точку 0 можно отделить ⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : inf (b,˜y)∈B { (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0) ⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗) Условие неотрицательности: (Rm+1 + , 0) ⊂ B ⇒ (ei, 0) ∈ B, где ei = (0, . . . , 0, 1 i , 0, . . . , 0) ∈ B (∗) ⇒ λi ≥ 0, i = 0, . . . , m. Условие стационарности: ( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X (∗) ⇒ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве можно взять и h, и −h, то неравенство выполняется в виде равенства: m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £ Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 108. По I теореме отделимости в нормированных пространствах множество B и точку 0 можно отделить ⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : inf (b,˜y)∈B { (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0) ⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗) Условие неотрицательности: (Rm+1 + , 0) ⊂ B ⇒ (ei, 0) ∈ B, где ei = (0, . . . , 0, 1 i , 0, . . . , 0) ∈ B (∗) ⇒ λi ≥ 0, i = 0, . . . , m. Условие стационарности: ( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X (∗) ⇒ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве можно взять и h, и −h, то неравенство выполняется в виде равенства: m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £ Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 109. По I теореме отделимости в нормированных пространствах множество B и точку 0 можно отделить ⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : inf (b,˜y)∈B { (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0) ⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗) Условие неотрицательности: (Rm+1 + , 0) ⊂ B ⇒ (ei, 0) ∈ B, где ei = (0, . . . , 0, 1 i , 0, . . . , 0) ∈ B (∗) ⇒ λi ≥ 0, i = 0, . . . , m. Условие стационарности: ( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X (∗) ⇒ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве можно взять и h, и −h, то неравенство выполняется в виде равенства: m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £ Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 110. По I теореме отделимости в нормированных пространствах множество B и точку 0 можно отделить ⇒ ∃ (λ, y∗) = (λ0, λ1, . . . , λm, y∗) ∈ Rm+1 × Y∗, (λ, y∗) = 0 : inf (b,˜y)∈B { (λ, y∗), (b, ˜y) } ≥ (λ, y∗), (0, 0) ⇐⇒ λ, b + y∗, ˜y ≥ 0 ∀ (b, ˜y) ∈ B. (∗) Условие неотрицательности: (Rm+1 + , 0) ⊂ B ⇒ (ei, 0) ∈ B, где ei = (0, . . . , 0, 1 i , 0, . . . , 0) ∈ B (∗) ⇒ λi ≥ 0, i = 0, . . . , m. Условие стационарности: ( f0(ˆx), h , . . . , fm(ˆx), h , F (ˆx)[h]) ∈ B ∀ h ∈ X (∗) ⇒ m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] ≥ 0. Поскольку в неравенстве можно взять и h, и −h, то неравенство выполняется в виде равенства: m i=0 λi fi (ˆx), h + y∗, F (ˆx)[h] = 0. £ Галеев Э. М. МГУ Лекции: Методы оптимизации