1. §3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
2. §3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3. §3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
4. §3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
5. §3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
6. §3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
7. §3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
8. §3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
9. §3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
10. §3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
11. §3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
12. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
13. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
14. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
15. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
16. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
17. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
18. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
19. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
20. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
21. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
22. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
23. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
24. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
25. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
26. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
27. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
28. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
29. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
30. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
31. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
32. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
33. 3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
34. Теорема
Пусть ˆx ∈ locextr P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда
∃ λ = 0 : для L выполняются условия
a) стационарности: L (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λ0 ≥ 0 на min, λ0 ≤ 0 на max;
λi ≥ 0, i = 1, . . . , m .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
35. Теорема
Пусть ˆx ∈ locextr P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда
∃ λ = 0 : для L выполняются условия
a) стационарности: L (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λ0 ≥ 0 на min, λ0 ≤ 0 на max;
λi ≥ 0, i = 1, . . . , m .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
36. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
37. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
38. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
39. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
40. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
41. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
42. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
43. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
44. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
45. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
46. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
47. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
48. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
49. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
50. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
51. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
52. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
53. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
54. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
55. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
56. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
57. 3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒
Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒
2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
77. Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
f(x) = x2
1 + x2
2 + x2
3 → +∞ при |x| → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, а
в силу единственности критической точки решением может
быть только она.
Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
78. Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
f(x) = x2
1 + x2
2 + x2
3 → +∞ при |x| → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, а
в силу единственности критической точки решением может
быть только она.
Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
79. Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
f(x) = x2
1 + x2
2 + x2
3 → +∞ при |x| → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, а
в силу единственности критической точки решением может
быть только она.
Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
80. Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
f(x) = x2
1 + x2
2 + x2
3 → +∞ при |x| → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, а
в силу единственности критической точки решением может
быть только она.
Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
81. Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
f(x) = x2
1 + x2
2 + x2
3 → +∞ при |x| → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, а
в силу единственности критической точки решением может
быть только она.
Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
82. Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
f(x) = x2
1 + x2
2 + x2
3 → +∞ при |x| → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, а
в силу единственности критической точки решением может
быть только она.
Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
83. Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
f(x) = x2
1 + x2
2 + x2
3 → +∞ при |x| → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, а
в силу единственности критической точки решением может
быть только она.
Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
84. 3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
85. 3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
86. 3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
87. 3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
88. 3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
89. 3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
90. 3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
91. 3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
92. 3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
93. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
94. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
95. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
96. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
97. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
98. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
99. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
100. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
101. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
102. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
103. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
104. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
105. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
106. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
107. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
108. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации