SlideShare a Scribd company logo
1 of 193
Download to read offline
§3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
§3. Конечномерные гладкие задачи с равенствами и
неравенствами
3.1 Постановка задачи
Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции
fi обладают определенной гладкостью.
Гладкая конечномерная экстремальная задача с
ограничениями типа равенств и неравенств:
f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m.
(P)
Для определенности рассматриваем задачи на минимум.
Функция Лагранжа задачи (P): L (x) =
m
i=0
λifi(x),
вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.2. Необходимые и достаточные условия экстремума
3.2.1 Принцип Лагранжа
Теорема
Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m.
Тогда ∃ λ = 0 : для L выполняются условия
a) стационарности:
L (ˆx) = 0 ⇐⇒
m
i=0
λifi (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m .
Критические точки. В задаче на максимум λ0 ≤ 0.
Отметим, что ограничения типа равенств можно было бы не
писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0
двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема
Пусть ˆx ∈ locextr P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда
∃ λ = 0 : для L выполняются условия
a) стационарности: L (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λ0 ≥ 0 на min, λ0 ≤ 0 на max;
λi ≥ 0, i = 1, . . . , m .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема
Пусть ˆx ∈ locextr P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда
∃ λ = 0 : для L выполняются условия
a) стационарности: L (ˆx) = 0;
b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ;
c) неотрицательности: λ0 ≥ 0 на min, λ0 ≤ 0 на max;
λi ≥ 0, i = 1, . . . , m .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
Решение. Функция Лагранжа
L = λ0(x2
1 +x2
2 +x2
3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3).
Необходимые условия локального минимума:
а) стационарности
L = 0 ⇐⇒



Lx1
= 0,
Lx2
= 0,
Lx3
= 0,
⇐⇒



2λ0x1 + 2λ1 + λ2 = 0,
2λ0x2 − λ1 + λ2 = 0,
2λ0x3 + λ1 + λ2 = 0;
b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0;
c) неотрицательности λ0 ≥ 0, λ1 ≥ 0.
Если λ0 = 0
a
⇒ λ1 = λ2 = 0 — все множители Лагранжа —
нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1
2 .
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.



x1 + 2λ1 + λ2 = 0,
x2 − λ1 + λ2 = 0,
x3 + λ1 + λ2 = 0,
⇐⇒



x1 = −2λ1 − λ2,
x2 = λ1 − λ2,
x3 = −λ1 − λ2.
Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя
xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1
⇒ x1 = x2 = x3 = 1 — критическая точка.
Пусть λ1 = 0
b
⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в
уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5:
−2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3,
−4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5,
⇔
−2λ1 − 3λ2 = 3,
−6λ1 − 2λ2 = 5,
⇒ λ1 = −9/14 < 0 — противоречие с условием
неотрицательности c ⇒ при λ1 = 0 критических точек нет.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
f(x) = x2
1 + x2
2 + x2
3 → +∞ при |x| → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, а
в силу единственности критической точки решением может
быть только она.
Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
f(x) = x2
1 + x2
2 + x2
3 → +∞ при |x| → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, а
в силу единственности критической точки решением может
быть только она.
Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
f(x) = x2
1 + x2
2 + x2
3 → +∞ при |x| → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, а
в силу единственности критической точки решением может
быть только она.
Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
f(x) = x2
1 + x2
2 + x2
3 → +∞ при |x| → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, а
в силу единственности критической точки решением может
быть только она.
Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
f(x) = x2
1 + x2
2 + x2
3 → +∞ при |x| → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, а
в силу единственности критической точки решением может
быть только она.
Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
f(x) = x2
1 + x2
2 + x2
3 → +∞ при |x| → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, а
в силу единственности критической точки решением может
быть только она.
Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Пример 1. x2
1 +x2
2 +x2
3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.
f(x) = x2
1 + x2
2 + x2
3 → +∞ при |x| → ∞ ⇒ по следствию из
теоремы Вейерштрасса абсолютный минимум достигается, а
в силу единственности критической точки решением может
быть только она.
Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
3.4 Примеры
Пример 2. Приведение квадратичной формы к главным осям
Пусть A = aij
n
i,j=1
— симметрическая матрица,
Q(x) =
n
i,j=1
aijxixj = Ax, x — квадратичная форма.
Теорема
В Rn ∃ ортонормированный базис f1, . . . , fn :
Q(x) =
n
i=1
λi x, fi
2
.
В базисе f1, . . . , fn матрица формы Q диагональна.
f1, . . . , fn — главные оси формы Q, а переход к базису
f1, . . . , fn называется приведением формы к главным осям.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n
i=1 λi x, fi
2.
¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с.
Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0.
Ax, x → min; x, x ≤ 1. (P1)
По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0.
Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1).
Необходимые условия минимума в ˆx = f1:
a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0,
b) дополняющей нежесткости: λ( f1, f1 − 1) = 0;
c) неотрицательности: λ0 ≥ 0, λ ≥ 0.
λ0 = 0 ⇒ λ = 0
a
⇒ f1 = 0 b.
λ0 = 0, λ0 = 1
a
⇒ Af1 = −λf1. Умножим на f1 ⇒
Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0
b
⇒ f1, f1 = 1.
Таким образом, f1 — собственный вектор матрицы A:
Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1,
λ1 — минимальное собственное значение A.
Галеев Э. М. МГУ
Лекции: Методы оптимизации
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3
Pr i-3

More Related Content

What's hot

20111202 machine learning_nikolenko_lecture04
20111202 machine learning_nikolenko_lecture0420111202 machine learning_nikolenko_lecture04
20111202 machine learning_nikolenko_lecture04Computer Science Club
 
20080928 structuralcomplexitytheory lecture01-02
20080928 structuralcomplexitytheory lecture01-0220080928 structuralcomplexitytheory lecture01-02
20080928 structuralcomplexitytheory lecture01-02Computer Science Club
 
20110306 systems of_typed_lambda_calculi_moskvin_lecture04
20110306 systems of_typed_lambda_calculi_moskvin_lecture0420110306 systems of_typed_lambda_calculi_moskvin_lecture04
20110306 systems of_typed_lambda_calculi_moskvin_lecture04Computer Science Club
 
Лекция №2. Алгоритмические проблемы. Стандартные схемы программ. Предмет "Тео...
Лекция №2. Алгоритмические проблемы. Стандартные схемы программ. Предмет "Тео...Лекция №2. Алгоритмические проблемы. Стандартные схемы программ. Предмет "Тео...
Лекция №2. Алгоритмические проблемы. Стандартные схемы программ. Предмет "Тео...Nikolay Grebenshikov
 
Лекция №1. Введение. Предмет "Теория вычислительных процессов"
Лекция №1. Введение. Предмет "Теория вычислительных процессов"Лекция №1. Введение. Предмет "Теория вычислительных процессов"
Лекция №1. Введение. Предмет "Теория вычислительных процессов"Nikolay Grebenshikov
 
пугач му по матлогике 2015
пугач му по матлогике 2015пугач му по матлогике 2015
пугач му по матлогике 2015LIPugach
 
Факторизационные модели в рекомендательных системах
Факторизационные модели в рекомендательных системахФакторизационные модели в рекомендательных системах
Факторизационные модели в рекомендательных системахromovpa
 
Решение краевых задач методом конечных элементов
Решение краевых задач методом конечных элементовРешение краевых задач методом конечных элементов
Решение краевых задач методом конечных элементовTheoretical mechanics department
 
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)Alexey Paznikov
 
Линейная алгебра - II
Линейная алгебра - IIЛинейная алгебра - II
Линейная алгебра - IIDEVTYPE
 
практика 9
практика 9практика 9
практика 9student_kai
 
20081116 structuralcomplexitytheory lecture09-10
20081116 structuralcomplexitytheory lecture09-1020081116 structuralcomplexitytheory lecture09-10
20081116 structuralcomplexitytheory lecture09-10Computer Science Club
 

What's hot (20)

Pr i-7
Pr i-7Pr i-7
Pr i-7
 
20111202 machine learning_nikolenko_lecture04
20111202 machine learning_nikolenko_lecture0420111202 machine learning_nikolenko_lecture04
20111202 machine learning_nikolenko_lecture04
 
20080928 structuralcomplexitytheory lecture01-02
20080928 structuralcomplexitytheory lecture01-0220080928 structuralcomplexitytheory lecture01-02
20080928 structuralcomplexitytheory lecture01-02
 
20110306 systems of_typed_lambda_calculi_moskvin_lecture04
20110306 systems of_typed_lambda_calculi_moskvin_lecture0420110306 systems of_typed_lambda_calculi_moskvin_lecture04
20110306 systems of_typed_lambda_calculi_moskvin_lecture04
 
Лекция №2. Алгоритмические проблемы. Стандартные схемы программ. Предмет "Тео...
Лекция №2. Алгоритмические проблемы. Стандартные схемы программ. Предмет "Тео...Лекция №2. Алгоритмические проблемы. Стандартные схемы программ. Предмет "Тео...
Лекция №2. Алгоритмические проблемы. Стандартные схемы программ. Предмет "Тео...
 
Лекция №1. Введение. Предмет "Теория вычислительных процессов"
Лекция №1. Введение. Предмет "Теория вычислительных процессов"Лекция №1. Введение. Предмет "Теория вычислительных процессов"
Лекция №1. Введение. Предмет "Теория вычислительных процессов"
 
Pr i-6
Pr i-6Pr i-6
Pr i-6
 
Pr i-6
Pr i-6Pr i-6
Pr i-6
 
Метод конечных разностей
Метод конечных разностейМетод конечных разностей
Метод конечных разностей
 
Integral1
Integral1Integral1
Integral1
 
пугач му по матлогике 2015
пугач му по матлогике 2015пугач му по матлогике 2015
пугач му по матлогике 2015
 
Факторизационные модели в рекомендательных системах
Факторизационные модели в рекомендательных системахФакторизационные модели в рекомендательных системах
Факторизационные модели в рекомендательных системах
 
10474
1047410474
10474
 
20131027 h10 lecture5_matiyasevich
20131027 h10 lecture5_matiyasevich20131027 h10 lecture5_matiyasevich
20131027 h10 lecture5_matiyasevich
 
Решение краевых задач методом конечных элементов
Решение краевых задач методом конечных элементовРешение краевых задач методом конечных элементов
Решение краевых задач методом конечных элементов
 
20131006 h10 lecture2_matiyasevich
20131006 h10 lecture2_matiyasevich20131006 h10 lecture2_matiyasevich
20131006 h10 lecture2_matiyasevich
 
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)
Лекция 5. Метод конечных разностей (параллельные алгоритмы в стандарте MPI)
 
Линейная алгебра - II
Линейная алгебра - IIЛинейная алгебра - II
Линейная алгебра - II
 
практика 9
практика 9практика 9
практика 9
 
20081116 structuralcomplexitytheory lecture09-10
20081116 structuralcomplexitytheory lecture09-1020081116 structuralcomplexitytheory lecture09-10
20081116 structuralcomplexitytheory lecture09-10
 

Viewers also liked

презентация лекции по выпуклому анализу
презентация лекции по выпуклому анализупрезентация лекции по выпуклому анализу
презентация лекции по выпуклому анализуgthtcnhjqrf1952
 
Stp summative assessment
Stp summative assessmentStp summative assessment
Stp summative assessmentTim Tse
 
人際關係電腦化:從通訊到社群(王慧明&amp;丁世峰)
人際關係電腦化:從通訊到社群(王慧明&amp;丁世峰)人際關係電腦化:從通訊到社群(王慧明&amp;丁世峰)
人際關係電腦化:從通訊到社群(王慧明&amp;丁世峰)慧明 王
 

Viewers also liked (9)

Pr i-1
Pr i-1Pr i-1
Pr i-1
 
Pr i-4
Pr i-4Pr i-4
Pr i-4
 
Pr i-5
Pr i-5Pr i-5
Pr i-5
 
Pr i-1
Pr i-1Pr i-1
Pr i-1
 
Pr i-4
Pr i-4Pr i-4
Pr i-4
 
презентация лекции по выпуклому анализу
презентация лекции по выпуклому анализупрезентация лекции по выпуклому анализу
презентация лекции по выпуклому анализу
 
Kajian masalah pendengaran
Kajian masalah pendengaranKajian masalah pendengaran
Kajian masalah pendengaran
 
Stp summative assessment
Stp summative assessmentStp summative assessment
Stp summative assessment
 
人際關係電腦化:從通訊到社群(王慧明&amp;丁世峰)
人際關係電腦化:從通訊到社群(王慧明&amp;丁世峰)人際關係電腦化:從通訊到社群(王慧明&amp;丁世峰)
人際關係電腦化:從通訊到社群(王慧明&amp;丁世峰)
 

Similar to Pr i-3

Многочлены наилучших среднеквадратичных приближений
Многочлены наилучших среднеквадратичных приближенийМногочлены наилучших среднеквадратичных приближений
Многочлены наилучших среднеквадратичных приближенийTheoretical mechanics department
 
Исследование логарифмической функции с помощью мат. анализа
Исследование логарифмической функции с помощью мат. анализа Исследование логарифмической функции с помощью мат. анализа
Исследование логарифмической функции с помощью мат. анализа Slava Antipov
 
производящие функции
производящие функциипроизводящие функции
производящие функцииMariya_Lastochkina
 
L3: Линейная и логистическая регрессия
L3: Линейная и логистическая регрессияL3: Линейная и логистическая регрессия
L3: Линейная и логистическая регрессияTechnosphere1
 
Дмитрий Кашицын, Вывод типов в динамических и не очень языках II
Дмитрий Кашицын, Вывод типов в динамических и не очень языках IIДмитрий Кашицын, Вывод типов в динамических и не очень языках II
Дмитрий Кашицын, Вывод типов в динамических и не очень языках IIPlatonov Sergey
 
предел последовательности
предел последовательностипредел последовательности
предел последовательностиtomik1044
 
Дифференциальное исчисление
Дифференциальное исчислениеДифференциальное исчисление
Дифференциальное исчислениеegor1994
 
L6: Метод опорных векторов
L6: Метод опорных векторовL6: Метод опорных векторов
L6: Метод опорных векторовTechnosphere1
 
20110313 systems of_typed_lambda_calculi_moskvin_lecture05
20110313 systems of_typed_lambda_calculi_moskvin_lecture0520110313 systems of_typed_lambda_calculi_moskvin_lecture05
20110313 systems of_typed_lambda_calculi_moskvin_lecture05Computer Science Club
 
Непрерывность функций
Непрерывность функцийНепрерывность функций
Непрерывность функцийDarina Goncharenko
 
Функции, 11-й клаас
Функции, 11-й клаасФункции, 11-й клаас
Функции, 11-й клаасAlbina
 
Metody resheniya logarifmicheskih_uravnenij
Metody resheniya logarifmicheskih_uravnenijMetody resheniya logarifmicheskih_uravnenij
Metody resheniya logarifmicheskih_uravnenijIvanchik5
 
20110224 systems of_typed_lambda_calculi_moskvin_lecture02
20110224 systems of_typed_lambda_calculi_moskvin_lecture0220110224 systems of_typed_lambda_calculi_moskvin_lecture02
20110224 systems of_typed_lambda_calculi_moskvin_lecture02Computer Science Club
 
20110224 systems of_typed_lambda_calculi_moskvin_lecture03
20110224 systems of_typed_lambda_calculi_moskvin_lecture0320110224 systems of_typed_lambda_calculi_moskvin_lecture03
20110224 systems of_typed_lambda_calculi_moskvin_lecture03Computer Science Club
 
Мысль №6
Мысль №6Мысль №6
Мысль №6rasparin
 
Мысль №6
Мысль №6Мысль №6
Мысль №6rasparin
 

Similar to Pr i-3 (20)

Многочлены наилучших среднеквадратичных приближений
Многочлены наилучших среднеквадратичных приближенийМногочлены наилучших среднеквадратичных приближений
Многочлены наилучших среднеквадратичных приближений
 
Исследование логарифмической функции с помощью мат. анализа
Исследование логарифмической функции с помощью мат. анализа Исследование логарифмической функции с помощью мат. анализа
Исследование логарифмической функции с помощью мат. анализа
 
производящие функции
производящие функциипроизводящие функции
производящие функции
 
23
2323
23
 
000
000000
000
 
L3: Линейная и логистическая регрессия
L3: Линейная и логистическая регрессияL3: Линейная и логистическая регрессия
L3: Линейная и логистическая регрессия
 
Дмитрий Кашицын, Вывод типов в динамических и не очень языках II
Дмитрий Кашицын, Вывод типов в динамических и не очень языках IIДмитрий Кашицын, Вывод типов в динамических и не очень языках II
Дмитрий Кашицын, Вывод типов в динамических и не очень языках II
 
предел последовательности
предел последовательностипредел последовательности
предел последовательности
 
Дифференциальное исчисление
Дифференциальное исчислениеДифференциальное исчисление
Дифференциальное исчисление
 
8
88
8
 
L6: Метод опорных векторов
L6: Метод опорных векторовL6: Метод опорных векторов
L6: Метод опорных векторов
 
20110313 systems of_typed_lambda_calculi_moskvin_lecture05
20110313 systems of_typed_lambda_calculi_moskvin_lecture0520110313 systems of_typed_lambda_calculi_moskvin_lecture05
20110313 systems of_typed_lambda_calculi_moskvin_lecture05
 
Непрерывность функций
Непрерывность функцийНепрерывность функций
Непрерывность функций
 
Функции, 11-й клаас
Функции, 11-й клаасФункции, 11-й клаас
Функции, 11-й клаас
 
Metody resheniya logarifmicheskih_uravnenij
Metody resheniya logarifmicheskih_uravnenijMetody resheniya logarifmicheskih_uravnenij
Metody resheniya logarifmicheskih_uravnenij
 
20110224 systems of_typed_lambda_calculi_moskvin_lecture02
20110224 systems of_typed_lambda_calculi_moskvin_lecture0220110224 systems of_typed_lambda_calculi_moskvin_lecture02
20110224 systems of_typed_lambda_calculi_moskvin_lecture02
 
20110224 systems of_typed_lambda_calculi_moskvin_lecture03
20110224 systems of_typed_lambda_calculi_moskvin_lecture0320110224 systems of_typed_lambda_calculi_moskvin_lecture03
20110224 systems of_typed_lambda_calculi_moskvin_lecture03
 
Soboland Sat
Soboland SatSoboland Sat
Soboland Sat
 
Мысль №6
Мысль №6Мысль №6
Мысль №6
 
Мысль №6
Мысль №6Мысль №6
Мысль №6
 

Pr i-3

  • 1. §3. Конечномерные гладкие задачи с равенствами и неравенствами 3.1 Постановка задачи Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции fi обладают определенной гладкостью. Гладкая конечномерная экстремальная задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m. (P) Для определенности рассматриваем задачи на минимум. Функция Лагранжа задачи (P): L (x) = m i=0 λifi(x), вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 2. §3. Конечномерные гладкие задачи с равенствами и неравенствами 3.1 Постановка задачи Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции fi обладают определенной гладкостью. Гладкая конечномерная экстремальная задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m. (P) Для определенности рассматриваем задачи на минимум. Функция Лагранжа задачи (P): L (x) = m i=0 λifi(x), вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 3. §3. Конечномерные гладкие задачи с равенствами и неравенствами 3.1 Постановка задачи Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции fi обладают определенной гладкостью. Гладкая конечномерная экстремальная задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m. (P) Для определенности рассматриваем задачи на минимум. Функция Лагранжа задачи (P): L (x) = m i=0 λifi(x), вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 4. §3. Конечномерные гладкие задачи с равенствами и неравенствами 3.1 Постановка задачи Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции fi обладают определенной гладкостью. Гладкая конечномерная экстремальная задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m. (P) Для определенности рассматриваем задачи на минимум. Функция Лагранжа задачи (P): L (x) = m i=0 λifi(x), вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 5. §3. Конечномерные гладкие задачи с равенствами и неравенствами 3.1 Постановка задачи Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции fi обладают определенной гладкостью. Гладкая конечномерная экстремальная задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m. (P) Для определенности рассматриваем задачи на минимум. Функция Лагранжа задачи (P): L (x) = m i=0 λifi(x), вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 6. §3. Конечномерные гладкие задачи с равенствами и неравенствами 3.1 Постановка задачи Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции fi обладают определенной гладкостью. Гладкая конечномерная экстремальная задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m. (P) Для определенности рассматриваем задачи на минимум. Функция Лагранжа задачи (P): L (x) = m i=0 λifi(x), вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 7. §3. Конечномерные гладкие задачи с равенствами и неравенствами 3.1 Постановка задачи Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции fi обладают определенной гладкостью. Гладкая конечномерная экстремальная задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m. (P) Для определенности рассматриваем задачи на минимум. Функция Лагранжа задачи (P): L (x) = m i=0 λifi(x), вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 8. §3. Конечномерные гладкие задачи с равенствами и неравенствами 3.1 Постановка задачи Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции fi обладают определенной гладкостью. Гладкая конечномерная экстремальная задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m. (P) Для определенности рассматриваем задачи на минимум. Функция Лагранжа задачи (P): L (x) = m i=0 λifi(x), вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 9. §3. Конечномерные гладкие задачи с равенствами и неравенствами 3.1 Постановка задачи Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции fi обладают определенной гладкостью. Гладкая конечномерная экстремальная задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m. (P) Для определенности рассматриваем задачи на минимум. Функция Лагранжа задачи (P): L (x) = m i=0 λifi(x), вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 10. §3. Конечномерные гладкие задачи с равенствами и неравенствами 3.1 Постановка задачи Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции fi обладают определенной гладкостью. Гладкая конечномерная экстремальная задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m. (P) Для определенности рассматриваем задачи на минимум. Функция Лагранжа задачи (P): L (x) = m i=0 λifi(x), вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 11. §3. Конечномерные гладкие задачи с равенствами и неравенствами 3.1 Постановка задачи Пусть fi : Rn → R, i = 0, 1, . . . , m. Считаем, что все функции fi обладают определенной гладкостью. Гладкая конечномерная экстремальная задача с ограничениями типа равенств и неравенств: f0(x) → min; fi(x) ≤ 0, i = 1, . . . , m , fi(x) = 0, i = m+1, . . . , m. (P) Для определенности рассматриваем задачи на минимум. Функция Лагранжа задачи (P): L (x) = m i=0 λifi(x), вектор множителей Лагранжа λ = (λ0, λ1, . . . , λm) ∈ Rm+1. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 12. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 13. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 14. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 15. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 16. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 17. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 18. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 19. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 20. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 21. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 22. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 23. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 24. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 25. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 26. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 27. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 28. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 29. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 30. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 31. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 32. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 33. 3.2. Необходимые и достаточные условия экстремума 3.2.1 Принцип Лагранжа Теорема Пусть ˆx ∈ locmin P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0 ⇐⇒ m i=0 λifi (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λi ≥ 0, i = 0, 1, . . . , m . Критические точки. В задаче на максимум λ0 ≤ 0. Отметим, что ограничения типа равенств можно было бы не писать, заменив любое из равенств f(x) = 0 ⇔ 0 ≤ f(x) ≤ 0 двумя неравенствами f(x) ≤ 0, −f(x) ≤ 0. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 34. Теорема Пусть ˆx ∈ locextr P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λ0 ≥ 0 на min, λ0 ≤ 0 на max; λi ≥ 0, i = 1, . . . , m . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 35. Теорема Пусть ˆx ∈ locextr P, fi ∈ C1(O(ˆx)), i = 0, 1, . . . , m. Тогда ∃ λ = 0 : для L выполняются условия a) стационарности: L (ˆx) = 0; b) дополняющей нежесткости: λifi(ˆx) = 0, i = 1, . . . , m ; c) неотрицательности: λ0 ≥ 0 на min, λ0 ≤ 0 на max; λi ≥ 0, i = 1, . . . , m . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 36. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 37. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 38. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 39. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 40. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 41. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 42. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 43. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 44. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 45. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 46. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 47. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 48. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 49. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 50. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 51. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 52. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 53. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 54. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 55. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 56. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 57. 3.4 Примеры Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. Решение. Функция Лагранжа L = λ0(x2 1 +x2 2 +x2 3 )+λ1(2x1 −x2 +x3 −5)+λ2(x1 +x2 +x3 −3). Необходимые условия локального минимума: а) стационарности L = 0 ⇐⇒    Lx1 = 0, Lx2 = 0, Lx3 = 0, ⇐⇒    2λ0x1 + 2λ1 + λ2 = 0, 2λ0x2 − λ1 + λ2 = 0, 2λ0x3 + λ1 + λ2 = 0; b) дополняющей нежесткости λ1(2x1 − x2 + x3 − 5) = 0; c) неотрицательности λ0 ≥ 0, λ1 ≥ 0. Если λ0 = 0 a ⇒ λ1 = λ2 = 0 — все множители Лагранжа — нули, а этого быть не может ⇒ λ0 = 0, полагаем λ0 = 1 2 . Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 58. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 59. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 60. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 61. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 62. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 63. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 64. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 65. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 66. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 67. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 68. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 69. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 70. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 71. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 72. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 73. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 74. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 75. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 76. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3.    x1 + 2λ1 + λ2 = 0, x2 − λ1 + λ2 = 0, x3 + λ1 + λ2 = 0, ⇐⇒    x1 = −2λ1 − λ2, x2 = λ1 − λ2, x3 = −λ1 − λ2. Предположим λ1 = 0 ⇒ x1 = x2 = x3 = −λ2. Подставляя xi = −λ2 в равенство получаем: −3λ2 = 3 ⇔ λ2 = −1 ⇒ x1 = x2 = x3 = 1 — критическая точка. Пусть λ1 = 0 b ⇒ 2x1 − x2 + x3 − 5 = 0. Подставим x1, x2, x3 в уравнения x1 + x2 + x3 = 3, 2x1 − x2 + x3 = 5: −2λ1 − λ2 + λ1 − λ2 − λ1 − λ2 = 3, −4λ1 − 2λ2 − λ1 + λ2 − λ1 − λ2 = 5, ⇔ −2λ1 − 3λ2 = 3, −6λ1 − 2λ2 = 5, ⇒ λ1 = −9/14 < 0 — противоречие с условием неотрицательности c ⇒ при λ1 = 0 критических точек нет. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 77. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. f(x) = x2 1 + x2 2 + x2 3 → +∞ при |x| → ∞ ⇒ по следствию из теоремы Вейерштрасса абсолютный минимум достигается, а в силу единственности критической точки решением может быть только она. Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 78. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. f(x) = x2 1 + x2 2 + x2 3 → +∞ при |x| → ∞ ⇒ по следствию из теоремы Вейерштрасса абсолютный минимум достигается, а в силу единственности критической точки решением может быть только она. Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 79. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. f(x) = x2 1 + x2 2 + x2 3 → +∞ при |x| → ∞ ⇒ по следствию из теоремы Вейерштрасса абсолютный минимум достигается, а в силу единственности критической точки решением может быть только она. Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 80. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. f(x) = x2 1 + x2 2 + x2 3 → +∞ при |x| → ∞ ⇒ по следствию из теоремы Вейерштрасса абсолютный минимум достигается, а в силу единственности критической точки решением может быть только она. Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 81. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. f(x) = x2 1 + x2 2 + x2 3 → +∞ при |x| → ∞ ⇒ по следствию из теоремы Вейерштрасса абсолютный минимум достигается, а в силу единственности критической точки решением может быть только она. Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 82. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. f(x) = x2 1 + x2 2 + x2 3 → +∞ при |x| → ∞ ⇒ по следствию из теоремы Вейерштрасса абсолютный минимум достигается, а в силу единственности критической точки решением может быть только она. Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 83. Пример 1. x2 1 +x2 2 +x2 3 → min; 2x1−x2+x3 ≤5, x1 + x2 + x3 = 3. f(x) = x2 1 + x2 2 + x2 3 → +∞ при |x| → ∞ ⇒ по следствию из теоремы Вейерштрасса абсолютный минимум достигается, а в силу единственности критической точки решением может быть только она. Ответ. ˆx = (1, 1, 1) ∈ absmin, Sabsmin = 3. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 84. 3.4 Примеры Пример 2. Приведение квадратичной формы к главным осям Пусть A = aij n i,j=1 — симметрическая матрица, Q(x) = n i,j=1 aijxixj = Ax, x — квадратичная форма. Теорема В Rn ∃ ортонормированный базис f1, . . . , fn : Q(x) = n i=1 λi x, fi 2 . В базисе f1, . . . , fn матрица формы Q диагональна. f1, . . . , fn — главные оси формы Q, а переход к базису f1, . . . , fn называется приведением формы к главным осям. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 85. 3.4 Примеры Пример 2. Приведение квадратичной формы к главным осям Пусть A = aij n i,j=1 — симметрическая матрица, Q(x) = n i,j=1 aijxixj = Ax, x — квадратичная форма. Теорема В Rn ∃ ортонормированный базис f1, . . . , fn : Q(x) = n i=1 λi x, fi 2 . В базисе f1, . . . , fn матрица формы Q диагональна. f1, . . . , fn — главные оси формы Q, а переход к базису f1, . . . , fn называется приведением формы к главным осям. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 86. 3.4 Примеры Пример 2. Приведение квадратичной формы к главным осям Пусть A = aij n i,j=1 — симметрическая матрица, Q(x) = n i,j=1 aijxixj = Ax, x — квадратичная форма. Теорема В Rn ∃ ортонормированный базис f1, . . . , fn : Q(x) = n i=1 λi x, fi 2 . В базисе f1, . . . , fn матрица формы Q диагональна. f1, . . . , fn — главные оси формы Q, а переход к базису f1, . . . , fn называется приведением формы к главным осям. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 87. 3.4 Примеры Пример 2. Приведение квадратичной формы к главным осям Пусть A = aij n i,j=1 — симметрическая матрица, Q(x) = n i,j=1 aijxixj = Ax, x — квадратичная форма. Теорема В Rn ∃ ортонормированный базис f1, . . . , fn : Q(x) = n i=1 λi x, fi 2 . В базисе f1, . . . , fn матрица формы Q диагональна. f1, . . . , fn — главные оси формы Q, а переход к базису f1, . . . , fn называется приведением формы к главным осям. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 88. 3.4 Примеры Пример 2. Приведение квадратичной формы к главным осям Пусть A = aij n i,j=1 — симметрическая матрица, Q(x) = n i,j=1 aijxixj = Ax, x — квадратичная форма. Теорема В Rn ∃ ортонормированный базис f1, . . . , fn : Q(x) = n i=1 λi x, fi 2 . В базисе f1, . . . , fn матрица формы Q диагональна. f1, . . . , fn — главные оси формы Q, а переход к базису f1, . . . , fn называется приведением формы к главным осям. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 89. 3.4 Примеры Пример 2. Приведение квадратичной формы к главным осям Пусть A = aij n i,j=1 — симметрическая матрица, Q(x) = n i,j=1 aijxixj = Ax, x — квадратичная форма. Теорема В Rn ∃ ортонормированный базис f1, . . . , fn : Q(x) = n i=1 λi x, fi 2 . В базисе f1, . . . , fn матрица формы Q диагональна. f1, . . . , fn — главные оси формы Q, а переход к базису f1, . . . , fn называется приведением формы к главным осям. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 90. 3.4 Примеры Пример 2. Приведение квадратичной формы к главным осям Пусть A = aij n i,j=1 — симметрическая матрица, Q(x) = n i,j=1 aijxixj = Ax, x — квадратичная форма. Теорема В Rn ∃ ортонормированный базис f1, . . . , fn : Q(x) = n i=1 λi x, fi 2 . В базисе f1, . . . , fn матрица формы Q диагональна. f1, . . . , fn — главные оси формы Q, а переход к базису f1, . . . , fn называется приведением формы к главным осям. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 91. 3.4 Примеры Пример 2. Приведение квадратичной формы к главным осям Пусть A = aij n i,j=1 — симметрическая матрица, Q(x) = n i,j=1 aijxixj = Ax, x — квадратичная форма. Теорема В Rn ∃ ортонормированный базис f1, . . . , fn : Q(x) = n i=1 λi x, fi 2 . В базисе f1, . . . , fn матрица формы Q диагональна. f1, . . . , fn — главные оси формы Q, а переход к базису f1, . . . , fn называется приведением формы к главным осям. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 92. 3.4 Примеры Пример 2. Приведение квадратичной формы к главным осям Пусть A = aij n i,j=1 — симметрическая матрица, Q(x) = n i,j=1 aijxixj = Ax, x — квадратичная форма. Теорема В Rn ∃ ортонормированный базис f1, . . . , fn : Q(x) = n i=1 λi x, fi 2 . В базисе f1, . . . , fn матрица формы Q диагональна. f1, . . . , fn — главные оси формы Q, а переход к базису f1, . . . , fn называется приведением формы к главным осям. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 93. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n i=1 λi x, fi 2. ¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с. Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0. Ax, x → min; x, x ≤ 1. (P1) По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0. Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1). Необходимые условия минимума в ˆx = f1: a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0, b) дополняющей нежесткости: λ( f1, f1 − 1) = 0; c) неотрицательности: λ0 ≥ 0, λ ≥ 0. λ0 = 0 ⇒ λ = 0 a ⇒ f1 = 0 b. λ0 = 0, λ0 = 1 a ⇒ Af1 = −λf1. Умножим на f1 ⇒ Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0 b ⇒ f1, f1 = 1. Таким образом, f1 — собственный вектор матрицы A: Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1, λ1 — минимальное собственное значение A. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 94. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n i=1 λi x, fi 2. ¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с. Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0. Ax, x → min; x, x ≤ 1. (P1) По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0. Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1). Необходимые условия минимума в ˆx = f1: a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0, b) дополняющей нежесткости: λ( f1, f1 − 1) = 0; c) неотрицательности: λ0 ≥ 0, λ ≥ 0. λ0 = 0 ⇒ λ = 0 a ⇒ f1 = 0 b. λ0 = 0, λ0 = 1 a ⇒ Af1 = −λf1. Умножим на f1 ⇒ Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0 b ⇒ f1, f1 = 1. Таким образом, f1 — собственный вектор матрицы A: Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1, λ1 — минимальное собственное значение A. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 95. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n i=1 λi x, fi 2. ¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с. Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0. Ax, x → min; x, x ≤ 1. (P1) По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0. Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1). Необходимые условия минимума в ˆx = f1: a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0, b) дополняющей нежесткости: λ( f1, f1 − 1) = 0; c) неотрицательности: λ0 ≥ 0, λ ≥ 0. λ0 = 0 ⇒ λ = 0 a ⇒ f1 = 0 b. λ0 = 0, λ0 = 1 a ⇒ Af1 = −λf1. Умножим на f1 ⇒ Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0 b ⇒ f1, f1 = 1. Таким образом, f1 — собственный вектор матрицы A: Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1, λ1 — минимальное собственное значение A. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 96. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n i=1 λi x, fi 2. ¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с. Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0. Ax, x → min; x, x ≤ 1. (P1) По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0. Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1). Необходимые условия минимума в ˆx = f1: a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0, b) дополняющей нежесткости: λ( f1, f1 − 1) = 0; c) неотрицательности: λ0 ≥ 0, λ ≥ 0. λ0 = 0 ⇒ λ = 0 a ⇒ f1 = 0 b. λ0 = 0, λ0 = 1 a ⇒ Af1 = −λf1. Умножим на f1 ⇒ Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0 b ⇒ f1, f1 = 1. Таким образом, f1 — собственный вектор матрицы A: Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1, λ1 — минимальное собственное значение A. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 97. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n i=1 λi x, fi 2. ¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с. Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0. Ax, x → min; x, x ≤ 1. (P1) По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0. Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1). Необходимые условия минимума в ˆx = f1: a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0, b) дополняющей нежесткости: λ( f1, f1 − 1) = 0; c) неотрицательности: λ0 ≥ 0, λ ≥ 0. λ0 = 0 ⇒ λ = 0 a ⇒ f1 = 0 b. λ0 = 0, λ0 = 1 a ⇒ Af1 = −λf1. Умножим на f1 ⇒ Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0 b ⇒ f1, f1 = 1. Таким образом, f1 — собственный вектор матрицы A: Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1, λ1 — минимальное собственное значение A. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 98. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n i=1 λi x, fi 2. ¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с. Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0. Ax, x → min; x, x ≤ 1. (P1) По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0. Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1). Необходимые условия минимума в ˆx = f1: a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0, b) дополняющей нежесткости: λ( f1, f1 − 1) = 0; c) неотрицательности: λ0 ≥ 0, λ ≥ 0. λ0 = 0 ⇒ λ = 0 a ⇒ f1 = 0 b. λ0 = 0, λ0 = 1 a ⇒ Af1 = −λf1. Умножим на f1 ⇒ Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0 b ⇒ f1, f1 = 1. Таким образом, f1 — собственный вектор матрицы A: Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1, λ1 — минимальное собственное значение A. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 99. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n i=1 λi x, fi 2. ¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с. Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0. Ax, x → min; x, x ≤ 1. (P1) По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0. Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1). Необходимые условия минимума в ˆx = f1: a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0, b) дополняющей нежесткости: λ( f1, f1 − 1) = 0; c) неотрицательности: λ0 ≥ 0, λ ≥ 0. λ0 = 0 ⇒ λ = 0 a ⇒ f1 = 0 b. λ0 = 0, λ0 = 1 a ⇒ Af1 = −λf1. Умножим на f1 ⇒ Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0 b ⇒ f1, f1 = 1. Таким образом, f1 — собственный вектор матрицы A: Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1, λ1 — минимальное собственное значение A. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 100. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n i=1 λi x, fi 2. ¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с. Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0. Ax, x → min; x, x ≤ 1. (P1) По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0. Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1). Необходимые условия минимума в ˆx = f1: a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0, b) дополняющей нежесткости: λ( f1, f1 − 1) = 0; c) неотрицательности: λ0 ≥ 0, λ ≥ 0. λ0 = 0 ⇒ λ = 0 a ⇒ f1 = 0 b. λ0 = 0, λ0 = 1 a ⇒ Af1 = −λf1. Умножим на f1 ⇒ Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0 b ⇒ f1, f1 = 1. Таким образом, f1 — собственный вектор матрицы A: Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1, λ1 — минимальное собственное значение A. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 101. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n i=1 λi x, fi 2. ¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с. Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0. Ax, x → min; x, x ≤ 1. (P1) По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0. Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1). Необходимые условия минимума в ˆx = f1: a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0, b) дополняющей нежесткости: λ( f1, f1 − 1) = 0; c) неотрицательности: λ0 ≥ 0, λ ≥ 0. λ0 = 0 ⇒ λ = 0 a ⇒ f1 = 0 b. λ0 = 0, λ0 = 1 a ⇒ Af1 = −λf1. Умножим на f1 ⇒ Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0 b ⇒ f1, f1 = 1. Таким образом, f1 — собственный вектор матрицы A: Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1, λ1 — минимальное собственное значение A. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 102. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n i=1 λi x, fi 2. ¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с. Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0. Ax, x → min; x, x ≤ 1. (P1) По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0. Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1). Необходимые условия минимума в ˆx = f1: a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0, b) дополняющей нежесткости: λ( f1, f1 − 1) = 0; c) неотрицательности: λ0 ≥ 0, λ ≥ 0. λ0 = 0 ⇒ λ = 0 a ⇒ f1 = 0 b. λ0 = 0, λ0 = 1 a ⇒ Af1 = −λf1. Умножим на f1 ⇒ Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0 b ⇒ f1, f1 = 1. Таким образом, f1 — собственный вектор матрицы A: Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1, λ1 — минимальное собственное значение A. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 103. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n i=1 λi x, fi 2. ¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с. Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0. Ax, x → min; x, x ≤ 1. (P1) По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0. Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1). Необходимые условия минимума в ˆx = f1: a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0, b) дополняющей нежесткости: λ( f1, f1 − 1) = 0; c) неотрицательности: λ0 ≥ 0, λ ≥ 0. λ0 = 0 ⇒ λ = 0 a ⇒ f1 = 0 b. λ0 = 0, λ0 = 1 a ⇒ Af1 = −λf1. Умножим на f1 ⇒ Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0 b ⇒ f1, f1 = 1. Таким образом, f1 — собственный вектор матрицы A: Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1, λ1 — минимальное собственное значение A. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 104. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n i=1 λi x, fi 2. ¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с. Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0. Ax, x → min; x, x ≤ 1. (P1) По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0. Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1). Необходимые условия минимума в ˆx = f1: a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0, b) дополняющей нежесткости: λ( f1, f1 − 1) = 0; c) неотрицательности: λ0 ≥ 0, λ ≥ 0. λ0 = 0 ⇒ λ = 0 a ⇒ f1 = 0 b. λ0 = 0, λ0 = 1 a ⇒ Af1 = −λf1. Умножим на f1 ⇒ Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0 b ⇒ f1, f1 = 1. Таким образом, f1 — собственный вектор матрицы A: Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1, λ1 — минимальное собственное значение A. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 105. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n i=1 λi x, fi 2. ¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с. Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0. Ax, x → min; x, x ≤ 1. (P1) По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0. Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1). Необходимые условия минимума в ˆx = f1: a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0, b) дополняющей нежесткости: λ( f1, f1 − 1) = 0; c) неотрицательности: λ0 ≥ 0, λ ≥ 0. λ0 = 0 ⇒ λ = 0 a ⇒ f1 = 0 b. λ0 = 0, λ0 = 1 a ⇒ Af1 = −λf1. Умножим на f1 ⇒ Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0 b ⇒ f1, f1 = 1. Таким образом, f1 — собственный вектор матрицы A: Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1, λ1 — минимальное собственное значение A. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 106. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n i=1 λi x, fi 2. ¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с. Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0. Ax, x → min; x, x ≤ 1. (P1) По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0. Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1). Необходимые условия минимума в ˆx = f1: a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0, b) дополняющей нежесткости: λ( f1, f1 − 1) = 0; c) неотрицательности: λ0 ≥ 0, λ ≥ 0. λ0 = 0 ⇒ λ = 0 a ⇒ f1 = 0 b. λ0 = 0, λ0 = 1 a ⇒ Af1 = −λf1. Умножим на f1 ⇒ Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0 b ⇒ f1, f1 = 1. Таким образом, f1 — собственный вектор матрицы A: Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1, λ1 — минимальное собственное значение A. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 107. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n i=1 λi x, fi 2. ¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с. Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0. Ax, x → min; x, x ≤ 1. (P1) По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0. Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1). Необходимые условия минимума в ˆx = f1: a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0, b) дополняющей нежесткости: λ( f1, f1 − 1) = 0; c) неотрицательности: λ0 ≥ 0, λ ≥ 0. λ0 = 0 ⇒ λ = 0 a ⇒ f1 = 0 b. λ0 = 0, λ0 = 1 a ⇒ Af1 = −λf1. Умножим на f1 ⇒ Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0 b ⇒ f1, f1 = 1. Таким образом, f1 — собственный вектор матрицы A: Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1, λ1 — минимальное собственное значение A. Галеев Э. М. МГУ Лекции: Методы оптимизации
  • 108. Теорема. В Rn ∃ о.н.б. f1, . . . , fn : Q(x) = n i=1 λi x, fi 2. ¡ Если Q ≡ 0 ⇒ λ1 = · · · = λn = 0, f1, . . . , fn — любая о.н.с. Если Q ≡ 0 ⇒ ∃ x : Q(x) < 0 или Q(x) > 0. Ax, x → min; x, x ≤ 1. (P1) По т. Вейерштрасса ∃ ˆx =:f1 ∈ Arg P1; Sabsmin < 0. Функция Лагранжа L = λ0 Ax, x + λ( x, x − 1). Необходимые условия минимума в ˆx = f1: a) стационарности: Lx (f1) = 0 ⇔ λ0Af1 + λf1 = 0, b) дополняющей нежесткости: λ( f1, f1 − 1) = 0; c) неотрицательности: λ0 ≥ 0, λ ≥ 0. λ0 = 0 ⇒ λ = 0 a ⇒ f1 = 0 b. λ0 = 0, λ0 = 1 a ⇒ Af1 = −λf1. Умножим на f1 ⇒ Af1, f1 = −λ f1, f1 = Sabsmin < 0 ⇒ λ > 0 b ⇒ f1, f1 = 1. Таким образом, f1 — собственный вектор матрицы A: Af1 = λ1f1 (λ1 = −λ), |f1| = 1, Sabsmin = λ1, λ1 — минимальное собственное значение A. Галеев Э. М. МГУ Лекции: Методы оптимизации