Successfully reported this slideshow.
We use your LinkedIn profile and activity data to personalize ads and to show you more relevant ads. You can change your ad preferences anytime.

Programación geométrica

4,855 views

Published on

Método para resolver algunos problemas de programación Lineal, donde la función objetivo es no lineal, tiene la forma posinomial.

  • Login to see the comments

Programación geométrica

  1. 1. UNIVERSIDAD NACIONAL DE INGENIER´IA FACULTAD DE CIENCIAS ESCUELA PROFESIONAL DE MATEM´ATICA PROGRAMACI´ON GEOM´ETRICA por Naupay Gusukuma, Alvaro Miguel Pr´acticas Pre Profesionales en MATEM´ATICA Mg. Echegaray Castillo, William Carlos Asesor Uni, 29 de Diciembre de 2014
  2. 2. ´Indice general 1. Antecedentes hist´oricos 3 2. Programaci´on geom´etrica sin restricciones 5 2.1. Conocimientos previos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 2.2. Primeros ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 2.3. Programaci´on geom´etrica sin restricciones. . . . . . . . . . . . . . . . . . . 16 2.4. Ejemplos sin restricciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 3. Progamaci´on geom´etrica con restricciones 26 3.1. Conocimientos previos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 3.2. Ejemplo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 3.3. Programaci´on geom´etrica con restricciones. . . . . . . . . . . . . . . . . . . 33 Bibliograf´ıa 41 1
  3. 3. Agradecimientos Quiero agradecer a m´ıs padres por apoyarme constantemente y a mi asesor por su apoyo incondicional que d´ıa a d´ıa me guia a ser un mejor profesional. 2
  4. 4. Cap´ıtulo 1 Antecedentes hist´oricos A Clarence Zener, Director de Ciencias en Westinghouse Electric en Pittsburgh, Pennsylvania, USA, se le acredita como el padre de la Programaci´on Geom´etrica. En 1961, public´o un art´ıculo en el Proceedings del National Academy of Science sobre “A Mathema- tical Aid in Optimizing Engineering Designs”, que es considerado como el primer art´ıculo sobre programaci´on geom´etrica. Clarence Zener es mejor conocido en ingenier´ıa el´ectrica por el diodo Zener. Que mas tarde se asocio con Richard J. Duffin y Elmor L. Peterson del Carnegie Institute of Technology (ahora Carnegie-Mellon University, USA) para escribir el primer libro sobre programaci´on geom´etrica, llamado “Geometric Programming” en 1967. Un reporte fue publicado en Agosto de 1966 por el profesor Douglas Wilde y el estudiante de graduaci´on Ury Passey. El profesor Douglas Wilde del Stanford University y el profe- sor Charles Beightler del University of Texas incluyeron un cap´ıtulo sobre programaci´on geom´etrica en el libro “Fundations of Optimization”. Otros primeros libros por estos l´ıderes fueron “Engineering Design By Geometric Pro- gramming” por Clarence Zener en 1971, “Applied Geometric Programming” por C.S. Beightler y D.T. Phillips en 1976, y la segunda edici´on del “Foundations of Optimiza- tion” por C.S. Beightler, D.T. Phillips y D.Wilde en 1979. Muchos de las aplicaciones iniciales fueron en el ´area del dise˜no de tranformadores cuando Clarence Zener trabajaba para Westinghouse Electric en el ´area de ingenier´ıa qu´ımica, que fu´e el ´area enfatizada por Beightler y Wilde. Tambi´en es importante resaltar que muchos estudiantes de gra- 3
  5. 5. duaci´on jugaron un papel importante, a saber Elmor Peterson en el Carnegie Institute of Technology y Ury Passy y Mordecai Avriel en el Stanford University. 4
  6. 6. Cap´ıtulo 2 Programaci´on geom´etrica sin restricciones El nombre de programaci´on geom´etrica (P.G.) se debe a que se utiliza la generaliza- ci´on de la desigualdad media aritm´etica geom´etrica para resolver algunos problemas de optimizaci´on. 2.1. Conocimientos previos. Teorema 2.1.1. Sea f : C ⊂ Rn → R una funci´on convexa donde C es un conjunto convexo. Si λ1, λ2, . . . , λk son n´umeros no negativos con suma igual a 1 y si x1, x2, . . . , xk son puntos de C, entonces f k i=1 λixi ≤ k i=1 λif(xi) . (∗) Si f es estrictamente convexa sobre C y si todos los λi’s son positivos, entonces la igualdad en (∗) se cumple si y s´olo si todos los xi’s son iguales. El nombre de Programaci´on Geom´etrica es debido a que esta t´ecnica utiliza variantes de la desigualdad media aritm´etica geom´etrica. A continuaci´on presentamos una de ellas. Teorema 2.1.2. (Desigualdad Media Aritm´etica-Geom´etrica o Desigualdad (A- G)). Si x1, x2, . . . , xn son n´umeros reales positivos y si δ1, δ2, . . . , δn son n´umeros positivos 5
  7. 7. cuya suma es uno, entonces n i=1 (xi)δi ≤ n i=1 δixi , (A-G) con la igualdad en (A-G) si y s´olo si x1 = x2 = · · · = xn El producto del lado izquierdo de A-G es llamada media geom´etrica de x1, x2, . . . , xn con pesos δ1, δ2, . . . , δn mientras que la suma de la derecha de A-G es la media aritm´etica de x1, x2, . . . , xn con pesos δ1, δ2, . . . , δn. La desigualdad (A-G) se puede demostrar usando la convexidad en la siguiente manera. Primero, observe que la funci´on f definida para x > 0 por f(x) = − ln x es estrictamente convexa ya que f′′ (x) = 1 x2 > 0. Consecuentemente, si x1, x2, . . . , xn y δ1, δ2, . . . , δn son n´umeros positivos tales que δ1 + δ2 + · · · + δn = 1 entonces (2.1.1) implica que − ln m i=1 δixi = f m i=1 δixi ≤ n i=1 δif(xi) = − n i=1 δi ln xi con la igualdad si y s´olo si todos los xi’s son iguales. La anterior desigualdad es equivalente a ln n i=1 δixi ≥ n i=1 ln(xδi i ) = ln n i=1 xδi i . Consecuentemente, como la funci´on logar´ıtmo y exponencial son estrictamente creciente, obtenemos n i=1 δixi ≥ n i=1 (xi)δi con la igualdad en esta desigualdad si y s´olo si todos los xi’s son iguales. Como veremos, la desigualdad (A-G) es muy adecuada para la soluci´on de una clase considerable de problemas de optimizaci´on no lineal. Antes de intentar identificar esta clase de problemas y formalizar el procedimiento de optimizaci´on, daremos algunos ejemplos en los que se aplica (A-G) para proporcionar la soluci´on algunos problemas est´andares de m´aximos y m´ınimos del c´alculo. 6
  8. 8. 2.2. Primeros ejemplos. Ejemplo 2.2.1. Encontrar las dimensiones de una caja rectangular sin tapa con una ´area fija de superficie S0 que tenga volumen m´aximo. Soluci´on: Veamos la figura x1 x2 x3 (x1, x2, x3) Volumen = V = x1x2x3 . ´Area de superficie = S0 = x1x2 + 2x1x3 + 2x2x3 . Por consiguiente, nuestro trabajo es resolver el siguiente problema: Maximizar V (x1, x2, x3) = x1x2x3 , sujeto a x1x2 + 2x1x3 + 2x2x3 = S0 , x1 ≥ 0, x2 ≥ 0, x3 ≥ 0 . En esta forma, al problema se le puede aplicar la desigualdad (A-G) de manera natural. Observe que: S0 = x1x2 + 2x1x3 + 2x2x3 = 3 x1x2 + 2x1x3 + 2x2x3 3 luego utilizando la desigualdad (A-G) tenemos S0 = 3 x1x2 + 2x1x3 + 2x2x3 3 (A-G) ≥ 3((x1x2)1/3 (2x1x3)1/3 (2x2x3)1/3 ) = 3 · 41/3 (x2 1x2 2x2 3)1/3 = 3 · 41/3 V 2/3 Notemos que el valor de V est´a acotado y que esta cota (M´axima) es alcanzada cuando hay igualdad en la desigualdad (A-G), esto es, supongamos que V es maximizado cuando 7
  9. 9. x1 = x∗ 1, x2 = x∗ 2 y x3 = x∗ 3, de esto tendriamos que se debe cumplir y teniendo encuenta el teorema 2.1.2 x∗ 1x∗ 2 = 2x∗ 1x∗ 3 = 2x∗ 2x∗ 3 = S0 3 resolviendo esto tenemos que las dimensiones son x∗ 1 = x∗ 2 = S0 3 , x∗ 3 = 1 2 S0 3 , y adem´as el volumen m´aximo de la caja ser´a V0 = x∗ 1x∗ 2x∗ 3 = S 3/2 0 2 · 33/2 . Ejemplo 2.2.2. Encontrar las dimensiones de una caja rectangular sin tapa con volumen fijo V0 que tiene la minima ´area de superficie. Soluci´on: Apoy´andonos en la figura del ejemplo anterior vemos que necesitamos resolver el siguiente problema. Minimizar S(x1, x2, x3) = x1x2 + 2x1x3 + 2x2x3 , sujeto a x1x2x3 = V0 , x1 ≥ 0, x2 ≥ 0, x3 ≥ 0 . procediendo exactamente como en el ejemplo anterior, obtenemos S = x1x2 + 2x1x3 + 2x2x3 = 3 x1x2 + 2x1x3 + 2x2x3 3 (A-G) ≥ 3 · 41/3 V 2/3 0 . Por consiguiente, el valor de S es el menor cuando hay igualdad en la desigualdad (A-G), esto es, S es minimizado cuando x1 = x∗ 1, x2 = x∗ 2 y x3 = x∗ 3 de donde tenemos que (ver teorema 2.1.2) x∗ 1x∗ 2 = 2x∗ 1x∗ 3 = 2x∗ 2x∗ 3 = 3 · 41/3 V 2/3 0 3 = 41/3 V 2/3 0 . Resolviendo esto tenemos que las dimensiones son x∗ 1 = x∗ 2 = 41/6 V 1/3 0 , x∗ 3 = 41/6 V 1/3 0 2 , 8
  10. 10. adem´as el ´area m´ınima de la superficie es S0 = x∗ 1x∗ 2 + 2x∗ 1x∗ 3 + 2x∗ 2x∗ 3 = 3 · 4/3 V 2/3 0 . Ejemplo 2.2.3. Maximizar el volumen de una lata cil´ındrica de costo fijo c0 soles si el costo del material, parte superior e inferior de la lata es c1 soles por metro cuadrado y el costo del material, la parte lateral de la lata es de c2 soles por metro cuadrado. Soluci´on: Si r es el radio y h es la altura de la lata en metros cuadrados, entocnes el volumen de la lata es r h V (r, h) = πr2 h y el costo de la lata es c0 = 2πr2 c1 + 2πrhc2 . Entonces vemos que necesitamos resolver el siguiente problema Maximizar V (r, h) = πr2 h , sujeto a 2πr2 c1 + 2πrhc2 = c0 . Ahora podemos proceder como en el ejemplo 2.2.1 , obtendremos c0 = 2πr2 c1 + 2πrhc2 = 4 πr2 c1 2 + πrhc2 2 (A-G) ≥ 4(πr2 c1)1/2 (πrhc2)1/2 = 4πr3/2 h1/2 (c1c2)1/2 . 9
  11. 11. Desafortunadamente, a diferencia de la situaci´on en el ejemplo 2.2.1, el t´ermino en el lado derecho de la desigualdad resultante no se reduce a un m´ultiplo constante de una potencia del volumen V, por lo que no se puede proceder como en el ejemplo 2.2.1. Lo que tenemos que hacer es “dividir” c0 en una suma de t´erminos de tal manera que la aplicaci´on de la desigualdad (A-G) produzca un m´ultiplo constante de una potencia de V en el lado derecho. Un poco de experimentaci´on mostrar que tal separaci´on puede llevarse a cabo como sigue: c0 = 2πr2 c1 + πrhc2 + πrhc2 = 3 2πr2 c1 + πrhc2 + πrhc2 3 (A-G) ≥ 3(2πr2 c1)1/3 (πrhc2)1/3 (πrhc2)1/3 = 3(2π)1/3 (c1c2 2)1/3 V 2/3 . Ahora podemos ver que V es el mayor cuando hay igualdad en esta (A-G) desigualdad, esto es, cuando 2πr2 c1 = πrhc2 = πrhc2 = c0 3 , resolviendo tenemos que r = c0 6πc1 , h = c0 3πc2 6πc1 c0 , luego el volumen m´aximo ser´a Vm´ax = √ 6 18π1/2 × c 3/2 0 c 1/2 1 c2 . Sin embargo, queremos se˜nalar un interesante an´alisis de los costos relacionados con nuestra soluci´on del problema: Independientemente de los valores de c1 y c2, el ´optimo de las dimensiones de la lata, asignar 1 3 del coste total a la parte superior e inferior y 2 3 del coste total a la parte lateral. Ejemplo 2.2.4. Minimizar el costo de una lata cil´ındrica de volumen V0 fijo si el costo de la parte superior e inferior de la lata es c1 soles por metro cuadrado y el costo de la parte lateral de la lata es c2 soles por metro cuadrado. 10
  12. 12. Soluci´on: Si r y h denotan el radio y la altura de la lata, entonces nuestro problema puede ser formulado como sigue: Minimizar c(r, h) = 2πr2 c1 + 2πrhc2 , sujeto a πr2 h = V0 . r ≥ 0, h ≥ 0 La misma “divisi´on” de la funci´on de costo que usamos en el ejemplo anterior, en combi- naci´on con la desigualdad (A-G), nos da c(r, h) = 2πr2 c1 + πrhc2 + πrhc2 = 3 2πr2 c1 + πrhc2 + πrhc2 3 A-G ≥ 3(2π)1/3 (c1c2 2)1/3 V 2/3 0 . Por lo tanto, el costo es el menor cuando hay igualdad en la desigualdad (A-G), esto es, cuando 2πr2 c1 = πrhc2 = πrhc2 = 3(2π)1/3 (c1c2 2)1/3 V 2/3 0 3 = (2π)1/3 (c1c2 2)1/3 V 2/3 0 . Vemos de nuevo que la asignaci´on de costo ´optimo es 1 3 del costo de la parte superior e inferior y 2 3 del costo de los lados, independientemente de los valores de c1 y c2. Luego resolviendo, las dimensiones del cilindro de costo m´ınimo son r = c 1/3 2 V 1/3 0 21/3π1/3c 1/3 1 , h = 22/3 c 2/3 1 V 1/3 0 π1/3c 2/3 2 , luego el costo ser´a m´ınimo cuando la desigualdad (A-G) sea igualdad, por lo tanto cm´ın = 3(2π)1/3 (c1c2 2)1/3 V 2/3 0 Los pares de ejemplos (2.2.1), (2.2.2) y (2.2.3), (2.2.4) proporcionan nuestros primeros pasos de problemas duales. Los ejemplos anteriores tratan esencialmente con las mismas funciones, excepto que la funci´on objetivo en un problema es la funci´on de restricci´on en el otro, y un problema es de minimizaci´on mientras que el otro es un problema de maximizaci´on. El siguiente ejemplo proporciona una mayor ilustraci´on de la dualidad. 11
  13. 13. Ejemplo 2.2.5. Considere el siguiente problema: Maximizar f(x1, x2, x3) = x1x2 2x3 , sujeto a x1 + x2 + x3 3 = k , donde k > 0 es fijo y x1, x2, x3 son n´umeros reales positivos. (P) Soluci´on: En este caso, el problema dual es Minimizar g(x1, x2, x3) = x1 + x2 + x2 3 , sujeto a x1x2 2x3 = c , donde c > 0 es fijo y x1, x2, x3 son n´umeros reales positivos. (D) Desde luego, (P) es tambi´en el problema dual para (D). Para resolver ambos problemas, necesitamos desdoblar x1 + x2 + x2 3 de tal manera que la aplicaci´on de la desigualdad (A-G) produzca un m´ultiplo constante de una potencia adecuada de (x1x2 2x3) en el extremo inferior de la desigualdad. Esto se puede lograr como sigue: k = x1 + x2 + x2 3 = x1 2 + x1 2 + x2 4 + x2 4 + x2 4 + x2 4 + x2 3 = 7   x1 2 + x1 2 + x2 4 + x2 4 + x2 4 + x2 4 + x2 3 7   (A-G) ≥ 7 1 2 2/7 1 4 4/7 (x1x2 2x3)2/7 . La igualdad se cumple en esta desigualdad precisamente cuando x1 2 = x2 4 = x2 3 = k 7 . Para maximizar x1x2 2x3 sujeto a la restricci´on x1 +x2 +x2 3 = k, elegimos los valores ´optimos x∗ 1, x∗ 2, x∗ 3 que fuerzan a la igualdad en la desigualdad (A-G) con el extremo superior de la desigualdad igual a k, esto es, x∗ 1 = 2k 7 , x∗ 2 = 4k 7 , x∗ 3 = k 7 . 12
  14. 14. Para minimizar x1 + x2 + x2 3 sujeto a la restricci´on x1x2 2x3 = c, elegir los valores ´optimos x∗ 1, x∗ 2, x∗ 3 que fuerzan a la igualdad en la desigualdad (A-G) con en el extremo inferior de la desigualdad igual a 1 2 2/7 1 4 4/7 c2/7 , esto es, x∗ 1 = 2 1 2 2/7 1 4 4/7 c2/7 , x∗ 2 = 2x∗ 1 , x∗ 3 = 1 2 x∗ 1 . La desigualdad (A-G) puede tambi´en ser usada para resolver algunos problemas de minimizaci´on sin restricciones. El truco es desdoblar la funci´on objetivo de tal manera que la aplicaci´on de la desigualdad (A-G) produzca una constante en el extremo inferior de la desigualdad. Los siguientes ejemplos ilustran el procedimiento. Ejemplo 2.2.6. Encontrar los valores de x > 0 que minimizan la funci´on f(x) = c1x3 + c2 x , donde c1, c2 son constantes positivas. Soluci´on: Para resolver este problema con la desigualdad (A-G), procederemos como si- gue: f(x) = c1x3 + c2 x = c1x3 + 1 3 c2 x + 1 3 c2 x + 1 3 c2 x = 4    c1x3 + 1 3 c2 x + 1 3 c2 x + 1 3 c2 x 4    (A-G) ≥ 4 1 3 3/4 c 1/4 1 c 3/4 2 . Para minimizar f, forzar la igualdad en (A-G). Esto equivale a la elecci´on de x∗ de modo que c1(x∗ )3 = 1 3 c2 x∗ = 1 3 3/4 c 1/4 1 c 3/4 2 . Esto da lugar a x∗ = 1 3 1/4 c −1/4 1 c 1/4 2 como el minimizador. 13
  15. 15. En realidad, el ejemplo anterior podr´ıa haber sido f´acilmente resuelto como un problema de c´alculo. El siguiente ejemplo no es f´acil de hacer con los m´etodos de c´alculo, pero es bastante f´acil para una aplicaci´on de la desigualdad (A-G). Ejemplo 2.2.7. Encontrar los minimizadores de f(x1, x2) = 4x1 + x1 x2 2 + 4x2 x1 para x1 > 0, x2 > 0. Soluci´on: Este problema puede resolverse por la desigualdad (A-G) de la siguiente ma- nera: f(x1, x2) = 4     4x1 + x1 x2 2 + 2x2 x1 + 2x2 x1 4     (A-G) ≥ 4(41/4 )(22/4 ) x2 1x2 2 x2 2x2 1 1/4 = 8 . Si forzamos a la igualdad en la desigualdad anterior, vemos que los valores x∗ 1 y x∗ 2 que minimizan f(x1, x2) son dados por 4x∗ 1 = x∗ 1 (x∗ 2)2 = 2x∗ 2 x∗ 1 = 2 , esto es, x∗ 1 = 1 2 , x∗ 2 = 1 2 , y que el m´ınimo valor es 8. Note que este ejemplo no es f´acil de atacar con los m´etodos del c´alculo. De hecho, los puntos cr´ıticos son soluciones del sistema ∂f ∂x1 = 4 + 1 x2 2 − 4x2 x2 1 = 0 , ∂f ∂x2 = − 2x1 x3 2 + 4 x1 = 0 . 14
  16. 16. Resolver este sistema por medios no f´aciles y adem´as examinar el Hessiano     8x2 x3 1 − 2 x3 2 − 4 x2 1 − 2 x3 2 − 4 x2 1 6x1 x4 2     esto es una perspectiva ¡aterradora!. Los ejemplos discutidos en esta secci´on ciertamente indican que la desigualdad (A-G) puede ser una herramienta importante para la soluci´on de problemas de optimizaci´on. La ´unica parte de nuestro planteamiento, que no estaba completamente claro era “dividir” o “desdoblar” la funci´on apropiadamente en el extremo superior de la desigualdad (A-G). Hicimos esto f´acilmente por inspecci´on en los ejemplos considerados aqu´ı porque las fun- ciones que consideramos envolvian tres o menos variables. Sin embargo, es aparente que el proceso de dividir (desdoblar) puede ser dif´ıcil de aplicar para funciones con m´as variables. El otro punto en nuestro enfoque que es un poco nebuloso por el momento es el alcance del m´etodo, es decir, todav´ıa tenemos que identificar con precisi´on los tipos de problemas de optimizaci´on que son tratables v´ıa la desigualdad (A-G). Abordaremos estas dos cuestiones en la siguiente secci´on. En particular, vamos a desarrollar un marco formal y un procedi- miento sistem´atico llamado programaci´on geom´etrica aplicando la desigualdad (A-G) a los problemas de optimizaci´on. En programaci´on geom´etrica, el proceso de dividir (desdoblar) que fue desarrollado por inspecci´on en los ejemplos de esta secci´on es sustituido por la so- luci´on de un cierto sistema de ecuaciones lineales determinado por el problema en cuesti´on. Esta sustituci´on da lugar a un procedimiento sistem´atico y pr´actico que se aplicar´a ruti- nariamente a una amplia clase de problemas. Sin embargo, la esencia de la programaci´on geom´etrica se encuentra en las soluciones informales de los ejemplos considerados en esta secci´on, el resto es s´olo una cuesti´on de hacer el procedimiento sistem´atico y rutinario. 15
  17. 17. 2.3. Programaci´on geom´etrica sin restricciones. Esta secci´on presenta un procedimiento sistem´atico para manipular problemas de pro- gramaci´on geom´etrica sin restricciones. Como demostramos en la secci´on anterior, es con frecuencia posible resolver estos problemas directamente de la desigualdad (A-G) y por inspecci´on. Sin embargo, algunos problemas son muy complicados para hacerlos de esta manera, y el procedimiento que estamos apunto de discutir entonces viene al rescate. Tambi´en tenemos otro objetivo en mente para esta secci´on. Se habr´a notado ya, que nunca probamos que siempre es posible forzar a la igualdad en la desigualdad (A-G) en los ejemplos de la secci´on anterior. Una vez que hallamos establecido nuestro procedimiento sistem´atico para problemas de programaci´on geom´etrica sin restricciones, probaremos que siempre es posible forzar a la igualdad. Definici´on 2.3.1. Una funci´on g definida para todo t = (t1, . . . , tm) ∈ Rm con tj > 0 para todo j = 1, . . . , m es llamado posinomial si g(t) es de la forma g(t) = n i=1 ci m j=1 (tj)αij , donde los ci’s son constantes positivas y los αij son exponentes reales arbitrarios. As´ı pues, un posinomial es una combinaci´on lineal con coeficientes no negativos de t´erminos que son productos de potencias reales de variables no negativas t1, . . . , tm. Por ejemplo, g(t1, t2) = 3t−1 1 t √ 2 2 + t3 1t 1/2 2 + √ 3t −1/2 1 es un posinomial definido sobre en interior de el primer cuadrante en R2 . El objetivo de la programaci´on geom´etrica sin restricciones es resolver el siguiente pro- 16
  18. 18. grama geom´etrico primal: Minimizar el posinomial g(t) = n i=1 ci m j=1 t αij j , (GP) donde t1 > 0, . . . , tm > 0 . Por una soluci´on del (GP) sencillamente nos referimos a un minimizador global t∗ para g sobre el conjunto de vectores t en Rm con componentes positivas. Comenzaremos nuestro ataque sobre el programa (GP) observando que g puede ser reescrito como g(t) = n i=1 δi       ci m j=1 t αij j δi       , donde cada δi se supone que es un n´umero positivo (Condici´on de Positividad). Si a esto a˜nadimos la restricci´on de que n i=1 δi = 1 , (Condici´on de Normalidad) podemos aplicar la desigualdad (A-G) a esta nueva expresi´on de g para obtener g(t) (A-G) ≥ n i=1       ci m j=1 t αij j δi       δi = n i=1 ci δi δi n i=1 m j=1 t αij δi j = n i=1 ci δi δi m j=1 t i αij δi j Por lo tanto, si se impone la restricci´on adicional de que n i=1 αijδj = 0 ; j = 1, . . . , m , (Condici´on de Ortogonalidad) 17
  19. 19. entonces la desigualdad anterior nos da el siguiente resultado g(t) ≥ n i=1 ci δi δi . As´ı, si definimos v(δ) = n i=1 ci δi δi entonces los c´alculos anteriores muestran que g(t) ≥ v(δ) (Desigualdad Primal-Dual) para cualquier t ∈ Rm con componentes positivas y cualquier δ ∈ Rn que satisface las Condiciones de Positividad, Normalidad y Ortogonalidad. Estas consideraciones nos lleva a considerar el siguiente programa geom´etrico dual: Maximizar v(δ) = n i=1 ci δi δi , (PGD) sujeto a δ1 > 0, . . . , δn > 0 , (Condici´on de Positividad) n i=1 δi = 1 , (Condici´on de Normalidad) ∀j : n i=1 αijδi = 0 , (Condici´on de Ortogonalidad) Un vector δ ∈ Rn que satisface las Condiciones de Positividad, Normalidad y Ortogonalidad es un vector factible para el (PGD). El programa dual es consistente si el conjunto de vectores factibles para el (PGD) es no vacio. Finalmente, por una soluci´on para el progama dual (PGD) nos referimos a un vector δ∗ ∈ Rn que es un maximizador global para v(δ) sobre el conjunto de vectores factibles para el (PGD). Note que si t∗ es una soluci´on al programa primal (GP) y si δ∗ es una soluci´on al programa dual (PGD), entonces g(t∗ ) ≥ v(δ∗ ) por la desigualdad Primal-Dual. A continuaci´on se muestra, entre otras cosas, que en realidad g(t∗ ) es igual a v(δ∗ ) y que de esta igualdad genera un procedimiento para calcular las soluciones del programa (GP) y (PGD) cuando estos programas tienen soluciones. 18
  20. 20. Teorema 2.3.1. Si t∗ = (t∗ 1, . . . , t∗ m) es una soluci´on del programa geom´etrico primal (GP), entonces el correspondiente programa geom´etrico dual (PGD) es consistente. Adem´as, el vector δ∗ = (δ∗ 1, . . . , δ∗ n) definido por δ∗ i = ui(t∗ ) g(t∗) , i = 1, . . . , n (donde ui(t) = cit αij 1 · · · tαim m es el i’´esimo t´ermino de g) es una soluci´on para el (PGD) y la igualdad se cumple en la Desigualdad Primal-Dual, esto es, g(t∗ ) = v(δ∗ ) . Demostraci´on: Un t´ermino t´ıpico de g en (GP) es ui(t) = citαi1 1 · · · tαim m . La derivada parcial de ui(t) respecto de tj tiene un efecto muy simple sobre ui(t), simple- mente se multiplica ui(t) por αij y se reduce el exponente de tj en 1. Esto significa que la siguiente ecuaci´on se cumple: tj ∂ui ∂tj = αijui . Ya que t∗ = (t∗ 1, . . . , t∗ m) es un minimizador para g en (GP), se deduce que 0 = ∂g ∂tj (t∗ ) = n i=1 ∂ui ∂tj (t∗ ) , j = 1, 2, . . . , m . Pero entonces de las observaciones anteriores tenemos que 0 = n i=1 αijui(t∗ ) , j = 1, 2, . . . , m . Ya que g(t∗ ) > 0 (ver (GP)), podemos dividir en ambos lados de la ´ultima ecuaci´on por g(t∗ ) obteniendo 0 = n i=1 αij ui(t∗ ) g(t∗) , j = 1, 2, . . . , m . Consecuentemente, si definimos δ∗ i = ui(t∗ ) g(t∗) , i = 1, . . . , n , 19
  21. 21. entonces δ∗ = (δ∗ 1, . . . , δ∗ n) satisfacen la Condici´on de Ortogonalidad para el programa dual (PGD). Por otra parte, δ∗ i > 0 para i = 1, . . . , n por lo que la Condici´on de Positividad es satisfecha. Finalmente, n i=1 δ∗ i = n i=1 ui(t∗ ) g(t∗) = g(t∗ ) g(t∗) = 1 por lo que la Condici´on de Normalidad se cumple. Concluimos que el vector δ∗ es factible para el programa dual, por lo que el programa dual (PGD) es consistente. Adem´as g(t∗ ) = g(t∗ )δ∗ 1 +···+δ∗ n = (g(t∗ ))δ∗ 1 · · ·(g(t∗ ))δ∗ n = u1(t∗ ) δ∗ 1 δ∗ 1 · · · un(t∗ ) δ∗ n δ∗ n = c1 δ∗ 1 δ∗ 1 · · · cn δ∗ n δ∗ n = v(δ∗ ) , asi que se cumple la igualdad en la desigualdad Primal-Dual. Esto implica que δ∗ es una soluci´on del programa dual (PGD). Puesto que δ∗ i = ui(t∗ ) g(t∗) , i = 1, 2, . . . , n , la prueba est´a completa. Con el teorema anterior en manos, podemos formular el siguiente m´etodo para un programa geom´etrico. El procedimiento de Programaci´on Geom´etrica. Dado un programa geom´etrico primal Minimizar el posinomial g(t) = n i=1 ui(t) , (PD) donde ui(t) = citαi1 1 . . . tαim m y ti > 0, . . . , tm > 0; ci > 0 procedemos como sigue: Paso 1. Calcular el conjunto F de vectores facibles para el programa geom´etrico dual 20
  22. 22. (PGD), es decir, el conjunto de todos los vectores δ en Rn tales que δ1 > 0, . . . , δn > 0 , (Condici´on de Positivadad) n i=1 δi = 1 , (Condici´on de Normalidad) n i=1 αijδi = 0 ; j = 1, . . . , m (Condici´on de Ortogonalidad) Paso 2. Si el conjunto F de vectores factibles para el (PGD): (a) Es vacio, entonces parar. El programa dado (GP) no tiene soluci´on en este caso; (b) Consta de un s´olo vector δ∗ , entonces δ∗ es un soluci´on del (PGD). Vaya al Paso 4; (c) Consta de m´as de un vector, entonces vaya al Paso 3. Paso 3. Encuentre un vector δ∗ que es un maximizador global para la funci´on dual v(δ) = n i=1 ci δi δi sobre el conjunto F de vectores factibles para el (PGD). Entonces δ∗ es una soluci´on del (PGD). Vaya al Paso 4. Paso 4. Dado una soluci´on δ∗ del (PGD), una soluci´on t∗ del programa primal es obtenido de resolver las ecuaciones δ∗ 1 = ui(t∗ ) v(δ∗) , i = 1, . . . , n , para t∗ 1, . . . , t∗ m. El valor m´ınimo g(t∗ ) de g es igual al valor m´aximo v(δ∗ ) para la funci´on dual v. Comentarios. (1) Para encontrar el conjunto F de vectores factibles para el programa dual, primero re- solver el sistema lineal de ecuaciones que consiste de las Condiciones de Ortogonalidad y Normalidad, y luego imponer la Condici´on de Positividad en la soluci´on resultante. 21
  23. 23. (2) La instrucci´on en el Paso 2(a) de que el (GP) no tiene soluciones si el conjunto F de vectores factibles de el programa dual es vacio es consecuencia del Teorema 2.3.1. Porque si (GP) tiene un soluci´on t∗ , entonces el Teorema 2.3.1 afirma que el programa dual es consistente, es decir, F es no vacio. (3) La alternativa “dif´ıcil” es el Paso 2(c) , porque estamos obligados a encontrar un maximizador δ∗ para v en el conjunto F de vectores factibles para (PGD) por alg´un medio. (4) La soluci´on del sistema de ecuaciones prescrito en la Paso 4 parece complicado porque las ecuaciones no son lineales en la variables t∗ 1, . . . , t∗ m. Sin embargo, debido ui(t∗ ) = ci(t∗ 1)αi1 · · · (t∗ m)αim , podemos obtener t∗ 1, . . . , t∗ m resolviendo el sistema de ecuaciones lineales αi1 log t∗ 1 + · · · + αim log t∗ m = log δ∗ i − log ci + log v(δ∗ ) , i = 1, . . . , n . Por lo tanto, el procedimiento sistem´atico para la programaci´on geom´etrica que fue descrito anteriormente es un proceso extremadamente lineal. (5) La i-´esima componente δ∗ i de la soluci´on δ∗ del programa dual (PGD) especifica el aporte realtivo del i-´esimo t´ermino ui(t∗ ) al valor m´ınimo g(t∗ ) del (GP). 2.4. Ejemplos sin restricciones. Ejemplo 2.4.1. Sea c1, c2, c3, c4 y V constantes positivas. Considere el siguiente programa geom´etrico: Minimizar g(t) = c1V t1t2t3 + 2c2t2t3 + 2c3t1t3 + c4t1t2 , donde t1 > 0, t2 > 0, t3 > 0 . 22
  24. 24. Soluci´on: Aqu´ı el problema dual es Maximizar V (δ) = c1V δ1 δ1 2c2 δ2 δ2 2c3 δ3 δ3 2c4 δ4 δ4 , sujeto a δ1 + δ2 + δ3 + δ4 = 1 (Condici´on de Normalidad), δi > 0, 1 = 1, 2, 3, 4 (Condici´on de Positividad), −δ1 + + δ3 + δ4 = 0 −δ1 + δ2 + δ4 = 0 −δ1 + δ2 + δ3 = 0      Condici´on de Ortogonalidad   . Si aplicamos el Paso 1 del precedimiento mostrado en secci´on anterior, encontraremos que el vector δ∗ = 2 5 , 1 5 , 1 5 , 1 5 es el ´unico vector factible para el dual, por lo que seguimos la alternativa (b) en el Paso 3. Por consiguiente, podemos encontrar las soluciones t∗ 1, t∗ 2, t∗ 3 resolviendo el sistema. c1V t∗ 1t∗ 2t∗ 3 = δ∗ 1v(δ∗ ) = 2 5 v(δ∗ ) , 2c2t∗ 2t∗ 3 = δ∗ 2v(δ∗ ) = 1 5 v(δ∗ ) , 2c3t∗ 1t∗ 3 = δ∗ 3v(δ∗ ) = 1 5 v(δ∗ ) , c4t∗ 1t∗ 2 = δ∗ 4v(δ∗ ) = 1 5 v(δ∗ ) . Omitiremos el resto de los detalles del c´alculo. Note que las contribuciones relativas de los cuatro t´erminos en g(t∗ ) son 2 5 , 1 5 , 1 5 , 1 5 independiente de los valores de c1, c2, c3, c4. Ejemplo 2.4.2. Considere el programa geom´etrico Minimizar g(t1, t2) = 2 t1t2 + t1t2 + t1 , donde t1 > 0, t2 > 0 . 23
  25. 25. Soluci´on: El programa dual es Maximizar v(δ) = 2 δ1 δ1 1 δ2 δ2 1 δ3 δ3 , sujeto a δ1, δ2, δ3 > 0 , δ1 + δ2 + δ3 = 1 , −δ1 + δ2 + δ3 = 0 , −δ1 + δ2 = 0 . Resolviendoe stas ecuaciones, encontramos que la ´unica soluci´on es δ1 = 1 2 , δ2 = 1 2 , y δ3 = 0. Estos vector no es factible para el dual (porque δ3 = 0) y por lo tanto no hay vectores factibles para el dual. Consecuentemente, la alternativa (a) en el Paso 2 nos dice que el programa dado no tiene soluci´on. Ejemplo 2.4.3. Considere el programa geom´etrico Minimizar g(t1, t2) = 1 t1t2 + t1t2 + t1 + t2 , donde t1 > 0, t2 > 0 . Soluci´on: El programa dual es Maximizar v(δ) = 1 δ1 δ1 1 δ2 δ2 1 δ3 δ3 1 δ4 δ4 , sujeto a δ1, δ2, δ3, δ4 > 0 , δ1 + δ2 + δ3 + δ4 = 1 , −δ1 + δ2 + δ3 = 0 , −δ1 + δ2 + δ4 = 0 . 24
  26. 26. Un poco de trabajo muestra que este sistema es equivalente al siguiente: δ1 = δ1 > 0 , δ2 = 3δ1 − 1 > 0 , δ3 = 1 − 2δ1 > 0 , δ4 = 1 − 2δ1 > 0 , y estas desigualdades restringen δ1 al rango 1 3 < δ1 < 1 2 . As´ı, la maximizaci´on de v(δ) equivale a la maximizaci´on de f(s) = 1 2 s 1 1 − 2s 1−2s 1 1 − 2s 1−2s 1 3s − 1 3s−1 en el intervalo 1 3 < s < 1 2 . Tomando logaritmos, maximizamos ln f(s) = −s ln 2 − 2(1 − 2s) ln(1 − 2s) − (3s − 1) ln(3s − 1) , que es posible resolver por m´etodos iterativos sin ning´un problema. 25
  27. 27. Cap´ıtulo 3 Progamaci´on geom´etrica con restricciones 3.1. Conocimientos previos. Teorema 3.1.1 (Desigualdad Media Aritm´etica-Geom´etrica Extendida). Suponga que x1, . . . , xn son n´umeros positivos. Si δ1, . . . , δn son n´umeros que son todos positivos o todos ceros y si λ = δ1 + · · · + δn, entonces n i=1 xi λ ≥ λλ n i=1 xi δi δi bajo la convenci´on 00 = 1 y (xi/0)0 = 1. La igualdad se cumple en esta desigualdad si y s´olo si δ1 = δ2 = · · · = δn = 0 o xi = δi λ n j=1 xj para i = 1, . . . , n. Demostraci´on: Suponga primero que todos los δi’s son n´umeros positivos. Note que δi/λ es positivo para i = 1, 2, . . . , n y que δ1 λ + δ2 λ + · · · + δn λ = 1 . 26
  28. 28. Consequentemente, si aplicamos la desidgualdad Media Aritm´etica Geom´etrica (A-G) Teo- rema 1.2.1 a (λxi)/δi y δi/λ para i = 1, 2, . . . , n, obtenemos n i=1 xi = n i=1 δi λ λxi δi ≥ n i=1 λxi δi δi/λ , cumpliendose la igualdad si y s´olo si λx1 δ1 = λx2 δ2 = · · · = λxn δn . Pero luego n i=1 xi λ ≥ n i=1 λxi δi δi = λλ n i=1 xi δi δi . Por otra parte, si λxi/δi = M para i = 1, 2, . . . , n, entonces n i=2 xi = n i=1 Mδi λ = M λ n i=1 δi = M , luego con λ xi δi = M tenemos que xi = Mδi λ = δi λ n i=1 xi , por lo tanto la condici´on de igualdad se cumple. Finalmente, note que si todos los δi’s son iguales a cero, entonces ambos lados de la desigualdad prescrita son iguales a 1. Esto completa la prueba. La siguiente definici´on describe el marco de la programaci´on geom´etrica con restriccio- nes. 27
  29. 29. Definici´on 3.1.1. Suponga que g0, g1, . . . , gk son posinomiales con m-variables reales positivas t = (t1, t2, . . . , tm). Entonces el programa (PG)    Minimizar g0(t) s.a. g1(t) ≤ 1, g2(t) ≤ 1, . . . , gk(t) ≤ 1 , donde t1 > 0, t2 > 0, . . . , tm > 0 es llamado un programa geom´etrico con restricciones. La siguiente definici´on define el marco de la programaci´on convexa. Definici´on 3.1.2. Suponga que f, g1, . . . , gm son funcioines real-valuadas definidas sobre un subconjunto C de Rn . (PC)    Minimizar f s.a. g1(x) ≤ 0, g2(x) ≤ 0, . . . , gm(x) ≤ 0 , donde x ∈ C ⊂ Rn . La funci´on f es llamada la funci´on objetivo de (PC) y las desigualdades de funciones g1(x) ≤ 0, . . . , gm(x) ≤ 0 son llamadas las restricciones (desigualdades) para (PC). Un punto x ∈ C que satisface todas las restricciones del programa (PC) es llamado un punto factible para (PC), y el conjunto F de todos los puntos factibles para (PC) es llamado regi´on de factibilidad para (PC). Si la regi´on factible para (PC) es no vacia, diremos que (PC) es consistente. Si hay un punto factible x para (PC) tal que gi(x) < 0 para i = 1, . . . , m, entonces (PC) es superconsistente y el punto x es llamado un punto de Slater para (PC). Teorema 3.1.2 (Karush-Kuhn-Tucker(Forma de Gradiente)). Suponga que (PC) es un programa convexo superconsistente tal que la funci´on objetivo f y las funciones de restricci´on g1, . . . , gm tienen la primera de derivada continua en el conjunto C para (PC). 28
  30. 30. Si x∗ es factible para (PC) y es un punto interior de C, entonces x∗ es una soluci´on de (PC) si y s´olo si existe un λ∗ ∈ Rm tal que: (1) λ∗ i ≥ 0 para i = 1, 2, . . . , m; (2) λ∗ i gi(x∗ ) = 0 para i = 1, 2, . . . , m; (3) ∇f(x∗ ) + m i=1 λ∗ i ∇gi(x∗ ) = 0. Teorema 3.1.3. (a) Si f1, . . . , fk son funciones convexas en el conjunto convexo C de Rn , entonces f(x) = f1(x) + f2(x) + · · · + fk(x) es convexa. Adem´as, si al menos uno de los fi es estrictamente convexa en C, entonces la suma f(x) es estrictamente convexa. (b) Si f es convexa (estrictamente convexa) en el conjunto convexo C de Rn y si α es un n´umero positivo, entonces αf es convexo (estrictamente convexo) en C. (c) Si f es una funci´on convexa (estrictamente convexa) definida en un conjunto convexo C de Rn , y si g es una funci´on convexa creciente (estrictamente creciente) definida en el rango de f de R, entonces la funci´on composici´on g ◦ f es convexa (estrictamente convexa) en C. 3.2. Ejemplo. Ejemplo 3.2.1. Considere el siguiente programa Minimizar 40 t1t2t3 + 40t2t3 sujeto a 2t1t3 + t1t2 ≤ 4 , donde t1 > 0, t2 > 0, t3 > 0 . 29
  31. 31. Soluci´on: Si dividimos la desigualdad de restricci´on por 4, obtenemos un programa geom´etrico de la forma 3.1.1 con g0(t1, t2, t3) = 40 t1t2t3 + 40t2t3 , g1(t1, t2, t3) = t1t3 2 + t1t2 4 . Ahora procedemos como sigue: Para cualquier λ > 0, (g1(t))λ ≤ 1 as´ı que para cualesquiera δ1 > 0, δ2 > 0, tenemos g0(t) ≥ g0(t)(g1(t))λ = 40 t1t2t3 + 40t2t3 (g1(t))λ = δ1 40 δ1t1t2t3 + δ2 40t2t3 δ2 (g1(t))λ . Si ahora imponemos la restricci´on de que δ1 + δ2 = 1 y aplicamos la Desigualdad Media Aritm´etica-Geom´etrica Teorema 2.1.2, obtenemos g0(t) ≥ 40 δ1t1t2t3 δ1 40t2t3 δ2 δ2 (g1(t))λ = 40 δ1 δ1 40 δ2 δ2 (t1)−δ1 (t2)(−δ1+δ2) (t3)(−δ1+δ2) (g1(t))λ . Luego, nos enfocamos en el factor (g1(t))λ en la ´ultima expresi´on y aplicamos la Desigualdad Media Aritm´etica Geom´etrica Extendida Teorema 3.1.1, luego tenemos g1(t)λ = t1t3 2 + t1t2 4 λ ≥ λλ t1t3 2δ3 δ3 t1t2 4δ4 δ4 = λλ 1 2δ3 δ3 1 4δ4 δ4 t (δ3+δ4) 1 tδ4 2 tδ3 3 , siempre que λ = δ3 + δ4. Si combinamos las conclusiones de los c´alculos anteriores, vemos que g0(t) ≥ 40 δ1 δ1 40 δ2 δ2 1 2δ3 δ3 1 4δ4 δ4 (δ3 + δ4)δ3+δ4 = v(δ1, δ2, δ3, δ4) 30
  32. 32. siempre que δ1 + δ2 = 1 , δ3 + δ4 = λ , −δ1 + δ3 + δ4 = 0 , −δ1 + δ2 + δ4 = 0 , −δ1 + δ2 + δ3 = 0 , δ1 > 0, δ2 > 0, δ3 > 0, δ4 > 0 . (Las tres ´ultimas ecuaciones resultan de igualar los exponentes de t1, t2, t3 a cero.) Este sistema tiene la soluci´on ´unica δ∗ 1 = 2 3 , δ∗ 2 = 1 3 , δ∗ 3 = 1 3 , δ∗ 4 = 1 3 , y el correspondiente valor de v(δ1, δ2, δ3, δ4) es v 2 3 , 1 3 , 1 3 , 1 3 = 60 . As´ı, 60 es una cota inferior para el valor de g0 sujeto a la restricci´on g1(t) ≤ 1. Encon- trar el valor m´ınimo de g0 y un minimizador t∗ = (t∗ 1, t∗ 2, t∗ 3) que conduce a este valor m´ınimo, buscamos esos valores t∗ 1, t∗ 2, t∗ 3 que fuerzan a la igualdad en las Desigualdades Media-Geom´etrica de 2.1.2 y 3.1.1 y simult´aneamente en la restricci´on g1(t) ≤ 1. Si po- demos encontrar tales t∗ 1, t∗ 2, t∗ 3, entonces sabremos que el m´ınimo de g0(t) sujeto a esta restricci´on es actualmente 60 y que t∗ = (t∗ 1, t∗ 2, t∗ 3) es el punto minimizador. Las condiciones de igualdad para las Desigualdades Media Geom´etrica Aritm´etica 2.1.2 y 3.1.1 implican que 40 2 3 t∗ 1t∗ 2t∗ 3 = 40t∗ 2t∗ 3 1 3 = 60 , t∗ 1t∗ 3 2 3 = t∗ 1t∗ 2 4 3 = K . (¿Por qu´e los dos t´erminos en la primera ecuaci´on es igual a 60?) Ya que δ∗ 3, δ∗ 4 son positivos, la igualdad se debe tener en la restricci´on g1(t) ≤ 1 de modo que 1 = δ3K + δ4K = 2 3 K , 31
  33. 33. y por lo tanto K = 3 2 . Estas consideraciones nos llevan al siguiente sistema de ecuaciones: t∗ 1t∗ 2t∗ 3 = 1 , 2t∗ 2t∗ 3 = 1 , t∗ 1t∗ 3 = 1 , t∗ 1t∗ 2 = 2 . Podemos convertir este sistema a un sistema de ecuaciones lineales en log t∗ 1, log t∗ 2, log t∗ 3 tomando logaritmos log t∗ 1 + log t∗ 2 + log t∗ 3 = 0 , log t∗ 2 + log t∗ 3 = − log 2 , log t∗ 1 + log t∗ 3 = 0 , log t∗ 1 + log t∗ 2 = log 2 . Resolviendo este ´ultimo sistema tenemos que la ´unica soluci´on es t∗ 1 = 2, t∗ 2 = 1 y t∗ 3 = 1 2 , que son los valores que minimizan el problema inicial. Comentarios sobre el problema anterior: Resolvimos el programa geom´etrico del ejemplo anterior aplicando la Desigualdad Media Geom´etrica Aritm´etica 2.1.2 a la funci´on obgetivo g0(t) y la Desigualdad Media Geom´etrica Aritm´etica Extendida 3.1.1 a la restric- ci´on g1(t) ≤ 1. ¿Qu´e pasar´ıa si hubi´eramos aplicado 2.1.2 a las dos funciones?. Esto habr´ıa resultado en el siguiente sistema de ecuaciones de δ1, δ2, δ3, δ4: δ1 + δ2 = 1 , δ3 + δ4 = 1 , −δ1 + δ3 + δ4 = 0 , −δ1 + δ2 + δ4 = 0 , −δ1 + δ2 + δ3 = 0 . Este es un sistema de ecuaciones inconsistente. En otra palabras, si usamos 2.1.2 en las funciones objetivo y de restricci´on, y si a continuaci´on a˜nadimos las ecuacionies resultan- 32
  34. 34. tes de establecer los exponentes de t1, t2, t3 iguales a cero, se han impuesto demasiadas restricciones sobre δ1, δ2, δ3, δ4. Con la ayuda del Teorema de Karush-Kuhn-Tucker, podemos mostrar que la t´ecnica aplicada al problema anterior funciona realmente, en general. 3.3. Programaci´on geom´etrica con restricciones. Ahora desarrollaremos la t´ecnica mostradad en la secci´on anterior en el contexto general de la programaci´on geom´etrica con restricciones (PG) definido en 3.1.1. Debido a que cada uno de los k + 1 posinomiales en el programa geom´etrico con res- triccioines est´andar (PG) Definici´on 3.1.1 puede consistir de varios t´erminos, tenemos que organizar todos los t´erminos de manera que la notaci´on resultante sea simple y descriptiva. Una forma razonable de hacerlo es empezar por contar los t´erminos de la funci´on objetivo g0(t) de izquierda a derecha, enumer´andolos desde 1 hasta n0, y luego continuar contando los t´erminos de la primera restricci´on posinomial g1(t) de izquierda a derecha, enumeran- dolos desde n0 + 1 hasta n1, y as´ı sucesivamente hasta contar los t´erminos de la ´ultima restricci´on posinomial gk(t) de izquierda a derecha, enumerandolos desde nk−1 + 1 hasta nk = p. El t´ermino j’´esimo en este esquema de recuento se indica como sigue: uj(t) = cjt αj1 1 t αj2 2 . . . tαjm m . Con este esquema notacional, podemos reescribir el programa geom´etrico con restricciones 33
  35. 35. est´andar (GP) como (GP)    Minimizar g0(t) = u1(t) + · · · + un0 (t) sujeto a las restricciones g1(t) = un0+1(t) + · · · + un1 (t) ≤ 1 , · · · · · · · · ·· · · · · · · · · · · · · · · · · · · · · · · · · · ·· · · · · · · · · · · · · · · · · · gk(t) = unk−1+1(t) + · · · + unk (t) ≤ 1 , donde t1 > 0, t2 > 0, . . . , tm > 0, y nk = p . La aplicaci´on de la Desigualdades Media Geom´etrica Aritm´etica 2.1.2 y 3.1.1 s´olo a las funciones g0(t), g1(t), . . . , gk(t) como en el ejemplo de la secci´on anterior 3.2.1 nos lleva a considerar el siguiente programa: (PGD)    Maximizar v(δ) = p j=1 cj δj δj k i=1 λi(δ)λi(δ) sujeto a las restricciones δ1 + · · · + δn0 = 1 , α11δ1 + · · · + αp1δp = 0 , ... ... ... ... α1mδ1 + · · · + αpmδp = 0 , donde δi > 0 para i = 1, . . . , n0, y para cada k ≥ 1, ya sea δi > 0 para todo i con nk−1 + 1 ≤ i ≤ nk o δi = 0 para todo i con nk−1 + 1 ≤ i ≤ nk. Donde, λi(δ) = δni−1+1 + · · · + δni . El programa (PGD) es llamado el programa dual del (GP), la funci´on v(δ) es la funci´on objetivo dual y las restricciones en (PGD) son las restricciones dual. Si δ1, δ2, . . . , δp son n´umeros que satisfacen las restricciones dual en (PGD), entonces δ = (δ1, . . . , δp) es un vector fatible para (PGD) y el (PGD) se dice que es consistente. Un vector δ∗ = (δ∗ 1, . . . , δ∗ p) 34
  36. 36. que maximiza v(δ) en el conjunto de vectores factibles para (PGD) es una soluci´on de (PGD). Para el programa geom´etrico con restricciones considerado en el ejemplo de la secci´on anterior, hay cuatro variables duales δ1, δ2, δ3, δ4 porque la funci´on objetivo y la ´unica funci´on de restricci´on cada una contienen dos t´erminos. Hay un y s´olo vector δ = 2 3 , 1 3 , 1 3 , 1 3 que es factible para (PGD) por lo que es autom´aticamente una soluci´on de (PGD). En general, el n´umero de variables dual en (PGD) es igual al n´umero total p(= nk) de t´erminos en las funciones de restricci´on y objetivo de (GP). Note que las ecuaciones de restricci´on en (PGD) son lineales, por lo que el problema de identificar los vectores factibles de (PGD) se reduce a encontrar las soluciones del sistema de ecuaciones lineales que tiene componentes no negativos. Tambi´en note que λi(δ) es simplimente la suma de las componentes de δ que corresponden a los t´erminos de la i’´esima funci´on de restricci´on gi(t) para i = 1, 2, . . . , k. Antes de proceder al desarrollo de la relaci´on entre las soluciones del programa (GP) y el correspondiente programa dual (PGD), vamos a resolver el dual de otro programa geom´etrico concreto. Ejemplo 3.3.1. Considere el programa geom´etrico. Minimizar t1t−1 2 t2 3 sujeto a las restricciones 1 2 t3 1t2t−1 3 ≤ 1 , 1 4 t −1/2 1 + 1 4 t −1/2 2 + 1 4 t3 ≤ 1 , donde t1 > 0, t2 > 0, t3 > 0 . Soluci´on: La funci´on objetivo y las dos restricciones contienen un total de 5 t´erminos por 35
  37. 37. lo que hay 5 variables duales. las restricciones duales son δ1 = 1 , δ1 + 3δ2 − 1 2 δ3 = 0 , −δ1 + δ2 − 1 2 δ4 = 0 , 2δ1 − δ2 + δ5 = 0 , donde δ1 > 0, δ2 ≥ 0, δ3 ≥ 0, δ4 ≥ 0, δ5 ≥ 0, y la funci´on objetivo dual es v(δ) = 1 δ1 δ1 1 2δ2 δ2 1 4δ3 δ3 1 4δ4 δ4 1 4δ5 δ5 (δ2)δ2 (δ3 + δ4 + δ5)δ3+δ4+δ5 El programa dado es consistente; de hecho, es incluso superconsistente porque, por ejemplo, los valores t1 = 1, t2 = 1, t3 = 1 satisfacen ambas restricciones con desigualdades estrictas. El programa dual es consistente; de hecho, es materia rutinaria verificar que la soluci´on general de las cuatro ecuaciones de restricci´on dual son δ1 = 1, δ2 = − 1 3 + 1 6 r, δ3 = r, δ4 = − 8 3 + 1 3 r, δ5 = − 7 3 + 1 6 r , donde r es un n´umero real arbitrario. Los requisito de que δi ≥ 0 para i = 1, 2, 3, 4, 5 a˜nade la restricci´onadicional de que r ≥ 14 As´ı, el conjunto de puntos factibles para el programa dual es F = 1, − 1 3 , r, − 1 8 + 1 3 r , − 7 3 + 1 6 r : r ≥ 14 . El teorema de Karush-Khun-Tucker no parece ser apliclable a los programas geom´etri- cos, porque los posinomiales no necesariamente son funciones convexas. Por ejemplo, el posinomial en un variable g(t) = t1/2 , t > 0 , 36
  38. 38. no es convexo. Sin embargo, cualquier posinomial g(t) puede ser transformado en una funci´on convexa h(x) por los cambios de variables tj = exj , j = 1, 2, . . . , m . (∗) M´as precisamente, si el cambio de variables (∗) es aplicado al posinomial g(t) = n i=1 citαi1 1 tαi2 2 . . . tαim m , ci > 0 , la correspondiente funci´on de x = (x1, x2, . . . , xm) es h(x) = n i=1 cie m j=1 αij xj , y h(x) es convexo en Rn en virtud del Teorema 3.1.3. Esta observaci´on nos permite transformar el programa geom´etrico con restricciones est´andar (PG)    Minimizar g0 s.a. g1(t) ≤ 1, g2(t) ≤ 1, . . . , gk(t) ≤ 1 , donde t1 > 0, t2 > 0, . . . , tm > 0 en un programa convexo asociado (GP)∗    Minimizar h0(x) sujeto a las restricciones h1(x) − 1 ≤ 0, h2(x) − 1 ≤, . . . , hk(x) − 1 ≤ 0 , donde x ∈ Rm , via los cambios de variables ti = exi para i = 1, 2, . . . , m. Es mas, porque t = ex es una funci´on estrictamente convexa. Los programas (GP) y (GP)∗ son equivalentes en el sentido de que t∗ = (t∗ 1, t∗ 2, . . . , t∗ m) es una soluci´on para (GP) si y s´olo si x∗ = (x∗ 1x∗ 2, . . . , x∗ m) es una soluci´on de (GP)∗ donde t∗ i = ex∗ i para i = 1, 2, . . . , m. Estamos preparados para enunciar y demostrar el resultado central en la teor´ıa de programaci´on geom´etrica con restricciones. Teorema 3.3.1. 37
  39. 39. (1) Si t es un vector factible para el programa geom´etrico con restricciones (GP) y si δ es un vector factible para el programa dual correspondiente (PGD), entonces g0(t) ≥ v(δ) (la Desigualdad Primal − Dual) . (2) Supongamos que el programa geom´etrico con restricciones (GP) es superconsistente y que t∗ es una soluci´on para (GP). Entonces el correspondiente programa dual (PGD) es consistente y tiene una soluci´on δ∗ que satisface g0(t∗ ) = v(δ∗ ) , y δ∗ i =    ui(t∗ ) g0(t∗) , i = 1, . . . , n0 , λj(δ∗ )ui(t∗ ) , i = nj−1 + 1, . . . , nj ; j = 1, . . . , k . Demostraci´on: (1) La Desigualdad Primal-Dual sigue inmediatamente de la definici´on de el programa dual (PGD) y las Desigualdades Media Aritm´etica-Geom´etrica 2.1.2 y 3.1.1. (2) Ya que (GP) es superconsistente, por lo que es el programa convexo asociado de (GP)∗ . Tambi´en desde que (GP) tiene una soluci´on t∗ = (t∗ 1, t∗ 2, . . . , t∗ m), el programa convexo asociado (GP)∗ tiene una soluci´on x∗ = (x∗ 1, x∗ 2, . . . , x∗ m) dada por x∗ i = ln t∗ i , i = 1, 2, . . . , m . De acuerdo al Teorema de Karush-Kuhn-Tucker 3.1.2, existe un vector λ∗ = (λ∗ 1, . . . , λ∗ k) tal que: (a) λ∗ i ≥ 0 para i = 1, 2, . . . , k; (b) λ∗ i (hi(x∗ ) − 1) = 0 para i = 1, 2, . . . , k; (c) ∂h0 ∂xj (x∗ ) + k i=1 λ∗ i ∂hi ∂xj (x∗ ) = 0 para j = 1, . . . , m. 38
  40. 40. porque ti = exi para i = 1, . . . , m, se deduce que para i = 0, 1, . . . , k ∂hi ∂xj = ∂hi ∂tj dtj dxj = ∂gi ∂tj exj , as´ı la condici´on (c) es equivalente a ∂g0 ∂tj (t∗ ) + k i=1 λ∗ i ∂gi ∂tj (t∗ ) = 0 , j = 1, 2, . . . , m (c’) ya que exj > 0 para j = 1, . . . , m. Pero t∗ j > 0 para j = 1, 2, . . . , m, por lo que (c’) es equivalente a t∗ j ∂g0 ∂tj (t∗ ) + k i=1 λ∗ i t∗ j ∂gi ∂tj (t∗ ) = 0 , j = 1, . . . , m . (c”) Porque los t´erminos de gi(t) son de la forma uq(t) = cqt αq1 1 t αq2 2 . . . tαqm m , es claro que t∗ j ∂gi ∂tj (t∗ ) = ni q=ni−1+1 αqjuq(t∗ ) , j = 1, . . . , m , as´ı (c”) implica que 0 = n0 q=1 αqjuq(t∗ ) + k r=1 nr q=nr−1+1 λ∗ rαqjuq(t∗ ) . si dividimos la ´ultima ecuaci´on por g0(t∗ ) = n0 q=1 uq(t∗ ) , obtenemos 0 = n0 q=1 αqj uq(t∗ ) g0(t∗) + k r=1 nr q=nr−1+1 αqj λ∗ ruq(t∗ ) g0(t∗) . Definir el vector δ∗ por δ∗ q =    uq(t∗ ) g0(t∗) , q = 1, 2, . . . , n0 , λ∗ ruq(t∗ ) g0(t∗) , q = nr−1 + 1, . . . , nr, r = 1, . . . , k . 39
  41. 41. Note que δ∗ q > 0 para q = 1, 2, . . . , n0 y que, para cada r ≥ 1, ya sea δ∗ i > 0 para todo i con nr−1 + 1 ≤ i ≤ nr o δ∗ i = 0 para todo i con nr−1 + 1 ≤ i ≤ nr de acuerdo al correspondiente multiplicador λ∗ r de Karush-kuhn-Tucker, es positivo o cero. Tambi´en observe que el vector δ∗ satisface todas las m ecuaciones de restricci´on exponenciales en (PGD) as´ı como la restricci´on n0 q=1 δ∗ q = n0 q=1 uq(t∗ ) g0(t∗) = 1 . Por lo tanto, δ∗ = (δ∗ 1, . . . , δ∗ p) es un vector factible para (PGD). Los multiplicadores λ∗ r de Karush-kuhn-Tucker est´an relacionados con las correspon- dientes λr(δ∗ ) en (PGD) com sigue: λr(δ∗ ) = nr q=nr−1+1 δ∗ q nr q=nr−1+1 λ∗ r uq(t∗ ) g0(t∗) = λ∗ r gr(t∗ ) g0(t∗) para r = 1, . . . , k. La condici´on (b) de Karush-Kuhn-Tucker nos da λ∗ r(gr(t∗ ) − 1) = 0 , r = 1, . . . , k , (b’) por lo que λ∗ rgr(t∗ ) = λ∗ r para r = 1, . . . , k. Por lo tanto, para r = 1, . . . , k y q = nr−1 + 1, . . . , nr, vemos que δ∗ q = λ∗ ruq(t∗ ) g0(t∗) = λ∗ rgr(t∗ )uq(t∗ ) g0(t∗) = λr(δ∗ )uq(t∗ ) . (∗) El hecho de que δ∗ es factible en (PGD) y que t∗ es factible en (GP) implica que g0(t∗ ) ≥ v(t∗ ) debido a la Desigualdad Prima-Dual (1). Por otra parte, los valores de δ∗ q en q = 1, 2, . . . , p son precisamente los que fuerzan a la igualdad en las Desigualdades Media Aritm´etica-Geom´etrica 2.1.2 y 3.1.1 que se utiliza para obtener la Desigualdad de Dualidad. Finalmente, la ecuaci´on (b’) muestra que o bien gr(t∗ ) = 1 o λ∗ r = 0 para r = 1, 2, . . . , k y la ecuaci´on (∗) muestra que λ∗ r = 0 si y s´olo si λr(δ∗ ) = 0 para r = 1, . . . , k. Esto significa que los valores de δ∗ q en ralidad fuerzan a la igualdad en la Desigualdad Prima-Dual. Esto completa la demostraci´on. 40
  42. 42. La segunda afirmaci´on del teorema anterior implica que si (GP) es un programa geom´etrico superconsistente para el cual el dual (PGD) es no consistente, entonces (GP) no tiene soluci´on. 41
  43. 43. Bibliograf´ıa [1] R.J. Duffin, E.L. Peterson, and C. Zener. Geometric Programming, Wiley, New York, 1967 [2] M. Avriel and D.J. Wilde. Optimal condenser design by geometric programming, Ind. Eng. Chem. Process Des. Develop. 6 (1967), 256-263. [3] M. Avriel. Fudamentals of geometric, in Applications of Mathematical Programming Techniques, (E.M.L. Beale, ed.), American Elsevier, New York, 1970, pp. 295-316. [4] E. Peterson. The Origins of Geometric Programming. Annals of Operations Research 105, pp. 15-19, 2001. [5] Robert C. Creese. Geometric Programming for Design and Cost Optimization. Morgan & Claypool Publisher, 2010. [6] Mung Chaing,. Goemetric Programming for Communication Systems. now Publisher, 2010. [7] Stephen Boyd, Seung Jean Kim. A tutorial on geometric programming. Opt. Eng. (2007) 8: pp. 67-127. [8] O. G¨uler. Fundations of Optimization. Springer. 2010. [9] M. Avriel, A.C.Williams. An Extension of Geometric Programming with Applications in Engineering Optimization. Journal of Engineering Mathematics, Vol. 5, No. 3. pp. 187-194. 1971. 42

×