SlideShare a Scribd company logo
1 of 83
Download to read offline
Introducci´n a las ecuaciones
          o
   diferenciales ordinarias


                  Noem´ Wolanski
                      ı




   α/β




                   γ/δ
    Diagrama de fases para dos poblaciones simbi´ticas
                                                o
´
                                    Indice General

Preliminares                                                                     5
Cap´ıtulo 1. Introducci´n
                       o                                                          7
  1. Generalidades.                                                               7
  2. Descripci´n de algunos m´todos de resoluci´n de ecuaciones de 1er. orden.
               o             e                 o                                 10
  Ejercicios                                                                     12
Cap´
   ıtulo 2. Existencia y unicidad de soluci´n
                                           o                                     15
  Ejercicios                                                                     22
Cap´ıtulo 3. Sistemas lineales de 1er. orden y ecuaciones lineales de orden n    23
  1. Generalidades y sistemas homog´neos
                                       e                                         23
  2. Sistemas no homog´neos
                         e                                                       29
Cap´
   ıtulo 4. Resoluci´n de sistemas lineales con coeficientes constantes
                    o                                                            33
  Ejercicios                                                                     45
Cap´
   ıtulo 5. Ecuaciones lineales de orden n con coeficientes constantes            47
  Ejercicios                                                                     52
Cap´ıtulo 6. Comportamiento asint´tico de las soluciones
                                 o                                               55
  1. Diagramas de fases                                                          56
  2. Diagramas de fases de sistemas lineales a coeficientes constantes            60
  3. Linearizaci´n
                o                                                                68
  4. Sistemas Conservativos                                                      74
  Ejercicios                                                                     79
Agradecimientos                                                                  81
Bibliograf´
          ıa                                                                     83




                                                3
Preliminares

    El objetivo de estas notas es dar una introducci´n al tema de Ecuaciones Diferenciales
                                                      o
Ordinarias (en adelante ODE) a nivel elemental. Las notas est´n dirigidas a estudiantes de
                                                                 a
la materia An´lisis II – Matem´tica 3 de la Facultad de Ciencias Exactas y Naturales de la
                a               a
Universidad de Buenos Aires. Al dise˜ar estas notas debemos tener en cuenta que en esta
                                       n
materia el tema de ODE se dicta en no m´s de 5 semanas. Es por esta raz´n que ciertos
                                            a                                   o
temas se dejan para desarrollar en los trabajos pr´cticos. Entre esos temas est´n los m´todos
                                                  a                            a        e
de resoluci´n de ecuaciones de primer orden y muchos ejemplos de aplicaciones que est´n como
           o                                                                          a
ejercicio para los alumnos.
   En estas notas discutiremos algunos problemas en los cuales aparecen ODE, daremos la
demostraci´n del Teorema de Existencia y Unicidad local de soluci´n y analizaremos el dominio
          o                                                      o
de definici´n de las mismas. A fin de dar claridad al texto, daremos las demostraciones bajo
          o
condiciones simples.
    Se dar´n los m´todos de resoluci´n de ecuaciones y sistemas lineales a coeficientes constantes
          a       e                 o
(tanto homog´neos como no homog´neos).
              e                     e
    Por otro lado, se discutir´ la noci´n de diagrama de fases y su relaci´n con la posibilidad
                              a        o                                  o
de predicci´n del comportamiento de las soluciones sin conocer una f´rmula an´litica de las
            o                                                          o          a
mismas. Se ver´ c´mo son los diagramas de fases de sistemas lineales a coeficientes constantes
                a o
de dimensi´n 2 y tambi´n para sistemas no lineales conservativos. Se discutir´ la noci´n de
            o            e                                                      a        o
estabilidad lineal y se utilizar´ para determinar la estabilidad de equilibrios de sistemas no
                                a
lineales de dimensi´n 2.
                   o




                                                5
CAP´
                                              ıTULO 1


                                        Introducci´n
                                                  o

                                        1. Generalidades.

    Sea V (t, x, y, z) un campo de velocidades correspondiente a un fluido (por ejemplo). En el
curso ya vimos que una part´  ıcula que se mueve en el fluido sigue una trayectoria σ(t) tal que su
vector velocidad, σ (t), verifica σ (t) = V (t, σ(t)) para todo tiempo t.
    Esto es un sistema de ecuaciones diferenciales de 1er. orden. A saber, si σ(t) = (x(t), y(t), z(t))
se debe tener para todo t,
                                       
                                        x = V1 (t, x, y, z),
                                       
(1.1)                                     y = V2 (t, x, y, z),
                                       
                                       
                                          z = V3 (t, x, y, z).

   Claramente, para determinar la posici´n de una part´
                                           o              ıcula en un instante t debemos conocer
tambi´n su posici´n en alg´n instante t0 ya que en un instante dado habr´ part´
     e           o        u                                              a     ıculas en diferentes
puntos y por lo tanto sus trayectorias no son iguales.
    De modo que lo que nos plantearemos ser´ encontrar una soluci´n de (1.1) sujeta a que
                                              a                  o
σ(t0 ) = X0 donde t0 ∈ R y X0 ∈ R3 son dados.
    Por ejemplo, en una variable podr´
                                     ıamos intentar resolver el problema

                                               x = x,
                                               x(0) = 1.

          x           x (t)   d
Tenemos     = 1, pero       =    log x(t). Por lo tanto, lo que queremos es que
          x           x(t)    dt
                                  d
                                     log x(t) = 1       para todo t.
                                  dt
De aqu´ que se deba tener log x(t) = t + c para alguna constante c. Como para t = 0 tenemos
       ı
x(0) = 1. Debe ser log 1 = c. Esto nos dice que c = 0 y por lo tanto log x(t) = t o lo que es
equivalente
                                             x(t) = et .

    Por otro lado, si tenemos
                                            x = x,
                                            x(0) = a > 0,
                                                    7
8                                                      ´
                                          1. INTRODUCCION

la misma cuenta nos da log a = c. Por lo tanto,
                                       log x = t + log a
                                           x = et+log a = aet .
Vemos que a distintos datos iniciales le corresponden distintas soluciones y adem´s, si son
                                                                                      a
distintas en t = 0 son distintas para todo t. Veremos m´s adelante que este hecho es una
                                                            a
propiedad general de las soluciones de ODE que dice que dos trayectorias de part´
                                                                                ıculas diferentes
no se cortan.
    Veamos otro ejemplo de sistema de ecuaciones.
    Supongamos que tenemos una part´       ıcula de masa unitaria sujeta a un campo de fuerzas
F = (F1 , F2 , F3 ). Entonces, como la fuerza es la masa por la aceleraci´n, si σ(t) es la trayectoria
                                                                         o
de la part´
          ıcula, se verifica
                                 σ (t) = F (t, σ(t))    para todo t.
Es decir,
                                       
                                        x = F1 (t, x, y, z),
                                       
                                         y = F2 (t, x, y, z),
                                       
                                       
                                         z = F3 (t, x, y, z).

   Ahora bien, si llamamos x0 = x , x1 = x , y0 = y , y1 = y , z0 = z , z1 = z . Entonces,
obtenemos el siguiente sistema de primer orden:
                                   
                                    x0 = x1 ,
                                   
                                   
                                    x = F (t, x , y , z ),
                                    1
                                           1      0 0 0
                                   
                                   
                                   
                                    y = y1 ,
                                       0
                                   
                                    y1 = F2 (t, x0 , y0 , z0 ),
                                   
                                   
                                   
                                   
                                    z0 = z1 ,
                                   
                                   
                                   
                                      z1 = F3 (t, x0 , y0 , z0 ).

     Este mismo enfoque permite tratar el caso en que el campo de fuerzas depende de la velocidad
(x , y , z ). Esto es as´ cuando, por ejemplo, hay alg´n tipo de fricci´n (como la resistencia del
                        ı                                   u                  o
aire). Esta fuerza de fricci´n es proporcional a la velocidad y con sentido opuesto. De modo
                              o
que en general la fuerza ser´ de la forma F = F (t, x, y, z, x , y , z ) y tendremos (reordenando las
                              a
ecuaciones)
                                  
                                   x0 = x1 ,
                                  
                                  
                                  y = y ,
                                   0
                                         1
                                  
                                  
                                  
                                   z = z1 ,
                                     0
                                   x1 = F1 (t, x0 , y0 , z0 , x1 , y1 , z1 ),
                                  
                                  
                                  
                                  
                                  
                                   y1 = F2 (t, x0 , y0 , z0 , x1 , y1 , z1 ),
                                  
                                  
                                  
                                    z1 = F3 (t, x0 , y0 , z0 , x1 , y1 , z1 ).
Es decir, un sistema de ecuaciones de la forma
                                            ϕ = G(t, ϕ),
1. GENERALIDADES.                                            9

donde ϕ ahora no es la trayectoria de una part´ ıcula en el espacio, sino en lo que se llama el
“Espacio de Fases” donde una fase es un par (σ, σ ) donde σ = posici´n y σ = velocidad.
                                                                     o
    En el espacio de fases ϕ es una trayectoria del campo G. De modo que cualquier teor´ y        ıa
cualquier informaci´n que podamos recoger para sistemas de 1er orden, nos dar´ informaci´n
                    o                                                                  a            o
para sistemas de 2do. orden (mediante la reducci´n descripta arriba). Pero ahora, si queremos
                                                    o
determinar la trayectoria σ de la part´  ıcula a partir de la trayectoria ϕ en el espacio de fases,
necesitamos datos iniciales para ϕ y ´stos son σ(t0 ) , σ (t0 ). Es decir, hay que dar la posici´n y
                                       e                                                         o
velocidad en un mismo tiempo t0 para obtener la trayectoria de una part´     ıcula sujeta a un campo
de fuerzas. Esto es bastante intuitivo desde el punto de vista f´ısico dado que una part´ ıcula sujeta
a un campo de fuerzas que empieza, digamos en el instante t = 0, en un cierto lugar, podr´           ıa
tener trayectorias distintas si originalmente su velocidad apunta en direcciones distintas.
    En general, si tengo una ecuaci´n de orden n:
                                   o
(1.2)                              x(n) = f (t, x, x , x , · · · , x(n−1) ),
podemos reducirla a un sistema de n ecuaciones con n inc´gnitas de la siguiente forma: Llamamos
                                                               o
x0 = x , x1 = x , x2 = x , x3 = x , · · · , xn−1 = x(n−1) . Mediante este proceso (1.2) resulta
equivalente a
                             
                              x0 = x1 ,
                             
                             
                             
                              x = x2 ,
                              1
                             
                             
                             
                             x = x ,
                              2
                                      3
                             
                             
(1.3)                           x3 = x4 ,
                             .
                             
                             .
                             .
                             
                             
                             
                             
                             x
                              n−2 = xn−1 ,
                             
                             
                             
                             
                                xn−1 = f (t, x0 , x1 , x2 , · · · , xn−1 ).

    Luego, en este caso, vemos que tenemos que dar condiciones iniciales
                            x(t0 ), x (t0 ), x (t0 ), x (t0 ), . . . , x(n−1) (t0 ),
para determinar la trayectoria x(t).

    Un caso particular de sistemas de ecuaciones de 1er. orden que resultan ser de especial
importancia son los sistemas lineales, es decir aquellos sistemas X = V (t, X), X ∈ Rn en donde
V es una funci´n lineal de X para cada t y continua con respecto a t. Estos sistemas tienen la
              o
forma
                             
                              x1 = a11 x1 + a12 x2 + · · · + a1n xn ,
                             
                             
                             
                              x = a21 x1 + a22 x2 + · · · + a2n xn ,
                              2
(1.4)
                             .
                             .
                             .
                             
                             
                             
                                xn = an1 x1 + an2 x2 + · · · + ann xn .
Aqu´ (x1 , x2 , · · · , xn ) = X y la matriz (aij ) es la matriz asociada a la funci´n lineal V . Los aij
     ı                                                                              o
son, en general, funciones continuas de la variable t. Cuando los coeficientes aij no dependen de
t, decimos que se trata de un sistema lineal de 1er. orden con coeficientes constantes.
10                                                     ´
                                          1. INTRODUCCION

   Uno de los motivos que da especial importancia al estudio de los sistemas lineales, es que los
mismos pueden dar informaci´n relevante sobre el comportamiento de las soluciones de sistemas
                             o
m´s generales (sistemas no lineales). Veremos esto con m´s detalle en el ultimo cap´
 a                                                      a                ´          ıtulo.


     2. Descripci´n de algunos m´todos de resoluci´n de ecuaciones de 1er. orden.
                 o              e                 o

     Para el caso particular de 1 ecuaci´n de 1er. orden, existen varios m´todos para hallar las
                                        o                                 e
soluciones. En estas notas s´lo mostraremos el m´s sencillo de estos, que ya hemos usado, y es
                             o                     a
el llamado m´todo de separaci´n de variables. ¿En qu´ consiste?
              e                o                       e
     Supongamos que la ecuaci´n tiene la forma
                             o
                                           x = f (x)g(t),
entonces, debe tenerse (si f (x) = 0)
                                            x (t)
                                                   = g(t).
                                          f (x(t))
                    ds                        1
     Sea F (s) =         , es decir F (s) =       . Entonces
                   f (s)                    f (s)
                              d                               x (t)
                                 F (x(t)) = F (x(t))x (t) =          .
                              dt                            f (x(t))

Sea ahora G(t) =     g(t) dt. Entonces,

                                        d            d
                                           F (x(t)) = G(t).
                                        dt           dt
De aqu´ que
      ı
                         F (x(t)) = G(t) + c     (i.e. F (x) = G(t) + c)
y si podemos despejar de aqu´ x tendremos la soluci´n general x(t) dependiendo de una constante
                             ı                      o
c a determinar por los datos iniciales.
    En la pr´ctica, la forma de escribir este razonamiento es como sigue:
            a
                                                   dx
                                             x =      ,
                                                   dt
por lo tanto,
                                          dx
                                              = f (x)g(t).
                                          dt
   Llevamos todo lo que depende de x a la izquierda y lo que depende de t a la derecha operando
con los diferenciales como si fueran n´meros. Entonces se obtiene
                                      u
                                         dx
                                              = g(t) dt.
                                        f (x)
Integrando a ambos lados (olvidando que dependen de distinta variable, ya que son los diferen-
ciales los que nos dicen respecto de qu´ variable integramos)
                                       e
                                            dx
                                                 =   g(t) dt,
                                           f (x)
´              ´                 ´
    2. DESCRIPCION DE ALGUNOS METODOS DE RESOLUCION DE ECUACIONES DE 1ER. ORDEN.               11

o lo que es lo mismo
                                       F (x) = G(t) + c.


    Ejemplo 1.1. Hallemos la soluci´n general de x = x2 . Aplicando el m´todo de separaci´n
                                   o                                    e                o
de variables, tenemos
                dx              dx                      1                       1
                   = x2    ⇒       = dt      ⇒      −     =t+c       ⇒   x=−       .
                dt              x2                      x                      t+c
Si, por ejemplo, x(0) = 1 se tiene −1 = c. Por lo tanto la soluci´n es
                                                                 o
                                                   1
                                            x=        .
                                                  1−t

    Observemos que la soluci´n hallada no est´ definida para todos los valores de t. El intervalo
                             o               a
(que contiene al 0) en donde se encuentra definida la soluci´n es (−∞, 1) y no puede extenderse
                                                           o
m´s all´ de ah´ En principio, de la ecuaci´n diferencial x = x2 , no hab´ ning´n elemento que
  a    a      ı.                          o                             ıa     u
nos hiciera pensar que algo as´ podr´ suceder, dado que la funci´n V (x) = x2 es “tan buena”
                               ı    ıa                            o
como uno quiere.
    Este ejemplo nos dice que en el desarrollo de la teor´ general no podemos esperar un
                                                             ıa
resultado de existencia que nos diga que si V (x) es regular entonces vaya a existir una soluci´n
                                                                                               o
definida para todo tiempo t. El resultado de existencia ser´ local.
                                                            a

   Ejemplo 1.2. Hallar, por el m´todo de separaci´n de variables, las soluciones del problema
                                e                o
                                              √
                                         x = x,
                                             x(0) = 0.

   Aplicando el m´todo de separaci´n de variables (suponiendo que x(t) = 0 para t > 0 para
                 √e               o
poder dividir por x) obtenemos
                                 dx                  √
                                 √ = dt       ⇒     2 x = t + c.
                                  x

   Como x(0) = 0 se sigue que c = 0 y por lo tanto
                                                  1
                                            x(t) = t2 .
                                                  4
   Pero observemos que, como x (0) = 0 podemos prolongar x a t < 0 como la funci´n id´nti-
                                                                                o    e
camente nula. Es decir, tenemos una soluci´n dada por
                                          o
                                              1 2
                                   x(t) =     4t        si t > 0,
                                             0          si t ≤ 0.

   Por otro lado, si resolvemos por el mismo m´todo este problema con dato inicial 0 dado en
                                                 e
un τ > 0 (es decir, pidiendo que x(τ ) = 0) y resolviendo para t > τ obtenemos
                                       1
                                 x(t) = (t − τ )2
                                 ¯                      para t ≥ τ
                                       4
12                                                   ´
                                        1. INTRODUCCION

y como antes podemos extender esta soluci´n a t < τ como la funci´n id´nticamente 0. Es decir,
                                          o                      o    e
tenemos
                                        1
                                          (t − τ )2   si t > τ,
                              x(t) = 4
                              ¯
                                       0              si t ≤ τ.
                                                                 √
Observemos que ambas funciones son soluci´n de la ecuaci´n x = x y satisfacen x(0) = 0.
                                           o              o

    Vemos con este ejemplo que no siempre existe una unica soluci´n al problema de valores
                                                        ´            o
iniciales. Para obtener unicidad, que desde el punto de vista de las aplicaciones f´ ısicas es una
propiedad importante, habr´ que pedir hip´tesis adicionales sobre la funci´n f (t, x) del segundo
                            a             o                               o√
miembro de la ecuaci´n que garanticen la unicidad. Observar que f (x) = x no es regular en
                     o
x = 0. En el pr´ximo cap´
                o        ıtulo estableceremos condiciones que aseguran unicidad de soluci´n.  o


                                           Ejercicios
     (1) Para cada una de las ecuaciones diferenciales que siguen, encontrar la soluci´n general
                                                                                         o
         y, en los casos que se indica, la soluci´n particular que satisfaga la condici´n dada:
                                                 o                                     o
                             1+x                             1 + x2
                   (a) x =                         (b) x =          ,   x(0) = 1
                             1+t                             1 + t2

                   (c) x − 2tx = t,    x(1) = 0    (d) x − tan t = cos t

                   (e) x − x1/3 = 0,    x(0) = 0
             En todos los casos dar el intervalo maximal de existencia de las soluciones y decir
         si son unicas.
                ´
     (2) Si y = y(t) denota el n´mero de habitantes de una poblaci´n en funci´n del tiempo,
                                   u                                    o          o
         se denomina tasa de crecimiento de la poblaci´n a la funci´n definida como el cociente
                                                          o           o
         y /y.
          (a) Caracterizar (encontrar la ecuaci´n) de las poblaciones con tasa de crecimiento
                                                  o
              constante.
          (b) Dibujar el gr´fico de y(t) para poblaciones con tasa de crecimiento constante,
                            a
              positiva y negativa.
          (c) ¿Cu´les son las poblaciones con tasa de crecimiento nula?
                  a
          (d) Una poblaci´n tiene tasa de crecimiento constante. El 1 de enero de 1992 ten´ 1000
                          o                                                                 ıa
              individuos, y cuatro meses despu´s ten´ 1020. Estimar el n´mero de individuos
                                                  e     ıa                    u
              que tendr´ el 1 de enero del a˜o 2010, usando los resultados anteriores.
                        a                     n
          (e) Caracterizar las poblaciones cuya tasa de crecimiento es una funci´n lineal de t
                                                                                     o
              (at + b).
          (f) Caracterizar las poblaciones cuya tasa de crecimiento es igual a r − cy, donde r
              y c son constantes positivas. Este es el llamado crecimiento log´   ıstico, en tanto
              que el correspondiente a tasas constantes es llamado crecimiento exponencial (por
              razones obvias ¿no?). Para poblaciones peque˜as, ambas formas de crecimiento
                                                                n
              son muy similares. Comprobar esta afirmaci´n y comprobar tambi´n que en el
                                                              o                       e
              crecimiento log´ıstico y(t) tiende asint´ticamente a la recta y = r/c.
                                                      o
EJERCICIOS                                       13

(3) Si un cultivo de bacterias crece con un coeficiente de variaci´n proporcional a la canti-
                                                                 o
    dad existente y se sabe adem´s que la poblaci´n se duplica en 1 hora ¿Cu´nto habr´
                                   a               o                            a         a
    aumentado en 2 horas?.
(4) Verifique que las siguientes ecuaciones son homog´neas de grado cero y resuelva:
                                                     e
                                                                x+t
   (a) tx = x + 2t exp(−x/t)      (b) txx = 2x2 − t2   (c) x =       , x(1) = 0
                                                                  t
(5) Demuestre que la sustituci´n y = at + bx + c cambia x = f (at + bx + c) en una ecuaci´n
                              o                                                          o
    con variables separables y aplique este m´todo para resolver las ecuaciones siguientes:
                                             e
                   (a) x = (x + t)2                         (b) x = sen2 (t − x + 1)

(6) (a) Si ae = bd demuestre que pueden elegirse constantes h, k de modo que las sustitu-
        ciones t = s − h, x = y − k reducen la ecuaci´n:
                                                     o
                                        dx             at + bx + c
                                           =F
                                        dt             dt + ex + f
         a una ecuaci´n homog´nea.
                     o         e
     (b) Resuelva las ecuaciones:
                             x+t+4                                            x+t+4
                     a) x =                                       b) x =
                             x+t−6                                            t−x−6
(7) Resuelva las ecuaciones siguientes:
    (a) (y − x3 )dx + (x + y 3 )dy = 0 (b) cos x cos2 y dx − 2sen x sen y cos y dy = 0

    (c) (3x2 − y 2 ) dy − 2xy dx = 0                (d) x dy = (x5 + x3 y 2 + y) dx

    (e) 3y dx + x dy = 0

(8) Si a, b : [x1 , x2 ]→R son continuas,
     (a) probar:
                                Rx
                            −        a(t)dt
            (i) y(x) = ke       x1             (k ∈ R) son todas las soluciones de
                                      y + a(x)y = 0 en [x1 , x2 ]
                                Rx              x           Rt
                            −         a(t)dt                     a(s)ds
           (ii) y(x) = −e        x1                 b(t)e   x1            dt es una soluci´n de
                                                                                          o
                                               x1

                                y + a(x)y + b(x) = 0 en [x1 , x2 ]

     (b) describir todas las soluciones de:
                                y + a(x)y + b(x) = 0 en [x1 , x2 ]

     (c) Comprobar que ∀y1 ∈ R existe una unica soluci´n de la ecuaci´n y +a(x)y+b(x) =
                                                  ´          o               o
         0 en [x1 , x2 ] tal que y(x1 ) = y1 , y que cualquier soluci´n de la ecuaci´n homog´nea
                                                                     o              o       e
         y + a(x)y = 0 que se anule en un punto x ∈ [x1 , x2 ] es id´nticamente nula.
                                                                         e
(9) Hallar la ecuaci´n de una curva tal que la pendiente de la recta tangente en un punto
                    o
    cualquiera es la mitad de la pendiente de la recta que une el punto con el origen.
14                                                     ´
                                          1. INTRODUCCION

     (10) Hallar la ecuaci´n de las curvas tales que la normal en un punto cualquiera pasa por el
                          o
          origen.
     (11) Demostrar que la curva para la cual la pendiente de la tangente en cualquier punto es
          proporcional a la abscisa del punto de contacto es una par´bola.
                                                                    a
     (12) (a) Hallar las soluciones de:
                                       i. y + y = sen x
                                      ii. y + y = 3 cos(2x)
          (b) Halle las soluciones de y + y = sen x + 3 cos(2x) cuya gr´fica pase por el origen
                                                                       a
              (Piense, y no haga cuentas de m´s).
                                             a
     (13) Dada la ecuaci´n no homog´nea y + a(x)y = b(x) donde a, b : R→R son continuas con
                         o           e
          per´ıodo p > 0 y b ≡ 0.
           (a) Pruebe que una soluci´n Φ de esta ecuaci´n verifica:
                                    o                  o
                           Φ(x + p) = Φ(x) ∀x ∈ R ⇔ Φ(0) = Φ(p)
          (b) Encuentre las soluciones de per´
                                             ıodo 2π para las ecuaciones:
                         y + 3y = cos x,           y + cos(x)y = sen(2x)

     (14) Suponga que el ritmo al que se enfr´ un cuerpo caliente es proporcional a la diferencia
                                              ıa
          de temperatura entre ´l y el ambiente que lo rodea (ley de enfriamiento de Newton). Un
                                e
          cuerpo se calienta 110 ◦ C y se expone al aire libre a una temperatura de 10 ◦ C. Al cabo
          de una hora su temperatura es de 60 ◦ C. ¿Cu´nto tiempo adicional debe transcurrir
                                                            a
          para que se enfr´ a 30 ◦ C?
                           ıe
     (15) Si la resistencia del aire que act´a sobre un cuerpo de masa m en ca´ libre ejerce una
                                            u                                  ıda
          fuerza retardadora sobre el mismo proporcional a la velocidad (= −kv) , la ecuaci´n  o
          diferencial del movimiento es:
                                  d2 y         dy          dv
                                       = g − c , o bien        = g − cv
                                  dt2          dt           dt
          donde c = k/m. Supongamos v = 0 en el instante t = 0, y c > 0. Encontrar limt→∞ v(t)
          (llamada velocidad terminal).
              Si la fuerza retardadora es proporcional al cuadrado de la velocidad, la ecuaci´n se
                                                                                             o
          convierte en:
                                              dv
                                                  = g − cv 2
                                              dt
          Si v(0) = 0, encuentre la velocidad terminal en este caso.
     (16) La ecuaci´n y +P (x)y = Q(x)y n , que se conoce como la ecuaci´n de Bernoulli, es lineal
                    o                                                     o
          cuando n = 0, 1. Demuestre que se puede reducir a una ecuaci´n lineal para cualquier
                                                                           o
          valor de n = 1 por el cambio de variable z = y 1−n , y aplique este m´todo para resolver
                                                                               e
          las ecuaciones siguientes:
                                     (a) xy + y = x4 y 3
                                     (b) xy 2 y + y 3 = x cos x
                                     (c) xy − 3y = x4
CAP´
                                            ıTULO 2


                       Existencia y unicidad de soluci´n
                                                      o

    En este cap´
               ıtulo daremos resultados de existencia y unicidad local de soluci´n para sistemas
                                                                                o
de 1er. orden de la forma
                                        X = F (t, X).
Necesitamos ciertas propiedades del campo F , a saber
              ´
    Definicion 2.1. Sea F (t, X) definida para t ∈ I y X ∈ Ω donde I es un intervalo de la recta
y Ω es un abierto de Rn . Decimos que F es Lipschitz en la variable X en I × Ω si F es continua
en las variables t y X en I × Ω y existe una constante L tal que para todo t ∈ I, X, Y ∈ Ω,
                                F (t, X) − F (t, Y ) ≤ L X − Y .


    Decimos que F es localmente Lipschitz en la variable X en I × Ω si para todo intervalo
cerrado y acotado J contenido en I y todo conjunto cerrado y acotado Ω contenido en Ω se
tiene que F es Lipschitz en J × Ω .
                ´
    Observacion 2.1. La condici´n de Lipschitz local dice que hay una constante como la L de
                                    o
arriba para cada subconjunto J × Ω como los descriptos, pero la constante puede ser distinta
para distintas elecciones de los conjuntos. Adem´s es esencial aqu´ que los conjuntos J y Ω sean
                                                a                 ı
acotados y est´n contenidos, junto con sus bordes, en I y Ω respectivamente .
               e


     Ejemplo 2.1. Sean I y Ω intervalos de la recta. Si f : I × Ω → R es continua y existe
fx (t, x) y es continua en I × Ω, se sigue que f es localmente Lipschitz en la variable x en I × Ω.

    En efecto, sea J un intervalo cerrado y acotado contenido en I y sea Ω un intervalo cerrado
y acotado contenido en el intervalo Ω. Sea L = max{|fx (t, x)| : t ∈ J , x ∈ Ω }. Si t ∈ J,
x, y ∈ Ω se tiene
                        |f (t, x) − f (t, y)| = |fx (t, θ) (x − y)| ≤ L |x − y|,
ya que θ es un punto en el intervalo de extremos x e y y por lo tanto pertenece al intervalo
Ω.
   Observacion 2.2. El ejemplo 2.1 se generaliza a Rn pero no haremos los detalles aqu´
            ´                                                                         ı.


     Ejemplo 2.2. Sea F (t, X) = A(t) X + b(t) con A(t) ∈ Rn×n y b(t) ∈ Rn . Si los coeficientes
aij (t) , bi (t) de la matriz A(t) y el vector b(t) son funciones continuas de la variable t en un
intervalo I se sigue que F es localmente Lipschitz en la variable X en I × Rn . Si el intervalo I
es cerrado y acotado, F es Lipschitz en la variable X en I × Rn .
                                                15
16                                                             ´
                             2. EXISTENCIA Y UNICIDAD DE SOLUCION

     En efecto, s´lo tenemos que ver esta ultima afirmaci´n. Sea K una constante mayor que
                  o                               ´             o
|aij (t)| para t ∈ I y para todo i, j = 1, . . . , n. Entonces,
                                                                         2
                                                                       n         n
                A(t)X − A(t)Y     2
                                      = A(t)(X − Y )           2
                                                                   =                  aij (t)(xj − yj )
                                                                       i=1       j=1
                                                 n
                                      ≤ Cn             |aij (t)|2 (xj − yj )2 ≤ Cn K 2 n X − Y              2
                                                                                                                .
                                               i,j=1

Por lo tanto A(t)X − A(t)Y ≤ L X − Y donde L2 = Cn K 2 n y se sigue que F (t, X) es
Lipschitz con constante L ya que F (t, X) − F (t, Y ) = A(t)X − A(t)Y .

    Estamos en condiciones de enunciar el teorema de existencia de soluci´n para un sistema de
                                                                         o
1er. orden.
    Teorema 2.1. Sean I un intervalo de la recta y Ω un abierto de Rn . Sea F (t, X) un campo
localmente Lipschitz en la variable X en I × Ω. Sean τ ∈ I y ξ ∈ Ω. Si τ es interior a I, existen
λ > 0 y una funci´n continuamente diferenciable X : [τ − λ, τ + λ] ⊂ I → Ω tales que
                 o
                        X (t) = F (t, X(t)),             para todo t ∈ [τ − λ, τ + λ],
                        X(τ ) = ξ.

    Si τ es el extremo izquierdo de I, existen λ > 0 y una funci´n continuamente diferenciable
                                                                o
X : [τ, τ + λ] ⊂ I → Ω tales que
                           X (t) = F (t, X(t)),             para todo t ∈ [τ, τ + λ],
                           X(τ ) = ξ.

     Se tiene el resultado an´logo si τ es el extremo derecho del intervalo I.
                             a
              ´
   Observacion 2.3. Este teorema no lo demostraremos con esta generalidad. Daremos la
demostraci´n de una versi´n muy simplificada para el caso de una ecuaci´n. A saber,
          o              o                                            o
    Teorema 2.2. Sea I un intervalo de la recta. Sea f (t, x) una funci´n Lipschitz en la variable
                                                                       o
x en I × R. Sean τ ∈ I, ξ ∈ R. Si τ es interior a I, existen λ > 0 y una funci´n continuamente
                                                                               o
diferenciable x : [τ − λ, τ + λ] ⊂ I → R tales que
                         x (t) = f (t, x(t)),          para todo t ∈ [τ − λ, τ + λ],
(2.1)
                         x(τ ) = ξ.

     Se tienen los resultados an´logos si τ es un extremo del intervalo I.
                                a

                  ´
    Demostracion. Supongamos que x(t) es una soluci´n del problema. Integrando la ecuaci´n
                                                          o                             o
diferencial a partir de τ y usando la condici´n inicial tenemos
                                             o

                                      t
(2.2)                x(t) = ξ +           f (s, x(s)) ds,          para t en [τ − λ, τ + λ].
                                  τ

    Rec´ıprocamente, si x(t) es una funci´n continua en [τ − λ, τ + λ] y es soluci´n de la ecuaci´n
                                         o                                        o              o
integral (2.2) se sigue que x es continuamente diferenciable y que x = f (t, x). Por otro lado,
evaluando en t = τ en la ecuaci´n integral (2.2) vemos que x(τ ) = ξ. Por lo tanto (2.2) es
                                  o
´
                                  2. EXISTENCIA Y UNICIDAD DE SOLUCION                                                                          17

equivalente a (2.1). El m´todo de construcci´n de una soluci´n ser´, por lo tanto, buscar una
                           e                    o              o     a
soluci´n de la ecuaci´n integral. Y ´sto lo haremos por un m´todo iterativo. A saber, definiremos
      o              o              e                       e
inductivamente
                                                   x0 (t) = ξ,
                                                                             t
                                                   x1 (t) = ξ +                  f (s, x0 (s)) ds,
                                                                         τ
e, inductivamente,
                                                                         t
(2.3)                                          xk (t) = ξ +                  f (s, xk−1 (s)) ds.
                                                                     τ

   Observemos que estas funciones est´n definidas en I.
                                     a
     Si probamos que la sucesi´n de funciones continuas xk (t) converge uniformemente en [τ −
                               o
λ, τ + λ] a una funci´n x(t) se tendr´, por un lado, que x(t) es continua en [τ − λ, τ + λ] y, por
                     o               a
el otro, que
                                               t                                        t
                                                   f (s, xk (s)) ds →                       f (s, x(s)) ds.
                                           τ                                        τ
Por lo tanto x ser´ una soluci´n continua de (2.2) y en consecuencia una soluci´n de (2.1).
                  a           o                                                o
    Veamos entonces que la sucesi´n de funciones as´ construida converge uniformemente en
                                    o                    ı
[τ − λ, τ + λ] para alg´n λ > 0. Para eso, veamos que existe λ > 0 tal que la sucesi´n es
                        u                                                             o
uniformemente de Cauchy en [τ − λ, τ + λ]. Esto significa que satisface que para todo ε > 0,
existe k0 tal que para todo t ∈ [τ − λ, τ + λ] y k, j ≥ k0 ,
                                                         |xk (t) − xj (t)| < ε.

   Con este fin acotaremos primero las diferencias de dos t´rminos consecutivos. Para esto
                                                            e
necesitaremos utilizar la condici´n de Lipschitz en la variable x de f en I × R. Sea L la
                                 o
constante de Lipschtiz, entonces como
                                                                             t
                                           xk+1 (t) = ξ +                        f (s, xk (s)) ds,
                                                                         τ
                                                                             t
                                                   xk (t) = ξ +                  f (s, xk−1 (s)) ds,
                                                                         τ
restando ambas ecuaciones vemos que
                                                               t
                          xk+1 (t) − xk (t) =                      [f (s, xk (s)) − f (s, xk−1 (s))] ds.
                                                           τ
De aqu´ que, para t ≥ τ ,
      ı
                                      t                                                                           t
          |xk+1 (t) − xk (t)| ≤           |f (s, xk (s)) − f (s, xk−1 (s))| ds ≤ L                                    |xk (s) − xk−1 (s)| ds.
                                  τ                                                                           τ

                       1
   Sea ahora λ ≤         tal que Iλ := [τ − λ, τ + λ] ⊂ I. Entonces,
                      2L
        max{|xk+1 (t) − xk (t)| , t ∈ [τ, τ + λ]} ≤ L |t − τ | max{|xk (t) − xk−1 (t)| , t ∈ [τ, τ + λ]}
                    1
                ≤ max{|xk (t) − xk−1 (t)| , t ∈ [τ, τ + λ]}.
                    2
18                                                                   ´
                                   2. EXISTENCIA Y UNICIDAD DE SOLUCION

     A una desigualdad an´loga se llega en el intervalo [τ − λ, τ ].
                         a
     Llamemos ahora mk = max{|xk (t) − xk−1 (t)| , t ∈ Iλ }. Tenemos entonces,
                                                         1
                                                   mk+1 ≤ mk .
                                                         2
     Iterando esta desigualdad, obtenemos
                                                               1
                                                   mk ≤           m1 .
                                                             2k−1
     Finalmente, si j = k + m,
                                                                   m−1
                 |xk (t) − xj (t)| = |xk (t) − xk+m (t)| = |             (xk+i (t) − xk+i+1 (t))|
                                                                   i=0
                                        m−1                     m−1                     m−1
                                                                         1         m1         1     m1
                                    ≤         mk+i+1 ≤ m1                      =                i
                                                                                                  ≤ k−1 .
                                                                      2k+i         2k         2    2
                                        i=0                     i=0                     i=0
                                                         m1
Por lo tanto, dado ε > 0 si j, k ≥ k0 donde             k0 −1
                                                                < ε se tiene para t ∈ [τ − λ, τ + λ],
                                                       2

                                                 |xj (t) − xk (t)| < ε.

   Claramente, de la demostraci´n se ve que si τ es el extremo izquiedo de I y λ ≤ 1/2L es tal
                                   o
que [τ, τ + λ] ⊂ I, se tiene una soluci´n en el intervalo [τ, τ + λ].
                                       o
   An´logamente, si τ es el extremo derecho de I y λ ≤ 1/2L es tal que [τ − λ, τ ] ⊂ I, se tiene
      a
una soluci´n en el intervalo [τ − λ, τ ].
          o



    Antes de discutir cu´l es el mayor intervalo que contiene a τ donde hay definida una soluci´n
                        a                                                                     o
del problema, veamos un resultado de continuidad de las soluciones respecto del dato inicial que
implicar´ la unicidad de soluci´n.
        a                        o
     Teorema 2.3. Sean I y f como en el Teorema 2.2. Sean τ ∈ I y ξ1 , ξ2 ∈ R.
     Sean x1 , x2 : [τ, η] ⊂ I → R soluciones de
(2.4)                                         x = f (t, x)       en [τ, η],
con xi (τ ) = ξi , i = 1, 2.
     Existe una constante C(η) dependiente de η tal que
(2.5)                          |x1 (t) − x2 (t)| ≤ C(η) |ξ1 − ξ2 |           para t ∈ [τ, η].

     Se tiene el mismo resultado si x1 , x2 : [η, τ ] ⊂ I → R son soluciones de
                                              x = f (t, x)        en [η, τ ],
con xi (τ ) = ξi , i = 1, 2.
´
                                   2. EXISTENCIA Y UNICIDAD DE SOLUCION                                     19

                ´
    Demostracion. Lo demostraremos en el caso que η > τ . La demostraci´n del otro caso es
                                                                       o
enteramente an´loga.
              a
     Sea L la constante de Lipschitz de f en I × R. Integrando la ecuaci´n (2.4) para x1 de τ a
                                                                        o
t, tenemos
                                                             t
                                         x1 (t) = ξ1 +            f (s, x1 (s)) ds.
                                                         τ
An´logamente, integrando (2.4) para x2 obtenemos
  a
                                                             t
                                         x2 (t) = ξ2 +            f (s, x2 (s)) ds.
                                                         τ
Restando ambas ecuaciones
                                                             t
                          x1 (t) − x2 (t) = ξ1 − ξ2 +            [f (s, x1 (s)) − f (s, x2 (s))] ds
                                                         τ
y por lo tanto,
                                                                                t
(2.6)                        |x1 (t) − x2 (t)| ≤ |ξ1 − ξ2 | + L                     |x1 (s) − x2 (s)| ds.
                                                                            τ

   Para obtener de (2.6) una desigualdad para |x1 (t) − x2 (t)| usaremos el
   Lema 2.1 (de Gronwall). Sea g ≥ 0 continua en un intervalo que contiene a τ . Si
                                                                        t
(2.7)                                      g(t) ≤ A + B                     g(s) ds ,
                                                                    τ
se sigue que
                                                 g(t) ≤ AeB|t−τ | .


   Suponiendo probado el Lema de Gronwall, podemos aplicarlo con g(t) = |x1 (t) − x2 (t)| y
obtenemos

                  |x1 (t) − x2 (t)| ≤ |ξ1 − ξ2 |eL(t−τ ) ≤ C(η) |ξ1 − ξ2 | si t ∈ [τ, η].
donde C(η) = eL(η−τ ) .

   Probemos ahora el Lema de Gronwall.

                  ´
    Demostracion del Lema de Gronwall. Lo haremos en el caso t ≥ τ . La demostraci´n
                                                                                  o
en el otro caso es totalmente an´loga.
                                a
                      t
   Sea G(t) =             g(s) ds. Entonces (2.7) nos dice que
                  τ
                                              G (t) ≤ A + B G(t).
O, lo que es lo mismo,
                                              G (t) − B G(t) ≤ A.
   Multipliquemos la inecuaci´n por e−B(t−τ ) . Tenemos
                             o
                          e−B(t−τ ) G(t) = e−B(t−τ ) G (t) − B G(t) ≤ A e−B(t−τ ) .
20                                                               ´
                               2. EXISTENCIA Y UNICIDAD DE SOLUCION

     Integrando de τ a t y usando que G(τ ) = 0, tenemos
                                                t
                                                                           A −B(t−τ )
                      e−B(t−τ ) G(t) ≤ A            e−B(s−τ ) ds = −         e        −1 ,
                                            τ                              B
     De aqu´ que
           ı
                                                     A B(t−τ )
                                        G(t) ≤         e       −1 .
                                                     B
     Como la desigualdad (2.7) dice que
                                           g(t) ≤ A + B G(t),
se sigue que
                                                A B(t−τ )
                              g(t) ≤ A + B        e       − 1 = AeB(t−τ ) .
                                                B
que es lo que quer´
                  ıamos demostrar.

     Como corolario del Teorema 2.3 se obtiene el resultado de unicidad. A saber,
    Teorema 2.4. Sean I y f como en el Teorema 2.2. Sean τ ∈ I y ξ ∈ R. Sean τ ∈ J1 ⊂ I,
τ ∈ J2 ⊂ I y xi : Ji → R para i = 1, 2 tales que
                                          xi = f (t, xi )        en Ji ,
                                          xi (τ ) = ξ.

     Entonces, x1 (t) = x2 (t) si t ∈ J1 ∩ J2 .

                  ´
    Demostracion. Sea τ ∈ [t1 , t2 ] ⊂ J1 ∩ J2 . Probaremos que x1 = x2 en [t1 , t2 ]. Como el
intervalo es arbitrario, se sigue que x1 = x2 en J1 ∩ J2 .
   Probamos primero que x1 = x2 en [τ, t2 ]. (Podr´
                                                  ıamos tener τ = t1 y no habr´ que probar
                                                                              ıa
nada m´s). En efecto, por el Teorema 2.3 tenemos
      a
                            |x1 (t) − x2 (t)| ≤ C(t2 ) |ξ − ξ| = 0 en [τ, t2 ].

     An´logamente,
       a
                            |x1 (t) − x2 (t)| ≤ C(t1 ) |ξ − ξ| = 0 en [t1 , τ ].
     El teorema est´ demostrado.
                   a


               ´
    Observacion 2.4. Estos resultados de continuidad respecto de los datos iniciales y de uni-
cidad son v´lidos bajo las condiciones del Teorema 2.1. Pero no daremos sus demostraciones
           a
aqu´ aunque son enteramente similares a las demostraciones de los Teoremas 2.3 y 2.4.
    ı

              ´
    Observacion 2.5 (Prolongaci´n de soluciones). A partir del Teorema 2.4 vemos que si
                                  o
tenemos una soluci´n x1 del problema
                  o
                                                    x = f (t, x),
(2.8)
                                                    x(τ ) = ξ,
´
                             2. EXISTENCIA Y UNICIDAD DE SOLUCION                                  21

en un intervalo τ ∈ J1 ⊂ I y una soluci´n x2 del problema (2.8) en τ ∈ J2 ⊂ I, tenemos en
                                          o
realidad una soluci´n x de (2.8) en J1 ∪ J2 . En efecto, si definimos
                   o ¯
                                            x1 (t)       si t ∈ J1 ,
                                  x(t) =
                                  ¯
                                            x2 (t)       si t ∈ J2 ,
se tiene que x est´ bien definida en J1 ∪ J2 y es soluci´n de (2.8) ah´
             ¯    a                                    o             ı.

    Podemos por lo tanto definir la soluci´n maximal de (2.8). A saber, sea τ ∈ J ⊂ I el mayor
                                         o
intervalo donde hay definida una soluci´n, es decir
                                       o
      J = ∪{J : τ ∈ J y J es un intervalo en el que hay definida una soluci´n de (2.8)}.
                                                                          o
Entonces hay una soluci´n definida en J , esta soluci´n es unica y no es posible prolongarla a
                       o                             o     ´
un intervalo m´s grande que J . Esta es la llamada soluci´n maximal.
              a                                          o


               ´
   Observacion 2.6. Supongamos que f (t, x) es Lipschitz en la variable x en [t1 , t2 ] × R para
todo intervalo cerrado y acotado [t1 , t2 ] contenido en I. Veamos que la soluci´n maximal est´
                                                                                o              a
definida en todo I.
     En efecto, sea τ ∈ [t1 , t2 ] ⊂ I. Aplicando el Teorema 2.2 con I reemplazado por el intervalo
[τ, t2 ], la construcci´n nos da una soluci´n en todo [τ, t2 ] si t2 − τ ≤ 1/2L. Si no, obtenemos una
                       o                     o
soluci´n x1 en [τ, τ + 1/2L]. Consideremos ahora, para τ1 = τ + 1/2L el problema
         o
                                    x = f (t, x) en [τ1 , τ1 + λ],
                                    x(τ1 ) = x1 (τ1 ).

   Por el Teorema 2.2, si t2 − τ1 ≤ 1/2L, existe una soluci´n x2 en [τ1 , t2 ]. Esta soluci´n se
                                                            o                              o
pega bien con x1 en τ1 y por lo tanto obtenemos una soluci´n en [τ, t2 ].
                                                          o
    Si por el contrario, t2 − τ1 > 1/2L, existe una soluci´n x2 en [τ1 , τ1 + 1/2L], y por lo tanto
                                                          o
                                    1
tenemos una soluci´n en [τ, τ + 2 2L ].
                    o
                                                      1
    Siguiendo as´ como existe un k ∈ N tal que τ + k 2L > t2 , vemos que en un n´mero finito
                ı,                                                              u
de pasos debemos tener una soluci´n definida en todo [τ, t2 ].
                                 o
   An´logamente se ve que hay una soluci´n definida en [t1 , τ ].
     a                                  o
    Por lo tanto, hay una soluci´n definida en [t1 , t2 ]. De donde, la soluci´n maximal est´
                                o                                               o              a
definida ah´ Como el intervalo τ ∈ [t1 , t2 ] ⊂ I es arbitrario, se sigue que la soluci´n maximal
           ı.                                                                         o
est´ definida en todo I.
   a

                ´
    Observacion 2.7. Cuando la soluci´n maximal est´ definida en todo I, decimos que la
                                         o               a
soluci´n es global. Por la Observaci´n 2.6, vemos que bajo las condiciones del Teorema 2.2, la
      o                             o
soluci´n maximal es global. Este resultado tambi´n es cierto si, en el Teorema 2.2, en lugar de
      o                                           e
una funci´n f (t, x) tenemos un campo F (t, X) Lipschitz en la variable X en J × Rn para todo
          o
intervalo cerrado y acotado J ⊂ I. Es decir, el resultado de existencia global es v´lido para
                                                                                     a
sistemas de n ecuaciones con n inc´gnitas de la forma
                                   o
                                           X = F (t, X)

si F es Lipschitz en la variable X en J × Rn para todo intervalo cerrado y acotado J ⊂ I.
22                                                            ´
                            2. EXISTENCIA Y UNICIDAD DE SOLUCION

    En particular, las soluciones de un sistema lineal con coeficientes continuos en un intervalo
abierto I son globales, tanto en el caso homog´neo como no homog´neo. Enunciaremos este
                                                 e                     e
resultado para referencia posterior.

    Teorema 2.5. Sea I ⊂ R un intervalo abierto (posiblemente todo R). Sean aij (t), bi (t)
funciones continuas en I para i, j = 1, · · · , n. Sean τ ∈ I, ξ ∈ Rn . Existe entonces una unica
                                                                                            ´
soluci´n X = (x1 , · · · , xn ) de
      o
                                
                                 x1 = a11 x1 + a12 x2 + · · · + a1n xn + b1 ,
                                
                                
                                
                                 x = a21 x1 + a22 x2 + · · · + a2n xn + b2 ,
                                 2
(2.9)
                                .
                                .
                                .
                                
                                
                                
                                  xn = an1 x1 + an2 x2 + · · · + ann xn + bn ,
que satisface X(τ ) = ξ. Esta soluci´n est´ definida en todo el intervalo I.
                                    o     a

                ´
    Observacion 2.8. La condici´n de Lipschitcianidad global no puede relajarse a Lipschit-
                                  o
cianidad local. En efecto, como vimos en la introducci´n, la soluci´n del problema
                                                      o            o
                                             x = x2
                                             x(0) = 1
           1
es x(t) =     . Por lo tanto, el intervalo maximal de existencia para este problema es (−∞, 1),
         1−t
mientras que I = R; ya que, en este ejemplo, f (t, x) = x2 es localmente Lipschitz en la variable
x en R × R (pero no lo es globalmente).


                                           Ejercicios
     (1) Sea F : R → R una funci´n localmente Lipschitz. Probar que si x(t) es una soluci´n de
                                o                                                        o
                                         x (t) = F (x(t))
         que verifica x(t0 + T ) = x(t0 ) para alg´n t0 ∈ R entonces x(t) es una funci´n peri´dica
                                                 u                                   o      o
         de per´
               ıodo T .
     (2) Sea F : R → R una funci´n localmente Lipschitz. Verificar que si x1 (t) y x2 (t) son dos
                                      o
         soluciones de
                                             x (t) = F (x(t))
         tales que x1 (t1 ) = x2 (t2 ) para ciertos t1 , t2 ∈ R , entonces Im(x1 ) = Im(x2 ).
     (3) Sea F : R → R una funci´n localmente Lipschitz tal que F (p1 ) = F (p2 ) = 0 con
                                     o
         p1 < p2 . Probar que si x0 ∈ (p1 , p2 ), entonces la soluci´n de
                                                                    o
                                 x (t) = F (x(t)),      x(0) = x0
         est´ definida para todo t ∈ R.
            a
     (4) Sea F : R → R una funci´n localmente Lipschitz y sea x(t) una soluci´n de
                                o                                            o
                                         x (t) = F (x(t))
         tal que x(t) → x0 cuando t → +∞ . Probar que F (x0 ) = 0.
CAP´
                                              ıTULO 3


Sistemas lineales de 1er. orden y ecuaciones lineales de orden n

    En este cap´ıtulo estudiaremos el conjunto de soluciones de sistemas lineales de n ecuaciones
con n inc´gnitas. Probaremos, en el caso homog´neo, que el conjunto de soluciones es un espacio
         o                                      e
vectorial lo que nos dice c´mo ser´ la soluci´n general. Dada la relaci´n entre ecuaciones de
                            o      a          o                           o
orden n y sistemas de n ecuaciones, deduciremos resultados an´logos para el caso de ecuaciones.
                                                               a
Finalmente, daremos un m´todo para encontrar la soluci´n general de sistemas (resp. ecuaciones)
                           e                            o
no homog´neas a partir de la soluci´n general del sistema (resp. ecuaci´n) homog´neo asociado.
          e                         o                                  o           e


                          1. Generalidades y sistemas homog´neos
                                                           e

   Empecemos probando que el conjunto de soluciones de un sistema lineal homog´neo forma
                                                                              e
un espacio vectorial de dimensi´n n.
                               o
   Teorema 3.1. Sea I ⊂ R un intervalo abierto. Sean aij (t) funciones continuas en I.
Sea A(t) = (aij (t)) ∈ Rn×n . El conjunto de las soluciones del sistema lineal homog´neo de n
                                                                                    e
ecuaciones con n inc´gnitas
                     o
(3.1)                                       X = A(t)X
es un espacio vectorial de dimensi´n n.
                                  o

                  ´
    Demostracion. Recordemos que todas las soluciones est´n definidas en todo el intervalo I.
                                                              a
Por lo tanto, podemos sumarlas y multiplicarlas por escalares. Lo que tenemos que ver, para ver
que es un espacio vectorial, es que al sumar dos soluciones obtenemos otra soluci´n y lo mismo
                                                                                  o
sucede si multiplicamos una soluci´n por un escalar. Esto es consecuencia de la linealidad de la
                                   o
operaci´n de derivaci´n y de la funci´n A(t)X (en la variable X). En efecto, sean X1 y X2 dos
        o            o                o
soluciones y X = X1 + X2 es decir, X es la funci´n de I en Rn definida por X(t) = X1 (t) + X2 (t)
                                                o
para cada t ∈ I. Veamos que X es tambi´n soluci´n de (3.1). Tenemos,
                                          e       o
        X (t) = X1 (t) + X2 (t) = A(t)X1 (t) + A(t)X2 (t) = A(t)(X1 (t) + X2 (t)) = A(t)X(t).
Por lo tanto X satisface (3.1).
    Sea ahora c ∈ R y sea X = c X1 , entonces
                     X (t) = cX1 (t) = cA(t)X1 (t) = A(t)(cX1 (t)) = A(t)X(t).
y nuevamente obtenemos que X es soluci´n de (3.1).
                                      o
    Veamos ahora que hay una base del espacio de soluciones formada por exactamente n solu-
ciones. Para esto, aplicamos el Teorema 2.5 con τ ∈ I cualquiera fijo. Sean Xi , i = 1, . . . , n, las
soluciones maximales de (3.1) que verifican Xi (τ ) = ei , donde {e1 , . . . , en } es la base can´nica
                                                                                                 o
de Rn .
                                                  23
24          3. SISTEMAS LINEALES DE 1ER. ORDEN Y ECUACIONES LINEALES DE ORDEN n

    Obtenemos as´ n soluciones. Veamos que son linealmente independientes, ´sto es, que la
                 ı                                                          e
unica manera de obtener la funci´n 0 al hacer una combinaci´n lineal de estas soluciones es
´                                o                         o
tomando todos los coeficientes iguales a 0.
     Supongamos entonces que tenemos constantes c1 , . . . , cn tales que
(3.2)                       c1 X1 (t) + · · · + cn Xn (t) = 0 para todo t ∈ I.
Debemos probar que necesariamente c1 = c2 = · · · = cn = 0. En efecto, tomando t = τ en (3.2)
obtenemos
                                 c1 e1 + · · · + cn en = 0.
Como {e1 , . . . , en } son linealmente independientes, se sigue que necesariamente c1 = c2 = · · · =
cn = 0 como quer´     ıamos demostrar.
      Resta ver que {X1 , . . . , Xn } generan el espacio de soluciones de (3.1). Es decir, que toda
soluci´n puede escribirse como combinaci´n lineal de estas n soluciones. En efecto, sea X una
          o                                    o
soluci´n de (3.1) y sea ξ = X(τ ). Como {e1 , . . . , en } es una base de Rn , existen constantes
          o
c1 , . . . , cn tales que
                                          ξ = c1 e1 + · · · + cn en .
Construyamos ahora la siguiente funci´n: Y (t) = c1 X1 (t) + · · · + cn Xn (t) para t ∈ I. Entonces,
                                        o
como el conjunto de soluciones de (3.1) es un espacio vectorial, se sigue que Y es tambi´n una    e
soluci´n de (3.1). Pero, por la elecci´n de las constantes c1 , · · · , cn , se tiene que Y (τ ) = ξ. De
      o                               o
modo que tenemos dos soluciones de (3.1) con el mismo dato inicial ξ en t = τ . Por el teorema
de unicidad de soluci´n se sigue que X = Y . Recordando qui´n es Y vemos que
                     o                                           e
                          X(t) = c1 X1 (t) + · · · + cn Xn (t) para todo t ∈ I,
como quer´
         ıamos demostrar.

    Un resultado importante, del cu´l esencialmente ya probamos una parte en el teorema an-
                                   a
terior es el siguiente
                    ´
   Proposicion 3.1. Sean {X1 , . . . , Xn } soluciones de (3.1) y sea τ ∈ I cualquiera. Entonces
{X1 , . . . , Xn } son linealmente independientes como funciones de t en I si y s´lo si los vectores
                                                                                 o
{X1 (τ ), . . . , Xn (τ )} son linealmente independientes en Rn .

                        ´
   Demostracion. Como en la demostraci´n del Teorema 3.1 supongamos que los vectores
                                                   o
{X1 (τ ), . . . , Xn (τ )} son linealmente independientes en Rn .
      Veamos que las funciones {X1 , . . . , Xn } son linealmente independientes. En efecto, si c1 , . . . , cn
son constantes tales que la funci´n c1 X1 (t) + · · · + cn Xn (t) es la funci´n 0, veamos que c1 = c2 =
                                  o                                          o
· · · = cn = 0. En efecto, evaluando en t = τ vemos que
                                      c1 X1 (τ ) + · · · + cn Xn (τ ) = 0
y como {X1 (τ ), . . . , Xn (τ )} son linealmente independientes en Rn , se sigue que c1 = c2 = · · · =
cn = 0.
    Rec´
       ıprocamente, supongamos que las soluciones {X1 , . . . , Xn } son linealmente independi-
entes y veamos que los vectores {X1 (τ ), . . . , Xn (τ )} tambi´n lo son. En efecto, supongamos
                                                                e
que
                               c1 X1 (τ ) + · · · + cn Xn (τ ) = 0.
´
                           1. GENERALIDADES Y SISTEMAS HOMOGENEOS                                    25

Sea Y (t) = c1 X1 (t) + · · · + cn Xn (t) para t ∈ I. Entonces, Y es una soluci´n de (3.1) con dato
                                                                               o
inicial Y (τ ) = 0. Por el teorema de unicidad de soluci´n se sigue que Y = 0. Esto es,
                                                          o
                          c1 X1 (t) + · · · + cn Xn (t) = 0 para todo t ∈ I.
Como las funciones {X1 , . . . , Xn } son linealmente independientes obtenemos que necesariamente
c1 = c2 = · · · = cn = 0 como quer´   ıamos demostrar.


    Tenemos inmediatamente el siguiente corolario
    Corolario 3.1. Sean {X1 , . . . , Xn } soluciones de (3.1) y sea τ, η ∈ I cualesquiera. En-
tonces los vectores {X1 (τ ), . . . , Xn (τ )} son linealmente independientes si y s´lo si los vectores
                                                                                    o
{X1 (η), . . . , Xn (η)} lo son.


              ´
     Observacion 3.1. Sea {X1 , . . . , Xn } una base de soluciones de (3.1). Construyamos una
matriz ubicando a estos vectores como columnas y llam´mosla Q(t). A una matriz de este tipo
                                                         e
la llamamos matriz fundamental. Es f´cil ver que
                                        a
                                Q (t) = A(t)Q(t) para todo t ∈ I.
ya que las columnas de A(t)Q(t) son los vectores A(t)Xj (t).
    Como el determinante de una matriz es no nulo si y s´lo si sus columnas son linealmente
                                                        o
independientes, el Corolario 3.1 dice que
              det Q(τ ) = 0 para un τ ∈ I si y s´lo si det Q(t) = 0 para todo t ∈ I.
                                                o

   Observemos adem´s que como toda soluci´n de (3.1) es combinaci´n lineal de las columnas
                      a                       o                  o
de Q, se sigue que toda soluci´n es de la forma
                              o
                                                            
                                                             c1
                                                           .
                        X(t) = Q(t)C para alg´n vector C =  .  .
                                                u             .
                                                             cn

    Observemos por otro lado, que dada una matriz U (t) ∈ Rn×n cualquiera (es decir, si no
pedimos que las columnas sean soluci´n de un mismo sistema lineal homog´neo), no tiene por
                                      o                                      e
qu´ ser cierto que el determinante es distinto de cero en un punto si y s´lo si lo es en todos los
  e                                                                      o
puntos. Por ejemplo, si
                                                  t 0
                                        U (t) =         ,
                                                  0 t
se tiene que det U (0) = 0 y det U (1) = 1,

    A partir de los resultados anteriores sobre el conjunto de soluciones de sistemas lineales, y
dada la equivalencia de una ecuaci´n de orden n con un sistema de primer orden de n ecuaciones
                                  o
con n inc´gnitas, obtenemos resultados sobre el conjunto de soluciones de una ecuaci´n lineal
         o                                                                              o
de orden n. En efecto,
    Consideremos la ecuaci´n
                          o
(3.3)         x(n) + an−1 (t)x(n−1) + an−2 (t)x(n−2) + · · · + a1 (t)x + a0 (t)x = f (t).
26          3. SISTEMAS LINEALES DE 1ER. ORDEN Y ECUACIONES LINEALES DE ORDEN n

    Como vimos en la introducci´n, si x es soluci´n de (3.3) se sigue que X = (x, x , x , . . . , x(n−1) )
                                 o               o
es soluci´n del sistema
         o
                     
                      x0 = x1 ,
                     
                     
                     x = x ,
                      1
                            2
                     
                     
(3.4)                  .
                       .
                     .
                     
                     
                     x
                      n−2 = xn−1 ,
                     
                     
                     
                       xn−1 = −a0 (t)x0 − a1 (t)x1 − · · · − an−1 (t)xn−1 + f (t).

     Rec´ıprocamente, sea X = (x0 , x1 , · · · , xn−1 ) una soluci´n de (3.4), entonces la funci´n x(t) =
                                                                  o                             o
x0 (t) es soluci´n de (3.3). En efecto, la primer ecuaci´n del sistema (3.4) dice que x1 = x , la
                o                                             o
segunda dice que x2 = x1 = x . La tercera dice que x3 = x2 = x . Y as´ hasta la pen´ltima
                                                                                    ı              u
que dice que xn−1 = xn−2 = x(n−1) . Finalmente, con esta informaci´n la ultima ecuaci´n dice
                                                                              o     ´             o
que
            x(n) = xn−1 = −a0 (t)x0 − a1 (t)x1 − · · · − an−1 (t)xn−1 + f (t)
                      = −an−1 (t)x(n−1) − an−2 (t)x(n−2) − · · · − a1 (t)x − a0 (t)x + f (t).

     Es decir, x es soluci´n de (3.3).
                          o
     Se tiene, por lo tanto, el siguiente resultado

     Teorema 3.2.
      (1) Sea I un intervalo abierto de la recta y sea τ ∈ I. Sean ai (t), i = 1, . . . , n − 1 y f (t)
          funciones continuas en I. Para cada n-upla (y0 , y1 , . . . , yn−1 ) existe una unica soluci´n
                                                                                          ´           o
          de (3.3) que satisface
                       x(τ ) = y0 , x (τ ) = y1 , x (τ ) = y2 , · · · x(n−1) (τ ) = yn−1 .
              Adem´s la soluci´n est´ definida en todo el intervalo I.
                  a           o     a
      (2) Sea I un intervalo abierto de la recta y sean ai (t), i = 1, . . . , n − 1 funciones continuas
          en I. El conjunto de soluciones de (3.3) cuando f = 0 – es decir en el caso de la
          ecuaci´n lineal homog´nea de orden n – es un espacio vectorial de dimensi´n n.
                o               e                                                            o
      (3) Bajo las mismas hip´tesis que en (2), un conjunto {x1 , . . . , xn } de soluciones de (3.3)
                                      o
          es linealmente independiente – y por ende una base de soluciones – si y s´lo si
                                                                                        o
                                                                                   
                                                   x1 (τ ) x2 (τ ) ···     xn (τ )
                                                  x1 (τ ) x2 (τ ) ···     xn (τ ) 
                                                                                   
                                                  x1 (τ ) x2 (τ ) ···     xn (τ )  = 0
            W (x1 , x2 , . . . , xn )(τ ) := det                                   
                                                    .
                                                     .        .
                                                              .    ..          .
                                                                               .    
                                                    .        .       .        .    
                                                 (n−1)         (n−1)                 (n−1)
                                                x1       (τ ) x2       (τ ) · · ·   xn       (τ )
          W (x1 , x2 , . . . , xn ) se llama el Wronskiano de las soluciones x1 , . . . , xn y, dado un con-
          junto de soluciones de la ecuaci´n lineal (3.3) en el caso homog´neo f = 0, se tiene que
                                                 o                               e
          W (x1 , x2 , . . . , xn )(τ ) = 0 para alg´n τ ∈ I si y s´lo si W (x1 , x2 , . . . , xn )(t) = 0 para
                                                    u              o
          todo t ∈ I.
´
                             1. GENERALIDADES Y SISTEMAS HOMOGENEOS                                       27

                  ´
    Demostracion. Probemos (1). Veamos primero la existencia de soluci´n para cada n-upla
                                                                      o
de datos iniciales.
     Sea ξ = (y0 , y1 , . . . , yn−1 ) y sea X = (x0 , x1 , . . . , xn−1 ) la soluci´n de (3.4) con dato ini-
                                                                                    o
cial X(τ ) = ξ. Como vimos antes, x = x0 es soluci´n de (3.3) y adem´s x = x1 , , x =
                                                                     o                     a
x2 , , . . . , x(n−1) = xn−1 . Por lo tanto, x(τ ) = y0 , x (τ ) = y1 , . . . , x(n−1) (τ ) = yn−1 . Y por lo
tanto existe soluci´n, como quer´
                       o                ıamos demostrar.
    Probemos ahora la unicidad de soluci´n. En efecto, si x y x son dos soluciones de (3.3) con
                                               o                           ˜
los mismos datos iniciales en t = τ , veamos que son iguales.
                                            ˜                                              ˜
    Sean X = (x, x , x , . . . , x(n−1) ) y X = (˜, x , x , . . . , x(n−1) ). Entonces X y X son soluciones
                                                 x ˜ ˜              ˜
                   ˜
de (3.4) y X(τ ) = X(τ ). Por el teorema de unicidad de soluci´n, se sigue que X(t) = X(t) para
                                                                         o                        ˜
todo t ∈ I. En particular, x(t) = x(t) para todo t ∈ I, como afirmamos.
                                       ˜

    Probemos (2). Recordemos que en este caso f = 0. Por lo tanto se trata de una ecuaci´no
homog´nea y el sistema lineal equivalente tambi´n es homog´neo. Es f´cil ver que el conjunto
       e                                       e          e         a
de soluciones es un espacio vectorial.
    Para ver que el espacio vectorial de soluciones tiene dimensi´n n, basta demostrar que hay
                                                                      o
n soluciones x 1 , x2 , . . . , xn linealmente independientes tales que cualquier soluci´n se expresa
                                                                                           o
en la forma x = c1 x1 + c2 x2 + · · · + cn xn para alguna elecci´n de constantes c1 , . . . , cn . Veamos
                                                                 o
entonces que ´sto es as´
             e               ı.
    Fijemos τ ∈ I. Para cada i = 1, . . . , n, sea Xi = (xi , xi , . . . , xi ) la soluci´n de (3.4) con
                                                             0 1            n−1          o
Xi (τ ) = ei donde {e1 , . . . , en } es la base can´nica de Rn . Sabemos que {X1 , . . . , Xn } es una
                                                    o
base del conjunto de soluciones de (3.4).
    Sea ahora x una soluci´n de (3.3) y llamemos X = (x, x , x , . . . , x(n−1) ). Como X es soluci´n
                          o                                                                        o
de (3.4), existen constantes c1 , . . . , cn tales que X = c1 X1 + · · · + cn Xn , en particular
                                     x = c1 x1 + c2 x2 + · · · + cn xn .
                                             0       0               0
con x1 , . . . , xn soluciones de (3.3).
     0            0
   Veamos que las soluciones {x1 , . . . , xn } son linealmente independientes. En efecto, si tuvi´-
                                0           0                                                     e
ramos
                             x = c1 x1 + c2 x2 + · · · + cn xn = 0,
                                          0       0            0
tendr´
     ıamos
                     x = c1 (x1 ) + c2 (x2 ) + · · · + cn (xn ) = 0,
                              0               0              0
                         x = c1 (x1 ) + c2 (x2 ) + · · · + cn (xn ) = 0,
                                  0          0                  0
                           .
                           .
                           .
                     x(n−1) = c1 (x1 )(n−1) + c2 (x2 )(n−1) + · · · + cn (xn )(n−1) = 0.
                                   0               0                       0

    Como el sistema (3.4) dice que (xi )(k) = xi , se sigue que
                                     0         k

                    X := (x, x , x , . . . , x(n−1) ) = c1 X1 + c2 X2 + · · · + cn Xn = 0
y como {X1 , . . . , Xn } son linealmente independientes,
                                           c1 = c2 = · · · = cn = 0.
Con lo cual hemos demostrado el punto (2).
28          3. SISTEMAS LINEALES DE 1ER. ORDEN Y ECUACIONES LINEALES DE ORDEN n

    Finalmente, probemos el punto (3). Sean {x1 , x2 , . . . , xn } soluciones de (3.3). Veamos que
son linealmente independientes si y s´lo si {X1 , X2 , . . . , Xn } lo son, donde
                                     o
                                                                    (n−1)
(3.5)                                 Xi = (xi , xi , xi , . . . , xi       )
es soluci´n del sistema equivalente (3.4). En efecto, supongamos que {X1 , X2 , . . . , Xn } son
         o
linealmente independientes, y que se tiene para ciertas constantes
                                     c1 x1 + c2 x2 + · · · + cn xn = 0
y veamos que c1 = c2 = · · · = cn = 0. En efecto, como en la demostraci´n del punto (2), si
                                                                             o
llamamos x = c1 x1 + c2 x2 + · · · + cn xn vemos, derivando sucesivamente, que
                               x = c1 x1 + c2 x2 + · · · + cn xn = 0,
                                .
                                .
                                .
                                        (n−1)          (n−1)
                          x(n−1) = c1 x1        + c2 x2        + · · · + cn x(n−1) = 0.
                                                                             n

    Por lo tanto, c1 X1 + c2 X2 + · · · + cn Xn = 0. Como {X1 , X2 , . . . , Xn } son linealmente
independientes, se sigue que c1 = c2 = · · · = cn = 0.
    Supongamos ahora que {x1 , x2 , . . . , xn } son linealmente independientes, y que se tiene para
ciertas constantes
(3.6)                             X = c1 X1 + c2 X2 + · · · + cn Xn = 0
y veamos que c1 = c2 = · · · = cn = 0. En efecto, se sigue de (3.6), mirando la primer entrada
del vector X, que
                                 c1 x1 + c2 x2 + · · · + cn xn = 0.

     Como {x1 , x2 , . . . , xn } son linealmente independientes, se sigue que c1 = c2 = · · · = cn = 0.
    Ahora, recordemos que un conjunto de n soluciones de un sistema lineal homog´neo de n
                                                                                      e
ecuaciones con n inc´gnitas es linealmente independiente si y s´lo si, para la matriz Q(t) cuyas
                    o                                          o
columnas son las n soluciones del sistema, se tiene
                                   det Q(τ ) = 0 para alg´n τ ∈ I.
                                                         u
y que
              det Q(τ ) = 0 para alg´n τ ∈ I si y s´lo si det Q(t) = 0 para todo t ∈ I.
                                    u              o

    Como en nuestro caso, las soluciones {X1 , . . . , Xn }        del sistema (3.4) vienen dadas por (3.5),
la matriz Q(τ ) resulta
                                                                                         
                                    x1 (τ )     x2 (τ )            ···          xn (τ )
                                 x1 (τ )       x2 (τ )            ···          xn (τ )
                                                                                      
                                 x1 (τ )       x2 (τ )            ···          xn (τ )
                        Q(τ ) =                                                       .
                                      .
                                       .           .
                                                   .               ..              .
                                                                                   .   
                                      .           .                  .            .   
                                   (n−1)       (n−1)                         (n−1)
                                  x1     (τ ) x2       (τ )        ···      xn     (τ )

     Por lo que det(Q(τ )) = W (x1 , x2 , . . . , xn )(τ ) y se tiene lo enunciado en el punto (3).
´
                                    2. SISTEMAS NO HOMOGENEOS                                29

                                 2. Sistemas no homog´neos
                                                     e

    Analizaremos ahora el caso de sistemas lineales no homog´neos y veremos un m´todo – el
                                                            e                     e
m´todo de variaci´n de par´metros o de constantes – que nos permite hallar las soluciones de
  e               o        a
un sistema lineal no homog´neo si conocemos una base del conjunto de soluciones del sistema
                           e
homog´neo asociado.
       e
   Teorema 3.3. La soluci´n general del sistema lineal (2.9) tiene la siguiente forma
                         o
(3.7)                                 X(t) = Xp (t) + XH (t)
donde Xp es una soluci´n particular del sistema (2.9) y XH es la soluci´n general del sistema
                       o                                               o
lineal homog´neo asociado, es decir, de (2.9) pero con bi = 0.
            e

                ´
   Demostracion. Sea Xp una soluci´n particular de (2.9) y sea X otra soluci´n. Sea Y =
                                         o                                           o
X − Xp . Entonces, si A = (aij ) es la matriz asociada al sistema (2.9) se sigue que
           Y = X − Xp = A(t)X + b(t) − A(t)Xp + b(t) = A(t)(X − Xp ) = A(t)Y.
Por lo tanto, Y es una soluci´n del sistema homog´neo asociado. Es decir, una soluci´n de
                             o                   e                                  o
(3.8)                                        Y = A(t)Y.

   Sea ahora X = Xp + Y donde Y es una soluci´n de (3.8), entonces
                                             o
        X = Xp + Y = A(t)Xp + b(t) + A(t)Y (t) = A(t)(Xp + Y ) + b(t) = A(t)X + b(t).
Es decir, X es soluci´n de (2.9).
                     o

   Veamos ahora el m´todo de variaci´n de constantes.
                    e               o
     Teorema 3.4. Sea A(t) ∈ Rn×n continua en un intervalo abierto I. Sea {X1 , · · · , Xn }
una base del conjunto de soluciones de (3.8). Sea b(t) ∈ Rn continuo en I. Existen funciones
c1 (t), · · · , cn (t) continuamente diferenciables en I tales que
                              Xp (t) = c1 (t)X1 (t) + · · · + cn (t)Xn (t)
es una soluci´n particular del sistema X = A(t)X + b(t). M´s precisamente, las funciones ci (t)
             o                                                  a
son primitivas de las soluciones ci (t) del sistema lineal de ecuaciones (para cada t)
                                                     
                                               c1 (t)
                                                     
                                             c2 (t) 
                                                     
                                       Q(t)  .        = b(t),
                                            . .      
                                                     
                                               cn (t)
donde Q(t) es la matriz formada por los vectores Xj (t) puestos como columnas.

                ´
   Demostracion. Recordemos que en la observaci´n 3.1 vimos que si tomamos la matriz
                                                      o
Q(t) cuyas columnas son los vectores Xj (t) – llamada matriz fundamental – se tiene
                                          Q (t) = A(t)Q(t)
y la soluci´n general del sistema (3.8) es
           o
                                          XH (t) = Q(t)C,
30          3. SISTEMAS LINEALES DE 1ER. ORDEN Y ECUACIONES LINEALES DE ORDEN n

donde C es un vector constante. (Esto es exactamente decir que XH (t) = c1 X1 (t)+· · ·+cn Xn (t)).
Por lo tanto, lo que se est´ proponiendo es tomar
                           a
                                          Xp (t) = Q(t)C(t),
donde ahora reemplazamos el vector constante C por un vector cuyas componentes son funciones
continuamente diferenciables en I.
    Para ver que de esta manera podemos hallar una soluci´n de X = A(t)X +b(t), simplemente
                                                         o
derivamos y vemos qu´ tiene que satisfacer C(t). Por la regla de derivaci´n del producto (que
                       e                                                 o
sigue valiendo en este caso de producto de una matriz por un vector),
                    Xp (t) = Q (t)C(t) + Q(t)C (t) = A(t)Q(t)C(t) + Q(t)C (t)
                           = A(t)Xp (t) + Q(t)C (t) = A(t)Xp (t) + b(t),
si
(3.9)                                      Q(t)C (t) = b(t).

    Recordemos que det Q(t) = 0 para todo t ∈ I por ser una matriz fundamental (ver Obser-
vaci´n 3.1). Podemos por lo tanto invertir la matriz Q(t) y obtenemos
    o
(3.10)                                   C (t) = Q(t)−1 b(t).

   De esta manera obtenemos funciones continuas – las componentes del vector Q(t)−1 b(t) –
que deber´ ser las componentes del vector C (t) para que Xp sea una soluci´n del sistema no
         ıan                                                              o
homog´neo X = A(t)X + b(t).
      e
    Lo unico que resta ahora para encontrar las funciones ci (t) (componentes del vector C) es
       ´
integrar componente a componente (3.10) para obtener funciones continuamente diferenciables
en I.
    Observemos que al integrar uno tiene constantes de integraci´n arbitrarias. Podemos sim-
                                                                  o
plemente tomarlas igual a 0 para obtener una soluci´n particular. Si las dejamos en la expresi´n
                                                    o                                         o
de las funciones ci (t) obtenemos directamente la soluci´n general del sistema no homog´neo ya
                                                        o                                e
         e                     ¯
que el t´rmino adicional Q(t)C que obtenemos es la soluci´n general del sistema homog´neo
                                                             o                              e
asociado.

   Veremos ejemplos de aplicaci´n de este m´todo al final del cap´
                                     o               e                     ıtulo siguiente donde aprende-
remos a hallar la soluci´n general de sistemas lineales homog´neos con coeficientes constantes.
                             o                                         e
En la pr´ctica lo que se hace es plantear (3.9) – que es, para cada t, un sistema lineal de
        a
ecuaciones con inc´gnitas c1 (t), · · · , cn (t) –, resolver el sistema y finalmente integrar el resultado
                   o
para obtener c1 (t), · · · , cn (t).


    Veamos ahora c´mo se aplica el m´todo de variaci´n de par´metros para resolver ecuaciones
                   o                e               o        a
lineales no homog´neas de orden n.
                 e
     Consideremos la ecuaci´n
                           o
(3.11)         x(n) + an−1 (t)x(n−1) + an−2 (t)x(n−2) + · · · + a1 (t)x + a0 (t)x = f (t)
y supongamos que tenemos una base {x1 , . . . , xn } de soluciones de la ecuaci´n homog´nea aso-
                                                                               o       e
ciada.
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi
Introduccion a las ecuaciones diferenciales ordinarias   wolanski noemi

More Related Content

What's hot

Trabajo de exposicion
Trabajo de exposicionTrabajo de exposicion
Trabajo de exposicionDey Sisita
 
Metodo elementos-finitos
Metodo elementos-finitosMetodo elementos-finitos
Metodo elementos-finitosmetodo2016
 
Exposición elementos finitos Guerrero Alex Robalino Danny
Exposición elementos finitos Guerrero Alex Robalino DannyExposición elementos finitos Guerrero Alex Robalino Danny
Exposición elementos finitos Guerrero Alex Robalino DannyEstudiante Universitario
 
Ecuaciones diferenciales-ordinarias
Ecuaciones diferenciales-ordinariasEcuaciones diferenciales-ordinarias
Ecuaciones diferenciales-ordinariasjhonathan
 
DERIVACIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES PARCIALES
DERIVACIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES PARCIALESDERIVACIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES PARCIALES
DERIVACIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES PARCIALESJaime Martínez Verdú
 
Método de elementos finitos introduccion e historia
Método de elementos finitos introduccion e historiaMétodo de elementos finitos introduccion e historia
Método de elementos finitos introduccion e historiaJairo Cayambe
 
Anal estr teoría-tema-1
Anal estr teoría-tema-1Anal estr teoría-tema-1
Anal estr teoría-tema-1Luis Rojas
 
Presentacion del metodo del elemento finito
Presentacion del metodo del elemento finitoPresentacion del metodo del elemento finito
Presentacion del metodo del elemento finitoSocrates Jalire
 
Trabajo de exposicion computacion aplicada
Trabajo de exposicion computacion aplicadaTrabajo de exposicion computacion aplicada
Trabajo de exposicion computacion aplicadadnicrap
 
Calculo de variaciones
Calculo de variaciones Calculo de variaciones
Calculo de variaciones Danny Ramírez
 
Transformadas de laplace 1
Transformadas de laplace 1Transformadas de laplace 1
Transformadas de laplace 1Utp arequipa
 
GTC6_FUNCIONES
GTC6_FUNCIONESGTC6_FUNCIONES
GTC6_FUNCIONESEDER JOSÉ
 

What's hot (19)

Trabajo de exposicion
Trabajo de exposicionTrabajo de exposicion
Trabajo de exposicion
 
36 vectores
36 vectores36 vectores
36 vectores
 
Metodo elementos-finitos
Metodo elementos-finitosMetodo elementos-finitos
Metodo elementos-finitos
 
Exposición elementos finitos Guerrero Alex Robalino Danny
Exposición elementos finitos Guerrero Alex Robalino DannyExposición elementos finitos Guerrero Alex Robalino Danny
Exposición elementos finitos Guerrero Alex Robalino Danny
 
Elementos finitos
Elementos finitosElementos finitos
Elementos finitos
 
Ecuaciones diferenciales-ordinarias
Ecuaciones diferenciales-ordinariasEcuaciones diferenciales-ordinarias
Ecuaciones diferenciales-ordinarias
 
Tesis matematica
Tesis matematicaTesis matematica
Tesis matematica
 
DERIVACIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES PARCIALES
DERIVACIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES PARCIALESDERIVACIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES PARCIALES
DERIVACIÓN NUMÉRICA DE ECUACIONES DIFERENCIALES PARCIALES
 
Método de elementos finitos introduccion e historia
Método de elementos finitos introduccion e historiaMétodo de elementos finitos introduccion e historia
Método de elementos finitos introduccion e historia
 
Método de las fuerzas uc-
Método de las fuerzas  uc-Método de las fuerzas  uc-
Método de las fuerzas uc-
 
Anal estr teoría-tema-1
Anal estr teoría-tema-1Anal estr teoría-tema-1
Anal estr teoría-tema-1
 
Presentacion del metodo del elemento finito
Presentacion del metodo del elemento finitoPresentacion del metodo del elemento finito
Presentacion del metodo del elemento finito
 
Trabajo de exposicion computacion aplicada
Trabajo de exposicion computacion aplicadaTrabajo de exposicion computacion aplicada
Trabajo de exposicion computacion aplicada
 
Computacion aplicada
Computacion aplicadaComputacion aplicada
Computacion aplicada
 
Finitos
FinitosFinitos
Finitos
 
Calculo de variaciones
Calculo de variaciones Calculo de variaciones
Calculo de variaciones
 
Transformadas de laplace 1
Transformadas de laplace 1Transformadas de laplace 1
Transformadas de laplace 1
 
Informe aplica 2
Informe aplica 2Informe aplica 2
Informe aplica 2
 
GTC6_FUNCIONES
GTC6_FUNCIONESGTC6_FUNCIONES
GTC6_FUNCIONES
 

Similar to Introduccion a las ecuaciones diferenciales ordinarias wolanski noemi

PDF DE LA TEMATICA DE ECUACIONES DIFERENCIALES
PDF DE LA TEMATICA DE ECUACIONES DIFERENCIALES PDF DE LA TEMATICA DE ECUACIONES DIFERENCIALES
PDF DE LA TEMATICA DE ECUACIONES DIFERENCIALES edvinogo
 
UNIDADES DESARROLLADAS EN ECUACIONES DIFERENCIALES
UNIDADES DESARROLLADAS EN ECUACIONES DIFERENCIALESUNIDADES DESARROLLADAS EN ECUACIONES DIFERENCIALES
UNIDADES DESARROLLADAS EN ECUACIONES DIFERENCIALESedvinogo
 
2) TEMATICA DE ECUACIONES DIFERENCIALES
2) TEMATICA DE ECUACIONES DIFERENCIALES2) TEMATICA DE ECUACIONES DIFERENCIALES
2) TEMATICA DE ECUACIONES DIFERENCIALESedvinogo
 
UNIDADES DESARROLLADAS EN ECUACIONES DIFERENCIALES
UNIDADES DESARROLLADAS EN ECUACIONES DIFERENCIALESUNIDADES DESARROLLADAS EN ECUACIONES DIFERENCIALES
UNIDADES DESARROLLADAS EN ECUACIONES DIFERENCIALESedvinogo
 
Retardo distribuido en un modelo depredador presa
Retardo distribuido en un modelo depredador presaRetardo distribuido en un modelo depredador presa
Retardo distribuido en un modelo depredador presaYerylyBlanco
 
Ecuaciones y sistemas (juan carlos)
Ecuaciones y sistemas (juan carlos)Ecuaciones y sistemas (juan carlos)
Ecuaciones y sistemas (juan carlos)rogerchapi
 
Contenidos ecuaciones diferenciales ordinarias
Contenidos ecuaciones diferenciales ordinariasContenidos ecuaciones diferenciales ordinarias
Contenidos ecuaciones diferenciales ordinariasjackypozo
 
Ecuaciones con Aplicaciones
Ecuaciones con Aplicaciones Ecuaciones con Aplicaciones
Ecuaciones con Aplicaciones Marier97
 
Ecuaciones diferenciales dfkjsñglkjslñgjsdlkgjsñldgkjsdlñkgjñlsdkjg
Ecuaciones diferenciales dfkjsñglkjslñgjsdlkgjsñldgkjsdlñkgjñlsdkjgEcuaciones diferenciales dfkjsñglkjslñgjsdlkgjsñldgkjsdlñkgjñlsdkjg
Ecuaciones diferenciales dfkjsñglkjslñgjsdlkgjsñldgkjsdlñkgjñlsdkjgLuis Maykol
 
Las ecuaciones diferenciales y sus aplicaciones en la ingenieria
Las ecuaciones diferenciales y sus aplicaciones en la ingenieriaLas ecuaciones diferenciales y sus aplicaciones en la ingenieria
Las ecuaciones diferenciales y sus aplicaciones en la ingenieriaLuis Arita
 
Trabajo ec diferenciales en ingenieria
Trabajo ec diferenciales en ingenieriaTrabajo ec diferenciales en ingenieria
Trabajo ec diferenciales en ingenieriaSabena29
 
aplicacion de las ec diferenciales en ingenieria
aplicacion de las ec diferenciales en ingenieriaaplicacion de las ec diferenciales en ingenieria
aplicacion de las ec diferenciales en ingenieriaDarwin Alata Espinoza
 
Edo 2010 version1
Edo 2010 version1Edo 2010 version1
Edo 2010 version1Luzmira77
 

Similar to Introduccion a las ecuaciones diferenciales ordinarias wolanski noemi (20)

PDF DE LA TEMATICA DE ECUACIONES DIFERENCIALES
PDF DE LA TEMATICA DE ECUACIONES DIFERENCIALES PDF DE LA TEMATICA DE ECUACIONES DIFERENCIALES
PDF DE LA TEMATICA DE ECUACIONES DIFERENCIALES
 
UNIDADES DESARROLLADAS EN ECUACIONES DIFERENCIALES
UNIDADES DESARROLLADAS EN ECUACIONES DIFERENCIALESUNIDADES DESARROLLADAS EN ECUACIONES DIFERENCIALES
UNIDADES DESARROLLADAS EN ECUACIONES DIFERENCIALES
 
2) TEMATICA DE ECUACIONES DIFERENCIALES
2) TEMATICA DE ECUACIONES DIFERENCIALES2) TEMATICA DE ECUACIONES DIFERENCIALES
2) TEMATICA DE ECUACIONES DIFERENCIALES
 
UNIDADES DESARROLLADAS EN ECUACIONES DIFERENCIALES
UNIDADES DESARROLLADAS EN ECUACIONES DIFERENCIALESUNIDADES DESARROLLADAS EN ECUACIONES DIFERENCIALES
UNIDADES DESARROLLADAS EN ECUACIONES DIFERENCIALES
 
Retardo distribuido en un modelo depredador presa
Retardo distribuido en un modelo depredador presaRetardo distribuido en un modelo depredador presa
Retardo distribuido en un modelo depredador presa
 
Gauss con pivoteo
Gauss con pivoteoGauss con pivoteo
Gauss con pivoteo
 
Libro ecuaciones diferenciales ordinarias
Libro ecuaciones diferenciales ordinariasLibro ecuaciones diferenciales ordinarias
Libro ecuaciones diferenciales ordinarias
 
Ecuaciones y sistemas (juan carlos)
Ecuaciones y sistemas (juan carlos)Ecuaciones y sistemas (juan carlos)
Ecuaciones y sistemas (juan carlos)
 
Contenidos ecuaciones diferenciales ordinarias
Contenidos ecuaciones diferenciales ordinariasContenidos ecuaciones diferenciales ordinarias
Contenidos ecuaciones diferenciales ordinarias
 
Ecuaciones con Aplicaciones
Ecuaciones con Aplicaciones Ecuaciones con Aplicaciones
Ecuaciones con Aplicaciones
 
Ecuaciones diferenciales dfkjsñglkjslñgjsdlkgjsñldgkjsdlñkgjñlsdkjg
Ecuaciones diferenciales dfkjsñglkjslñgjsdlkgjsñldgkjsdlñkgjñlsdkjgEcuaciones diferenciales dfkjsñglkjslñgjsdlkgjsñldgkjsdlñkgjñlsdkjg
Ecuaciones diferenciales dfkjsñglkjslñgjsdlkgjsñldgkjsdlñkgjñlsdkjg
 
Las ecuaciones diferenciales y sus aplicaciones en la ingenieria
Las ecuaciones diferenciales y sus aplicaciones en la ingenieriaLas ecuaciones diferenciales y sus aplicaciones en la ingenieria
Las ecuaciones diferenciales y sus aplicaciones en la ingenieria
 
Trabajo ec diferenciales en ingenieria
Trabajo ec diferenciales en ingenieriaTrabajo ec diferenciales en ingenieria
Trabajo ec diferenciales en ingenieria
 
aplicacion de las ec diferenciales en ingenieria
aplicacion de las ec diferenciales en ingenieriaaplicacion de las ec diferenciales en ingenieria
aplicacion de las ec diferenciales en ingenieria
 
Algebra
AlgebraAlgebra
Algebra
 
T08
T08T08
T08
 
Sistemas de ecuaciones no lineales
Sistemas de ecuaciones no linealesSistemas de ecuaciones no lineales
Sistemas de ecuaciones no lineales
 
GuíA Nº 11
GuíA Nº 11GuíA Nº 11
GuíA Nº 11
 
Edo 2010 version1
Edo 2010 version1Edo 2010 version1
Edo 2010 version1
 
Edo1
Edo1Edo1
Edo1
 

Introduccion a las ecuaciones diferenciales ordinarias wolanski noemi

  • 1. Introducci´n a las ecuaciones o diferenciales ordinarias Noem´ Wolanski ı α/β γ/δ Diagrama de fases para dos poblaciones simbi´ticas o
  • 2.
  • 3. ´ Indice General Preliminares 5 Cap´ıtulo 1. Introducci´n o 7 1. Generalidades. 7 2. Descripci´n de algunos m´todos de resoluci´n de ecuaciones de 1er. orden. o e o 10 Ejercicios 12 Cap´ ıtulo 2. Existencia y unicidad de soluci´n o 15 Ejercicios 22 Cap´ıtulo 3. Sistemas lineales de 1er. orden y ecuaciones lineales de orden n 23 1. Generalidades y sistemas homog´neos e 23 2. Sistemas no homog´neos e 29 Cap´ ıtulo 4. Resoluci´n de sistemas lineales con coeficientes constantes o 33 Ejercicios 45 Cap´ ıtulo 5. Ecuaciones lineales de orden n con coeficientes constantes 47 Ejercicios 52 Cap´ıtulo 6. Comportamiento asint´tico de las soluciones o 55 1. Diagramas de fases 56 2. Diagramas de fases de sistemas lineales a coeficientes constantes 60 3. Linearizaci´n o 68 4. Sistemas Conservativos 74 Ejercicios 79 Agradecimientos 81 Bibliograf´ ıa 83 3
  • 4.
  • 5. Preliminares El objetivo de estas notas es dar una introducci´n al tema de Ecuaciones Diferenciales o Ordinarias (en adelante ODE) a nivel elemental. Las notas est´n dirigidas a estudiantes de a la materia An´lisis II – Matem´tica 3 de la Facultad de Ciencias Exactas y Naturales de la a a Universidad de Buenos Aires. Al dise˜ar estas notas debemos tener en cuenta que en esta n materia el tema de ODE se dicta en no m´s de 5 semanas. Es por esta raz´n que ciertos a o temas se dejan para desarrollar en los trabajos pr´cticos. Entre esos temas est´n los m´todos a a e de resoluci´n de ecuaciones de primer orden y muchos ejemplos de aplicaciones que est´n como o a ejercicio para los alumnos. En estas notas discutiremos algunos problemas en los cuales aparecen ODE, daremos la demostraci´n del Teorema de Existencia y Unicidad local de soluci´n y analizaremos el dominio o o de definici´n de las mismas. A fin de dar claridad al texto, daremos las demostraciones bajo o condiciones simples. Se dar´n los m´todos de resoluci´n de ecuaciones y sistemas lineales a coeficientes constantes a e o (tanto homog´neos como no homog´neos). e e Por otro lado, se discutir´ la noci´n de diagrama de fases y su relaci´n con la posibilidad a o o de predicci´n del comportamiento de las soluciones sin conocer una f´rmula an´litica de las o o a mismas. Se ver´ c´mo son los diagramas de fases de sistemas lineales a coeficientes constantes a o de dimensi´n 2 y tambi´n para sistemas no lineales conservativos. Se discutir´ la noci´n de o e a o estabilidad lineal y se utilizar´ para determinar la estabilidad de equilibrios de sistemas no a lineales de dimensi´n 2. o 5
  • 6.
  • 7. CAP´ ıTULO 1 Introducci´n o 1. Generalidades. Sea V (t, x, y, z) un campo de velocidades correspondiente a un fluido (por ejemplo). En el curso ya vimos que una part´ ıcula que se mueve en el fluido sigue una trayectoria σ(t) tal que su vector velocidad, σ (t), verifica σ (t) = V (t, σ(t)) para todo tiempo t. Esto es un sistema de ecuaciones diferenciales de 1er. orden. A saber, si σ(t) = (x(t), y(t), z(t)) se debe tener para todo t,   x = V1 (t, x, y, z),  (1.1) y = V2 (t, x, y, z),   z = V3 (t, x, y, z). Claramente, para determinar la posici´n de una part´ o ıcula en un instante t debemos conocer tambi´n su posici´n en alg´n instante t0 ya que en un instante dado habr´ part´ e o u a ıculas en diferentes puntos y por lo tanto sus trayectorias no son iguales. De modo que lo que nos plantearemos ser´ encontrar una soluci´n de (1.1) sujeta a que a o σ(t0 ) = X0 donde t0 ∈ R y X0 ∈ R3 son dados. Por ejemplo, en una variable podr´ ıamos intentar resolver el problema x = x, x(0) = 1. x x (t) d Tenemos = 1, pero = log x(t). Por lo tanto, lo que queremos es que x x(t) dt d log x(t) = 1 para todo t. dt De aqu´ que se deba tener log x(t) = t + c para alguna constante c. Como para t = 0 tenemos ı x(0) = 1. Debe ser log 1 = c. Esto nos dice que c = 0 y por lo tanto log x(t) = t o lo que es equivalente x(t) = et . Por otro lado, si tenemos x = x, x(0) = a > 0, 7
  • 8. 8 ´ 1. INTRODUCCION la misma cuenta nos da log a = c. Por lo tanto, log x = t + log a x = et+log a = aet . Vemos que a distintos datos iniciales le corresponden distintas soluciones y adem´s, si son a distintas en t = 0 son distintas para todo t. Veremos m´s adelante que este hecho es una a propiedad general de las soluciones de ODE que dice que dos trayectorias de part´ ıculas diferentes no se cortan. Veamos otro ejemplo de sistema de ecuaciones. Supongamos que tenemos una part´ ıcula de masa unitaria sujeta a un campo de fuerzas F = (F1 , F2 , F3 ). Entonces, como la fuerza es la masa por la aceleraci´n, si σ(t) es la trayectoria o de la part´ ıcula, se verifica σ (t) = F (t, σ(t)) para todo t. Es decir,   x = F1 (t, x, y, z),  y = F2 (t, x, y, z),   z = F3 (t, x, y, z). Ahora bien, si llamamos x0 = x , x1 = x , y0 = y , y1 = y , z0 = z , z1 = z . Entonces, obtenemos el siguiente sistema de primer orden:   x0 = x1 ,    x = F (t, x , y , z ),  1  1 0 0 0     y = y1 , 0   y1 = F2 (t, x0 , y0 , z0 ),      z0 = z1 ,    z1 = F3 (t, x0 , y0 , z0 ). Este mismo enfoque permite tratar el caso en que el campo de fuerzas depende de la velocidad (x , y , z ). Esto es as´ cuando, por ejemplo, hay alg´n tipo de fricci´n (como la resistencia del ı u o aire). Esta fuerza de fricci´n es proporcional a la velocidad y con sentido opuesto. De modo o que en general la fuerza ser´ de la forma F = F (t, x, y, z, x , y , z ) y tendremos (reordenando las a ecuaciones)   x0 = x1 ,   y = y ,  0  1     z = z1 , 0  x1 = F1 (t, x0 , y0 , z0 , x1 , y1 , z1 ),       y1 = F2 (t, x0 , y0 , z0 , x1 , y1 , z1 ),    z1 = F3 (t, x0 , y0 , z0 , x1 , y1 , z1 ). Es decir, un sistema de ecuaciones de la forma ϕ = G(t, ϕ),
  • 9. 1. GENERALIDADES. 9 donde ϕ ahora no es la trayectoria de una part´ ıcula en el espacio, sino en lo que se llama el “Espacio de Fases” donde una fase es un par (σ, σ ) donde σ = posici´n y σ = velocidad. o En el espacio de fases ϕ es una trayectoria del campo G. De modo que cualquier teor´ y ıa cualquier informaci´n que podamos recoger para sistemas de 1er orden, nos dar´ informaci´n o a o para sistemas de 2do. orden (mediante la reducci´n descripta arriba). Pero ahora, si queremos o determinar la trayectoria σ de la part´ ıcula a partir de la trayectoria ϕ en el espacio de fases, necesitamos datos iniciales para ϕ y ´stos son σ(t0 ) , σ (t0 ). Es decir, hay que dar la posici´n y e o velocidad en un mismo tiempo t0 para obtener la trayectoria de una part´ ıcula sujeta a un campo de fuerzas. Esto es bastante intuitivo desde el punto de vista f´ısico dado que una part´ ıcula sujeta a un campo de fuerzas que empieza, digamos en el instante t = 0, en un cierto lugar, podr´ ıa tener trayectorias distintas si originalmente su velocidad apunta en direcciones distintas. En general, si tengo una ecuaci´n de orden n: o (1.2) x(n) = f (t, x, x , x , · · · , x(n−1) ), podemos reducirla a un sistema de n ecuaciones con n inc´gnitas de la siguiente forma: Llamamos o x0 = x , x1 = x , x2 = x , x3 = x , · · · , xn−1 = x(n−1) . Mediante este proceso (1.2) resulta equivalente a   x0 = x1 ,     x = x2 ,  1    x = x ,  2  3   (1.3) x3 = x4 , .  . .     x  n−2 = xn−1 ,     xn−1 = f (t, x0 , x1 , x2 , · · · , xn−1 ). Luego, en este caso, vemos que tenemos que dar condiciones iniciales x(t0 ), x (t0 ), x (t0 ), x (t0 ), . . . , x(n−1) (t0 ), para determinar la trayectoria x(t). Un caso particular de sistemas de ecuaciones de 1er. orden que resultan ser de especial importancia son los sistemas lineales, es decir aquellos sistemas X = V (t, X), X ∈ Rn en donde V es una funci´n lineal de X para cada t y continua con respecto a t. Estos sistemas tienen la o forma   x1 = a11 x1 + a12 x2 + · · · + a1n xn ,     x = a21 x1 + a22 x2 + · · · + a2n xn ,  2 (1.4) . . .    xn = an1 x1 + an2 x2 + · · · + ann xn . Aqu´ (x1 , x2 , · · · , xn ) = X y la matriz (aij ) es la matriz asociada a la funci´n lineal V . Los aij ı o son, en general, funciones continuas de la variable t. Cuando los coeficientes aij no dependen de t, decimos que se trata de un sistema lineal de 1er. orden con coeficientes constantes.
  • 10. 10 ´ 1. INTRODUCCION Uno de los motivos que da especial importancia al estudio de los sistemas lineales, es que los mismos pueden dar informaci´n relevante sobre el comportamiento de las soluciones de sistemas o m´s generales (sistemas no lineales). Veremos esto con m´s detalle en el ultimo cap´ a a ´ ıtulo. 2. Descripci´n de algunos m´todos de resoluci´n de ecuaciones de 1er. orden. o e o Para el caso particular de 1 ecuaci´n de 1er. orden, existen varios m´todos para hallar las o e soluciones. En estas notas s´lo mostraremos el m´s sencillo de estos, que ya hemos usado, y es o a el llamado m´todo de separaci´n de variables. ¿En qu´ consiste? e o e Supongamos que la ecuaci´n tiene la forma o x = f (x)g(t), entonces, debe tenerse (si f (x) = 0) x (t) = g(t). f (x(t)) ds 1 Sea F (s) = , es decir F (s) = . Entonces f (s) f (s) d x (t) F (x(t)) = F (x(t))x (t) = . dt f (x(t)) Sea ahora G(t) = g(t) dt. Entonces, d d F (x(t)) = G(t). dt dt De aqu´ que ı F (x(t)) = G(t) + c (i.e. F (x) = G(t) + c) y si podemos despejar de aqu´ x tendremos la soluci´n general x(t) dependiendo de una constante ı o c a determinar por los datos iniciales. En la pr´ctica, la forma de escribir este razonamiento es como sigue: a dx x = , dt por lo tanto, dx = f (x)g(t). dt Llevamos todo lo que depende de x a la izquierda y lo que depende de t a la derecha operando con los diferenciales como si fueran n´meros. Entonces se obtiene u dx = g(t) dt. f (x) Integrando a ambos lados (olvidando que dependen de distinta variable, ya que son los diferen- ciales los que nos dicen respecto de qu´ variable integramos) e dx = g(t) dt, f (x)
  • 11. ´ ´ ´ 2. DESCRIPCION DE ALGUNOS METODOS DE RESOLUCION DE ECUACIONES DE 1ER. ORDEN. 11 o lo que es lo mismo F (x) = G(t) + c. Ejemplo 1.1. Hallemos la soluci´n general de x = x2 . Aplicando el m´todo de separaci´n o e o de variables, tenemos dx dx 1 1 = x2 ⇒ = dt ⇒ − =t+c ⇒ x=− . dt x2 x t+c Si, por ejemplo, x(0) = 1 se tiene −1 = c. Por lo tanto la soluci´n es o 1 x= . 1−t Observemos que la soluci´n hallada no est´ definida para todos los valores de t. El intervalo o a (que contiene al 0) en donde se encuentra definida la soluci´n es (−∞, 1) y no puede extenderse o m´s all´ de ah´ En principio, de la ecuaci´n diferencial x = x2 , no hab´ ning´n elemento que a a ı. o ıa u nos hiciera pensar que algo as´ podr´ suceder, dado que la funci´n V (x) = x2 es “tan buena” ı ıa o como uno quiere. Este ejemplo nos dice que en el desarrollo de la teor´ general no podemos esperar un ıa resultado de existencia que nos diga que si V (x) es regular entonces vaya a existir una soluci´n o definida para todo tiempo t. El resultado de existencia ser´ local. a Ejemplo 1.2. Hallar, por el m´todo de separaci´n de variables, las soluciones del problema e o √ x = x, x(0) = 0. Aplicando el m´todo de separaci´n de variables (suponiendo que x(t) = 0 para t > 0 para √e o poder dividir por x) obtenemos dx √ √ = dt ⇒ 2 x = t + c. x Como x(0) = 0 se sigue que c = 0 y por lo tanto 1 x(t) = t2 . 4 Pero observemos que, como x (0) = 0 podemos prolongar x a t < 0 como la funci´n id´nti- o e camente nula. Es decir, tenemos una soluci´n dada por o 1 2 x(t) = 4t si t > 0, 0 si t ≤ 0. Por otro lado, si resolvemos por el mismo m´todo este problema con dato inicial 0 dado en e un τ > 0 (es decir, pidiendo que x(τ ) = 0) y resolviendo para t > τ obtenemos 1 x(t) = (t − τ )2 ¯ para t ≥ τ 4
  • 12. 12 ´ 1. INTRODUCCION y como antes podemos extender esta soluci´n a t < τ como la funci´n id´nticamente 0. Es decir, o o e tenemos 1 (t − τ )2 si t > τ, x(t) = 4 ¯ 0 si t ≤ τ. √ Observemos que ambas funciones son soluci´n de la ecuaci´n x = x y satisfacen x(0) = 0. o o Vemos con este ejemplo que no siempre existe una unica soluci´n al problema de valores ´ o iniciales. Para obtener unicidad, que desde el punto de vista de las aplicaciones f´ ısicas es una propiedad importante, habr´ que pedir hip´tesis adicionales sobre la funci´n f (t, x) del segundo a o o√ miembro de la ecuaci´n que garanticen la unicidad. Observar que f (x) = x no es regular en o x = 0. En el pr´ximo cap´ o ıtulo estableceremos condiciones que aseguran unicidad de soluci´n. o Ejercicios (1) Para cada una de las ecuaciones diferenciales que siguen, encontrar la soluci´n general o y, en los casos que se indica, la soluci´n particular que satisfaga la condici´n dada: o o 1+x 1 + x2 (a) x = (b) x = , x(0) = 1 1+t 1 + t2 (c) x − 2tx = t, x(1) = 0 (d) x − tan t = cos t (e) x − x1/3 = 0, x(0) = 0 En todos los casos dar el intervalo maximal de existencia de las soluciones y decir si son unicas. ´ (2) Si y = y(t) denota el n´mero de habitantes de una poblaci´n en funci´n del tiempo, u o o se denomina tasa de crecimiento de la poblaci´n a la funci´n definida como el cociente o o y /y. (a) Caracterizar (encontrar la ecuaci´n) de las poblaciones con tasa de crecimiento o constante. (b) Dibujar el gr´fico de y(t) para poblaciones con tasa de crecimiento constante, a positiva y negativa. (c) ¿Cu´les son las poblaciones con tasa de crecimiento nula? a (d) Una poblaci´n tiene tasa de crecimiento constante. El 1 de enero de 1992 ten´ 1000 o ıa individuos, y cuatro meses despu´s ten´ 1020. Estimar el n´mero de individuos e ıa u que tendr´ el 1 de enero del a˜o 2010, usando los resultados anteriores. a n (e) Caracterizar las poblaciones cuya tasa de crecimiento es una funci´n lineal de t o (at + b). (f) Caracterizar las poblaciones cuya tasa de crecimiento es igual a r − cy, donde r y c son constantes positivas. Este es el llamado crecimiento log´ ıstico, en tanto que el correspondiente a tasas constantes es llamado crecimiento exponencial (por razones obvias ¿no?). Para poblaciones peque˜as, ambas formas de crecimiento n son muy similares. Comprobar esta afirmaci´n y comprobar tambi´n que en el o e crecimiento log´ıstico y(t) tiende asint´ticamente a la recta y = r/c. o
  • 13. EJERCICIOS 13 (3) Si un cultivo de bacterias crece con un coeficiente de variaci´n proporcional a la canti- o dad existente y se sabe adem´s que la poblaci´n se duplica en 1 hora ¿Cu´nto habr´ a o a a aumentado en 2 horas?. (4) Verifique que las siguientes ecuaciones son homog´neas de grado cero y resuelva: e x+t (a) tx = x + 2t exp(−x/t) (b) txx = 2x2 − t2 (c) x = , x(1) = 0 t (5) Demuestre que la sustituci´n y = at + bx + c cambia x = f (at + bx + c) en una ecuaci´n o o con variables separables y aplique este m´todo para resolver las ecuaciones siguientes: e (a) x = (x + t)2 (b) x = sen2 (t − x + 1) (6) (a) Si ae = bd demuestre que pueden elegirse constantes h, k de modo que las sustitu- ciones t = s − h, x = y − k reducen la ecuaci´n: o dx at + bx + c =F dt dt + ex + f a una ecuaci´n homog´nea. o e (b) Resuelva las ecuaciones: x+t+4 x+t+4 a) x = b) x = x+t−6 t−x−6 (7) Resuelva las ecuaciones siguientes: (a) (y − x3 )dx + (x + y 3 )dy = 0 (b) cos x cos2 y dx − 2sen x sen y cos y dy = 0 (c) (3x2 − y 2 ) dy − 2xy dx = 0 (d) x dy = (x5 + x3 y 2 + y) dx (e) 3y dx + x dy = 0 (8) Si a, b : [x1 , x2 ]→R son continuas, (a) probar: Rx − a(t)dt (i) y(x) = ke x1 (k ∈ R) son todas las soluciones de y + a(x)y = 0 en [x1 , x2 ] Rx x Rt − a(t)dt a(s)ds (ii) y(x) = −e x1 b(t)e x1 dt es una soluci´n de o x1 y + a(x)y + b(x) = 0 en [x1 , x2 ] (b) describir todas las soluciones de: y + a(x)y + b(x) = 0 en [x1 , x2 ] (c) Comprobar que ∀y1 ∈ R existe una unica soluci´n de la ecuaci´n y +a(x)y+b(x) = ´ o o 0 en [x1 , x2 ] tal que y(x1 ) = y1 , y que cualquier soluci´n de la ecuaci´n homog´nea o o e y + a(x)y = 0 que se anule en un punto x ∈ [x1 , x2 ] es id´nticamente nula. e (9) Hallar la ecuaci´n de una curva tal que la pendiente de la recta tangente en un punto o cualquiera es la mitad de la pendiente de la recta que une el punto con el origen.
  • 14. 14 ´ 1. INTRODUCCION (10) Hallar la ecuaci´n de las curvas tales que la normal en un punto cualquiera pasa por el o origen. (11) Demostrar que la curva para la cual la pendiente de la tangente en cualquier punto es proporcional a la abscisa del punto de contacto es una par´bola. a (12) (a) Hallar las soluciones de: i. y + y = sen x ii. y + y = 3 cos(2x) (b) Halle las soluciones de y + y = sen x + 3 cos(2x) cuya gr´fica pase por el origen a (Piense, y no haga cuentas de m´s). a (13) Dada la ecuaci´n no homog´nea y + a(x)y = b(x) donde a, b : R→R son continuas con o e per´ıodo p > 0 y b ≡ 0. (a) Pruebe que una soluci´n Φ de esta ecuaci´n verifica: o o Φ(x + p) = Φ(x) ∀x ∈ R ⇔ Φ(0) = Φ(p) (b) Encuentre las soluciones de per´ ıodo 2π para las ecuaciones: y + 3y = cos x, y + cos(x)y = sen(2x) (14) Suponga que el ritmo al que se enfr´ un cuerpo caliente es proporcional a la diferencia ıa de temperatura entre ´l y el ambiente que lo rodea (ley de enfriamiento de Newton). Un e cuerpo se calienta 110 ◦ C y se expone al aire libre a una temperatura de 10 ◦ C. Al cabo de una hora su temperatura es de 60 ◦ C. ¿Cu´nto tiempo adicional debe transcurrir a para que se enfr´ a 30 ◦ C? ıe (15) Si la resistencia del aire que act´a sobre un cuerpo de masa m en ca´ libre ejerce una u ıda fuerza retardadora sobre el mismo proporcional a la velocidad (= −kv) , la ecuaci´n o diferencial del movimiento es: d2 y dy dv = g − c , o bien = g − cv dt2 dt dt donde c = k/m. Supongamos v = 0 en el instante t = 0, y c > 0. Encontrar limt→∞ v(t) (llamada velocidad terminal). Si la fuerza retardadora es proporcional al cuadrado de la velocidad, la ecuaci´n se o convierte en: dv = g − cv 2 dt Si v(0) = 0, encuentre la velocidad terminal en este caso. (16) La ecuaci´n y +P (x)y = Q(x)y n , que se conoce como la ecuaci´n de Bernoulli, es lineal o o cuando n = 0, 1. Demuestre que se puede reducir a una ecuaci´n lineal para cualquier o valor de n = 1 por el cambio de variable z = y 1−n , y aplique este m´todo para resolver e las ecuaciones siguientes: (a) xy + y = x4 y 3 (b) xy 2 y + y 3 = x cos x (c) xy − 3y = x4
  • 15. CAP´ ıTULO 2 Existencia y unicidad de soluci´n o En este cap´ ıtulo daremos resultados de existencia y unicidad local de soluci´n para sistemas o de 1er. orden de la forma X = F (t, X). Necesitamos ciertas propiedades del campo F , a saber ´ Definicion 2.1. Sea F (t, X) definida para t ∈ I y X ∈ Ω donde I es un intervalo de la recta y Ω es un abierto de Rn . Decimos que F es Lipschitz en la variable X en I × Ω si F es continua en las variables t y X en I × Ω y existe una constante L tal que para todo t ∈ I, X, Y ∈ Ω, F (t, X) − F (t, Y ) ≤ L X − Y . Decimos que F es localmente Lipschitz en la variable X en I × Ω si para todo intervalo cerrado y acotado J contenido en I y todo conjunto cerrado y acotado Ω contenido en Ω se tiene que F es Lipschitz en J × Ω . ´ Observacion 2.1. La condici´n de Lipschitz local dice que hay una constante como la L de o arriba para cada subconjunto J × Ω como los descriptos, pero la constante puede ser distinta para distintas elecciones de los conjuntos. Adem´s es esencial aqu´ que los conjuntos J y Ω sean a ı acotados y est´n contenidos, junto con sus bordes, en I y Ω respectivamente . e Ejemplo 2.1. Sean I y Ω intervalos de la recta. Si f : I × Ω → R es continua y existe fx (t, x) y es continua en I × Ω, se sigue que f es localmente Lipschitz en la variable x en I × Ω. En efecto, sea J un intervalo cerrado y acotado contenido en I y sea Ω un intervalo cerrado y acotado contenido en el intervalo Ω. Sea L = max{|fx (t, x)| : t ∈ J , x ∈ Ω }. Si t ∈ J, x, y ∈ Ω se tiene |f (t, x) − f (t, y)| = |fx (t, θ) (x − y)| ≤ L |x − y|, ya que θ es un punto en el intervalo de extremos x e y y por lo tanto pertenece al intervalo Ω. Observacion 2.2. El ejemplo 2.1 se generaliza a Rn pero no haremos los detalles aqu´ ´ ı. Ejemplo 2.2. Sea F (t, X) = A(t) X + b(t) con A(t) ∈ Rn×n y b(t) ∈ Rn . Si los coeficientes aij (t) , bi (t) de la matriz A(t) y el vector b(t) son funciones continuas de la variable t en un intervalo I se sigue que F es localmente Lipschitz en la variable X en I × Rn . Si el intervalo I es cerrado y acotado, F es Lipschitz en la variable X en I × Rn . 15
  • 16. 16 ´ 2. EXISTENCIA Y UNICIDAD DE SOLUCION En efecto, s´lo tenemos que ver esta ultima afirmaci´n. Sea K una constante mayor que o ´ o |aij (t)| para t ∈ I y para todo i, j = 1, . . . , n. Entonces,  2 n n A(t)X − A(t)Y 2 = A(t)(X − Y ) 2 =  aij (t)(xj − yj ) i=1 j=1 n ≤ Cn |aij (t)|2 (xj − yj )2 ≤ Cn K 2 n X − Y 2 . i,j=1 Por lo tanto A(t)X − A(t)Y ≤ L X − Y donde L2 = Cn K 2 n y se sigue que F (t, X) es Lipschitz con constante L ya que F (t, X) − F (t, Y ) = A(t)X − A(t)Y . Estamos en condiciones de enunciar el teorema de existencia de soluci´n para un sistema de o 1er. orden. Teorema 2.1. Sean I un intervalo de la recta y Ω un abierto de Rn . Sea F (t, X) un campo localmente Lipschitz en la variable X en I × Ω. Sean τ ∈ I y ξ ∈ Ω. Si τ es interior a I, existen λ > 0 y una funci´n continuamente diferenciable X : [τ − λ, τ + λ] ⊂ I → Ω tales que o X (t) = F (t, X(t)), para todo t ∈ [τ − λ, τ + λ], X(τ ) = ξ. Si τ es el extremo izquierdo de I, existen λ > 0 y una funci´n continuamente diferenciable o X : [τ, τ + λ] ⊂ I → Ω tales que X (t) = F (t, X(t)), para todo t ∈ [τ, τ + λ], X(τ ) = ξ. Se tiene el resultado an´logo si τ es el extremo derecho del intervalo I. a ´ Observacion 2.3. Este teorema no lo demostraremos con esta generalidad. Daremos la demostraci´n de una versi´n muy simplificada para el caso de una ecuaci´n. A saber, o o o Teorema 2.2. Sea I un intervalo de la recta. Sea f (t, x) una funci´n Lipschitz en la variable o x en I × R. Sean τ ∈ I, ξ ∈ R. Si τ es interior a I, existen λ > 0 y una funci´n continuamente o diferenciable x : [τ − λ, τ + λ] ⊂ I → R tales que x (t) = f (t, x(t)), para todo t ∈ [τ − λ, τ + λ], (2.1) x(τ ) = ξ. Se tienen los resultados an´logos si τ es un extremo del intervalo I. a ´ Demostracion. Supongamos que x(t) es una soluci´n del problema. Integrando la ecuaci´n o o diferencial a partir de τ y usando la condici´n inicial tenemos o t (2.2) x(t) = ξ + f (s, x(s)) ds, para t en [τ − λ, τ + λ]. τ Rec´ıprocamente, si x(t) es una funci´n continua en [τ − λ, τ + λ] y es soluci´n de la ecuaci´n o o o integral (2.2) se sigue que x es continuamente diferenciable y que x = f (t, x). Por otro lado, evaluando en t = τ en la ecuaci´n integral (2.2) vemos que x(τ ) = ξ. Por lo tanto (2.2) es o
  • 17. ´ 2. EXISTENCIA Y UNICIDAD DE SOLUCION 17 equivalente a (2.1). El m´todo de construcci´n de una soluci´n ser´, por lo tanto, buscar una e o o a soluci´n de la ecuaci´n integral. Y ´sto lo haremos por un m´todo iterativo. A saber, definiremos o o e e inductivamente x0 (t) = ξ, t x1 (t) = ξ + f (s, x0 (s)) ds, τ e, inductivamente, t (2.3) xk (t) = ξ + f (s, xk−1 (s)) ds. τ Observemos que estas funciones est´n definidas en I. a Si probamos que la sucesi´n de funciones continuas xk (t) converge uniformemente en [τ − o λ, τ + λ] a una funci´n x(t) se tendr´, por un lado, que x(t) es continua en [τ − λ, τ + λ] y, por o a el otro, que t t f (s, xk (s)) ds → f (s, x(s)) ds. τ τ Por lo tanto x ser´ una soluci´n continua de (2.2) y en consecuencia una soluci´n de (2.1). a o o Veamos entonces que la sucesi´n de funciones as´ construida converge uniformemente en o ı [τ − λ, τ + λ] para alg´n λ > 0. Para eso, veamos que existe λ > 0 tal que la sucesi´n es u o uniformemente de Cauchy en [τ − λ, τ + λ]. Esto significa que satisface que para todo ε > 0, existe k0 tal que para todo t ∈ [τ − λ, τ + λ] y k, j ≥ k0 , |xk (t) − xj (t)| < ε. Con este fin acotaremos primero las diferencias de dos t´rminos consecutivos. Para esto e necesitaremos utilizar la condici´n de Lipschitz en la variable x de f en I × R. Sea L la o constante de Lipschtiz, entonces como t xk+1 (t) = ξ + f (s, xk (s)) ds, τ t xk (t) = ξ + f (s, xk−1 (s)) ds, τ restando ambas ecuaciones vemos que t xk+1 (t) − xk (t) = [f (s, xk (s)) − f (s, xk−1 (s))] ds. τ De aqu´ que, para t ≥ τ , ı t t |xk+1 (t) − xk (t)| ≤ |f (s, xk (s)) − f (s, xk−1 (s))| ds ≤ L |xk (s) − xk−1 (s)| ds. τ τ 1 Sea ahora λ ≤ tal que Iλ := [τ − λ, τ + λ] ⊂ I. Entonces, 2L max{|xk+1 (t) − xk (t)| , t ∈ [τ, τ + λ]} ≤ L |t − τ | max{|xk (t) − xk−1 (t)| , t ∈ [τ, τ + λ]} 1 ≤ max{|xk (t) − xk−1 (t)| , t ∈ [τ, τ + λ]}. 2
  • 18. 18 ´ 2. EXISTENCIA Y UNICIDAD DE SOLUCION A una desigualdad an´loga se llega en el intervalo [τ − λ, τ ]. a Llamemos ahora mk = max{|xk (t) − xk−1 (t)| , t ∈ Iλ }. Tenemos entonces, 1 mk+1 ≤ mk . 2 Iterando esta desigualdad, obtenemos 1 mk ≤ m1 . 2k−1 Finalmente, si j = k + m, m−1 |xk (t) − xj (t)| = |xk (t) − xk+m (t)| = | (xk+i (t) − xk+i+1 (t))| i=0 m−1 m−1 m−1 1 m1 1 m1 ≤ mk+i+1 ≤ m1 = i ≤ k−1 . 2k+i 2k 2 2 i=0 i=0 i=0 m1 Por lo tanto, dado ε > 0 si j, k ≥ k0 donde k0 −1 < ε se tiene para t ∈ [τ − λ, τ + λ], 2 |xj (t) − xk (t)| < ε. Claramente, de la demostraci´n se ve que si τ es el extremo izquiedo de I y λ ≤ 1/2L es tal o que [τ, τ + λ] ⊂ I, se tiene una soluci´n en el intervalo [τ, τ + λ]. o An´logamente, si τ es el extremo derecho de I y λ ≤ 1/2L es tal que [τ − λ, τ ] ⊂ I, se tiene a una soluci´n en el intervalo [τ − λ, τ ]. o Antes de discutir cu´l es el mayor intervalo que contiene a τ donde hay definida una soluci´n a o del problema, veamos un resultado de continuidad de las soluciones respecto del dato inicial que implicar´ la unicidad de soluci´n. a o Teorema 2.3. Sean I y f como en el Teorema 2.2. Sean τ ∈ I y ξ1 , ξ2 ∈ R. Sean x1 , x2 : [τ, η] ⊂ I → R soluciones de (2.4) x = f (t, x) en [τ, η], con xi (τ ) = ξi , i = 1, 2. Existe una constante C(η) dependiente de η tal que (2.5) |x1 (t) − x2 (t)| ≤ C(η) |ξ1 − ξ2 | para t ∈ [τ, η]. Se tiene el mismo resultado si x1 , x2 : [η, τ ] ⊂ I → R son soluciones de x = f (t, x) en [η, τ ], con xi (τ ) = ξi , i = 1, 2.
  • 19. ´ 2. EXISTENCIA Y UNICIDAD DE SOLUCION 19 ´ Demostracion. Lo demostraremos en el caso que η > τ . La demostraci´n del otro caso es o enteramente an´loga. a Sea L la constante de Lipschitz de f en I × R. Integrando la ecuaci´n (2.4) para x1 de τ a o t, tenemos t x1 (t) = ξ1 + f (s, x1 (s)) ds. τ An´logamente, integrando (2.4) para x2 obtenemos a t x2 (t) = ξ2 + f (s, x2 (s)) ds. τ Restando ambas ecuaciones t x1 (t) − x2 (t) = ξ1 − ξ2 + [f (s, x1 (s)) − f (s, x2 (s))] ds τ y por lo tanto, t (2.6) |x1 (t) − x2 (t)| ≤ |ξ1 − ξ2 | + L |x1 (s) − x2 (s)| ds. τ Para obtener de (2.6) una desigualdad para |x1 (t) − x2 (t)| usaremos el Lema 2.1 (de Gronwall). Sea g ≥ 0 continua en un intervalo que contiene a τ . Si t (2.7) g(t) ≤ A + B g(s) ds , τ se sigue que g(t) ≤ AeB|t−τ | . Suponiendo probado el Lema de Gronwall, podemos aplicarlo con g(t) = |x1 (t) − x2 (t)| y obtenemos |x1 (t) − x2 (t)| ≤ |ξ1 − ξ2 |eL(t−τ ) ≤ C(η) |ξ1 − ξ2 | si t ∈ [τ, η]. donde C(η) = eL(η−τ ) . Probemos ahora el Lema de Gronwall. ´ Demostracion del Lema de Gronwall. Lo haremos en el caso t ≥ τ . La demostraci´n o en el otro caso es totalmente an´loga. a t Sea G(t) = g(s) ds. Entonces (2.7) nos dice que τ G (t) ≤ A + B G(t). O, lo que es lo mismo, G (t) − B G(t) ≤ A. Multipliquemos la inecuaci´n por e−B(t−τ ) . Tenemos o e−B(t−τ ) G(t) = e−B(t−τ ) G (t) − B G(t) ≤ A e−B(t−τ ) .
  • 20. 20 ´ 2. EXISTENCIA Y UNICIDAD DE SOLUCION Integrando de τ a t y usando que G(τ ) = 0, tenemos t A −B(t−τ ) e−B(t−τ ) G(t) ≤ A e−B(s−τ ) ds = − e −1 , τ B De aqu´ que ı A B(t−τ ) G(t) ≤ e −1 . B Como la desigualdad (2.7) dice que g(t) ≤ A + B G(t), se sigue que A B(t−τ ) g(t) ≤ A + B e − 1 = AeB(t−τ ) . B que es lo que quer´ ıamos demostrar. Como corolario del Teorema 2.3 se obtiene el resultado de unicidad. A saber, Teorema 2.4. Sean I y f como en el Teorema 2.2. Sean τ ∈ I y ξ ∈ R. Sean τ ∈ J1 ⊂ I, τ ∈ J2 ⊂ I y xi : Ji → R para i = 1, 2 tales que xi = f (t, xi ) en Ji , xi (τ ) = ξ. Entonces, x1 (t) = x2 (t) si t ∈ J1 ∩ J2 . ´ Demostracion. Sea τ ∈ [t1 , t2 ] ⊂ J1 ∩ J2 . Probaremos que x1 = x2 en [t1 , t2 ]. Como el intervalo es arbitrario, se sigue que x1 = x2 en J1 ∩ J2 . Probamos primero que x1 = x2 en [τ, t2 ]. (Podr´ ıamos tener τ = t1 y no habr´ que probar ıa nada m´s). En efecto, por el Teorema 2.3 tenemos a |x1 (t) − x2 (t)| ≤ C(t2 ) |ξ − ξ| = 0 en [τ, t2 ]. An´logamente, a |x1 (t) − x2 (t)| ≤ C(t1 ) |ξ − ξ| = 0 en [t1 , τ ]. El teorema est´ demostrado. a ´ Observacion 2.4. Estos resultados de continuidad respecto de los datos iniciales y de uni- cidad son v´lidos bajo las condiciones del Teorema 2.1. Pero no daremos sus demostraciones a aqu´ aunque son enteramente similares a las demostraciones de los Teoremas 2.3 y 2.4. ı ´ Observacion 2.5 (Prolongaci´n de soluciones). A partir del Teorema 2.4 vemos que si o tenemos una soluci´n x1 del problema o x = f (t, x), (2.8) x(τ ) = ξ,
  • 21. ´ 2. EXISTENCIA Y UNICIDAD DE SOLUCION 21 en un intervalo τ ∈ J1 ⊂ I y una soluci´n x2 del problema (2.8) en τ ∈ J2 ⊂ I, tenemos en o realidad una soluci´n x de (2.8) en J1 ∪ J2 . En efecto, si definimos o ¯ x1 (t) si t ∈ J1 , x(t) = ¯ x2 (t) si t ∈ J2 , se tiene que x est´ bien definida en J1 ∪ J2 y es soluci´n de (2.8) ah´ ¯ a o ı. Podemos por lo tanto definir la soluci´n maximal de (2.8). A saber, sea τ ∈ J ⊂ I el mayor o intervalo donde hay definida una soluci´n, es decir o J = ∪{J : τ ∈ J y J es un intervalo en el que hay definida una soluci´n de (2.8)}. o Entonces hay una soluci´n definida en J , esta soluci´n es unica y no es posible prolongarla a o o ´ un intervalo m´s grande que J . Esta es la llamada soluci´n maximal. a o ´ Observacion 2.6. Supongamos que f (t, x) es Lipschitz en la variable x en [t1 , t2 ] × R para todo intervalo cerrado y acotado [t1 , t2 ] contenido en I. Veamos que la soluci´n maximal est´ o a definida en todo I. En efecto, sea τ ∈ [t1 , t2 ] ⊂ I. Aplicando el Teorema 2.2 con I reemplazado por el intervalo [τ, t2 ], la construcci´n nos da una soluci´n en todo [τ, t2 ] si t2 − τ ≤ 1/2L. Si no, obtenemos una o o soluci´n x1 en [τ, τ + 1/2L]. Consideremos ahora, para τ1 = τ + 1/2L el problema o x = f (t, x) en [τ1 , τ1 + λ], x(τ1 ) = x1 (τ1 ). Por el Teorema 2.2, si t2 − τ1 ≤ 1/2L, existe una soluci´n x2 en [τ1 , t2 ]. Esta soluci´n se o o pega bien con x1 en τ1 y por lo tanto obtenemos una soluci´n en [τ, t2 ]. o Si por el contrario, t2 − τ1 > 1/2L, existe una soluci´n x2 en [τ1 , τ1 + 1/2L], y por lo tanto o 1 tenemos una soluci´n en [τ, τ + 2 2L ]. o 1 Siguiendo as´ como existe un k ∈ N tal que τ + k 2L > t2 , vemos que en un n´mero finito ı, u de pasos debemos tener una soluci´n definida en todo [τ, t2 ]. o An´logamente se ve que hay una soluci´n definida en [t1 , τ ]. a o Por lo tanto, hay una soluci´n definida en [t1 , t2 ]. De donde, la soluci´n maximal est´ o o a definida ah´ Como el intervalo τ ∈ [t1 , t2 ] ⊂ I es arbitrario, se sigue que la soluci´n maximal ı. o est´ definida en todo I. a ´ Observacion 2.7. Cuando la soluci´n maximal est´ definida en todo I, decimos que la o a soluci´n es global. Por la Observaci´n 2.6, vemos que bajo las condiciones del Teorema 2.2, la o o soluci´n maximal es global. Este resultado tambi´n es cierto si, en el Teorema 2.2, en lugar de o e una funci´n f (t, x) tenemos un campo F (t, X) Lipschitz en la variable X en J × Rn para todo o intervalo cerrado y acotado J ⊂ I. Es decir, el resultado de existencia global es v´lido para a sistemas de n ecuaciones con n inc´gnitas de la forma o X = F (t, X) si F es Lipschitz en la variable X en J × Rn para todo intervalo cerrado y acotado J ⊂ I.
  • 22. 22 ´ 2. EXISTENCIA Y UNICIDAD DE SOLUCION En particular, las soluciones de un sistema lineal con coeficientes continuos en un intervalo abierto I son globales, tanto en el caso homog´neo como no homog´neo. Enunciaremos este e e resultado para referencia posterior. Teorema 2.5. Sea I ⊂ R un intervalo abierto (posiblemente todo R). Sean aij (t), bi (t) funciones continuas en I para i, j = 1, · · · , n. Sean τ ∈ I, ξ ∈ Rn . Existe entonces una unica ´ soluci´n X = (x1 , · · · , xn ) de o   x1 = a11 x1 + a12 x2 + · · · + a1n xn + b1 ,     x = a21 x1 + a22 x2 + · · · + a2n xn + b2 ,  2 (2.9) . . .    xn = an1 x1 + an2 x2 + · · · + ann xn + bn , que satisface X(τ ) = ξ. Esta soluci´n est´ definida en todo el intervalo I. o a ´ Observacion 2.8. La condici´n de Lipschitcianidad global no puede relajarse a Lipschit- o cianidad local. En efecto, como vimos en la introducci´n, la soluci´n del problema o o x = x2 x(0) = 1 1 es x(t) = . Por lo tanto, el intervalo maximal de existencia para este problema es (−∞, 1), 1−t mientras que I = R; ya que, en este ejemplo, f (t, x) = x2 es localmente Lipschitz en la variable x en R × R (pero no lo es globalmente). Ejercicios (1) Sea F : R → R una funci´n localmente Lipschitz. Probar que si x(t) es una soluci´n de o o x (t) = F (x(t)) que verifica x(t0 + T ) = x(t0 ) para alg´n t0 ∈ R entonces x(t) es una funci´n peri´dica u o o de per´ ıodo T . (2) Sea F : R → R una funci´n localmente Lipschitz. Verificar que si x1 (t) y x2 (t) son dos o soluciones de x (t) = F (x(t)) tales que x1 (t1 ) = x2 (t2 ) para ciertos t1 , t2 ∈ R , entonces Im(x1 ) = Im(x2 ). (3) Sea F : R → R una funci´n localmente Lipschitz tal que F (p1 ) = F (p2 ) = 0 con o p1 < p2 . Probar que si x0 ∈ (p1 , p2 ), entonces la soluci´n de o x (t) = F (x(t)), x(0) = x0 est´ definida para todo t ∈ R. a (4) Sea F : R → R una funci´n localmente Lipschitz y sea x(t) una soluci´n de o o x (t) = F (x(t)) tal que x(t) → x0 cuando t → +∞ . Probar que F (x0 ) = 0.
  • 23. CAP´ ıTULO 3 Sistemas lineales de 1er. orden y ecuaciones lineales de orden n En este cap´ıtulo estudiaremos el conjunto de soluciones de sistemas lineales de n ecuaciones con n inc´gnitas. Probaremos, en el caso homog´neo, que el conjunto de soluciones es un espacio o e vectorial lo que nos dice c´mo ser´ la soluci´n general. Dada la relaci´n entre ecuaciones de o a o o orden n y sistemas de n ecuaciones, deduciremos resultados an´logos para el caso de ecuaciones. a Finalmente, daremos un m´todo para encontrar la soluci´n general de sistemas (resp. ecuaciones) e o no homog´neas a partir de la soluci´n general del sistema (resp. ecuaci´n) homog´neo asociado. e o o e 1. Generalidades y sistemas homog´neos e Empecemos probando que el conjunto de soluciones de un sistema lineal homog´neo forma e un espacio vectorial de dimensi´n n. o Teorema 3.1. Sea I ⊂ R un intervalo abierto. Sean aij (t) funciones continuas en I. Sea A(t) = (aij (t)) ∈ Rn×n . El conjunto de las soluciones del sistema lineal homog´neo de n e ecuaciones con n inc´gnitas o (3.1) X = A(t)X es un espacio vectorial de dimensi´n n. o ´ Demostracion. Recordemos que todas las soluciones est´n definidas en todo el intervalo I. a Por lo tanto, podemos sumarlas y multiplicarlas por escalares. Lo que tenemos que ver, para ver que es un espacio vectorial, es que al sumar dos soluciones obtenemos otra soluci´n y lo mismo o sucede si multiplicamos una soluci´n por un escalar. Esto es consecuencia de la linealidad de la o operaci´n de derivaci´n y de la funci´n A(t)X (en la variable X). En efecto, sean X1 y X2 dos o o o soluciones y X = X1 + X2 es decir, X es la funci´n de I en Rn definida por X(t) = X1 (t) + X2 (t) o para cada t ∈ I. Veamos que X es tambi´n soluci´n de (3.1). Tenemos, e o X (t) = X1 (t) + X2 (t) = A(t)X1 (t) + A(t)X2 (t) = A(t)(X1 (t) + X2 (t)) = A(t)X(t). Por lo tanto X satisface (3.1). Sea ahora c ∈ R y sea X = c X1 , entonces X (t) = cX1 (t) = cA(t)X1 (t) = A(t)(cX1 (t)) = A(t)X(t). y nuevamente obtenemos que X es soluci´n de (3.1). o Veamos ahora que hay una base del espacio de soluciones formada por exactamente n solu- ciones. Para esto, aplicamos el Teorema 2.5 con τ ∈ I cualquiera fijo. Sean Xi , i = 1, . . . , n, las soluciones maximales de (3.1) que verifican Xi (τ ) = ei , donde {e1 , . . . , en } es la base can´nica o de Rn . 23
  • 24. 24 3. SISTEMAS LINEALES DE 1ER. ORDEN Y ECUACIONES LINEALES DE ORDEN n Obtenemos as´ n soluciones. Veamos que son linealmente independientes, ´sto es, que la ı e unica manera de obtener la funci´n 0 al hacer una combinaci´n lineal de estas soluciones es ´ o o tomando todos los coeficientes iguales a 0. Supongamos entonces que tenemos constantes c1 , . . . , cn tales que (3.2) c1 X1 (t) + · · · + cn Xn (t) = 0 para todo t ∈ I. Debemos probar que necesariamente c1 = c2 = · · · = cn = 0. En efecto, tomando t = τ en (3.2) obtenemos c1 e1 + · · · + cn en = 0. Como {e1 , . . . , en } son linealmente independientes, se sigue que necesariamente c1 = c2 = · · · = cn = 0 como quer´ ıamos demostrar. Resta ver que {X1 , . . . , Xn } generan el espacio de soluciones de (3.1). Es decir, que toda soluci´n puede escribirse como combinaci´n lineal de estas n soluciones. En efecto, sea X una o o soluci´n de (3.1) y sea ξ = X(τ ). Como {e1 , . . . , en } es una base de Rn , existen constantes o c1 , . . . , cn tales que ξ = c1 e1 + · · · + cn en . Construyamos ahora la siguiente funci´n: Y (t) = c1 X1 (t) + · · · + cn Xn (t) para t ∈ I. Entonces, o como el conjunto de soluciones de (3.1) es un espacio vectorial, se sigue que Y es tambi´n una e soluci´n de (3.1). Pero, por la elecci´n de las constantes c1 , · · · , cn , se tiene que Y (τ ) = ξ. De o o modo que tenemos dos soluciones de (3.1) con el mismo dato inicial ξ en t = τ . Por el teorema de unicidad de soluci´n se sigue que X = Y . Recordando qui´n es Y vemos que o e X(t) = c1 X1 (t) + · · · + cn Xn (t) para todo t ∈ I, como quer´ ıamos demostrar. Un resultado importante, del cu´l esencialmente ya probamos una parte en el teorema an- a terior es el siguiente ´ Proposicion 3.1. Sean {X1 , . . . , Xn } soluciones de (3.1) y sea τ ∈ I cualquiera. Entonces {X1 , . . . , Xn } son linealmente independientes como funciones de t en I si y s´lo si los vectores o {X1 (τ ), . . . , Xn (τ )} son linealmente independientes en Rn . ´ Demostracion. Como en la demostraci´n del Teorema 3.1 supongamos que los vectores o {X1 (τ ), . . . , Xn (τ )} son linealmente independientes en Rn . Veamos que las funciones {X1 , . . . , Xn } son linealmente independientes. En efecto, si c1 , . . . , cn son constantes tales que la funci´n c1 X1 (t) + · · · + cn Xn (t) es la funci´n 0, veamos que c1 = c2 = o o · · · = cn = 0. En efecto, evaluando en t = τ vemos que c1 X1 (τ ) + · · · + cn Xn (τ ) = 0 y como {X1 (τ ), . . . , Xn (τ )} son linealmente independientes en Rn , se sigue que c1 = c2 = · · · = cn = 0. Rec´ ıprocamente, supongamos que las soluciones {X1 , . . . , Xn } son linealmente independi- entes y veamos que los vectores {X1 (τ ), . . . , Xn (τ )} tambi´n lo son. En efecto, supongamos e que c1 X1 (τ ) + · · · + cn Xn (τ ) = 0.
  • 25. ´ 1. GENERALIDADES Y SISTEMAS HOMOGENEOS 25 Sea Y (t) = c1 X1 (t) + · · · + cn Xn (t) para t ∈ I. Entonces, Y es una soluci´n de (3.1) con dato o inicial Y (τ ) = 0. Por el teorema de unicidad de soluci´n se sigue que Y = 0. Esto es, o c1 X1 (t) + · · · + cn Xn (t) = 0 para todo t ∈ I. Como las funciones {X1 , . . . , Xn } son linealmente independientes obtenemos que necesariamente c1 = c2 = · · · = cn = 0 como quer´ ıamos demostrar. Tenemos inmediatamente el siguiente corolario Corolario 3.1. Sean {X1 , . . . , Xn } soluciones de (3.1) y sea τ, η ∈ I cualesquiera. En- tonces los vectores {X1 (τ ), . . . , Xn (τ )} son linealmente independientes si y s´lo si los vectores o {X1 (η), . . . , Xn (η)} lo son. ´ Observacion 3.1. Sea {X1 , . . . , Xn } una base de soluciones de (3.1). Construyamos una matriz ubicando a estos vectores como columnas y llam´mosla Q(t). A una matriz de este tipo e la llamamos matriz fundamental. Es f´cil ver que a Q (t) = A(t)Q(t) para todo t ∈ I. ya que las columnas de A(t)Q(t) son los vectores A(t)Xj (t). Como el determinante de una matriz es no nulo si y s´lo si sus columnas son linealmente o independientes, el Corolario 3.1 dice que det Q(τ ) = 0 para un τ ∈ I si y s´lo si det Q(t) = 0 para todo t ∈ I. o Observemos adem´s que como toda soluci´n de (3.1) es combinaci´n lineal de las columnas a o o de Q, se sigue que toda soluci´n es de la forma o   c1 . X(t) = Q(t)C para alg´n vector C =  .  . u . cn Observemos por otro lado, que dada una matriz U (t) ∈ Rn×n cualquiera (es decir, si no pedimos que las columnas sean soluci´n de un mismo sistema lineal homog´neo), no tiene por o e qu´ ser cierto que el determinante es distinto de cero en un punto si y s´lo si lo es en todos los e o puntos. Por ejemplo, si t 0 U (t) = , 0 t se tiene que det U (0) = 0 y det U (1) = 1, A partir de los resultados anteriores sobre el conjunto de soluciones de sistemas lineales, y dada la equivalencia de una ecuaci´n de orden n con un sistema de primer orden de n ecuaciones o con n inc´gnitas, obtenemos resultados sobre el conjunto de soluciones de una ecuaci´n lineal o o de orden n. En efecto, Consideremos la ecuaci´n o (3.3) x(n) + an−1 (t)x(n−1) + an−2 (t)x(n−2) + · · · + a1 (t)x + a0 (t)x = f (t).
  • 26. 26 3. SISTEMAS LINEALES DE 1ER. ORDEN Y ECUACIONES LINEALES DE ORDEN n Como vimos en la introducci´n, si x es soluci´n de (3.3) se sigue que X = (x, x , x , . . . , x(n−1) ) o o es soluci´n del sistema o   x0 = x1 ,   x = x ,  1  2   (3.4) . . .   x  n−2 = xn−1 ,    xn−1 = −a0 (t)x0 − a1 (t)x1 − · · · − an−1 (t)xn−1 + f (t). Rec´ıprocamente, sea X = (x0 , x1 , · · · , xn−1 ) una soluci´n de (3.4), entonces la funci´n x(t) = o o x0 (t) es soluci´n de (3.3). En efecto, la primer ecuaci´n del sistema (3.4) dice que x1 = x , la o o segunda dice que x2 = x1 = x . La tercera dice que x3 = x2 = x . Y as´ hasta la pen´ltima ı u que dice que xn−1 = xn−2 = x(n−1) . Finalmente, con esta informaci´n la ultima ecuaci´n dice o ´ o que x(n) = xn−1 = −a0 (t)x0 − a1 (t)x1 − · · · − an−1 (t)xn−1 + f (t) = −an−1 (t)x(n−1) − an−2 (t)x(n−2) − · · · − a1 (t)x − a0 (t)x + f (t). Es decir, x es soluci´n de (3.3). o Se tiene, por lo tanto, el siguiente resultado Teorema 3.2. (1) Sea I un intervalo abierto de la recta y sea τ ∈ I. Sean ai (t), i = 1, . . . , n − 1 y f (t) funciones continuas en I. Para cada n-upla (y0 , y1 , . . . , yn−1 ) existe una unica soluci´n ´ o de (3.3) que satisface x(τ ) = y0 , x (τ ) = y1 , x (τ ) = y2 , · · · x(n−1) (τ ) = yn−1 . Adem´s la soluci´n est´ definida en todo el intervalo I. a o a (2) Sea I un intervalo abierto de la recta y sean ai (t), i = 1, . . . , n − 1 funciones continuas en I. El conjunto de soluciones de (3.3) cuando f = 0 – es decir en el caso de la ecuaci´n lineal homog´nea de orden n – es un espacio vectorial de dimensi´n n. o e o (3) Bajo las mismas hip´tesis que en (2), un conjunto {x1 , . . . , xn } de soluciones de (3.3) o es linealmente independiente – y por ende una base de soluciones – si y s´lo si o   x1 (τ ) x2 (τ ) ··· xn (τ )  x1 (τ ) x2 (τ ) ··· xn (τ )     x1 (τ ) x2 (τ ) ··· xn (τ )  = 0 W (x1 , x2 , . . . , xn )(τ ) := det    . . . . .. . .   . . . .  (n−1) (n−1) (n−1) x1 (τ ) x2 (τ ) · · · xn (τ ) W (x1 , x2 , . . . , xn ) se llama el Wronskiano de las soluciones x1 , . . . , xn y, dado un con- junto de soluciones de la ecuaci´n lineal (3.3) en el caso homog´neo f = 0, se tiene que o e W (x1 , x2 , . . . , xn )(τ ) = 0 para alg´n τ ∈ I si y s´lo si W (x1 , x2 , . . . , xn )(t) = 0 para u o todo t ∈ I.
  • 27. ´ 1. GENERALIDADES Y SISTEMAS HOMOGENEOS 27 ´ Demostracion. Probemos (1). Veamos primero la existencia de soluci´n para cada n-upla o de datos iniciales. Sea ξ = (y0 , y1 , . . . , yn−1 ) y sea X = (x0 , x1 , . . . , xn−1 ) la soluci´n de (3.4) con dato ini- o cial X(τ ) = ξ. Como vimos antes, x = x0 es soluci´n de (3.3) y adem´s x = x1 , , x = o a x2 , , . . . , x(n−1) = xn−1 . Por lo tanto, x(τ ) = y0 , x (τ ) = y1 , . . . , x(n−1) (τ ) = yn−1 . Y por lo tanto existe soluci´n, como quer´ o ıamos demostrar. Probemos ahora la unicidad de soluci´n. En efecto, si x y x son dos soluciones de (3.3) con o ˜ los mismos datos iniciales en t = τ , veamos que son iguales. ˜ ˜ Sean X = (x, x , x , . . . , x(n−1) ) y X = (˜, x , x , . . . , x(n−1) ). Entonces X y X son soluciones x ˜ ˜ ˜ ˜ de (3.4) y X(τ ) = X(τ ). Por el teorema de unicidad de soluci´n, se sigue que X(t) = X(t) para o ˜ todo t ∈ I. En particular, x(t) = x(t) para todo t ∈ I, como afirmamos. ˜ Probemos (2). Recordemos que en este caso f = 0. Por lo tanto se trata de una ecuaci´no homog´nea y el sistema lineal equivalente tambi´n es homog´neo. Es f´cil ver que el conjunto e e e a de soluciones es un espacio vectorial. Para ver que el espacio vectorial de soluciones tiene dimensi´n n, basta demostrar que hay o n soluciones x 1 , x2 , . . . , xn linealmente independientes tales que cualquier soluci´n se expresa o en la forma x = c1 x1 + c2 x2 + · · · + cn xn para alguna elecci´n de constantes c1 , . . . , cn . Veamos o entonces que ´sto es as´ e ı. Fijemos τ ∈ I. Para cada i = 1, . . . , n, sea Xi = (xi , xi , . . . , xi ) la soluci´n de (3.4) con 0 1 n−1 o Xi (τ ) = ei donde {e1 , . . . , en } es la base can´nica de Rn . Sabemos que {X1 , . . . , Xn } es una o base del conjunto de soluciones de (3.4). Sea ahora x una soluci´n de (3.3) y llamemos X = (x, x , x , . . . , x(n−1) ). Como X es soluci´n o o de (3.4), existen constantes c1 , . . . , cn tales que X = c1 X1 + · · · + cn Xn , en particular x = c1 x1 + c2 x2 + · · · + cn xn . 0 0 0 con x1 , . . . , xn soluciones de (3.3). 0 0 Veamos que las soluciones {x1 , . . . , xn } son linealmente independientes. En efecto, si tuvi´- 0 0 e ramos x = c1 x1 + c2 x2 + · · · + cn xn = 0, 0 0 0 tendr´ ıamos x = c1 (x1 ) + c2 (x2 ) + · · · + cn (xn ) = 0, 0 0 0 x = c1 (x1 ) + c2 (x2 ) + · · · + cn (xn ) = 0, 0 0 0 . . . x(n−1) = c1 (x1 )(n−1) + c2 (x2 )(n−1) + · · · + cn (xn )(n−1) = 0. 0 0 0 Como el sistema (3.4) dice que (xi )(k) = xi , se sigue que 0 k X := (x, x , x , . . . , x(n−1) ) = c1 X1 + c2 X2 + · · · + cn Xn = 0 y como {X1 , . . . , Xn } son linealmente independientes, c1 = c2 = · · · = cn = 0. Con lo cual hemos demostrado el punto (2).
  • 28. 28 3. SISTEMAS LINEALES DE 1ER. ORDEN Y ECUACIONES LINEALES DE ORDEN n Finalmente, probemos el punto (3). Sean {x1 , x2 , . . . , xn } soluciones de (3.3). Veamos que son linealmente independientes si y s´lo si {X1 , X2 , . . . , Xn } lo son, donde o (n−1) (3.5) Xi = (xi , xi , xi , . . . , xi ) es soluci´n del sistema equivalente (3.4). En efecto, supongamos que {X1 , X2 , . . . , Xn } son o linealmente independientes, y que se tiene para ciertas constantes c1 x1 + c2 x2 + · · · + cn xn = 0 y veamos que c1 = c2 = · · · = cn = 0. En efecto, como en la demostraci´n del punto (2), si o llamamos x = c1 x1 + c2 x2 + · · · + cn xn vemos, derivando sucesivamente, que x = c1 x1 + c2 x2 + · · · + cn xn = 0, . . . (n−1) (n−1) x(n−1) = c1 x1 + c2 x2 + · · · + cn x(n−1) = 0. n Por lo tanto, c1 X1 + c2 X2 + · · · + cn Xn = 0. Como {X1 , X2 , . . . , Xn } son linealmente independientes, se sigue que c1 = c2 = · · · = cn = 0. Supongamos ahora que {x1 , x2 , . . . , xn } son linealmente independientes, y que se tiene para ciertas constantes (3.6) X = c1 X1 + c2 X2 + · · · + cn Xn = 0 y veamos que c1 = c2 = · · · = cn = 0. En efecto, se sigue de (3.6), mirando la primer entrada del vector X, que c1 x1 + c2 x2 + · · · + cn xn = 0. Como {x1 , x2 , . . . , xn } son linealmente independientes, se sigue que c1 = c2 = · · · = cn = 0. Ahora, recordemos que un conjunto de n soluciones de un sistema lineal homog´neo de n e ecuaciones con n inc´gnitas es linealmente independiente si y s´lo si, para la matriz Q(t) cuyas o o columnas son las n soluciones del sistema, se tiene det Q(τ ) = 0 para alg´n τ ∈ I. u y que det Q(τ ) = 0 para alg´n τ ∈ I si y s´lo si det Q(t) = 0 para todo t ∈ I. u o Como en nuestro caso, las soluciones {X1 , . . . , Xn } del sistema (3.4) vienen dadas por (3.5), la matriz Q(τ ) resulta   x1 (τ ) x2 (τ ) ··· xn (τ )  x1 (τ ) x2 (τ ) ··· xn (τ )    x1 (τ ) x2 (τ ) ··· xn (τ ) Q(τ ) =  .  . . . . .. . .   . . . .  (n−1) (n−1) (n−1) x1 (τ ) x2 (τ ) ··· xn (τ ) Por lo que det(Q(τ )) = W (x1 , x2 , . . . , xn )(τ ) y se tiene lo enunciado en el punto (3).
  • 29. ´ 2. SISTEMAS NO HOMOGENEOS 29 2. Sistemas no homog´neos e Analizaremos ahora el caso de sistemas lineales no homog´neos y veremos un m´todo – el e e m´todo de variaci´n de par´metros o de constantes – que nos permite hallar las soluciones de e o a un sistema lineal no homog´neo si conocemos una base del conjunto de soluciones del sistema e homog´neo asociado. e Teorema 3.3. La soluci´n general del sistema lineal (2.9) tiene la siguiente forma o (3.7) X(t) = Xp (t) + XH (t) donde Xp es una soluci´n particular del sistema (2.9) y XH es la soluci´n general del sistema o o lineal homog´neo asociado, es decir, de (2.9) pero con bi = 0. e ´ Demostracion. Sea Xp una soluci´n particular de (2.9) y sea X otra soluci´n. Sea Y = o o X − Xp . Entonces, si A = (aij ) es la matriz asociada al sistema (2.9) se sigue que Y = X − Xp = A(t)X + b(t) − A(t)Xp + b(t) = A(t)(X − Xp ) = A(t)Y. Por lo tanto, Y es una soluci´n del sistema homog´neo asociado. Es decir, una soluci´n de o e o (3.8) Y = A(t)Y. Sea ahora X = Xp + Y donde Y es una soluci´n de (3.8), entonces o X = Xp + Y = A(t)Xp + b(t) + A(t)Y (t) = A(t)(Xp + Y ) + b(t) = A(t)X + b(t). Es decir, X es soluci´n de (2.9). o Veamos ahora el m´todo de variaci´n de constantes. e o Teorema 3.4. Sea A(t) ∈ Rn×n continua en un intervalo abierto I. Sea {X1 , · · · , Xn } una base del conjunto de soluciones de (3.8). Sea b(t) ∈ Rn continuo en I. Existen funciones c1 (t), · · · , cn (t) continuamente diferenciables en I tales que Xp (t) = c1 (t)X1 (t) + · · · + cn (t)Xn (t) es una soluci´n particular del sistema X = A(t)X + b(t). M´s precisamente, las funciones ci (t) o a son primitivas de las soluciones ci (t) del sistema lineal de ecuaciones (para cada t)   c1 (t)    c2 (t)    Q(t)  .  = b(t), . .    cn (t) donde Q(t) es la matriz formada por los vectores Xj (t) puestos como columnas. ´ Demostracion. Recordemos que en la observaci´n 3.1 vimos que si tomamos la matriz o Q(t) cuyas columnas son los vectores Xj (t) – llamada matriz fundamental – se tiene Q (t) = A(t)Q(t) y la soluci´n general del sistema (3.8) es o XH (t) = Q(t)C,
  • 30. 30 3. SISTEMAS LINEALES DE 1ER. ORDEN Y ECUACIONES LINEALES DE ORDEN n donde C es un vector constante. (Esto es exactamente decir que XH (t) = c1 X1 (t)+· · ·+cn Xn (t)). Por lo tanto, lo que se est´ proponiendo es tomar a Xp (t) = Q(t)C(t), donde ahora reemplazamos el vector constante C por un vector cuyas componentes son funciones continuamente diferenciables en I. Para ver que de esta manera podemos hallar una soluci´n de X = A(t)X +b(t), simplemente o derivamos y vemos qu´ tiene que satisfacer C(t). Por la regla de derivaci´n del producto (que e o sigue valiendo en este caso de producto de una matriz por un vector), Xp (t) = Q (t)C(t) + Q(t)C (t) = A(t)Q(t)C(t) + Q(t)C (t) = A(t)Xp (t) + Q(t)C (t) = A(t)Xp (t) + b(t), si (3.9) Q(t)C (t) = b(t). Recordemos que det Q(t) = 0 para todo t ∈ I por ser una matriz fundamental (ver Obser- vaci´n 3.1). Podemos por lo tanto invertir la matriz Q(t) y obtenemos o (3.10) C (t) = Q(t)−1 b(t). De esta manera obtenemos funciones continuas – las componentes del vector Q(t)−1 b(t) – que deber´ ser las componentes del vector C (t) para que Xp sea una soluci´n del sistema no ıan o homog´neo X = A(t)X + b(t). e Lo unico que resta ahora para encontrar las funciones ci (t) (componentes del vector C) es ´ integrar componente a componente (3.10) para obtener funciones continuamente diferenciables en I. Observemos que al integrar uno tiene constantes de integraci´n arbitrarias. Podemos sim- o plemente tomarlas igual a 0 para obtener una soluci´n particular. Si las dejamos en la expresi´n o o de las funciones ci (t) obtenemos directamente la soluci´n general del sistema no homog´neo ya o e e ¯ que el t´rmino adicional Q(t)C que obtenemos es la soluci´n general del sistema homog´neo o e asociado. Veremos ejemplos de aplicaci´n de este m´todo al final del cap´ o e ıtulo siguiente donde aprende- remos a hallar la soluci´n general de sistemas lineales homog´neos con coeficientes constantes. o e En la pr´ctica lo que se hace es plantear (3.9) – que es, para cada t, un sistema lineal de a ecuaciones con inc´gnitas c1 (t), · · · , cn (t) –, resolver el sistema y finalmente integrar el resultado o para obtener c1 (t), · · · , cn (t). Veamos ahora c´mo se aplica el m´todo de variaci´n de par´metros para resolver ecuaciones o e o a lineales no homog´neas de orden n. e Consideremos la ecuaci´n o (3.11) x(n) + an−1 (t)x(n−1) + an−2 (t)x(n−2) + · · · + a1 (t)x + a0 (t)x = f (t) y supongamos que tenemos una base {x1 , . . . , xn } de soluciones de la ecuaci´n homog´nea aso- o e ciada.