Interpolacion y Regresion - R. Campillo

13,065 views
12,794 views

Published on

Presentacion que describe la obtencion del polinomio de interpolacion de lagrange y del metodo de regresion lineal.

Published in: Education
1 Comment
2 Likes
Statistics
Notes
  • Buenas tardes R. Campillo, lamento preguntar pero creo que en la lamina 18 tienes un error, pues hasta donde tengo entendido para un polinomio de grado 3 se debe tomar Xsubcero, Xsubuno, Xsubdos y Xsubtres, si me equivoco por favor corrígeme pero me parece que es como digo.
       Reply 
    Are you sure you want to  Yes  No
    Your message goes here
No Downloads
Views
Total views
13,065
On SlideShare
0
From Embeds
0
Number of Embeds
12
Actions
Shares
0
Downloads
353
Comments
1
Likes
2
Embeds 0
No embeds

No notes for slide

Interpolacion y Regresion - R. Campillo

  1. 1. Facultad de Ingeniería Mecánica Eléctrica, U.V., zona Xalapa Métodos Numéricos Interpolación de Lagrange y Regresión Lineal MC. Ing. Rafael Campillo Rodríguez Interpolación Correlación Lagrange Regresión Lineal
  2. 2. Interpolación Definición General. Dados n+1 puntos que corresponden a los datos: y los cuales se representan gráficamente como puntos en el plano cartesiano,
  3. 3. Interpolación (Cont.) Si existe una función f(x) definida en el intervalo [x0,xn] (donde suponemos que x0 < x1 < x2 < …< xn ), y tal que f(xi) = yi para i = 0,1,2,…,n , entonces a f(x) se le llama una Función de Interpolación de los datos, cuando es usada para aproximar valores dentro del intervalo, y se le llama Función de Extrapolación de los datos, cuando está definida y es usada para aproximar valores fuera del intervalo.
  4. 4. Interpolación (Cont.) Evidentemente pueden existir varios tipos de funciones que interpolen los mismos datos; por ejemplo, trigonométricas, exponenciales, polinomiales, combinaciones de éstas, etc. El tipo de interpolación que uno elige, depende generalmente de la naturaleza de los datos que se están manejando, así como de los valores intermedios que se están esperando. Un tipo muy importante es la interpolación por funciones polinomiales. Puesto que evidentemente pueden existir una infinidad de funciones polinomiales de interpolación para una misma tabla de datos, se antepone el requisito de que el polinomio de interpolación, sea único.
  5. 5. Interpolación (Cont.) Definición. Un polinomio de interpolación es una función polinomial que además de interpolar los datos, es el de menor grado posible. Caso n=0: Tenemos los datos: En este caso, tenemos que f(x)=y0 (polinomio constante) es el polinomio de menor grado tal que f(x0) = y0, por lo tanto, éste es el polinomio de interpolación.
  6. 6. Interpolación (Cont.) Caso n=1: Tenemos los datos: En este caso, el polinomio de interpolación es la función lineal que une a los dos puntos dados. Por lo tanto, tenemos que: y1 y0 f ( x) y0 (x x0 ) x1 x0 Es el polinomio de interpolación.
  7. 7. Interpolación (Cont.) La siguiente gráfica representa este caso: y1 y0 f ( x) y0 (x x0 ) x1 x0 Observación: Vemos que en el polinomio de interpolación del caso n=1 se encuentra como primer término, y0 , que es el polinomio de interpolación del caso n=0.
  8. 8. Interpolación (Cont.) Caso n=2: Tenemos los datos: Para este caso, el polinomio de interpolación va a ser un polinomio de grado 2. Tomando en cuenta la observación anterior, intuímos que el polinomio de interpolación tendrá una estructura como sigue: y1 y0 f ( x) y0 (x x0 ) + término cuadrático x1 x0 Igual que antes, el polinomio se conforma por los términos del caso n=1 mas los de la parte correspondiente a n=2.
  9. 9. Interpolación (Cont.) Por lo tanto, planteamos el polinomio de interpolación como sigue: f ( x) b0 b1 ( x x0 ) b2 ( x x0 )( x x1 ) Si asignamos x = x0, se anulan los valores de b1 y b2, quedándonos el resultado: f ( x0 ) b0 Como se debe de cumplir que f(x0) = y0, entonces: y0 b0
  10. 10. Interpolación (Cont.) Si asignamos x = x1, el valor de b2 queda anulado, resultando lo siguiente: f ( x1 ) b0 b1 ( x1 x0 ) Como se debe cumplir que f(x1) = y1, y ya sabemos que y0 = b0, entonces: y1 b0 b1 ( x1 x0 ) De lo cual obtenemos el valor para b1: y1 y0 b1 x1 x0
  11. 11. Interpolación (Cont.) Asignando x = x2, vamos a obtener: f ( x2 ) b0 b1 ( x2 x0 ) b2 ( x2 x0 )( x2 x1 ) Como se debe cumplir que f(x2) = y2, y ya sabemos que y0 = b0 y además sabemos que b1 = (y1 – y0) / (x1 – x0), sustituímos estos datos para después despejar el valor de b2: y1 y0 y2 y0 ( x2 x0 ) b2 ( x2 x0 )( x2 x1 ) x1 x0
  12. 12. Interpolación (Cont.) De la cual podemos hacer un despeje parcial para lograr la siguiente igualdad : y1 y0 y2 y0 ( x2 x0 ) x1 x0 b2 ( x2 x0 ) x2 x1 Ahora en el numerador del miembro izquierdo de la igualdad, le sumamos un cero (-y1 + y1), de tal manera que no se altere la igualdad:
  13. 13. Interpolación (Cont.) A continuación, aplicamos un poco de álgebra para así obtener los siguientes resultados:
  14. 14. Interpolación (Cont.) Y finalmente despejando a b2 vamos a obtener : y2 y1 y1 y0 x2 x1 x1 x0 b2 x2 x0 Por lo tanto, el polinomio de interpolación para este caso es:
  15. 15. Interpolación (Cont.) Observación: Vemos que efectivamente el polinomio de interpolación contiene al del caso anterior, más un término extra que es de un grado mayor. Pero además vemos que cada uno de los coeficientes del polinomio de interpolación, se forman a base de cocientes de diferencias de cocientes de diferencias, etc.
  16. 16. Interpolación (Cont.) Esto da lugar a la definición de diferencias divididas finitas de Newton. Un método que nos evita el cálculo de dichas diferencias divididas finitas y es algorítmicamente mas susceptible de ser programado en cualquier lenguaje de computación es el Método de interpolación de Lagrange.
  17. 17. Lagrange Recordemos que Interpolación es, a partir de una serie de puntos, obtener una ecuación cuya curva pase por todos ellos o lo más cerca posible. En el método de Lagrange, se utiliza una ecuación que aunque se va alargando conforme mas puntos se quieran unir, es siempre del mismo tamaño y de la misma forma por lo que una de sus ventajas es que es más claro y fácil de hacer. El método de Lagrange se compone por una serie de sumandos, cada uno se "arma" tomando como referencia cada uno de los puntos a interpolar empezando desde el primero.
  18. 18. Lagrange (Cont.) Al final, si se tienen n números para unir, la ecuación resultante tendrá como grado n-1 así, si se quieren unir 3 puntos, la ecuación que resulta tiene grado 2. El planteamiento del Polinomio de Lagrange es el siguiente: Nuevamente tenemos los datos,
  19. 19. Lagrange (Cont.) El polinomio de interpolación de Lagrange se plantea como sigue: P( x) y0l0 ( x) y1l1 ( x)  ynln ( x) Donde los polinomios li (x) se llaman los polinomios de Lagrange, correspondientes a la tabla de datos. Como se debe satisfacer que P(x0) = y0, esto se cumple si l0 ( x0 ) 1 y li ( x0 ) 0 para toda i 0. Como se debe satisfacer que P(x1) = y1, esto se cumple si l1 ( x1 ) 1 y li ( x1 ) 0 para toda i 0.
  20. 20. Lagrange (Cont.) Y así sucesivamente, veremos finalmente que la condición Pn xn yn se cumple si ln xn 1 y li xn 0 para toda i n. Para ser más claros, analicemos detenidamente el polinomio para l0 ( x ) : De acuerdo al análisis anterior vemos que deben cumplirse las siguientes condiciones para l0 ( x ) , l0 ( x0 ) 1 y l0 ( x j ) 0 para toda j 0
  21. 21. Lagrange (Cont.) Por lo tanto, planteamos l0 ( x ) como sigue: lo x c x x1 x x2  x xn Con esto se cumple la segunda condición sobre l0 ( x ) . La constante c se determinará para hacer que se cumpla la primera condición: l0 x0 1 1 c x0 x1 x0 x2  x0 xn 1 c x0 x1 x0 x2  x0 xn
  22. 22. Lagrange (Cont.) Por lo tanto el polinomio l0 ( x ) queda definido como: x x1 x x2  x xn l0 x x0 x1 x0 x2  x0 xn Esto nos sugiere como plantear los polinomios de Lagrange donde, basados en lo anterior, podemos deducir que: (x x j ) i j li ( x) ( xi xj ) para j = 1,…,n i j
  23. 23. Correlación El Análisis de Correlación es el método utilizado en la práctica con el objetivo de determinar la fuerza de la relación o dependencia lineal que existe entre dos variables. El Análisis de Correlación es una herramienta de uso previo al Análisis de Regresión, que se estudia mas adelante, con el fin de realizar predicciones en alguna de las dos variables. El Análisis de Correlación determinará si vale la pena realizar dicha regresión.
  24. 24. Correlación (Cont.) Lo que se requiere para determinar la fuerza de la relación lineal es un indicador que cumpla con las siguientes características: 1) No ser dependiente de las unidades de medida; que no le afecten unidades de las variables. 2) Que su valor sea 1 si los puntos presentan una perfecta correlación lineal positiva. 3) Que su valor sea -1 si los puntos presentan una perfecta correlación lineal negativa. 4) Que su valor sea 0 si no hay correlación lineal entre las dos variables.
  25. 25. Correlación (Cont.) A este indicador se le llama “Coeficiente de Correlación de Pearson” y se le denota por r. Si el valor resultante de r es igual a 1 o a -1, entonces existirá una correlación lineal ó relación lineal perfecta entre las dos variables. Si r=0, no existe correlación ó relación lineal entre las dos variables. Sin embargo, hay que hacer notar que a pesar de que r puede valer cero, no necesariamente significa una falta de relación entre x e y (puede ser una relación no-lineal de grado mayor).
  26. 26. Correlación (Cont.) Existe una Fórmula para el cálculo del Coeficiente de Correlación de Pearson (r) basada en el concepto de la Suma de Cuadrados para un conjunto de datos: n n ( xi )2 SSx xi2 i 1 i 1 n
  27. 27. Correlación (Cont.) En esta ocasión estamos tratando con datos Bivariados (x,y), donde SSx es la suma de cuadrados para x, y entonces SSy denotará la Suma de Cuadrados para y; es decir: n n ( yi )2 i 1 SSy yi2 i 1 n
  28. 28. Correlación (Cont.) Si se reescribe la fórmula de la suma de cuadrados para que incluya a y en lugar de elevar x al cuadrado, se tendría: n n n ( xi ) ( xi ) i 1 i 1 xi xi i 1 n n n n ( xi ) ( yi ) i 1 i 1 xi yi i 1 n
  29. 29. Correlación (Cont.) La fórmula resultante es conocida como Suma de Productos Cruzados y se denotará por SSxy: n n n ( xi ) ( yi ) i 1 i 1 SSxy xi yi i 1 n
  30. 30. Correlación (Cont.) Finalmente, los valores de SSx, SSy y SSxy se utilizan para encontrar la expresión para evaluar el Coeficiente de Correlación de Pearson (r): SSxy r SSx SSy
  31. 31. Correlación (Cont.) El Coeficiente de Correlación de Pearson (r) deberá de ser considerado sólo como un valor de referencia de la fuerza de relación lineal entre x e y. Un valor alto de r no implica necesariamente la existencia de una relación de causa-efecto entre las dos variables, pues ambas pueden haber sido influidas por otras variables de tipo externo. r solo indica tendencia de variación que no siempre implicará relación directa entre x e y.
  32. 32. Regresión Lineal El Análisis de Regresión es el método utilizado para estudiar la relación entre dos o mas variables y para poder predecir valores en una de ellas. Si el Coeficiente de Correlación de Pearson resulta ser un valor alto (cerca de 1 o -1), puede ser deseable describir la relación de las variables en términos de una ecuación matemática. Hacer la determinación de dicha ecuación para definir la relación lineal existente, requiere de efectuar el denominado Análisis de Regresión.
  33. 33. Regresión Lineal (Cont.) Matemáticamente, una relación lineal entre x e y, se define por la ecuación y = b + mx; donde m es la pendiente de la recta y la constante b representa el valor de la intercepción con el eje y. El objetivo, entonces, es encontrar una ecuación de este tipo denominada Ecuación de Regresión la cual puede ser utilizada con propósitos predictivos. El problema es poder determinar los valores correspondientes para m y b en dicha ecuación, para cualquier caso dado.
  34. 34. Regresión Lineal (Cont.) Si se construye una gráfica de dispersión de los datos y buscamos la línea recta que sea lo mas “cercana” a todos los puntos, se tiene: Recta de Regresión 5 4 Valores de Y 3 2 1 0 0 1 2 3 4 5 6 Valores de X Esta recta se representa por: ŷ = b + mx
  35. 35. Regresión Lineal (Cont.) Para la recta de regresión, cada punto presenta una distancia vertical, error o desviación, por arriba o por debajo de ella. El método para encontrar la recta de mejor ajuste se llama Método de los Mínimos Cuadrados. Este método encuentra la recta para la cual la Suma de los Cuadrados de los Errores, denotada por SSE, tiene un valor mínimo.
  36. 36. Regresión Lineal (Cont.) Por ejemplo, si e1 es la desviación del primer punto a la recta ŷ=b+mx, entonces la distancia vertical corresponde al error de usar la recta para predecir al valor y1 usando x1. Entonces, se tiene que la expresión ei = yi – ŷi nos da el valor del error al predecir el i-ésimo valor de y usando el i-ésimo valor de x. Por lo que debe de cumplirse para el método de los mínimos cuadrados que ∑ei2 sea de valor mínimo:
  37. 37. Regresión Lineal (Cont.) Para los cinco puntos del ejemplo en la gráfica anterior: 5 ei 2 e12 e2 2 e32 e4 2 e52 i 1 5 ˆ ei 2 ( y1 y1 )2 ( y2 ˆ y2 ) 2 ( y3 ˆ y3 ) 2 ... i 1 De aquí que: n n SSE ei 2 ( yi ˆ yi )2 i 1 i 1
  38. 38. Regresión Lineal (Cont.) La obtención de la Recta de Regresión no es un proceso de prueba y error para seleccionar la mejor recta según el criterio de los mínimos cuadrados. La determinación de las constantes m y b en la ecuación de la recta ŷ=b+mx, y que hagan que SSE tenga un valor mínimo, es un proceso algebraico y de cálculo complejo, del cuál, para fines prácticos, solamente tomaremos sus resultados.
  39. 39. Regresión Lineal (Cont.) Las fórmulas resultantes del mencionado proceso algebraico y de cálculo que se obtienen para las constantes m y b para la Recta de Regresión del método de Mínimos Cuadrados son: SS xy m SS x b y mx
  40. 40. Regresión Lineal (Cont.) Un detalle muy interesante al efectuar el proceso de regresión es que el punto definido por los valores promedio ( x, y ) siempre se encontrará localizado sobre la recta óptima obtenida, actuando como “punto de equilibrio” o “centroide” de los datos. Hay que tener mucho cuidado al tratar de hacer predicciones para valores alejados de la variable x a los contenidos en la muestra. Como recomendación general, sólo deben usarse valores de x iguales o cercanos a los de la muestra para predicciones confiables.

×