ajuste de curvas

16
MÉTODOS NUMERICOS AJUSTE DE CURVAS INTEGRACION Y DEFERENCIACION NUMERICA Rogelio Isauro Morales Gálvez Q.I. Belem Facio Ruiz

Upload: mogri99

Post on 27-Dec-2015

27 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Ajuste de Curvas

MÉTODOS

NUMERICOS

AJUSTE DE CURVAS

INTEGRACION Y DEFERENCIACION NUMERICA

Rogelio Isauro Morales Gálvez Q.I. Belem Facio Ruiz

Page 2: Ajuste de Curvas

Ajuste de curvas

Los datos a menudo son dados para valores discretos a lo largo de un continuo.

Sin embargo, usted puede requerir una estimación en puntos entre los valores

discretos.

Existen dos procedimientos generales para el ajuste de curvas que se distinguen

uno del otro con base en el grado de error asociado con los datos. Primero, donde

los datos exhiban un grado significativo de error o "ruido", la estrategia será

derivar una sola curva que represente la tendencia general de los datos. Debido a

que cualquier dato individual puede ser incorrecto, no se necesita interceptar cada

punto. En lugar de esto, se designa la curva para seguir un patrón de los puntos

tomados como un grupo. Un procedimiento de esta naturaleza es llamado

regresión por mínimos cuadrados.

Segundo, donde se conoce que los datos son muy precisos, el procedimiento

básico será ajustar a una curva o a una serie de curvas que pasen directamente a

través de cada uno de los puntos. Usualmente tales datos se originan de tablas.

Como ejemplos se tienen los valores de la densidad del agua o la capacidad

calorífica de los gases en función de la temperatura. La estimación de valores

entre puntos discretos bien conocidos es llamada interpolación.

Métodos sin computadora para el ajuste de curvas

El método más simple para ajustar a una curva los datos es ubicar los puntos y

después dibujar una línea que visualmente conforma a los datos. Aunque ésta es

una operación válida cuando se requiere una estimación rápida, los resultados

son dependientes del punto de vista subjetivo de la persona que dibuja la curva.

Por ejemplo, en las siguientes figuras, son mostrados trazos desarrollados a partir

del mismo conjunto de datos por tres ingenieros. El primero no intentó conectar los

puntos; en vez de ello, caracterizó la tendencia general hacia arriba de los datos

con una línea recta. El segundo ingeniero usó segmentos de línea recta o

interpolación lineal para conectar los puntos. Ésta es una práctica común en la

ingeniería. Si los valores están verdaderamente cercanos a ser lineales o

cercanamente espaciados, tal aproximación provee estimaciones que son

adecuadas en muchos cálculos de la ingeniería. Sin embargo, donde la relación

resaltada es altamente curvilínea o los datos están espaciados en forma muy

amplia, se puede introducir errores por esa interpolación lineal. El tercer ingeniero

usa curvas para tratar de capturar el serpenteado sugerido por los datos. Un

cuarto o quinto ingeniero podría, de igual forma, desarrollar ajustes alternativos.

Es obvio que nuestra meta aquí es desarrollar métodos sistemáticos y objetivos

con el propósito de obtener tales curvas.

Page 3: Ajuste de Curvas

Regresión por mínimos cuadrados

Donde se asocian errores sustanciales con los datos, la interpolación polinomial es

inapropiada y puede dar resultados insatisfactorios cuando se usa para predecir

valores intermedios. Por ejemplo, en la figura 17.1a se muestran siete datos

derivados experimentalmente que exhiben variabilidad significativa. Una

inspección visual de dichos datos sugiere una posible relación entre y y x. Es

decir, la tendencia general indica que los valores más altos de y son asociados

con los valores más altos de x. Ahora, si una interpolación de sexto orden se

ajusta a estos datos (figura 17.1¿»), pasará justo a través de todos los puntos. Sin

embargo, a causa de la variabilidad en los datos, la curva oscila en forma amplia

Page 4: Ajuste de Curvas

en el intervalo entre los puntos. En particular, los valores interpolados en x = 1.5 y

JC = 6.5 parecen estar muy adelante del rango sugerido por los datos.

Una estrategia más apropiada para tales casos es derivar una función aproximada

que ajuste la forma de la tendencia general de los datos sin ajustar

necesariamente con los puntos individuales. La figura 17.1c ilustra cómo se puede

usar por lo general una línea recta para caracterizar la tendencia de los datos sin

pasar a través de un punto en particular.

Una manera para determinar la línea en la figura 17.1c es inspeccionar en forma

visual los datos graneados y después trazar una "mejor" línea a través de los

puntos.

Aunque tales procedimientos por "vistazo" apelan al sentido común y son válidos

para cálculos superficiales, resultan deficientes por ser arbitrarios. Es decir, a

menos que los puntos definan una línea recta perfecta (en tal caso la interpolación

podría ser apropiada), diferentes analistas podrían dibujar distintas líneas.

Para hacer a un lado la subjetividad se debe concebir algunos criterios con el fin

de establecer una base para el ajuste. Una forma de hacerlo es derivar una curva

que minimice la discrepancia entre los puntos y la curva. Una técnica para cumplir

con tal objetivo se conoce como regresión por mínimos cuadrados, que se

analizará en este capítulo.

REGRESIÓN LINEAL

El ejemplo más simple de una aproximación por mínimos cuadrados es mediante

el ajuste de un conjunto de pares de observaciones: (x1, y1), (x2, y2),…, (xn, yn) a

una línea recta. La expresión matemática para esta última es

Page 5: Ajuste de Curvas

El ejemplo más simple de una aproximación por mínimos cuadrados es mediante

el ajuste de un conjunto de pares de observaciones: (x1,y1), (x2,y2),…, (x„ ,y„) a

una línea recta. La expresión matemática para esta última es:

donde a0 y a1 son coeficientes que representan el intercepto y la pendiente,

respectivamente, y e es el error, o residuo, entre el modelo y las observaciones,

las cuales se pueden representar al reordenar la ecuación como

Así, el error o residuo es la discrepancia entre el valor real de y y el valor

aproximado, a0+a,x, predicho por la ecuación lineal.

Criterios para un "mejor" ajuste

Page 6: Ajuste de Curvas

Una estrategia para ajustar a la ¿"mejor"? línea a través de los datos podría ser

minimizar la suma de los errores residuales para todos los datos disponibles,

como en donde n =número total de puntos.

Ajuste por mínimos cuadrados de una línea recta

Para determinar los valores de a0 y a1,la ecuación es diferenciada con respecto a

cada coeficiente:

Observe que hemos simplificado los símbolos de la sumatoria; a menos que se

indique otra cosa, todas las sumatorias son de i = 1 hasta n. Al fijar esas derivadas

igual a cero, resultará en un mínimo Sr. Si se hace esto, las ecuaciones se pueden

expresar como

Ahora, si hacemos que £a0= na0, podemos expresar las ecuaciones como un

conjunto de dos ecuaciones lineales con dos incógnitas (a0 y a1):

Estas son llamadas ecuaciones normales, y pueden ser resueltas en forma

simultánea

Page 7: Ajuste de Curvas

Este resultado, entonces, se puede usar en conjunto con la ecuación (17.4) y

resolver para

donde ȳ y ẏ son las medias de y y x, respectivamente.

REGRESIÓN DE POLINOMIOS

En la sección 17.1 se desarrolló un procedimiento para obtener la ecuación de una

línea recta por medio del criterio de mínimos cuadrados. Algunos datos de

ingeniería, aunque exhiben un patrón marcado como el que se vio en la figura

17.8, está pobremente representado por una línea recta. Para esos casos, una

curva podría ser más adecuada para el ajuste de los datos. Como se analizó en la

sección anterior, un método para cumplir con este objetivo es usar

transformaciones. Otras alternativas son ajustar polinomios con los datos

mediante regresión de polinomios.

El procedimiento de mínimos cuadrados se puede fácilmente extender al ajuste de

datos con un polinomio de orden superior. Por ejemplo, suponga que ajustamos

un polinomio de segundo orden o cuadrático:

Para este caso la suma de los cuadrados de los residuos es

Siguiendo el procedimiento de la sección anterior, tomamos la derivada de la

ecuación (17.18) con respecto de cada uno de los coeficientes desconocidos del

polinomio, como en

Estas ecuaciones se pueden igualar a cero y reordenar para desarrollar el

siguiente conjunto de ecuaciones normal:

Page 8: Ajuste de Curvas

donde todas las sumatorias son de i = 1 hasta n. Observe que las tres ecuaciones

anteriores son lineales y tienen tres incógnitas: a0, a1 y a2. Los coeficientes de las

incógnitas se pueden evaluar de manera directa a partir de los datos observados.

Para este caso, vemos que el problema de determinar un polinomio por mínimos

cuadrados de segundo orden es equivalente a resolver un sistema de tres

ecuaciones lineales simultáneas.

El caso en dos dimensiones puede extenderse con facilidad a un polinomio de m

ésimo orden como

El análisis anterior se puede fácilmente extender a este caso más general. Así,

podemos reconocer que la determinación de los coeficientes de un polinomio de

m-ésimo orden es equivalente a resolver un sistema de m + 1 ecuaciones lineales

simultáneas. Para este caso, el error estándar se formula como

Esta cantidad es dividida entre n — (m + 1), ya que (m + 1) coeficientes obtenidos

de los datos (a0, a1,…,am) se usaron para calcular S,.; así, hemos perdido m + 1

grados de libertad. Además del error estándar, un coeficiente de determinación

puede ser calculado para una regresión de polinomios.

REGRESIÓN LINEAL MÚLTIPLE

Una extensión útil de la regresión lineal es el caso donde y es una función lineal

de dos o más variables independientes. Por ejemplo, y podría ser una función

lineal de x1 y x2,como en

Tal ecuación es en particular útil cuando se ajustan datos experimentales donde la

variable sujeta a estudio es a menudo una función de otras dos variables.

L los "mejores" valores de los coeficientes son determinados al realizar la suma de

los cuadrados de los residuos,

Page 9: Ajuste de Curvas

y diferenciando con respecto a cada uno de los coeficientes desconocidos,

Los coeficientes dan la suma mínima de los cuadrados de los residuos y se

obtienen al igual las derivadas parciales a cero y expresando el resultado en forma

de matriz como

Formulación general de una matriz para mínimos cuadrados lineales

En páginas anteriores hemos introducido tres tipos de regresión: lineal simple,

polinomial y lineal múltiple. De hecho, estas tres pertenecen al siguiente modelo

general de mínimos cuadrados lineales:

donde z0, z,…, zm son las m + 1 funciones diferentes. Se puede ver con facilidad

cómo la regresión lineal simple y múltiple encajan dentro de este modelo; es decir

z() — 1, z1 x1,z2 = x2,…, z„, = xm.

Observe que la terminología "lineal" se refiere sólo a la dependencia del modelo

sobre sus parámetros (es decir, las a). Como en el caso de regresión de

polinomios, las mismas funciones pueden ser altamente no lineales. Por ejemplo,

las z pueden ser sinusoidales, como en

Tal formato es la base del análisis de Fourier. Por otro lado, un modelo de

apariencia simple como

Page 10: Ajuste de Curvas

es ciertamente no lineal porque no puede ser manejado en el formato de la

ecuación (17.23). Regresaremos a tales modelos al final de este capítulo.

Mientras tanto, la ecuación (17.23) se puede expresar en notación matricial como

donde [Z] es una matriz de los valores calculados de las funciones z en los valores

medidos de las variables independientes,

donde m es número de variables en el modelo y n es el número de datos. Como

n>m + 1, usted debería reconocer que la mayoría de las veces [Z] no es una

matriz cuadrada.

El vector columna {Y} contiene los valores observados de la variable dependiente

El vector columna {A} contiene los coeficientes desconocidos

y el vector columna {E} contiene los residuos

Como se realizó a través de este capítulo, la suma de los cuadrados de los

residuos para este modelo se pueden definir como

Esta cantidad se puede minimizar al tomar su derivada parcial con respecto a

cada uno de los coeficientes y fijar los resultados de la ecuación igual a cero. La

salida de este proceso son las ecuaciones normal que se pueden expresar

brevemente en forma de matriz como

Page 11: Ajuste de Curvas

Se puede demostrar que la ecuación (17.25) es, de hecho, equivalente a las

ecuaciones normal desarrolladas antes para regresión lineal simple, polinomial y

múltiple.

Nuestra principal motivación para las anteriores ha sido ilustrar la unión entre los

tres procedimientos y mostrar cómo se pueden expresar de manera simple en la

misma notación matricial. También acondiciona la etapa para la siguiente sección

donde asimilaremos algo de conocimiento en las estrategias preferidas para

resolver la ecuación (17.25).

Interpolación lineal

El modo más simple de interpolación es conectar dos puntos con una línea recta.

Esta técnica, llamada interpolación lineal, se ilustra en forma gráfica en la figura

18.2. Mediante triángulos semejantes,

la cual se puede reordenar para dar

que es una fórmula de interpolación lineal. La notación f(x) designa que es una

interpolación de polinomios de primer orden. Observe que además de representar

la

pendiente de la línea que conecta los puntos, el término [f(x1) — f(x0)]/(x1 — x0)

es una aproximación por diferencia dividida finita de la primera derivada [recuerde

Page 12: Ajuste de Curvas

la ecuación (4.17). En general, cuanto más pequeño sea el intervalo de datos,

mejor será la aproximación. Esto se debe al hecho de que, en tanto el intervalo

disminuya, una función continua se aproximará mejor por una línea recta.

Integración y diferenciación numérica Teorema del resto

Sea f (x) una función de R en R de clase C n−1 (o sea, continua y con derivadas

hasta orden n − 1 continuas) en el intervalo cerrado [x, x + h] y cuya derivada

de orden n existe en el intervalo abierto ]x, x + h[. Entonces existe algún punto

ξ ∈]x, x + h[ tal que

El teorema es de existencia, es decir, dice que tal punto ξ esta entre x y x + h, pero no cual

es. En cualquier caso, conociendo los valores mınimo y maximo de las derivadas en [x, x +

h] el teorema, como veremos despues, puede servir para acotar el error cometido en un

desarrollo en serie.

Propiedad de D’Arboux

Sea f (x) contınua en el intervalo cerrado [a, b], y supongamos que f (a) ≤ f (b). Entonces, ∀y

]f (a), f (b)[ existe un punto ξ ∈]a, b[ tal que f (ξ) = y. Es decir, todos los valores

comprendidos entre los que la funcion toma en los dos extremos del intervalo se alcanzan

en al menos uno de los puntos interiores del mismo.

Diferenciacion numerica

Metodos directos

Dada una funcion f de clase C 1 definida sobre un intervalo [x, x + h], estamos interesados

en calcular su derivada f 0(x) en el punto x. Para ello, partimos de la definicion de

derivada:

Entonces, podemos tomar un valor h pequeno y hacer una primera estimacion del valor de

la derivada como

Page 13: Ajuste de Curvas

Sin embargo, esta aproximacion no permite acotar el error cometido. No obstante, si

recurrimos a desarrollar en serie f alrededor de x hasta orden n-1, con resto de orden n,

obtenemos

Podemos particularizar a n = 2 y despejar f 0(x) como

Como quiera que, si la derivada segunda existe en ]x, x + h[, el segundo termino tiende a 0

al tender h a 0, este termino da el error cometido cuando no lo consideramos, es decir,

cuando aproximamos usando la ecuacion (6.1).

Ejemplo: usar la ecuacion (6.1) para evaluar la derivada de

tomando h = 0,01, y evaluar luego el error cometido usando la ecuacion (6.2).

El término de error será

de modo que la cota superior para el error será Ası pues,

Como hemos visto, el termino de error es proporcional al tamano del paso, h. Por

ello, deberıa tomarse un tamano de paso pequeno. Alternativamente, podemos

preguntarnos si existen formulas mas precisas, que hagan el error proporcional a otras

potencias de h. En efecto, si tomamos tres terminos del desarrollo en serie de Taylor de

f alrededor de x, y ademas usamos dos valores de h, uno positivo y otro negativo,

obtenemos

Restando dichas ecuaciones, y despejando la derivada se obtiene

Si ahora suponemos que f es al menos de clase C 3 en el intervalo] ξ 1 , ξ2[, por la propiedad

de D’Arboux, existe un punto ξ ∈]ξ1, ξ2 [ tal que con lo que la derivada

queda

Observemos que el termino de error es ahora del orden de h2 , que si h es pequena, es

Page 14: Ajuste de Curvas

menor que h, resultado obtenido en el caso anterior.

Por otra parte, es posible tambien usar ecuaciones similares a la (6.3) para calcular

derivadas de orden superior. Por ejemplo, para la segunda,

Sumando ambas ecuaciones, usando de nuevo la propiedad de D’Arboux para la derivada

cuarta, y despejando f’’(x), queda

Se deja como ejercicio el calculo de una expresion similar para la derivada tercera.

Notese que el calculo de cualquier derivada involucra al valor de la funcion en puntos x +h

o x − h. Si la funcion es conocida explıcitamente (p. ej., si tenemos su expresion analıtica,

o un algoritmo seguro para su calculo) esto es razonable. Pero si la funcion es el resultado

de algun experimento, o debe estimarse por procedimientos que vengan afectados de gran

error, no deberıan usarse las formulas anteriores para la estimacion de la derivada, dado

que las diferencias entre dos cantidades muy proximas que aparecen en los numeradores,

ası como la division por cantidades muy pequenas, amplifican los errores.

Extrapolacion de Richardson

Con este procedimiento trataremos de mejorar las ecuaciones obtenidas anteriormente para

conseguir aun mas precision en la estimacion de la derivada de f en un punto x. Supongamos

que f (x) es de clase C n en [x, x + h]. En tal caso, su desarrollo en serie de Taylor

alrededor de x para los puntos x + h y x − h sera de la forma

Restando ambas ecuaciones, todos los terminos de orden par se cancelan, resultando

de donde, despejando f 0(x),

Page 15: Ajuste de Curvas

lo que se puede escribir como

en la que L = f 0(x), la funcion ϕ(h) se define como

Notese que, debido a su definicion, con h en el denominador, ϕ(h) solo

puede evaluarse para valores de h distintos de 0, aunque arbitrariamente

proximos. Notese igualmente que el error si damos ϕ(h) como valor para la

derivada depende de terminos en potencias de h, siendo el termino

dominante el correspondiente a h2 . La ecuacion (6.8) da la primera

estimacion de la derivada usando el metodo de Richardson, pero se puede

continuar para conseguir que el termino dominante del error sea aun mas

pequeno. Para ello, escribamos la ecuacion (6.8) evaluandola en h/2 lo que

da

Restandole ahora a la ecuacion (6.9) multiplicada por 4 la ecuacion (6.8), obtenemos

de donde podemos despejar la derivada L que buscamos como

Esto significa que, usando una simple combinacion de hemos obtenido

una precision del orden de h4 , frente al orden h2 que habıamos obtenido usando solo ϕ(h). Analogamente se puede repetir el proceso tantas veces como se quiera; el siguente paso

definirıa con lo que la ecuacion (6.10) evaluada en h y en h/2

queda

Page 16: Ajuste de Curvas

de donde se puede despejar L, multiplicando la segunda ecuacion por 16 y restandole

la primera:

que es una estimacion de f 0(x) con precision del orden de h6 . Escogido un valor apropiado, digamos 1, para h, la repeticion del proceso lleva a la siguiente formula general: