diferenciación numérica

21
Diferenciación Numérica El cálculo de la derivada de una función puede ser un proceso "difícil" ya sea por lo complicado de la definición analítica de la función o por que esta se conoce unicamente en un número discreto de puntos. (Este es el caso si la función representa el resultado de algún experimento). En esta lección estudiaremos técnicas para aproximar las derivadas de una función y veremos el análisis de error de dichas formulas. Métodos básicos de la diferenciación numérica El cálculo de la derivada de una función puede ser un proceso “difícil” ya sea por lo complicado de la definición analítica de la función o por que esta se conoce únicamente en un número discreto de puntos. (Este es el caso si la función representa el resultado de algún experimento). En esta lección estudiaremos técnicas para aproximar las derivadas de una función y veremos el análisis de error de dichas formulas. Formulas para la primera derivada: La definición de la derivada de una función f(x) en el punto “x” esta dada en términos del límite: De esta definición podemos decir que si “h” es pequeño entonces: (Note el símbolo de aproximación). Esto nos da inmediatamente la primera formula numérica para aproximar la derivada:

Upload: unixpc

Post on 24-Jun-2015

1.668 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Diferenciación Numérica

Diferenciación Numérica

El cálculo de la derivada de una función puede ser un proceso "difícil" ya sea por lo complicado de la definición analítica de la función o por que esta se conoce unicamente en un número discreto de puntos. (Este es el caso si la función representa el resultado de algún experimento). En esta lección estudiaremos técnicas para aproximar las derivadas de una función y veremos el análisis de error de dichas formulas.

Métodos básicos de la diferenciación numérica

El cálculo de la derivada de una función puede ser un proceso “difícil” ya sea por lo complicado de la definición analítica de la función o por que esta se conoce únicamente en un número discreto de puntos. (Este es el caso si la función representa el resultado de algún experimento). En esta lección estudiaremos técnicas para aproximar las derivadas de una función y veremos el análisis de error de dichas formulas.

Formulas para la primera derivada: La definición de la derivada de una función f(x) en el punto “x” esta dada en términos del límite:

De esta definición podemos decir que si “h” es pequeño entonces:

(Note el símbolo de aproximación). Esto nos da inmediatamente la primera formula numérica para aproximar la derivada:

Antes de ver algunos ejemplos donde usamos esta formula, tratemos de contestar la pregunta de ¿cuán buena es esta aproximación de la derivada? Por el Teorema de Taylor sabemos que:

Donde esta entre x y x+h. Si despejamos ahora en esta formula por f’(x) y usamos la definición de tenemos que:

Esta formula nos dice que aproxima a f’(x) con un error proporcional a “h”, i.e., O(h). Ejemplo 1: Tomamos y queremos aproximar cuyo valor exacto es nueve. En la siguiente figura ilustramos los errores como función de “h” en escala logarítmica.

Podemos ver que los errores disminuyen hasta un cierto valor crítico “hmin” luego del cual los errores aumentan según la “h” disminuye. ¿Contradice esto el resultado de arriba de O (h) del error? ¡NO! El resultado de arriba es sobre la

Page 2: Diferenciación Numérica

convergencia si la aritmética es exacta y se dice que es un resultado asintótico. La figura ilustra los efectos de redondeo debido a la aritmética finita los cuales se hacen significativos para “h” pequeño y pueden afectar cualquier formula numérica para aproximar la derivada. Sin embargo, una formula con un grado de aproximabilidad digamos O(h2) es preferible a una O(h) ya que los errores (teóricos) tienden a cero más rápido y asi la “h” no se tiene que hacerse tan pequeña reduciendo así los efectos de los errores por la aritmética finita. <> El método de arriba usando la expansión de Taylor se puede utilizar para obtener formulas para aproximar la derivada con un grado de aproximabilidad más alto que uno. Ilustramos esto para la obtención de una formula O (h2). Si en lugar de llegar hasta términos de orden dos, expandimos hasta términos de orden tres en la expansión de Taylor, obtenemos las formulas:

Si restamos estas dos ecuaciones, despejamos para f’(x), y usamos el teorema del valor medio aplicado a f’‘’(x) obtenemos la formula:

Donde y esta entre [x-h,x+h]. Tenemos pues que la formula tiene un error proporcional a O (h2). Ejemplo 2: Comparamos las dos formulas obtenidas hasta ahora para aproximar f’(x) con el ejemplo de para. Los resultados los presentamos en forma tabulada para distintos valores de h: h 0.1 13.5795 4.57948 9.85264 0.852636 0.05 11.0266 2.02656 9.21079 0.210788 0.025 9.95452 0.954519 9.05255 0.0525492 0.0125 9.46337 0.463374 9.01313 0.0131281

Este ejemplo ilustra lo superior de la formula. Note que cada ves que h se divide entre dos, el error en la formula se divide por dos (aproximadamente) mientras que en la formula se divide (aproximadamente) por cuatro (¿por qué?). <> En forma similar se pueden obtener formulas de orden mayor utilizando expansiones de 3h, etc. Por ejemplo la expansión2h, xTaylor que envuelvan x

Donde

Y esta entre [x-h, x+h]. Tenemos aquí una formula de orden dos para f”(x). Ejemplo 3: Examinamos la formula de arriba en el caso y para aproximar f ‘’(1)=72. Tenemos los resultados: h 0.1 74.5368 2.53682 0.05 72.6311 0.63105 0.025 72.1576 0.157566 0.0125 72.0394 0.0393791 Nuevamente se puede ver el factor de cuatro en el error, característico de la convergencia de orden dos. <> En forma similar se pueden obtener formulas de orden mayor utilizando 3h, etc. Por ejemplo la expansión2h, xexpansiones de Taylor que envuelva x

Page 3: Diferenciación Numérica

Nos da una formula de orden cuatro para f”(x). Diferenciación usando polinomios de interpolación: Suponga que son puntos distintos y sea pn(x) el polinomio que interpola a f(x) en estos puntos. Entonces aproximamos f ‘(x) por:

Suponga que. Se puede demostrar que no discutiremos en más detalles este método para aproximar derivadas, si mencionamos que las dos formulas que discutimos para aproximar f ‘(x) se pueden obtener usando polinomios de interpolación de grados uno y dos respectivamente.

formula de la diferencia Diferencia finita Una diferencia finita es una expresión matemática de la forma f(x + b) − f(x +a). Si una diferencia finita se divide por b − a se obtiene una expresión similar al cociente diferencial, que difiere en que se emplean cantidades finitas en lugar de infinitesimales. La aproximación de las derivadas por diferencias finitas desempeña un papel central en los métodos de diferencias finitas del análisis numérico para la resolución de ecuaciones diferenciales. Diferencias anterior, posterior y central Sólo se consideran normalmente tres formas: la anterior, la posterior y la central. Una diferencia anterior es una expresión de la forma

Formulas para la primera derivada: La definición de la derivada de una función f(x) en el punto "x" esta dada en términos del límite:

De esta definición podemos decir que si "h" es pequeño entonces:

(Note el símbolo de aproximación). Esto nos da inmediatamente la primera formula numérica para aproximar la derivada:

Page 4: Diferenciación Numérica

Antes de ver algunos ejemplos donde usamos esta formula, tratemos de contestar la pregunta de ¿cuán buena es esta aproximación de la derivada? Por el Teorema de Taylor sabemos que:

Donde esta entre x y x+h. Si despejamos ahora en esta formula por f'(x) y usamos

la definición de tenemos que:

Esta formula nos dice que aproxima a f'(x) con un error proporcional a "h", i.e., O (h).

Ejemplo Comparamos las dos formulas obtenidas hasta ahora para aproximar f'(x)

con el ejemplo de para . Los resultados los presentamos en forma tabulada para distintos valores de h:

h

0.1 13.5795 4.57948 9.85264 0.852636

0.05 11.0266 2.02656 9.21079 0.210788

0.025 9.95452 0.954519 9.05255 0.0525492

0.0125 9.46337 0.463374 9.01313 0.0131281

Este ejemplo ilustra lo superior de la formula . Note que cada ves que h se

divide entre dos, el error en la formula se divide por dos (aproximadamente)

Page 5: Diferenciación Numérica

mientras que en la formula se divide (aproximadamente) por cuatro (¿por qué?). <>

En forma similar se pueden obtener formulas de orden mayor utilizando expansiones de Taylor que envuelvan x2h, x3h, etc. Por ejemplo la expansión

nos da una formula de orden cuatro para f'(x). Es importante observar que mientras más alto el grado de aproximabilidad de la formula, más suave tiene que ser la función para que dicha aproximación sea valida. Por ejemplo esta formula de orden cuatro requiere que la función tenga cinco derivadas continuas en el intervalo en cuestión mientras que la formula de orden dos requiere únicamente tres derivadas continuas.

Formulas para la segunda derivada: El proceso de arriba se puede usar para obtener formulas para las derivadas de orden mayor de uno de una función f(x). Usamos este proceso para obtener una formula para la segunda derivada. Usando el Teorema de Taylor, podemos escribir las expansiones:

Sumando estas dos expansiones y despejando para f''(x) obtenemos:

donde

y esta entre [x-h,x+h]. Tenemos aqui una fomula de orden dos para f"(x).

Page 6: Diferenciación Numérica

Diferenciación usando polinomios de interpolación: Suponga que son puntos distintos y sea pn(x) el polinomio que interpola a f(x) en estos puntos. Entonces aproximamos f '(x) por:

Suponga que . Se puede demostrar que

Aunque no discutiremos en más detalles este método para aproximar derivadas, si mencionamos que las dos formulas que discutimos para aproximar f '(x) se pueden obtener usando polinomios de interpolación de grados uno y dos respectivamente.

Ejercicios:

1. Utilice las formulas para aproximar la primera y segunda derivada discutidas en esta lección para aproximar las correspondientes derivadas de la función

en x=1 y para h=0.1, 0.01. 2. Usando el Teorema de Taylor verifique la formula

3. Para la formula repita un proceso similar al del Ejemplo 1 donde "h" se disminuye hasta que el error en la formula empieza a aumentar.

Integración numérica

En análisis numérico, la integración numérica constituye una amplia gama de algoritmos para calcular el valor numérico de una integral definida y, por extensión, el término se usa a veces para describir algoritmos numéricos para resolver ecuaciones diferenciales.

El problema básico considerado por la integración numérica es calcular una solución aproximada a la integral definida:

Page 7: Diferenciación Numérica

Este problema también puede ser enunciado como un problema de valor inicial para una ecuación diferencial ordinaria, como sigue:

Encontrar y(b) es equivalente a calcular la integral. Los métodos desarrollados para ecuaciones diferenciales ordinarias, como el método de Runge-Kutta, pueden ser aplicados al problema reformulado. En este artículo se discuten métodos desarrollados específicamente para el problema formulado como una integral definida.

Razones para la integración numérica

Hay varias razones para llevar a cabo la integración numérica. La principal puede ser la imposibilidad de realizar la integración de forma analítica. Es decir, integrales que requerirían un gran conocimiento y manejo de matemática avanzada pueden ser resueltas de una manera más sencilla mediante métodos numéricos. Incluso existen funciones integrables pero cuya primitiva no puede ser calculada, siendo la integración numérica de vital importancia. La solución analítica de una integral nos arrojaría una solución exacta mientras que la solución numérica nos daría una solución aproximada. El error de la aproximación, que depende del método que se utilice y de qué tan fino sea, puede llegar a ser tan pequeño que es posible obtener un resultado idéntico a la solución analítica en las primeras cifras decimales.

Métodos para integrales unidimensionales

Los métodos de integración numérica pueden ser descritos generalmente como combinación de evaluaciones del integrando para obtener una aproximación a la integral. Una parte importante del análisis de cualquier método de integración numérica es estudiar el comportamiento del error de aproximación como una función del número de evaluaciones del integrando. Un método que produce un pequeño error para un pequeño número de evaluaciones es normalmente considerado superior. Reduciendo el número de evaluaciones del integrando se reduce el número de operaciones aritméticas involucradas, y por tanto se reduce el error de redondeo total. También, cada evaluación cuesta tiempo, y el integrando puede ser arbitrariamente complicado.

Page 8: Diferenciación Numérica

De todos modos, un modo de integración por «fuerza bruta» puede hacerse siempre, de un modo muy simplista, evaluando el integrando con incrementos muy pequeños.

El método más simple de este tipo es hacer la función interpoladora ser una función constante (un polinomio de orden cero) que pasa a través del punto

. Es a la vez un método de Newton-Cotes y de Gauss-Legendre, y se llama la regla del punto medio o regla del rectángulo:

La función interpoladora puede ser una función afín (un polinomio de grado que pasa

a través de los puntos y . Este método, de Newton-Cotes por tomar nodos en los extremos del intervalo de interación, es llamado regla trapezoidal:

Para cualquier regla interpoladora, se puede hacer una aproximación más

precisa dividiendo el intervalo en algún número de subintervalos, hallando una aproximación para cada subintervalo, y finalmente sumando todos los resultados. Las reglas que surgen de hacer esto se llaman reglas compuestas, y se caracterizan por perder un orden de precisión global frente a las correspondientes simples, si bien globalmente dan valores más precisos de la integral, a costa eso sí de incrementar significativamente el coste operativo del método. Por ejemplo, la regla trapezoidal compuesta puede expresarse como:

donde los subintervalos tienen la forma con

y . La interpolación con polinomios evaluada en puntos

Page 9: Diferenciación Numérica

igualmente separados en da las fórmulas de Newton-Cotes, de las que la regla del rectángulo y la trapezoidal son ejemplos. Si se escogen los nodos hasta k = n + 1 será la fórmula de Newton-Cotes cerrada y si se escogen k = n − 1 será la fórmula de Newton-Cotes abierta. La regla de Simpson, que está basada en un polinomio de orden 2, es también una fórmula de Newton-Cotes.

Métodos de extrapolación

La precisión de un método de integración del tipo Newton-Cotes es generalmente una función del número de puntos de evaluación. El resultado es usualmente más preciso cuando el número de puntos de evaluación aumenta, o, equivalentemente, cuando la anchura del paso entre puntos decrece. ¿Qué pasa cuando la anchura del paso tiende a cero? Esto puede responderse extrapolando el resultado de dos o más anchuras de paso (extrapolación de Richardson). La función de extrapolación puede ser un polinomio o una función racional. Los métodos de extrapolación están descritos en más detalle por Stoer y Bulirsch (Sección 3.4).

Estimación del error conservativa

Supongamos que tiene una primera derivada sobre acotada. El teorema del valor medio para , para , da

para algún en dependiendo de . Si integramos en de a en ambos lados de la igualdad y tomamos valores absolutos, tenemos

Se puede aproximar más la integral en el lado derecho metiendo el valor absoluto en el integrando, y reemplazando el término en por una cota superior:

Page 10: Diferenciación Numérica

Así, si aproximamos la integral por su regla de integración

, el error no es mayor que el lado derecho de la ecuación.

MÉTODO DE INTEGRACIÓN DE ROMBERG

Sea el valor de la integral que aproxima a , mediante una

partición de subintervalos de longitud y usando la regla del trapecio.

Entonces, 

donde es el error de truncamiento que se comete al aplicar la regla. 

El método de extrapolación de Richardson combina dos aproximaciones de integración numérica, para obtener un tercer valor más exacto.

El algoritmo más eficiente dentro de éste método, se llama Integración de Romberg , la cual es una fórmula recursiva.

Supongamos que tenemos dos aproximaciomnes : e  

 

Se puede demostrar que el error que se comete con la regla del trapecio para n subintervalos está dado por las siguientes fórmulas: 

 

 

Page 11: Diferenciación Numérica

donde es un promedio de la doble derivada entre ciertos valores que pertenecen a cada uno de los subintervalos.

Ahora bien, si suponemos que el valor de es constante, entonces : 

Sustituyendo esto último en nuestra primera igualdad, tenemos que: 

De aquí podemos despejar : 

Page 12: Diferenciación Numérica

En el caso especial cuando (que es el algoritmo de Romberg), tenemos : 

Esta fórmula es solo una parte del algoritmo de Romberg. Para entender el método, es conveniente pensar que se trabaja en niveles de aproximación. En un primer nivel, es cuando aplicamos la regla del Trapecio, y para poder usar la fórmula anterior, debemos de duplicar cada vez el número de subintervalos: así, podemos comenzar con un subintervalo, luego con dos, cuatro, ocho, etc, hasta donde se desee. 

Posteriormente, pasamos al segundo nivel de aproximación, que es donde se usa la fórmula anterior, tomando las parejas contiguas de aproximación del nivel

anterior, y que corresponden cuando .

Después pasamos al nivel tres de aproximación, pero aquí cambia la fórmula de Romberg, y así sucesivamente hasta el último nivel, que se alcanza cuando solo contamos con una pareja del nivel anterior.  

Desde luego, el número de niveles de aproximación que se alcanzan, depende de las aproximaciones que se hicieron en el nivel 1. En general, si en el primer nivel, iniciamos con n aproximaciones, entonces alcanzaremos a llegar hasta el nivel de aproximación n. 

Page 13: Diferenciación Numérica

S o l u c i o n e s

 

Page 14: Diferenciación Numérica

 

 

Orden de la ecuación

Se llama orden de la ecuación al orden de la derivada de mayor orden que aparece en la ecuación. Ejemplo:

es una ecuación diferencial de orden 2, ya que la derivada de mayor orden que aparece en ella es de ese orden.

Page 15: Diferenciación Numérica

Grado de la ecuación

Se llama grado de la ecuación al exponente de la derivada de mayor orden. La ecuación debe tener una forma polinómica, de no ser así se considera que no tiene grado.

Se dice que una ecuación es lineal si tiene la forma

, es decir:

Ni la función ni sus derivadas están elevadas a ninguna potencia distinta de uno o cero.

En cada coeficiente que aparece multiplicándolas sólo interviene la variable independiente.

Una combinación lineal de sus soluciones es también solución de la ecuación.

Ejemplos:

y' = y es una ecuación diferencial ordinaria lineal de primer orden, tiene como

soluciones , con k un número real cualquiera. y'' + y = 0 es una ecuación diferencial ordinaria lineal de segundo orden, tiene

como soluciones , con a y b reales.

y'' − y = 0 es una ecuación diferencial ordinaria lineal de segundo orden, tiene

como soluciones , con a y b reales.

Usos

Las ecuaciones diferenciales son muy utilizadas en todas las ramas de la ingeniería para el modelamiento de fenómenos físicos. Su uso es común tanto en ciencias aplicadas, como en ciencias fundamentales (física, química, biología) o matemáticas, como en economía.

En dinámica estructural, la ecuación diferencial que define el movimiento de una estructura es:

Donde M es la matriz que describe la masa de la estructura, C es la matriz que describe el amortiguamiento de la estructura, K es la matriz de rigidez que describe la rigidez de la estructura, x es vector de desplazamientos [nodales] de la estructura, P

Page 16: Diferenciación Numérica

es el vector de fuerzas (nodales equivalentes), y t indica tiempo. Esta es una ecuación de segundo orden debido a que se tiene el desplazamiento x y su primera y segunda derivada con respecto al tiempo.

La vibración de una cuerda está descrita por la siguiente ecuación diferencial en derivadas parciales de segundo orden:

donde es el tiempo y es la coordenada del punto sobre la cuerda. A esta ecuación se le llama ecuación de onda.

Solución de una ecuación diferencial

Tipos de soluciones

Una solución de una ecuación diferencial es una función que al remplazar a la función incógnita, en cada caso con las derivaciones correspondientes, verifica la ecuación. Hay tres tipos de soluciones:

1. Solución general: una solución de tipo genérico, expresada con una o más constantes. La solución general es un haz de curvas. Tiene un orden de infinitud de acuerdo a su cantidad de constantes (una constante corresponde a una familia simplemente infinita, dos constantes a una familia doblemente infinita, etc). En caso de que la ecuación sea lineal, la solución general se logra como combinación lineal de las soluciones (tantas como el orden de la ecuación) de la ecuación homogénea (que resulta de hacer el término no dependiente de y(x) ni de sus derivadas igual a 0) más una solución particular de la ecuación completa.

2. Solución particular: Si fijando cualquier punto P(X0,Y0) por donde debe pasar necesariamente la solución de la ecuación diferencial, existe un único valor de C, y por lo tanto de la curva integral que satisface la ecuación, este recibirá el nombre de solución particular de la ecuación en el punto P(X0,Y0) recibe el nombre de condición Inicial. Es un caso particular de la solución general, en donde la constante (o constantes) recibe un valor específico.

3. Solución singular: una función que verifica la ecuación, pero que no se obtiene particularizando la solución general.