diferenciación e integración numérica

27
Instituto Tecnológico de Veracruz. Trabajo de la Unidad: Diferenciación e Integración Numérica. Materia: Métodos Numéricos. Alumno: Pérez Puch Irving Jahir. Grupo: 4J2A. Ciclo Escolar: Enero – Julio 2012. Fecha: 16 / Mayo / 2012.

Upload: irving-jahir-perez

Post on 31-Jul-2015

352 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: Diferenciación e Integración Numérica

Instituto Tecnológico de Veracruz.

Trabajo de la Unidad: Diferenciación e Integración Numérica.

Materia: Métodos Numéricos.

Alumno: Pérez Puch Irving Jahir.

Grupo: 4J2A.

Ciclo Escolar: Enero – Julio 2012.

Fecha: 16 / Mayo / 2012.

Page 2: Diferenciación e Integración Numérica

Índice.

Introducción...........................................................................................................................3

Diferenciación Numérica.......................................................................................................5

Integración Numérica..........................................................................................................17

Integración Múltiple............................................................................................................22

Aplicaciónes..........................................................................................................................24

Bibliografia...........................................................................................................................24

Page 3: Diferenciación e Integración Numérica

Introducción.

Con frecuencia surge la necesidad de evaluar la integral definida de una función que no tiene una antiderivada explícita, o cuya antiderivada tiene valores que no son fácilmente obtenibles.

El método básico involucrado para aproximar cualquier función a su integral se conoce como cuadratura numérica y se usa una sumatoria de las funciones evaluadas en un intervalo.

Los métodos de integración numérica se pueden utilizar para integrar funciones dadas, ya sea mediante una tabla o en forma analítica. Incluso en el caso en que sea posible la integración analítica, la integración numérica puede ahorra tiempo y esfuerzo si sólo se desea conocer el valor numérico de la integral.

Los métodos de integración numérica se obtienen al integrar los polinomios de interpolación.

Por consiguiente, las distintas fórmulas de interpolación darán por resultado distintos métodos de integración numérica.

Los métodos que se estudiarán se refieren a las fórmulas de Newton-Cotes, que se basan en las fórmulas de interpolación con puntos de separación constantes y se deducen de integrar las fórmulas de interpolación de Newton, así como la fórmula de interpolación de LaGrange.

A su vez, las fórmulas de Newton-Cotes se subdividen en las de tipo cerrado y las de tipo abierto.

Las reglas del trapecio y las dos reglas de Simpson pertenecen al tipo cerrado.

Regla del Trapecio: Esta regla es un método de integración numérica que se obtiene al integrar el polinomio de interpolación de primer grado (Lineal). Para obtener una buena precisión se necesita un gran número de subintervalos.

Page 4: Diferenciación e Integración Numérica

Regla de 1/3 de Simpson: Esta regla se basa en la interpolación polinomial cuadrática (de segundo orden). Obteniendo el polinomio de Newton ajustado a tres puntos  e integrando el resultado se tiene la regla de 1/3 de Simpson. El número de intervalos utilizados en esta regla debe ser par. (N=par).

Regla de 3/8 de Simpson: Esta regla de 3/8 se obtiene al integrar una formula de interpolación de tercer grado. Para la regla extendida se aplica a un número de intervalos que sea múltiplo de tres.

Cuando el número de intervalos es impar pero sin ser múltiplo de tres, se puede utilizar la regla de 3/8 para los primeros tres o los últimos tres intervalos y luego usar la regla de 1/3 para los intervalos restantes, que son un número par. Puesto que el orden del error de la regla de 3/8 es el mismo que el de la de 1/3, no se gana mayor exactitud que con la regla de 1/3 cuando uno puede elegir con libertad entre ambas reglas.).

Page 5: Diferenciación e Integración Numérica

Diferenciación Numérica.

A la ecuación 1 se le conoce con el nombre especial en el análisis numérico, se le llama diferencias divididas finitas. 

Se puede representar generalmente como: 

o:

Donde al diferencial se le conoce como la primera diferencia hacia adelante y a “h” se le llama tamaño del paso, esto es, la longitud del intervalo sobre el cual se hace la aproximación.

Se le llama diferencia " hacia adelante " ya que usa los datos (i) e (i+1) para estimar la derivada.

Al termino completo (o sea, la diferencial entre h) se le conoce como primera diferencia dividida finita.

Esta diferencia dividida hacia adelante no es sino una de tantas que se pueden desarrollar mediante la serie de Taylor para la aproximación de derivadas numéricas.

Por ejemplo, las aproximaciones a primeras derivadas, utilizando las diferencias hacia atrás o las diferencias centrales se pueden desarrollar de una manera similar a la de la ecuación 2.

Las primeras usan “a”, mientras “x” con subíndice i+1 que las segundas usan información igualmente espaciada alrededor del punto donde esta estimada la derivada.

Las aproximaciones más exactas de la primera derivada se pueden desarrollar incluyendo en la serie de Taylor términos de orden más alto.

Page 6: Diferenciación e Integración Numérica

Finalmente, todas las versiones anteriores se pueden desarrollar para derivadas de segundo orden, tercer orden y ordenes superiores. Las siguientes secciones analizan brevemente estos casos, ilustrando como se deriva cada una de ellos.

Aproximación a la Primera Derivada con Diferencias Hacia Atrás.

La serie de Taylor se puede expandir hacia atrás para calcular un valor anterior sobre el valor actual dado por: 

Truncando la ecuación después de la primera derivada y ordenando los términos se obtiene: 

Donde los errores es 0 (h) y el diferencial indica la primer diferencia dividida hacia atrás.

Aproximaciones a la Primer Derivada con Diferencias Centrales.

Una tercera forma de aproximar la primera derivada es restar la ecuación 4 de la expansión en serie de Taylor hacia adelante: 

Para obtener: 

Que se puede resolver para:

o:

La ecuación 9 es una representación de las diferencias centrales (o centradas) de la primera derivada.

Page 7: Diferenciación e Integración Numérica

Nótese que el error de truncamiento es del orden de en contraste con las diferencias divididas hacia adelante y hacia atrás, las cuales fueron de orden h.

Por lo tanto, el análisis de la serie de Taylor ha llevado a la información práctica de que la diferencia central es la representación más exacta de la derivada.

Por ejemplo, si se parte el tamaño del paso a la mitad usando diferencias hacia atrás o hacia adelante, el error se reducirá aproximadamente a la mitad, mientras que para diferencias centrales, el error se reduce a la cuarta parte.

Aproximaciones a Derivadas de Orden más alto Usando Diferencias Finitas.

Junta a la primera derivada, la expansión de la serie de Taylor se puede usar para una estimación numérica de las derivadas de orden superior.

Para hacerlo, se escribe una expansión en la serie de Taylor hacia adelante para en términos de la siguiente forma:

La ecuación 8 se puede multiplicar por 2 y restarse de la ecuación 10 para obtener:

que se puede resolver para: 

A esta relación se le llama diferencias divididas finitas hacia adelante de segundo orden. Se pueden usar procedimientos similares para obtener las versiones hacia atrás y centrales.

Las aproximaciones a tercer orden de las diferencias divididas hacia adelante, hacia atrás y centrales también pueden obtenerse (véase en fórmulas mas adelante). En todos los casos, las diferencias centradas dan una mejor aproximación.

Page 8: Diferenciación e Integración Numérica

Formulas de Exactitud para Diferencias de Orden Superior.

Todas las estimaciones anteriores truncaron las estimaciones dadas por la serie de Taylor después de algunos términos.

Las fórmulas de mas exactitud se pueden desarrollar incluyendo términos adicionales. Por ejemplo, la expansión hacia adelante (Ecuación 6) se puede resolver para:  

En contraste con la ecuación 2, se puede retener el término de segundo orden sustituyendo la ecuación 12 en la ecuación 13 para obtener: 

agrupando términos:

Nótese que la inclusión del término con segunda derivada ha dado una exactitud.

Se pueden desarrollar versiones mejoradas similares para diferencias hacia atrás y centrales así como para las aproximaciones de derivadas de orden superior.

Page 9: Diferenciación e Integración Numérica

Formulas de Diferencias Divididas Finitas hacia atrás.

Se presentan dos versiones para cada derivada. La segunda forma incluye más términos de la Serie de Taylor, y por lo tanto es más exacta.

Page 10: Diferenciación e Integración Numérica

Formulas de Diferencias Divididas Finitas hacia adelante.

Se presentan dos versiones para cada derivada. La segunda forma incluye más términos de la Serie de Taylor, y por lo tanto es más exacta. 

Page 11: Diferenciación e Integración Numérica

Formulas de Diferencias Finitas Centrales.

Se presentan dos versiones para cada derivada. La segunda forma incluye más términos de la Serie de Taylor, por lo tanto es más exacta. 

Page 12: Diferenciación e Integración Numérica

Ejemplo de Aproximaciones de Derivadas usando Diferencias Finitas.

Úsense aproximaciones de diferencias finitas hacia adelante y hacia atrás de 0(h) y centradas, de 0(h Cuadrara), para estimular la primera derivada de: 

Page 13: Diferenciación e Integración Numérica

en x=0.5 usando un tamaño de paso h=0.5. Repetir los cálculos usando h=0.25. Nótese que la derivada se puede calcular directamente como: 

y se puede usar para calcular el valor exacto de f (0.5)=-0.9125.

Solución:Para h=0.5, se puede usar la función para determinar:  

Estos datos se pueden usar para calcular la diferencia dividida hacia adelante (Ecuación 2): 

la diferencia dividida hacia atrás ( Ecuación 5):

y la diferencia dividida central (Ecuación 7):

Para h=0.25, los datos son: 

Page 14: Diferenciación e Integración Numérica

que se pueden usar para calcular la diferencia dividida hacia adelante:

la diferencia dividida hacia atrás: 

y la diferencia dividida central:>/P>

Método de la Secante por medio de diferencia dividida

Un problema fuerte en al implementación del método de Newton-Raphson es el de la evaluación de la derivada.

Aunque esto no es un inconveniente para los polinomios y para muchas otras funciones, existen algunas de estas cuyas derivadas pueden ser extremadamente difíciles de evaluar.

Page 15: Diferenciación e Integración Numérica

En estos casos, la derivada se puede aproximar mediante una diferencia dividida, como se muestra en la siguiente figura: 

Esquema Grafico del Método de la Secante utilizando una diferencia.

Page 16: Diferenciación e Integración Numérica

Esta aproximación se puede sustituir en la ecuación 16 obteniendo la ecuación iterativa:  

La ecuación 18 es la formula para el método de la secante.

Nótese que el planteamiento requiere de dos puntos iniciales de x.

Sin embargo, debido a que no se requiere de f (x) cambie de signo entre estos valores, a este método no se le clasifica como aquellos que usan intervalo.

Ejemplo del Método de la Secante usando diferencias divididas.

Úsese el método de la secante para calcular la raíz de f (x)=. Empiécese con los valores iniciales de x (subíndice i-1) = 0 y x (subíndice 0)= 1.0.

Solución. Recuérdese que la raíz real es 0.56714329…. 

Page 17: Diferenciación e Integración Numérica

Integración Numérica.

En el análisis numérico, constituye una amplia gama de algoritmos para calcular el valor numérico de una integral definida y, por extensión, el término se usa a veces para describir algoritmos numéricos para resolver ecuaciones diferenciales. El término cuadratura numérica (a menudo abreviado a cuadratura) es más o menos sinónimo de integración numérica, especialmente si se aplica a integrales de una dimensión a pesar de que para el caso de dos o más dimensiones (integral múltiple) también se utilizan.

Page 18: Diferenciación e Integración Numérica

El problema básico considerado por la integración numérica es calcular una solución aproximada a la integral definida:

Este problema también puede ser enunciado como un problema de valor inicial para una ecuación diferencial ordinaria, como sigue:

Encontrar y (b) es equivalente a calcular la integral. Los métodos desarrollados para ecuaciones diferenciales ordinarias, como el método de Runge-Kutta, pueden ser aplicados al problema reformulado. En este artículo se discuten métodos desarrollados específicamente para el problema formulado como una integral definida.

Hay varias razones para llevar a cabo la integración numérica. La principal puede ser la imposibilidad de realizar la integración de forma analítica. Es decir, integrales que requerirían de un gran conocimiento y manejo de matemática avanzada pueden ser resueltas de una manera más sencilla mediante métodos numéricos. Incluso existen funciones integrables pero cuya primitiva no puede ser calculada, siendo la integración numérica de vital importancia. La solución analítica de una integral nos arrojaría una solución exacta, mientras que la solución numérica nos daría una solución aproximada. El error de la aproximación, que depende del método que se utilice y de qué tan fino sea, puede llegar a ser tan pequeño que es posible obtener un resultado idéntico a la solución analítica en las primeras cifras decimales.

Métodos para Integrales Unidimensionales.

Los métodos de integración numérica pueden ser descritos generalmente como combinación de evaluaciones del integrando para obtener una aproximación a la integral. Una parte importante del análisis de cualquier método de integración numérica es estudiar el comportamiento del error de aproximación como una función del número de evaluaciones del integrando. Un método que produce un pequeño error para un pequeño número de evaluaciones es normalmente considerado superior. Reduciendo el número de evaluaciones del integrando se reduce el número de operaciones aritméticas involucradas,

Page 19: Diferenciación e Integración Numérica

y por tanto se reduce el error de redondeo total. También, cada evaluación cuesta tiempo, y el integrando puede ser arbitrariamente complicado.

De todos modos, un modo de integración por “fuerza bruta” puede hacerse siempre, de un modo muy simplista, evaluando el integrando con incrementos muy pequeños.

Métodos basados en Funciones de Interpolación: Hay una extensa familia de métodos que

se basan en aproximar la función a integrar   por otra función   de la cual se conoce la integral exacta. La función que sustituye la original se encuentra de forma que en un cierto número de puntos tenga el mismo valor que la original. Como los puntos extremos forman parte siempre de este conjunto de puntos, la nueva función se llama una interpolación de la función original. Cuando los puntos extremos no se utilizan para encontrar la función que sustituye a la original entonces se dice extrapolación. Típicamente estas funciones son polinomios.

Fórmulas de Newton-Cotes: La interpolación con polinomios evaluada en puntos

igualmente separados en   da las fórmulas de Newton-Cotes, de las que la regla del rectángulo, la del trapecio y la de Simpson son ejemplos. Si se escogen los nodos hasta   será la fórmula de Newton-Cotes cerrada y si se escogen   será la fórmula de Newton-Cotes abierta.

Regla del Rectángulo: El método más simple de este tipo es hacer a la función interpoladora ser una función constante (un polinomio de orden cero) que pasa a través

del punto . Este método se llama la regla del rectángulo:

Regla del Punto Medio: Si en el método anterior la función pasa a través del

punto   este método se llama la regla del punto medio:

Page 20: Diferenciación e Integración Numérica

Regla de Simpson: La función interpoladora puede ser un polinomio de grado 2 que pasa

a través de los puntos ,  y . Este método se llama regla de Simpson:

Reglas Compuestas: Para cualquier regla interpoladora, se puede hacer una

aproximación más precisa dividiendo el intervalo   en algún número  de subintervalos, hallando una aproximación para cada subintervalo, y finalmente sumando todos los resultados. Las reglas que surgen de hacer esto se llaman reglas compuestas, y se caracterizan por perder un orden de precisión global frente a las correspondientes simples, si bien globalmente dan valores más precisos de la integral, a costa eso sí de incrementar significativamente el coste operativo del método. Por ejemplo, la regla del trapecio compuesta puede expresarse como:

Page 21: Diferenciación e Integración Numérica

Donde los subintervalos tienen la forma   con:

Métodos de Extrapolación: La precisión de un método de integración del tipo Newton-Cotes es generalmente una función del número de puntos de evaluación. El resultado es usualmente más preciso cuando el número de puntos de evaluación aumenta, o, equivalentemente, cuando la anchura del paso entre puntos decrece. ¿Qué pasa cuando la anchura del paso tiende a cero? Esto puede responderse extrapolando el resultado de dos o más anchuras de paso (extrapolación de Richardson). La función de extrapolación puede ser un polinomio o una función racional. Los métodos de extrapolación están descritos en más detalle por Stoer y Bulirsch (Sección 3.4). En particular, al aplicar el método de extrapolación de Richardson a la regla del trapecio compuesta se obtiene el método de Romberg.

Cuadratura de Gauss: Si se permite variar los intervalos entre los puntos de interpolación, se encuentra otro grupo de fórmulas de integración, llamadas fórmulas de cuadratura de Gauss. Una regla de cuadratura de Gauss es típicamente más precisa que una regla de Newton-Cotes que requiera el mismo número de evaluaciones del integrando, si el integrando es suave (es decir, si se puede derivar muchas veces).

Estimación del Error Conservativa (a priori): Supongamos que   tiene una primera

derivada sobre   acotada. El teorema del valor medio para , para , da

Para algún   en   dependiendo de . Si integramos en   de   a   en ambos lados de la igualdad y tomamos valores absolutos, tenemos

Se puede aproximar más la integral en el lado derecho metiendo el valor absoluto en el integrando, y remplazando el término en   por una cota superior:

Page 22: Diferenciación e Integración Numérica

Así, si aproximamos la integral   por su regla de integración , el error no es mayor que el lado derecho de la ecuación.

Integrales Múltiples.

Los métodos de integración que se han comentado hasta aquí se han diseñado todos para calcular integrales de una dimensión.

Para calcular integrales de diversas dimensiones, un enfoque es expresar la integral múltiple como repetición de integrales de una dimensión haciendo uso del Teorema de Fubini.

Este enfoque lleva a una cantidad de evaluaciones de la función que crece exponencialmente a medida que crece el número de dimensiones. Se conocen dos métodos para superar esta llamada “Maldición de la Dimensión”.

Page 23: Diferenciación e Integración Numérica

Integración de Monte Carlo.

Los Métodos de Montecarlo y Métodos de Cuasi-Montecarlo son fáciles de aplicar a integrales multidimensionales, y pueden producir una mejor exactitud por el mismo número de evaluaciones de la función que en integraciones repetidas empleando métodos unidimensionales. Una clase grande de métodos útiles de Montecarlo son los llamados algoritmos de Cadena de Markov de Montecarlo, los cuales incluyen el algoritmo de Metropolis-Hastings y muestreo de Gibbs.

En matemáticas, y más concretamente en análisis numérico, se conocen como métodos de Montecarlo a una serie de métodos de integración numérica que se basan en la utilización de números pseudoaleatorios.

Es decir, los métodos de integración de Montecarlo son algoritmos para encontrar una evaluación aproximada de una integral definida, normalmente de integrales múltiples. Los algoritmos deterministas de integración numérica, para aproximar la integral, evalúan la función en un conjunto de puntos correspondientes a una parrilla regular o en un conjunto de puntos predefinidos. En cambio, los métodos de Montecarlo eligen de forma aleatoria los puntos en los que se evaluará la función. La integración de Montecarlo forma parte de una familia de algoritmos llamados genéricamente métodos de Montecarlo. Estos algoritmos utilizan números aleatorios para resolver diferentes tipos de problemas matemáticos y reciben su nombre debido al casino de Montecarlo.

Aplicaciones.

La Diferenciación e Integración Numérica se utiliza para:

Redes de circuitos eléctricos. Simulación de un péndulo. Ecuaciones de Lorenz.

Existen muchas implementaciones en programas para la integración numérica, entre ellos se encuentran:

Page 24: Diferenciación e Integración Numérica

QUADPACK (parte de SLATEC) (código fuente): QUADPACK es una colección de algoritmos en Fortran para integración numérica basada en reglas gaussianas.

GSL (GNU Scientific Library): La biblioteca Científica de GNU (GSL) es una biblioteca numérica escrita en C que provee una amplia gama de rutinas matemáticas, como la integración por Montecarlo.

ALGLIB: Es una colección de algoritmos en C# / C++ / Delphi / Visual Basic / etc., para la integración numérica.

Bibliografía.

George E. Forsythe, Michael A. Malcolm, and Cleve B. Moler. Computer Methods for Mathematical Computations. Englewood Cliffs, NJ: Prentice-Hall, 1977. (See Chapter 5.)

William H. Press, Brian P. Flannery, Saul A. Teukolsky, William T. Vetterling. Numerical Recipes in C. Cambridge, UK: Cambridge University Press, 1988. (See Chapter 4.)

Josef Stoer and Roland Bulirsch. Introduction to Numerical Analysis. New York: Springer-Verlag, 1980. (See Chapter 3.)

http://proton.ucting.udg.mx/posgrado/cursos/metodos/diferenciacion/index.html http://proton.ucting.udg.mx/posgrado/cursos/metodos/integracion/index.html Peña Sánchez de Rivera, Daniel (2001). «Deducción de distribuciones: el método

de Montecarlo», en Fundamentos de Estadística. Madrid: Alianza Editorial. ISBN 84-206-8696-4.