See also ebooksgratis.com: no banners, no cookies, totally FREE.

CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Integración numérica - Wikipedia, la enciclopedia libre

Integración numérica

De Wikipedia, la enciclopedia libre

En análisis numérico, la integración numérica constituye una amplia gama de algoritmos para calcular el valor numérico de una integral definida y, por extensión, el término se usa a veces para describir algoritmos numéricos para resolver ecuaciones diferenciales.

El problema básico considerado por la integración numérica es calcular una solución aproximada a la integral definida:

\int_a^b f(x)\, dx

Este problema también puede ser enunciado como un problema de valor inicial para una ecuación diferencial ordinaria, como sigue:

y'(x) = f(x), \quad y(a) = 0

Encontrar y(b) es equivalente a calcular la integral. Los métodos desarrollados para ecuaciones diferenciales ordinarias, como el método de Runge-Kutta, pueden ser aplicados al problema reformulado. En este artículo se discuten métodos desarrollados específicamente para el problema formulado como una integral definida.

Tabla de contenidos

[editar] Razones para la integración numérica

Hay varias razones para llevar a cabo la integración numérica. La principal puede ser la imposibilidad de realizar la integración de forma analítica. Es decir, integrales que requerirían un gran conocimiento y manejo de matemática avanzada pueden ser resueltas de una manera más sencilla mediante métodos numéricos. La solución analítica de una integral nos arrojaría una solución exacta mientras que la solución numérica nos daría una solución aproximada. El error de la aproximación, que depende del método que se utilice y de qué tan fino sea, puede llegar a ser tan pequeño que es posible obtener la misma precisión de la solución analítica en las primeras cifras decimales.

[editar] Métodos para integrales unidimensionales

Los métodos de integración numérica pueden ser descritos generalmente como combinación de evaluaciones del integrando para obtener una aproximación a la integral. Una parte importante del análisis de cualquier método de integración numérica es estudiar el comportamiento del error de aproximación como una función del número de evaluaciones del integrando. Un método que produce un pequeño error para un pequeño número de evaluaciones es normalmente considerado superior. Reduciendo el número de evaluaciones del integrando se reduce el número de operaciones aritméticas involucradas, y por tanto se reduce el error de redondeo total. También, cada evaluación cuesta tiempo, y el integrando puede ser arbitrariamente complicado.

De todos modos, un modo de integración por «fuerza bruta» puede hacerse siempre, de un modo muy simplista, evaluando el integrando con incrementos muy pequeños.

[editar] Métodos basados en interpolación

Una amplia clase de métodos de integración puede ser derivada construyendo funciones interpoladoras que son sencillas de integrar. Típicamente estas funciones interpoladoras son polinomios.

En general, lo que se trata es de sustituir la función subintegral f(x) por un polinomio que la interpole en n puntos, que se llaman nodos de integración. Según la disposición de dichos nodos, se distinguen dos grandes grupos de fórmulas numéricas de integración: los métodos de Newton-Cotes, cuando los nodos están igualmente espaciados en el intervalo de integración; y los métodos de Gauss, para nodos no uniformemente espaciados, entre los que destacan los métodos de Gauss-Legendre, en los que los n nodos son las raíces del polinomio de Legendre de grado n, y que se caracterizan por integrar de manera exacta polinomios de grado hasta 2n-1 (se dice que el grado polinomial de estas fórmulas es 2n-1), dando en general un valor más aproximado al de la integral exacta, y con menor coste operativo para una precisión parecida a uno de Newton-Cotes.

El método más simple de este tipo es hacer la función interpoladora ser una función constante (un polinomio de orden cero) que pasa a través del punto (\frac{a+b}{2}, f(\frac{a+b}{2})). Es a la vez un método de Newton-Cotes y de Gauss-Legendre, y se llama la regla del punto medio o regla del rectángulo:

\int_a^b f(x) dx \sim (b-a) f(\frac{a+b}{2})

La función interpoladora puede ser una función afín (un polinomio de grado 1) que pasa a través de los puntos \ (a, f(a)) y \ (b, f(b)). Este método, de Newton-Cotes por tomar nodos en los extremos del intervalo de interación, es llamado regla trapezoidal:

\int_a^b f(x) dx \sim (b-a) \frac{f(a)+f(b)}{2}

Para cualquier regla interpoladora, se puede hacer una aproximación más precisa dividiendo el intervalo \ [a, b] en algún número \ n de subintervalos, hallando una aproximación para cada subintervalo, y finalmente sumando todos los resultados. Las reglas que surgen de hacer esto se llaman reglas compuestas, y se caracterizan por perder un orden de precisión global frente a las correspondientes simples, si bien globalmente dan valores más precisos de la integral, a costa eso sí de incrementar significativamente el coste operativo del método. Por ejemplo, la regla trapezoidal compuesta puede expresarse como:

\int_a^b f(x) dx \sim \frac{b-a}{n} \left( \frac{f(a) + f(b)}{2} + \sum_{k=1}^{n-1} f\left(a + k \frac{b-a}{n}\right) \right)

donde los subintervalos tienen la forma \ [kh, (k+1)h] con
\ h = \frac {b-a}{n}
y \ k = 0, 1, 2, \ldots, n-1.

Método de Newton.
Método de Newton.

La interpolación con polinomios evaluada en puntos igualmente separados en \ [a, b] da las fórmulas de Newton-Cotes, de las que la regla del rectángulo y la trapezoidal son ejemplos. Si se escogen los nodos hasta k = n + 1 será la fórmula de Newton-Cotes cerrada y si se escogen k = n − 1 será la fórmula de Newton-Cotes abierta. La regla de Simpson, que está basada en un polinomio de orden 2, es también una fórmula de Newton-Cotes.

Si se permite variar los intervalos entre los puntos de interpolación, se encuentra otro grupo de fórmulas de integración, llamadas fórmulas de integración gaussianas. Una regla de integración gaussiana es típicamente más precisa que una regla de Newton-Cotes que requiera el mismo número de evaluaciones del integrando, si el integrando es suave (es decir, si se puede derivar muchas veces).

[editar] Algoritmos adaptativos

Si f no tiene muchas derivadas definidas en todos sus puntos, o si las derivadas toman valores muy elevados, la integración gausiana es a menudo insuficiente. En este caso, un algoritmo similar al siguiente lo haría mejor:

def integral(f, a, b):
    """Este algoritmo calcula la integral definida de una función
    en el intervalo [a,b], adaptativamente, eligiendo pasos más
    pequeños cerca de los puntos problemáticos.
    h0 es el paso inicial."""
    
    x = a
    h = h0
    acumulador = 0
    while x < b:
        if x+h > b:  h = b - x
        if error de la cuadratura sobre [x,x+h] para f es demasiado grande:
            haz h más pequeño
        else:
            acumulador += integral(f, x, x+h)
            x += h
            if error de la cuadratura sobre [x,x+h] es demasiado pequeño:
                haz h más grande
    return acumulador

Algunos detalles del algoritmo requieren mirarlo con cuidado. Para muchos casos, estimar el error de la integral sobre un intervalo para un función f no es obvio. Una solución popular es usar dos reglas de integración distintas, y tomar su diferencia como una estimación del error de la integral. El otro problema consiste en decidir qué es «demasiado grande» o «demasiado pequeño». Un criterio posible para «demasiado grande» es que el error de la integral no sea mayor que th, donde t, un número real, es la tolerancia que queremos tener para el error global. Pero también, si h es ya minúsculo, puede no valer la pena hacerlo todavía más pequeño si el error de la integral es aparentemente grande. Este tipo de análisis de error usualmente se llama «a posteriori» ya que calculamos el error después de haber calculado la aproximación.

La heurística para integración adaptativa está discutida en Forsythe et al (sección 5.4).

[editar] Métodos de extrapolación

La precisión de un método de integración del tipo Newton-Cotes es generalmente una función del número de puntos de evaluación. El resultado es usualmente más preciso cuando el número de puntos de evaluación aumenta, o, equivalentemente, cuando la anchura del paso entre puntos decrece. ¿Qué pasa cuando la anchura del paso tiende a cero? Esto puede responderse extrapolando el resultado de dos o más anchuras de paso (extrapolación de Richardson). La función de extrapolación puede ser un polinomio o una función racional. Los métodos de extrapolación están descritos en más detalle por Stoer y Bulirsch (Sección 3.4).

[editar] Estimación del error conservativa (a priori)

Supongamos que \ f tiene una primera derivada sobre \ [a, b] acotada. El teorema del valor medio para \ f, para \ x < b, da

\ (x-a)f'(y_x) = f(x) - f(a)

para algún \ y_x en \ [a, x] dependiendo de \ x. Si integramos en \ x de \ a a \ b en ambos lados de la igualdad y tomamos valores absolutos, tenemos

\left| \int_a^b f(x) dx  - (b - a) f(a) \right| = \left| \int_a^b (x-a) f'(y_x) dx \right|

Se puede aproximar más la integral en el lado derecho metiendo el valor absoluto en el integrando, y reemplazando el término en \ f por una cota superior:

\left| \int_a^b f(x) dx  - (b - a) f(a) \right| \le \frac{(b-a)^2}{2} \sup_{a\le x \le b} \left| f'(x) \right|

Así, si aproximamos la integral \int_a^b f(x) dx por su regla de integración \ (b-a) f(a), el error no es mayor que el lado derecho de la ecuación.

[editar] Programas para integración numérica

La integración numérica es uno de los problemas estudiados más intensivamente en el análisis numérico. Entre las muchas implementaciones en programas se encuentran:

Se pueden encontrar algoritmos de integración numérica en GAMS class H2.

[editar] Referencias

  • George E. Forsythe, Michael A. Malcolm, and Cleve B. Moler. Computer Methods for Mathematical Computations. Englewood Cliffs, NJ: Prentice-Hall, 1977. (See Chapter 5.)
  • William H. Press, Brian P. Flannery, Saul A. Teukolsky, William T. Vetterling. Numerical Recipes in C. Cambridge, UK: Cambridge University Press, 1988. (See Chapter 4.)
  • Josef Stoer and Roland Bulirsch. Introduction to Numerical Analysis. New York: Springer-Verlag, 1980. (See Chapter 3.)


aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -