Fenomeno di Runge
Da Wikipedia, l'enciclopedia libera.
In Analisi numerica il Fenomeno di Runge è un problema relativo all'interpolazione polinomiale con polinomi di grado elevato. Esso consiste nell'aumentare in ampiezza dell'errore in prossimità degli estremi dell'intervallo.
È stato scoperto da Carl David Tolmé Runge mentre studiava il comportamento degli errori dell'interpolazione polinomiale per approssimare alcune funzioni.
[modifica] Problema
Consideriamo la funzione:
Runge trovò che interpolando questa funzione in un insieme di punti xi punti equidistanti nell'intervallo . con un polinomio Pn(x) di grado , l'interpolazione risultante oscilla in ampiezza verso gli estremi dell'intervallo (in questo caso − 1 e + 1).
È inoltre possibile provare che tale errore tende all'infinito all'aumentare del grado del polinomio:
[modifica] Soluzione
Runge dimostrò che non è conveniente usare polinomi di grado elevato per interpolare. Tuttavia, l'oscillazione puo essere ridotta usando i nodi di Chebyshev in alternativa ai punti equidistanti, che permettono di diminuire l'errore massimo all'aumentare del grado del polinomio. Un'altra alternativa è l'uso dell'interpolazione spline, suddividendo la curva in piu parti abbassando il grado del polinomio, di solito al terzo grado per quattro punti.
[modifica] Voci correlate
- Fenomeno di Gibbs per le funzioni sinusoidali
- Spline cubica di Hermite
- Portale Matematica: accedi alle voci di Wikipedia che parlano di matematica