Fenómeno de Runge , la enciclopedia libre
En el campo matemático del análisis numérico, el fenómeno de Runge es un problema que sucede cuando se usa interpolación polinómica con polinomios de alto grado utilizando nodos equidistantes. Lo descubrió Carl David Tolmé Runge cuando exploraba el comportamiento de los errores al usar interpolación polinómica para aproximar determinadas funciones.
Problema
[editar]Considérese la función:
Runge descubrió que si se interpola esta función utilizando nodos equidistantes xi entre −1 y 1 tal que:
con un polinomio de grado , la interpolación resultante oscila hacia los extremos del intervalo, es decir, cerca de −1 y 1. Incluso se puede probar que el error de interpolación tiende a infinito cuando crece el grado del polinomio:
Soluciones al problema del fenómeno de Runge
[editar]La oscilación se puede minimizar usando nodos de Chebyshev en lugar de equidistantes. En este caso se garantiza que el error máximo disminuye al crecer el orden polinómico. El fenómeno demuestra que los polinomios de grado alto no son, en general, aptos para la interpolación. Este problema se puede evitar usando curvas spline, que son polinomios por partes. Cuando se intenta reducir el error de interpolación se puede incrementar el número de partes del polinomio que se usan para construir el spline, en lugar de incrementar su grado.
Véase también
[editar]- Comparar con el fenómeno de Gibbs para funciones de base sinusoide.