¿Cuándo falla Newton Raphson?

Se garantiza que el método de Newton converge bajo ciertas condiciones. Un conjunto popular de tales condiciones es el siguiente: si una función tiene una raíz y tiene una derivada distinta de cero en esa raíz, y es continuamente diferenciable en algún intervalo alrededor de esa raíz, entonces hay alguna vecindad de la raíz, de modo que si elegimos nuestro punto de partida en esa región, las iteraciones convergerán a la raíz dada.

Entonces, ¿por qué fallaría eso? Bueno, la derivada puede ser cero en la raíz; la función puede no ser continuamente diferenciable; y puede haber elegido un mal punto de partida, uno que se encuentra fuera del rango de convergencia garantizada.

Dependiendo del contexto, cada uno de estos puede ser más o menos probable. Las raíces degeneradas (aquellas donde la derivada es 0) son “raras” en general. Por otro lado, “la mayoría” de las funciones no son continuas o diferenciables en absoluto; pero la mayoría de las funciones que aparecen naturalmente en física o ingeniería son. La elección del punto de partida puede ser obvia si tiene alguna idea sobre la ubicación aproximada de la raíz, o podría ser totalmente impredecible.

Hay otros conjuntos de condiciones que pueden ser más o menos útiles; No hay una forma que abarque todo y que capture precisamente cuando el método falla. En términos generales, si su función es razonablemente suave (= diferenciable) y comienza en una ubicación aleatoria, lo más probable es que converja en alguna raíz, aunque si realmente tiene mala suerte, puede elegir un punto de partida que sea estacionario o que se encuentre en un corto ciclo.

EDITAR: aquí hay algunos ejemplos de fallas.

[matemáticas] y = e ^ x [/ matemáticas], cualquier punto de partida.

El método falla por una simple razón: no hay raíz de [math] e ^ x = 0 [/ math]. El método de Newton obviamente arrojará cualquier valor inicial a [math] – \ infty [/ math]. Si cree que esto es realmente una especie de “raíz”, considere [math] y = 1 + e ^ x [/ math].

[matemática] y = xe ^ {- x ^ 2} [/ matemática], puntos de inicio mayores que [matemática] \ frac {1} {\ sqrt {2}} [/ matemática] (o menor que [matemática] – \ frac {1} {\ sqrt {2}} [/ math]).

Esta función es uniforme en todo momento y tiene una raíz que se comporta bien en [math] x = 0 [/ math], pero obviamente, si su conjetura inicial está demasiado lejos de la marca, es decir, a la derecha del pico positivo o al a la izquierda del negativo: te arrojarán al infinito (o infinito negativo).

[matemática] y = x (1-x) [/ matemática], punto de partida [matemática] x = 1/2 [/ matemática].

Esta función es excelente y casi todos los valores iniciales convergerán en una de las raíces. Sin embargo, si tiene mala suerte (o no es prudente) y elige comenzar en [matemática] x = 1/2 [/ matemática] donde la derivada es 0, el método de Newton simplemente fallará: la línea tangente no se cruza con la [matemática] ] x [/ math] axis en absoluto.

¡Esta es una buena pregunta! Newton-Raphson proviene de la serie de Taylor

Trabajando con los dos primeros términos, obtenemos la fórmula de Newton-Raphson

Lo que funciona bastante bien si f ‘no es cero (o si f / f’ no está definido). Es una iteración de punto fijo, por lo que depende de la condición inicial y ¿es más un arte que una ciencia? Por lo tanto, puede fallar y existen otros métodos de solución numérica. Por ejemplo, una modificación simple del método de Newton para lograr la convergencia de orden 1 + 2

Tome la función de raíz cuadrada para x> 0 y [matemáticas] – \ sqrt (-x) [/ matemáticas] para x <0. Para cualquier conjetura inicial x0, el método Newton alternará entre x0 y menos x0.

En realidad, puede mostrar esto fácilmente: si escribe este comportamiento como una ecuación, obtendrá una ecuación diferencial simple. Ejercicio para el lector …

Y es una función de aspecto agradable … Bueno, el teorema dice que el método de Newton necesita tener una derivada definida en una vecindad del cero, que no es el caso aquí.