RAICES DE ECUACIONES
4.2 Método de las aproximaciones sucesivas
Dada la ecuación f(x) = 0, el método de las aproximaciones sucesivas reemplaza esta ecuación por una equivalente, x=g(x), definida en la forma g(x)=f(x)+x. Para encontrar la solución, partimos de un valor inicial x0 y calculamos una nueva aproximación x1=g(x0). Reemplazamos el nuevo valor obtenido y repetimos el proceso. Esto da lugar a una sucesión de valores , que si converge, tendrá como límite la solución del problema.

se representa la interpretación geométrica del método. Partimos de un punto inicial x0 y calculamos y = g(x0). La intersección de esta solución con la recta y=x nos dará un nuevo valor x1 más próximo a la solución final.
Sin embargo, el método puede divergir fácilmente. Es fácil comprobar que el método sólo podrá converger si la derivada g'(x) es menor en valor absoluto que la unidad (que s la pendiente de la recta definida por y=x). Esta condición, que a priori puede considerarse una severa restricción del método, puede obviarse fácilmente. Para ello basta elegir la función g(x) del siguiente modo:
de forma que tomando un valor de adecuado, siempre podemos hacer que g(x) cumpla la condición de la derivada.
Sin embargo, el método puede divergir fácilmente. Es fácil comprobar que el método sólo podrá converger si la derivada g'(x) es menor en valor absoluto que la unidad (que s la pendiente de la recta definida por y=x). Esta condición, que a priori puede considerarse una severa restricción del método, puede obviarse fácilmente. Para ello basta elegir la función g(x) del siguiente modo:
de forma que tomando un valor de adecuado, siempre podemos hacer que g(x) cumpla la condición de la derivada.
4.5 Método de Steffensen
El método de Steffensen presenta una convergencia rápida y no requiere, como en el caso del método de la secante, la evaluación de derivada alguna. Presenta además, la ventaja adicional de que el proceso de iteración sólo necesita un punto inicial. Este método calcula el siguiente punto de iteración a partir de la expresión:
El método de Steffensen presenta una convergencia rápida y no requiere, como en el caso del método de la secante, la evaluación de derivada alguna. Presenta además, la ventaja adicional de que el proceso de iteración sólo necesita un punto inicial. Este método calcula el siguiente punto de iteración a partir de la expresión:
Método de la Müller.
Introducción
Este método utilizado para encontrar raíces de ecuaciones con raíces múltiples, y consiste en obtener los coeficientes de la parábola que pasa por tres puntos elegidos. Dichos coeficientes son sustituidos en la formula cuadrática para obtener el valor donde la parábola intersecta al eje X; es decir, la raíz estimada. La aproximación se puede facilitar, si se escribe la ecuación de la parábola en una forma conveniente.
Una de las mayores ventajas de este método, es que al trabajar con la formula cuadrática es posible localizar tanto raíces reales, como raíces complejas.
Fórmula
Los tres valores iniciales necesitados son denotados como xk, xk-1 y xk-2. La parábola pasa a través de los puntos: (xk, f(xk)), (xk-1, f(xk-1)) y (xk-2, f(xk-2)), si se escribe en la forma de Newton, entonces:
Introducción
Este método utilizado para encontrar raíces de ecuaciones con raíces múltiples, y consiste en obtener los coeficientes de la parábola que pasa por tres puntos elegidos. Dichos coeficientes son sustituidos en la formula cuadrática para obtener el valor donde la parábola intersecta al eje X; es decir, la raíz estimada. La aproximación se puede facilitar, si se escribe la ecuación de la parábola en una forma conveniente.
Una de las mayores ventajas de este método, es que al trabajar con la formula cuadrática es posible localizar tanto raíces reales, como raíces complejas.
Fórmula
Los tres valores iniciales necesitados son denotados como xk, xk-1 y xk-2. La parábola pasa a través de los puntos: (xk, f(xk)), (xk-1, f(xk-1)) y (xk-2, f(xk-2)), si se escribe en la forma de Newton, entonces:
Ejemplos:1) La ecuación se puede transformar en .2) La ecuación se puede transformar en .
Dada la aproximación , la siguiente iteración se calcula con la fórmula:
Supongamos que la raíz verdadera es , es decir,
Restando las últimas ecuaciones obtenemos:
Por el Teorema del Valor Medio para derivadas, sabemos que si es contínua en y diferenciable en entonces existe tal que .
En nuestro caso, existe en el intervalo determinado por y tal que:
De aquí tenemos que:
O bien,
Tomando valor absoluto en ambos lados,
Observe que el término es precisamente el error absoluto en la ésima iteración, mientras que el término corresponde al error absoluto en la ésima iteración.
Por lo tanto, solamente si , entonces se disminuirá el error en la siguiente iteración. En caso contrario, el error irá en aumento.
En resumen, el método de iteración del punto fijo converge a la raíz si para en un intervalo que contiene a la raíz y donde es contínua y diferenciable, pero diverge si en dicho intervalo.
Analicemos nuestros ejemplos anteriores:
En el ejemplo 1, y claramente se cumple la condición de que . Por lo tanto el método sí converge a la raíz.
En el ejemplo 2, y en este caso, . Por lo tanto, el método no converge a la raíz.
Para aclarar el uso de la fórmula veamos dos ejemplos:
Ejemplo 1Usar el método de iteración del punto fijo para aproximar la raíz de , comenzando con y hasta que .
SoluciónComo ya aclaramos anteriormente, el método sí converge a la raíz. Aplicando la fórmula iterativa tenemos,
Con un error aproximado de
Aplicando nuevamente la fórmula iterativa tenemos,
Y un error aproximado de .
Intuimos que el error aproximado se irá reduciendo muy lentamente. En efecto, se necesitan hasta 13 iteraciones para lograr reducir el error aproximado menor al 1%. El resultado final que se obtiene es:
Con un error aproximado igual al .
Ejemplo 2Usar el método de iteración del punto fijo para aproximar la raíz de , comenzando con y hasta que .
SoluciónSi despejamos la del término lineal, vemos que la ecuación equivale a
de donde,
En este caso, tenemos que . Un vistazo a la gráfica,
Dada la aproximación , la siguiente iteración se calcula con la fórmula:
Supongamos que la raíz verdadera es , es decir,
Restando las últimas ecuaciones obtenemos:
Por el Teorema del Valor Medio para derivadas, sabemos que si es contínua en y diferenciable en entonces existe tal que .
En nuestro caso, existe en el intervalo determinado por y tal que:
De aquí tenemos que:
O bien,
Tomando valor absoluto en ambos lados,
Observe que el término es precisamente el error absoluto en la ésima iteración, mientras que el término corresponde al error absoluto en la ésima iteración.
Por lo tanto, solamente si , entonces se disminuirá el error en la siguiente iteración. En caso contrario, el error irá en aumento.
En resumen, el método de iteración del punto fijo converge a la raíz si para en un intervalo que contiene a la raíz y donde es contínua y diferenciable, pero diverge si en dicho intervalo.
Analicemos nuestros ejemplos anteriores:
En el ejemplo 1, y claramente se cumple la condición de que . Por lo tanto el método sí converge a la raíz.
En el ejemplo 2, y en este caso, . Por lo tanto, el método no converge a la raíz.
Para aclarar el uso de la fórmula veamos dos ejemplos:
Ejemplo 1Usar el método de iteración del punto fijo para aproximar la raíz de , comenzando con y hasta que .
SoluciónComo ya aclaramos anteriormente, el método sí converge a la raíz. Aplicando la fórmula iterativa tenemos,
Con un error aproximado de
Aplicando nuevamente la fórmula iterativa tenemos,
Y un error aproximado de .
Intuimos que el error aproximado se irá reduciendo muy lentamente. En efecto, se necesitan hasta 13 iteraciones para lograr reducir el error aproximado menor al 1%. El resultado final que se obtiene es:
Con un error aproximado igual al .
Ejemplo 2Usar el método de iteración del punto fijo para aproximar la raíz de , comenzando con y hasta que .
SoluciónSi despejamos la del término lineal, vemos que la ecuación equivale a
de donde,
En este caso, tenemos que . Un vistazo a la gráfica,
nos convence que , para , lo que es suficiente para deducir que el método sí converge a la raíz buscada.
Aplicando la fórmula iterativa, tenemos:
Con un error aproximado del 100%.
Aplicando nuevamente la fórmula iterativa, tenemos:
Con un error aproximado igual al 28.41%.
En este ejemplo, el método solo necesita de 5 iteraciones para reducir el error menor al 1%. Resumimos los resultados en la siguiente tabla:
Aplicando la fórmula iterativa, tenemos:
Con un error aproximado del 100%.
Aplicando nuevamente la fórmula iterativa, tenemos:
Con un error aproximado igual al 28.41%.
En este ejemplo, el método solo necesita de 5 iteraciones para reducir el error menor al 1%. Resumimos los resultados en la siguiente tabla:
De donde vemos que la aproximación buscada es:
Veremos a continuación un ejemplo del metódo de la Punto Fijo con la siguiente ecuación:
Método de la cuerda
En este caso se cambia la derivada por la pendiente de la recta que une los extremos del intervalo. Es decir,
(12)
y la sucesión queda
(13)
Ejemplo de regla falsa
//generico
% Método de la Bisección
function raiz=biseccion(fdex2,i,s,error)
%error=0.01;
j=1;
fa=feval(fdex2,i);
fb=feval(fdex2,s);
r = (((i*fb)-(s*fa))/(fb-fa));
fr = feval(fdex2,r);
if fa*fb < ep =" 100;" ant="0;"> error
fa=feval(fdex2,i);
fb=feval(fdex2,s);
r = (((i*fb)-(s*fa))/(fb-fa));
fr = feval(fdex2,r);
fab = fa * fr;
ep = abs((r - ant) / r) *100;
fprintf('%5d %10.6f %10.6f %10.6f %10.6f %10.6f %10.6f %10.6f \n',j,i,r,s,fa,fr,fb,ep);
ant=r;
j=j+1;
if fa*fr<0 s="r;" i="r;" y =" fdex(x)" y=" atan(x)+x-1;
//ecuación 2
% Función: f(x) = X 4 - 2 X 3 - 12 X 2 + 16 X - 40
function y = fdex(x)
y= tan(x)-x-0.5;
% Función: f(x) = X 4 - 2 X 3 - 12 X 2 + 16 X - 40
function y = fdex(x)
y= tan(x)-x-0.5;

Newton raphson modificado
Sustituyendo esta, tenemos la formulación final del Método de Newton-Raphson modificado.
Ejemplo.
Hacer una comparación entre el método de Newton-Raphson y el método de Newton-Raphson modificado, para encontrar las raíces del polinomio f(x) = x3 - 5x2 + 7x – 3.
Para nuestro calculo requerimos de:
f(x) = x3 - 5x2 + 7x – 3
f’(x) =3 x2 - 10x + 7
f’’(x) = 6x –10
Primeramente resolvemos con x0 = 0.

La solución con x0 = 4

Note que cuando existe una raíz múltiple (en el caso de x=1), el algoritmo de Newton Raphson modificado, tiene mejor comportamiento, que cuando no es el caso de raíz múltiple (x=3).
Implementación en Java.
/**
*
*
*
*
* @author Dr. Felix Calderon Solorio.
* @version 1.0
*/
public class ej059 {
public static void main(String[] args) {
Newton_Raphson(0, 1e-10);
Newton_Raphson_Modificado(0, 1e-10);
}
public static double Newton_Raphson(double x0, double T)
{
int i =0;
double x = x0;
while(Math.abs(f(x)) > T)
{
System.out.println("Iteracion " + i++ + " " + x + " " + f(x));
x = x - f(x)/df(x);
}
System.out.println("Iteracion " + i++ + " " + x + " " + f(x));
return x;
}
public static double Newton_Raphson_Modificado(double x0, double T)
{
int i =0;
double x = x0;
while(Math.abs(f(x)) > T)
{
System.out.println("Iteracion " + i++ + " " + x + " " + f(x));
x = x - (f(x)*df(x))/(df(x)*df(x) - f(x)*ddf(x));
}
System.out.println("Iteracion " + i++ + " " + x + " " + f(x));
return x;
}
public static double f(double x)
{
return (x*x*x - 5.0*x*x + 7.0*x - 3.0);
}
public static double df(double x)
{
return (3.0*x*x - 10.0*x + 7.0);
}
public static double ddf(double x)
{
return (6.0*x - 10.0);
}
}
Bisección
Generalización
% Método de la Bisección
function raiz=biseccion(fdex1,i,s)
error=0.01;
j=1;
fa=feval(fdex1,i);
fb=feval(fdex1,s);
r = (i+s)/2;
fr = feval(fdex1,r);
if fa*fb < ep =" 100;" ant="0;"> error
fa=feval(fdex1,i);
fb=feval(fdex1,s);
r = (i+s)/2;
fr = feval(fdex1,r);
fab = fa * fr;
ep = abs((r - ant) / r) *100;
fprintf('%5d %10.6f %10.6f %10.6f %10.6f %10.6f %10.6f %10.6f \n',j,i,r,s,fa,fr,fb,ep);
ant=r;
j=j+1;
if fa*fr<0 s="r;" i="r;" y =" fdex(x)" y=" ((x^2)+1)^(1/2)-tan(x);">
Implementación en Java.
/**
*
Title: Metodo de Newton Raphson Modificado
*
Description: Compara los métodos de Newton
*
Copyright: Copyright (c) 2003
*
Company: UMSH
* @author Dr. Felix Calderon Solorio.
* @version 1.0
*/
public class ej059 {
public static void main(String[] args) {
Newton_Raphson(0, 1e-10);
Newton_Raphson_Modificado(0, 1e-10);
}
public static double Newton_Raphson(double x0, double T)
{
int i =0;
double x = x0;
while(Math.abs(f(x)) > T)
{
System.out.println("Iteracion " + i++ + " " + x + " " + f(x));
x = x - f(x)/df(x);
}
System.out.println("Iteracion " + i++ + " " + x + " " + f(x));
return x;
}
public static double Newton_Raphson_Modificado(double x0, double T)
{
int i =0;
double x = x0;
while(Math.abs(f(x)) > T)
{
System.out.println("Iteracion " + i++ + " " + x + " " + f(x));
x = x - (f(x)*df(x))/(df(x)*df(x) - f(x)*ddf(x));
}
System.out.println("Iteracion " + i++ + " " + x + " " + f(x));
return x;
}
public static double f(double x)
{
return (x*x*x - 5.0*x*x + 7.0*x - 3.0);
}
public static double df(double x)
{
return (3.0*x*x - 10.0*x + 7.0);
}
public static double ddf(double x)
{
return (6.0*x - 10.0);
}
}
Bisección
Generalización
% Método de la Bisección
function raiz=biseccion(fdex1,i,s)
error=0.01;
j=1;
fa=feval(fdex1,i);
fb=feval(fdex1,s);
r = (i+s)/2;
fr = feval(fdex1,r);
if fa*fb < ep =" 100;" ant="0;"> error
fa=feval(fdex1,i);
fb=feval(fdex1,s);
r = (i+s)/2;
fr = feval(fdex1,r);
fab = fa * fr;
ep = abs((r - ant) / r) *100;
fprintf('%5d %10.6f %10.6f %10.6f %10.6f %10.6f %10.6f %10.6f \n',j,i,r,s,fa,fr,fb,ep);
ant=r;
j=j+1;
if fa*fr<0 s="r;" i="r;" y =" fdex(x)" y=" ((x^2)+1)^(1/2)-tan(x);">

Ejemplo 1
% Función: f(x) = X 4 - 2 X 3 - 12 X 2 + 16 X - 40
function y = fdex(x)
y= exp(-x^3)-2*x+1; con intervalo de 0.75 a 1
% Función: f(x) = X 4 - 2 X 3 - 12 X 2 + 16 X - 40
function y = fdex(x)
y= exp(-x^3)-2*x+1; con intervalo de 0.75 a 1
