Sie sind auf Seite 1von 4

I.

Investigar el algoritmo del mtodo de punto fijo para la resolucin de ecuaciones no


lineales.

+ Introduccin

Es muy comn para la resolucin de problemas el tener que encontrar las races de una ecuacin.
A continuacin se presentan varios mtodos de cmo obtenerlas.

+ Biseccin
Para el intervalo [[$ [a, b] $]], calcular:
[[math]]
c = \frac{a+b}{2}
[[/math]]

Si [[$ f(a) $]] y [[$ f(c) $]] tienen distinto signo, el prximo intervalo es [[$ [a,c] $]], en caso
contrario el nuevo intervalo es [[$ [b,c] $]]. Hay dos posibles condiciones de corte, la primera es
que el valor [[$c$]] encontrado sea una raz ([[$ f(c) \leq \delta $]]) y la segunda es que el intervalo
en el que buscamos sea tan chico como deseemos ([[$ b - a \leq \epsilon $]]). En este ltimo caso
la raz es [[$\frac{a+b}{2}$]]


La cota de error en la iteracin n-sima es
[[math]]
e_n \leq 2^{-(n+1)}(b-a)
[[/math]]

++ Observaciones
Se gana un dgito binario de precisin por cada iteracin, o sea un dgito decimal cada 10/3
iteraciones


+ Punto Fijo

Dada la funcin [[$ f(x) $]], hay que despejar [[$ x $]] en funcin de [[$ x $]], es decir
[[math]]
x = \phi(x)
[[/math]]

Para que se pueda hacer punto fijo tiene que cumplirse lo siguiente:
* Tiene que existir un intervalo [[$ [a,b] $]] sobre la abscisa tal que [[$ f(x) $]] caiga en el intervalo
[[$ [a,b] $]] pero sobre la ordenada.
* En todo punto de ese intervalo, la derivada de la funcin despejada tiene que tener mdulo
menor a 1.

Entonces se elige un punto inicial cualquiera y la sucesin
[[math]]
p_{n+1} = \phi(p_n)
[[/math]]
converge al nico punto fijo de ese intervalo, o sea a la raz buscada.

La cota de error en la iteracin n-sima es
[[math]]
e_n \leq \frac{k^n}{1-k} \vert p_1 - p_0 \vert
[[/math]]
donde [[$ k $]] es la cota de la derivada en el intervalo (o sea algo menor a 1).

Segn sea la convergencia de la derivada, si una ecuacin tiene ms de una raz capaz que no se
pueden calcular todas por punto fijo porque en un entorno de alguna la derivada puede ser
siempre mayor a 1, entonces no se puede usar punto fijo.


+ Mtodo de Newton

Para que se pueda usar, tiene que cumplirse que:
* La funcin tenga derivada segunda en algn intervalo que contiene a la raz.
* La derivada en la raz no se anule (raz simple).

La sucesin est dada por la siguiente expresin
[[math]]
x_{n+1} = x_n - \frac{f(x_n)}{f'(x_n)}
[[/math]]

Hay que elegir un valor inicial tal que
[[math]]
x_0 = m \epsilon_0 < 1
[[/math]]
donde [[$\epsilon_n = \vert x_n - \alpha \vert $]] el error absoluto en la n-sima iteracin y
[[math]]
m \geq 0.5 \frac{\vert f''(x) \vert}{\vert f'(y) \vert} \\
[[/math]]
para cualquier par de puntos [[$x$]] e [[$y$]] en el intervalo [[$[\alpha-\delta, \alpha+\delta]$]]

El error tiene varias cotas
[[math]]
\epsilon_n \leq \frac{(m \times \epsilon_0)^{(2n)}}{m}
[[/math]]
[[math]]
\epsilon_{n+1} \leq \epsilon_n^2 \times m
[[/math]]

La convergencia de este mtodo es cuadrtica.

Si el cmputo de [[$f'$]] lleva [[$\theta$]] veces el de [[$f$]], y [[$\theta > 0.44$]] es conveniente
utilizar el Mtodo de la secante. De lo contrario, se utiliza el Mtodo de Newton.


+ Mtodo de la secante

El mtodo de la secante surge como variante del mtodo de Newton, ya que en ese mtodo es
necesario calcular una funcin y su derivada en cada iteracin. En el mtodo de la secante
slamente se evala la funcin [[$ f(x) $]]. Como contrapartida, este mtodo no converge tan
rapidamente como el mtodo de Newton (de orden 2 de convergencia), pero tiene una
convergencia [[$ R = \frac{1 + \sqrt{5}}{2} \approx 1.618033989$]].

La sucesin est dada por la siguiente expresin
[[math]]
x_{n+1} = x_n - \frac{f(x_n)(x_n - x_{n-1})}{f(x_n) - f(x_{n-1})}
[[/math]]

+ Mtodo de la cuerda

En este caso se cambia la derivada por la pendiente de la recta que une los extremos del intervalo.
Es decir,

[[math]]
f'(x) = \frac{f(b)-f(a)}{b-a}
[[/math]]

y la sucesin queda

[[math]]
x_{n+1} = x_n - \frac{b-a}{f(b)-f(a)} f(x_n)
[[/math]]

+ Mtodo Regula Falsi

Si se tiene una funcin [[$ f(x) $]] en el intervalo [[$ [a,b] $]], el Mtodo de Regula Falsi toma la
lnea secante que pasa por los puntos [[$ f(a) $]] y [[$ f(b) $]]. Luego se toma el valor [[$ c $]]
donde esta recta cruza con el eje [[$ x = 0 $]] , siendo [[$ c $]] la primera aproximacin a la raz de
[[$ f(x) $]]. Hay que tener en cuenta de que [[$ f(a) \cdot f(b) < 0$]] para que haya una raz en tal
intervalo, sino el mtodo no solo no puede ser aplicado, sino que no tendra sentido aplicarlo.
Luego, se acota el intervalo, de tal manera de que [[$ c $]] sea un nuevo extremo. El nuevo
intervalo tiene que tener la raz dentro suyo, as que [[$ c $]] ser el extremo superior si [[$ f(a)
\cdot f(c) < 0$]] o el extremo inferior si se cumple [[$ f(b) \cdot f(c) < 0$]]. Luego, se aplica el
mismo algoritmo a este nuevo intervalo, haciendo que el intervalo se vaya reduciendo y que la raz
sea cada vez ms exacta, y as sucesivamente se itera [[$ n $]] veces sobre ese algoritmo. El
algoritmo entonces para obtener una aproximacin de la raz en la iteracin [[$ n $]] es
[[math]]
c_n = b_n - \frac{f(b_n)(b_n - a_n)}{f(b_n) - f(a_n)}
[[/math]]
donde [[$ c_n $]] es la aproximacin de la raz en la iteracin [[$ n $]], [[$ a_n $]] y [[$ b_n $]] son
los extremos del intervalo en esa iteracin y [[$ f(a_n) $]] y [[$ f(b_n) $]] son los valores de dichos
puntos aplicados a la funcin a evaluar.

La convergencia de este mtodo es lineal, pero garantiza converger siempre a la raz. No sirve para
aproximar fino, a medida que se acerca a la raz hay que cambiar a algn otro mtodo.

+ Mtodo de Steffensen

La idea es tomar Newton y reemplazar a la derivada por

[[math]]
g(x_n) = \frac{f(x_n+f(x_n)) - f(x_n)}{f(x_n)}
[[/math]]
entonces queda:

[[math]]
x_{n+1} = x_n - \frac{f(x_n)}{g(x_n)}
[[/math]]

Este mtodo tiene convergencia cuadrtica.

+ Velocidad de convergencia

Supongamos que [[$ \{ p_n\}_{n = 0}^\infty $]] converge a [[$ p $]] y sea [[$ E_n = p - p_n$]] para
cada [[$ n \ge 0 $]]. Si existen dos constantes positivas [[$ A > 0 $]] y [[$ R > 0 $]] tales que
[[math]]
\lim_{n\to\infty} \frac{\mid p - p_{n+1} \mid}{\mid p - p_n \mid ^R} = \lim_{n\to\infty} \frac{\mid
E_{n+1} \mid}{\mid E_n \mid ^R} = A
[[/math]]
entonces se dice que la sucesin converge a [[$ p $]] con orden de convergencia [[$ R $]] y el
nmero [[$ A $]] se llama constante asinttica del error. Los casos [[$ R = 1, 2$]] merecen una
consideracin especial:

Si [[$ R = 1 $]], la convergencia de [[$ \{ p_n\}_{n = 0}^\infty $]] se llama **lineal**
Si [[$ R = 2 $]], la convergencia de [[$ \{ p_n\}_{n = 0}^\infty $]] se llama **cuadrtica**

Das könnte Ihnen auch gefallen