Beruflich Dokumente
Kultur Dokumente
LISANDRO ALVARADO
Decanato de Ciencias y Tecnologa
Licenciatura en Ciencias Matemticas
Barquisimeto, Venezuela.
Julio de 2012
AGRADECIMIENTOS
R ESUMEN
El propsito central de este trabajo es relacionar los Mtodo bsqueda lineal
con el Mtodo de Regin de Confianza, los cuales son dos importantes clases de
tcnicas para resolver problemas de optimizacin inrrestrictas y tienen sus ventajas
respectivamente. En este trabajo se utiliza la Regla de Armijo la cual es un Mtodo
de bsqueda lineal inexacto, y se propone una Nueva Bsqueda Lineal de problemas
de optimizacin sin restricciones. Convergencia global y la velocidad de convergencia
del nuevo mtodo se analizan en leves condiciones. Adems, la nueva estrategia tipo
Armijo de bsqueda lneal se muestra como equivalente a una aproximacin de un
mtodo de regin de confianza, entonces tiene tanto ventajas de la estrategia de
bsqueda en lnea y la estrategia de regin de confianza.
ii
Introduccin
Al resolver problemas de optimizacin irrestricta nos vemos en la necesidad de
estudiar principalmente dos tipos de metodologas que generan sucesiones, las cuales
se esperan de alguna forma converger a un minimizador de la funcin objetivo. Por
una parte tenemos los mtodos basados en bsquedas lineales, en los cuales, una
vez obtenida una direccin de avance, realizamos una bsqueda lineal en esa direccin; tales bsquedas pueden ser exactas o inexactas. Entre estas ultimas tenemos
las bsquedas de Armijo, Wolfe y Goldstein. Por otra parte los mtodos de region
de confianza constituyen otra metodologa para el mismo fin; en este ultimo caso
primero se preocupa uno del tamao del paso y luego de la direccin resultante por
medio de una aproximacin cuadrtica local de la funcin objetivo en cada iteracin.
En el presente trabajo realizaremos un estudio general de las bsquedas lineales y el
mtodo de region de confianza, pero nos detendremos en el anlisis de una particular bsqueda tipo Armijo propuesta recientemente que relaciona el iterado obtenido
mediante esta nueva bsqueda con la solucin aproximada del subproblema correspondiente al mtodo de region de confianza.
ndice
Agradecimientos
Resumen
ii
1. PRELIMINARES
. . . . . . . . . . .
10
10
15
21
Referencias
24
2. SOBRE UNA BSQUEDA LINEAL TIPO ARMIJO Y SU RELACIN CON EL MTODO DE REGIN DE CONFIANZA
25
25
27
31
31
33
36
37
iv
40
Referencias bibliogrficas.
41
ndice de figuras
11
1.7. Grfica de () . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
12
13
14
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
15
17
19
20
vi
Captulo
PRELIMINARES
En este captulo se presentan los fundamentos de la optimizacin sin restricciones.
En la optimizacin sin restricciones, se minimiza una funcin objetivo que depende de variables reales, sin restriccin alguna en los valores de estas variables.
Consideremos el problema de minimizacin sin restriccin.
minf (x),
xRn .
(1.1)
(1.2)
(1.3)
(1.4)
Prueba ver
Definicin 1.0.7. (Lipschitz continua)
Una funcin f : Rn R, se dice que es Lipschitz continua o simplemente Lipschitziana, si existe una constante M > 0, tal que:
kf (x) f (y)k 6 M kx yk, x, yRn .
(1.5)
(1.6)
(1.7)
(1.8)
(1.9)
o de manera equivalente,
Sif (x1 )T (x2 x1 ) > 0, entoncef (x2 ) > f (x1 )
(1.10)
(1.11)
(1.12)
Si H=R2 , los conjuntos de nivel son en general curvas y se las llama curvas de
nivel.
Si H=R3 , los conjuntos de nivel suelen ser superficies y se les llama superficies
de nivel.
Cuando H = R2 , f (x) = z con xH, la grfica de dicha funcin corresponde
al conjunto gr(f ) = {(x1 , x2 , f (x1 , x2 )) : (x1 , x2 )H}. Al ubicar los puntos en el
espacio R3 , obtenemos una superficie en dicho espacio. Las curvas de nivel se obtienen
cortando la superficie con planos horizontales situados a distintas alturas. Si cortamos
la grfica con varios planos horizontales obtenemos una serie de curvas situadas sobre
la grfica:
(1.13)
Para algn t (0, 1). Adems, si f es dos veces continuamente diferenciable, tenemos:
Z 1
f (x + d) = f (x) +
2 f (x + td)ddt
(1.14)
0
y que,
1
f (x + d) = f (x) + dT f (x) + dT 2 f (x + td)d
2
Para algn t (0, 1).
(1.15)
Direccin de Descenso
(1.16)
(1.17)
fk
kfk k
(1.18)
Figura 1.4: La dificultad es que el direccin de mximo descenso es casi ortogonal a la direccin que conduce al mnimo cuando las superficies de costo de f son alargada. Con lo que resulta, que el mtodo
vaya en zig-zag sin hacer avance rpido.
Mtodos de Bsqueda lineal pueden usar una direccin que no sea la direccin de
mximo descenso. En general, como hemos visto que el mximo descenso ocurre en
= cualquier direccin que forme un ngulo estrictamente mayor que
o anlogamente que forme un ngulo estrictamente menor que
con fk ,
con fk garantiza
una disminucin en f, siempre que la longitud del paso sea suficiente pequea, ver
figuras (1.5).
(1.19)
(1.20)
(1.21)
O lo que es lo mismo
(gk )T dk
>0
kgk kkdk k
(1.22)
(gk )T dk
> ,
kgk kkdk k
(1.23)
coshgk , dk i =
Y por completitud en R
coshgk , dk i =
Donde 0 < 6 1.
De esto se deduce que f (xk +dk ) < f (xk ) para todo valor positivo pero suficiente
pequeo de .
1.0.2.
Direccin de Newton
(1.25)
(1.26)
(1.27)
Para algn k > 0. A menos que el fk (y por lo tanto el paso (dk )N ) es igual
a cero, tenemos que (fk )T (dk )N < 0, por lo que la Direccin de Newton es una
direccin de descenso.
Cuando 2 fk no es definida positiva, la direccin de Newton ni siquiera se puede
definir, ya que (2 fk ) 1 puede no existir. Incluso cuando se puede definir, puede
que no cumpla con la propiedad de descenso (fk )T (dk )N < 0, en cuyo caso no es
adecuada como una direccin de bsqueda.
Los mtodos que utilizan la direccin de Newton tiene una rpida tasa de convergencia local, por lo general cuadrtica. Despus de una vecindad de la solucin
se alcanza, la convergencia con alta precisin a menudo se produce en tan slo unas
pocas iteraciones. El principal inconveniente de la direccin de Newton es el la necesidad de calcular la Hessiana 2 f (x). El clculo explcito de esta matriz de segundas
derivadas a veces puede ser un proceso engorroso, propenso a errores, y caro.
1.0.3.
(1.28)
Para asegurar que algn mtodo no se quede pegado se considera las condiciones
tcnicas, que pueden ser fcilmente aplicadas a la mayora de los algoritmos de inters. Para el caso en que dk = (Dk ) 1fk , y DK es definida positiva los autovalores
de la matriz simtrica Dk son acotados superiormente y lejos de cero, es decir, para
algunos escalares positivos c1 y c2 , tenemos
c1 kzk2 6 z T Dk z 6 c2 kzk2
(1.29)
(1.30)
(1.31)
(1.32)
Cada iteracin de un mtodo de bsqueda lineal, calcula una bsqueda de direccin y luego decide cuan lejos se mover a lo largo de esa direccin. La iteracin esta
dada por
xk+1 = xk + k dk
(1.33)
Tamao de paso
En el tamao de paso k , se encuentra una disyuntiva. Nos gustara elegir k para
dar una reduccin sustancial de la f, pero al mismo tiempo, no queremos gastar
mucho tiempo de costo en hacer la eleccin. La opcin ideal sera el minimizador
global de la funcin univaluada () definida por
() = f (xk + dk ),
> 0,
(1.34)
Mtodo de Biseccin
Consideremos una funcin () = f (xk + dk ) Pseudoconvexa sobre un intervalo
[a1 , b1 ]. Supongamos que [ak , bk ] es el intervalo de incertidumbre en una iteracin k.
Supongamos que ck =
bk ak
2
bk ak
2
bk ak
2
Si no; Paso 4: Si
phi0 (ck ) > 0 [ak +1, bk +1] = [ak , ck ], y k = k+1; Volver al paso 1 Si no [ak +1, bk +1] =
[ck , bk ],k = k + 1; Volver al paso 1
Para ilustrar el mtodo de Biseccin mostramos la siguiente figura.
() = f (xk + dk ),
> 0,
(1.35)
(1.36)
(1.37)
Por lo tanto, el tamao de paso no debe ser slo positivo, sino que debe ser lo
suficientemente pequeo para que se cumpla (1.37). En funcin de ver esta regla
geomtricamente podemos reescribir (1.37) como
f (xk + dk ) 6 f (xk ) + f (xk )T dk
(1.38)
La bsqueda lineal por la regla de Armijo. Comenzamos con el estudio del tamao
de paso s y continuar con s, s2 , .., .. hasta la primera vez que sm caiga dentro del
conjunto de tamaos de paso que satisface la desigualdad, donde la linea punteada
representa la funcin f (xk ) + f (xk )T dk en la Figura (1.10).
Por lo general, se elige cerca del cero, por ejemplo, [105 , 101 ]. El factor
de reduccin se elige generalmente de 1/2 a 1/10 en funcin de la confianza que
tenemos del paso inicial s. Siempre podemos tomar s = 1 y multiplicar la direccin
dk por un factor de escala.
Regla De Goldstein
Otra regla de bsqueda lineal de precisin que es usada frecuentemente es la regla
de Goldstein. Aqu, un escalar fijo (0, 1/2) es seleccionado, y k se elige para
satisfacer
f (xk + dk ) f (xk )
61
f (xk )dk
Reescribiendo esta condicin tenemos, que un valor es aceptable si
6
(1.39)
(1.40)
(1.41)
Esto se ilustra
1.0.6.
(1.42)
(1.43)
(1.44)
actualreduccin
f (xk ) f (xk + pk )
=
(1.45)
mk (0) mk (pk )
previstareduccin
Si la relacin de reduccin es grande por ejemplo k > 3/4, el tamao de la regin
rk =
f (xk ) f (xk + pk )
mk (0) mk (pk )
(1.46)
(
xk+1 =
xk + pk sipk >
xk
Enotrocaso
k+1
sirk < 14
4 k
b sirk > 3 ykpk k = k
=
min(2k , )
4
Enotrocaso.
k
(1.47)
(1.48)
k .gk
kgk k
(1.49)
Esto lo podemos comprobar del mismo modo que lo hicimos para deducir la direccin
de descenso, sabiendo que el coeficiente de cambio en (1.47) es gkT py ver que la
mxima reduccin sucede s.t kpk = k .
Para obtener k explcitamente, consideramos el caso que gkT Bk gk 6 0 y gkT Bk gk >
0 por separado.
Para el primer caso, la funcin mk ( psk ) decrece monotonamente con cuando
gk 6= 0, As k = 1 el valor mas grande que se satisface en la regin de confianza.
Para el caso gkT Bk gk > 0, mk ( psk ) es cuadriculada convexa en , As k se obtiene
de la minimizacin no restringida de esta cuadrtica, esto es, derivando con respecto
a a mk ( psk ) e igualando a 0, obtenemos:
psk gk + (psk )T Bk psk = 0
=
Sustituyendo psk =
psk gk
(psk )T Bk psk
k gk
kgk k
=
=
=
k gk
.gk
kgk k
k g T
k B k gk
k kg k
kgk k
k
k
2
kg
k
k
kgk k
2 g T Bk g k
k k
kgk k2
kgk k3
k gkT Bk gk
As que en el caso que gkT Bk gk > 0, = kgk k3 /(k gkT Bk gk ) o es 1, cualquiera que
ocurra primero.
k
gK
kgk k
Donde
1
k =
min(
sigkT Bk gk 6 0
kgk k3
, 1)
k gkT Bk gk
Enotrocaso
El Mtodo de Dogled
El enfoque de este mtodo va con el ttulo descriptivo del mtodo de pata de
perro. El cual puede ser usado solo cuando Bk es definida positiva. El subproblema
de la regin de confianza.
1
minp mk = fk + gkT p + pT Bk p s.t.kpk 6 k
2
Es un problema difcil. La solucin no restringida de mk es pB = B 1 g, cuando
este punto es factible para (1.46) es min (1.43), es evidente una solucin por lo que
tenemos
p () = pB , cuando > kpB k
(1.50)
g
, cuandoespequeo
kgk
(1.51)
(
k =
si0 6 6 1
p + ( 1)(pB pu ) si1 6 6 2
camino, con sujecin a la regin confianza. El siguiente lema muestra que el mnimo
lo largo de la ruta de acceso pata de perro se pueden encontrar fcilmente.
Lema 1.0.15. Sea B definida positiva. Entonces
ke
p( )k es una funcin creciente de , y
m(e
p( )) es una funcin decreciente de .
La demostracin de este lema es muy fcil de probar y se encuentra en cualquier
libro de optimizacin ver [?]libro Nocedal). Este lema garantiza que que el camino
pe( ) se cruza con la regin de confianza kpk = exactamente en un punto si kpB k >
, Y en ninguna otra parte. Como m es decreciente a lo largo del camino, el valor
(1.53)
(1.54)
La notacin g(x) = o(x), significa que g(x) tiende a cero ms rpido que lo hace
x, es equivalente a que el k anterior es cero.
1.1.
Razn de Convergencia
o 6 lm
(1.55)
Existe
(1.56)
suficientemente grande, y vemos que |xi x |p se har mas pequeo mientras p sea
mas grande, as el siguiente iterado estar a una menor distancia de x , sin ignorar
a con lo que tenemos que a menor radio ms rpida convergencia.
Es decir, que a valores mas grandes de p y valores mas pequeos de tendremos
aun mayor rapidez de convergencia.
El estudio de la velocidad de convergencia adems de estudiar la eficacia relativa
de los algoritmos de los mtodos es un anlisis de aproximacin local el cual a tenido
considerable xito en prediccin de comportamientos de distintos mtodos donde
la funcin de costo puede ser bien aproximada por una cuadrtica. Sin embargo,
el enfoque de anlisis local tambin tiene algunos inconvenientes importantes, el
ms importante de las cuales es que no se tiene en cuenta el ritmo de progreso en
las primeras iteraciones. No obstante, en muchas situaciones prcticas, no es una
omisin grave porque el progreso es rpido en las iteraciones iniciales y con menor
crecimiento slo en el lmite (Las razones de esto parecen difciles de entender, estos
son problemas dependientes). Adems, a menudo en la prctica, los puntos de partida
que estn cerca de una solucin son fcilmente obtenibles por una combinacin de
heurstica y experiencia, en cuyo caso el anlisis local es ms significativo.
El anlisis local no es muy til para problemas que involucran ya sea singularidades o mnimos locales, que son difciles de encontrar en el sentido de que los
principales mtodos le toma muchas iteraciones para llegar cerca de su solucin en
la que se aplica el anlisis local.
Si los mtodos a comparar tienen igual orden de convergencia la comparacin
se basara en los correspondientes radios de convergencia, con menor valor del radio
mayor sera la rapidez de la convergencia.
Definicin 1.1.2. sea la sucesin {xk } convergente a x , si existe un (0, 1) y tal
que
|xi+1 x |
=
(1.57)
i |xi x |
La sucesin se dice convergente linealmente a x con radio de convergencia .
lm
(1.58)
(1.59)
Referencias
24
Captulo
2.1.
25
pequeo tal que dTk Bk dk + ikdk k2 > 0. Establecer sk = dT kBb kd y k es el mas grande
k
k k
1
fk f (xk + dk ) > [gkT dk + dTk Bk dk ]
2
Algoritmo (A)
Paso 0. Elegir x0 Rn y establecer k := 0.
Paso 1. Si kgk k = 0 entonces parar; si no ir al paso 2;
Paso 2. Establecer xk+1 = xk + k dk , donde dk es una direccin de descenso de f (x)
en xk y k es seleccionado por la Nueva Bsqueda de Armijo;
Paso 3. Establecer k := k + 1.
Lema 2.1.1. Si (H1) se tiene y gkT < 0, entonces la Nueva Bsqueda de Armijo esta
bien definida.
Demostracin.
Por (H1), tenemos
lm0+ [
f (xk +k dk )fk 21 2 dT
k Bk dk
]
Luego,
1
f (xk + k dk ) fk 6 gkT dk + 2 dTk Bk dk , [0, k ].
2
Entonces
1
fk f (xk + k dk ) > [gkT dk + dTk Bk dk ], [0, k ].
2
Lo que implica que la Nueva Bsqueda de Armijo esta bien definida.
2.2.
Convergencia Global
gkT dk
)=0
kdk k
(2.1)
Demostracin.
Por contradiccin, Supongamos que existe un subconjunto infinito K {0, 1, 2, 3, ....}
y un > 0, tal que
gkT dk
> , kK
kdk k
(2.2)
Entonces
gk T dk > kdk k, kK
(2.3)
(Y a que dTk Bk dk 6 0)
(Sustituyendo sk y restando)
kdk k, kK
2 k
(P or (2.3)).
De aqu vemos que en ambos casos llegamos a que fk fk+1 > 0, ya que k , , , son
escalares positivos, as fk > fk+1 , kK, luego la funcin es montona decreciente y
acotada inferiormente por (H1), con lo que tenemos que
lm fk fk+1 = 0, k K.
(2.4)
En el paper se encuentra un pequeo error debido a que hacen la siguiente comparacin de un vector con un escalar; k dk 6 k kdk k
(2.5)
gkT dk
kd k (Sustituyendo k )
bk dk k
dk T B
(2.6)
1
1
>
bk dk
(2 + 1)kdk k2
dTk B
As en ((2.6)) , tendramos
gkT dk kdk k
gkT dk
kd k = k kdk k 0(k K1 , k ),
6
bk dk k
(2 + 1)kdk k2
dTk B
(P or (2.5))
k
k
2
1
T
T b
(k /)[gk dk 2 sk dk Bk dk ] (k / 6 sk )
3
(k /)gkT dk , kK2 . (Sustituyendo sk =
2
gT d
dT kBb kd )
k
k k
(1 23 ) kdk k kk 6
6
gkT dk
kdk k
(2.7)
y acomodando tenemos:
g T dk
)<
( k
kd
kk
k=0
(2.8)
Demostracin.
Dado que (H2)mplica (H2) ver en preliminares, la conclusion del Teorema (2.2.1) se
cumple.
Sea
K1 = {k|k = sk },
K2 = {k|k < sk }
T
2
(gk dk )
. bd
2 dT B
k k
(Sustituyendo k por sk )
>
gT d 2
( kdk k kk ), kK1 .
2(2+1)
As
(P or(2.5))
2
fk fk+1 >
g T dk
( k
), k K1 .
2(2 + 1) kdk k
(2.9)
(2.10)
obtuvimos:
3 g T dk
(1 ) k
6 kg(xk + k (k /)dk ) gk k, kK2
2 kdk k
(M 0 = k M )(kK2 )
(2.11)
Por consiguiente,
fk fk+1 > k [gkT dk + 21 k dTk Bk dk ]
bk dk ] (k dT Bk dk 6 sk dT B
b
> k [gkT dk + 21 sk dTk B
k
k k dk )
= k [gkT dk 12 gkT dk ] (Sustituyendo sk )
= 21 k gkT dk
>
(1 23 )
gkT dk 2
(
) , kK2 .
0
2M
kdk k
(P or (2.10))
(1 23 )
1
min(
,
),
2
2 + 1
M0
Se tiene que:
ff fk+1 > 0 (
gkT dk 2
) , k.
kdk k
(2.12)
X
X
g T dk
( k )2 6
(fk f > k + 1) < +.
kdk k
k=0
k=0
0
(2.13)
kgk k 6 kgkkkkdkk k
gT d
= kdk k kk 0, (k ).
La prueba termina.
2.3.
Razn de Convergencia
(2.14)
(2.15)
(2.16)
Y as,
M 0 kx x k2 > g(x)T (x x ) > m0 kx x k2 , x N (x , );
(2.17)
(2.18)
(2.19)
Convergencia Lineal
Teorema 2.3.2. Asumir que (H3) se cumple, dk satisface (??) y k es definida por
la Nueva Bsqueda de Armijo y que kBk k 6 ,k. Si el Algoritmo (A) genera un
secuencia infinita {xk }, entonces {xk } converge a x por lo menos R-lineal.
2m02
(fk
M0
Sea
f ). (P or(2.15))
2
>0
M0
Probemos que < 1. En efecto, por la definicin de y 0 en la prueba del Teorema
= m0
(2.2.2), se obtiene:
2 =
6
6
6
02 2 0
2m02
= 2mM0
M0
3
2m02 2 (1 2 )
(P or 0 )
0
0
M
2M
2 (1 23 ). (0 < m0 6
(1 23 ). (0 < 6 1)
< 1.
M 0)
Definamos
0<w=
1 2 < 1
= w2(kk ) (fk0 +1 f ).
2
(fk+1 f )
m0
0 2(f 0
f )
w2(kk ) k +1
0
m
As
2(fk0 +1 f )
m0
Es decir, que si cambiamos el subndice k por k 1, tenemos
q
2(fk0 +1 f )
k1k0
kxk x k 6 w
m0
q
k
2(fk0 +1 f )
= wwk0 +1
m0
q
)
2(f
f
0
k
+1
= wk m0 w2(k0 +1) .
kxk+1 x k 6 w
Notemos que
2(fk0 +1 f )
0
m0 w2(k +1)
kk0
2(fk0 +1 f ) 1/2k
)
=w<1
m0 w2(k0 +1)
2.4.
Convergencia Superlineal
(2.20)
Lema 2.4.1. Si (H3) y (H4) se cumplen. Algoritmo (A) genera una secuencia infinita
{xk }. Entonces existe ktal que
k = 1, k > k 0 .
Demostracin.
Por corolario (2.2.3) y (H4)
lm kgk k = 0 lm k Bk1 gk k = 0
(2.21)
lm kdk k = 0,
(2.22)
Y as
lm (xk + tdk x ) = 0,
(2.23)
kdT
k [Bk f (x )]dk k
kdk k2
2 f (x )]dk k
lmk kdk kk[Bkkd
2
kk
k[Bk 2 f (x )]dk k
lmk
kdk k2
0 6 lmk
6
=
Luego
(2.24)
En el paper presenta un detalle al declarar que es el teorema del valor medio, pero
la validez de la siguiente igualdad es por el teorema fundamental de calculo:
Z 1
T
f (xk + dk ) fk = gk dk +
(1 t)dTk 2 f (xk + tdk )dk dt
0
En efecto,
gkT dk +
R1
R1 T 2
T 2
T
(1
t)d
f
(x
+
td
)d
d
=
g
d
+
dk f (xk + tdk )dk dt
k
k
k
t
k
k
k
0
R 1 T 20
0 tdk f (xk + tdk )dk dt
= gkT dk + f (xk + dk )T dk gkT dk
R1
0 tdTk 2 f (xk + tdk )dk dt
R1
= f (xk + dk )T dk 0 tdTk 2 f (xk + tdk )dk dt ,
1 T
d [2 f (x ) Bk ]dk
2 k
[gkT dk + 12 dTk Bk dk ] + o(kdk k2 ).
(P or (2.23)) y (2.24))
1 T
g d
2 k k
< 0. (P or(??))
Por esto y (2.22), se tiene en la igualdad de arriba que:
1
1
f (xk + dk ) fk = [gkT dk + dTk Bk dk ] + o(kdk k2 ) 6 [gkT dk + dTk Bk dk ]
2
2
Lo que implica que existe un kpara que el (2.21) es valida.
Teorema 2.4.2. Si (H3) y (H4) se cumplen. Algoritmo (A) genera una sucesin infinita
{xk }. Entonces {xk } converge a x superlinealmente.
Demostracin.
Por Corolario (2.2.3) y Lema (2.3.1) sabemos que {xk } x . Por Lema (2.4.1),
existe ktal que (2.21)) se cumple y tenemos:
xk+1 = xk + dk , k > k 0
(2.25)
R1
R01
Veamos que:
k2 f (xk + tdk ) 2 f (x )]kkdk k
k2 f (xk + tdk ) 2 f (x )]dk k
6 lm
=0
k
k
kdk k
kdk k
R1
Asi 0 [2 f (xk + tdk ) 2 f (x )]dk dt = o(kdk k) y en la igualdad de arriba obtendralm
mos:
gk+1 = gk + 2 f (x )dk + o(kdk k)
= Bk dk + 2 f (x )dk + o(kdk k)
= [Bk 2 f (x )]dk + o(kdk k)
= o(kdk k). (P or (2.20))
Entonces
kgk+1 k
=0
k kdk k
lm
(2.26)
>
=
>
m0 kxk+1 x k
kdk k
m0 kxk+1 x k
(P or (2.25))
kxk+1 xk k
m0 kxk+1 x k
kxk+1 x k+kxk x k
0
= m
Y as
kxk+1 x k
kxk x k
kxk+1 x k
1+ kx
k x k
kxk+1 x k
=0
lm
k kxk x k
2.5.
Convergencia Cuadrtica
(2.27)
Algoritmo (A) genera una secuencia infinita {xk }. Entonces {xk } converge a x
Cuadrticamente.
Demostracin.
Por Corolario (2.2.3), Lema (2.3.1) y (2.4.1), se sigue que {xk } converge a x y existe
ktal que para todo k > k 0 , xk N (x , ), Bk = 2 f (xk ), y k = 1. Sea k = xk x .
Por teorema fundamental del calculo tenemos:
k+1 = xk+1 x
= x k x + d k
(P or (2.25))
= k 2 f (xk )1 gk
= k 2 f (xk )1 (gk g )
R1
= k 2 f (xk )1 0 2 f (x + tk )k dt
R1
= 2 f (xk )1 [2 f (xk ) 0 2 f (x + tk )k dt ]
R1
= 2 f (xk )1 0 [2 f (xk ) 2 f (x + tk )]k dt
Esto y (2.27) implica que:
R1
[2 f (xk ) 2 f (x + tk )]k dt k
R
1
6 k2 f (xk )1 k 0 k2 f (xk ) 2 f (x + tk )kdt kk k
R1
6 |2 f (xk )1 kL() 0 kxk + tk xk kdt kk k
R1
= |2 f (xk )1 kL()kk k2 0 tdt
kk+1 k = k2 f (xk )1
1
k2 f (xk )1 kL()kk k2 .
2
Por lo tanto,
kk+1 k
k kk k
lm
2.6.
s.t.kpk 6 k ,
(2.28)
rk =
(2.29)
kgk k
),
kBk k
(2.30)
Y
kpk k 6 k ,
(2.31)
(2.32)
(2.33)
fk fk+1
> ,
mk (0) mk (pk )
(2.34)
2.7.
Conclusin
fk fk+1
>
+ 21 pTk Bk pk
gkT dk
Referencias bibliogrficas.
41