Beruflich Dokumente
Kultur Dokumente
2.1 Introducción
Se ha estimado que un 75% de los problemas de ingeniería se presenta, en alguna
etapa del trabajo, la solución de un sistema de ecuaciones lineales:
a11 x1 a12 x 2 a13 x 3 a1n x n b1
a 21 x1 a 22 x 2 a 23 x 3 a 2 n x n b2
a 31 x1 a 32 x 2 a 33 x3 a 3n x n b3 (2.1a)
a n1 x1 a n 2 x 2 a n3 x 3 a nn x n bn
o bien: Ax b
a a a a x b
11 12 13 1n 1 1
x
a a 22 a 23 a 2n 2 b
21 2
a 31 a 32 a 33 a 3n x3 b3 (2.1b)
a n1 an2 a n3 a nn x n bn
a n1 an2 bn a nn
xj
a a12 a1 j a1n (2.2)
11
a 21 a 22 a2 j a 2n
det a 31 a 32 a3 j a 3n
a n1 an2 a nj a nn
u n 1,n 1 x n 1 u nn x n bn
u nn x n bn
n
xi 1 bi u ik x k (2.4b)
u
ii k i1
i1
xi bi l ik x k
1
(2.5b)
l
ii k1
a n( 2)2 x 2 a ( 2)n3x 3
a ( 2) xnn n b ( 2)n
donde
a ( 2) a (1) l a (1)
ij ij i1 1j
(2.7c)
( 2) (1) (1)
b b l b
i i i1 1
o n notación matricial: Ux = b.
e
H. Scaletti - Métodos Numéricos: Ecuaciones Algebraicas Lineales 2-4
( n)
nn n ab ( n) x n
(1) ( 2) (3) ( n 1)
Los elementos
a11 , a 22 , a 33 a n 1,n 1 que se usan como divisores en esta reducción
se llaman “pivotes”. El proceso – tal como ha sido planteado hasta el momento – falla si
alguno de estos es cero. Esto en general no ocurre si la matriz A tiene diagonal
dominante (es decir, si a ii a ij ) o si A es simétrica (AT = A) y definida positiva
(1) 1 4 9 16 x 2 10
(1) 1 8 27 64 x 3 44
4
(1) 1 16 81 256 x 190
Los números indicados a la izquierda (entre paréntesis) son los factores li1 por los que es
necesario multiplicar la ecuación 1 antes de restarla de la ecuación i, para lograr el
objetivo de eliminar x1 de la segunda y las siguientes ecuaciones.
1 2 3 4 x1 2
0 2 6 12 x 2 8
(3) 0 6 24 60 x 3 42
4
(7) 0 14 78 252 x 188
Análogamente:
1 2 3 4 x1 2
0 2 6 12 x 2 8
0 0 6 24 x 3 18
0
0 4
(6) 36 168 x 132
1 2 3 4 x1 2
0 2 6 12 x 2 8
0 0 6 24 x 3 18
0 4
0 0
24 x 24
finalmente:
24 x 4 24 x4 1
6 x3 24 x 4 18 x3 1
2 x 2 6 x3 12 x 4 8 x2 1
x1 2 x 2 3 x3 4 x 4 2 x1 1
2
sustitución inversa requieren aproximadamente n operaciones. Si se tuvieran varios
sistemas de ecuaciones con la misma matriz de coeficientes: Ax = b1, Ay = b2, ... sólo
se requeriría efectuar la reducción de A una vez, por lo que el número de operaciones
3 3 2
sería siempre aproximadamente 1 3 n . Más precisamente, se hacen 1 n n 1 n
3 1 2 5
3n
1
operaciones de multiplicación y división (y 2n 6n sumas o restas) para
3 3
1 1 1 x1 1
1 1 2 x2 2
1 2 2 x3 1
anteriormente), se obtiene:
1 1 1 x1 1
0 0 1 x2 1
0 1 1 x3 0
( 2)
y siendo a 22 0 , no es posible proseguir como habitualmente. La solución es en este
(i )
caso obvia: intercambiar las ecuaciones (filas) 2 y 3. En general, si a ii 0 , algún otro
elemento de la misma columna, a (iji) , debe ser distinto de cero (lo contrario implicaría
una dependencia lineal de por lo menos dos de las ecuaciones, es decir la singularidad
de A). Intercambiando las filas j e i puede entonces continuarse la reducción. Dados los
(i )
elementos a ji de la columna i, es conveniente escoger como pivote aquel de máximo
valor absoluto, puesto que el uso de pivotes pequeños introduce fuertes errores en la
solución. El ejemplo siguiente es ilustrativo:
11
3 10 1 x1 7
1 1 x2 9
matriz triangular superior, es única. Esto puede probarse fácilmente por inducción. Para
el caso del primer ejemplo:
1 2 3 4 1 0 0 01 2 3 4
1 4 9 16 1 1 0 00 2 6 12
1 8 27 64 1 3 1 00 0 6 24
1 16 6 1 0 0
1 7
81 256
0
24
puede almacenarse en las posición de a ki . Por otro lado, no es necesario almacenar los
elementos de la diagonal de L (que son todos iguales a 1). Dado que los elementos de
U son aquellos de la matriz reducida, el efecto de la reducción o descomposición en la
distribución de memoria es de la forma:
a11 a12 a13 a1n u u12 u13 u1n
11
a 21 a 22 a 23 a 2n l 21 u 22 u 23 u 2n
a a 32 a 33 a 3n l l 32 u 33 u 3n
31 31
a n1 a n2 a n3 a nn l n1 l n2 l n3 u nn
1 4 9 16 1 2 6 12
1 8 27 64 1 3 6 24
1 16 81 256 1 7
6 24
1 k1
l ik ai k l i p u p k i k 1, n (2.9b)
u kk p1
Si durante el proceso de reducción se usa la ecuación i para eliminar xi, no sólo de las
ecuaciones que siguen a la i sino también de la ecuaciones precedentes, se tiene el
método de Gauss – Jordan. Para el ejemplo antes considerado:
1 2 3 4 x1 2
1 4 9 16 x 2 10
1 8 27 64 x 3 44
1 16 81 256 x 4 190
1 2 3 4 x1 2
0 2 6 12 x 2 8
0 6 24 60 x 3 42
0 14 78 252 x 4 188
H. Scaletti - Métodos Numéricos: Ecuaciones Algebraicas Lineales 2-8
1 0 3 8 x1 6
0 2 6 12 x 2 8
0 0 6 24 x 3 18
0 0 36 168 x 4 132
Nótese que se utilizó la segunda ecuación para reducir no solamente las ecuaciones 3 y
4, sino también la ecuación 1. Análogamente:
0 2 0 12 x 2 10
0 0 6 24 x3 18
0 0 24
0 4x 24
1 0 0 0 x1 1
2 0 0
0 x2 2
0 6
de donde se obtiene fácilmente la solución.
0 0 x3 6
0 0 0 24 x 4 24
El método de Gauss- Jordan es más simple de programar, pero requiere casi 1.5 veces
el número de operaciones del método de Gauss tradicional.
Finalmente, para concluir esta sección, debe mencionarse que el método de Gauss es
aplicable también a sistemas de ecuaciones con coeficientes complejos. Por ejemplo:
2 1i 0 x1 4 2i
1i 2 1 i x 2 8 4i
0 1i 3 x3 11 2i
2 1i 0 x1 4 2i
0 1 1 i x 2 5 3i
0 1i 3 x3 11 2i
2 1i 0 x1 4 2i
0 1 1 i x 2 5 3i
0 0 1 x3 3
de donde:
x3 3
x 2 (5 3i) 3(1 i) 2
1
x1 (4
2 2i) 2(1 i) 1
1 1 1
A 2 1 3
3 1 4
1 1 1 1 0 0
2 1 3 0 1 0
3 1 4 0 0 1
1 1 1 1 0 0
0 1 1 2 1 0
0 2 1 3 0 1
1 0 2
1 1 0
0 1 1 2 1 0
0 0 1 2 1
1
1 0 1 3 2
0
0 1 1 1 1 A1
0 0 1
0 1
2 1
1 1 1 1 0 01 1 1
2 1 3 21 00 1 1
1 0
3 1 4 3 2 0 1
A LU
La inversa de una matriz triangular es otra matriz del mismo tipo, fácil de determinar.
Para una matriz triangular inferior, L, cada columna de la matriz inversa L-1 puede ser
obtenida por sustitución directa o “reducción”: LY = In.
y ij 0 i j (2.11a)
i1
1
y ij ij l ik y kj i j (2.11b)
l
H. Scaletti - Métodos Numéricos: Ecuaciones Algebraicas Lineales 2-
10
ii kj
En forma análoga, la inversa, U-1, de una matriz triangular superior, U, es también una
matriz triangular superior. Cada fila i, puede determinarse mediante UZ = In:
L1 2 1 0 U1 0 1 1
1 2 1 0 0 1
1 3 2
A 1 U 1 L1 1 1 1
1 2 1
Para una matriz simétrica: a (1) a (1) . Si se efectúa la reducción de Gauss sin
jk kj
intercambio de filas y/o columnas se tiene también que: a (i ) a (i ) para i j , k n.
jk kj
En otras palabras, la sub – matriz que debe aún reducirse en un paso dado es también
simétrica. Esto puede probarse por inducción, teniendo en cuenta las condiciones
iniciales de simetría y además que:
(i 1) (i ) (i ) (i ) a ki(i ) (i )
a
a kj a kj l ki aij a kj (i ) ij (2.13a)
aii
a (i )
(i 1) (i ) (i ) (i ) ji (i )
a jk a jk l ji aik a jk a ik (2.13b)
a ii(i )
números iguales.
2 6 2 1 x2 1
1 2 6 2 x3 0
0 1 2 4 x4 0
H. Scaletti - Métodos Numéricos: Ecuaciones Algebraicas Lineales 2 - 10
En las sucesivas etapas del proceso de eliminación, las sub matrices que quedan por
reducir siguen siendo simétricas:
4 2 1 0 x1 0
0 5 1.5 1 x2 1
0 1.5 5.75 2 x3 0
0 1 2 4 x4 0
0 5 1.5 1 x2 1
0 0 5.3 1.7 x3 0.3
0 0 1.7 3.8 x 4
0.2
4 2 1 0 x1 0 x1 0.0986
0 5 1.5 1 x2 1 x2 0.2203
de donde
0 0 5.3 1.7 x3 0.3 x3 0.0464
0 0 0 3.2547 x 0.1038 x 0.0319
4 4
1
2 n (n 1)
a ii( k ) 0 i 1, k n
2 (k )
a ij( k ) a ii a (jjk ) k i, j n (2.14)
aii ( k 1) 2 aii( k ) k i n
rii a ii r 2
pi
(2.15a)
p1
aij rpi rpj j i 1, i 2,
rij (2.15b)
r ii p1
a 1
r22 22
r12 2 2
2.2361
1
r a r2 r2 r2 2
44 44 14 24 34 1.8041
es decir:
1.0000
2.0000 0.5000 0
0
0.4472
y
0.1303
0.0575
y finalmente:
x1 0.0986
x 2 0.2203
Puede anotarse que R está relacionada con las L y U de Gauss mediante RT= LD;
R = D –1U; donde D = diag u11 u 22 u nn .
Los sistemas de ecuaciones en que los coeficientes forman matrices banda son
frecuentes. Tales sistemas se resuelven eficientemente por el método de Gauss y otros
similares, ya que éstos conservan la estructura de banda de las matrices: A = LU:
1 1 0 0 0 1 0 0 0 01 1 0 0 0
1 2 1 0 0 1 1 0 0 00 1 1 0 0
0 1 2 1 0 0 1 1 0 00 0 1 1 0
0 0 1 2 1 0 0 1 1 00 0 0 1 1
0 0 0 1 2 0 0 0 1 1 0 0 0 10
– – –1
Nótese que A 1 = U 1L no es una matriz banda:
5 4 3 2 1
4 4 3 2 1
A1 3 3 3 2 1
2 2 2 2 1
1 1 1 1 1
Particularmente simples de tratar son los sistemas con matrices banda simétricas y
definidas positivas (no se requieren intercambios de filas y/o columnas). Dos posibles
esquemas para almacenar los coeficientes en un arreglo monodimensional son en este
caso:
1 8 15
2 9 16
3 10 17
A 4 11 18
5 12 19
6 13 (20)
7 (14) (21)
Las posiciones tales como 14, 20 y 21 no se usan, pero se requieren para tener un número
fijo de coeficientes en cada codiagonal, lo que facilita la programación. Siendo el ancho
de la semibanda, m, mucho menor que el número de ecuaciones, n, las posiciones
de memoria “perdidas” son despreciables. Este esquema de almacenamiento (y su
variante por filas) es apropiado cuando el ancho de banda es aproximadamente
constante.
Otra posibilidad es:
1 2 4
3 5 7 13
6 8 10 14
A 9 11 15
12 16 18
17 19
20
l ij 0 excepto para j i j m
u ij 0 excepto para i j i m
b a b x c
n2 b n1 n1 n1 n1
an xn cn
n1
b a b q 1 r b
2 3 3 2 3 3
b a n1
bn2 n1
H. Scaletti - Métodos Numéricos: Ecuaciones Algebraicas Lineales 2 - 14
r4
q n2 1
n1
b
bn1 an q n1 1 rn
ri 1 ai 1 qi bi
y, considerando L y = c:
y1 c1
(2.17b)
y i1 ci1 qi y i i 1,2, n 1
una operación la combinación de una multiplicación o división con una suma, resta o
almacenamiento del resultado.
Los datos de cada bloque se almacenan en disco. Éstos son leídos a la memoria
principal conforme van siendo utilizados y regrabados en la memoria auxiliar una vez
operados. La solución del sistema de ecuaciones por el método de Gauss (u otro similar)
requiere mantener en memoria principal la información de por lo menos dos bloques en
forma simultánea. Así por ejemplo, durante el proceso de reducción, las ecuaciones del
bloque k deben ser utilizadas para reducir ecuaciones del mismo bloque y de los bloques
sucesivos k+1, k+2, ...., k+n (n en general es pequeña), lo que implica que, estando el
bloque k en memoria, los bloques sucesivos deben ser leídos, parcialmente reducidos, y
regrabados en secuencia. Algo similar ocurre con el proceso de sustitución inversa.
r1 = b – A x1 = (10-6 0)T
Por otro lado si se afirma que la solución es x2 = (0.999 -1.001) T se obtiene el residuo.
T
r2 = b – A x2 = (1.343x10-3 1.572x10-3)
¿Es x1 mejor solución que x2? No. La solución exacta es x = (1 -1) T.
Aunque la magnitud del vector residuo r = b – A x no da una indicación directa del error
en x, es posible utilizar residuos para estimar el error e incluso para corregir la solución.
Esto se discute más adelante.
x (x p x p )1 / p 1 p (2.18a)
p 1 2
x 2
(x 2 1 x 2 2 ) 1/ 2
(norma Euclidiana) (2.18b)
x
máx x i (máximo valor absoluto) (2.18c)
ax a x (2.19)
x y x y
La norma de una matriz cuadrada, A , puede ser definida en forma consistente con la
definición de norma de un vector:
Axp
A máx x 0 (2.20a)
p
x p
1/ 2 máx T
La norma A 2
es ,
máx donde es el máximo valor característico de A A (ver
j1
de donde:
x A 1 A (x x)
tomando normas:
1
x A A x x
y dividiendo entre x x :
A
x A
(2.23)
x x A
1
donde K A A A (2.24)
1/ 2
es el número de condicionamiento de la matriz A. Dado que A1 mín , donde
2
T
min es el menor valor característico de la matriz A A, puede escribirse:
1/ 2
K2A máx / mín (2.25)
de donde:
x A 1b
1
x A b
b
y dado que b = A x, lo que implica x
A
se obtiene:
x b
K A (2.27)
x b
La expresión (3) implica que si A y b están dadas con t cifras significativas, el número de
cifras que puede esperarse sean correctas en la solución, s, puede estimarse mediante:
s t log10 K (A) (2.29)
0.659 0.563
1
además: A 106
0.913 0.780
Note que en el ejemplo anterior la matriz A no era simétrica, por lo que fue necesario
T
evaluar los valores característicos de A A . Si A fuera simétrica, los valores
T
característicos de A A serían exactamente los cuadrados de los valores característicos
de A.
(i 1) (i ) (i )
a kj a kj l kia ij (2.30)
k
bk (i 1) b (i ) l bki (i )
i
Sin embargo, como resultado de los errores de redondeo, los valores calculados (aquí
indicados en barras) satisfacen:
(i ) (i )
(i 1) (i ) (i )
a kj (a kj l ki a ij (1 2 ))(1 3 ) (2.31)
(i 1) (i ) (i )
bk (b k l ki b i (1 4 ))(1 5 )
escribirse:
(i 1) (i ) (i )
(i )
a kj a kj l ki a ij e kj (2.32)
(i 1) (i ) (i )
bk b k l ki b i e (i )k
(i ) (i 1)
e kj(i ) áx akj
3.m , a kj
(2.33)
(i ) (i 1)
c k(i ) áx bk
3.m , bk
(1)
Por otro lado, considerando que . a kj a kj , l kk 1 , pueden utilizarse las expresiones
(1)
precedentes para escribir a kj en función de los l ki , a ij . (es decir los elementos de las
i1 i1
(1)
donde r = min (k-1,j), s = min (k, j). Por otro lado, teniendo en cuenta que bk bk , se
obtiene:
k1 k (i )
i
bk c l ki bk i (2.34b)
i1 i1
A A LU
b b Ly
Los elementos de A son sumatorias de los e kji ; los elementos de b son sumatorias
i
de los c k . Las expresiones (4) dan una medida de estas perturbaciones. Obsérvese
que las expresiones (2.23) y (2.27) son aplicables también en este caso, y un valor de
K (A) alto indica que los errores de redondeo tendrán efectos importantes en la
solución.
máx a ij( k )
i , j ,k
gn (2.35)
máx a ij(1)
i, j
teniendo que:
g n 2 n1 para intercambio parcial (filas)
0.25 Ln n
1.8
gn n para intercambio total.
Estos límites son teóricos. Nótese por ejemplo que para un sistema de orden 100 se
29
tendría g n 6.3x10 para intercambio parcial y g n 18 para intercambio completo, lo
que justificaría el trabajo adicional necesario para la segunda alternativa. Sin embargo,
en la práctica rara vez se observa un g n mayor que 10, aún con intercambio parcial.
Sin embargo las unidades utilizadas pueden afectar la selección de pivotes, especialmente
si sólo se hace intercambio parcial.
En tal caso, es recomendable equilibrar las ecuaciones. Para las incógnitas deben
seleccionarse escalas que reflejen su importancia relativa. Las ecuaciones deben
multiplicarse por factores D1 tales que:
máx a ij 1 i=1,2,3,...n
1 jn
x x (0) x (0)
y entonces:
A x (0) r (0)
(0)
donde: r b Ax (0)
(0) (0) 2
A partir de x puede determinarse r en O n operaciones y resolverse:
r (i ) b A x (i )
L z (i ) r (i ) (2.36)
U x (i ) z (i )
x ( k 1) x ( k ) x ( k )
Pero nada se ganaría si las operaciones se hicieran siempre con el mismo número de
cifras significativas empleadas en los cómputos originales. Si los aij bi xi están dados
con t dígitos, el cómputo de los residuos:
n
ir
(k )
bi ax
j1
ij
(k )
j
debe hacerse con 2 t dígitos (para minimizar errores de cancelación). Sin embargo, el
(1)
1 x
A (2.37)
n ( 2)
x
donde n es el orden del sistema y es el máximo error relativo de redondeo (al operar
en precisión simple). Si x (1) no es mucho menor que x (1) , o lo que es lo mismo,
5 7 3 x1 0.
7 11 2 x2 1
3 2 6 x3 0.
5 7 3 1.00
5.00
7.00 3.00
7 11 2 1.40
1.00 1.20 2.20
H. Scaletti - Métodos Numéricos: Ecuaciones Algebraicas Lineales 2 - 22
3 2 6 0.60 1.83 1.00 0.17
T
y 0.00 1.00 1.83
(1) (1)
Resolviendo los dos sistemas triangulares: L z r y Ux z se obtiene:
T
x (1) 0.685 0.391 0.195
Y entonces:
T
x ( 2) x (1) x (1) 36.0 21.0 11.0
(1)
(redondeado a 3 cifras significativas). Este resultado es mejor que x (en este caso el
resultado es exacto, aunque debería decirse que por accidente).
Puede verificarse fácilmente que la matriz A del ejemplo anterior es bien condicionada.
6
para el cual se obtuvo anteriormente A de orden 2 x 10 . Supóngase que se opera
en base 10 con 6 cifras significativas:
se pierden cifras significativas en el elemento a22 de esta última matriz al restar dos
T
r (1) 0.139 10 6 0.692 10 6
T
x ( 2) x (1) x (1) 0.391455 0.156 900
T
y es obvio que este resultado difiere más de la solución exacta x 1 1 que la
(1)
aproximación x antes obtenida. ¡Para resolver este sistema de ecuaciones se
H. Scaletti - Métodos Numéricos: Ecuaciones Algebraicas Lineales 2 - 22
requiere trabajar con un mínimo de 8 cifras significativas!
xi bi aij x j (2.38)
a
ii ji
5 1 1 0 x1 1
1 5 0 1 x2 2.75
1 0 5 1x
3 1
0 1 1 5 x4 2.75
La solución exacta es
T
x 0.25 0.50 0.25 0.50
0 0 0 0 0
1 0.2 0.55 -0.2 -0.55
2 0.27 0.48 -0.27 -0.48
0 0 0 0 0
1 0.2 0.59 -0.16 -0.464
2 0.286 0.5144 -0.2356 -0.49424
3 0.255760 0.502304 -0.247696 -0.499078
4 0.250922 0.500369 -0.249631 -0.499853
5 0.250147 0.500059 -0.249941 -0.499976
6 0.250024 0.500009 -0.249991 -0.499996
7 0.250004 0.500002 -0.249998 -0.499999
8 0.250001 0.500000 -0.250000 -0.500000
9 0.250000 0.500000 -0.250000 -0.500000
xi ( k 1) x ( ki) ri (k )
(2.40a)
1( k )
i 1 ( k 1)
n
(k )
(k )
El valor óptimo de depende de A e incluso de la aproximación x . Cuanto mayores
sean los valores absolutos de los términos de la diagonal principal, respecto a la suma
de los valores absolutos de los restantes coeficientes de la misma fila, más se aproxima
a 1. Para el ejemplo precedente, utilizando 1.05 se obtienen:
k x1( k ) x2( k ) x3( k ) x4( k )
0 0 0 0 0
1 0.210000 0.621600 -0.165900 -0.481803
2 0.295197 0.507233 -0.240892 -0.497478
3 0.251172 0.500414 -0.249680 -0.499972
4 0.250096 0.500005 -0.249990 -0.499998
5 0.249998 0.500000 -0.250000 -0.500000
6 0.250000 0.500000 -0.250000 -0.500000
Estos métodos no son necesariamente más precisos que los procesos de eliminación. El
ejemplo al inicio de la sección 2.6 muestra que si el sistema es mal condicionado puede
x ( k 1) G x ( k ) f (2.41)
donde D es una matriz diagonal, con elementos aii ; Ti y Ts son matrices triangulares,
2 1 2 0 0 0 1 0 0 1
2
1
1
2 0 2 2
0 0 1 0 0
x ( k 1) T T x ( k ) D 1b (2.43a)
i s
es decir: G Ti Ts (2.43b)
x ( k 1) T x ( k 1) T x ( k ) D 1b (2.44a)
i s
y por lo tanto: G I Ti Ts 1
(2.44b)
Por otro lado, dado, que la solución exacta, x , debe cumplir la ecuación (2.41), se tiene
que:
x Gx f (2.46)
x ( k 1) x G x ( k ) x (2.47a)
de donde:
x ( k 1) x G x ( k ) x G 2 x ( k 1) x G k 1 x (0) x (2.47b)
Además, si , ,
1 2 3 n son los vectores característicos de la matriz G , a los que
x (0) x 1 1
22 33
n n
Lim x ( k ) x 0 (2.48a)
k
G máx i 1 (2.48b)
i
g ii 0
G máx ii máx
i j
gij o bien máx
j i
g ji (2.49b)
i j ji
donde:
i1
n a a
si
ij ij
ri (2.50b)
a a
j i1 ii j1 ii
y finalmente se concluye que las condiciones para la convergencia son las mismas que
para el método de Jacobi (aunque en general el método de Gauss -Seidel converge más
rápidamente).
f (x) 1
x2 T A x xT b (2.51)
minimización de f (x) .
Para reducir el valor de f (x) lo más rápidamente posible, la corrección debe hacerse en
d
f (x(0) z)
d 0
f (x(0) z)
2
1
(x(0) z)T A (x(0) z) (x(0) z)T b
(2.53a)
12 T
2
z A z zT r (0) f (x(0) )
de donde:
d
f (x(0) z) zT r (0)
d 0
(0)
Ahora puede determinarse 0 de modo que f (x (0) 0 r ) sea un mínimo.
(0)
Rescribiendo (2.53a) con z r y derivando con respecto a :
d T T
f (x (0) r (0) ) r (0) A r (0) r (0) r (0) 0
d
de donde:
T
r (0) r (0)
0
T
r (0) A r (0)
T
(dado que A es definida positiva, nunca se presenta el caso r (0) A r (0) 0 )
Finalmente:
x (1) x (0) 0r
(0)
k T (2.54b)
r (k ) A r (k )
x ( k 1) x ( k ) k r (k ) (2.54c)
x x (0) x
x puede expresarse como combinación lineal vectores linealmente de n
independientes. En particular, si se consideran vectores s 0 , s 1 , s 2 s n 2 , s n 1 , que
satisfacen las relaciones de ortogonalidad:
s Ti A s j c i ij
puede escribirse:
x ( k 1) x ( k ) s k k
x x ( n) x ( n1) n1 s n1
alternativamente:
n1
(0)
x x k sk (2.55)
k0
Suponiendo que los vectores s k son conocidos, los coeficientes k pueden obtenerse
n1
r (i ) b A x (i ) A x x (i ) k A sk (2.56)
ki
T
premultiplicando por s j se obtiene:
n1
(i )
s Tj r k s Tj A s k 0 si j i (2.57)
ki
T
j s j As j si j i
de donde puede escribirse:
T
js r ( j)
j (2.58a)
sT A s
j j
T
La expresión alternativa j(s r (0)
j ) (s Tj A s j ) no es conveniente, por la acumulación
de errores de redondeo.
espacio n -dimensional, el error siempre puede ser expresado como una combinación
lineal de estos vectores , es decir el proceso debería llegar a la solución exacta (salvo
errores de redondeo) en n pasos.
( k 1)
El vector s k 1 se obtiene eliminando de r la componente según A s k :
s k 1 r ( k 1) k sk (2.59)
donde:
k s T A r ( k 1)
k (2.60)
sT A s
k k
Es relativamente fácil probar que si s 0 , s 1 , s 2 s k son A -ortogonales, entonces s k 1
calculado con (2.59) resulta también A -ortogonal a todos los vectores previamente
hallados. Para empezar, con s k :
s Tk A r (´1)
sT A s s T A r ( k 1) s s T A r ( k 1)
T
0
k1 k k k k k sk A sk
s Tk Ask
1 ( j 1) r ( j)
As j r
j
r (k ) q
k k
( k 1) T ( k 1) T ( k 1)
r qk r r
k T T
sk qk r (k ) r (k )
1
(x ( k ) x) T A (x ( k ) x) 2 (x (0) x) T A (x (0) x)
1
(k )
siendo x la solución exacta, x la aproximación en el paso k y n (A) / 1 (A) el
10 5 0 1 24
5 8 4 0 9
A b
1 18
0 4 10
1 0
81 30
k q As x x s r r q r s r s
Con x
(0)
arbitrario, se obtiene r (0) s 0 b A x (0)
r ( k 1) r ( k ) k A qk
T
k r( k 1) r ( k 1)
T
r (k ) r (k )
s k 1 r ( k 1) k sk
Precondicionamiento
qk Ask
pk T rk
k
skT q k
xk 1 xk k sk
rk 1 rk k qk
pk1 M 1
rk 1 (no se requiere M 1 , más bien se resuelve M p k1 r k 1)
pT r
k1 k1
k
p Tk rk
sk1 pk1 k sk
M1 A I R siendo R pequeño
Nótese que estas condiciones son en alguna medida contradictorias. Por ejemplo, si
M A se cumple la primera condición (y en tal caso (M 1 A) 1 ) pero no la segunda.
En cambio el precondicionador diagonal M diag (A) puede implementarse muy
A L D U
donde D es una matriz diagonal con los coeficientes de la diagonal principal de A y las
4 0
0 10 0 0 0 0 10 0 0 0 0 1
0 0
1 0 8 1 1 0 1 0 0 8 0 0 0 0
(LD 1 I) z r k1
(D U) p k 1 z
observarse que el error en el tercer paso, r 0.030 , es mucho menor que el que se
A LU R y R pequeño
2
independientes) es el método de mínimos cuadrados, que consiste en minimizar la
T
magnitud del residuo r b A x (o minimizar r r r ) con respecto a las x . Dado
que:
f r T r bT b 2xT AT b xT AT A x (2.63)
y por lo tanto:
f
2 AT b 2 AT A x 0
x
el método de mínimos cuadrados puede formularse como la solución del sistema de
ecuaciones normales:
A T Ax AT b (2.64)
Si A a1 a2 a3 a n , la matriz simétrica C AT A T
tiene elementos cij a i a j .
3
resolver el sistema O 1 6n operaciones. La mayor parte del trabajo está en formar las
ecuaciones normales.
0 1 0 2
x1
0 0 1 3
x
1 1 0 2 1
x
0 1 1 3 2
H. Scaletti - Métodos Numéricos: Ecuaciones Algebraicas Lineales 2 - 34
1 0 1 1
las ecuaciones normales son en este caso:
3 1 1 x1 1
1 3 1 x2 1
1 1 3 x3 6
T
y dado que Q Q I se obtiene:
R T QT b R x 0
La matriz R no es singular y por tanto:
R x QT b (2.66)
0 1 1 0 0.6124 0.3536
de donde:
0 0 1.4142 x3 4.2426
y finalmente: x 1.25 T
1.75 3