Beruflich Dokumente
Kultur Dokumente
(he puesto las lı́neas verticales en la matriz para que se observen claramente las columnas, no
porque se escriban ası́ las matrices).
Resolver un sistema de ecuaciones lineales es lo mismo que realizar la descomposición del término
independiente como combinación lineal de las columnas de la matriz. Por ejemplo
1 2 3 x 2
3 1 4 y = 4
−1 4 7 z −3
C1 p1 + . . . + Cn pn = 0 =⇒ C1 = . . . = Cn = 0.
1
Escribiendo los vectores como las columnas de una matriz
P =
p1 . . . pn
C1 p1 + . . . + Cn pn = u0 .
2. El producto de matrices
Sean A y B dos matrices n × n. Podemos pensar en B como una lista de sus columnas
B=
b1 . . . bn
.
Ası́
AB = A
b1 . . . bn = A b1 . . . A bn .
2
Fijándonos ahora en las columnas de la matriz de la izquierda, tenemos que
" # " # " # " # " # " #
2 −1 0 2 −1 10
3 +6 = y 4 −2 = .
3 2 21 3 2 8
3. Leyendo P −1 AP
Supongamos que A, P y B son matrices cuadradas que cumplen la siguiente relación
P −1 A P = B.
Pensaremos en P organizada por columnas
P =
p1 . . . pn .
Simplemente por escribir P −1 en la relación anterior, estamos presuponiendo que los vectores
{p1 , . . . , pn } son linealmente independientes.
Multiplicando ahora a la izquierda de P −1 A P = B por la matriz P , obtenemos
P P −1 A P = P B,
es decir,
A P = P B.
Esto quiere decir que
A p1 . . . A pn = P b1 . . . bn = P b1 . . . P bn .
Por tanto
A p1 = P b1 =
p1 . . . pn
b1 ,
etc.
Vamos con un ejemplo con vectores de tres componentes. La expresión
3 2 1
P −1 A P = 2 −1 0 ,
P = p1 p2 p3
0 1 0
3
es la misma que
3 2 1
AP = P
2 −1 0 ,
0 1 0
unida al hecho de que las columnas de P sean linealmente independientes, hecho que está im-
plı́cito en la expresión P −1 AP = B, pero no en A P = P B. Esto es lo mismo que
3 3
A p1 = P
2 = p1 p2 p3 2 = 3 p1 + 2 p2
0 0
2
A p2 =
p1 p2 p3 −1 = 2p1 − p2 + p3 ,
1
A p3 = p1 .
escribe el valor de
A p1 , A p2 , A p3
A p1 = 3p1 ,
A p2 = 3 p2 + p1
A p3 = 3 p3 + p2
4
Ejercicio. Si
2 1
2
P −1 A P = ,
−1 1
−1
¿cuánto vale el producto de A por cada una de las columnas de P ? (cuando en una matriz no
se escriben números en algunas posiciones se sobreentiende que son ceros; no es una notación
demasiado correcta, pero es muy cómoda).
Si p y q son vectores propios de A asociados al mismo valor propio, todas sus combi-
naciones lineales también lo son:
A(α p + β q) = λ (α p + β q).
5
Además ocurre el recı́proco. Si λ cumple que
det (A − λ I) = 0
(A − λ I) p = 0,
Ejercicio. ¿Cuál es el máximo número de valores propios que puede tener una matriz 3 × 3?
Antes de observar qué ocurre cuando hay raı́ces complejas del polinomio caracterı́stico, notemos
que un vector complejo p se puede poner siempre como
p = pre + ı pim ,
donde se ve claramente que pre es el vector de las partes reales de p y que pim es el de las partes
imaginarias.
Supongamos que λ = α ± ı β son raı́ces del polinomio caracterı́stico de la matriz A. Entonces,
tiene que existir un vector complejo p = pre + ı pim de forma que
Se dice que el vector p es un vector propio complejo asociado al valor propio complejo
α + ı β de A. Es muy fácil notar que entonces
luego el vector p (obtenido conjugando los elementos de p, esto es, cambiando el signo a las
partes imaginarias), también es vector propio de A, pero asociado al valor propio conjugado
α − ı β.
6
Vamos a separar partes reales e imaginarias en la expresión:
Tenemos que
A pre + ı A pim = (α pre − β pim ) + ı (β pre + α pim ).
Comparando partes reales e imaginarias, se tiene que
Ejercicio. Escribe qué expresiones se obtienen de comparar las partes reales e imaginarias de
la siguiente expresión:
A(pre − ı pim ) = (α − ı β)(pre − ı pim ).
Ejercicio. Supongamos que A es una matriz 3 × 3 y que hay tres vectores independientes
p1 , p2 , p3 tales que
A p1 = 2 p1 − 3p2
A p2 = 3 p1 + 2 p2 ,
A p3 = p3 .
5. Matrices diagonalizables
Un caso particularmente favorable (pero que no siempre ocurre) es cuando una matriz A de
tamaño n × n tiene n vectores propios linealmente independientes, es decir, existen p1 , . . . , pn ,
linealmente independientes, de forma que
A p1 = λ1 p1 ,
..
.
A pn = λn pn .
Los números λ1 , . . . , λn son los valores propios de A. Fı́jate que no hay ninguna razón para que
alguno no esté repetido. Incluso podrı́an ser todos iguales.
En esta situación, tenemos una base de Rn formada ı́ntegramente por vectores propios de A.
Poniendo de nuevo
P =
p1 . . . pn
7
las expresiones anteriores se agrupan en la forma
λ1
..
P −1 A P = . = D.
λn
Cuando hemos podido encontrar estos vectores de forma que P −1 AP es una matriz diagonal,
se dice que A es diagonalizable. Es lo mismo que exista una matriz diagonal D y una matriz
inversible P de forma que
λ1
..
P −1 A P = . = D,
λn
que la posibilidad de encontrar vectores independientes p1 , . . . , pn (las columnas de P ) de forma
que
A p1 = λ1 p1 ,
..
.
A pn = λn pn .