Sie sind auf Seite 1von 531

Mtodos Matemticos

para Estadstica

Coleccin manuales uex - 58


(E.E.E.S.)

Ignacio Jess Ojeda Gago

58

MTODOS MATEMTICOS PARA ESTADSTICA

MANUALES UEX

58
(E.E.E.S.) Espacio Europeo Educacin Superior

IGNACIO OJEDA MARTNEZ DE CASTILLA JESS GAGO VARGAS

MTODOS MATEMTICOS PARA ESTADSTICA

2008

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS Mtodos Matemticos para Estadstica. / Ignacio Ojeda Martnez de Castilla, Jess Gago Vargas. Cceres: Universidad de Extremadura, Servicio de Publicaciones, 2008 533 pp.; 27,8 x 19 cm (Manuales UEX, ISSN 1135-870-X; 58) ISBN 978-84-691-6429-7 1. lgebra Lineal. 2. Mtodos Numricos. 3. Anlisis Funcional. I. Ojeda Martnez de Castilla, Ignacio. II. Mtodos Matemticos para Estadstica. III. Universidad de Extremadura, Servicio de Publicaciones, ed. IV. Manuales UEX 512, 517, 519.6

La publicacin del presente manual forma parte de las Acciones para el Desarrollo del Espacio Europeo de Educacin Superior en la Universidad de Extremadura Curso 2007/ 08 en el marco de la VI Convocatoria de Acciones para la Adaptacin de la UEX al Espacio Europeo de Educacin Superior (Proyectos Pilotos: modalidad A1) del Vicerrectorado de Calidad y Formacin Continua y financiada por la Junta de Extremadura, el Ministerio de Educacin y Ciencia y la Universidad de Extremadura. La elaboracin del apndice A se ha realizado en colaboracin con Da. Amelia lvarez Snchez.

FSE

Fondo Social Europeo

Edita Universidad de Extremadura. Servicio de Publicaciones C./ Caldereros, 2 - Planta 2 - 10071 Cceres (Espaa) Telf. 927 257 041 - Fax 927 257 046 publicac@unex.es www.unex.es/ publicaciones

ISSN 1135-870-X ISBN 978-84-691-6429-7 Depsito Legal M-46.669-2008 Edicin electrnica: Pedro Cid, S.A. Telf.: 914 786 125

MTODOS MATEMTICOS PARA ESTADSTICA

ndice general
Portada Introduccin ndice general Tema I. Generalidades sobre matrices 1. Matrices. Denicin y propiedades 2. La traza y el determinante de una matriz 3. Matrices por bloques Ejercicios del tema I Tema II. Matrices y aplicaciones lineales 1. Matrices equivalentes 2. Aplicaciones lineales 3. Matriz asociada a una aplicacin lineal 4. Cambios de bases. Teorema del rango 5. Sistema de ecuaciones lineales (I) Ejercicios del tema II Tema III. Matrices cuadradas y endomorsmos 1. Matrices semejantes 2. Polinomio caracterstico. Autovalores y autovectores 3. Diagonalizacin 4. Subespacios invariantes 5. Forma cannica de Jordan Ejercicios del tema III Tema IV. Potencias de matrices. Matrices no negativas 1. Potencias de matrices 2. Ecuaciones en diferencias nitas 3. Matrices no negativas 4. Cadenas de Markov homogneas y nitas Ejercicios del tema IV 1 15 14 17 18 22 25 29 35 37 43 46 50 53 55 59 62 63 67 73 77 90 95 96 99 103 113 116

MANUALES UEX
9

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Tema V. Matrices simtricas y formas cuadrticas 1. Formas bilineales 2. Producto escalar. Espacios vectoriales eucldeos 3. Ortogonalidad. Bases ortogonales y ortonormales 4. Subespacio ortogonal. Proyeccin ortogonal 5. Matrices simtricas reales (y matrices hrmiticas) 6. Formas cuadrticas Ejercicios del tema V Tema VI. Inversas generalizadas. Mnimos cuadrados 1. Descomposicin en valores singulares (SVD) 2. La inversa de Moore-Penrose 3. Otras inversas generalizadas 4. Sistemas de ecuaciones lineales (II). Mnimos cuadrados. Ejercicios del tema VI Tema VII. Derivacin matricial 1. Algunos operadores matriciales 2. Diferenciacin matricial 3. Algunas derivadas matriciales de inters Ejercicios del tema VII Tema VIII. Normas vectoriales y matriciales 1. Normas vectoriales. Espacios normados 2. Normas matriciales 3. Nmero de condicin de una matriz Ejercicios del tema VIII Tema IX. Mtodos directos de resolucin de sistemas lineales de ecuaciones 1. Eliminacin Gaussiana y factorizacin LU 2. Factorizacin PA = LU. Tcnicas de pivoteo 3. Factorizacin de Cholesky 4. Matrices de Householder. El mtodo de Householder Ejercicios del tema IX Mtodos iterativos de resolucin de sistemas lineales de ecuaciones 1. Sobre la convergencia de los mtodos iterativos 2. Cmo construir mtodos iterativos 3. Mtodos de Jacobi, Gauss-Seidel y relajacin 4. Mtodos iterativos estacionarios y no estacionarios Ejercicios del tema X

121 123 125 127 132 135 144 148 155 158 165 171 177 185 191 193 201 205 210 213 214 221 232 240 241 242 250 252 254 260 263 264 266 267 282 288

MANUALES UEX
10

Tema X.

MTODOS MATEMTICOS PARA ESTADSTICA

Tema XI.

Mtodos iterativos para el clculo de autovalores (y autovectores) 1. El mtodo de Jacobi 2. El mtodo QR 3. El mtodo de la potencia Ejercicios del tema XI

291 292 300 302 306 309 310 317 323 333 335 335 337 339 342 343 343 345 347 350 351 351 357 358 359 362 367 367 370 376 377 377 378 388 389 389

Tema XII. Espacios de Hilbert 1. Espacios prehilbertianos 2. Sistemas ortogonales. Sucesiones ortonormales 3. Espacios de Hilbert Ejercicios del tema XII Prctica 1. Vectores y wevef 1. Vectores la 2. Vectores columna 3. Operaciones con vectores Ejercicios de la prctica 1 Prctica 2. Matrices y wevef 1. Entrada de matrices 2. Indexado de matrices 3. Construccin de matrices Ejercicios de la prctica 2 Prctica 3. Formas escalonadas de una matriz 1. Resolucin de sistemas con wevef 2. Ms difcil todava 3. Matriz inversa y forma escalonada por las 4. Clculo de matrices de paso Ejercicios de la prctica 3 Prctica 4. Comportamiento asinttico de sistemas dinmicos 1. Comportamiento de la sucesin n 2. Sistemas de ecuaciones en diferencias: comportamiento asinttico Ejercicios de la prctica 4 Prctica 5. Ecuaciones en diferencias 1. Ecuaciones en diferencias de primer orden 2. Ecuaciones en diferencias de orden p 2 Ejercicios de la prctica 5 Prctica 6. Matrices de Leslie 1. Planteamiento y discusin del modelo

MANUALES UEX
11

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


2. Un ejemplo concreto con wevef 3. Otro ejemplo con wevef 4. Resumen Ejercicios de la prctica 6 Prctica 7. Cadenas de Markov 1. Un ejemplo con wevef 2. Otros ejemplos con wevef Ejercicios de la prctica 7 Prctica 8. Proyeccin ortogonal. Mnimos cuadrados 1. Proyeccin ortogonal 2. Soluciones aproximadas mnimo cuadrticas de sistemas de ecuaciones lineales Ejercicios de la prctica 8 Prctica 9. Calculando inversas generalizadas 1. La frmula de Greville 2. Clculo de inversas generalizadas 3. Clculo de inversas mnimo cuadrticas Ejercicios de la prctica 9 Prctica 10. Nmero de condicin de una matriz y wevef 1. Nmero de condicin de una matriz y wevef 2. Nmero de condicin y transformaciones elementales. 3. Sistemas mal condicionados. Ejercicios de la prctica 10 Prctica 11. Factorizacin LU 1. Introduccin 2. M-cheros de ejecucin y de funciones en wevef 3. Mtodos especcos para la resolucin de sistemas triangulares. 4. Factorizacin LU 5. wevef y la factorizacin LU Ejercicios de la prctica 11 Prctica 12. Otras factorizaciones de matrices 1. Introduccin 2. Factorizacin de Cholesky 3. Matrices de Householder 4. Factorizacin QR Ejercicios de la prctica 12 Apndice A. Conceptos topolgicos fundamentales

392 397 401 403 405 405 408 413 415 415 422 429 431 431 435 439 440 441 441 444 447 449 451 451 451 453 459 463 465 467 467 467 471 473 476 477

MANUALES UEX
12

MTODOS MATEMTICOS PARA ESTADSTICA

1. 2. 3. 4.

Espacios Mtricos Sucesiones y continuidad Sucesiones de Cauchy. Completitud Conjuntos compactos

477 483 486 489 493 493 498 500 503 503 506 507 516 518 520 523 525

Apndice B. Estructuras algebraicas 1. Grupos y subgrupos 2. Cuerpos 3. Anillos Apndice C. Espacios vectoriales 1. Deniciones y propiedades. Ejemplos 2. Subespacios vectoriales 3. Bases de un espacio vectorial. Dimensin 4. Interseccin y suma de subespacios vectoriales 5. Suma directa de subespacios vectoriales. Subespacios suplementarios 6. Suma directa de espacios vectoriales Bibliografa ndice alfabtico

MANUALES UEX
13

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

MANUALES UEX
14

MTODOS MATEMTICOS PARA ESTADSTICA

Introduccin

l presente manual est concebido para servir de apoyo a la docencia de una asignatura de mtodos matemticos de un Grado en Estadstica y se ha redactado a partir de los apuntes elaborados durante varios cursos para impartir las asignaturas lgebra y Geometra y Anlisis Matemtico de la Licenciatura en Ciencias y Tcnicas Estadsticas en la Universidad de Extremadura, y de la asignatura Mtodos Matemticos de dicha licenciatura en la Universidad de Sevilla. No obstante, dado su enfoque generalista, este manual puede ser tambin empleado en asignaturas de Matemticas de otros grados de la Ramas de Ciencias e Ingeniera y Arquitectura. El principal objetivo de este manual no es otro que el de proporcionar a los estudiantes de un Grado de Estadstica las herramientas matemticas necesarias para el manejo y comprensin de otras materias, habida cuenta del carcter instrumental de las Matemticas en todos los procesos y mtodos estadsticos. Los contenidos seleccionados son sistemas lineales, lgebra matricial avanzada, inversas generalizadas, diferenciacin matricial, tcnicas y software numricos y una breve introduccin a los conceptos elementales del anlisis funcional, exponiendo una materia de 12 18 crditos ECTS dependiendo del nivel de conocimiento que tenga el estudiante de lgebra lineal bsica. Esta materia podra desglosarse en varias asignaturas con distintas conguraciones. En todo caso, hemos procurado que la materia est siempre vertebrada en torno dos temas transversales: sistema de ecuaciones lineales y ortogonalidad. Al nal de cada tema se incluye una relacin de ejercicios con los que se pretende que el alumno rearme y aplique los conocimientos adquiridos y se ejercite en el manejo de las tcnicas y mtodos aprendidos. Tambin hemos considerado fundamental incluir una serie de prcticas con wevef con el doble objetivo de proporcionar cierta formacin en el manejo de software numrico y de servir de ejemplo prcticos de los contenidos tericos desarrollados en el manual.

MANUALES UEX
15

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ambos autores quisieran agradecer la ayuda prestada por M. ngeles Mulero Daz, Juan Antonio Navarro Gonzlez, Ins del Puerto Garca y Batildo Requejo Fernndez quienes con sus comentarios y sugerencias han enriquecido notablemente el el manual. Badajoz-Sevilla, julio de 2008.

MANUALES UEX
16

MTODOS MATEMTICOS PARA ESTADSTICA

TEMA I

Generalidades sobre matrices

ste tema es de carcter introductorio en el que esencialmente se establece gran parte de la notacin y se introducen las deniciones de distintos tipos de matrices que se usarn a lo largo del manual. En primer lugar denimos el concepto de matriz, matriz cuadrada, matriz columna, matriz la y submatriz. A continuacin, y a modo de ejemplo, se denen la matriz nula, las matrices diagonales (y, como caso particular de stas, la matriz identidad) y las matrices triangulares. Luego, se muestran las operaciones aritmticas elementales de las matrices, aunque sin hacer mencin a las distintas estructuras algebraicas determinadas por tales operaciones. Finalmente, se denen la matriz traspuesta, el concepto de matriz invertible y de matriz inversa, y el de matriz ortogonal. As mismo, se tratan brevemente algunos tipos de matrices con entradas en los complejos (matriz traspuesta conjugada, matriz hermtica, matriz unitaria y matriz normal) aunque slo sern usadas puntualmente en el manual, y generalmente para advertir de que ciertos resultados vlidos para matrices reales no tienen su anlogo si cambiamos reales por complejos. Hablando de cuerpos, conviene avisar que casi siempre (por no decir siempre) el cuerpo considerado ser R C. En la segunda seccin se denen y estudian la traza y el determinante de una matriz cuadrada. Hemos optado por la siguiente denicin de determinante de una matriz A

| A| =

donde Sn denota al grupo simtrico, que requiere un cierto grado de abstraccin, frente a una denicin por recurrencia mediante la frmula del desarrollo por una la o columna; no obstante, se propone como ejercicio al lector la demostracin de la equivalencia entre ambas deniciones, y de igual modo se propone como ejercicio la demostracin de las propiedades habituales del determinante. A continuacin, en esta misma seccin se introduce el concepto de matriz adjunta y se demuestra la frmula de la matriz de inversa.

MANUALES UEX
17

Sn

sign( ) a1(1) a2(2) an(n) ,

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

La tercera seccin de este tema es quiz la nica parte realmente nueva para el estudiante; en ella se introducen y estudian las matrices dividas por bloques y algunas de sus operaciones aritmticas. Desde un punto vista conceptual, no se aade nada nuevo ms all de una cuestin de notacin; sin embargo, el uso de las matrices dividas (tambin hay quien dice particionadas) por bloques simplica considerablemente la notacin, por ejemplo, para denir la forma cannica de Jordan. Adems, se introducen la suma directa y el producto de Kronecker de matrices como ejemplos de construcciones de matrices por bloques. Ambas construcciones sern utilizadas posteriormente, y en concreto, el producto de Kronecker ser estudiado con ms detalle en el tema VII. En esta ltima seccin se muestran expresiones para la inversa y el determinante para las matrices dividas en la forma 2 2 A= A11 A21 A12 A22 .

Las referencias bibliogrcas bsicas para las dos primeras secciones son el captulo 1 de [SV95] y el captulo 2 de [CnR05]. En el captulo 3 de [Mey00] se pueden encontrar multitud de ejemplos del uso de las matrices en problemas concretos de Estadstica y Probabilidad. Para un desarrollo ms profundo de las matrices dividas por bloques vase el captulo 7 de [Sch05].

1.

Matrices. Denicin y propiedades

En todo el manual, k denotar un cuerpo (vase la seccin 2 del apndice B) que por lo general ser R C. Se denotar por el conjugado de un nmero complejo C. As, si = + i, donde y son nmero reales, ser = i. Las propiedades ms comunes de las conjugacin compleja son las siguientes: = ; ( + u) = + ; = ; || = . El nmero real positivo || se llama mdulo de . Si es un nmero real, su mdulo es su valor absoluto. = si, y slo si, es real. Denicin I.1.1. Se llama matriz de orden m n con coecientes en k a un conjunto ordenado de escalares aij k, i = 1, . . . , m y j = 1, . . . , n, dispuestos

MANUALES UEX
18

MTODOS MATEMTICOS PARA ESTADSTICA

en m las y n columnas, formando un rectngulo. Se representa por a11 a12 . . . a1n a21 a22 . . . a2n A= . . . . . . . . . . am1 am2 ... amn Las matrices de orden n n con coecientes en k se llaman matrices cuadradas de orden n con coecientes en k. El conjunto de las matrices de orden m n con coecientes en k se designar por Mmn (k), y el conjunto de las matrices cuadradas de orden n con coecientes en k se designar por Mn (k). Denicin I.1.2. Sea A Mmn (k). El escalar (por ejemplo, el nmero real o complejo) que se encuentra en la la i-sima y la columna j-sima se llama entrada (i, j)-sima de A; es usual denotarla por aij , y por tanto representar a la matriz A por aij . Denicin I.1.3. Sea A Mmn (k). Dado j {1, . . . , n} la matriz a1j . . M m 1 (k ) . amj se llama columna j-sima de A, y dado i {1, . . . , m} la matriz ( ai1 . . . ain ) M1n (k) se denomina la i-sima de A. Denicin I.1.4. Dos matrices son iguales si tienen el mismo orden y coinciden entrada a entrada; es decir, si aij y bij Mmn (k), entonces aij = bij aij = bij , i = 1, . . . , m, j = 1, . . . , n. Denicin I.1.5. Sea A Mmn (k). Llamaremos submatriz o matriz extrada de A a cualquier matriz obtenida a partir de A suprimiendo algunas de sus las y/o columnas. Ejemplos I.1.6. Algunos tipos de matrices i) La matriz nula 0 Mmn (k) es aquella con m las y n columnas cuyas entradas son todas iguales a 0. En algunas ocasiones escribiremos 0mn para denotar a la matriz nula de orden m n. ii) Se dice que una matriz cuadrada D = (dij ) Mn (k) es diagonal si dij = 0 para todo i = j. En ocasiones, escribiremos diag(1 , . . . , n ), con i k, i = 1, . . . , n, para denotar la matriz de diagonal D = (dij ) Mn (k) tal que dii = i , i = 1, . . . , n.

MANUALES UEX
19

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

iii) A la matriz diagonal tal que dii = 1 para todo i = 1, . . . , n, se la denomina matriz identidad ( matriz unidad) de orden n, y se denota por In ; es decir, 1 0 ... 0 0 1 ... 0 In = . . . . .. . . . . . . . 0 0 ... 1 Con la notacin habitual de la delta de Kronecker 1 si i = j ij = 0 si i = j se tine que In = (ij ) Mn (k). iii) Se dice que una matriz cuadrada A = ( aij ) Mn (k) es triangular superior si aij = 0 cuando i > j, y se dice A es triangular inferior si aij = 0 cuando i < j. Suma de matrices: En el conjunto Mmn (k) se dene la suma de matrices de la siguiente manera: si A = ( aij ) y B = (bij ) Mmn (k), entonces A + B := aij + bij = aij + bij . La suma de matrices se dene como la suma entrada a entrada. Nota I.1.7. Ntese que la suma de matrices verica las propiedades asociativa, conmutativa y adems, i) si A Mmn (k) y 0 Mmn (k), entonces A + 0 = 0 + A = A. ii) si A = ( aij ) Mmn (k), entonces A = ( aij ), de tal forma que A + ( A) = ( A) + A = 0 Mmn (k). Producto de un escalar por una matriz: Si A = aij Mmn (k) y k, se dene A := aij , esto es, el producto de un escalar por una matriz es la matriz que resulta al multiplicar cada una de las entradas de la matriz por el escalar.

MANUALES UEX

Producto de matrices: Para que dos matrices puedan multiplicarse, el nmero de columnas del factor de la izquierda ha de coincidir con el nmero de las del factor de la derecha. Sean A = ( ail ) Mm p (k) y B = blj

M pn (k). Se llama matriz producto A B a C = cij entrada (i, j)-sima es


cij =

Mmn (k), cuya

20

l =1

ail blj ,

i = 1, . . . , m, j = 1, . . . , n.

MTODOS MATEMTICOS PARA ESTADSTICA


Denicin I.1.8. Sea A Mmn (k) llamamos matriz traspuesta de A a la matriz de Mnm (k) que resulta de cambiar las por columnas y columnas por las en A. La matriz traspuesta de A siempre existe y se denota por At . Denicin I.1.9. Se dice que una matriz A = ( aij ) Mn (k) es (a) Simtrica si A = At , es decir, aij = a ji , para todo i, j = 1, 2, . . . , n. (b) Antisimtrica si A = At , es decir, aij = a ji , para todo i, j = 1, 2, . . . , n. Denicin I.1.10. Diremos que una matriz A Mn (k) es invertible (o no singular) si existe B Mn (k) tal que A B = B A = In . La matriz B si existe es nica1 se denomina matriz inversa de A y la denotaremos por A1 . Ms adelante daremos un criterio para saber si una matriz es invertible y, en este caso, una frmula para calcular la matriz inversa. Denicin I.1.11. Diremos que una matriz A Mn (R) es ortogonal si At = A1 , es decir, A At = At A = In . Denicin I.1.12. Sea A = ( aij ) Mmn (C). La matriz A = ( a ji ) Mnm (C) se denomina matriz traspuesta conjugada2; siendo a ji el conjugado complejo de a ji , i = 1, . . . , m, j = 1, . . . , n. Claramente, ( A ) = A y adems, cuando A es real, se tiene que A = At . Ntese que si v1 . v = . kn , . vn entonces v = ( v1 , . . . , v n ). Denicin I.1.13. Se dice que una matriz A = ( aij ) Mn (C) es (a) Hermtica si A = A , es decir, aij = a ji , para todo i, j = 1, 2, . . . , n. (b) Unitaria si A = A1 , es decir, A A = A A = In . (c) Normal si A A = A A. Proposicin I.1.14. i) Toda matriz hermtica o unitaria es normal. ii) Si A es hermtica e invertible, entonces A1 es tambin hermtica.
1Si existen B y C tales que AB = BA = I = AC = CA, entonces n

0 = A( B C ) 0 = BA = BA( B C ) = B C B = C.
2Algunos autores llaman a esta matriz adjunta.

MANUALES UEX
21

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

iii) Si A es normal e invertible, entonces A1 es normal. Demostracin. La demostracin de esta proposicin se propone como ejercicio a lector (ejercicio 6). 2. La traza y el determinante de una matriz
n

Denicin I.2.1. Sea A = ( aij ) Mn (k). Se denomina traza de A al escalar tr( A) =

i =1

aii .

La traza es invariante por transformaciones unitarias: Proposicin I.2.2. Si A = ( aij ) Mn (C) y P es una matriz invertible, entonces tr( A) = tr( P1 AP). En particular si Q es una matriz unitaria tr( A) = tr( Q AQ). Demostracin. La demostracin de esta proposicin es una consecuencia del apartado 6 del ejercicio 9. Denicin I.2.3. Sea A = ( aij ) Mn (k). Se llama determinante de A, y se representa por | A|, al escalar denido por la expresin:

| A| =

Sn

sign( ) a1(1) a2(2) an(n) ,

donde Sn denota al grupo simtrico.3 Ejemplo I.2.4. Veamos las expresiones explcitas para los determinantes de las matrices cuadradas de ordenes 2 y 3. i) Si A = ( aij ) M2 (k), entonces

| A| = a11 a22 a12 a22


ya que S2 = {1, (1 2)}. ii) Si A = ( aij ) M3 (k), entonces

| A| = a11 a22 a33 a12 a21 a33 a13 a22 a31 a11 a23 a32 + a12 a23 a31 + a13 a21 a32 ,
ya que S3 = {1, (1 2), (1 3), (2 3), (1 2 3), (3 2 1)}. Denicin I.2.5. Sea A Mmn (k). Dado un entero positivo p min(m, n), llamaremos menores de orden p de A a los determinantes de las submatrices cuadradas de orden p de A. Si m = n, se llama menor principal de orden p al determinate de la submatriz de A que se obtiene al eliminar las ltimas n p las y columnas de A.
3Sea X un conjunto arbitrario con n entradas se llama grupo simtrico S al conjunto de n las biyecciones de X con la composicin de aplicaciones (vanse, por ejemplo, la sexta seccin del segundo captulo de [Nav96] o la seccin dcimoquinta de los preliminares de [BCR07]).

MANUALES UEX
22

MTODOS MATEMTICOS PARA ESTADSTICA

Ntese que si A es una matriz cuadrada de orden n, entonces tiene un slo menor de orden n, que es precisamente el determinante de A. Denicin I.2.6. Sea A = ( aij ) Mn (k). Llamaremos menor adjunto de la entrada aij de A al determinante de la submatriz de A que se obtiene al eliminar la la i-sima y la columna j-sima de A, y lo denotaremos por | Aij |. Los menores adjuntos de una matriz A Mn (k) proporcionan otra frmula para el determinante de A. Teorema I.2.7. Sea A = ( aij ) Mn (k). (a) El determinante de una matriz es igual a la suma alternada de los productos de las entradas de una la (o columna) cualquiera por sus adjuntos respectivos. Es decir, si elegimos la la i-sima, el determinante de la matriz A es:

| A| = (1)i+1 ai1 | Ai1 | + (1)i+2 ai2 | Ai2 | + . . . + (1)i+n ain | Ain | =


j =1

(1)i+ j aij | Aij |,

o si elegimos la columna j-sima, el determinante de la matriz A es:

| A| = (1)1+ j a1j | A1j | + (1)2+ j a2j | A2j | + . . . + (1)n+ j anj | Anj | =


i =1

(1)i+ j aij | Aij |.

A la primera expresin se la llama desarrollo del determinante por la la i-esima y a la segunda desarrollo del determinante por la columna j-esima. (b) La suma alternada de los productos de las entradas de una la por los adjuntos de las entradas respectivas de otra es igual a cero, es decir:

(1)i+1 ai1 | A j1 | + (1)i+2 ai2 | A j2 | + . . . + (1)i+n ain | A jn | = 0,


para todo i = j. Obviamente, la armacin anterior tambin es cierta por columnas. Demostracin. La demostracin es un sencillo (aunque bastante tedioso) ejercicio que sigue de la propia denicin de determinante de un matriz. Propiedades de los determinantes. Sea A = ( aij ) Mn (k). 1. Si B es la matriz traspuesta de A, entonces | B| = | A|, es decir, | At | = | A|. 2. Si una la (o columna) de A es combinacin lineal de otras de sus las (o columnas), es decir, es el resultado de sumar otras de sus las (o columnas) multiplicadas por un escalar, entonces | A| = 0.

MANUALES UEX
23

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

3. 4.

5.

6.

As, en particular, el determinante de una matriz A con dos las (o columnas) iguales o proporcionales es nulo. Asimismo, si todos las entradas de una la (o columna) de A son nulas, entonces | A| = 0. Si se intercambian entre s dos las (o columnas) de A, el determinante de la matriz B obtenida es el opuesto del determinante de A, es decir, | B| = | A|. Si se multiplica una la (o columna) cualquiera de la matriz A por un escalar , el determinante de la matriz B obtenida es igual al producto de por el determinante de A, esto es, | B| = | A|. Si cada entrada de una la (o columna), por ejemplo la la p, de la matriz A es de la forma a pj = a pj + a pj , entonces el determinante de A es igual a la suma de los determinantes de dos matrices B y C, tales que la la p de B est formada por las entradas a pj y la la p de C est formada por las entradas a pj , y las restantes las de ambas matrices son respectivamente iguales a las de A. Si a la la (o columna) p de A se le suma otra la (columna) q multiplicada por un escalar , el determinante de la matriz obtenida es igual al determinante de A.

Nota I.2.8. Es importante resaltar que | A + B| = | A| + | B| y que | A| = | A |. Frmula de la matriz inversa. Terminamos esta seccin mostrando una frmula para la matriz inversa de una matriz invertible dada. Comenzamos deniendo qu se entiende por matriz adjunta. Denicin I.2.9. Sea A Mn (k). Llamaremos matriz adjunta4 de A, y la denotaremos por adj( A), a la matriz adj( A) = ((1)i+ j | A ji |) Mn (k). La matriz adjunta verica la siguiente propiedad. Lema I.2.10. Sea A Mn (k). Entonces se cumple que | A| 0 . . . 0 0 | A| . . . 0 A adj( A) = adj( A) A = . . . = | A| In , .. . . . . . . . 0 0 . . . | A| donde In denota a la matriz identidad de orden n.

MANUALES UEX
24

4No confundir con la matriz traspuesta conjugada.

MTODOS MATEMTICOS PARA ESTADSTICA


Demostracin. Sea A adj( A) = (cij ) Mn (k). Dados dos ndices i, j {1, . . . , n} tenemos que cij =

h =1

aih ((1)h+ j | A jh |);

luego, del teorema I.2.7 se sigue que cij = | A| si i = j y cij = 0 en otro caso. Frmula de la matriz inversa. La condicin necesaria y suciente para que una matriz cuadrada A tenga inversa es que su determinante sea distinto de cero. En cuyo caso, 1 A 1 = adj( A). | A| Demostracin. El resultado es una consecuencia inmediata del lema I.2.10 y de la unicidad de la matriz inversa. 3. Matrices por bloques

A menudo es aconsejable dividir una matriz dada en submatrices. Por ejemplo, dada A = ( aij ) M5 (R), queremos dividirla en cuatro submatrices de la siguiente manera a11 a12 a13 a14 a15 a21 a22 a23 a24 a25 A11 A12 , (I.3.1) A = a31 a32 a33 a34 a35 = A21 A22 a41 a42 a43 a44 a45 a51 a52 a53 a54 a55 donde A11 = y a11 a21 a12 a22 , A21 a31 a41 = a51 a33 = a43 a53 a32 a42 , a52 a34 a44 a54 A12 = a13 a23 a14 a24 a15 a25 ,

En general, una matriz se puede descomponer de multitud de formas en submatrices con cualquier nmero de entradas, suponiendo, claro est, que el numero total de las y columnas sea igual que el nmero de las y columnas original. Una matriz descompuesta de esta forma se conoce como matriz divida por bloques. Habitualmente las matrices bloques se usan para enfatizar el papel de algunas de las entradas que ocupan las y/o columnas adyacentes. Recprocamente, podemos considerar que A es una matriz

MANUALES UEX
25

A22

a35 a45 . a55

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

aumentada por bloques, donde las matrices A11 , A21 , A12 y A22 se han combinado para construir una matriz mayor. Evidentemente, la aumentacin se puede entender como el proceso opuestos al de la divisin. Se pueden realizar operaciones con matrices por bloques de un modo muy parecido al que hicimos con la matrices en la primera seccin. Sea A la matriz por bloques A11 A12 . . . A1m A21 A22 . . . A2m A= . . . . . . . . . An1 An2 ... Anm donde las entradas Aij son submatrices. Entonces, si otra B es otra matriz divida por bloques de la misma forma, es decir, tal que Bij tiene el mismo orden que Aij , i = 1, . . . , n; j = 1, . . . , m, entonces A+B = A11 + B11 A21 + B21 . . . An1 + Bn1 A12 + B12 A22 + B22 . . . An2 + Bn2 ... ... ... A1m + B1m A2m + B2m . . . Anm + Bnm

tambin es una matriz divida por bloques. Anlogamente si las dimensiones de las submatrices de dos matrices por bloques C y D son apropiadas para la multiplicacin, entonces tenemos que C11 C12 . . . C1p D11 D12 . . . D1m C21 C22 . . . C2p D21 D22 . . . C2m CD = . . . . . . . . . . . . . . . . . . D p1 D p2 . . . D pm Cm1 Cm2 . . . Cmp

l =1

Cil Dlj

MANUALES UEX
26

donde Cij y Dij son submatrices de ordenes apropiados para que el producto tenga sentido. Como se puede observar tanto en la suma como en el producto podemos considerar que la submatrices juegan un papel anlogo al de los escalares respecto a la suma y el producto de matrices estudiados en la primera seccin. Se pueden denir otros productos y sumas de matrices en trminos de matrices aumentadas por bloques, si bien es cierto que de una forma completamente distinta a la anterior. Sean A y B dos matrices cuadradas de ordenes n y m, respectivamente. Entonces las suma directa se dene como la siguiente

MTODOS MATEMTICOS PARA ESTADSTICA

matriz aumentada de orden (n + m) (m + n) A B := A 0 0 B .

Evidentemente, la suma directa se puede generalizar a cualquier cantidad nita de matrices cuadradas. El resultado de esta operacin es lo que se conoce como una matriz diagonal por bloques. Es claro que la suma directa de matrices es asociativa, aunque no es conmutativa. Proposicin I.3.1. Sean A1 , . . . , Ar matrices tales que Ai Mmi (R), i = 1, . . . , r. Se cumple que (a) tr( A1 . . . Ar ) = tr( A1 ) + . . . + tr( Ar ). (b) | A1 . . . Ar | = | A1 | | Ar |, (c) si cada Ai es invertible, entonces A = A1 . . . Ar tambin es invertible y A 1 = A 1 1 . . . A r 1 . Demostracin. La demostracin, que no es ms una sencilla comprobacin, se deja como ejercicio al lector. Sean ahora A y B dos matrices de ordenes m n y p q, respectivamente. Se dene el producto de Kronecker de A por B como la matriz por bloques de orden mp nq tal que a11 B a12 B . . . a1n B a21 B a22 B . . . a2n B A B := . . . . . . . . . . am1 B am2 B ... amn B Tambin se pueden expresar funciones escalares de las matrices cuadradas tales como la traza o el determinante, as como la (nica) matriz inversa, en trminos de matrices dividas por bloques. Sea A Mn (k) divida por bloques de la siguiente manera A= A11 A21 A12 A22 ,

tr( A) = tr( A11 ) + tr( A22 ), puesto que en la denicin de traza de una matriz slo estn involucrados las entradas de la diagonal principal. Adems, cuando A11 es invertible, el determinante viene dado por
| A| = | A11 || A22 A21 A111 A12 |,

o por
| A| = | A22 || A11 A12 A221 A21 |

MANUALES UEX
27

con A11 y A22 cuadradas. Entonces, se comprueba fcilmente que

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

cuando A22 es invertible. En el caso especial en que las matrices A11 , A12 , A21 y A22 son cuadradas se tiene tambin que

| A| = | A11 A22 A21 A12 | si

A11 A21 = A21 A11 ,

| A| = | A22 A11 A21 A12 | si A11 A12 = A12 A11 , | A| = | A11 A22 A12 A21 | si A21 A22 = A22 A21 , | A| = | A22 A11 A12 A21 | si A12 A22 = A22 A12 . Cuando ambas matrices A11 y A22 son invertibles, se puede comprobar mediante multiplicacin de forma directa que la inversa de A se puede expresar como sigue
A 1 = B
A221 A221 A21 B A12 A221 A21 )1 . BA12 A221 1 A22 A21 BA12 A221

donde B es ( A11 Aunque parezca difcil de creer, a veces es ms fcil invertir A usando la frmula anterior.

MANUALES UEX
28

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicios del tema I Ejercicio 1. Sean A y B Mmn (k) y k. Probar que el producto de un escalar por una matriz verica las siguientes propiedades: 1. 2. 3. 4. ( A + B) = A + B. ( + ) A = A + A. ( ) A = ( A ). 1 A = A.

Ejercicio 2. Probar las siguientes armaciones siempre que sea posible efectuar los productos indicados (por ejemplo si las matrices son cuadradas de orden n). 1. 2. 3. 4. El producto de matrices es asociativo: ( A B) C = A ( B C ). El producto de matrices no es conmutativo. Dada una matriz A, no existe, en general, el elemento inverso de A. El elemento unidad de Mn (k) para el producto de matrices es In la matriz identidad de orden n, es decir, A In = In A = A. 5. El producto de matrices es distributivo respecto de la suma: A ( B + C ) = A B + A C y ( B + C ) A = B A + C A.

Ejercicio 3. Sea A Mmn (k). Probar las siguientes igualdades y armaciones

( At )t = A. ( A + B)t = At + Bt , para cualquier matriz B Mmn (k). ( A B)t = Bt At , para cualquier matriz B Mn p (k). Si A es invertible, ( A1 )t = ( At )1 . Si A tiene coecientes reales, entonces At A = 0 si, slo si, A = 0. Son ciertas las igualdades y armaciones anteriores si se sustituye la traspuesta por la traspuesta conjugada?
1. 2. 3. 4. 5. Ejercicio 4. Sea A Mn (R). Probar que 1. ( A + At ) es simtrica y ( A At ) es antisimtrica. 1 1 2. A = 2 ( A + At ) + 2 ( A At ) 3. A puede escribirse, de modo nico,como suma de una matriz simtrica y otra antisimtrica. Ejercicio 5. Sean a, b y c nmeros reales tales que a2 + b2 + c2 = 1 y consideramos la matriz: 0 a b A = a 0 c b c 0

MANUALES UEX
29

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

1. Probar que la matriz M = A2 + I3 es simtrica, siendo I3 la matriz identidad de orden tres. 2. Demostrar que la matriz A es antisimtrica (es decir, At = A). 4. Demostrar que la matriz M es idempotente (es decir, M2 = M). Ejercicio 6. Probar que i) Toda matriz hermtica o unitaria es normal. ii) Toda matriz triangular y unitaria es diagonal. iii) Si A Mn (C) es hermtica e invertible, entonces A1 es tambin hermtica. iv) Si A Mn (C) es normal e invertible, entonces A1 es normal. [El ejercicio 3 ser de utilidad.] Ejercicio 7. Probar que i) | In | = 1. ii) | A| = n | A|, para cualquier A Mn (k) y k. iii) | AB| = | A|| B|, para cualquier A Mn (k) y B Mn (k). Ejercicio 8. Sea A Mn (k). Probar que A es invertible si, y slo si, | A| = 0, en cuyo caso, 1 . | A 1 | = | A| Ejercicio 9. Si A = aij Mn (k) es una matriz cuadrada de orden n, entonces se dene la traza de A, que denotaremos por tr ( A) , como tr ( A) = n i=1 aii . Probar que si A y B son matrices cuadradas de orden n, entonces: tr ( A + B) = tr ( A) + tr ( B) . tr( A) = tr( At ). tr( In ) = n. tr ( A B) = tr ( B A) . tr( ABC ) = tr(CAB) = tr( BCA). Comprobar que dicho escalar no tiene por qu ser igual a tr(CBA). 6. tr( A) = tr( PAP1 ), para cualquier matriz invertible P Mn (k). 7. tr( AAt ) = i,j a2 . ij 1. 2. 3. 4. 5. Ejercicio 10. Se llama determinante de Vandermonde de unos ciertos escalares ( x1 , . . . , xn ) al determinante denido por la igualdad 1 x1 2 x1 . . .
n x 1 1

MANUALES UEX

V ( x1 , . . . , x n ) =

30

1 x2 2 x2 . . .
n x 2 1

... ... ... ...

1 xn 2 xn . . .
n x n 1

MTODOS MATEMTICOS PARA ESTADSTICA

Probar la siguiente relacin de recurrencia: V ( x 1 , . . . , x n ) = ( x n x 1 ) ( x n 1 x 1 ) . . . ( x 2 x 1 ) V ( x 2 , . . . , x n ). Concluir de lo anterior la siguiente igualdad: V ( x1 , . . . , xn ) = i< j ( x j xi ). Como consecuencia, el determinante de Vandermonde de unos escalares es igual a 0 si y slo si entre dichos escalares hay dos iguales. Como aplicacin de lo anterior probar que se satisface la igualdad 1 1 1 ... 1 1 2 3 ... n 1 22 32 ... n2 ... ... ... .. . ... 1 2n 1 3n 1 ... n n 1

= 1! 2! (n 1)!.

Ejercicio 11. Diremos que una matriz N cuadrada de orden n es nilpotente si existe un nmero natural r 1 tal que N r = 0n . Probar que si N es nilpotente, entonces la matriz In N es invertible y, adems:

( I N )1 = In + N + N 2 + . . . + N r1 .
Como aplicacin, calcular la matriz inversa de la matriz siguiente: 1 2 3 4 5 0 1 2 3 4 0 0 1 2 3 . 0 0 0 1 2 0 0 0 0 1 Ejercicio 12. Suponiendo que las inversas existen. Probar que 1. 2. 3. 4. 5. 6.

( I + A 1 ) 1 = A ( A + I ) 1 . ( A + BBt )1 B = A1 B( I + Bt A1 B)1 . ( A1 + B1 )1 = A( A + B)1 B = B( A + B)1 A. ( I + AB)1 = I A( I + BA)1 B. ( I + AB)1 A = A( I + BA)1 . ( A + UBV )1 = A1 A1 UBV ( I + A1 UBV )1 A1 .

Ejercicio 13. Probar que vvt vt vI no es invertible. Ejercicio 14. Dados A Mn (R) invertible y b Rn tales que bt A1 b = 1, probar que ( A bbt )1 = A1 + (1 bt A1 b)1 ( A1 b)(bt A1 ). Ejercicio 15. Probar que 1. ( I + abt )1 = I 2. ( A + cdt )1 =
1 abt . 1+ bt a 1 t A 1 A1 A+dcd 1c . 1 tA

MANUALES UEX
31

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicio 16. Si u, v Cn , la matriz A = In + uv se llama perturbacin de rango 1 de la identidad. Demostrar que si A es invertible, entonces su inversa tiene la forma A1 = I + uv , para algn escalar . Deducir una expresin para . Para qu vectores u y v Cn la matriz A no es invertible? Ejercicio 17. Probar que A y B son invertibles si, y slo si, A B es invertible. En tal caso ( A B)1 = A1 B1 . Ejercicio 18. Consideremos la matriz cuadrada A= A11 A21 A12 A22 ,

con A11 y A22 matrices cuadradas. Probar que si A11 es invertible, entonces
| A| = | A11 | | A22 A21 A111 A12 |.

Ejercicio 19. Sean A11 , A12 , A21 y A22 matrices de rdenes respectivos m m, m n, n m y n n, con A11 invertible. Probar que A= A11 A21 A12 A22

es invertible si, y slo si, B = A22 A21 A111 A12 es invertible. En cuyo caso,

A 1 =

A111 ( A11 + A12 B1 A21 ) A111 1 A A 1 B 21 11

A111 A12 B1 B 1

La matriz B se denomina complemento de Schur de A11 en A. Ejercicio 20. Dadas A Mmn (k) y B Mnm . Probar que la matriz por bloques In BA B L= 2A ABA AB Im tiene la propiedad L2 = Im+n . Ejercicio 21. Sea A Mmn (k). Probar que las matrices por bloques

MANUALES UEX

In A y Im 0 son invertibles, y que In A 0 Im


1

0 Im A In

32

In A

0 Im

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicio 22. Sean A, B y C matrices de rdenes respectivos m m, n m y n n. Probar que la matriz por bloques A B
1

0 C A 1

es invertible si, y slo si, A y C son invertibles. En tal caso, A B 0 C

C 1 BA1
0 0 1 0 0 0 1/3 1/3 1/3 1/3 1/3 1/3 1/3 1/3 1/3 1/3 1/3 1/3

0 C 1

Ejercicio 23. Dada la matriz 1 0 0 A= 0 0 0

0 1 0 0 0 0

1/3 1/3 1/3 1/3 1/3 1/3

Calcular A300 mediante una divisin por bloques.

MANUALES UEX
33

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

MANUALES UEX
34

MTODOS MATEMTICOS PARA ESTADSTICA

TEMA II

Matrices y aplicaciones lineales

l planteamiento inicial del tema consiste en introducir la equivalencia de matrices: diremos que dos matrices A y B son equivalentes, si existen P y Q invertibles, tales que B = Q1 AP, y proponer el problema de decidir cundo dos matrices son equivalentes; o lo que es lo mismo, determinar la clase de equivalencia de una matriz dada. As, comenzamos deniendo las transformaciones elementales por las y por columnas de una matriz, identicando las matrices elementales de paso en cada caso, mostrando de este modo que las transformaciones elementales producen matrices equivalentes. A continuacin probamos que toda matriz es equivalente a su forma reducida por las y a su forma reducida por columnas mediante el mtodo de Gauss-Jordan, y comprobamos que la forma reducida por las de la forma reducida por columnas y que la forma reducida por columnas de la forma reducida por las de la matriz A dada, conuyen en una misma matriz R= Ir 0 0 0

que llamamos forma reducida de A. Usando que las formas reducidas por las y por columnas de una matriz son nicas salvo permutacin de algunas columnas y las, respectivamente, concluimos que la forma reducida es nica, y, por consiguiente, que toda matriz tiene asociado un invariante numrico por la equivalencia de matrices; concretamente, el orden de la matriz identidad que aparece en su forma reducida, al que llamaremos rango de la matriz. De esta forma se resuelve el problema planteado inicialmente, ya que podemos armar que dos matrices son equivalentes si, y slo si, tienen el mismo rango; siendo adems su forma reducida un representante cannico de su clase equivalencia. Si bien nuestro problema inicial ya est resuelto, nos proponemos determinar la naturaleza geomtrica del rango de una matriz. Para ello recurrimos a las aplicaciones lineales entre espacios vectoriales abstractos. Este es un buen momento para recordar que en todas las titulaciones que dan acceso a la Licenciatura en Ciencias y Tcnicas Estadsticas se imparte lgebra

MANUALES UEX
35

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

36

Lineal bsica, por lo tanto, se entiende que los conceptos de espacio vectorial, dependencia e independencia lineal y base son conocidos. Por supuesto, todos los espacios vectoriales de esta asignatura sern de dimensin nita a menos que diga lo contrario. En la segunda seccin de este tema se parte de la denicin de aplicacin lineal entre espacios vectoriales abstractos, y se recuerdan las deniciones de monomorsmo, epimorsmo, isomorsmo, ncleo e imagen de una aplicacin lineal. Asimismo, se recuerda qu se entiende por coordenadas de un vector respecto de una base, y se da la denicin de matriz asociada a una aplicacin lineal. A modo de ejemplo se comenta que, por defecto, se entender que una matriz A Mmn (R) dene una aplicacin lineal de Rn en Rm ; concretamente la aplicacin lineal cuya matriz respecto de las bases usuales de Rm y Rn es A. Esto nos permitir hablar con libertad de A en trminos de aplicaciones lineales. As, por ejemplo, podremos armar que si A tiene rango r y R = Q1 AP es su forma reducida, con P Mn (R) y Q Mm (R) invertibles, entonces las ltimas n r columnas de P forman una base de ker( A) y las r primeras columnas de Q forman una base de im( A). Entendiendo que ncleo e imagen lo son de la aplicacin natural que dene A. Destacamos este ejemplo por ser el que podramos considerar ejemplo fundamental del tema, ya que pone de maniesto la clave de la demostracin del teorema del rango. A continuacin se enuncian y demuestran algunos resultados bsicos de las aplicaciones lineales con los que el alumno debe estar familiarizado. A saber, las ecuaciones de una aplicacin lineal, el isomorsmo entre el espacio vectorial de las aplicaciones lineales de V en V y el correspondiente espacio vectorial de matrices para cada par de bases jas de V y V , la correspondencia entre la composicin de aplicaciones lineales y el producto de matrices, y, en el caso de los isomorsmos, su correspondencia con las matrices invertibles. Estos resultados slo son enunciados en clase y, generalmente, usando transparencias. La siguiente seccin del tema est dedicada a los cambios de base, y cmo afectan stos a las matrices asociadas a las aplicaciones lineales. Es decir, demostramos que dos matrices son equivalentes si, y slo si, estn asociadas a una misma aplicacin lineal respecto de bases distintas. Este argumento nos permite armar que el rango de una matriz tiene carcter puramente geomtrico (Teorema del rango). Al nal de este tema se comentan brevemente algunos aspectos relacionados con la resolucin de sistemas de ecuaciones lineales como antesala a la resolucin aproximada mnimo cuadrtica de sistema de ecuaciones lineales que se estudiar en el tema VI. La bibliografa bsica utilizada en este tema ha sido [SV95] y [MS06] para la primera seccin, y el tema 3 de [BCR07] para el resto de secciones.

MANUALES UEX

MTODOS MATEMTICOS PARA ESTADSTICA

Para un desarrollo ms geomtrico de este tema se puede consultar [Her85]. El captulo 6 de [Sea82] est completamente dedicado al rango, y cuenta con bastantes ejemplos relacionados con la Estadstica. En el captulo 4 de [Mey00] tambin se pueden encontrar aplicaciones y ejercicios aplicados a situaciones reales de los contenidos de este tema. En el desarrollo de este tema, y en el del manual en general, se ha supuesto que el estudiante est familiarizado con los conceptos de espacio y subespacio vectorial, dependencia lineal, base y dimensin. En todo caso, con el nimo de hacer este manual lo ms autocontenido posible, en el apndice C pueden encontrarse todos estos conceptos tratados con bastante profusin. 1. Matrices equivalentes

Denicin II.1.1. Se dice que A Mmn (k) es equivalente a A Mmn (k) si existen P Mn (k) y Q Mm (k) invertibles tales que A = Q1 A P. La relacin anterior es de equivalencia, es decir, verica las propiedades reexiva, simtrica y transitiva (comprubese). Denicin II.1.2. Se llaman operaciones elementales por las en una matriz A Mmn (k) a las siguientes transformaciones: (a) Tipo I: Intercambiar las las i-sima y l-sima de A. (b) Tipo II: Multiplicar la la i-sima de A por k \ {0}. (c) Tipo III: Sumar a la la i-sima de A su la l-sima multiplicada por k. Las operaciones elementales por las en una matriz A Mmn (k) producen matrices equivalentes a A. En efecto, a cada una de las operaciones elementales por las le corresponden un par de matrices invertibles P Mn (k) y Q Mm (k) tales que el resultado de la operacin elemental es Q1 AP : (a) Tipo I: Intercambiar las las i-sima y l-sima de A se consigue tomando Q igual a la matriz Til que se obtiene al permutar las las i-sima y l-sima de la matriz identidad de orden m y P igual a la matriz identidad de orden n (comprubese usando el ejercicio 1 ajustado a la igualdad In A = A). (b) Tipo II: Multiplicar la la i-sima de A por k \ {0} se consigue 1 tomando Q igual a la matriz Mi ( ) que se obtiene al multiplicar la la i-sima de la matriz identidad de orden m por 1/ y P igual a la matriz unida de orden n (comprubese usando el ejercicio 1 ajustado a la igualdad In A = A).

MANUALES UEX
37

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


(c) Tipo III: Sustituir la la i-sima de A por ella misma ms k veces su la l-sima se consigue tomando Q igual a la matriz Sil () que se obtiene al sustituir por la entrada (i, l )-sima de la matriz identidad de orden m y P igual a la matriz identidad de orden n (comprubese usando el ejercicio 1 ajustado a la igualdad In A = A). Las matrices Til , Mi () con k \ {0} y Sil () con k se llaman matrices elementales. En el ejercicio 2 puedes encontrar algunas interesantes propiedades de las matrices elementales. Nota II.1.3. Ntese que en las operaciones elementales por las la matriz P siempre es la identidad del orden correspondiente. Denicin II.1.4. A las matrices que son producto de matrices de la forma Til se les llama matrices de permutacin. Obsrvese que las matrices de permutacin son ortogonales (vase el apartado 1. del ejercicio 2). Al igual que hemos denido las operaciones elementales por las en una matriz, se pueden denir operaciones elementales por columnas en una matriz de forma totalmente anloga, lo que proponemos como ejercicio al lector. Teorema II.1.5. Forma reducida por las. Sea A Mmn (k) no nula. Mediante operaciones elementales por las y, si es necesario, permutando las columnas de A, se puede obtener una matriz A equivalente a A de la forma: 1 0 . . . 0 a1 r+1 . . . a1n 0 1 ... 0 a 2 r +1 . . . a2n . . . . . .. . . . . . . . . . . . (II.1.1) A = 0 0 . . . 1 ar r+1 . . . arn , 0 0 ... 0 0 ... 0 . . . . . . . . . . . . . . . 0 0 0... 0 0 ... 0 La matriz A se llama forma reducida por las de A y es nica salvo permutacin de las ltimas n r columnas. Demostracin. Si las entradas de la primera columna de A son todas 0, pasamos la primera columna al lugar n-simo En otro caso, hay alguna entrada no nula, que colocamos en lugar (1, 1) mediante una operacin del tipo I. Con una operacin del tipo II conseguimos que esta entrada sea 1 y con operaciones del tipo III se puede conseguir que las entradas (i, 1)-simas sean 0, para

MANUALES UEX
38

MTODOS MATEMTICOS PARA ESTADSTICA

cada i = 2, . . . , m. La primera columna queda, por tanto, en la forma buscada. Supongamos que tenemos h columnas en la forma deseada. Si en la columna (h + 1)-sima las entradas de las las h + 1, . . . , m son 0, la situamos (mediante operacin por columnas del tipo I) en el lugar n. En caso contrario, alguna de las entradas de las las h + 1, . . . , m en la columna h + 1-sima es distinta de 0; haciendo una operacin del tipo I lo emplazamos al lugar (h + 1, h + 1); con una operacin del tipo II conseguimos que esta entrada sea 1 y con operaciones del tipo III hacemos ceros en las entradas (i, h + 1)-simas, para cada i = 1, . . . , h, h + 2, . . . , m. Observamos que las columnas anteriores no varan. Continuando con este mismo proceso conseguimos una matriz de la forma (II.1.1). La unicidad es una consecuencia del siguiente resultado: Lema II.1.6. Sean A y B Mmn (k) dos matrices en forma reducida por las. Si existe P Mm (k) invertible tal que P1 A = B, entonces A = B. Demostracin. Vemoslo por induccin sobre el nmero de columnas n. Para n = 1, si A = 0 entonces, al ser P1 A = B, ha de ser forzosamente B = 0. Si A y B son no nulas, entonces A= 1 0 . . . 0 Supongamos ahora que el enunciado es cierto para matrices de orden m (n 1) y comprobmoslo para matrices de orden m n. Llamemos A1 y B1 Mm(n1) (k) a las submatrices de A y B que se obtienen al eliminar la ltima columna. Es claro, que las matrices A1 y B1 estn en forma reducida por las. Adems, como P1 A = B, se tiene que P1 A1 = B1 . Por tanto, aplicando la hiptesis de induccin se concluye que A1 = B1 . Queda comprobar que tambin las ltimas columnas de A y B son iguales. Si la ltima columna de A es 0 . . . 0 1 r-simo 0 . . . 0 = B.

MANUALES UEX
39

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

y A1 tiene sus m r + 1 ltimas las nulas, entonces A y B son necesariamente iguales; de hecho, en este caso, se tiene que r = n y A=B= In 0 .

Supongamos, pues, que A1 (y por lo tanto B1 ) tiene sus r primeras las no nulas y las m r ltimas las nulas, y que las ltimas columnas de A y B son a1n . . . a an = rn 0 . . . 0 b1n . . . ,

brn bn = br+1 n . . . bmn

respectivamente. Teniendo ahora en cuenta que P1 ( A1 |an ) = P1 A = B = ( B1 |bn ) y que A1 = B1 = y que se sigue que P1 an = bn y que P 1 = Ir 0 P1 P2 , Ir 0 C 0

de donde se deduce fcilmente que an = bn . Retornando ahora a la unicidad de la forma reducida por las de A, basta tener en cuenta que si A es otra matrices en forma reducida obtenida a partir de A mediante operaciones elementales por las y permutaciones de columnas, existen una matriz invertible P Mm (k) y una matriz de permutacin Q Mn (k) tales que P1 A Q = A . En primer lugar, observamos que B = A Q est en forma reducida por las1. Por consiguiente, usando el lema anterior concluimos que A Q = B = A . Adems, las permutaciones recogidas en Q slo pueden afectar a las ltimas n r columnas de A , al ser sta y A matrices en forma reducida por las.
1Segn hemos visto en la primera parte de la demostracin se realizan permutaciones de columnas cuando la matriz no est en forma reducida y en la columna (h + 1)-sima las entradas de las las h + 1, . . . , m son cero.

MANUALES UEX
40

MTODOS MATEMTICOS PARA ESTADSTICA

Es claro que intercambiando las por columnas y viceversa en el teorema anterior, se obtiene que la matriz A es equivalente a una de la forma 1 0 ... 0 0 ... 0 0 1 ... 0 0 ... 0 . . . . . .. . . . . . . . . . . . 0 ... 1 0 ... 0 , (II.1.2) A = 0 as+1 1 as+1, 2 . . . as+1 s 0 . . . 0 . . . . . . . . . . . . . . . am 1 am 2 . . . am s 0 . . . 0 que se llama forma reducida por columnas de A y es nica salvo permutacin de las ltimas m s las. Nota II.1.7. Obsrvese que la demostracin del teorema II.1.5 proporciona un procedimiento algortmico para calcular la forma reducida por las (o por columnas, con las modicaciones pertinentes) de una matriz dada. Este procedimiento se llama mtodo de Gauss-Jordan. Por otra parte, si en el teorema II.1.5 prescindimos de las permutaciones de las columnas, no se obtiene la forma reducida por las (al menos como la nosotros la hemos denido); sin embargo, se obtiene una matriz en forma escalonada por las. Y lo mismo ocurre si prescindimos de las permutaciones de las cuando se construye la forma reducida por columnas; en cuyo caso, la matriz que se obtiene estar en forma escalonada por columnas. Corolario II.1.8. Sea A Mmn (k). Si A y A Mmn son las formas reducidas por las y por columnas de A, respectivamente, entonces existe un nico entero r 0 tal que la forma reducida por columnas de A y la forma reducida por las de A coinciden con Ir 0 R= , 0 0 donde Ir es la matriz identidad de orden r y el resto son matrices nulas de los ordenes correspondientes. Esta matriz se llama forma reducida de A.

Denicin II.1.9. Sea A Mmn (k). Se llama rango de la matriz A al nmero de las (o columnas) distintas de cero en su forma reducida, y se denota rg( A).

MANUALES UEX
41

Del corolario anterior se deduce que el nmero de las distintas de cero de la forma reducida por las de una matriz dada es igual al nmero de columnas distintas de cero de la forma reducida por columnas de la misma matriz. Adems, de la unicidad de las formas reducidas por las y por columnas se sigue la unicidad de r.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


Proposicin II.1.10. Dos matrices A y B Mmn (k) son equivalentes si, y slo si, tienen el mismo rango. Demostracin. Si A y B son equivalentes, entonces tienen la misma forma reducida por las, de donde se sigue que rg( A) = rg( B). Recprocamente, si A y B tienen el mismo rango, existen P1 y P2 Mn (k) y Q1 y Q2 Mm (k) tales que
Q1 1 A( P1 ) = Q2 1 B( P2 ) =

Ir 0

0 0

(vase el corolario II.1.8), de donde se sigue que B = Q2 ( Q1 1 A( P1 )) P2 1 , es decir, B = ( Q1 Q2 1 )1 A( P1 P2 1 ).

Luego, A y B son equivalentes. Nota II.1.11. Clculo de las matrices de paso para obtener la forma reducida: Sea A Mmn (k) tal que rg( A) = r y sean P Mn (k) y Q Mm (k) las matrices invertibles tales que Q1 AP = entonces: i) Q1 es la matriz que resulta de hacer en Im (la matriz identidad de orden m) las mismas transformaciones elementales por las que se hacen en A para llegar a la forma reducida, Q1 = . . . (2a t.f.) (1a t.f.), donde (1a t.f.) denota a la matriz elemental de la primera transformacin elemental por las, (2a t.f.) a la matriz elemental de la segunda transformacin elemental por las, . . . ii) P es la matriz que resulta de hacer en In (la matriz identidad de orden n) las mismas transformaciones elementales por columnas que se hacen en A para llegar a la forma reducida, P = (1a t.c.) (2a t.c.) . . . donde (1a t.c.) denota a la matriz elemental de la primera transformacin elemental por columnas, (2a t.c.) a la matriz elemental de la segunda transformacin elemental por columnas, . . . Ir 0 0 0 ,

MANUALES UEX
42

MTODOS MATEMTICOS PARA ESTADSTICA

2.

Aplicaciones lineales

En lo que sigue, y a lo largo de todo esta seccin, V y V denotarn dos espacios vectoriales sobre un mismo cuerpo k. Denicin II.2.1. Se dice que una aplicacin T : V V es un morsmo de k-espacios vectoriales ( aplicacin k-lineal aplicacin lineal si es claro que el cuerpo es k), si es un morsmo de grupos compatible con el producto por escalares, es decir, si verica: (a) T (u + v) = T (u) + T (v) (morsmo de grupos); (b) T (u) = T (u) (compatible con el producto por escalares), para todo u y v V y k. Equivalentemente (comprubese), T es morsmo de k-espacios vectoriales si, y slo si, es compatible con combinaciones lineales, es decir, T (u + v) = T (u) + T (v), para todo u y v V y y k. Nota II.2.2. Observse que, en general, se tiene que si T : V V es aplicacin lineal, entonces T

i =1

i vi

i =1

i T ( v i ),

para todo vi V y i k, i = 1, . . . , r. Ejemplo II.2.3. Veamos los ejemplos ms sencillos de aplicaciones lineales. 1. Sea T : V V la aplicacin denida por T (v) = 0V , para todo v V. Esta aplicacin es lineal y se llama aplicacin trivial o nula. 2. Si denotamos, como es usual, con 0 al k-espacio vectorial cuyo nico vector es el cero, entonces es claro que la nica aplicacin lineal de 0 a V es la aplicacin nula, la cual, denotaremos por 0 V. Del mismo modo, la nica aplicacin lineal de V en 0 es la aplicacin nula, que denotaremos por V 0. 3. Si L V es un subespacio vectorial de V, entonces la aplicacin i : L V denida por i (v) = v, para todo v L, es lineal y se llama inclusin de L en V. En el caso particular, en que L = V, la aplicacin anterior se llama identidad de V y se denota por IdV . Denicin II.2.4. Diremos que una aplicacin lineal es un monomorsmo (epimorsmo, isomorsmo, respectivamente) cuando sea inyectiva (epiyectiva, biyectiva, respectivamente). Cuando una T aplicacin lineal est denida en V y valora tambin en V, esto es, T : V V, se dice que es un endomorsmo (de V); los endomorsmos (de V) que son isomorsmos se denominan automorsmos (de V).

MANUALES UEX
43

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


Dados dos espacios vectoriales V y V sobre un mismo cuerpo k, denotaremos por Homk (V, V ) al conjunto de todas aplicaciones k-lineales de V en V . El conjunto formado por las aplicaciones lineales de V en V, es decir, por los endomorsmos de V, se denota por Endk (V ). Es un sencillo ejercicio comprobar que Homk (V, V ) y Endk (V ) son espacios vectoriales sobre k con la suma y producto por escalares usuales de las aplicaciones, es decir, f + g es la aplicacin tal que ( f + g)(v) = f (v) + g(v) y ( f ) es la aplicacin tal que ( f )(v) = f (v), para todo v V. Proposicin II.2.5. Si T : V V es un isomorsmo, entonces T 1 : V V es un isomorsmo. Demostracin. Como T es biyectiva, T 1 tambin es biyectiva, por tanto, slo hay que probar que T 1 es lineal. Sean u y v V y y k. Por ser T biyectiva, existen unos nicos u y v V tales que T (u) = u y T (v) = v . Adems, por ser T lineal, T (u + v) = T (u) + T (v) = u + v . De ambos hechos se deduce que T 1 (u + v ) = u + v = T 1 (u ) + T 1 (v ), y por tanto que T 1 es lineal. Esta ltima proposicin dota de sentido a la siguiente denicin. Denicin II.2.6. Diremos que los espacios vectoriales V y V son isomorfos si existe algn isomorsmo entre ellos, en cuyo caso escribiremos V V ( = V V ). Ejercicio II.2.7. Probar que la composicin de aplicaciones es una aplicacin lineal. Probar que ser isomorfos, , es una relacin de equivalencia. = Como todo morsmo de k-espacios vectoriales es, en particular, un morsmo de grupos, tenemos las siguientes propiedades elementales. Proposicin II.2.8. Si T : V V es una aplicacin lineal, entonces se cumple que: (a) T (0V ) = 0V ; (b) T (v) = T (v); (c) T (v u) = T (v) T (u), para todo v y u V. Demostracin. (a) Sea v V. Como T (v) = T (v + 0V ) = T (v) + T (0V ), de la unicidad del elemento neutro en V se sigue que T (0V ) = 0V . (b) Basta tomar = 1 en el apartado (b) de la denicin de aplicacin lineal (denicin II.2.1). (c) T (u v) = T (u) + T (v) = T (u) T (v).

MANUALES UEX
44

MTODOS MATEMTICOS PARA ESTADSTICA

Denicin II.2.9. Sea T : V V una aplicacin lineal. Se llama ncleo de T al subconjunto ker( T ) := {v V | T (v) = 0V } V. Se llama imagen de T al subconjunto Im( T ) := { T (v) | v V } V . Nota II.2.10. Obsrvese que Im( T ) coincide con el siguiente subconjunto de V, {v V | existe v V con T (v) = v }. Ejemplo II.2.11. Calculemos el ncleo y la imagen para las aplicaciones lineales del ejemplo II.2.3 1. Si T : V V es la aplicacin nula, entonces ker( T ) = V e Im( T ) = { 0V }. 2. El ncleo y la imagen de la aplicacin 0 V son, obviamente, {0} y {0V }, respectivamente. Tambin es claro que el ncleo y la imagen de la aplicacin V 0 son V y {0}, respectivamente. 3. Sean L V es un subespacio vectorial. Si i : L V es la inclusin de L en V, entonces ker(i ) = {0V } e Im(i ) = L, y si IdV : V V es la identidad de V, entonces ker(IdV ) = {0V } e Im(IdV ) = V. 4. Sea h : V V la homotecia lineal de razn k. Si = 0, entonces h es la aplicacin nula, en otro caso, ker(h ) = {0V } e Im(h ) = V. Ntese que en los ejemplos anteriores tanto el ncleo como la imagen son subespacios vectoriales. Veamos que esto no es un hecho aislado y se cumple siempre. Proposicin II.2.12. Si T : V V es una aplicacin lineal, entonces (a) ker( T ) es un subespacio vectorial de V. (b) Im( T ) es un subespacio vectorial de V . Demostracin. (a) Por la proposicin II.2.8(a), tenemos que T (0V ) = 0V , es decir, 0V ker( T ) y por tanto podemos asegurar que ker( T ) es un subconjunto no vaco de V. Si u y v ker( T ) y y k, entonces T (u + v)
T

= T (u) + T (v)

lineal

u,v ker( T )

0V + 0V = 0V .

Por la proposicin C.2.3, ker( T ) es subespacio vectorial de V. (b) Por la proposicin II.2.8(a), tenemos que T (0V ) = 0V , es decir, 0V Im( T ) y, por tanto, que Im( T ) es un subconjunto no vaco de V . Si u y v Im( T ), entonces existen u y v V tales que T (u) = u y T (v) = v . De tal forma que si y k, tenemos que u + v = T (u) + T (v)
T

= T (u + v).

lineal

MANUALES UEX
45

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Luego u + v Im( T ) y, por consiguiente, Im( T ) es subespacio vectorial de V. Es claro que, por denicin, tenemos que una aplicacin T : V V es epiyectiva si, y slo si, la imagen de T es V . De modo que podemos determinar cundo una aplicacin es epimorsmo dependiendo de su imagen. Veamos que el ncleo caracteriza a los monomorsmos. Proposicin II.2.13. Sea T : V V una aplicacin lineal. T es inyectiva, es decir, es un monomorsmo si, y slo si, ker( T ) = {0V }. Demostracin. Sea v ker( T ), entonces, por T inyectiva tenemos que T (v) = 0V = T (0V ) implica v = 0V . Si u y v son vectores de V tales que T (u) = T (v), entonces 0V = T ( u ) T ( v )
T

= T ( u v ).

lineal

Luego u v ker( T ) = {0V }, de donde se sigue que u v = 0V , es decir, u = v. De forma inmediata tenemos el siguiente: Corolario II.2.14. Sea T : V V una aplicacin lineal. T es isomorsmo si, y slo si, ker( T ) = {0V } e Im( T ) = V . 3. Matriz asociada a una aplicacin lineal

Sea B = {v1 , . . . , vn } es una base de un k-espacio vectorial V de dimensin nita n > 0. Sabemos, que todo vector v V se expresa de forma nica como combinacin lineal de los vectores de B ; es decir, existen unos nicos 1 , . . . , n k tales que v = 1 v1 + . . . + n vn , llamados coordenadas de v V respecto de B . Por otra parte, existe una nica aplicacin lineal

MANUALES UEX

B : V kn ;

B (vi ) = ei := (0, . . . , 0, 1, 0, . . . , 0),

i)

i = 1, . . . , n.

46

De hecho esta aplicacin es un isomorsmo de V en kn que manda un vector v V de coordenadas 1 , . . . , n respecto de B a la n-upla (1 , . . . , n ) kn . De aqu que, en lo sucesivo, denotaremos a las coordenadas de v V respecto B por la n-upla correspondiente en kn , es decir, escribiremos (1 , . . . , n ) ( (1 , . . . , n )B si queremos destacar la base) para expresar las coordenadas de v respecto de B .

MTODOS MATEMTICOS PARA ESTADSTICA

Nota II.3.1. Mediante el isomorsmo anterior podemos ver cualquier espacio vectorial V de dimensin n como un espacio vectorial numrico de dimensin n, esto es, kn . Sin embargo, es conveniente resaltar que esta identicacin depende de la base de V elegida, y por lo tanto que, en algunos casos, se puede perder generalidad en los razonamientos. Una vez jada la notacin que usaremos de esta seccin en adelante, pasamos a denir la matriz asociada a una aplicacin lineal. En lo que sigue V y V sern dos k-espacios vectoriales de dimensiones nitas n > 0 y m > 0, respectivamente, B = {v1 , . . . , vn } una base de V y B = {v1 , . . . , vm } una base de V . Si T Homk (V, V ), entonces es claro que existen aij k con i {1, . . . , m} y j {1, . . . , n} tales que T (v j ) =

i =1

aij vi ,

es decir, tales que las coordenadas de T (v j ) V respecto de B son ( a1j , . . . , amj ), para cada j = 1, . . . , m. Adems, T est determinado por las imgenes de una base de V. Luego tenemos que T est determinado por las coordenadas de T (v j ), j = 1, . . . , n, respecto de B , aunque obviamente estas coordenadas dependen de las bases B y B elegidas. Denicin II.3.2. Dado T Homk (V, V ) se dene la matriz asociada a T respecto de la bases B y B , MB ,B ( T ), como la matriz A = ( aij ) Mmn (k) cuya columna j-sima son las coordenadas de T (v j ) respecto de B , es decir, T ( v1 ) T ( v2 ) . . . T ( v n ) MB , B ( T ) a11 a21 . . . am1 a12 a22 . . . am2 ... ... .. . ... a1n a2n . . . amn v1 v2 . . . vm

Cuando V = V y B = B , se dice que MB ,B ( T ) es la matriz de T respecto de B y se escribe MB ( T ). La matriz asociada a una aplicacin lineal permite obtener una expresin matricial que relaciona las coordenadas de un vector de V respecto de B con las coordenadas de su imagen por T respecto de B . Proposicin II.3.3. Sean T Homk (V, V ) y A = ( aij ) Mmn (k) la matriz asociada a T respecto de las bases B y B . Si ( x1 , x2 , . . . , xn ) son las coordenadas de

MANUALES UEX
47

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

un vector v V, entonces se cumple que ( x1 , x2 , . . . , xm ) T (v) respecto de B si, y slo si, x1 a11 a12 . . . a1n a21 a22 . . . a2n x2 (II.3.3) . . . . = .. . . . . . . . . . am1 am2 ... amn xn

son las coordenadas de x1 x2 . . . xn .

A la expresin (II.3.3) se la llama ecuaciones de T respecto de B y B .


m Demostracin. Si v = i=1 xi vi V , entonces T (v) = v si, y slo si,

i =1

xi vi = T x j v j
j =1

j =1

xj T

vj =

j =1

x j aij vi
i =1

j =1

x j aij
i =1

vi

m si, y slo si, xi = i=1 xi aij , i = 1, . . . , n si, y slo si, x1 x1 x2 x 2 A . = . . . . .

xn

xn

El hecho de que a cada aplicacin lineal se le asocie una matriz permite denir una aplicacin de Homk (V, V ) en Mmn (k) tal que a cada T Homk (V, V ) le asigna la matriz asociada a T respecto de las bases B y B de V y V , respectivamente. Veamos que esta aplicacin es un isomorsmo de espacios vectoriales. Nota II.3.4. Recordemos que el conjunto de matrices de orden m n con coecientes en k tiene estructura de k-espacio vectorial con la suma y producto por escalares habituales de matrices: A + B = ( aij ) + (bij ) = ( aij + bij ) y A = ( aij ) = (aij ) con A = ( aij ) y B = ( aij ) Mmn (k) y k (vense la nota I.1.7 y el ejercicio 1). Adems, la dimensin de Mmn (k) como kespacio vectorial es m n; pues una base de Mmn (k) la forman las matrices Eij Mmn (k) con un 1 en el lugar (i, j)-simo y ceros en el resto. Teorema II.3.5. La aplicacin : Homk (V, V ) Mmn (k) que a cada aplicacin lineal T : V V le hace corresponder su matriz asociada respecto de las bases B y B es un isomorsmo de k-espacios vectoriales. Demostracin. La aplicacin es lineal. En efecto, dados T y S Homk (V, V ) tenemos que existen A = ( aij ) y B = (bij ) Mmn (k) tales que ( T ) = A y

MANUALES UEX
48

MTODOS MATEMTICOS PARA ESTADSTICA

m m (S) = B. Luego T (v j ) = i=1 aij vi y S(v j ) = i=1 bij vi , para j {1, . . . , n}. Por consiguiente, si y k,

(T + S)(v j ) = ( T (v j )) + (S(v j )) = ( aij vi ) + ( bij vi )


i =1 i =1

i =1

(aij + bij )vi ,

para cada j {1, . . . , m}. De donde se sigue que la matriz asociada a T + S es A + B = (aij + bij ), y por lo tanto que (T + S) = ( T ) + (S). Por ltimo, veamos que es biyectiva. Sea A = ( aij ) Mmn (k). Para cada j {1, . . . , n} denimos u j = a1j v1 + . . . + amj vm k. Es claro que existe una nica aplicacin lineal T Homk (V, V ) tal que T (v j ) = u j , j = 1, . . . , n, y que ( T ) = A. Esto prueba que es epiyectiva, y adems, al ser T nica, tenemos que es inyectiva. Probemos ahora que la composicin de aplicaciones lineales (cuando tenga sentido) corresponde al producto de matrices. Para ello consideramos un tercer k-espacio vectorial V de dimensin nita y una base B = {v1 , . . . , v p } de V . Proposicin II.3.6. Sean T : V V y S : V V dos aplicaciones lineales. Si A = ( aij ) Mmn es la matriz asociada a T respecto de B y B y B = (bli ) M pm es la matriz S respecto de B y B , entonces C = B A es la matriz asociada a S T respecto de B y B . Demostracin. Para cada j {1, . . . , n} tenemos que S T (v j )

= S( T (v j )) = S im 1 aij vi = im 1 aij S(vi ) = = = im 1 aij l =1 bli vl =


p

= l =1 im 1 bli aij vl =

m De donde sigue que la matriz asociada a S T es C = i=1 bli aij M pn (k). Por la denicin de producto de matrices, concluimos que C = B A.

A continuamos veremos una caracterizacin de los automorsmos de un espacio vectorial de dimensin nita en trminos de su matriz asociada.

Demostracin. Basta tener en cuenta que T Endk (V ) es un automorsmo si, y slo si, T : V V es una aplicacin lineal biyectiva si, y slo si, existe T 1 Endk (V ) tal que T T 1 = T 1 T = IdV si, y slo si, por la proposicin II.3.6, A B = B A = In , donde B Mn (k) es la matriz

MANUALES UEX
49

Corolario II.3.7. Sea V un k-espacio vectorial de dimensin nita, B = {v1 , . . . , vn } una base de V y T Endk (V ). Si A es la matriz asociada a T respecto de B , entonces T es un automorsmo si, y slo si, A es invertible, en cuyo caso, la matriz asociada a T 1 respecto de B es A1 .

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

asociada a T 1 respecto de B si, y slo si, A es invertible y B = A1 es la matriz asociada a T 1 respecto de B .

4.

Cambios de bases. Teorema del rango

Sabemos que si V un k-espacio vectorial de dimensin nita n > 0 y B = {v1 , . . . , vn } es una base de V, para cada un vector v V, existe un vector de kn que llamamos coordenadas de v respecto de B . Si B = {v1 , . . . , vn } es otra base de V nos preguntamos ahora qu relacin existe entre las coordenadas de v respecto de B y su coordenadas respecto de B . Denicin II.4.1. Con la notacin anterior, denimos la matriz, M(B , B ), del cambio de la base B a la base B como la matriz asociada al endomorsmo identidad de V respecto de las bases B y B , es decir, M (B , B ) Mn (k) es la matriz cuya columna j-sima corresponde a las coordenadas v j respecto de B, v1 M(B , B ) a11 a21 . . . am1 v2 a12 a22 . . . am2 ... ... ... .. . ... vn a1n a2n . . . amn v1 v2 . . . vm

MANUALES UEX

Si convenimos que B es la base antigua y que B es la base nueva, entonces la matriz M (B , B ) nos permite obtener las coordenadas de un vector v V respecto de la base nueva a partir de sus coordenadas respecto de la base antigua. Para ello, por la proposicin II.3.3, basta considerar las ecuaciones de IdV respecto de las bases B y B . As, si las coordenadas de v respecto de B son (1 , . . . , n ) y sus coordenadas respecto de B son (1 , . . . , n ), entonces 1 1 . . M(B , B ) . = . . . n n Por otra parte, si consideramos la matriz M (B , B) del cambio de la base B a la base B , entonces, por la proposicin II.3.6, M (B , B) M (B , B ) (M (B , B ) M (B , B), respectivamente) es la matriz asociada al endomorsmo identidad de V respecto de la base B (respecto de la base B , respectivamente), es decir, M (B , B) M(B , B ) = In (M (B , B ) M (B , B) = In ), donde In es la matriz identidad de orden n. Resumiendo, la matriz M (B , B ) es invertible y M (B , B )1 es la matriz del cambio de la base B a la base B .

50

MTODOS MATEMTICOS PARA ESTADSTICA

Una vez que hemos visto cmo afectan los cambios de bases a las coordenadas de un vector, nos interesa saber cmo cambia la matriz asociada a una aplicacin lineal al cambiar las bases. Si V y V son dos k-espacios vectoriales de dimensin nita, B1 es una base de V, B1 es una base de V y T Homk (V, V ), tenemos denida la matriz MB1 ,B ( T ) de T respecto de las bases B1 y B1 . 1 Consideremos ahora otras bases B2 y B2 de V y V , respectivamente, y las matrices, M (B2 , B1 ) y M(B1 , B2 ), de cambio de la base B2 a la base B1 y de la base B1 a la base B2 , respectivamente. Teniendo en cuenta que IdV T IdV = T, la proposicin II.3.6 y el siguiente diagrama conmutativo, V
IdV T

-V
IdV

? V

? -V ,

se concluye que la matriz asociada a T respecto de las bases B2 y B2 es (II.4.4) MB2 ,B ( T ) = M(B2 , B1 )1 MB1 ,B ( T ) M (B2 , B1 ).
2 1

Esta expresin se llama frmula del cambio de base Nota II.4.2. Si observamos detenidamente la frmula (II.4.4) y la comparamos con la denicin de matrices equivalentes (denicin II.1.1) , podemos armar que las matrices MB1 ,B ( T ) y MB2 ,B ( T ) son equivalentes. Por con2 1 siguiente, dos matrices asociadas a una misma aplicacin lineal son equivalentes. El recproco de esta armacin tambin es cierto, ya que si B = Q1 AP Mmn (k), con P y Q invertibles, entonces A y B denen la misma aplicacin lineal de Rn en Rm , siendo A la matriz asociada a la aplicacin respecto de las bases usuales de Rn y Rm , y B la matriz asociada respecto de las bases de Rn y Rm determinadas por las columnas de P y Q, respectivamente. Ejemplo II.4.3. Sea A Mmn (R). La matriz A dene una aplicacin lineal de Rn en Rm ; en efecto, la aplicacin Rn Rm ; x Ax Rm es lineal. De hecho, se trata de la aplicacin lineal cuya matriz respecto de las bases usuales de Rn y Rm es A. De aqu que a menudo tambin se denote por A a la aplicacin lineal, y se escriba im( A) y ker( A), es decir, im( A) = { Ax | x Rn } y ker( A) = {x Rn | Ax = 0}.

Por otra parte, destacamos que si A tiene rango r y R = Q1 AP es su forma reducida, con P Mn (R) y Q Mm (R) invertibles, entonces las ltimas n r columnas de P forman una base de ker( A) y las r primeras columnas de Q forman una base de im( A). Esta relacin entre el rango de A

MANUALES UEX
51

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

y las dimensiones de su ncleo e imagen no es casual, y volveremos a ellas al nal de la siguiente seccin. Finalizamos esta seccin con un comentario sobre las transformaciones elementales por las y explorando la relacin que existe entre el rango de una aplicacin lineal (esto es, la dimensin su imagen) y su matriz asociada. Nota II.4.4. Con la misma notacin que antes, las operaciones elementales por las en A = MB1 ,B ( T ) (vase la denicin II.1.2) no son ms que cambios 1 de bases en V . En efecto: Tipo I: La matriz que se consigue al intercambiar las las i-sima y l-sima de A es la matriz asociada a T respecto de B1 y la base B2 de V que se obtiene al permutar el vector i-simo y l-simo de la base B1 (comprubese). Tipo II: La matriz que se consigue al multiplicar la la i-sima de A por k \ {0} es la matriz asociada a T respecto de las bases B1 y la base B2 que se obtiene al sustituir el vector vi de B1 por 1 vi (comprubese). Tipo III: La matriz que se consigue al sumar a la la i-sima de A su la l-sima multiplicada por k es la asociada a T respecto de B1 y la base B2 de V que se obtiene al sustituir el vector vl de B2 por vl vi con i = l (comprubese). Anlogamente se puede comprobar que las operaciones elementales por columnas en A son cambios de base en V. Teorema del rango. Sean V y V dos k-espacios vectoriales de dimensiones nitas n y m, respectivamente, B1 y B1 bases de V y V , respectivamente, y T una aplicacin lineal de V en V . Si A Mmn (k) es la matriz asociada a T respecto de B y B , entonces 1. rg( A) = dim(Im( T )). 2. rg( A) = n dim(ker( T )).

MANUALES UEX

Demostracin. Sabemos que, si r = rg( A), existen unas matrices P Mn (k) y Q = Mm (k) invertibles tales que Q1 AP = Ir 0 0 0

52

(vase el corolario II.1.8). Estas matrices son producto de las matrices elementales que se han ido obteniendo al realizar operaciones elementales por las y por columnas en A. Luego, segn lo explicado en la nota II.4.4, existen una base B2 de V y una base B2 de V , tales que P = M(B2 , B1 ) y Q = M(B2 , B1 ),

MTODOS MATEMTICOS PARA ESTADSTICA

y por consiguiente, que Ir 0 0 0

es la matriz de T respecto de B2 y B2 . De donde se sigue que los primeros r vectores de B2 forman un base de Im( T ) y que los ltimos n r vectores de B2 forman una base de ker( T ). 5. Sistema de ecuaciones lineales (I)

A lo largo de esta seccin V y V sern dos k-espacios vectoriales de dimensiones nitas n > 0 y m > 0, respectivamente, B = {v1 , . . . , vn } una base de V y B = {v1 , . . . , vm } una base de V . Las ecuaciones de la aplicacin lineal T respecto de las bases B y B (vase la expresin II.3.3) se pueden entender como un sistema lineal de ecuaciones, lo cual es no es sorprendente si tenemos en cuenta la siguiente denicin. Denicin II.5.1. Llamaremos sistema lineal de m ecuaciones y n incgnitas a todo par ( T, b) donde T Hom(V, V ) y b V ; abreviadamente lo denotaremos por T (x) = b. Un vector v V se dice que es solucin del sistema T (x) = b si T (v) = b; por lo tanto un sistema lineal de ecuaciones tiene solucin si, y slo si, b Im( T ). Un sistema se dice compatible si tienes soluciones, incompatible si no tiene soluciones, y determinado si tiene una nica solucin. Un sistema lineal de ecuaciones T (x) = b es homogneo cuando b = 0V . Es claro que un sistema homogneo es siempre compatible, pues 0V Im( T ), y que el conjunto de sus soluciones es ker( T ). Cada sistema lineal de ecuaciones T (x) = b tiene asociado un sistema homogneo T (x) = 0V . Nota II.5.2. Sean T Homk (V, V ) y A = ( aij ) Mmn (k) la matriz asociada a T respecto de las bases B y B . Sabemos que el ncleo de T son los vectores x V tales que T (x) = 0V . Luego, se tiene que v ker( T ) si, y slo si, sus coordenadas respecto de B son solucin del sistema de ecuaciones lineales homogneo Ax = 0. Proposicin II.5.3. Sea T (x) = b un sistema lineal de ecuaciones compatible. Si v0 V es una solucin particular de T (x) = b, entonces el conjunto de todas las soluciones del sistema es v0 + ker( T ) = {v0 + v | v ker( T )}. Demostracin. La demostracin es bsicamente una comprobacin y se deja como ejercicio al lector.

MANUALES UEX
53

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Obsrvese que de la proposicin anterior se deduce que un sistema lineal de ecuaciones T (x) = b es compatible determinado si, y slo si, b Im( T ) y ker( T ) = {0V }, es decir, si, y slo si, b Im( T ) y T es inyectiva. Este ltimo hecho constituye la demostracin del teorema de RouchFrbenius que enunciaremos y probaremos a continuacin, para lo cual es necesario denir un par de concepto previos. Denicin II.5.4. Sean T Homk (V, V ) y b V un sistema de ecuaciones lineales. Si A = ( aij ) Mmn (k) es la matriz asociada a T respecto de las bases B y B y (b1 , . . . , bm ) son las coordenadas de b respecto de B , se llama matriz ampliada asociada al sistema T (x) = b a la matriz ( A|b) Mm(n+1) (k) denida de la siguiente forma: a11 a12 . . . a1n b1 a21 a22 . . . a2n b2 ( A|b) = . . . . .. . . . . . . . am1 am2 ... amn bm Teorema de Rouch-Frbenius. Con la notacin anterior, el sistema lineal de ecuaciones T (x) = b es compatible si, y slo si, las matrices A y ( A|b) tienen el mismo rango, y es compatible determinado si y slo si las matrices A y ( A|b) tienen rango igual a dim V, es decir, el rango es mximo. Demostracin. T (x) = b es compatible si, y slo si, b Im( T ) si, y slo si, b es combinacin lineal de { T (v1 ), . . . , T (vn )} si, y slo si, las coordenadas de b respecto de B son combinacin lineal de las coordenadas de { T (v1 ), . . . , T (vn )} respecto de B si, y slo si, rg( A) = rg( A|b), por el ejercicio 4. Para ver la segunda parte de la proposicin basta tener en cuenta lo anterior y que T es inyectiva si, y slo si, ker( T ) = {0V }, si, y slo si, rg( A) = n, por el Teorema del rango.

MANUALES UEX
54

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicios del tema II Ejercicio 1. Sean A Mm p (k), B M pn (k) y C = A B Mmn (k). Probar que si A = ( ail ) Mm p (k) es la matriz obtenida al hacer una operacin elemental por las en A, entonces C = A B es la matriz obtenida al hacer en C la misma operacin elemental por las. [sese la denicin del producto de matrices.] Ejercicio 2. Probar que
1. Til 1 = Tli = ( Til )t . 2. ( Mi ())t = Mi () y Mi ()1 = Mi (1/), con k \ {0}. 3. (Sil ())t = Sli () y Sil ()1 = Sil (), con k.

Ejercicio 3. A una matriz A M23 se le aplican, por el orden dado, las siguientes transformaciones elementales: 1. a la la primera se suma la segunda. 2. a la la tercera se le suma la primera y despus la segunda. 3. la la primera se multiplica por 2. Determinar las matrices P y Q tales que la matriz obtenida despus de realizar estas transformaciones sea A = QAP1 . Si en lugar de aplicar las transformaciones elementales en el orden dado se aplican en el orden 1, 3 y 2 se obtiene el mismo resultado? Y si se aplican en el orden 3, 2 y 1? Ejercicio 4. Sea A Mmn (k). Probar que si la la (o columna) i-sima de la matriz A es combinacin lineal del resto y A es la submatriz de A que se obtiene eliminando la la (o columna) i-sima de A, entonces rg( A) = rg( A ). Ejercicio 5. Sea A Mmn (k). 1. Si Q Mn (k) y P Mn (k) son invertibles, entonces rg( Q1 A) = rg( AP) = rg( A). 2. rg( A + B) rg( A) + rg( B), para cualquier matriz B Mmn (k). 3. rg( AB) mn(rg( A), rg( B)), para cualquier matriz B Mn p (k). 4. Si A y B Mn (k), entonces rg( AB) rg( A) + rg( B) n. Ejercicio 6. Calcular el rango de la matriz 2 2 2 1 1 1 1 3 0 2 1 2 1 1 1 3 1 2 2 1 4 2 2 6 0

4 1 3 1 8

MANUALES UEX
55

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


Denicin. Se dice que una matriz A Mmn (k) tiene rango pleno por las si rg( A) = m y diremos que tiene rango pleno por columnas si rg( A) = n. Ejercicio 7. Sean A Mn p (k) y B M pn . Si el producto de dos matrices A B tiene determinante no nulo, cules de las siguientes armaciones son necesariamente ciertas? 1. 2. 3. 4. A tiene rango pleno por las. B tiene rango pleno por las. A tiene rango pleno por columnas. B tiene rango pleno por columnas.

Ejercicio 8. Si una matriz B tiene rango pleno por columnas, podemos concluir que rg( AB) = rg( A)? y que rg( BA) = rg( A)? Si C tiene rango pleno por las, podemos concluir que rg( AC ) = rg( A)?y que rg(CA) = rg( A)? Ejercicio 9. Probar que si una matriz A tiene rango pleno por columnas (respectivamente por las), entonces la forma reducida de A puede obtenerse haciendo slo transformaciones elementales en A por las (respectivamente por columnas). Ejercicio 10. Obtener la matriz asociada a la aplicacin lineal T : R2 R3 determinada por la igualdades f (1, 2) = (1, 1, 2), f (2, 3) = (2, 10, 1) respecto de las bases B = {(1, 1), (1, 3)} de R2 y B = {(1, 0, 1), (1, 1, 0), (0, 0, 2)} de R3 . Ejercicio 11. Sea T : R2 R3 la aplicacin lineal denida como T ( x, y) = ( x + y, x + y, x + y). 1. Hallar la matriz asociada a T en las bases usuales. 2. Calcular bases de ker( T ) e Im( T ). Ejercicio 12. Consideremos la aplicacin lineal T : R3 R4 que respecto de las bases usuales de R3 y R4 viene dada por

MANUALES UEX

T ( x, y, z) = ( x + z, y + z, x + z, y + z) 1. Calcular la matriz A de T respecto de las bases usuales de R3 y R4 . 2. Calcular el rango r de A y determinar matrices P y Q tales que Q1 AP = 3. Escribir una base de ker( T ). 4. Escribir una base de Im( T ). Ir 0 0 0 .

56

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicio 13. En R3 consideramos una base B ja. Sean T y S EndR (R3 ) tales que sus matrices asociadas respecto de B son A y B, donde 1 1 2 0 2 1 A = 2 1 1 , B = 1 3 1 . 1 2 1 1 1 0 Calcular las matrices asociadas a las aplicaciones S T y T S respecto de B . Ejercicio 14. Calcular las coordenadas de un vector de R3 respecto de la base B1 = {(1, 2, 3), (3, 4, 0), (1, 1, 0)} sabiendo que sus coordenadas respecto de la base B2 = {(1, 1, 0), (0, 1, 1), (1, 0, 1)} son (1, 1, 1). Ejercicio 15. Sean B1 = {e1 , e2 }, B2 = {u1 , u2 } y B3 = {v1 , v2 } tres bases de R2 tales que u1 = e1 , u2 = 2e1 + e2 , v1 = e1 y v2 = e1 + 4e2 . Usando las matrices de cambio de bases, calcular las coordenadas del vector u = 2u1 + 5u2 respecto de la base B3 . Ejercicio 16. Dada la aplicacin lineal T : R3 R2 denida por f ( x, y, z) = (2x + y, y z), calcular la matriz asociada a T respecto de: 1. las bases usuales de R3 y R2 ; 2. las bases B = {(1, 1, 1), (0, 1, 2), (0, 2, 1)} de R3 y B = {(2, 1), (1, 0)} de R2 . Ejercicio 17. Sea T : V V una aplicacin lineal entre k-espacios vectoriales de dimensin nita n. Probar que existen bases B y B de V y V , respectivamente, tales que la matriz asociada a T respecto de B y B es Ir 0 0 0 ,

donde Ir es la matriz identidad de orden r n. Qu signicado tiene r?

MANUALES UEX
57

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

MANUALES UEX
58

MTODOS MATEMTICOS PARA ESTADSTICA

TEMA III

Matrices cuadradas y endomorsmos

n este tema vamos a estudiar los endomorsmos de un espacio vectorial desde el punto de vista de las matrices que los representan. En cualquier caso, dado que un endomorsmo no es ms que un caso particular de aplicacin lineal, siempre tendremos los resultados anlogos a los del tema anterior adaptados a los endomorsmos. Por ejemplo, Ejercicio. Sean V un k -espacio vectorial de dimensin nita, B = {v1 , . . . , vn } y T Endk (V ). Probar que: 1. La matriz asociada a T respecto de B es una matriz MB ( T ) cuadrada de orden n con coecientes en k. 2. Existe un isomorsmo : Endk (V ) Mn (k). 3. El k -espacio vectorial Endk (V ) es de dimensin nita y su dimensin es n2 . 4. La matriz del endomorsmo identidad de V respecto de B es In , es decir, la matriz identidad de orden n. Buscando la analoga con el tema anterior, podemos preguntarnos si dos matrices cuadradas A y B Mn (k) distintas representan un mismo endomorsmo aunque respecto de diferentes bases. En este caso, la frmula del cambio de base determina una relacin de equivalencia sobre las matrices cuadradas que llamaremos semejanza. Se demuestra que dos matrices cuadradas son semejantes si, y slo si, representan a un mismo endomorsmo, y se plantea el problema de determinar de forma efectiva si dos matrices son semejantes. A diferencia de lo que ocurra en el caso de la equivalencia de matrices, el problema es mucho ms complicado, ya que require un planteamiento terico avanzado. En la segunda seccin del tema, se comienza deniendo el polinomio caracterstico de una matriz, que nos da una condicin necesaria (aunque no suciente) para que dos matrices sean semejantes. A continuacin, se muestra que el polinomio caracterstico es un invariante asociado al endomorsmo, es decir, no depende de las bases elegidas. De este modo nos centramos en
59

MANUALES UEX
59

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

60

los endomorsmos como objeto geomtrico asociado a las matrices cuadradas. As, denimos los autovalores de un endomorsmo como las races de su polinomio caracterstico, dando a continuacin otras deniciones equivalentes que nos permiten denir qu se entiende por autovector asociado a un autovalor de un endomorsmo. La seccin tercera est dedicada a la diagonalizacin; como es natural, lo primero que hacemos es denir qu entendemos por endomorsmo y matriz diagonalizable; as, diremos que un endomorsmo es diagonalizable si existe una base respecto de la cual su matriz es diagonal; y , por lo tanto, un matriz ser diagonalizable si es semejante a una matriz diagonal. A continuacin, se dan otras deniciones equivalentes de endomorsmo diagonalizable, y se demuestra que efectivamente son equivalentes. De donde se obtiene un primer criterio de diagonalizacin, y una condicin suciente para que un endomorsmo sea diagonalizable. Concretamente, si un endomorsmo tiene tantos autovalores distintos como la dimensin del espacio vectorial, entonces es diagonalizable. Una condicin necesaria y suciente para que un endomorsmo sea diagonalizable nos la proporciona el llamado criterio de diagonalizacin por el polinomio caracterstico. La clave de este otro criterio de diagonalizacin est en la acotacin de las dimensiones de los subespacios propios asociados a los autovalores del endomorsmo, esta cota superior la proporciona lo que se conoce como multiplicidad del autovalor. De este modo, usando el concepto de multiplicidad, se obtiene un importante criterio de diagonalizacin. La principal ventaja que presenta este criterio de diagonalizacin es que para probar que un endomorsmo no es diagonalizable basta encontrar un subespacio propio cuya dimensin sea distinta de la multiplicidad del autovalor correspondiente. Si interpretamos los resultados obtenidos hasta el momento en trminos de matrices, podemos armar que el problema de la semejanza est resuelto para las matrices diagonalizables. En efecto, dos matrices diagonalizables son semejantes si, y slo si, tienen los mismos autovalores con idnticas multiplicidades. En resumen, los invariantes geomtricos asociados a la semejanza de matrices diagonalizables son sus autovalores y las multiplicidades de stos. Pero, qu ocurre cundo nos encontramos con una matriz no diagonalizable? Responderemos parcialmente a esta pregunta en la ltima seccin. En la seccin cuarta, estudiamos con cierto detalle los subespacios invariantes por un endomorsmo. La relacin con lo anterior es clara si tenemos en cuenta que el subespacio vectorial generado por los autovectores asociados a un autovalor de un endomorsmo es invariante por el endomorsmo. En cualquier caso, profundizamos en la teora de subespacios invariantes por un endomorsmo con un segundo objetivo: justicar el inters prctico de

MANUALES UEX

MTODOS MATEMTICOS PARA ESTADSTICA

la descomposicin de un espacio vectorial en subespacios invariantes por un endomorsmo a la hora de estudiar el endomorsmo en cuestin (y en particular las matrices asociadas al mismo). Para terminar el tema, abordamos el problema del clculo de la forma cannica de Jordan de una endomorsmo (o una matriz cuadrada) cuando el polinomio caracterstico tiene todas sus races en el cuerpo base. Para ello se comienza dando las deniciones de bloque y matriz de Jordan, de forma cannica de Jordan. A continuacin se introducen los subespacios propios generalizados asociados a un autovalor, y entre otras cuestiones, se prueba que estos subespacios propios generalizados son invariantes por el endomorsmo, y que para cada autovalor existe una cadena creciente de subespacios propios generalizados que estabiliza en lo que denominamos subespacio propio mximo del autovalor. El primer resultado importante de esta seccin es el teorema que arma que (a) La dimensin del subespacio propio mximo de autovalor coincide con su multiplicidad. (b) Si todos los autovalores de un endomorsmo estn en el cuerpo base, el espacio vectorial descompone en suma directa de los subespacios propios mximos asociados a los autovalores. Veamos que los criterios de diagonalizacin estudiados en la tercera seccin no son ms que el caso particular del teorema anterior en el caso diagonalizable. El teorema anterior permite jar nuestra atencin en cada uno de los subespacios propios mximos de forma individual mediante la restriccin del endomorsmo a cada uno de ellos. Luego, a partir de este momento, para simplicar la notacin, nos centraremos en el caso de los endomorsmos con un nico autovalor de multiplicidad igual a la dimensin del espacio vectorial. A continuacin, denimos qu se entiende por particin de la multiplicidad, y demostramos que la particin de la multiplicidad determina la forma cannica de Jordan del endomorsmo. De este modo, concluimos que la forma cannica de Jordan queda determinada por los autovalores, en este caso , sus multiplicidades, en este caso n, y las particiones de multiplicidades, en este caso, p1 p2 . . . ps > 0. Ms concretamente, en nuestro caso, la forma cannica de Jordan consiste en ps p s 1 p s . . . p1 p2 bloques de orden s bloques de orden s 1 bloques de orden 1

Ntese que estos nmeros dependen exclusivamente del endomorsmo y no de la base elegida, por lo que podemos armar que la forma cannica de Jordan

MANUALES UEX
61

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

es nica salvo permutacin de los bloques. Lo importante de la forma cannica de Jordan es que se puede construir automticamente a partir de los autovalores, sus multiplicidades y las particiones de multiplicidades. Aunque todas las situaciones anteriores se han ido ilustrando con ejemplos, resaltamos aqu la necesidad de realizar un ejemplo para facilitar la compresin del clculo de la forma cannica de Jordan. En resumen, tambin podemos armar que el problema de la semejanza de matrices queda resuelto en este caso, si tenemos en cuenta que dos matrices con todos sus autovalores en el cuerpo base son semejantes si, y slo si, tienen los mismos autovalores con idnticas multiplicidades y particiones de multiplicidades. En este tema, hemos utilizado el captulo 6 de [BCR07] y el captulo 10 de [Her85] para las primeras secciones. Para la ltima seccin hemos seguido principalmente el captulo 5 de [SV95], aunque las secciones 1 y 2 del captulo IV de [MS06] tambin han sido de utilidad. 1. Matrices semejantes

Nota III.1.1. Sean V un k -espacio vectorial de dimensin nita, B y B dos bases de V y T Endk (V ). Si MB ( T ) es la matriz asociada a T respecto B , MB ( T ) es la matriz asociada a T respecto B y M(B , B ) es del cambio de la base B a B , entonces la matriz asociada a T respecto B es (III.1.1) MB ( T ) = M(B , B)1 MB ( T ) M (B , B),

segn la frmula del cambio de base. La frmula (III.1.1) justica en parte la siguiente denicin. Denicin III.1.2. Sean A y B Mn (k). Se dice que A y B son semejantes si existe una matriz invertible P Mn (k) tal que B = P1 AP. La semejanza de matrices es una relacin de equivalencia, es decir, verica las propiedades reexiva, simtrica y transitiva (comprubese). Proposicin III.1.3. Dos matrices A y B Mn (k) son semejantes si, y slo si, A y B Mn (k) son matrices asociadas a un mismo endomorsmo T Endk (V ) respecto de ciertas bases B y B de V, respectivamente.

MANUALES UEX
62

Demostracin. Sean A = ( aij ), B = {v1 , . . . , vn } una base de V y T el endomorsmo de V denido por T (v j ) = a1j v1 + . . . + anj vn , para cada j = 1, . . . , n. Obsrvese que, por construccin, la matriz asociada T respecto de B es precisamente A. Como A y B Mn (k) son semejantes, existe una matriz invertible P Mn (k) tal que B = P1 AP. De modo que si B es la familia de vectores cuyas coordenadas respecto de B son las columnas de P, entonces B es una base de V y P1 es la matriz del cambio de base de B a B (pues P es invertible).

MTODOS MATEMTICOS PARA ESTADSTICA

Usando ahora que B = P1 AP, por la frmula del cambio de base para la matriz de asociada a un endomorsmo, se sigue que B es la matriz asociada a T respecto de B . La otra implicacin es una consecuencia directa de la frmula del cambio de base. Por consiguiente, segn el resultado anterior, dos matrices cuadradas son semejantes si, y slo si, representan a un mismo endomorsmo. No obstante, el ejercicio 3 pone de maniesto que determinar de forma efectiva si dos matrices son semejantes es ms difcil1 que determinar si son equivalentes (donde bastaba calcular la forma reducida por las). El objetivo de este tema consistir en dar condiciones necesarias y sucientes para que dos matrices A y B sean semejantes; en cuyo caso, calcularemos la matriz P tal que B = P1 AP. Adems, dada A determinaremos un representante especial de su clase de equivalencia que llamaremos forma cannica de Jordan de A. Nota III.1.4. Obsrvese que el determinante y la traza se conservan por semejanza, es decir, si A y B son matrices semejantes, entonces | A| = | B| y tr( A) = tr( B). Luego, por la proposicin anterior, podemos armar que la traza y el determinante son invariantes por cambios de base, lo que pone de maniesto su naturaleza geomtrica. 2. Polinomio caracterstico. Autovalores y autovectores

A lo largo de esta seccin V denotar un espacio vectorial sobre un cuerpo k (por ejemplo, k = R C) de dimensin nita n > 0. Denicin III.2.1. Sea A = ( aij ) Mn (k). Se llama polinomio caracterstico de la matriz A , y se denota por A ( x ), al determinante de la matriz x In A Mn (k( x )), donde In es la matriz identidad de orden n y k( x ) el cuerpo de las fracciones racionales en una indeterminada con coecientes en k. Es decir, x a11 a21 . . .

A ( x ) = | x In A| =

a12 x a22 . . . an2

... ... ...

a1n a2n . . .
x ann

an1

1Para determinar si dos matrices A y B M (k) son semejantes hay que determinar si el n

sistema de ecuaciones XA BX = 0 tiene alguna solucin invertible.

MANUALES UEX
63

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Obsrvese que el grado del polinomio caracterstico coincide con el orden de la matriz y es unitario2 (ejercicio 4). Proposicin III.2.2. Sean T Endk (V ) y B y B dos bases de V. Si A y B Mn (k) son las matrices asociadas a T respecto de B y B , respectivamente, entonces el polinomio caracterstico de A es igual al polinomio caracterstico de B, es decir, A ( x ) = B ( x ). Demostracin. Si P Mn (k) es la matriz del cambio de base de B a B , entonces, por la frmula del cambio de base, B = P1 A P. Por lo tanto,

B ( x ) = | x In B| = | x P1 P P1 AP| = | P1 xIn P P1 AP| = | P1 ( xIn A) P| = | P1 | | xIn A)| | P| = | P1 | | P| | xIn A| = | xIn A| = A ( x ).

Corolario III.2.3. Sean A y B Mn (k). Si A y B son semejantes, entonces tienen el mismo polinomio caracterstico. Demostracin. Es una consecuencia inmediata de la proposicin III.2.2 sin ms que tener en cuenta la denicin de matrices semejantes (vase la denicin III.1.2). El recproco del resultado anterior no es cierto en general como se deduce del siguiente ejemplo. Ejemplo III.2.4. Sea V = R2 . Sabemos que la matriz asociada al endomorsmo nulo de R2 respecto de cualquier base de R2 es la matriz nula de orden 2. El polinomio caracterstico del endomorsmo nulo es x2 . Si consideramos la matriz A= 0 0 1 0 ,

MANUALES UEX

obtenemos que el polinomio caracterstico de A tambin es x2 . Sin embargo, es del todo imposible que A sea la matriz del endomorsmo nulo respecto de ninguna base de R2 , pues, por ejemplo A(0, 1)t = (0, 0)t . La proposicin III.2.2 asegura que los polinomios caractersticos de las distintas matrices asociadas a un mismo endomorsmo son iguales. Esto dota de sentido a la siguiente denicin.
2Se dice que un polinomio es unitario (o mnico) si el coeciente del trmino de mayor

64

grado es uno.

MTODOS MATEMTICOS PARA ESTADSTICA

Denicin III.2.5. Sea T Endk (V ). Se llama polinomio caracterstico del endomorsmo T , y se denota por T ( x ), al polinomio caracterstico de cualquiera de las matrices asociadas a T. Autovalores y autovectores. Denicin III.2.6. Sea T Endk (V ). Se dice que k es un autovalor o valor propio de T si T () = 0, es decir, si es una raz del polinomio caracterstico de T. Proposicin III.2.7. Sean T Endk (V ) y k. Las armaciones siguientes son equivalentes (a) es un autovalor de T. (b) El endomorsmo IdV T de V no es inyectivo, es decir, ker( IdV T ) = { 0 }. (c) Existe v V no nulo tal que T (v) = v. Demostracin. (a) (b) Sea A Mn (k) la matriz asociada a T respecto de alguna base B de V. Entonces, como la matriz asociada a IdV T respecto de B es In A, , tenemos que k es un autovalor de T si, y slo si, k es una raz de |In A| = T ( x ), si y slo si, por el corolario II.3.7, |In A| = 0, si, y slo si, IdV T no es inyectivo. La equivalencia (b) (c) es inmediata. Ntese que, como el grado del polinomio caracterstico de un endomorsmo T de V es n = dim(V ) (ejercicio 4), entonces, segn el Teorema Fundamental del lgebra (vase, por ejemplo, el teorema 2.1 de la pgina 86 de [Nav96]), el polinomio caracterstico tiene, a lo sumo n races en k. Luego, podemos armar que el nmero de autovalores de un endomorsmo de V es menor o igual que n. Ejemplos III.2.8. Sea V = R2 y T EndR (V ). i) Si T (v1 , v2 ) = (v1 , v2 ), para todo (v1 , v2 ) R2 , entonces la matriz asociada a T respecto de la base usual de R2 es A= 1 0 0 1 ,

luego el polinomio caracterstico de T es

T ( x ) = | xI2 A| =

x1 0

0 x1

= ( x 1)2 ,

y por lo tanto el nico autovalor de T es = 1.

MANUALES UEX
65

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

ii) Si T (v1 , v2 ) = (v1 v2 , v2 ), para todo (v1 , v2 ) R2 , entonces la matriz asociada a T respecto de la base usual de R2 es A= 1 0

1 1

luego el polinomio caracterstico de T es

T ( x ) = | xI2 A| =

x1 0

1 x1

= ( x 1)2 ,

y por lo tanto el nico autovalor de T es = 1. iii) Si T (v1 , v2 ) = (v1 , v2 ), para todo (v1 , v2 ) R2 , entonces la matriz asociada a T respecto de la base usual de R2 es A=

1 0 0 1

luego el polinomio caracterstico de T es

T ( x ) = | xI2 A| =

x+1 0

0 x1

= ( x + 1)( x 1),

y por lo tanto los nicos autovalores de T son = 1. iv) Si T (v1 , v2 ) = (v2 , v1 ), para todo (v1 , v2 ) R2 , entonces la matriz asociada a T respecto de la base usual de R2 es A= 0 1

1 0

luego el polinomio caracterstico de T es

T ( x ) = | xI2 A| =

x 1 1 x

= x2 + 1,

MANUALES UEX

y por lo tanto T no tiene autovalores. Obsrvese que si en vez de ser V = R2 fuese V = C2 (como espacio vectorial sobre C), entonces T tendra dos autovalores distintos 1 = i y 2 = i. Denicin III.2.9. Sean T Endk (V ) y k un autovalor de T. El subespacio ker( IdV T ) se denomina subespacio propio de T asociado a . Los vectores no nulos de ker( IdV T ) se llaman autovectores o vectores propios de T asociados a .

66

MTODOS MATEMTICOS PARA ESTADSTICA

Espectro de una matriz. Teniendo en cuenta que una matriz A Mn (k) dene el endomorsmo

kn kn ; v Av
de kn , que abusando la notacin tambin denotaremos por A (ntese que se trata del endomorsmo de kn cuya matriz respecto de la base usual de kn es A) tiene perfecto sentido hablar de los autovalores y los autovectores A. En particular, por el corolario III.2.3, se tiene que si dos matrices son semejantes, entonces tienen los mismos autovalores. Obsrvese tambin que, por el Teorema Fundamental del lgebra (vase, por ejemplo, el teorema 2.1 de la pgina 86 de [Nav96]), una matriz A Mn (R) tiene n autovalores complejos posiblemente repetidos. Denicin III.2.10. Sea A Mn (C). (a) Llamaremos espectro de A al conjunto de todos los autovalores reales o complejos de la matriz A y lo representaremos por sp( A). (b) El nmero real no negativo

( A) = m x {|| : sp( A)} a


es el radio espectral de A, donde || es el mdulo de . Como se observa, el radio espectral de una matriz es un nmero real, igual al radio del crculo ms pequeo centrado en el origen que contiene a todos los autovalores de la matriz. 3. Diagonalizacin

Denicin III.3.1. Sean V un k -espacio vectorial de dimensin nita y T Endk (V ). Se dice que T es diagonalizable si existe una base B de V tal que la matriz asociada a T respecto de B es diagonal.

...

asociada a T, entonces i , i = 1, . . . , n son los autovalores (no necesariamente distintos) de T.

MANUALES UEX
67

Nota III.3.2. Obsrvese que si T es un endomorsmo diagonalizable de V y D Mn (k) es una matriz diagonal, es decir, 1 0 . . . 0 0 2 . . . 0 D= . . .. . . . . . . . .

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


Se dice que una matriz A Mn (k) es diagonalizable si es semejante a una matriz diagonal. De hecho, si A es diagonalizable, entonces es semejante a una matriz diagonal tal que las entradas de la diagonal son los autovalores de A. Es ms, dos matrices diagonalizables son semejantes si, y slo si, son semejantes a la misma matriz diagonal. A continuacin daremos condiciones necesarias y sucientes para que un endomorsmo (o una matriz) sea diagonalizable. Lema III.3.3. Si y k son dos autovalores distintos de un endomorsmo T de V, entonces ker( IdV T ) y ker( T IdV ) estn en suma directa. Demostracin. Si v ker( T IdV ) ker( T IdV ), entonces T (v) = v = v. De donde se sigue que v = 0, por ser = . Ntese que del resultado anterior se deduce que si v1 y v2 V son autovectores asociados a distintos autovalores de un mismo endomorsmo de V, entonces {v1 , v2 } es un conjunto linealmente independiente. Teorema III.3.4. Sean 1 , . . . , r k los autovalores distintos de un endomorsmo T de V. Las siguientes armaciones son equivalentes (a) T es diagonalizable. (b) Existe una base de V formada por autovectores de T. (c) V = ker( T 1 IdV ) . . . ker( T r IdV ). Demostracin. (a) (b) Si T es diagonalizable, entonces existe una base B = {v1 , . . . , vn } de V tal que la matriz asociada a T respecto de B es diagonal. Por tanto, T (vi ) = vi , i = 1, . . . , n, para ciertos 1 , . . . , n k no necesariamente distintos entre s. Luego, 1 , . . . , n son autovalores (posiblemente repetidos) de T, y por lo tanto los vectores de B son autovectores de T. (b) (c) Sea B = {v1 , . . . , vn } una base de V formada por autovectores de T. Para cada i {1, . . . , n}, existe un autovalor j , j {1, . . . , r } tal que vi ker( j IdV T ). Luego, V = v1 , . . . , vn ker( T 1 IdV ) + . . . + ker( T r IdV ) V. Por consiguiente, V = ker( T 1 IdV ) + . . . + ker( T r IdV ). Finalmente, veamos que la suma es directa. Por el lema III.3.3, dos subespacios propios asociados a distintos autovalores estn en suma directa. Luego, el resultado es cierto para r 2. Supongamos, pues, que r es mayor o igual que tres. De este modo, si 1 , 2 y 3 son autovalores distintos de T (sin prdida de generalidad podemos suponer 3 = 0,) y v (ker( T 1 IdV ) + ker( T 2 IdV )) ker( T 3 IdV ) es no nulo, existen unos nicos v1 ker( T 1 IdV ) y v2 ker( T 2 IdV ) no nulos tales que v = v1 + v2 . De donde se sigue que 3 v = T (v) = 1 v1 + 2 v2 , y por lo tanto que v = 1 /3 v1 + 2 /3 v2 ;

MANUALES UEX
68

MTODOS MATEMTICOS PARA ESTADSTICA

luego, 1 = 2 = 3 , lo que no es posible por hiptesis. Repitiendo un razonamiento anlogo tantas veces como sea necesario se concluye el resultado buscado. (c) (a) Tomando una base de cada uno de los subespacio propios ker( T 1 IdV ), . . . , ker( T r IdV ) obtenemos una base de V respecto de la cual la matriz asociada a T es diagonal. Realmente, en la demostracin de la implicacin (a) (b), no slo hemos probado que existe una base formada por autovectores sino que toda base respecto de la cual T es diagonal est formada por autovectores. Del teorema III.3.4, se deduce el siguiente criterio de diagonalizacin. Corolario III.3.5. Un endomorsmo T Endk (V ) es diagonalizable si, y slo si, la suma de las dimensiones de los subespacios propios asociados a cada autovalor de T es igual a n = dim(V ). Demostracin. Si T es diagonalizable, por el teorema III.3.4, tenemos que la suma de las dimensiones de los subespacios invariantes asociados a cada autovalor de T es igual a n = dim(V ). Recprocamente, si 1 , . . . , r los distintos autovalores de T, entonces n dim(ker(1 IdV T ) . . . ker(r IdV T ))
r

i =1

dim(ker(i IdV T )) = n,

de donde se sigue que ker(1 IdV T ) . . . ker(n IdV T ) = V. Luego, por el teorema III.3.4, concluimos que T es diagonalizable.

Corolario III.3.6. Sea T Endk (V ). Si T posee n = dim(V ) autovalores distintos en k, entonces T es diagonalizable. Demostracin. Es una consecuencia inmediata del corolario III.3.5.

Ejemplo III.3.7. Sea V = R3 y T el endomorsmo de R3 cuya matriz asociada respecto de la base usual de R3 es 3 2 2 A = 0 2 1 . 0 5 2

MANUALES UEX
69

Ntese que el recproco del teorema anterior no es cierto en general; tmese por ejemplo T igual a la identidad de V, que es diagonalizable y tiene todos sus autovalores iguales.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

El polinomio caracterstico de T es T ( x ) = ( x + 3)2 ( x 3), por lo tanto los autovalores de T son 1 = 3 y 2 = 3. Calculemos el subespacio invariante asociado a cada autovalor. Para el autovalor 1 = 3, la matriz asociada a 1 IdV T respecto de la base usual de R3 es 6 2 2 3 In A = 0 5 1 . 0 5 1 Luego, dim(Im(1 IdV T )) = r (3 In A) = 2, y por tanto dim(ker(1 IdV T )) = dim(V ) dim(Im(1 IdV T )) = 3 2 = 1. Sabemos que los vectores de ker(1 IdV T ) son las soluciones del sistema lineal homogneo (1 IdV T )x = 0, es decir, los vectores de coordenadas ( x, y, z) respecto de la base usual de R3 que satisfacen 6 2 2 x 0 0 5 1 y = 0 . 0 0 5 1 z Resolviendo este sistema obtenemos que x = 2t, y = t, z = 5t con t R. Luego, los vectores de ker(1 IdV T ) son los que tienen coordenadas respecto de la base usual de R3 de la forma (2t, t, 5t) para algn t R. As, obtenemos que una base de ker(1 IdV T ) la forma, por ejemplo, el vector de coordenadas (2, 1, 5) respecto de la base usual de R3 . Para el autovalor 2 = 3 la matriz asociada a T respecto de la base usual de R3 es 0 2 2 (3) In A = 0 1 1 . 0 5 5 Luego dim(Im(2 IdV T )) = r (3In A) = 1, y por tanto dim(ker(2 IdV T )) = dim(V ) dim(Im(2 IdV T )) = 3 1 = 2.

MANUALES UEX
70

Sabemos que los vectores de ker(2 IdV T ) son las soluciones del sistema lineal homogneo (IdV T )x = 0, es decir, los vectores de coordenadas ( x, y, z) respecto de la base usual de R3 que satisfacen 0 2 2 x 0 0 1 1 y = 0 . 0 5 5 z 0 Resolviendo este sistema obtenemos que x = t, y = s, z = s con t y s R. Luego, los vectores de ker(1 IdV T ) son los que tienen coordenadas respecto de la base usual de R3 de la forma (t, s, s) para algunos t y s R.

MTODOS MATEMTICOS PARA ESTADSTICA

As, obtenemos que una base de ker(1 IdV T ) la forman, por ejemplo, los vectores de coordenadas (1, 0, 0) y (0, 1, 1) respecto de la base usual de R3 . Finalmente, como la suma de las dimensiones de los subespacios invariantes asociados a los autovalores es 1 + 2 = 3, y coincide con la dimensin de V, concluimos que T es diagonalizable y que una base de V respecto de la cual la matriz asociada a T es diagonal la forman los vectores de coordenadas (2, 1, 5), (1, 0, 0) y (0, 1, 1) respecto de la base usual de R3 . En este caso, por tratarse de coordenadas respecto de la base usual, se tiene que una base de V = R3 respecto de la cual la matriz de T es diagonal es B = {(2, 1, 5), (1, 0, 0), (0, 1, 1)}. Observamos que si P M3 (R) es la matriz cuyas columnas son las coordenadas respecto de la base usual de los vectores de la base B , es decir, 2 1 0 P = 1 0 1 , 5 0 1 por la frmula del cambio de base se tiene que 3 0 0 P1 AP = D = 0 3 0 . 0 0 3 El proceso anterior se puede acortar considerablemente en caso de que el endomorsmo no resulte ser diagonalizable; esta ser la principal aportacin del criterio de diagonalizacin por el polinomio caracterstico que veremos en breve. La clave de este otro criterio de diagonalizacin est en la acotacin de las dimensiones de los subespacios propios asociados a los autovalores del endomorsmo (esta cota superior la proporciona lo que se conoce como multiplicidad del autovalor). Si observamos el ejemplo anterior, el autovalor 3 corresponda al factor ( x 3) del polinomio caracterstico y el autovalor 3 al factor ( x + 3)2 del polinomio caracterstico. Es decir, que en cierto sentido podramos decir que el autovalor 3 aparece dos veces si consideramos ( x + 3)2 = ( x + 3)( x + 3). La multiplicidad de un autovalor nos permite distinguir el nmero de veces que se repite un mismo autovalor. Denicin III.3.8. Sea T Endk (V ). Llamaremos multiplicidad de un autovalor de T a la mayor potencia de ( x ) que divide al polinomio caracterstico de T. A la vista de la denicin anterior, decir que un autovalor de T tiene multiplicidad m signica que ( x )m divide a T ( x ) y que ( x )m +1 no lo divide; equivalentemente, que en la descomposicin en potencias de factores irreducibles de T ( x ) aparece ( x )m como factor. Es claro que,

MANUALES UEX
71

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

al ser una raz de T ( x ), su multiplicidad siempre es mayor o igual que 1. De hecho siempre es mayor o igual que la dimensin del subespacio propio asociado a , como asegura el siguiente lema. Lema III.3.9. Sea T Endk (V ). Si k es un autovalor de T, entonces la dimensin del subespacio propio ker(IdV T ) asociado a es menor o igual que la multiplicidad de . Demostracin. Sean L = ker( IdV T ) el subespacio invariante asociado a un autovalor de T y B L una base de L. Si ampliamos la base B L a una base B de V, entonces la matriz asociada a T respecto de B es A= Ir 0 A1 A2 ,

donde Ir es la matriz identidad de orden r = dim( L), A1 Mr(nr) (k) y A2 Mnr (k). De modo que

T ( x ) = | xIn A| =

( x ) Ir 0

A1 xInr A2

= ( x ) r A2 ( x ),

es decir, ( x )r divide a al polinomio caracterstico de T. De donde se sigue que la multiplicidad de es mayor o igual que r = dim( L). Veamos que la acotacin superior de la dimensin del subespacio invariante asociado a un autovalor por su multiplicidad puede ser estricta, es decir, existen casos donde no se cumple la igualdad. Ejemplo III.3.10. Sean V = R2 y T EndR (V ) tal que T (v1 , v2 ) = (v1 v2 , v2 ), para todo (v1 , v2 ) R2 . Anteriormente vimos que T ( x ) = ( x 1)2 , luego T tiene un slo autovalor = 1 de multiplicidad m = 2. El subespacio propio ker(IdV T ) asociado a es (1, 0) . Luego, se cumple que dim(ker( IdV T )) = 1 2 = m , pero no se da la igualdad. Sea T Endk (V ). Si k es autovalor de T de multiplicidad m , entonces solamente podemos asegurar la igualdad a priori cuando m = 1 ya que en este caso tenemos que

MANUALES UEX

1 dim(ker( IdV T )) m = 1, lo que obviamente implica que dim(ker( IdV T )) = 1. Criterio de diagonalizacin por el polinomio caracterstico. Sean T Endk (V ). Si 1 , . . . , r k son los distintos autovalores de T y sus multiplicidades son m1 , . . . , mr , respectivamente, entonces T es diagonalizable si, y slo si, (a) dim(ker(i IdV T )) = mi , i = 1, . . . , r. (b) m1 + . . . + mr = n.

72

MTODOS MATEMTICOS PARA ESTADSTICA

Demostracin. Si T es diagonalizable, por el teorema III.3.4, tenemos que V = ker(1 IdV T ) . . . ker(r IdV T ). Adems, por el lema III.3.9, dim(ker(i IdV T )) mi , para cada i = 1, . . . , r. De ambos hechos se deduce que n = dim(ker(1 IdV T )) + . . . + dim(ker(r IdV T )) m1 + . . . + mr n. Por lo tanto, dim(ker(1 IdV T )) + . . . + dim(ker(r IdV T )) = m1 + . . . + mr = n, y, como consecuencia (usando de nuevo el lema III.3.9) mi = dim(ker(i IdV T )), para cada i = 1, . . . , r. Recprocamente, como dim(ker (1 IdV T ) . . . ker(r IdV T )) =

i =1

dim(ker(i IdV T ))

= m1 + . . . + mr = n = dim(V ),
del teorema III.3.4, se sigue que T es diagonalizable. Nota III.3.11. Obsrvese que el teorema anterior dice que un endomorsmo T de V es diagonalizable si, y slo si, T ( x ) tiene todas sus races en k y la multiplicidad de cada autovalor coincide con la dimensin del subespacio propio correspondiente. La principal ventaja que presenta el criterio de diagonalizacin por el polinomio caracterstico es que para probar que un endomorsmo no es diagonalizable basta encontrar un subespacio propio cuya dimensin sea distinta de la multiplicidad del autovalor correspondiente. Ejemplo III.3.12. En el ejemplo III.3.10, vimos que dim(ker(IdV T )) = 1 = 2 = m . Luego T no es diagonalizable. Nota III.3.13. Si interpretamos esta teora en trminos de matrices cuadradas, observamos que hemos determinado cundo una matriz A Mn (k) es diagonalizable; en tal caso, se tiene que si P Mn (k) es la matriz cuyas columnas forman una base de kn formada por autovectores de A (que existe por el teorema III.3.4), entonces P1 AP es diagonal. De modo que podemos armar que dos matrices diagonalizables son semejantes si, y slo si, tienen los mismos autovalores con idnticas multiplicidades. Pero, qu ocurre cundo nos encontramos con una matriz no diagonalizable? Responderemos parcialmente a esta pregunta en la ltima seccin. 4. Subespacios invariantes

Denicin III.4.1. Dado T Endk (V ). Diremos que un subespacio L de V es invariante por T cuando T ( L) L, es decir, la restriccin de T a L, que se suele denotar por T| L , es un endomorsmo de L.

MANUALES UEX
73

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ntese que los subespacios trivial y total de V son invariantes para cualquier endomorsmo T Endk (V ). Lema III.4.2. Sean T Endk (V ). Si L1 y L2 son dos dos subespacios de V invariantes por T, entonces se verica que L1 + L2 es invariante por T. Demostracin. Si v L1 + L2 , entonces existen v1 L1 y v2 L2 tales que v = v1 + v2 . Adems, T (v1 ) L1 y T (v2 ) L2 , pues L1 y L2 son invariantes por T. Por consiguiente T (v) = T (v1 + v2 ) = T (v1 ) + T (v2 ) L1 + L2 . A continuacin veremos que, adems de los casos triviales, existen muchos otros subespacios invariantes por T; pero antes introduciremos la siguiente notacin: dado un endomorsmo T de V y un polinomio p( x ) = am x m + . . . + a1 x + a0 k[ x ] denotaremos por p( T ) al siguiente endomorsmo de V a0 IdV + a1 T + . . . + am T m ,
r
veces

donde IdV = 1, . . . , m.

T0

es la identidad de V y

Tr

= T T, para cada r =

Nota III.4.3. El lector con cierto conocimientos de algebra conmutativa bsica puede observar que p( T ) no es ms que la imagen de p( x ) por el morsmo de anillos T : k[ x ] Endk (V ). As, como k[ x ] es un anillo conmutativo, se sigue que p( T ) q( T ) = T ( p( x )) T (q( x )) = T ( p( x )q( x ))

= T (q( x ) p( x )) = T (q( x )) T ( p( x )) = q( T ) p( T ).
Usaremos esta igualdad en la demostracin del siguiente resultado. Proposicin III.4.4. Sea T Endk (V ). Para todo p( x ) k[ x ], se cumple que: (a) ker( p( T )) es invariante por T; (b) Im( p( T )) es invariante por T. Demostracin. (a) Sea p( x ) k[ x ]. Para demostrar que T (ker( p( T ))) est contenido en ker( p( T )), basta probar que T (v) ker( p( T )), para todo v ker( p( T )), es decir, p( T )( T (v)) = 0, para todo v ker( p( T )). Lo cual es inmediato, tomando q( x ) = x k[ x ] y teniendo en cuenta que, segn la nota III.4.3, p( T ) y q( T ) conmutan entre s, ya que p( T )( T (v)) = p( T )(q( T )(v)) = q( T )( p( T )(v)) = q( T )(0) = T (0) = 0, como queramos probar. (b) Sean p( x ) k[ x ] y v Im( p( T )). Queremos probar que T (v ) Im( p( T )). Por estar v en la imagen de p( T ), se tiene que existe v tal que

MANUALES UEX
74

MTODOS MATEMTICOS PARA ESTADSTICA


v = p( T )(v), tomando q( x ) := x k[ x ] y teniendo en cuenta que p( T ) y q( T ) conmutan entre s, se sigue que T (v ) = T ( p( T )(v)) = q( T )( p( T )(v)) = p( T )(q( T )(v))

= p( T )( T (v)) Im( p( T )).

k[ x ] con a = 1, entonces p( T ) = aIdV T = aIdV IdV = ( a 1)IdV que


la homotecia de razn ( a 1) = 0 y por consiguiente automorsmo de V, luego ker( p( T )) = 0 e Im( p( T )) = V. Ejemplo III.4.6. Sea T el endomorsmo de V = R2 tal que T ( x, y) = ( x, y) Si p( x ) = 1 x, entonces p( T )( x, y) = (IdV T )( x, y) = ( x, y) ( x, y) = (0, 2y). Luego ker( p( T )) = (1, 0) e Im( p( T )) = (0, 1) , son subespacios de R2 invariantes por T. De hecho, no es difcil comprobar que son los nicos subespacios propios de R2 invariantes por T distintos del trivial. Ejemplo III.4.7. El subespacio vectorial ker( IdV T ) de V es invariante por T ; en efecto, si v ker( IdV T ), entonces

Ejemplo III.4.5. Sea T el endomorsmo identidad de V. Si p( x ) = a x

( IdV T )( T (v)) = (IdV T )( T (v) v + v) = ( IdV T )(( IdV T )(v)) + ( IdV T )(v) = ( IdV T )(0) + 0 = 0.
En realidad, habra bastado observar que ker( IdV T ) es ker( p( T )) para p( x ) = x k[ x ] y entonces usar la proposicin III.4.4 para concluir. Terminemos esta seccin viendo una serie de interesantes resultados sobre subespacios invariantes que sern de suma utilidad posteriormente. Proposicin III.4.8. Sean V un k -espacio vectorial, T Endk (V ) y p( x ) k[ x ] un polinomio distinto de cero tal que ker( p( T )) es no nulo. Si p( x ) = q1 ( x )q2 ( x ) tal que q1 ( x ) y q2 ( x ) son unitarios y primos entre s 3 entonces Demostracin. En primer lugar, como q1 ( x ) y q2 ( x ) son primos entre s, entonces, segn la Identidad de Bezout (vase la pgina 66 de [Nav96]) , existen h1 ( x ) y h2 ( x ) k[ x ] tales que 1 = h1 ( x )q1 ( x ) + h2 ( x )q2 ( x ), Luego, tenemos que I = h1 ( T ) q1 ( T ) + h2 ( T ) q2 ( T ), es decir (III.4.2) v = (h1 ( T ) q1 ( T ))(v) + (h2 ( T ) q2 ( T ))(v),

3Dos polinomios son primos entre s si no tienen factores comunes, es decir,

mcd(q1 ( x ), q2 ( x )) = 1.

MANUALES UEX
75

ker( p( T )) = ker(q1 ( T )) ker(q2 ( T )).

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

para todo v V. Si v ker( p( T )), entonces p( T )(v) = q1 ( T ) q2 ( T )(v) = q2 ( T ) q1 ( T )(v) = 0. Por consiguiente, q2 ( T )((h1 ( T ) q1 ( T ))(v)) = h1 ( T )((q2 ( T ) q1 ( T ))v) = h1 ( T )(0) = 0, para todo v ker( p( T )), luego h1 ( T ) q1 ( T ))(v) ker(q2 ( T ))). para todo v ker( p( T )). Anlogamente, se prueba que h2 ( T ) q2 ( T ))(v) ker(q1 ( T ))). para todo v ker( p( T )). De ambas armaciones, junto con la expresin (III.4.2), se deduce que ker( p( T )) ker(q1 ( T )) + ker(q2 ( T )). Recprocamente, si v = v1 + v2 ker(q1 ( T )) + ker(q2 ( T )), con vi ker(qi ( T )), i = 1, 2, entonces p( T )(v) = (q1 ( T ) q2 ( T ))(v) = (q1 ( T ) q2 ( T ))(v1 + v2 )

= (q1 ( T ) q2 ( T ))(v1 ) + (q1 ( T ) q2 ( T ))(v2 ) = (q2 ( T ) q1 ( T ))(v1 ) + (q1 ( T ) q2 ( T ))(v2 ) = q2 ( T )(q1 ( T )(v1 )) + q1 ( T )(q2 ( T )(v2 )) = q2 ( T )(0) + q1 ( T )(0) = 0.
Hemos probado que ker( p( T )) ker(q1 ( T )) + ker(q2 ( T )). Nos queda ver que ker(q1 ( T )) ker(q2 ( T )) = {0}. Sea v ker(q1 ( T )) ker(q2 ( T )), entonces sigue que v = (h1 ( T ) q1 ( T ))(v) + (h2 ( T ) q2 ( T ))(v) = 0 + 0 = 0, y por consiguiente el nico vector de ker(q1 ( T )) ker(q2 ( T )) es el cero. Proposicin III.4.9. Sea T Endk (V ). Las condiciones siguientes son equivalentes: (a) V es suma directa V = L1 Lr de subespacios invariantes por T. (b) Existe una base B de V tal que la matriz de T respecto de ella es4 A1 . . . Ar , donde las Ai son matrices cuadradas. Demostracin. Supongamos que se verica la condicin primera y procedamos por induccin sobre r. Si r = 1, evidentemente no hay nada que demostrar. Supongamos, pues, que r > 1 y que el resultado es cierto para un espacio vectorial que descompone en suma directa de r 1 subespacios invariantes. En particular, la matriz de T| L , con L = L2 . . . Lr , respecto de B = i2 Bi es A = A2 . . . Ar . Ntese que, por el lema III.4.2, L es un subespacio invariante por T.
4Vase la denicin de suma directa de matrices en la seccin 3 del tema I.

MANUALES UEX
76

MTODOS MATEMTICOS PARA ESTADSTICA

Por consiguiente, queda ver que la matriz de T respecto de B1 B es A1 A; para lo cual, es suciente observar que T (v) es combinacin de lineal de elementos de B1 si v B1 y T (v) es combinacin lineal de elementos de B si v B , por ser L1 y L subespacios invariantes por T y B1 y B bases de aquellos, respectivamente. Recprocamente, supongamos que se verica la condicin segunda y que Ai Mni (k), i = 1, . . . , r. Dividamos B en subconjuntos Bi , i = 1, . . . , r, de forma consistente con la bloques de A. Sea Li el subespacio vectorial generado por Bi ; por la forma de A es claro que T ( Li ) Li , i = 1, . . . , r, y naturalmente V = L1 Ls . Observando ahora las proposiciones anteriores conjuntamente podemos llegar a la siguiente conclusin: si somos capaces de hallar un polinomio p( x ) k[ x ] tal que p( T ) = 0 Endk (V ) y r=1 qi ( x )mi es su descomposii cin en potencias de factores irreducibles en k[ x ], por la proposicin III.4.8, obtenemos que V = ker( p( T )) = ker(q1 ( T )m1 ) . . . ker(qr ( T )mr ), esto es, una descomposicin de V en subespacios invariantes. De tal modo que, usando la proposiciones III.4.8 y III.4.9, podemos reducir el estudio de la matriz de T al de las matrices de las restriccin de T a cada uno de los subespacios invariantes ker(qi ( T )mi ), i = 1, . . . , r. 5. Forma cannica de Jordan

A lo largo de esta seccin V ser un espacio vectorial de dimensin nita n > 0 sobre un cuerpo k y T un endomorsmo de V cuyos autovalores distintos son 1 , . . . , r k de multiplicidades m1 , . . . , mr , respectivamente. En la seccin anterior vimos que no todos los endomorsmos de V son diagonalizables, es decir, que en general no se puede encontrar una base de V tal que la matriz de T sea diagonal. Por lo que el objetivo de hallar una base de V tal que la matriz de T sea lo ms sencilla posible nos obliga a determinar en primer lugar qu entendemos por lo ms sencilla posible. Denicin III.5.1. Un bloque de Jordan de orden s es una matriz cuadrada con s las y s columnas que tiene todos las entradas de la diagonal principal idnticos, la diagonal por encima de sta est formada por 1 y las restantes entradas son cero, es decir, B = (bij ) Ms (k) es un bloque de Jordan si si i = j; bij = 1 si i + 1 = j; 0 en otro caso. para algn k.

MANUALES UEX
77

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Obsrvese que un bloque de Jordan de orden s no es otra cosa que la suma de una matriz diagonal D Ms (k) y una matriz nilpotente N= 0 0 . . . 0 0 1 0 . . . 0 0 ... .. . .. . ... ... 0 0 .. . 0 0 0 0 . . .

M s (k) 1 0

tal que N s1 = 0 y N s = 0. Ejemplo III.5.2. Un bloque de Jordan de orden 1 es un escalar . Un bloque de Jordan de orden 2 es de la forma 0 y uno de orden 3 es 0 0 1 0 0 1 . 1

Denicin III.5.3. Una matriz de Jordan es una matriz diagonal por bloques de manera que cada bloque es de Jordan, esto es, J Mn (k) es de Jordan si J= B1 0 . . . 0 0 B2 . . . 0 ... ... .. . ... 0 0 . . . Br ,

donde cada Bi , i = 1, . . . , r, es un bloque de Jordan.

MANUALES UEX
78

En esta seccin demostraremos que, si todos los autovalores de T estn en k, existe una base B de V tal que la matriz asociada a T respecto de B es de Jordan. La base B se llama base de Jordan y la matriz de T respecto de B se llama forma cannica de Jordan de T , que veremos que es nica salvo permutacin de los bloques de Jordan. Dicho de otro modo, demostraremos que toda matriz cuadrada con coecientes en k tal que todos sus autovalores estn en k, es semejante a una matriz de Jordan; en particular, a una matriz triangular superior.

MTODOS MATEMTICOS PARA ESTADSTICA

Ejemplo III.5.4. Si T es diagonalizable entonces su forma cannica de Jordan es 1 0 . . . 0 0 2 . . . 0 J= . . .. . , . . . . . . . 0 0 ... n donde i , i = 1, . . . , n son los autovalores de T repetidos tantas veces como indique su multiplicidad. Dicho de otro modo, T es diagonalizable si, y slo si, los bloques de Jordan en su forma cannica tienen orden 1. A continuacin vamos a introducir una serie de subespacios invariantes que necesitamos para construir la base de Jordan y veremos sus propiedades ms relevantes. Denicin III.5.5. Para cada i {1, . . . , r } y j 0, llamaremos subespacios propios generalizados asociados al autovalor i a Li,j = ker((i IdV T ) j ). Ntese que Li 0 = ker((i IdV T )0 ) = ker(IdV ) = {0}, para todo i = 1, . . . , r. Nota III.5.6. Obsrvese que para cada i {1, . . . , r } se tiene que 1. Li,1 = ker(i IdV T ), esto es, el subespacio propio asociado a i . 2. Li,1 Li,2 . . . Li,s . . . En efecto, si v ker((i IdV T ) j ), entonces

(i IdV T ) j+1 (v) = (i IdV T ) (i IdV T ) j (v) = i IdV T (i IdV T ) j (v) = (i IdV T )(0) = 0.
3. Lij es un subespacio invariante por T. En efecto, si v Lij , entonces T (v) Lij , ya que

(i IdV T ) j ( T (v)) = (i IdV T ) j ( T (v) i v + i v) = 0+0 = 0


Como V es dimensin nita, para cada i = 1, . . . , r, la cadena de subespacios Lij se estabiliza; ms an veremos que se estabiliza denitivamente a partir del momento en que Lisi = Li si +1 para algn j 1. Es decir, las inclusiones del apartado 1 de la nota III.5.6 son igualdades a partir un cierto si 1, que depende de i. Lema III.5.7. Si Lis = Li s+1 , entonces Lij = Lis , para todo j s.

MANUALES UEX
79

= (i IdV T ) j+1 (v) + i (i IdV T ) j (v)

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Demostracin. Basta demostrar que Li s+2 = Li s+1 . Una inclusin la hemos visto anteriormente. Para la otra, sea v Li s+2 . Entonces, 0 = (i IdV T )s+2 (v) = (i IdV T )s+1 (i IdV T )(v) , por lo que (i IdV T )(v) Li s+1 = Lis , de donde se sigue que

(i IdV T )s ((i IdV T )(v)) = 0


y tenemos que v ker(i IdV T )s+1 = Li s+1 . Ntese que, segn el lema anterior, la cadena de inclusiones del apartado 1 de la nota III.5.6 queda de la forma Li1 Li2 . . . Li si = Li si +1 = . . . , / / / para cada i = 1, . . . , r. El subespacio Li si se llama subespacio propio mximo del autovalor i . A continuacin demostremos que la dimensin del subespacio propio mximo de un autovalor coincide con su multiplicidad y que, si todos los autovalores de T estn en k, entonces V descompone en suma directa de los subespacios propios mximos. Lema III.5.8. El nico autovalor de la restriccin de T a Li si es i . Demostracin. Sea k un autovalor de T (es decir, es un autovalor de T en el cierre algebraico5 k de k) y v Li si un autovector de T asociado a . Como T (v) = v y (i Id Li s T )si (v) = 0, se tiene que
i

0 = (i Id Li s T ) (v) = (i Id Li s T )si 1 (i Id Li s T )(v)


si
i i i

= (i )(i Id Li s T )
i

s i 1

(v) = . . . = (i ) v,

si

de donde se sigue que = i . Lema III.5.9. Sea v Li j \ Li,j1 , para algn j {1, . . . , si }. Para todo k distinto de i se cumple que ( IdV T )s (v) Li j \ Li,j1 , para todo s 0. En particular, ( IdV T )s (v) = 0, para todo s 0.

MANUALES UEX

Demostracin. Basta probar el enunciado para s = 1. Se tiene que

( IdV T )(v) = (i IdV T ) + ( i ) IdV (v) = (i IdV T )(v) + ( i )v.


Como ( i )v Li j \ Li j1 y (i IdV T )(v) Li j1 , necesariamente es ( IdV T )(v) Li j \ Li j1 .
k = R, entonces su cierre algebraico es k = C. El lector interesado en conocer ms sobre el cierre algebraico puede consultar el Apndice I de [Nav96].
5Por ejemplo, si

80

MTODOS MATEMTICOS PARA ESTADSTICA

Teorema III.5.10. Con la notacin anterior. Se verica que (a) dim( Li si ) = mi , i = 1, . . . , r, es decir, la dimensin del subespacio propio mximo de cada autovalor coincide con su multiplicidad. (b) Si todos los autovalores de T estn en k, entonces V = L1 s1 . . . Lr sr Demostracin. (a) Fijemos un ndice i, 1 i r. Sea Bi una base de V que sea ampliacin de una de base Li si . Como Li si es un subespacio invariante por T (vase el apartado 3. de la nota III.5.6), la matriz de T respecto de Bi es del tipo Ai Ni . 0 Mi Pongamos ni = dim( Li si ). El polinomio caracterstico de T es, pues, igual a xIni Ai 0

T (x) =

Ni xInni Mi

= | xIni Ai | | xInni Mi |.

Adems, por el lema III.5.8, | xIni Ai | = ( x i )ni . De modo que

T ( x ) = ( x i )ni | xInni Mi |.
Supongamos que i es uno de los autovalores de Mi y elijamos un vector no nulo v = (0, . . . , 0, vni +1 , . . . , vn ) tal que (i Inni Mi )(vni +1 , . . . , vn )t = 0; es claro que v vector (i IdV T )(v) tiene coordenadas v1 . . . i Ini Ai Ni v v = ni 0 i Inni Mi 0 . . . 0

Li si , adems, el

respecto de B . Luego, (i IdV T )(v) Li si , de donde se sigue que (i IdV T )si +1 (v) = 0 y entonces v Li si+1 = Li si , lo que supone una contradiccin. Esto demuestra que i no es un autovalor de Mi , luego todos los factores de ( x i ) en el polinomio caracterstico de T estn en | xIni Ai | = ( x i )ni . Por consiguiente, ni = mi . (b) Si todos los autovalores de T estn en k, entonces r=1 mi = n = i dim(V ); de donde se sigue que V = L1 s1 . . . Lr sr , si, y slo si, los subespacios propios mximos estn en suma directa. Para demostrar que la suma es directa tenemos que ver si vi Li si son tales que r=1 vi = 0, entonces i vi = 0, i = 1, . . . , r. Probmoslo por reduccin al absurdo. Supongamos,

MANUALES UEX
81

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

por ejemplo, que v1 = 0. Entonces existe un ndice j {1, . . . , s1 }, tal que v1 L1 j \ L1 j1 . Se tiene por tanto, 0=

i =2

(i IdV T )si

j =1

vj

i =2

(i IdV T )si

( v1 ),

que pertenece a L1 j \ L1 j1 por el lema III.5.9; lo que supone una contradiccin pues 0 L1 j1 . Obsrvese que el criterio de diagonalizacin por el polinomio caracterstico es el caso particular del teorema anterior en el caso diagonalizable. A partir de ahora, y a lo largo de toda esta seccin, supondremos que T tiene todos sus autovalores en k (esto ocurre, por ejemplo, si k = C independiente del endormosmo T). Nota III.5.11. Sin prdida de generalidad, por el teorema III.5.10, podemos suponer que T tiene un slo autovalor k de multiplicidad n = dim(V ). Denotaremos por Ls al subespacio propio mximo de , de tal forma que tenemos la siguiente sucesin de subespacios invariantes por T (III.5.3) L0

= {0} L1 = ker( IdV T ) L2 / / = ker( IdV T )2 . . . Ls = ker( IdV T )s , / /

con dim( Ls ) = n, es decir, Ls = V, por el teorema III.5.10 de nuevo. Vamos a construir la base cannica de Jordan para el subespacio propio mximo Ls = V de . Denicin III.5.12. Sean H1 H2 subespacios vectoriales de V. Diremos que / v1 , . . . , vt H2 son linealmente independientes mdulo H1 si 1 , . . . , q k son tales que 1 v1 + . . . + q vq H1 , entonces 1 = . . . = q = 0. Lema III.5.13. Sea H0 H1 . . . Hs una cadena estrictamente creciente de / / / subespacios vectoriales de V. Si H es un conjunto nito de vectores de V, H = {vij | 1 j ti , 1 i s} tal que para todo i = 1, . . . , s los vectores {vij | 1 j ti } pertenecen a Hi y son independientes mdulo Hi1 , entonces H es un sistema de vectores linealmente independiente. Demostracin. Sean ij k tales que ij vij = 0. Entonces

MANUALES UEX

j =1

sj vsj =

ts

1i <s,1 jti

ij vij

Hs1 .

82

Como {vsj | 1 j ti } pertenecen a Hs y son independientes mdulo Hs1 , se tiene que s1 = . . . = s ts = 0. Repitiendo el razonamiento agrupando los

MTODOS MATEMTICOS PARA ESTADSTICA

vectores de Hs2 , luego los de Hs3 y as sucesivamente, vemos que todos los ij deben ser cero. Lema III.5.14. Si v1 , . . . , vq L j son linealmente independientes mdulo L j1 , entonces

( IdV T )(v1 ), . . . , ( IdV T )(vq ) L j1


son linealmente independientes mdulo L j2 . Demostracin. Sean 1 , . . . , q k tales que l =1 l (l IdV T )(vl ) L j2 . q q As (i IdV T ) l =1 l vl L j2 , luego l =1 l vl L j1 , de donde se sigue que 1 = . . . = q = 0. Proposicin III.5.15. Sean n j = dim( L j ) y p j = n j n j1 , para cada j = 1, . . . , s. Entonces, (a) El nmero mximo de vectores de L j que son linealmente independientes mdulo L j1 es p j . (b) Se cumple que p1 p2 . . . ps > 0. Teniendo en cuenta que n = s=1 p j (comprubese) y que n es la multij plicidad de , a los pi , i = 1, . . . , s, se les llama particin de la multiplicidad del autovalor . Demostracin. (a) Sea B j = {v1 , . . . , v p j , u1 , . . . , un j1 } una base de L j tal que B j1 = {u1 , . . . , un j1 } sea una base L j1 (B j siempre existe, pues podemos tomar una base de L j1 y ampliarla a una de L j ). Por un lado, es claro que los vectores v1 , . . . , v p j son linealmente independientes mdulo L j1 ; en efecto, si existen 1 , . . . , p j k tales que l =1 l vl L j1 , entonces l =1 l vl = 0, pues en otro caso B j no sera una base, y como v1 , . . . , v p j son linealmente independientes se sigue que 1 = . . . = p j = 0. Por otra parte, si w1 , . . . , wq L j son linealmente independientes mdulo L j1 , entonces, por el lema III.5.13 aplicado a la cadena {0} L j1 L j , los vectores / / w1 , . . . , wq , u1 , . . . , un j1 de L j son linealmente independientes; de donde se sigue que q + n j1 n j y por lo tanto que q n j n j1 = p j . (b) Ahora, usando el lema III.5.14, concluimos que p j1 p j , para cada i = 2, . . . , s. Lema III.5.16. Sean u j L j \ L j1 y u jl = ( IdV T )(u jl +1 ), l = 1, . . . , j 1. Entonces, (a) {u1 , . . . , u j } es un conjunto de vectores de L j linealmente independiente.
pj pj q

MANUALES UEX
83

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

(b) Si L = u1 , . . . , u j , entonces L es un subespacio invariante por T y la matriz A L de la restriccin de T a L respecto de {u1 , . . . , u j } es una matriz de Jordan, concretamente, 1 ... 0 0 0 0 0 . . .. . .. . AL = . . . . . . . 0 0 ... 1 0 0 ... 0 Demostracin. (a) Los vectores {u1 , . . . , u j } son linealmente independientes por los Lemas III.5.14 y III.5.13. (b) De las relaciones

( IdV T )(u j ) = u j1 ( IdV T )(u j1 ) = u j2 . . . ( IdV T )(u2 ) ( IdV T )(u1 )


se obtiene que T ( u1 ) T ( u2 ) T ( u j 1 ) T (u j )

= =

u1 0

= u1 = u1 . . . = =

+ u2
.. . u j 2

+ u j1 u j 1

+ u j ,

de donde se sigue que L es un subespacio invariante por T (luego, la restriccin de T a L est bien denida) y que la matriz A L de la restriccin de T a L respecto de {u1 , . . . , u j } es una matriz de Jordan. Teorema III.5.17. Con la notacin anterior. Existe una base B de Ls tal que la matriz de T respecto de B es una matriz de Jordan. Demostracin. En primer lugar tomamos unos vectores {v1 , . . . , v ps } de Ls que sean linealmente independientes mdulo Ls1 y a partir de ellos se construye, usando el lema III.5.16, la base de Jordan correspondiente. La simple unin conjuntista de los vectores obtenidos es un conjunto de vectores linealmente independientes de Ls , por los lemas III.5.14 y III.5.13. Si el nmero de vectores es igual a dim( Ls ), ya hemos terminado. Supongamos que no, y sea j < s el mayor ndice tal que los vectores que estn en L j \ L j1 no alcanzan el mximo nmero de vectores linealmente independientes mdulo L j1 , es decir, j es el mayor ndice tal que p j > ps (vase la proposicin III.5.15). Ampliando

MANUALES UEX
84

MTODOS MATEMTICOS PARA ESTADSTICA

este conjunto de vectores hasta alcanzar el nmero mximo, se obtiene un nuevo conjunto de vectores {v1 , . . . , v p j ps }, con el que repetimos lo anterior, y as sucesivamente. El nal de este proceso es una base B de Ls tal que la matriz de T respecto de B est formada por bloques de Jordan colocados diagonalmente (vase el lema III.5.16). Nota III.5.18. La forma cannica de Jordan queda determinada por los autovalores, en este caso , sus multiplicidades, en este caso n, y las particiones de multiplicidades, en este caso, p1 p2 . . . ps > 0. Ms concretamente, en nuestro caso, la forma cannica de Jordan consiste en ps p s 1 p s . . . p1 p2 bloques de orden s bloques de orden s 1 bloques de orden 1

Ntese que estos nmeros dependen exclusivamente de T, y no de la base elegida. Por lo que podemos armar que la forma cannica de Jordan es nica salvo permutacin de los bloques. Lo importante de la forma cannica de Jordan es que se puede construir automticamente a partir de los autovalores, sus multiplicidades y las particiones de multiplicidades. Ejemplo III.5.19. Sean V un espacio vectorial sobre R de dimensin 4 y B = {u1 , u2 , u3 , u4 } una base V. Denimos el endomorsmo T de V por T ( u1 ) T ( u2 ) T ( u3 ) T ( u4 )

= u1 = u1 = u1 = u1

+ u2 + u2 + u2

+ u3 + 3 u3 + 10 u3 + 9 u3

+ 4 u4 + 12 u4 + 11 u4

El polinomio caracterstico de T es

T ( x ) = | xIn A| = ( x 1)3 ( x + 1),


luego T tiene dos autovalores distintos en R, 1 = 1 de multiplicidad m1 = 3 y 2 = 1 de multiplicidad m2 = 1. Como T tiene todos sus autovalores en R, podemos calcular una base de V tal que la matriz de T respecto de ella es de Jordan.

MANUALES UEX
85

En tal caso, la matriz del endomorsmo T respecto de la base B es 1 1 1 1 1 0 1 1 . A= 1 3 10 9 0 4 12 11

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Tenemos que 0 1 1 I4 A = 1 0 1 1 3 4 1 1 1 1 , 11 9 12 10

entonces rg(1 IdV T ) = 3, por lo que n1,1 = dim( L1,1 ) = dim(ker(1 IdV T )) = 4 rg(1 IdV T ) = 1 < 3 = m1 . Ntese que, segn el criterio de diagonalizacin por el polinomio caracterstico, T no es diagonalizable. Calculemos, pues, los subespacios propios generalizados del autovalor 1 : En primer lugar calculamos una base de L1,1 . Para ello resolvemos el sistema de ecuaciones lineales (1 I4 A)x = 0 y obtenemos que una base de L1,1 expresada en coordenadas respecto de B es {(0, 1, 3, 4)}. Para el clculo de L1,2 = ker (1 IdV T )2 necesitamos obtener (1 I4 A)2 . 0 0 0 0 0 1 1 1 (1 I4 A)2 = 8 1 15 11 , 8 0 16 12 entonces rg (1 IdV T )2 = 2, por lo que n1,2 = dim( L1,2 ) = dim ker (1 IdV T )2

= 4 rg (1 IdV T )2 = 2 < 3 = m1 .
Luego, L1,2 no es el subespacio propio mximo de 1 . A continuacin ampliamos la base de L1,1 a una base de L1,2 . Para ello resolvemos el sistema lineal de ecuaciones (1 I4 A)2 x = 0 y obtenemos que una base de L1,2 expresada en coordenadas respecto de B es {(0, 1, 3, 4), (3, 2, 0, 2)}. Para el clculo de L1,3 = ker (1 IdV T )3 necesitamos obtener (1 I4 A)3 . 0 0 0 0 0 0 0 0 (1 I4 A)3 = 16 8 24 16 , 16 8 24 16

MANUALES UEX
86

MTODOS MATEMTICOS PARA ESTADSTICA

entonces rg (1 IdV T )2 = 1, por lo que n1,3 = dim( L1,3 ) = dim ker (1 IdV T )3

= 4 rg (2 IdV T )3 = 3 = 3 = m1 .
Luego, el subespacio propio mximo de 1 es L1,3 . A continuacin ampliamos la base de L1,2 a una base de L1,3 . Para ello resolvemos el sistema lineal de ecuaciones (1 I4 A)3 x = 0 y obtenemos que una base de L1,3 expresada en coordenadas respecto de B es {(0, 1, 3, 4), (3, 2, 0, 2), (1, 0, 0, 1)}. La particin de la multiplicidad del autovalor 1 es p13 = n13 n12 = 1, p12 = n12 n11 = 1, p11 = n11 0 = 1. Luego, el bloque de Jordan del autovalor 1 consiste en p13 = 1 p12 p13 = 0 p11 p12 = 0 esto es 1 0 0 bloques de orden 3 bloques de orden 2 , bloques de orden 1 1 1 0 0 1 1

12

12

entonces rg(2 IdV T ) = 3, por lo que n21 = dim( L21 ) = dim(ker(2 IdV T )) = 4 rg(2 IdV T ) = 1 = m2 . En este caso, L21 es el subespacio propio mximo del autovalor 2 . Luego, p21 = n21 0 = 1, de tal forma que slo hay 1 bloque de Jordan de orden 1 para el autovalor 2 y una base de Jordan la forma

MANUALES UEX
87

Para calcular la base cannica de Jordan de L13 , elegimos p13 = 1 vectores de L13 que sean linealmente independientes mdulo L12 , por ejemplo, el vector v13 de coordenadas (1, 0, 0, 1) respecto de B , y calculamos los vectores v12 = (1 IdV T )(v13 ) y v11 = (1 IdV T )(v12 ); en nuestro caso v12 y v11 son los vectores de coordenadas (1, 2, 8, 10) y (0, 1, 3, 4), respectivamente, respecto de B . Finalmente, como {v11 , v12 , v13 } es ya una base de L13 , por el teorema III.5.17, concluimos que es la base de Jordan del bloque asociado al autovalor 1 . Por otra parte, tenemos que Tenemos que 2 1 1 1 1 1 1 1 , 2 I4 A = 1 3 9 9

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

cualquier vector no nulo de L21 , por ejemplo, el vector v21 cuyas coordenadas respecto de B son (0, 0, 1, 1). Finalmente, por el teorema III.5.10, tenemos que V = L13 L21 ; de donde se sigue que la base de Jordan de V es B = {v11 , v12 , v13 , v21 } y que la matriz de Jordan de T es 1 1 0 0 0 1 1 0 . J= 0 0 1 0 0 0 0 1 Adems, si P es la matriz cuyas columnas vectores de B respecto de B , es decir, 0 1 1 0 1 2 0 0 P= 3 8 0 1 4 10 1 1 se cumple que P1 AP = J. Terminamos con una condicin necesaria y suciente para que dos matrices cuadradas sean semejantes. Proposicin III.5.20. Dos matrices cuadradas A y B Mn (k) con todos sus autovalores en k son semejantes si, y slo si, tienen la misma forma cannica de Jordan. Demostracin. Es claro que si A y B tienen la misma forma cannica de Jordan, son semejantes. Recprocamente, si A y B son semejantes, entonces, por la proposicin III.1.3, existen ciertas bases B y B de V tales que A = MB ( T ) y B = MB ( T ), para algn endomorsmo T de kn (por ejemplo, kn kn ; v Av). Sabemos que la forma cannica de Jordan de T est determinada por sus autovalores, sus multiplicidades y las particiones de sus multiplicidades, que dependen exclusivamente de T, y no de la base elegida. Entonces A y B tienen la misma forma cannica de Jordan, la del endomorsmo T. En resumen, dos matrices cuadradas A y B Mn (k) con todos sus autovalores en k son semejantes si, y slo si, tienen los mismos los autovalores con idnticas multiplicidades y particiones de multiplicidades. Denicin III.5.21. Sean A Mn (k) y J = P1 AP su forma cannica de Jordan. Se llama descomposicin espectral de A a A = PJP1 . son las coordenadas de los ,

MANUALES UEX
88

MTODOS MATEMTICOS PARA ESTADSTICA

En el siguiente tema veremos algunas aplicaciones concretas de la descomposicin espectral de una matriz.

MANUALES UEX
89

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicios del tema III Ejercicio 1. Dado el endomorsmo T : R2 R2 denido por T ( x, y) = ( x + y, x y), obtener su matriz respecto de la base usual de R2 . Obtener tambin las matrices de los endomorsmos T 2 IdR2 y T 3 = T T T. Ejercicio 2. Sea V un espacio vectorial de dimensin 2 y sea T un endomorsmo de V no nulo y nilpotente (se dice que un endomorsmo es nilpotente si existe un nmero natural p > 1 tal que T p = 0, donde T p es T T p veces). Probar que existe una base de V respecto de la cual la matriz asociada 0 1 a T es . Aplicar lo anterior al endomorsmo del C-espacio vectorial 0 0 i 1 C2 cuya matriz asociada respecto cierta base es . 1 i Ejercicio 3. Dadas las matrices 1 1 3 1 A= 0 2 1 , B = 0 0 0 0 2

2 2 0

3 0 2

1 C= 0 0

1 2 0

0 3 , 2

representan todas al mismo endomorsmo? Ejercicio 4. Probar que el polinomio caracterstico de una matriz A Mn (k) est en k[ x ], es decir, en el anillo de polinomios en una indeterminada con coecientes en k, tiene grado n y es unitario (esto es, el coeciente del trmino de grado ms alto es 1). Ejercicio 5. Sean A1 , . . . , Ar matrices tales que Ai Mmi (R), i = 1, . . . , r. Probar que si los autovalores de Ai son i,1 , . . . , i,si , i = 1, . . . , r, entonces los autovalores de A1 . . . Ar son {ij | i = 1, . . . , r; j = 1, . . . , si }. Ejercicio 6. Sea T ( x ) = a0 + a1 x + . . . + an1 x n1 + x n el polinomio caracterstico de un endomorsmo T de un k -espacio vectorial V de dimensin nita n > 0. Probar que el determinante de T es igual a (1)n a0 .

MANUALES UEX
90

Ejercicio 7. Sea V un k -espacio vectorial de dimensin nita n > 0 y T Endk (V ) tal que In + T 2 = 0. Probar que T no tiene autovalores reales. Ejercicio 8. Sean T y T dos endomorsmos de un C-espacio vectorial V de dimensin nita. Probar que si T y T conmutan, entonces T y T tienen autovectores comunes. Ejercicio 9. Sea V un k -espacio vectorial de dimensin n y T Endk (V ) nilpotente. Probar que T ( x ) = x n . Concluir que los valores propios de un endomorsmo nilpotente son todos nulos. Es cierto el recproco?

MTODOS MATEMTICOS PARA ESTADSTICA


Ejercicio 10. Sea V un k -espacio vectorial de dimensin nita n > 0 y T Endk (V ) tal que la suma de las entradas de cada una de las las de su matriz asociada A Mn (k) respecto de alguna base de V es igual 1 (es decir, A es una matriz estocstica). Probar que 1 es un autovalor de T. Ejercicio 11. Sean V un k -espacio vectorial de dimensin nita y T Endk (V ) biyectivo, es decir, T es un automorsmo de V. Probar que es un autovalor de T si y slo si = 0 y 1 es autovalor de T 1 . Ejercicio 12. Comprobar que si {1 , . . . , r } son los autovalores de una matriz A, entonces 1. Los autovalores de A (siendo = 0) son {1 , . . . , r }. Un vector v es autovector de A asociado a i si, y slo si v es autovector de A asociado a i . 2. A es invertible si, y solo si, 0 {1 , . . . , r } y en este caso, los autovalores de A1 son {(1 )1 , . . . , (r )1 }. Un vector v es autovector de A asociado a i si, y slo si v es autovector de A1 asociado a ( i ) 1 . Ejercicio 13. Probar que si 1 , . . . , n k son autovalores (no necesariamente distintos) de una matriz A Mn (k), entonces 1. | A| = 1 n . 2. tr( A) = 1 + . . . + n . Ejercicio 14. Sean V = R4 y la base usual de R4 es 1 2 3 0 1 1 ( a) 2 2 4 0 0 0 T Endk (V ) tal su matriz asociada respecto de 2 0 , 2 2 1 0 0 0 1 0 (b) 0 0 1 0 0 3 1 0 . 1 5

Estudiar si T es diagonalizable.

con a, b y c k. Estudiar (segn los valores de a, b y c k), primero sobre k = R y luego sobre k = C, si T es diagonalizable.

MANUALES UEX
91

Ejercicio 15. Sean V = k3 y T Endk (V ) tal que su matriz asociada respecto de alguna base de V es a 1 1 1 a b 5 0 0 ( a) 0 (b) 0 2 c , ( c ) 0 1 b 1 3 , 0 2 2 0 0 1 3 0 a

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicio 16. Sean V = R4 y T Endk (V ) tal que su matriz asociada respecto de alguna base de V es 1 1 0 0 4 1 0 0 . 1 0 1 0 0 a 1 3 Estudiar, segn el valor de a R, si T es diagonalizable, y calcular, cuando sea posible, una base de V respecto de cual la matriz de T sea diagonal. Ejercicio 17. Sean V = R3 y T Endk (V ) tal que su matriz asociada respecto de la base usual de R3 es cada una de las matrices del ejercicio 15 para las cuales T es diagonalizable. Hallar una base de V respecto de cual la matriz de T sea diagonal. Ejercicio 18. Sean V = R3 y T y T Endk (V ) tales que T (v1 , v2 , v3 ) = (v1 + v2 + v3 , 2v1 + 5v2 + 2v3 , 2v1 5v2 2v3 ) y T (v1 , v2 , v3 ) = (2v2 2v3 , 0, 2v2 + 2v3 ), para cada v = (v1 , v2 , v3 ) R3 . Hallar, si es posible, sendas bases de V respecto de las cuales las matrices de T y T sean diagonales.

k y T un endomorsmo de V. Probar que 1. Si k = C y V no tiene subespacios invariantes por T distintos del cero
y el total, entonces la dimensin de V es 1. 2. Si k = R y V no tiene subespacios invariantes por T distintos del cero y el total, entonces la dimensin de V es menor o igual que dos. Ejercicio 20. Sean T y S dos endomorsmos de un k -espacio vectorial V de dimensin nita. Probar: (a) Si T es diagonalizable, entonces para todo subespacio L de V que es invariante por T el endomorsmo T | L tambin es diagonalizable. (b) Si T y S conmutan, entonces los subespacios invariantes asociados a los autovalores de T son los subespacios invariantes asociados a los autovalores de S, y recprocamente. (c) Los endomorsmos T y S son simultneamente diagonalizables (esto es, existe una base de V formada por autovectores de los dos endomorsmos) si y slo si T y S son diagonalizables y conmutan. Ejercicio 21. Clasicar los endomorsmos de un espacio vectorial sobre R de dimensin 4 que: 1. Tienen un nico autovalor real. 2. No tienen ningn autovalor real. 3. Tienen dos autovalores reales distintos. 4. Tienen al menos un autovalor real.

Ejercicio 19. Sean V un espacio vectorial de dimensin nita sobre un cuerpo

MANUALES UEX
92

MTODOS MATEMTICOS PARA ESTADSTICA

5. Tienen al menos tres autovalores reales. 6. Tienen un nico factor invariante. Ejercicio 22. Calcular la forma cannica y la base de Jordan de los siguientes endomorsmos cuyas matrices respecto de la base cannica del correspondiente C-espacio vectorial son: 3 2 (a) 0 2 0 14 1 , (b) 13 0 3 0 0 5 17 1 1 0 0 1 0 1 0 0 (d) 0 0 1 1 , (e) 0 0 3 5 3 67 59 9 2 16 20 5 , (g) (f) 2 28 31 4 3 31 24 8 3 2 (h) 2 3 45 37 10 6 2 1 32 25 9 5 , 4 8 1 2 1 (c) 2 3 2 2 2 1 3 45 37 9 2 12 8 5 , 2 4 1 4 3 33 26 8 3 17 9 9 2 16 12 5 , 2 12 9 4 3 17 10 8 31 23 7 3 1 2 21 14 9 5 , 4 8 12 12 , 15

3 2 (i) 2 3

3 2 (j) 2 3

42 34 9 29 33 5 , 38 41 4 7 0 8

MANUALES UEX
93

Ejercicio 23. Sean V un espacio vectorial de dimensin 25 y f un endomorsmo de V. Si T ( x ) = ( x 1)25 dim(ker( f 1)) = 11, dim(ker(( f 1)2 )) = 16, dim(ker(( f 1)3 )) = 19, dim(ker(( f 1)4 )) = 22 y dim(ker(( f 1)5 )) = 25, escribir la forma cannica de Jordan de f .

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

MANUALES UEX
94

MTODOS MATEMTICOS PARA ESTADSTICA

TEMA IV

Potencias de matrices. Matrices no negativas


ste tema bien se podra denominar algunas aplicaciones de la forma cannica de Jordan , ya que vamos a usar la forma cannica de Jordan como herramienta de resolucin de problemas concretos. As, la primera seccin est dedicada a la obtencin de un expresin general para la potencia m-sima de una matriz A de la que conocemos su forma cannica de Jordan J y una matriz de invertible P tal que P1 AP = J. Esta frmula se aplica, por ejemplo, para calcular el trmino general de la solucin de una ecuacin lineal homognea en diferencias nitas con coecientes constantes con condicin inicial dada; dedicamos la segunda parte de esta seccin a la resolucin de este tipo de ecuaciones. En primer lugar, transformamos la ecuacin en diferencias en un sistema de ecuaciones en diferencias, escribimos el sistema matricialmente y concluimos que el trmino general xn+ p de la solucin de la ecuacin en diferencias se obtiene a partir de la frmula de la potencia n-sima de la matriz del sistema. Cabe destacar que A es una matriz de coecientes reales; luego, en principio podra parecer que necesitamos la forma cannica real de A, que no ha sido estudiada en el tema anterior. Sin embargo, podemos prescindir de ella (al menos formalmente), tratando el problema sobre los complejos habida cuenta de que An = PJ n P1 tiene que tener coecientes reales, an cuando la forma de Jordan, J, y la matriz de paso, P, tengan coecientes complejos; tal y como queda reejado en el teorema IV.2.3. La segunda seccin lleva por ttulo matrices no negativas. Una matriz no negativa es aquella cuyas entradas son nmeros reales positivos o nulos. Ntese que la matrices no negativas son fundamentales en Estadstica y Probabilidad, ya que las matrices estocsticas, las matrices de Leontieff y de Leslie son no negativas. En realidad, nosotros nos centraremos en las matrices no negativas irreducibles y posteriormente en las primitivas por sus buenas e interesantes propiedades espectrales. Las matrices no negativas e irreducibles tienen la particularidad de poseer un autovalor real positivo de multiplicidad 1 con un autovector positivo asociado tal que || , para todo autovalor (real o complejo) de A.
95

MANUALES UEX
95

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Este es el resultado principal de esta parte del tema, y se denomina Teorema de Perron-Frbenius. El autovalor de una matriz no negativa e irreducible A se llama autovalor de Perron de A y el autovector positivo asociado a cuyas entradas suman 1 se llama autovector de Perron. Una matriz no negativa A tal que Am > 0 para algn m, se dice que es primitiva. Las matrices primitivas son irreducibles, y adems cumplen que su autovalor de Perron es estrictamente mayor en mdulo que cualquier otro de sus autovalores. Terminamos esta seccin mostrando un interesante ejemplo sobre un modelo poblacional basado en matrices irreducibles no negativas: el llamado modelo matricial de Leslie. Este ejemplo ilustra a la perfeccin el inters prctico de las matrices irreducibles no negativas, y por aadidura, el estudio de los autovalores y autovectores de una matriz. La ltima seccin del tema lleva por nombre cadenas de Markov homogneas y nitas y sirve como introduccin terica para la prctica 7. Las ecuaciones en diferencias estudiadas en este tema aparecen en la asignatura Series Temporales en el estudio de los modelos autorregresivos (vase el captulo 15 de [dR87]); ms concretamente para el clculo de las funciones de autocorrelacin simple de los modelos mixtos autorregresivos-media mvil. Prescindiendo de los nombres, basta decir que estos modelos estn denidos por una ecuacin lineal homognea en diferencias nitas con coecientes constantes. Para la elaboracin de la primera parte de este tema, hemos usado los captulos 9 y 10 de [FVV03] pero con la vista puesta en la seccin quinta del captulo 10 de [Her85]. En los captulos citados de [FVV03] se pueden encontrar multitud de ejemplos interesantes del uso prctico de las ecuaciones en diferencias estudiadas en este tema. Para las dos ltimas secciones hemos seguido el captulo 8 de [Mey00], aunque tambin hemos utilizado parcialmente la seccin 8 del captulo 8 de [Sch05], del captulo 7 de [Sea82] y del captulo 1 de [Sen81]. 1. Potencias de matrices

MANUALES UEX
96

En la primera parte de este tema vamos calcular una expresin general para la potencia m-sima de una matriz A Mn (k), a partir de su forma cannica de Jordan. Teorema IV.1.1. Sean A Mn (k). Si J = P1 AP es la forma cannica de Jordan de A, entonces Am = PJ m P1 . Demostracin. Basta tener en cuenta que si J = P1 AP, entonces A = PJP1 , de donde se sigue que Am = ( PJP1 )m = PJ m P1 .

MTODOS MATEMTICOS PARA ESTADSTICA

El teorema anterior reduce el clculo de la potencia m-sima de A al del clculo de la potencia m-sima de su forma cannica de Jordan, que como sabemos es una matriz diagonal por bloques (de Jordan). Teniendo en cuenta que el producto de matrices diagonales por bloques se calcula efectuando los correspondientes productos de los bloques, para obtener una expresin general de la potencia m-sima de una matriz de Jordan basta determinar cul es la potencia m-sima de un bloque de Jordan. Proposicin IV.1.2. Sea B Ms (k) un bloque Jordan de orden s. Si k es una entrada de la diagonal principal de B, entonces m m m 1 m m 2 m . . . ( s 1 ) m s +1 ( 2 ) ( 1 ) m 0 m ( m ) m 1 . . . ( s 2 ) m s +2 1 m m 0 . . . ( s 3 ) m s +3 , (IV.1.1) Bm = 0 . . . . .. . . . . . . . . . m 0 0 0 ... entendiendo que (m) = 0 si m < r. r Demostracin. Sabemos que B y la matriz nilpotente 0 0 N= . . . 0 0 es la suma de la matriz diagonal D Ms (k) 1 0 . . . 0 0 ... .. . .. . ... ... 0 0 .. . 0 0 0 0 . . .

M s (k). 1 0

Como D conmuta con cualquier matriz cuadra de orden s y N s1 = 0 y N m = 0, m s, se tiene que B m = ( D + N ) m m m ( D ) m 1 N + . . . + ( D ) m s +1 N s 1 1 s1 m m 1 m = m Is + N +...+ m s +1 N s 1 , 1 s1

= ( D ) m +

de donde se sigue la expresin buscada. Por consiguiente, la expresin general de la Mn (k) es m B1 0 ... 0 0 Bm . . . 0 2 Am = P . . . .. . . . . . . . m 0 0 . . . Bt potencia m-sima de A 1 P ,

MANUALES UEX
97

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

donde P1 AP es la forma cannica de Jordan de A y cada Bm es la potencia j m-sima de un bloque Jordan, esto es, una matriz de la forma (IV.1.1). Ejemplo IV.1.3. La matriz A= 7/2 1/2

6 0

es claramente diagonalizable, pues tiene dos autovalores distintos 1 = 2 y 2 = 3/2. Su forma cannica de Jordan es J= y una matriz de paso es P= 1 1/2 2m 0 2 0 0 3/2

3 2

Por consiguiente, la expresin general de la potencia m-sima de A es Am = PJ m P1 = 4 1 6 2 0 (3/2)m 1 3 1/2 2 .

Obsrvese que la expresin anterior para potencia m-sima de A se puede obtener siempre (independientemente de que A tenga todos sus autovalores en k o no), ya que si bien la matriz de Jordan de A puede tener sus entradas en una extensin del cuerpo k (por ejemplo, si k = R y alguno de los autovalores de A est en C), el resultado nal Am pertenece claramente a M n (k). Ejemplo IV.1.4. La matriz A= 0 1

1 0

M2 (R)

MANUALES UEX

tiene dos autovalores complejos = i y = i. Su forma cannica compleja es i 0 J= 0 i y una matriz de paso es 1 1 P= . i i Por consiguiente, Am = PJ m P1 = 1 2 1 i 1 i im 0 0 (i)m 1 1 i i ,

98

= 1/2

im +1

im + (i)m (i)m+1

im+1 + (i)m+1 (im+2 + (i)m+2 )

MTODOS MATEMTICOS PARA ESTADSTICA

que, aunque no lo parezca, es una matriz real. 2. Ecuaciones en diferencias nitas

Denicin IV.2.1. Dados a1 , . . . , a p R, con a p = 0, se llama ecuacin lineal en diferencias nitas con coecientes constantes de orden p a una relacin de recurrencia del tipo (IV.2.2) x n + p a 1 x n + p 1 . . . a p x n = ( n ), para todo n 1 donde : N R es una funcin. Si (n) = 0, para todo n N, se dice que la ecuacin lineal en diferencias con coecientes constantes (IV.2.2) es homognea. Una solucin para la ecuacin (IV.2.2) es una sucesin { xn }n1 que la satisfaga. Ejemplo IV.2.2. La ecuacin xn+2 = xn+1 + xn , n 1, es una ecuacin lineal en diferencias con coecientes constantes homognea. Mas adelante (en el ejemplo IV.2.5) veremos que una de sus soluciones es la sucesin de Fibonacci. A continuacin, vamos a hallar una expresin explcita de xn en funcin de n tal que la sucesin { xn }n1 sea solucin de la ecuacin (IV.2.2) en el caso homogneo. El caso no homogneo puede consultarse en [FVV03] por ejemplo. Consideremos la ecuacin lineal en diferencias con coecientes constantes homognea de orden p (IV.2.3) xn+ p a1 xn+ p1 . . . a p xn = 0, para todo n 1.

cuya matriz es (IV.2.4) A= a1 1 0 . . . 0 a2 0 1 . . . 0 ... ... ... .. . ... a p 1 0 0 . . . 1 ap 0 0 . . . 0 ,

MANUALES UEX
99

Para cada n 1, se tiene el siguiente sistema de ecuaciones lineales (en diferencias con coecientes constantes) xn+ p = a 1 x n + p 1 + . . . + a p 1 x n +1 + a p x n x n + p 1 = x n + p 1 . . . x n +1 = x n +1

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


que llamaremos matriz asociada a la ecuacin en diferencias1. De tal forma que, si, para cada n 1, denotamos xn = ( xn+ p , xn+ p1 , . . . , xn+1 )t k p , entonces xn = Axn1 = A2 xn2 = . . . = An x0 . De donde se sigue que el trmino general xn+ p de cualquier solucin de la ecuacin en diferencias (IV.2.3) es una combinacin lineal de las entradas de la primera la de An . Dado que sabemos cmo calcular una expresin general para las potencias de cualquier matriz cuadrada, vamos a tratar de anar un poco ms la armacin anterior. Teorema IV.2.3. Sean a1 , . . . , a p R, con a p = 0. El trmino general de la solucin de la ecuacin en diferencias xn+ p = a1 xn+ p1 + . . . + a p xn , para todo n 1, es una combinacin lineal con coecientes reales de n , nn , . . . , nm1 n , para cada autovalor real de multiplicidad m de la matriz de la ecuacin en diferencias y de n cos(n ), nn cos(n ), . . . , nm1 n cos(n ), n sen(n ), nn sen(n ), . . . , nm1 n sen(n ), para cada autovalor complejo = (cos( ) + i sen( )) de multiplicidad m de la matriz de la ecuacin en diferencias. Demostracin. Sea A M p (R) la matriz de la ecuacin en diferencias. Sabemos que el trmino general xn+ p de cualquier solucin de la ecuacin en diferencias es una combinacin lineal con coecientes en R de las entradas de la primera la de An . Por consiguiente, si J = P1 AP es la forma cannica de Jordan de A, entonces, por el teorema IV.1.1, An = PJ n P1 , de donde se sigue que las entradas de la primera la de A sern combinaciones lineales de las entradas de J n ; estas entradas son, en virtud de la proposicin IV.1.2, n n 1 n n 2 n n , , ,..., n m +1 , 1 2 m1 para cada autovalor de A, siendo m su multiplicidad (pues los bloques de Jordan son a lo sumo de orden m).
1Asimismo, se llama polinomio caracterstico de la ecuacin en diferencias. al polinomio

MANUALES UEX
100

caracterstico de A. Se comprueba fcilmente, por induccin en p, que A ( x ) = x p a1 x p1 . . . a p1 x a p . No obstante, es tradicin en la teora de series temporales denominar polinomio caracterstico de la ecuacin en diferencias a p(y) = 1 a1 y . . . a p y p , esto es, a p A1 (y) (vase el apndice 15A de [dR87])

MTODOS MATEMTICOS PARA ESTADSTICA

Teniendo ahora en cuenta que, para cada s = 1, . . . , m 1, n ns s n ( n 1) ( n s + 1) n = s! s

s s n + b1s ns1 + . . . + bs1,s n n , s!

para ciertos bs1 , . . . , bs1,s R, concluimos que las entradas de PJ n P1 son combinaciones lineales de n , nn , . . . , nm1 n , para cada autovalor de A, siendo m su multiplicidad. Finalmente, si es un autovalor complejo de A, entonces tambin es un autovalor (complejo) de A. Dado que = (cos( ) + i sen( )) y, consecuen temente, = (cos( ) i sen( )), se sigue que las combinaciones lineales de n , nn , . . . , nm1 n , n , nn , . . . , nm1 n , son combinaciones con coecientes reales de n cos(n ), nn cos(n ), . . . , nm1 n cos(n ), n sen(n ), nn sen(n ), . . . , nm1 n sen(n ), para cada autovalor complejo = (cos( ) + i sen( )) de A, siendo m su multiplicidad, habida cuenta que n = n (cos(n ) + i sen(n )). Corolario IV.2.4. Sean a1 , . . . , a p R, con a p = 0. Si la matriz A M p (R) de la ecuacin en diferencias xn+ p a1 xn+ p1 . . . a p xn = 0, para todo n 1 es diagonalizable y 1 , . . . , r R son los autovalores distintos de A (en particular, si los autovalores de A son reales y distintos, vase el corolario III.3.6), entonces el trmino general de la solucin general de la ecuacin en diferencias es
n n n x n + p = c1 1 + c2 2 + . . . + cr r ,

donde c1 , c2 , . . . , cr R son constantes arbitrarias. Demostracin. Si A es diagonalizable y J = P1 AP es la forma cannica de Jordan de A, entonces, por el teorema IV.1.1, An = PJ n P1 , de donde se sigue que las entradas de la primera la de A sern combinaciones lineales n n de las entradas de J n ; es decir, de 1 , . . . , r , ya que al ser A diagonalizable, se tiene que J es una matriz diagonal y las entradas de su diagonal principal son precisamente los autovalores de A repetidos tantas veces como indique su multiplicidad (vase la nota III.3.2). El trmino general de la solucin de una ecuacin lineal en diferencias con coecientes constantes de orden p depende de p constantes arbitrarias. Si en la solucin general se dan valores particulares a las p constantes, se obtiene

MANUALES UEX
101

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

una solucin particular. En general, las p constantes se determinan a partir de p condiciones adicionales llamadas condiciones iniciales. Ejemplo IV.2.5. La sucesin de Fibonacci. Leonardo Fibonacci (o Leonardo de Pisa, 1175-1230) plante en su Liber abaci el siguiente problema: Un hombre pone una pareja de conejos en un lugar cercado por todos lados. Cuntos conejos tendr al cabo de un ao si se supone que cada pareja engendra cada mes una nueva pareja que, a su vez, es frtil a partir del segundo mes de vida? Se supones adems que no muere ningn conejo. Sea Fn el nmero de parejas existentes al cabo del mes n-simo; se comienza con una pareja recin nacida: F1 = 1; al nal del primer mes esa pareja todava no es frtil, as que sigue tenindose F2 = 1; al nal del segundo mes la pareja anterior, ya frtil, da origen a una nueva pareja: F3 = 1 + 1 = F2 + F1 . Y en general, se tendr (IV.2.5) Fn+2 = Fn+1 + Fn , n 1

pues por la ley supuesta, cada mes nacen tantas parejas como parejas haba dos meses antes. Empezando con F0 = 1 y F1 = 1, se tiene la sucesin 1, 1, 2, 3, 5, 8, 13, 21, 34, 55, . . . Esta es la sucesin de Fibonacci; aparece en una variedad increble de contextos y est relacionada con la seccin urea de los griegos (vase [FVV03] pp. 543-548). La ecuacin caracterstica de (IV.2.5) es x2 x 1 con lo que los autovalores son

1 5 1+ 5 , 2 = . 1 = 2 2
La solucin general de (IV.2.5) es, por el corolario IV.2.4, ser pues

MANUALES UEX

(IV.2.6)

Fn+2 = c1

1+ 5 2

+ c2

1+ 5 2

, n 1, c1 , c2 R.

102

La sucesin de Fibonacci corresponde a los datos F1 = 1 y F2 = 1; imponiendo estas condiciones iniciales en la frmula (IV.2.6) se obtienen los valores 1 1+ 5 1 1 5 c1 = , c2 = 2 2 5 5

MTODOS MATEMTICOS PARA ESTADSTICA

con lo que la expresin de su trmino general es n +1 1 5 1 1+ 5 Fn+2 = 2 2 5

n +1

Ntese que esta frmula genera nmeros naturales a pesar de contener expresiones irracionales. 3. Matrices no negativas

Denicin IV.3.1. Una matriz A = ( aij ) Mn (R) es no negativa, lo que denotaremos por A 0, si aij 0, para todo i, j {1, . . . , n}. Si aij > 0, para todo i, j {1, . . . , n}, diremos que la matriz A es positiva y lo denotaremos por A > 0. Denicin IV.3.2. Sea n 2. Se dice que una matriz A Mn (R) es irreducible si no existe ninguna matriz de permutacin2 P Mn (k) tal que PAPt = A11 0 A12 A22 ,

donde A11 (y A22 ) es cuadrada de orden menor que n; en otro caso, se dice que A reducible. Ntese que si T es el endomorsmo de Rn cuya matriz asociada respecto de una base B (por ejemplo la base usual) de Rn es A, la condicin necesaria y suciente para que A sea irreducible es que no exista ningn subconjunto de vectores de B que genere un subespacio de Rn invariante por T. Proposicin IV.3.3. Sea A Mn (R). Si A es no negativa e irreducible, entonces

( In + A)n1 v > 0,
para todo v V no nulo; en particular, ( In + A)n1 > 0. Demostracin. Consideremos un vector v Rn no nulo tal que v 0 y escribamos w = ( In + A)v = v + Av.

Pv =

u 0

2Una matriz de permutacin es un producto de matrices correspondientes a transforma-

ciones elementales de tipo I. Recurdese que si P es una matriz permutacin, entonces P1 = Pt .

MANUALES UEX
103

Como A 0, el producto Av 0, por lo que w tiene, al menos, tantas entradas no nulas, y por tanto positivas, como v. Vamos a probar que si v no es ya positivo, entonces el vector w tiene al menos una entrada no nula ms que v. Si P Mn (k) es una matriz de permutacin tal que

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

y u > 0, entonces (IV.3.7) Pw = P( In + A)v = P( In + A) Pt u 0

u 0

+ PAPt

u 0

ya que PPt = In . Si agrupamos las entradas de Pw y de PAPt de forma consistente con la de Pv x A11 A12 Pw = y PAPt = , y A21 A22 entonces, de (IV.3.7) se sigue que x = u + A11 u e y = A21 u. Como A es no negativa e irreducible, se tiene que A11 0, A21 0 y A21 = 0, por lo que x > 0 y y 0; adems, como u > 0, se tiene que y = 0. As, concluimos que w tiene al menos una componente no nula ms que v. Si w = ( In + A)v no es ya un vector positivo, repetimos el argumento anterior con w, y entonces ( In + A)2 v tiene, al menos, dos componentes positivas ms que v. De este modo, despus de a lo ms n 1 pasos encontramos que ( In + A)n1 v > 0, para cualquier vector no nulo v 0. Finalmente, tomando v = ei , i = 1, 2, . . . , n, donde ei es el vector i-simo de la base usual de Rn , concluimos que ( In + A)n1 > 0. Veamos ahora un criterio prctico para determinar si una matriz A Mn (R) es irreducible: El concepto de matriz irreducible no est asociado con las magnitudes o con los signos, sino con la disposicin de las entradas nulas y no nulas en la matriz. De modo que, para estudiar si una matriz dada es irreducible, podemos pensar que todos las entradas no nulas son unos, obtenindose de este modo la matriz de adyacencia de un grafo dirigido. Ms concretamente, sean A = ( aij ) Mn (R) una matriz cualquiera y G A = (V, E) es el grafo dirigido cuyo conjunto de vertices es V = {1, . . . , n} tal que (i, j) E si, y slo si, aij = 0 (obsrvese que la matriz de adyacencias de G es A = ( aij ) Mn (R) con aij = 1 si aij = 0 y cero en otro caso. Denicin IV.3.4. Sea dice que un grafo dirigido G A = (V, E) es fuertemente conexo si para cada par de vrtices i, j V existe un camino dirigido (i, i1 ), (i1 , i2 ), . . . , (is , j) E que conecta i con j. Obsrvese que podra haber un camino dirigido de i a j pero no de j a i. Lema IV.3.5. Sea A = ( aij ) Mn (R). Si existe i j tal que aij = 0, para todo i = j, entonces G A no es fuertemente conexo.

MANUALES UEX
104

MTODOS MATEMTICOS PARA ESTADSTICA

Demostracin. Por simplicidad supongamos que a12 = . . . = a1n = 0. Entonces, no hay ninguna echa que comience en el vrtice i. Luego, no hay conexin desde el vrtice i haca ningn otro. Lema IV.3.6. Sea A Mn (R). Si A= A11 0 A12 A22

con A11 (y A22 ) cuadrada de orden r < n, entonces G A no e fuertemente conexo. Demostracin. Basta observar que no se puede conectar el vrtice r + 1 con el vrtice r, ya que cualquier camino dirigido que comience en r + 1 slo conecta vrtices mayores o iguales que r + 1 y cualquier camino dirigido que nalice en r slo conecta vrtices menores o iguales que r. De modo que para que existiese un camino dirigido de r + 1 a r tendra que haber una echa (i, j) con i r + 1 y j r, lo que no es posible pues aij = 0 si i r + 1 y j r, por hiptesis. Lema IV.3.7. Sean A Mn (R) y P Mn (R) una matriz de permutacin. El grafo G A es fuertemente conexo si, y slo si, el grafo G Pt AP es fuertemente conexo. Demostracin. Basta observar que el grafo dirigido asociado a Pt AP se obtiene del de A mediante una reordenacin de sus vrtices, y esto no afecta al carcter fuertemente conexo. Teorema IV.3.8. Sea A Mn (R). Si G A es fuertemente conexo, entonces A es irreducible. Demostracin. Si A es reducible, el grafo GPt AP no es fuertemente conexo para alguna matriz de permutacin P Mn (R), lo cual es equivalente a que G A tampoco lo sea. Teorema de Perron-Frbenius.

Sean A = ( aij ) Mn (R) una matriz no negativa e irreducible y : L Rn R, con L = {x Rn | x 0 con x = 0}, la funcin denida por

(x) = mn
xL

n=1 aij x j j xi

| xi = 0, i = 1, . . . , n .

Lema IV.3.9. Con la notacin anterior, para todo x L se cumple que i)

(x) 0.

MANUALES UEX
105

A continuacin vamos a demostrar que toda matriz cuadrada no negativa e irreducible posee un autovalor real de multiplicidad 1 y mdulo mximo.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

ii) (x) xi n=1 aij x j , para todo i = 1, . . . , n. j iii) Ax (x)x 0, adems (x) es el mayor nmero con esta propiedad. iv) Si x = (1, 1, . . . , 1)t Rn , entonces (x) = mn n=1 aij | i = 1, . . . , n . j Demostracin. La demostracin es un sencillo ejercicio que se propone al lector. Veamos que alcanza su valor mximo en el interior de L. Lema IV.3.10. Con la notacin anterior, existe v > 0 tal que (v) = m x{ (x) | a x L}. Demostracin.3 En primer lugar, observamos que (x) = (x), para todo x L y > 0; por tanto, a la hora de calcular el supremo de { (x) | x L} 2 podemos restringirnos al conjunto M = {x = ( x1 , . . . , xn ) L | x1 + . . . + 2 = 1} que es un subconjunto cerrado y acotado de Rn . De tal forma que xn si fuese continua en M entonces se alcanzara el supremo; sin embargo, puede ocurrir que no sea continua en M. Consideremos entonces N = {( In + A)n1 x | x M}. Por la proposicin IV.3.3, todo elemento de N es un vector positivo, por lo que N L. Adems, N es una imagen continua de M, por lo que es cerrado y acotado, y es continua en N porque no hay denominadores nulos. Por consiguiente, alcanza un mximo en N (vase el teorema A.4.9); y como N L, se tiene que m x (x) | x N sup (x) | x L . a Dado x M, sea y N tal que y = ( In + A)n1 x; veamos que (x) (y). Como Ax (x)x 0 (vase el apartado iii) del lema IV.3.9), se tiene que 0 ( In + A)n1 ( Ax (x)x)

= A( In + A)n1 x (x)( In + A)n1 x = Ay (x)y;


pues A y ( In + A)n1 conmutan. Teniendo ahora en cuenta que (y) es el mayor nmero tal que Ay (y)y 0, obtenemos que (x) (y); luego, sup

MANUALES UEX

(x) | x L = sup
sup

(x) | x M m x{ (y) | y N . a (x) | x N

En conclusin

(x) | x L = m x a

y existe y > 0 tal que (y) = sup

(x) | x L .

106

3La demostracin hace uso de algunos resultados bsicos sobre funciones en el espacio

eucldeo Rn , vase, por ejemplo, el captulo 1 de [Spi88].

MTODOS MATEMTICOS PARA ESTADSTICA

Puede existir ms de un vector positivo en L donde la funcin alcance su valor mximo; tales vectores se denominan vectores extremales de A. Lema IV.3.11. Sean A Mn (R) irreducible y no negativa, v Rn un vector extremal de A y = (v) R0 . (a) Si Au u 0, para algn u 0 no nulo, entonces Au = u. (b) Cualquier autovector de A asociado a tiene todas sus entradas no nulas. Demostracin. (a) Sea u 0 no nulo tal que Au u 0. Si Au u = 0, entonces, por la proposicin IV.3.3,

( I + A)n1 ( Au u) > 0.
Luego, si w = ( I + A)n1 u, entonces Aw w > 0, es decir, < n=1 aij w j j wi , para todo i = 1, . . . , n.

De donde se sigue que < (w), lo que supone una clara contradiccin con el hecho de que v sea extremal. Por consiguiente, Au u = 0, esto es, es un autovalor de A y u un autovector de A asociado a . (b) Sea u un autovector de A asociado a . Entonces Au = u y u = 0, por lo que |u| = |u| = | Au| 4 A|u|, donde | Au| y |u| son los vectores de Rn cuyas entradas son los valores absolutos de las entradas de Au y u, respectivamente. Luego, A|u| |u| 0; de donde se sigue, usando el apartado anterior, que |u| es un autovector de A asociado a . Por otra parte, por la proposicin IV.3.3, tenemos w = ( In + A)n1 |u| > 0, de modo que 0 < w = ( In + A)n1 |u| = (1 + )n1 |u|, por ser |u| un autovector de A asociado a . De donde se deduce que |u| > 0 y, por lo tanto, que u no tiene ninguna de sus entradas nula. Teorema de Perron-Frbenius. Sea A Mn (R) irreducible y no negativa. Entonces (a) A tiene, al menos, un autovalor real y positivo con un autovector asociado v > 0. (b) el autovalor tiene multiplicidad 1. (c) || , para todo autovalor (real o complejo) de A, es decir, es el radio espectral5 de A.
4Recurdese que |z + z | |z | + |z |, para todo z , z C. 2 2 1 1 1 2 5Recurdese que el radio espectral de un matriz es el mayor de los mdulos de sus auto-

valores reales y complejos.

MANUALES UEX
107

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Demostracin. Sean v Rn un vector extremal y = (v) R0 . (a) Por el apartado iii) de lema IV.3.9, Av v 0, luego del lema IV.3.11(a) se sigue que R0 es un autovalor de A y v > 0 es un autovector de A asociado a . (b) Supongamos que existen dos autovectores linealmente independientes de A, u = (u1 , . . . , un ) y w = (w1 , . . . , wn ), asociados a ; segn el lema IV.3.11(b) ningn autovector de A asociado a tiene componentes nulas, por lo que cualquier combinacin lineal de u y w no las tendr. Sin embargo, w1 u u1 w = (0, w1 u2 u1 w2 , . . . , w1 un u1 wn ) lo que supone una contradiccin. Por consiguiente, no existen dos autovectores linealmente independientes de A asociados a , es decir, el subespacio propio L1 = ker(In A) asociado a tiene dimensin 1. Luego, L1 est generado por el vector extremal v. Veamos ahora que L1 = L2 = ker (In A)2 . La inclusin L1 L2 se da siempre, por lo que basta demostrar la inclusin L1 L2 . Si u L2 , es claro que (In A)u L1 por lo que existe R tal que (In A)u = v, si es cero, entonces u L1 . Supongamos, pues, que = 0 y consideremos un autovector w de At asociado a , que, por los argumentos anteriores, podemos tomar positivo; de tal modo que, como wt (In A) = 0, se tiene que 0 = wt (In A)u = wt (v) = wt v, lo que contradice el carcter positivo de los vectores. De todo esto se deduce que la multiplicidad de es igual a 1. (c) Sea un autovalor de A. Entonces para algn u = 0 (que puede tener coordenadas complejas) se tiene que

aij u j = ui ,
j

de donde se sigue que

|ui | =

aij u j
j

aij |u j |.
j

MANUALES UEX

Luego, j aij |ui | , | ui | para todo ui no nulo. De modo que si |u| es el vector de Rn cuyas entradas son los mdulos de las entradas de u, concluimos que

||

|| (|u|) ,
por la maximalidad de .

108

MTODOS MATEMTICOS PARA ESTADSTICA

Denicin IV.3.12. Sea A Mn (R) no negativa e irreducible. El autovalor cuya existencia demuestra el Teorema de Perron-Frbenius se llama autovalor de Perron de A, el autovector v > 0 de A asociado a cuyas entradas suman 1 se llama autovector de Perron. Corolario IV.3.13. Sean A Mn (R) no negativa e irreducible y su autovalor de Perron. Si A tiene una la de entradas no nulas, entonces || < , para todo autovalor de A distinto de . Demostracin. Supongamos que todas las entradas de la primera la de A son no nulas. Sea un autovalor de A tal que || = y u un autovector de A asociado (que puede tener coordenadas complejas). Entonces, |u| = |u| = | Au| A|u|, donde | Au| y |u| son los vectores de Rn cuyas entradas son los valores absolutos de los entradas de Au y u, respectivamente. Como A|u| |u| 0, por el lema IV.3.11, |u| es un autovector de A asociado a . Por consiguiente,

| Au| = |||u| = |u| = A|u|.


Si nos jamos en la primera la nos queda que
n n

j =1

a1j u j

j =1

a1j |u j |,

y como a1j = 0, j = 1, . . . , n, se sigue que todas las entradas de u son reales6 y simultneamente no positivos o no negativos7 es decir, u es un mltiplo de un vector no negativo w. Entonces u = w, con w 0. Por tanto, |u| = ||w, luego w es un autovector de A asociado a , y concluimos que u tambin lo es y que = . Matrices primitivas. Denicin IV.3.14. Se dice que una matriz A Mn (R) no negativa es primitiva si existe m > 0 tal que Am > 0.

6Basta tener en cuenta que |z + z | = |z | + |z | si, y slo si, z y z son nmeros reales 2 2 2 1 1 1

positivos o negativos simultneamente. 7 Ntese que si x R es positivo e y R negativo, entonces | x + y| < m x(| x |, |y|) < a | x | + | y |,

MANUALES UEX
109

Nota IV.3.15. Toda matriz primitiva es irreducible. En efecto, sea A una matriz primitiva y supongamos que existe una matriz de permutacin P Mn (R) tal que A11 A12 PAPt = , 0 A22

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

con A11 y A22 matrices cuadradas de orden menor que n. Entonces A m = Pt


m A11 0

A12 m A22

P,

para todo m > 1, lo que es del todo imposible, pues A es primitiva y existe m > 0 tal que Am > 0. Sin embargo, no toda matriz irreducible es primitiva, considrese por ejemplo 0 1 A= . 1 0 Teorema IV.3.16. Sea A Mn (R) primitiva. Existe un nico autovalor real positivo de A de multiplicidad 1 con un autovector asociado v > 0 tal que

|| < ,
para todo autovalor de A distinto de . Demostracin. Como A es primitiva, es no negativa e irreducible; luego, por el Teorema de Perron-Frbenius existe autovalor real de A de multiplicidad 1 con un autovector asociado v > 0 tal que

|| ,
para todo autovalor de A. Por otra parte, existe m > 0 tal que Am > 0. La matriz Am es obviamente primitiva, por lo que es no negativa e irreducible, y adems tiene todas sus las de entradas no nulas. Por consiguiente, del corolario IV.3.13 se sigue que el autovalor de Perron de Am verica que

| | <
para todo autovalor de distinto de . Teniendo ahora en cuenta que los autovalores de Am son las potencias m-simas de los autovalores de A, de las desigualdades anteriores se deduce que = m , y por lo tanto que en la desigualdad || , para todo autovalor de A, slo se da la igualdad cuando = . Am

MANUALES UEX

Modelo matricial de Leslie. Dividamos la poblacin de hembras de una misma especie en distintos grupos de edad G1 , G2 , . . . , Gn , donde cada grupo tiene la misma amplitud. As, si la vida ms larga se estima en L aos, la amplitud de cada grupo de edades es de L/n aos. El grupo G1 est formado por los individuos cuya edad est en el intervalo [0, L/n) es decir, que tienen menos de L/n aos. El siguiente grupo por edades G1 , lo forman los individuos cuya edad est en el intervalo [ L/n, 2L/n). El siguiente grupo lo forman los individuos con

110

MTODOS MATEMTICOS PARA ESTADSTICA

edad en [2L/n, 3L/n), y as, hasta llegar al ltimo grupo formado por los individuos cuya edad est comprendida en el intervalo [(n 1) L/n, L]. Supongamos que los censos de poblacin se realizan en intervalos de tiempo iguales a la amplitud de los grupos de edades, y consideremos las tasas de fecundidad y supervivencia: denotamos por f i el nmero promedio de hijas de cada hembra del grupo Gi (esto es la tasa de fecundidad especca del grupo Gi ). Llamamos si a la fraccin de individuos del grupo Gi que sobreviven al intervalo entre censos y pasan a formar parte del grupo Gi+1 . Si pi (m) es el nmero de hembras de Gi en el instante m, entonces se sigue que (IV.3.8) Adems, Pi (m) = pi ( m ) p0 (m) + p1 (m) + . . . + pn (mj) p1 ( m + 1) p i ( m + 1)

= =

p1 ( m ) f 1 + p2 ( m ) f 1 + . . . + p n ( m ) f n pi1 (m)si1 ; para i = 2, . . . , n.

es la proporcin de poblacin en Gi en el instante m. El vector P(m) = ( P1 (m), P2 (m), . . . , Pn (m))t representa a la distribucin de edades de la poblacin en el instante m, y, suponiendo que existe, P = lmm P(m) es la distribucin de edades de la poblacin a largo plazo.

Figura 1. Distribucin de edades de una poblacin divida en tres grupos edad a lo largo del tiempo.

MANUALES UEX
111

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Las ecuaciones (IV.3.8) constituyen un sistema de ecuaciones lineales en diferencias homogneo que se puede escribir en forma matricial como (IV.3.9) f 1 f 2 . . . f n 1 f n s1 0 . . . 0 0 0 s2 . . . 0 0 M n (R) p(m) = A p(m 1), donde A = . . .. . . . . . . . . . . . 0 0 ... s n 1 0 y p(m) = ( p1 (m), . . . , pn (m))t , para todo m 0. De modo que p(m) = Am p(0) para todo m > 0. La matriz A se llama Matriz de Leslie en honor de P.H. Leslie que introdujo este modelo en 1945. La matriz A es una matriz no negativa, pues si > 0, i = 1, . . . , n 1 y f i 0, i = 1, . . . , n. Adems, si n > 2 y f n1 , f n son positivos, entonces A es primitiva (ejercicio 14), en cuyo caso existir P y podremos determinar su valor. Supongamos, pues, que f n1 , f n son positivos; de este modo, el teorema IV.3.16 garantiza la existencia de un autovalor real positivo de A de multiplicidad 1 con un autovector asociado v > 0 tal que

|| < ,
para todo autovalor de A distinto de . De tal forma que el lmite de Am /m cuando j tiende a innito es una matriz no nula cuyas columnas son proporcionales a v es decir, Am lm m = vwt , m para algn w Rn . Por otra parte, tenemos que P = lm P(m) = lm p(m) A m p (0) = lm m (1, 1, . . . , 1) Am p (0) m m (1, 1, . . . , 1) p ( m ) ( Am p(0))/m lmm ( Am /m )p(0) = = lm m p (0)) /m m (1, 1, . . . , 1)( A lmm (1, 1, . . . , 1)( Am /m )p(0)

MANUALES UEX

(vwt )p(0) v(wt p(0)) = t ) p (0) (1, 1, . . . , 1)(vw (1, 1, . . . , 1)v(wt p(0)) v = . v1 + . . . + v n

112

En resumen, P es el autovector de Perron de A, es decir, el autovector de Perron es la distribucin de edades de la poblacin a largo plazo.

MTODOS MATEMTICOS PARA ESTADSTICA

Ejemplo IV.3.17. Las hembras de cierta especie animal viven tres aos. Supongamos que la tasa de supervivencia de hembras en sus primero y segundo aos es del 60 % y 25 %, respectivamente. Cada hembra del segundo grupo de edad tiene 4 hijas al ao de media, y cada hembra del tercer grupo tiene una media de 3 hijas por ao. La gura 1 muestra la distribucin de los tres grupos edades a lo largo tiempo en escala semilogartmica. Observamos que si bien la poblacin de hembras crece indenidamente, cuando el tiempo es sucientemente alto, la proporcin de hembras de cada grupo de edad se mantiene estable, segn el autovector de Perron de la correspondiente matriz de Leslie. En la prctica 6 estudiaremos este y otros ejemplos con ms detalle.

4.

Cadenas de Markov homogneas y nitas

Denicin IV.4.1. Sea P = ( pij ) Mn (R) tal que pij [0, 1], i, j = 1, . . . , n. Se dice que P es una matriz estocstica cuando sus columnas o las suman 1. Diremos que es doblemente estocstica cuando sus columnas y las suman 1. Nos centraremos en el caso en que las columnas suman 1. No es raro encontrar textos donde esta condicin se supone sobre las las, pero los resultados son semejantes. Denicin IV.4.2. Un vector no negativo p = ( p1 , . . . , pn )t Rm se dice que n es de probabilidad si p 1 := i=1 pi = 1. De esta forma una matriz estocstica tiene como columnas a vectores de probabilidad. Ntese que las matrices estocsticas son no negativas. Supongamos que estamos observando algn fenmeno aleatorio a lo largo del tiempo, y que en cualquier punto concreto del tiempo nuestra observacin puede tomar uno de los n valores, a veces llamados estados, 1, . . . , n. En otras palabras, tenemos una sucesin de variables aleatorias Xm , para periodos de tiempo m = 0, 1, . . . , donde cada variable puede ser igual a de los nmeros, 1, . . . , n. Si la probabilidad de que Xm se encuentre en el estado i slo depende del estado en que se hallase Xm1 y no en los estados de periodos anteriores de tiempo, entonces el proceso se dice que es una cadena de Markov. Si la probabilidad tampoco depende del valor de m, entonces la cadenas de Markov se dice que es homognea, y si el nmero de estados es nito, como es nuestro caso, la cadena de Markov se dice nita. En el caso de las cadenas de Markov homogneas y nitas, la probabilidades de cualquier periodo de tiempo se pueden calcular a partir de la

MANUALES UEX
113

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

probabilidades iniciales de los estados y lo des de transicin. Denotaremos (0) p 1 . p0 = . . (0) pn

que se conoce como probabilida


(0)

al vector de probabilidades iniciales, donde pi es la probabilidad de que el proceso comience en el estado i. La matriz de transicin de probabilidades es la matriz P = Mn (R) cuya entrada (i, j)-sima, pij , da la probabilidad de que Xm se halle en el estado i supuesto que Xm1 se hallaba en el estado j. Por consiguiente, si (m) p 1. . pm = . pn
(m) (m)

siendo pi la probabilidad de que el sistema se encuentre en el estado i en el instante m, entonces, por el teorema de la probabilidad total se tiene que p1 = P p0 , p2 = P p1 = P P p0 = P2 p0 , y en general, p m = P m p0 . Ntese que P es una matriz estocstica pues su columna j-sima nos indica la probabilidad de los posibles estados en un determinado instante cuando en el instante inmediatamente anterior el estado sea j. Si tenemos una poblacin considerable de individuos sujetos a este proceso aleatorio, entonces pi
(m)

se puede describir como la proporcin de in(0)

dividuos en el estado i al instante m, mientras que pi sera la proporcin de individuos que comienzan en el estado i. De modo natural nos podemos hacer las siguientes preguntas qu ocurre con estas proporciones cuando m aumenta? Es decir, podemos determinar el comportamiento lmite de pm ? Ntese que la respuesta depende del comportamiento asinttico de Pm , y que P es una matriz no negativa ya que cada una de sus entradas es una probabilidad. Por consiguiente, si P es primitiva, podemos garantizar que existe un nico autovalor real dominante. Se comprueba fcilmente que = 1; en efecto, basta tener en cuenta que los autovalores de P son los mismos que los de su traspuesta Pt y que

MANUALES UEX

114

||

n n i=1 pij xi n pij | xi | i =1 pij = 1, |xj | |xj | i =1

MTODOS MATEMTICOS PARA ESTADSTICA

siendo un autovalor (real o complejo) de P, ( x1 , . . . , xn )t un autovector de Pt asociado a y x j = m x{ xi | i = 1, . . . , n}. En consecuencia, si P es a primitiva existe un nico un autovector p > 0 asociado al autovalor = 1 tal que i=1 pi = 1. Entonces,
m

lm (1 P)m = lm Pm = p1t , n
m

donde 1t = (1, . . . , 1) M1n (R). Usando la igualdad anterior, obtenemos n que lm pm = lm Pm p0 = p1t p0 = p, n
m t

donde el ltimo paso se sigue de que 1t p0 = 1. Por tanto, el sistema se n aproxima a un punto de equilibrio en que las proporciones de los distintos estados vienen dadas por las entradas de p. Adems, el comportamiento lmite no depende de las proporciones iniciales.

MANUALES UEX
115

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicios del tema IV Ejercicio 1. Comprobar que si {1 , . . . , r } son los autovalores de una matriz A, entonces los autovalores de Am son {(1 )m , . . . , (r )m }. Si v es un autovector de A asociado a i , entonces v es autovector de Am asociado a (i )m . Poner un ejemplo que muestre que el recproco no es cierto. Ejercicio 2. Sea 1 1 . 1 Los autovalores de esta matriz son 1 = 1 + 3, 2 = 1 3 y 3 = 0. El autovalor de mayor mdulo es 1 . Asociado a este autovalor tenemos el autovector v = ( 3 1, 1, 1) de componentes estrictamente positivas. Para un vector cualquiera b, comprobar que el producto Bm b se aproxim ma, para valores grandes de m a c1 v1 , donde c es una cierta constante y v1 es un autovector asociado a 1 . 0 B= 1 1 1 1 1 Ejercicio 3. Sean V un k-espacio vectorial de dimensin n > 0 y T Endk (V ) diagonalizable. Dado r Z+ , diremos que S Endk (V ) es una raz r-sima de T si Sr = T. Encontrar condiciones necesarias y sucientes para que existan races r-simas de T. Sean V = R3 y T Endk (V ) tal que su matriz asociada respecto de la base usual de R3 es 8 6 4 6 9 2 . 4 2 4 Hallar, si es posible, la matriz asociada a la raz cuadrada de T respecto de la base usual de R3 . Ejercicio 4. Sean V = R3 y T Endk (V ) tal que su matriz asociada respecto de la base usual de R3 es 0 0 1 5 0 0 ( a) 1 0 0 , ( b ) 0 1 1 . 0 1 0 3 0 2 Hallar la matriz asociada T m respecto de la base usual de R3 Ejercicio 5. Resolver la ecuacin en diferencias xn+2 3xn+1 + 2xn = 0 dados x1 = 1, x2 = 0 y x3 = 1.

MANUALES UEX
116

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicio 6. Dado el sistema de ecuaciones en diferencias un = Aun1 , siendo 0 a2 0 0 1 0 0 0 A= 0 1 0 a2 0 0 1 0 1. Obtener la expresin general de un . 2. Calcular la primera coordenada de un dado el vector inicial u0 = (0, 2, 0, 2). Ejercicio 7. Sean A Mn (R) y > 0. Probar que si A es no negativa e irreducible, entonces (In + A)n1 > 0. Ejercicio 8. Sea A = ( aij ) Mn (R) una matriz no negativa e irreducible. Si aii = 0, para todo i = 1, . . . , n, entonces A es primitiva. [Tmese = mn{ aii | i = 1, . . . , n}, comprubese que B = A In es no negativa e irreducible, y sese el ejercicio 7 para concluir que A = In + B es primitiva. Ejercicio 9. Sea A Mn (R) una matriz positiva e irreducible. Probar que si la suma de las entradas de cualquier la (o columna) es , entonces el autovalor de Perron de A es . Ejercicio 10. Comprobar el teorema de Perron-Frbenius calculando los autovalores y autovectores de la matriz 7 2 3 A = 1 8 3 . 1 2 9 Encontrar el autovalor y el autovector de Perron de A. Ejercicio 11. Calcular el autovalor y el autovector de Perron de la matriz A= donde + = 1 con y > 0. Ejercicio 12. Sea 0 A= 3 0 1 0 2 0 3 . 0 1 1 ,

1. Probar que A es irreducible. 2. Hallar el autovalor y el autovector de Perron de A.

MANUALES UEX
117

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicio 13. Demuestre que el polinomio caracterstico de la matriz f1 f2 f3 A = s1 0 0 0 s2 0 es igual a

A ( x ) = det( xI A) = x3 f 1 x2 f 2 s1 x f 3 s1 s2 .
Demuestre que el polinomio caracterstico de la matriz f1 f2 f3 f4 s 0 0 0 A= 1 0 s2 0 0 0 0 s3 0 es igual a

A ( x ) = det( xI A) = x4 f 1 x3 f 2 s1 x2 f 3 s1 s2 x f 4 s1 s2 s3 .
Dada la matriz de Leslie f1 s1 0 . . . f2 0 s2 . . . 0 0 ... ... ... .. . ... ... f n 1 0 0 ... 0 s n 1 fn 0 0

A= 0 0

... 0 0

intente deducir una frmula para su polinomio caracterstico. Ejercicio 14. Sea A Mn (R) una matriz de Leslie tal que f n1 f n = 0. Probar que 1. A es irreducible. 2. Si f 1 = . . . = f n2 = 0, entonces

MANUALES UEX

An = s1 sn2 f n1 A + s1 sn1 f n In . Usando esta igualdad concluir que es no negativa e irreducible y, por el ejercicio 8, que es primitiva. 3. En general An = s1 sn2 f n1 A + s1 sn1 f n In + B para cierta matriz B no negativa. Usando esta igualdad concluir que es no negativa e irreducible y, por el ejercicio 8, que es primitiva. Ejercicio 15. Un estudio ha determinado que el sector de ocupacin de un nio, cuando sea adulto, depende del sector en que trabaje su padre, y est

118

MTODOS MATEMTICOS PARA ESTADSTICA

dada por la siguiente matriz de transicin, con los sectores de produccin P = sector primario, S = sector secundario, T = sector terciario. Sector del padre T S P 0,8 0,3 0,2 0,1 0,5 0,2 0,1 0,2 0,6

Sector del hijo

T S P

As, la probabilidad de que el hijo de alguien que trabaja en el sector terciario tambin lo haga en ese sector es 0,8. 1. Cul es la probabilidad de que el nieto de un trabajador del sector terciario trabaje en ese sector? 2. A largo plazo, qu proporcin de la poblacin trabajar en el sector secundario? Ejercicio 16. Para la matriz de transicin P= 0,4 0,6 0,5 0,5 ,

1 ; 0 2. probar que P es una matriz primitiva y calcular el vector de estado estacionario. 1. calcular x(m) para n = 1, 2, 3, 4, 5, si x(0) = Ejercicio 17. Consideremos la matriz de transicin P= 0,5 0,5 0 1 .

1. Probar que P no es primitiva. 2. Probar que cuando m , Pm x(0) se aproxima a quier vector inicial x(0) . Ejercicio 18. Vericar que si P es una matriz de transicin primitiva de orden n, cuyas las suman todas uno, entonces su vector de estado estacionario tiene todas sus componentes iguales a 1/n. Ejercicio 19. Probar que la matriz de transicin 1 0 1 2 2 P= 1 1 0 2 2 1 0 1 2 2 es primitiva, y aplicar el ejercicio 17 para calcular su vector de estado estacionario. 0 1 , para cual-

MANUALES UEX
119

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicio 20. Consideremos la sucesin de matrices de transicin { P2 , P3 , P4 , . . .}, con 1 0 0 3 1 0 2 1 P2 = , P3 = 0 1 3 , 2 1 1 2 1 1 1 3 2 0 0 0 0 1 5 1 0 0 0 4 1 0 0 0 1 5 4 0 0 1 1 3 4 1 P4 = , P5 = 0 0 1 1 5 . 3 4 1 1 1 0 2 3 4 1 0 1 1 1 5 2 3 4 1 1 1 1 4 2 3 1 1 1 1 1 5 2 3 4 y sucesivamente. Probar que estas matrices de transicin son regulares, y determinar los vectores de estado estacionarios xm tales que Pm xm = xm , para m = 2, 3, . . . , n.

MANUALES UEX
120

MTODOS MATEMTICOS PARA ESTADSTICA

TEMA V

Matrices simtricas y formas cuadrticas

n este tema volvemos a ocuparnos de cuestiones tericas relacionadas con las matrices ms en la lnea de un curso clsico de lgebra Lineal. El planteamiento inicial es similar al de los de temas II y III. Tras introducir el concepto de forma bilineal y forma bilineal simtrica, se ja una base y se determina la matriz asociada a una forma bilineal. A continuacin, se demuestra la frmula del cambio de base para las matrices asociadas a una forma bilineal, y a la relacin de equivalencia que determinada por esta forma se le da el nombre de congruencia de matrices. Sin embargo, a diferencia de los temas anteriores, en este tema la congruencia de matrices no juega el mismo papel de hilo conductor que desempeaban la equivalencia y semejanza de matrices en los temas anteriores, ya que este papel lo asumen el producto escalar y la proyeccin, que son las verdaderas estrellas del tema, as como las matrices simtricas reales. En la segunda seccin se denen el producto escalar y los espacios vectoriales eucldeos. Se hace una especial mencin al espacio vectorial Rn con la estructura eucldea determinada por el producto escalar usual, aunque se muestran otros ejemplos de espacios vectoriales eucldeos. A continuacin, tratamos el concepto de norma en un espacio vectorial eucldeo. Estos conceptos se estudiarn con mayor profundidad en los temas VIII y XII. Nuestra siguiente seccin se dedica a la ortogonalidad, al mtodo ortogonalizacin de Gram-Schmidt y, consecuentemente, a la existencia de bases ortonormales en un espacio vectorial eucldeo. Ya en la seccin cuarta, se dene qu entendemos por subespacio ortogonal y se enuncian y demuestran algunas de sus propiedades; entre otras, la descomposicin de un espacio vectorial eucldeo como suma directa de un subespacio y su ortogonal, lo que nos permite denir la proyeccin ortogonal sobre un subespacio vectorial. El signicado geomtrico de la proyeccin ortogonal es fundamental en esta asignatura como se podr ver en el siguiente tema. Por tanto, demostramos que la proyeccin ortogonal de un vector v sobre un subespacio vectorial L consiste en calcular el vector de L ms prximo a v. Asimismo, se describe

MANUALES UEX
121

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

la matriz de la aplicacin proyeccin ortogonal sobre un subespacio L respecto de una base B del espacio vectorial eucldeo V en trminos de la matriz del producto escalar de V y la matriz cuyas columnas son las coordenadas de una base de L respecto de B . La seccin quinta est dedica a las matrices simtricas reales; en primer lugar se enuncia y demuestra que toda matriz simtrica real diagonaliza a travs de una matriz ortogonal. En particular, toda matriz simtrica real es semejante y congruente con una matriz diagonal. Este resultado tiene inters en Estadstica y Probabilidad, si tenemos en cuenta que las matrices de covarianza y correlacin son simtricas y reales. La segunda parte de esta seccin se centra en las matrices simtricas (semi)denidas positivas, mostrndose condiciones necesarias y sucientes para que una matriz simtrica sea (semi)denida positiva en trminos de sus autovalores. Toda esta seccin est plagada de resultados relacionados con las matrices simtricas y las matrices simtricas (semi)denidas positivas que sern utilizados posteriormente en la asignatura Modelos Lineales. Estos resultados son en su mayora sencillos ejercicios tales como la existencia de races cuadradas de matrices simtricas semidenidas positivas (que ser usada en el prximo tema para denir la descomposicin en valores singulares) o la factorizacin A = QQt de una matriz simtrica semidenida positiva, pudindose elegir Q triangular superior. Al nal de la seccin trataremos algunas cuestiones relacionadas con matrices hermticas. La ltima seccin del tema trata sobre las formas cuadrticas. As, se dene qu entenderemos por forma cuadrtica y se demuestra la relacin de stas con las matrices simtricas. Lo que nos permite escribir cualquier n 2 forma cuadrtica en la forma i=1 di ixi mediante un cambio de base, siendo di i, i = 1, . . . , n los autovalores de la matriz simtrica asociada a la forma cuadrtica. Al nal de la seccin y del tema se hace una breve mencin a la relacin entre las formas cuadrticas y las mtricas simtricas. La mayor parte de los contenidos tericos de este tema tienen aplicacin directa en otras asignaturas de la Licenciatura; por ejemplo, la proyeccin ortogonal es fundamental en las asignaturas Modelos Lineales y Anlisis Multivariante. Tngase en cuenta que un modelo lineal normal consiste en considerar un subespacio vectorial propio L de Rm y un vector aleatorio y = + con Nn (0, 2 In ), L y 2 > 0. De este modo, resulta natural tomar = L (y) como estimador de , siendo L la proyeccin ortogonal de y sobre L, y 2 = y ( y) 2 como estimador de la varianza; y esto slo es el principio de la historia. En este tema, hemos seguido el captulo 2 de [Sch05] y el captulo 5 de [MS06], si bien hemos tenido en cuenta el captulo 8 de [BCR07].

MANUALES UEX
122

MTODOS MATEMTICOS PARA ESTADSTICA

1.

Formas bilineales

Mientras no se diga lo contrario, a lo largo de este tema V denotar a un espacio vectorial sobre R de dimensin nita n > 0. Denicin V.1.1. Diremos que una aplicacin T2 : V V R es una forma bilineal, o mtrica, sobre V si satisface (a) (b) (c) (d) T2 (u1 + u2 , v) = T2 (u1 , v) + T2 (u2 , v); T2 (u, v1 + v2 ) = T2 (u, v1 ) + T2 (u, v2 ); T2 (u, v) = T2 (u, v); T2 (u, v) = T2 (u, v),

para todo u1 , u2 , v1 y v2 V y y R. Denicin V.1.2. Sea T2 una forma bilineal sobre V. Se dice que T2 es simtrica si T (u, v) = T (v, u), para todo u, v V. Se dice que T2 es antisimtrica si T (u, v) = T (v, u), para todo u, v V. Ejemplo V.1.3. Sean V = R2 y T2 : V V R tal que T2 (( x1 , x2 ), (y1 , y2 )) = x1 y2 . La aplicacin T2 es una forma bilineal que no es simtrica, pues T2 ((1, 0), (0, 1)) = 1 = 0 = T2 ((0, 1), (1, 0)).

Matriz asociada a una forma bilineal. Denicin V.1.4. Sean T2 una forma bilineal sobre V y B = {v1 , . . . , vn } una base de V. Se llama matriz asociada a T2 respecto de B a la matriz A = ( aij ) Mn (R) determinada por las igualdades aij = T2 (vi , v j ), para cada i, j {1, . . . , n}. Conocida la matriz asociada a una forma bilineal respecto de una base podemos determinar las imgenes por la forma bilineal de cualquier par de vectores de V. Proposicin V.1.5. Sean T2 una forma bilineal sobre V y B = {v1 , . . . , vn } una base de V. Dados x e y V de coordenadas ( x1 , . . . , xn ) y (y1 , . . . , yn ) respecto de B se cumple que y1 . T2 (x, y) = ( x1 . . . xn ) A . , . yn donde A es la matriz asociada a T2 respecto de B .

MANUALES UEX
123

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Demostracin. Teniendo en cuenta que T2 es bilineal y la propia denicin de A se sigue que T2 (x, y) =

i =1 n

xi T2 (vi , y) =

i,j=1

xi y j T2 (vi , v j )

i,j=1

y1 . xi aij y j = ( x1 . . . xn ) A . . . yn

Ejemplo V.1.6. Sobre Rn consideramos la aplicacin T2 : Rn Rn R tal que T2 (x, y) = x1 y1 + . . . + xn yn = para todo x = ( x1 , . . . , xn forma bilineal simtrica.
i =1

xi yi ,

)t

y y = ( y1 , . . . , y n

)t

Rn . La aplicacin T2 es una

i) Si B es la base usual de Rn , entonces la matriz asociada a T2 respecto de B es la matriz identidad de orden n. ii) Si B = {(1, 0, 0 . . . , 0, 0), (1, 1, 0 . . . , 0, 0), . . . , (1, 1, 1, . . . , 1, 0), (1, 1, 1, . . . , 1, 1)}, entonces la matriz asociada a T2 respecto de B es A = ( aij ) Mn (R) donde aij = min(i, j), para cada i, j {1, . . . , n}, es decir, 1 1 ... 1 1 2 ... 2 A= . . . . . . . . . . 1 2 ... n Obsrvese que, como era de esperar, una misma forma bilineal tiene distintas matrices respecto de diferentes bases.

MANUALES UEX
124

Corolario V.1.7. Sean T2 una forma bilineal sobre V, B una base de V, A Mn (R) la matriz asociada a T2 respecto de B . La forma bilineal T2 es simtrica si, y slo si, la matriz A es simtrica (es decir, A = At ). Demostracin. Dados x y y V de coordenadas ( x1 , . . . , xn ) e (y1 , . . . , yn ) respecto de B , respectivamente, se tiene que y1 . T (x, y) = ( x1 . . . xn ) A . . yn

MTODOS MATEMTICOS PARA ESTADSTICA

y que x1 . T (y, x) = (y1 . . . yn ) A . = ( x1 . . . xn ) At . xn de donde se deduce el resultado buscado. Terminamos esta seccin estudiando cmo afectan los cambios de base en la matriz de una forma bilineal sobre V. Proposicin V.1.8. Sean T2 una forma bilineal sobre V y B y B dos bases de V. Si A = ( aij ) Mn (R) y A = ( aij ) Mn (R) son las matrices asociadas a T2 respecto de B y B , respectivamente, y P = ( phi ) Mn (R) es la matriz del cambio de la base B a la base B entonces A = Pt AP. Demostracin. Basta tener en cuenta que, por las deniciones de forma bilineal, matriz asociada a una forma bilineal y de producto de matrices se tiene, se tiene que aij = es decir, A = Pt AP. Denicin V.1.9. Dadas A y A Mn (R), se dice que A es congruente con A si existe una matriz invertible P Mn (R) tal que A = Pt AP. Es claro que la relacin ser congruente con es de equivalencia (es decir, verica las propiedades reexiva, simtrica y transitiva). Nota V.1.10. Obsrvese que, segn la proposicin V.1.8, dos matrices A y A Mn (R) son congruentes si, y slo si, representan a una misma forma bilineal expresada respecto de distintas bases. 2. Producto escalar. Espacios vectoriales eucldeos
h,l =1

y1 . ; . . yn

phi plj ahl =

h,l =1

phi ahl plj ,

Denicin V.2.1. Sea T2 una forma bilineal sobre V. Se dice que T2 es denida positiva si T2 (u, u) > 0, para todo u V no nulo. Ntese que si T2 es una forma bilineal denida positiva sobre V, entonces T2 (v, v) = 0 si y slo si v = 0. En particular, se tiene que la matriz, A, de T2 respecto de cualquier base de V es invertible; en otro caso, existira v ker( A) no nulo y se tendra que T2 (v, v) = vt Av = vt 0 = 0. Ejemplo V.2.2. Sean V = R2 .

MANUALES UEX
125

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

(a) T2 (( x1 , x2 ), (y1 , y2 )) = x1 y1 + x2 y2 , es una forma bilineal simtrica (comprubese) que es denida positiva pues T2 (( x1 , x2 ), ( x1 , x2 )) = 2 2 x1 + x2 > 0 para todo ( x1 , x2 ) R2 no nulo. (b) T2 (( x1 , x2 ), (y1 , y2 )) = x1 y1 x2 y2 , es una forma bilineal simtrica (comprubese) que no es denida positiva pues T2 ((0, 1), (0, 1)) = 1 < 0. Denicin V.2.3. Llamaremos espacio vectorial eucldeo a todo par (V, T2 ) donde V es un R-espacio vectorial y T2 es una forma bilineal simtrica denida positiva. Las formas bilineales simtricas denidas positivas son productos escalares. As, no es de extraar que, dado un espacio vectorial eucldeo (V, T2 ), se use la notacin multiplicativa y se escriba (V, ) ( simplemente V) en lugar de (V, T2 ) y u v en vez de T2 (u, v). Ejemplo V.2.4. Sobre Rn consideramos la aplicacin : Rn Rn R tal que u v = u1 v1 + . . . + u n v n =
i =1

ui vi ,

para todo u = (u1 , . . . , un )t y v = (v1 , . . . , vn )t Rn . La aplicacin es una forma bilineal simtrica y denida positiva. Luego, es un producto escalar sobre Rn , y por tanto dota a Rn de estructura de espacio vectorial eucldeo, es decir, el par (Rn , ) es un espacio vectorial eucldeo. El producto escalar denido anteriormente se llama producto escalar usual, de aqu que a (Rn , ) se le llame espacio vectorial eucldeo usual. Ntese que la matriz asociada a la forma bilineal T2 respecto de la base usual de Rn es la matriz identidad de orden n (vase el ejemplo V.1.6(a)). Conviene resaltar que se pueden denir innidad de formas bilineales sobre un mismo R-espacio vectorial. La forma bilineal usual no es ms que una de ellas. Ejemplo V.2.5. Sobre R3 consideramos una forma bilineal T2 : R3 R3 R cuya matriz asociada respecto de una base B de R es 1 1 1 A= 1 2 1 . 1 1 6 Como la forma bilineal T2 es simtrica (vase el corolario V.1.7) y denida positiva1, T2 dota a R3 de estructura de espacio vectorial eucldeo. Adems,
1Ms adelante veremos que una forma bilineal simtrica es denida positiva si y slo si los menores principales de su matriz asociada respecto alguna base de V son estrictamente positivos.

MANUALES UEX
126

MTODOS MATEMTICOS PARA ESTADSTICA

si x e y son vectores de R3 de coordenadas ( x1 , x2 , x3 ) e (y1 , y2 , y3 ) respecto de B , respectivamente, entonces, por la proposicin V.1.5, tenemos que x y = x1 y1 + x2 y1 x3 y1 + x1 y2 + 2x2 y2 + x3 y2 x1 y3 + x2 y3 + 6x3 y3 . Mdulo de un vector. Distancia. Si u y v dos vectores no nulos de V linealmente dependientes, entonces sabemos que existe R tal que v = u. En este caso podemos decir que v es veces u, y ampliar esta comparacin a todos los vectores de u . Sin embargo, cuando u y v son linealmente independientes esta comparacin no tiene ningn sentido. Una de las principales aportaciones del producto escalar en un espacio vectorial eucldeo es que nos permite comparar dos vectores no necesariamente linealmente dependientes. Denicin V.2.6. Sea V un espacio vectorial eucldeo. Se llama norma (o mdulo) de un vector v V al nico nmero real no negativo, que denotamos por ||v|| tal que v v = ||v||2 . As mismo, se dene la distancia2 entre u y v V como el nmero real d(u, v) = u v . Ntese que, como el producto escalar valora en R y v v > 0 para todo v V no nulo, tiene perfecto sentido considerar ||v|| = (v v)1/2 . Asimismo destacamos que la norma del vector 0 es 0; de hecho, es el nico vector de norma cero, por ser una forma bilineal denida positiva. Nota V.2.7. En los temas VIII y XII se estudiarn los espacios vectoriales (arbitrarios) dotados de una norma (vase la denicin VIII.1.1) y de un producto escalar (vase la denicin XII.1.1), respectivamente, entre lo que se encontrarn los espacios vectoriales eucldeos como ejemplo notable en ambos casos. 3. Ortogonalidad. Bases ortogonales y ortonormales

Denicin V.3.1. Diremos que dos vectores u y v V son ortogonales si u v = 0.

Proposicin V.3.3. Si {v1 , . . . , vr } V es un conjunto ortogonal, entonces es un conjunto linealmente independiente.


2El lector interesado puede comprobar que efectivamente se trata de una distancia (vase la denicin A.1.1). As, podemos armar que todo espacio vectorial eucldeo es un espacio mtrico.

MANUALES UEX
127

Denicin V.3.2. Diremos que los vectores de un conjunto {v1 , . . . , vr } de V, con vi = 0, i = 1, . . . , r, son ortogonales entre s si vi v j = 0 para todo i = j. En este caso diremos que {v1 , . . . , vr } es un conjunto ortogonal.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Demostracin. Si 1 v1 + . . . + r vr = 0, para ciertos R, i = 1, . . . , r, entonces 0 = ( 1 v1 + . . . + r vr ) v i = i v i v i , para cada i = 1, . . . , r. Teniendo en cuenta que todo producto escalar es una forma bilineal denida positiva y que vi = 0, para todo i {1, . . . , r }, se sigue que vi vi = 0 y por lo tanto que i = 0, para todo i = 1, . . . , r. Obsrvese que cualquier conjunto ortogonal tiene, a lo ms, n vectores; en otro caso, no sera linealmente independiente. Ejemplo V.3.4. Es claro que el recproco de la proposicin anterior no es cierto en general. Por ejemplo, en R2 con el producto escalar usual, se tiene que {(1, 1), (0, 1)} es un conjunto linealmente independiente que no es conjunto ortogonal; (1, 1) (0, 1) = 1 = 0. El hecho de que todo conjunto ortogonal sea linealmente independiente implica que cualquier conjunto ortogonal que genere al espacio vectorial eucldeo V es base de V. Denicin V.3.5. Diremos que un conjunto de vectores B = {v1 , . . . , vn } de V es una base ortogonal si es conjunto ortogonal que genera a V. Ntese que B es una base ortogonal de V si, slo si, la matriz asociada al producto escalar denido sobre V es diagonal. Denicin V.3.6. Se dice que un vector v V es unitario si v = 1. Teniendo en cuenta la denicin de norma de un vector se tiene que un vector v V es unitario si y slo si v v = 1. Denicin V.3.7. Diremos que B = {u1 , . . . , un } V es una base ortonormal de V si es base ortogonal formada por vectores unitarios, es decir, si ui u j = ij , donde ij es la funcin Delta de Kronecker. Ejemplo V.3.8. Veamos algunos ejemplos de bases ortonormales. (a) La base usual de Rn es una base ortonormal para el producto escalar usual de Rn . (b) Sobre R3 consideramos el producto escalar cuya matriz respecto de la base usual de R3 es 3 2 1 A = 2 2 1 . 1 1 1 La base B = {(1, 1, 0), (0, 1, 1), (0, 0, 1)} del espacio vectorial eucldeo (R3 , ) es ortonormal.

MANUALES UEX
128

MTODOS MATEMTICOS PARA ESTADSTICA

Mtodo de ortonormalizacin de Gram-Schmidt (caso nito). Sea B = {w1 , . . . , wn } una base de V. Vamos a describir un procedimiento para construir, a partir de B , una base ortonormal de V. Denimos v1 = w1 y v2 = w2 + 12 v1 , donde 12 R se elige de modo que v1 y v2 sean ortogonales. Es decir, como queremos que 0 = v1 v2 = v1 (w2 + 12 v1 ) = v1 w2 + 12 (v1 v1 ) = v1 w2 + 12 v1 tomamos 12 = (v1 w2 )/ v1 2 y por lo tanto v w2 v2 = w2 1 2 v1 . v1 Denimos a continuacin v3 = w3 + 13 v1 + 23 v2 eligiendo 13 y 23 R tales que v1 v3 = 0 y v2 v3 = 0. Es decir, como queremos que 0
2

= v1 v3 = v1 (w3 + 13 v1 + 23 v2 ) = v1 w3 + 13 v1 v1 + 23 v1 v2 = v1 w3 + 13 v1 2 y que = v2 v3 = v2 (w3 + 13 v1 + 23 v2 ) = v2 w3 + 13 v2 v1 + 23 v2 v2 , = v2 w3 + 23 v2 2


tomamos 13 = (v1 w3 )/ v1 2 y 23 = (v2 w3 )/ v2 2 y por lo tanto v2 w3 v w3 v2 . v3 = w3 1 2 v1 v1 v2 2 Repitiendo el proceso anterior denimos v j = w j + 1j v1 + 2j v2 + . . . + j1 j v j1 , tomando ij R tal que v j vi = 0, para cada i < j e j = 4, . . . , n. Se comprueba fcilmente que
j 1

vj = wj para cada j = 4, . . . , n.

i =1

vi w j vi , vi 2

v1 vj

= w1 j 1 = w j i =1

vi w j v, vi 2 i

j = 2, . . . , n,

que forma una base de V, pues, por la proposicin V.3.3, B = {v1 , . . . , vn } es un conjunto linealmente independiente y dim V = n. Luego {v1 , . . . , vn } es una base ortogonal de V. Finalmente, sin ms que tomar u j = v j 1 v j , j = 1, . . . , n, obtenemos que B = {u1 , . . . , un } es una base ortonormal de V.

MANUALES UEX
129

En resumen mediante el proceso anterior hemos obtenido un conjunto ortogonal de vectores {v1 , . . . , vn }, donde

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Veamos ahora algunas consecuencias inmediatas del mtodo de ortonormalizacin de Gram-Schmidt. Corolario V.3.9. En todo espacio vectorial eucldeo existen bases ortonormales. Nota V.3.10. Siguiendo con la misma notacin que en el mtodo de Gramvi w Schmidt, si elegimos pii = 1, i = 1, . . . , n, pij = v 2j para todo j > i y pij = 0 para todo j < i, entonces la matriz del cambio de la base B a B es la matriz triangular superior P = ( pij ) Mn (R). Adems, si tomamos rij = pij / v j , entonces la matriz del cambio de base de B a B es la matriz triangular superior R = (rij ) Mn (R). Corolario V.3.11. Si A Mn (R) es invertible, existen Q Mn (R) ortogonal y R Mn (R) triangular superior e invertible tales que A = Q R. Esta descomposicin se conoce como factorizacin QR de A. Demostracin. Como A es invertible, sus columnas forman una base B de Rn . Considerando el producto escalar usual de Rn y aplicando el mtodo de Gram-Schmidt a B obtenemos una base ortonormal B de Rn . Por tanto, basta tomar Q como la matriz cuyas columnas son los vectores de B y R como la matriz del cambio de base de B a B , para obtener el resultado buscado, pues Q es claramente ortonormal y R es triangular superior e invertible por la nota V.3.10 y por ser la matriz de un cambio de base, respectivamente. Ejemplo V.3.12. Sobre R3 consideramos el producto escalar cuya matriz respecto de la base usual de R3 es 6 3 1 A= 3 2 1 . 1 1 1 Como la matriz viene dada respecto de la base usual, partimos de B = {e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)}. En primer lugar tomamos v1 = e1 = (1, 0, 0) y denimos v2 = e2 + 12 v1 , eligiendo 21 R tal que v1 y v2 sean ortogonales. Segn el mtodo de Gram-Schmidt debemos tomar 1 v e2 12 = 1 2 = , 2 v1 y por lo tanto v2 = e2 1 v1 = (1/2, 1, 0). Denimos ahora v3 = e3 + 2 13 e1 + 23 e2 , eligiendo 13 y 23 R tales que {v1 , v2 , v3 } sea un conjunto ortogonal. Segn el mtodo de Gram-Schmidt debemos tomar 13 = v1 e3 1 = 6 v1 2 y 23 = v2 e3 = 1, v2 2
i

MANUALES UEX
130

MTODOS MATEMTICOS PARA ESTADSTICA

y por lo tanto v3 = e3 + 1 v1 + v2 = (1/6, 1, 1). 6 As obtenemos que B = {v1 , v2 , v3 } con v1 = e1 = (1, 0, 0), v2 = e2 1 1 2 v1 = (1/2, 1, 0) y v3 = e3 + 6 v1 + v2 = (1/3, 1, 1), es una base ortogonal 3 . Y una base ortonormal de R3 es B = { u , u , u } con u = v1 = de R 1 2 3 1 v1 v3 v2 ( 6/6, 0, 0), u2 = v = ( 2/2, 2, 0) y u3 = v = ( 3/3, 3, 3).
2 3

Proposicin V.3.13. Sean V un espacio vectorial eucldeo y B = {v1 , . . . , vn } una base ortogonal de V. Dado v V, se cumple que v vn v v1 v +...+ vn . v= 2 1 v1 vn 2 Adems, si B es ortonormal, entonces v = (v v1 )v1 + . . . + (v vn )vn . Demostracin. Como B es una base de V, existen 1 , . . . , n R tales que n v = i=1 i vi . Como B es ortogonal, se tiene que v vj =
i =1

i vi v j =

i =1

i ( v i v j ) = j ( v j v j ),

de donde se sigue que j = (v v j )/ v j , para cada j = 1, . . . , n. Finalmente, si B es adems ortonormal, entonces v j = 1, para todo j = 1, . . . , n; luego, j = v v j , para cada j = 1, . . . , n. De la proposicin anterior se deduce que las coordenadas de un vector v de un espacio vectorial eucldeo V respecto de una base ortonormal B = {u1 , . . . , un } de V, son (v u1 , . . . , v un ). Nota V.3.14. Destacamos que B = {u1 , . . . , un } es una base ortonormal de V si, slo si, la matriz asociada al producto escalar denido sobre V es la matriz identidad de orden n. Este hecho permite obtener una expresin en coordenadas del producto escalar respecto de B realmente sencilla: Sean V espacio vectorial eucldeo y B = {u1 , . . . , un } una base ortonormal de V. En virtud de la proposicin V.1.5, si x e y V tienen coordenadas ( x1 , . . . , xn ) e (y1 , . . . , yn ) respecto de B , entonces x y = x1 y1 + . . . + x n y n . Luego a la vista de lo anterior, siempre que podamos asegurar la existencia de bases ortonormales en cualquier espacio vectorial eucldeo, podremos realizar un cambio de base de forma que la expresin en coordenadas del producto escalar sea lo ms sencilla posible. Otro hecho a tener en cuenta es el siguiente: Nota V.3.15. Sean B = {u1 , . . . , un } y B = {u1 , . . . , un } dos bases ortonormales de V. Si P = ( pij ) Mn (R) es la matriz de cambio de la base B a la

MANUALES UEX
131

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

base B , entonces la matriz Pt In P = Pt P es igual a la matriz identidad In , es decir, P1 = Pt . En efecto: por una parte, por ser B ortonormal, tenemos p1j . ( p1i , . . . , pni ) . = ui u j , . pnj y por otra parte, al ser B ortonormal, obtenemos ui u j = ij . Como consecuencia de lo anterior se sigue que la matriz de cambio de una base ortonormal a otra base ortonormal tiene determinante igual a 1 :

| P|2 = | P|| P| = | Pt || P| = | Pt P| = | In | = 1.
Recurdese que un matriz P Mn (R) se dice ortogonal cuando Pt = Por tanto, segn lo anterior, podemos armar que las matrices de cambio de base ortonormales son las matrices ortogonales. P 1 . 4. Subespacio ortogonal. Proyeccin ortogonal

Veamos que el conjunto de todos los vectores que son ortogonales a los vectores de un subespacio L de V es un subespacio vectorial de V. Este subespacio se llama subespacio ortogonal a L y se denota por L . Proposicin V.4.1. Sea L un subespacio de V. El conjunto L = {v V | v u = 0, para todo u L} es un subespacio vectorial de V. Demostracin. Basta tener en cuenta que, como el producto escalar es una forma bilineal sobre V, se tiene que (v + w) u = (v u) + (w u) = 0, para todo v, w L , u L y y R. Proposicin V.4.2. Sean L y L dos subespacios vectoriales de V. Se cumple que: (a) (b) (c) (d) (e) (f) (g) V = {0} y {0} = V; Si L L , entonces ( L ) L ; ( L + L ) = L ( L ) y ( L L ) = L + ( L ) ; L L = { 0 }. dim( L) + dim( L ) = dim(V ); V = L L . ( L ) = L.

MANUALES UEX
132

Demostracin. (a) Si v V , entonces v u = 0 para todo u V, en particular, para u = v, se tiene que v v = 0; de donde se sigue que v = 0, es decir, V = {0}. Por otra parte, se tiene que 0 v = 0, para todo v V, es decir, {0} = V.

MTODOS MATEMTICOS PARA ESTADSTICA

(b) Supongamos que L L y sea v ( L ) , entonces v u = 0, para todo u L , y como L L , se tiene que v u = 0, para todo u L; de donde se sigue que v L . (c) Por el apartado (b), tomar ortogonales invierte las inclusiones. Luego, por un lado se tiene que el ortogonal del menor subespacio vectorial de V que contiene a L y a L , esto es el ortogonal de L + L , es el mayor subespacio vectorial de V contenido en L y en ( L ) , esto es L ( L ) . Y por otra parte, el ortogonal del mayor subespacio vectorial de V contenido en L y en L , esto es, el ortogonal de L L , es el menor subespacio vectorial de V que contiene a L y a ( L ) , esto es, L + ( L ) . (d) Si v L L, entonces v v = 0, de donde se sigue que v = 0, es decir, L L = {0}. (e) Supongamos que dim( L) = r n y sea {u1 , . . . , ur , ur1 , . . . , un } una base ortonormal de V tal que {u1 , . . . , ur } es un base ortonormal L (lo que siempre se puede conseguir aplicando el mtodo de Gram-Schmidt a la ampliacin a V de una base de L). Es claro que, por construccin, ur1 , . . . , un L y como, por el apartado (d), L L = {0}, se sigue que ur1 , . . . , un = L , es decir, dim( L ) = n r. (f) Es consecuencia directa de los apartados (d) y (e). (g) Si v L, entonces v u = 0, para todo u L ; luego, L ( L ) . Teniendo ahora en cuenta que dim( L) = dim(( L ) ), pues, por el apartado (e), dim( L) + dim( L ) = dim(V ) y dim( L ) + dim(( L ) ) = dim(V ), concluimos que L = ( L ) . Proyeccin ortogonal de un vector sobre un subespacio. Dado un subespacio vectorial L de V, por el apartado (f) de la proposicin anterior tenemos que V = L L . Entonces, para cada v V, existe unos nicos v1 L y v2 L tales que v = v1 + v2 . Dicho de otro modo, existe un nico v1 L tal que v v1 L .

Ejemplo V.4.4. Sea u un vector no nulo de un espacio vectorial eucldeo V. Veamos cmo es la proyeccin ortogonal sobre L = u , lo que se conoce por proyeccin ortogonal sobre el vector u : dado v V, si v1 es la proyeccin ortogonal de v sobre L entonces v1 u y v v1 u , es decir, existe R tal que v1 = u y (v u) u = 0; por lo tanto, vu v1 = u. u 2

MANUALES UEX
133

Denicin V.4.3. Sea L un subespacio vectorial de V. Dado v V, se llama proyeccin ortogonal de v sobre L al nico vector v1 L tal que v v1 L .

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Proposicin V.4.5. Sean L un subespacio vectorial de V y B L = {v1 , . . . , vr } una base ortogonal de L. Si v V, entonces su proyeccin ortogonal sobre L, es v v1 v vr v +...+ vr . 2 1 v1 vr 2 Demostracin. Basta comprobar que v
v v1 v1 2

v1 . . .

v vr ur 2

vr L .

Ntese que si en la proposicin anterior consideramos una base ortonormal B L = {u1 , . . . , ur } de L, entonces la proyeccin ortogonal de v V sobre L es (v u1 ) u1 + . . . + (v ur ) ur . Teorema V.4.6. Sean L un subespacio vectorial de un espacio vectorial eucldeo V y v V. Si v1 es la proyeccin ortogonal de v sobre L, entonces d(v, v1 ) d(v, u), para todo u L. Demostracin. Sea u L distinto de v1 , entonces v u = v v1 + v1 u, con v v1 L y v1 u L, es decir, (v v1 ) (v1 u) = 0. Entonces, vu
2

= v v1

+ v1 u 2 ;

y se sigue que v u v v1 y se da la igualdad si, slo si, v = v1 . Luego, d(v, v1 ) = v v1 v u = d(v, u), para todo u L. El teorema anterior arma que la distancia de v V a L es igual a la distancia de v a su proyeccin ortogonal sobre L. Proyeccin ortogonal sobre un subespacio. Sea V un espacio vectorial eucldeo de dimensin n > 0. Dado un subespacio vectorial L de V, se dene la proyeccin ortogonal sobre L como la aplicacin L que asigna a cada vector v V su proyeccin ortogonal sobre L, es decir, el nico vector v1 L tal que v v1 L , o dicho de otro modo, el vector de L ms prximo a v.

MANUALES UEX
134

Lema V.4.7. La proyeccin ortogonal L es un endomorsmo de V de imagen L y ncleo L ; en particular, rg( L ) = dim( L). Demostracin. La demostracin es un sencillo ejercicio que se propone al lector. Sean ahora B una base de V y A Mn (R) la matriz del producto escalar de V respecto de B . Si dim( L) = r, las columnas de B Mnr (R) son las coordenadas respecto de B de los vectores de una base de L y C = AB, entonces se cumple que

MTODOS MATEMTICOS PARA ESTADSTICA

Proposicin V.4.8. La matriz de L respecto de B es P = C ( C t C ) 1 C t . Demostracin. En primer lugar, como A es invertible (vase el comentario posterior a la denicin V.2.1), se tiene que rg(C ) = rg( AB) = rg( B) = r. Por otra parte, se tiene que Ct C es simtrica e invertible3. As pues, dado v Rn se tiene que Pv = C (Ct C )1 Ct v L. Adems, dado cualquier u Rr , se tiene que

(v Pv) Bu = (v Pv)t ABu = (v C (Ct C )1 Ct )v)t ABu = vt ABu vt C (Ct C )1 Ct ) ABu = vt ABu vt ( AB(( AB)t ( AB))1 ( AB)t ) ABu = vt ABu vt ABu = 0,
es decir, v Pv L . Obsrvese que de la proposicin anterior se deduce que la matriz de una proyeccin ortogonal es simtrica e idempotente. Adems, el recproco de esta armacin es cierto en el siguiente sentido: si P Mn (R) es una matriz simtrica e idempotente, entonces la aplicacin lineal Rn Rn ; x Px es la proyeccin ortogonal sobre im( P) (comprubese). Proposicin V.4.9. Si L tiene rango r, existe una base ortonormal B de V tal que la matriz de L respecto de B es Ir 0 0 0 .

Demostracin. Basta tomar B igual a la union de una base ortonormal de L con una base ortonormal de L . La proposicin anterior no es ms que un caso particular de una propiedad que estudiaremos con ms detalle en la siguiente seccin. 5. Matrices simtricas reales (y matrices hrmiticas)

xy =

i =1

xi yi ,

donde x = ( x1 , . . . , xn )t e y = (y1 , . . . , yn )t Rn ; sabemos que, en este caso, la base usual B = {e1 , . . . , en } de Rn es ortonormal.
3La comprobacin de que es simtrica es elemental. Para ver que es invertible, basta observar que xt Ct Cx > 0, para todo x Rr , por ser xt Ct Cx el cuadrado de la norma de Cx para el producto escalar usual de Rn .

MANUALES UEX
135

A lo largo de esta seccin consideraremos el espacio vectorial Rn con el producto escalar usual

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Diagonalizacin de matrices simtricas reales. Lema V.5.1. Si A es simtrica, para todo x e y Rn , se cumple que (a) x ( Ay) = ( Ax) y. (b) x ( Am y) = ( Am x) y, para cualquier m N. (c) x ( p( A)y) = ( p( A)x) y, para cualquier p( x ) R[ x ]. Demostracin. (a) Si x = ( x1 , . . . , xn )t e y = (y1 , . . . , yn )t Rn , entonces y1 . x ( Ay) = ( x1 , . . . , xn ) A . , . yn y como A = At , y1 . ( x1 , . . . , x n ) A . = At . yn t x1 . . . xn t y1 . . . yn

x1 y1 . . = A . . = ( Ax) y. . . xn yn (b) Sea m N. Si A es simtrica, entonces Am es simtrica; por consiguiente, basta aplicar el apartado (a) a la matriz Am . (c) Sea p( x ) = cm x m + . . . + c1 x + c0 R[ x ]. Si A es simtrica, entonces p( A) = cm Am + . . . + c1 A + c0 In es simtrica, por consiguiente, basta aplicar el apartado (a) a la matriz p( A). Proposicin V.5.2. Si A Mn (R) es simtrica, entonces dos autovectores asociados a autovalores distintos de A son ortogonales. Demostracin. Sean y dos autovalores distintos de A y u y v autovectores de A asociados a y a , respectivamente. Entonces, (u v) = (u)v = ( Au) v = u ( Av) = u (v) = (u v),

MANUALES UEX
136

y como y son distintos se concluye que u v = 0. Teorema V.5.3. Si A Mn (R) es simtrica, entonces existe P Mn (R) ortogonal tal que Pt AP es diagonal; en particular, toda matriz simtrica es congruente con una matriz diagonal. Demostracin. En primer lugar vamos a probar que todas las races del polinomio caracterstico de A son reales, es decir que A ( x ) no tiene factores irreducibles de segundo grado.

MTODOS MATEMTICOS PARA ESTADSTICA

Supongamos que un factor irreducible de A ( x ) es p( x ) = ( x )( x ) = ( x a)2 + b2 , donde = a + bi C \ R. Tomemos un vector no nulo4 v ker(( A aIn )2 + b2 In ). Entonces, 0 = ( A aIn )2 (v) + b2 v v = ( A aIn )2 (v) v + b2 v v

= ( A aIn )(v) ( A aIn )(v) + b2 (v v).


donde la igualdad

( A aIn )2 (v) v = ( A aIn )(v) ( A aIn )(v)


se debe a la simetra A aIn (vase el lema V.5.1(a)). Adems, si ( A aIn )v = 0, entonces ( A aIn )2 (v) = 0, y b2 v = 0, lo que es contradictorio con b = 0. Por tanto, como los vectores v y ( A aIn )v son no nulos, tenemos que

( A aIn )(v) ( A aIn )(v) + b2 (v v) > 0,


con lo que, al suponer que el polinomio caracterstico A ( x ) tiene algn factor irreducible de segundo grado, llegamos a una contradiccin. Probemos ahora que si es una raz de A ( x ) con multiplicidad m, entonces ker( A In ) = ker( A In )2 , en cuyo caso, tendremos que la dimensin de (ker( A In )) es m (vase el teorema III.5.10(a)). Si v ker( A In )2 , entonces 0 = ( A In )2 v v = ( A In )v ( A In )v, luego, ( A In )v = 0, es decir, v ker( A In ). Con esto queda probado que Rn = ker( A 1 In ) . . . ker( A r In ), es decir, que la matriz A es diagonalizable. Para obtener una base ortonormal de autovectores, tomamos una base ortonormal Bi en cada uno de los subespacios ker( A i I ). Por la proposicin V.5.2, B = Bi es una base ortonormal de autovectores. Corolario V.5.4. Sean A Mn (R) simtrica, 1 . . . n los autovalores (posiblemente repetidos) de A y P Mn (R) una matriz ortogonal tal que Pt AP = D = (dij ) Mn (R) es diagonal con dii = i , i = 1, . . . , n. Si ui denota a la columna i-sima de P, entonces i = ui Aui = m x a para cada i = 1, . . . , n.
4Si C \ R es un autovalor de A y z Cn es un autovector de A asociado a , entonces z Cn es un autovector de A asociado a y v = z z Rn es un vector no nulo de ker(( A aIn )2 + b2 In ).

v Av | v ui , . . . , u n \ { 0 } , v 2

MANUALES UEX
137

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Demostracin. En primer lugar, observamos que si ui es un autovector ortonormal asociado a i , entonces i = ui Aui , i = 1, . . . , n, puesto que Pt AP = D y dii = i , i = 1, . . . , n. Por otra parte, como

(v) A(v) v Av = , v 2 v 2
para todo R y v Rn no nulo, basta demostrar que i = m x {v Av | v ui , . . . , un con v = 1} , a para cada i = 1, . . . , n. Sea, pues, v ui , . . . , un con v v = n=i j u j , con n=i 2 = 1, entonces j j j v Av =

= 1, es decir,

j uj
j =i n

A( j u j ) =
j =i

j uj
j =i n j =i

j ( Au j )
j =i n j =i

j uj
j =i

j ( j u j )
j =i

j 2 i 2 = i , j j

y la igualdad se alcanza en v = ui . Corolario V.5.5. Si A Mn (R) es simtrica de rango r, entonces existe Q Mn (R) invertible tal que Ip 0 0 t Q AQ = 0 Iq 0 0 0 0 donde I p e Iq son las matrices identidad de ordenes p y q, respectivamente, con p + q = r. Demostracin. Segn el teorema V.5.3, existe una matriz ortogonal P Mn (R) tal que Pt AP = D = (dij ) Mn (R) es diagonal. Sea R = (rij ) Mn (R) la matriz diagonal tal que rii =

MANUALES UEX

1 , si dii = 0;
|dii |

si

dii = 0

, i = 1, . . . , n.

Tomando Q = PR, y ordenando debidamente las entradas de la diagonal de Qt AQ, se obtiene el resultado buscado,

138

MTODOS MATEMTICOS PARA ESTADSTICA

Matrices simtricas (semi)denidas positivas. Denicin V.5.6. Diremos que A Mn (R) es semidenida positiva, si vt Av 0, para todo v Rn . Si adems, vt Av > 0, para todo v Rn no nulo, diremos que A es denida positiva. Obsrvese que la denicin de matriz (semi)denida positiva es consistente con la denicin de forma bilineal (semi)denida positiva. En efecto, T2 : V V R es una forma bilineal (semi)denida positiva si, y slo si, la matriz de T2 respecto de cualquier base de V es (semi)denida positiva (comprubese). Proposicin V.5.7. Sea A Mn (R). Si A es semidenida positiva, entonces todos sus autovalores reales son no negativos. Si A es denida positiva, entonces todos sus autovalores reales son positivos. Demostracin. Sean R un autovalor de A y v Rn un autovalor de A asociado a . Entonces, vt Av = vt ( Av) = vt (v) = (vt v) = v 2 ; de donde se sigue que 0 si A es semidenida positiva y > 0 si A denida positiva. Tambin se puede denir los conceptos de matriz semidenida y denida negativa de la forma obvia. No obstante, nosotros solamente consideraremos matrices semidenidas y denidas positivas; de hecho solo nos van a interesar la matrices simtricas (semi)denidas positivas y sus propiedades. Corolario V.5.8. Sea A Mn (R) una matriz simtrica. A es semidenida positiva si, y slo si, todos sus autovalores son no negativos. A es denida positiva si, y slo si, todos sus autovalores son positivos. Demostracin. Como A es simtrica, por el teorema V.5.3, existe una matriz P Mn (R) ortogonal tal que Pt AP es diagonal; en particular, tiene todos sus autovalores en R; luego, la proposicin V.5.7 permite concluir que todos los autovalores de A son no negativos, si A es semidenida positiva, y positivos, si A es denida positiva. Recprocamente, sea v = (v1 , . . . , vn )t Rn . Como P es invertible, existe un nico w = (w1 , . . . , wn )t Rn tal que Pw = v. Luego, vt Av = ( Pw)t A( Pw) = wt ( Pt AP)w =

i =1

i wi2 ,

donde i , i = 1, . . . , n, son los autovalores (posiblemente repetidos) de A. Por consiguiente, vt Av es no negativo si i 0, i = 1, . . . , n y positivo si i > 0, i = 1, . . . , n.

MANUALES UEX
139

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Corolario V.5.9. Sea A Mn (R) simtrica. Si A es semidenida positiva, entonces existe una matriz simtrica A1/2 tal que A = A1/2 A1/2 . Si A es denida positiva existe una matriz A1/2 tal que A1 = A1/2 A1/2 . Demostracin. Segn el teorema V.5.3, existe una matriz ortogonal P Mn (R) tal que Pt AP = D = (dij ) Mn (R) es diagonal; adems, por el corolario V.5.8, todas las entradas de la diagonal de D son no negativos. Sea R = (rij ) Mn (R) la matriz diagonal tal que dii , si dii = 0; , i = 1, . . . , n. rii = 0 si dii = 0 Tomando A1/2 = PRPt se obtiene el resultado buscado. En efecto, A1/2 A1/2 = ( PRPt )( PRPt ) = PR2 Pt = PDPt = A. Finalmente, si A es denida positiva, entonces, por el corolario V.5.8, todas las entradas de la diagonal de D son no positivos, por lo que R es invertible. Tomando A1/2 = PR1 Pt se obtiene el resultado buscado. En efecto, A1/2 A1/2 = ( PR1 Pt )( PR1 Pt ) = P( R2 )1 Pt = PD 1 Pt = A1 .

Corolario V.5.10. Sea A Mn (R). Si A es simtrica y semidenida positiva, existe Q Mn (R) tal que A = QQt . Demostracin. Segn el teorema V.5.3, existe una matriz ortogonal P Mn (R) tal que Pt AP = D = (dij ) Mn (R) es diagonal; adems, por el corolario V.5.8, todos las entradas de la diagonal de D son no negativos. Sea R = (rij ) Mn (R) la matriz diagonal tal que dii , si dii = 0; rii = , i = 1, . . . , n. 0 si dii = 0 Tomando Q = PRP se obtiene el resultado buscado; en efecto, QQt = ( PRP)( PRP)t = PRPPt RPt = PR2 Pt = PDPt = A.

MANUALES UEX
140

Nota V.5.11. A menudo, el corolario anterior se suele redactar en los siguientes trminos: sea A Mn (R). Si A es simtrica, semidenida positiva y tiene rango r, existe Q Mrn (R) tal que A = QQt . Lo cual se demuestra exactamente igual que antes tomando R = (rij ) Mrn (R) tal que rii = dii , i = 1, . . . , r, y rij = 0, si i = j.

MTODOS MATEMTICOS PARA ESTADSTICA

Corolario V.5.12. Sea A Mn (R). Si A es simtrica y denida positiva, existe una nica matriz Q Mn (R) triangular inferior tal que A = QQt . Esta descomposicin se conoce como factorizacin de Cholesky de A. Demostracin. Por el corolario V.5.10, sabemos que existe B Mn (R) tal que A = BBt . Adems, como A es simtrica y denida positiva, es invertible; por lo que B tambin es invertible. Luego, las las de B son linealmente independientes. Para cada matriz ortogonal P Mn (R) se tiene que A = ( BP)( BP)t . Luego, basta probar que, para cada B Mn (R) existe P ortogonal tal que BP es triangular inferior. Si b1 , . . . , bn M1n (R) son las las de B, construimos P de tal manera que sus columnas p1 , . . . , pn Rn sean de norma 1 y satisfagan que p n b t , . . . , b t 1 1 n y pni bt , . . . , bt i1 , pni+1 , . . . , pn , i = 1, . . . , n 1. 1 n Obsrvese que P est unvocamente determinada y puede comprobarse fcilmente que P es ortogonal y que BP es triangular inferior. Terminamos esta seccin mostrando otra condicin necesaria y suciente para que una matriz simtrica sea (semi)denida positiva. Proposicin V.5.13. Sea A Mn (R) simtrica. Si todos sus menores principales son no negativos, entonces A es semidenida positiva. A es denida positiva si, y slo si, todos sus menores principales son positivos. Demostracin. Sea a11 . Ai = . . ai1 ... ... a1i . M (R), . i . aii

0 Si u j =

...

pj Rn , donde p j denota a la columna j-sima de P, entonces 0 j = ut Au j 0, j = 1, . . . , n; de donde se sigue que | Ai | = 1 i es no j negativo si A es semidenida positiva y es positivo si A es denida positiva.

MANUALES UEX
141

es decir, Ai es la submatriz de A que se obtiene al eliminar las ltimas n i las y columnas. Por ser Ai una matriz simtrica, existe una matriz ortogonal P Mi (R) tal que 1 . . . 0 . . . . Pt A i P = . . .

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Para probar la implicacin contraria de la segunda armacin procederemos por induccin en n. Para n = 1, el resultado es evidentemente cierto. Sea n > 1 y supongamos que el resultado es cierto para toda matriz simtrica de orden menor que n 1 cuyos menores principales sean positivos. Sea An1 Mn1 (R) la matriz obtenida eliminando la ltima la y la ltima columna de A. Como An1 es denida positiva, por hiptesis de induccin, sabemos que sus autovalores 1 , . . . , n1 son todos estrictamente positivos. Sean P Mn1 (R) una matriz ortogonal tal que Pt An1 P es diagonal y uj = pj 0

Rn , j = 1, . . . , n 1,

donde p j denota a la j-sima columna de P; es claro que {u1 , . . . , un1 } es una base de e1 , . . . , en1 , siendo {e1 , . . . , en } la base usual de Rn . Consideremos el vector
n 1

un = en Por ser

i =1

et Aui n ui . i et Aui n i = 0, i

ut Aui = et Aui n n tenemos que si Q es la matriz del base usual de Rn , 1 . . Qt AQ = . 0 0 De donde se sigue que

cambio de la base {u1 , . . . , un1 , un } a la ... .. . ... 0 0 . . . n 1 ... 0 . . . 0 ut Aun n .

| D | = 1 . . . n1 (ut Aun ) = | Q|2 | A| > 0, n

MANUALES UEX

luego, ut Aun > 0. Finalmente, si v = n=11 j u j + n un , entonces n j

vt Av =

n 1 j =1

j 2 + 2 (utn Au) 0 (> 0, n j

respectivamente),

es decir, A es denida positiva.

142

MTODOS MATEMTICOS PARA ESTADSTICA

Matrices hermticas. El concepto anlogo a matriz simtrica para las matrices con coecientes complejos es el de matriz hermtica. Veamos a continuacin una serie de resultados sobre diagonalizacin de matrices hermticas, normales y unitarias. La mayora de las demostraciones de estos resultados son similares o consecuencias directas de las realizadas con anterioridad, por lo se proponen como ejercicio al lector; no obstante, hemos preferido aadir referencias de las mismas para facilitar la tarea si fuese necesario. Es conveniente advertir que en el espacio vectorial Cn tambin podemos denir un producto escalar usual: la aplicacin bilineal Cn Cn C; (u, v) u v es simtrica y denida positiva (comprubese). Tambin se comprueba fcilmente que el mtodo de Gram-Schmidt tiene perfecto sentido en Cn , donde se deduce la existencia de bases ortonormales y la factorizacin QR de matrices complejas invertibles, slo que ahora Q es unitaria en vez de ortogonal (vase el ejercicio 2.12 de [IR99] p. 94). Proposicin V.5.14. Sea A Mn (C). (a) Si A es hermtica, entonces todos sus autovalores son reales. (b) Si A es unitaria, entonces || = 1, para todo autovalor de A. Demostracin. Proposicin 2.5 de [IR99] p. 61. Teorema V.5.15. Sea A Mn (C). (a) Existe una matriz Q Mn (C) unitaria tal que Q AQ = T es triangular5 (b) A es normal si, y slo si, existe Q unitaria tal que Q AQ es diagonal. Demostracin. (a) Como A Mn (C), sabemos que su forma cannica de Jordan, J, es una matriz triangular superior. Sea P Mn (C) tal que P1 AP = J. Por otra parte, como P es invertible existen Q unitaria y R triangular superior e invertible tales que P = QR. Combinando ambas igualdades se sigue que J = P1 AP = ( QR)1 A( QR) = R1 Q AQR, En realidad no es imprescindible usar la forma cannica de Jordan para demostrar este apartado: vanse la seccin la seccin 6.4 de [BCR07] o la demostracin del Teorema 2.1 de [IR99] p. 62 donde tambin se demuestra (b) que nosotros proponemos como ejercicio. Denicin V.5.16. Una matriz hermtica A Mn (C) es
5La descomposicin A = QTQ se conoce como factorizacin de Schur de A.

MANUALES UEX
143

y por consiguiente que T = Q AQ = RJR1 , que es triangular superior.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

(a) denida positiva si v Av > 0, para todo v V \ {0}. (b) semidenida positiva si v Av 0, para todo v V. Proposicin V.5.17. Si A Mn (C) es una matriz hermtica, se verica: (a) A es denida positiva si, y slo si, todos sus autovalores son reales positivos (b) A es semidenida positiva si, y slo si, son reales no negativos. Demostracin. Proposicin 2.7 de [IR99] p. 66. Proposicin V.5.18. Dada una matriz A Mn (C) se verica que A A es una matriz hemtica y semidenida positiva. Adems, cuando A es invertible la matriz A A es, de hecho, denida positiva. Demostracin. Proposicin 2.8 de [IR99] p. 67. 6. Formas cuadrticas

Denicin V.6.1. Una forma cuadrtica en V es una aplicacin q : V R tal que q(x) =

i,j=1

aij xi x j ,

donde aij R, i, j {1, . . . , n} y ( x1 , . . . , xn ) son las coordenadas de x Rn respecto de un base B de V. Obsrvese que una forma cuadrtica sobre V no es ms que un polinomio homogneo de grado 2 en n variables con coecientes en R. Sea B y B bases de V. Si A = ( aij ) Mn (R), la forma cuadrtica n q(x) = i,j=1 aij xi x j se escribe x1 q ( x ) = q ( x1 , . . . , x n ) = ( x1 , . . . , x n ) A . . . , xn

MANUALES UEX
144

donde ( x1 , . . . , xn ) son las coordenadas de x Rn respecto de B . Por otra parte, si B es otra base de V y ( x1 , . . . , xn ) son las coordenadas de x respecto de B , entonces x1 q(x) = q( x1 , . . . , xn ) = ( x1 , . . . , xn ) Pt AP . . . , xn donde P Mn (R) es la matriz del cambio de la base B a la base B . Observemos que la matriz de una forma cuadrtica q de V no es nica.

MTODOS MATEMTICOS PARA ESTADSTICA

Ejemplo V.6.2. Sean V = R3 y B su base usual. La forma cuadrtica


2 2 2 q( x1 , x2 , x3 ) = x1 + 3x1 x2 + 6x2 x2 x1 + x2 x3 + x3 + 3x3 x2

se puede escribir 1 ( x1 , x2 , x3 ) 1 0 Como


2 2 2 q( x1 , x2 , x3 ) = x1 + 3x1 x2 + 6x2 x2 x1 + x2 x3 + x3 + 3x3 x2 2 2 2 = x1 + 2x1 x2 + 6x2 + 4x2 x3 + x3 ,

3 6 3

0 1 1

x1 . . . . xn

tambin se puede escribir 1 q ( x1 , x2 , x3 ) = ( x1 , x2 , x3 ) 0 0 o tambin, 1 1 q ( x1 , x2 , x3 ) = ( x1 , x2 , x3 ) 0 1 6 2 x 1 0 . . . 2 . 1 xn 2 6 0 x 1 0 . ; 4 . . 1 xn

Proposicin V.6.3. Sean q una forma cuadrtica de V y B una base de V. Existe una nica matriz simtrica S tal que x1 . q ( x ) = ( x1 , . . . , x n ) S . , . xn donde ( x1 , . . . , xn ) son las coordenadas de x V respecto de B ; es decir, existe una matriz simtrica asociada a q respecto de B . Demostracin. Sea A Mn (R) una de las matrices de q respecto de B . Sabemos que A puede escribirse, de forma nica, como la suma de una matriz simtrica y otra antisimtrica (ejercicio 4): A= 1 1 ( A + At ) + ( A At ). 2 2

MANUALES UEX
145

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Por otra parte, si H Mn (R) es antisimtrica, entonces t x1 x1 . . ( x1 , . . . , x n ) H . = x1 , . . . , x n ) H . . . xn xn x1 . = ( x1 , . . . , xn ) H t . = ( x1 , . . . , xn ) H . xn luego x1 . ( x1 , . . . , xn ) H . = 0, . xn donde ( x1 , . . . , xn ) son las coordenadas respecto de B de x guiente, si S = 1 ( A + At ), entonces 2 x1 x1 . . = ( x1 , . . . , x n ) S . q ( x ) = ( x1 , . . . , x n ) A . . . xn xn Rn . Por consi , x1 . , . . xn

donde ( x1 , . . . , xn ) son las coordenadas respecto de B de x Rn . La unicidad de S se sigue de la unicidad de la descomposicin de A como suma de una matriz simtrica y otra antisimtrica. Denicin V.6.4. Sea B una base de V. Llamaremos matriz de la forma cuadrtica q de V respecto de B a la nica matriz simtrica S Mn (R) tal que x1 . q ( x ) = ( x1 , . . . , x n ) S . . . xn Recordemos ahora que para cualquier matriz simtrica A Mn (R) existe una matriz ortogonal P Mn (R) tal que Pt AP = D = (dij ) Mn (R) es diagonal. Por tanto, si A es la matriz (simtrica) de la forma cuadrtica q respecto de B , entonces existe una base B de V, concretamente aquella tal que la matriz del cambio de base de B a B es P, de tal manera que q se puede escribir tambin como x1 n . 2 (V.6.1) q(x) = ( x1 , . . . , xn ) D . = dii xi , . xn
i =1

MANUALES UEX
146

MTODOS MATEMTICOS PARA ESTADSTICA

donde ( x1 , . . . , xn ) son las coordenadas de x V respecto de la base B . La expresin (V.6.1) se conoce como forma cannica de q. Denicin V.6.5. Una forma cuadrtica q sobre Rn es semidenida positiva si q(x) 0, para todo x Rn . Una forma cuadrtica q es denida positiva si q(x) > 0, para todo x Rn no nulo. De manera anloga se denen las formas cuadrticas denidas negativas y semidenidas negativas. Formas cuadrticas y mtricas simtricas. Si T2 : V V R es una forma bilineal simtrica, entonces la aplicacin q : V R denida por q( x ) = T2 ( x, x ) es una forma cuadrtica. Si A es la matriz de T2 respecto de B , entonces x1 q ( x ) = q ( x1 , . . . , x n ) = ( x1 , . . . , x n ) A . . . , xn donde ( x1 , . . . , xn ) son las coordenadas de x Rn respecto de B . Recprocamente, si q : V R es una forma cuadrtica, x1 q ( x ) = q ( x1 , . . . , x n ) = ( x1 , . . . , x n ) A . . . , xn donde ( x1 , . . . , xn ) son las coordenadas de x Rn respecto de B , entonces la aplicacin T2 : V V R denida por 1 (q(x + y) q(x y)) 4 es bilineal y simtrica. A T2 se le denomina forma bilineal simtrica asociada a la forma cuadrtica q. Observemos que si A = ( aij ) Mn (R) es la matriz simtrica de q respecto de B , entonces A es la matriz de T2 respecto de B . Es inmediato comprobar que las anteriores correspondencias establecen una biyeccin (de hecho, un isomorsmo lineal) entre el espacio de las formas cuadrticas de V y el de las forma bilineales simtricas sobre V. T2 (x, y) =

MANUALES UEX
147

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicios del tema V Ejercicio 1. Sobre R3 consideramos una forma bilineal T2 : R cuya matriz asociada respecto de la base usual de R es Determinar si T2 es simtrica cuando A es: 1 2 3 1 1 1 1 ( a) 2 4 1 , (b) 1 2 1 , (c) 2 3 1 5 1 1 6 1 R3 R3 A M3 (R). 2 5 1 3 6 . 4

Ejercicio 2. Comprobar la frmula del cambio de base en el ejemplo V.1.6 para n = 3. Ejercicio 3. Hallar la matriz respecto de la base usual R3 de la mtrica simtrica T2 : R3 R3 R denida por T2 (u1 , u1 )

= 5;

T2 (u1 , u2 ) T2 (u2 , u2 )

= 0; = 1;

T2 (u1 , u3 ) T2 (u2 , u3 ) T2 (u3 , u3 )

= 1; = 4; = 0;

donde u1 = (1, 2, 1), u2 = (1, 2, 0) y u3 = (1, 0, 1). Ejercicio 4. Sean V un R-espacio vectorial de dimensin n > 0 y T2 una forma bilineal sobre V. Probar que si B = {v1 , . . . , vn } es una base de V tal que T2 (vi , v j ) = ij , donde ij es la funcin Delta de Kronecker, entonces T2 es un producto escalar sobre V. Ejercicio 5. Sean V un espacio vectorial eucldeo y L V un subespacio de V. Probar que la restriccin del producto escalar de V a L dota a este ltimo de estructura de espacio vectorial eucldeo; es decir, todo subespacio vectorial de un espacio vectorial eucldeo hereda una estructura natural de espacio vectorial eucldeo. Ejercicio 6. Aplicar el mtodo de Gram-Schmidt para calcular bases ortonormales, a partir de la bases dadas en los siguientes espacios vectoriales eucldeos: 1. {(1, 1, 1), (0, 1 1) (0, 2, 0)} en R3 , con el producto escalar usual. 2. {1, x, x2 } en el espacio V de los polinomios de R[ x ] con grado menor o igual que 2, y el producto escalar T2 ( P, Q) = P(0) Q(0) + P (1) Q (1) + P (2) Q (2). 3. {1, x, x2 } en el espacio V de los polinomios de R[ x ] con grado menor 1 o igual que 2, y el producto escalar T2 ( P, Q) = 0 P( x ) Q( x )dx. Ejercicio 7. En el R-espacio vectorial R2 consideramos la aplicacin T2 : R2 R2 (( x1 , y1 ), ( x2 , y2 ))

MANUALES UEX

148

R T2 (( x1 , y1 ), ( x2 , y2 )) = x1 x2 + x1 y2 + x2 y1 + 2y1 y2 .

MTODOS MATEMTICOS PARA ESTADSTICA

1. Probar que T2 es un producto escalar. 2. Obtener una base ortonormal del espacio vectorial eucldeo (R2 , T2 ). Ejercicio 8. Sean V un R-espacio vectorial de dimensin 3, B una base de V y T2 la forma bilineal sobre V cuya matriz respecto de B es 2 2 3 2 3 4 . 3 4 6 Hallar una base de V respecto de la cual la matriz de T2 sea diagonal. Ejercicio 9. Sobre R3 se considera la forma bilineal T2 cuya matriz en la base usual es 3 2 1 2 2 0 . 1 0 2 1. Probar que T2 es un producto escalar. 2. Hallar una base ortonormal del espacio vectorial eucldeo (R3 , T2 ). 3. Calcular el mdulo de v = (1, 3, 2) y el ngulo que forman los vectores u1 = (1, 2 2) y u2 = (2, 1, 0) para el producto escalar T2 . Ejercicio 10. Sobre R3 consideramos la forma bilineal T2 cuya matriz en la base B usual es 3 1 1 A= 1 2 0 1 0 1 1. Probar que T2 es producto escalar. 2. Hallar una base ortonormal del espacio vectorial eucldeo (R3 , T2 ). 3. Calcular el mdulo del vector v R3 de coordenadas (1, 0, 2) respecto de B . Calcular el ngulo que forman el vector v con el vector u de coordenadas (1, 0, 0) respecto de B . Ejercicio 11. Sea 4 A = 4 4 4 4 9 4 4 10

la matriz respecto de la base usual de R3 de un producto escalar que dota de estructura de espacio vectorial eucldeo a R3 . 1. Encontrar una base de R3 respecto de la cual la matriz del producto escalar sea diagonal. 2. Hallar una base ortonormal R3 . 3. Usar el apartado anterior para calcular A1 .

MANUALES UEX
149

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicio 12. Sea V el espacio vectorial de las matrices simtricas reales de orden dos. 1. Hallar una base de V. 2. Probar que la aplicacin VV ( A, B)

R A B = tr( AB)

es un producto escalar sobre V y obtener su matriz en la base hallada en el apartado (a). 3. Calcular una base ortonormal de V para el producto escalar anterior. Ejercicio 13. Consideramos el espacio vectorial eucldeo R2 [ x ] de los polinomios de grado de menor o igual que 2 con el producto escalar R2 [ x ] R2 [ x ] ( p( x ), q( x ))

R p( x ) q( x ) = p(0)q(0) + p(1)q(1) + p(2)q(2).

1. Calcular la matriz del producto escalar en respecto de la base B = {1, x, x2 }. 2. Calcular los mdulos de los vectores de la base B , as como los ngulos que forman dichos vectores entre s. 3. Hallar una base ortonormal de R2 [ x ]. Ejercicio 14. Consideremos en R3 el producto escalar T2 que en la base B = {v1 = (1, 1, 0), v2 = (1, 0, 1), v3 = (0, 1, 1)} tiene matriz 1 A= 1 0 1 2 2 0 2 . 3

MANUALES UEX

1. Calcular una base ortonormal para T2 . 2. Escribir la matriz de T2 en la base usual de R3 . 3. Calcular las ecuaciones, en la base B, del subespacio ortogonal al plano que en la base usual tiene ecuacin z = 0. 4. Calcular la distancia de v1 a . Ejercicio 15. Consideremos en R4 el producto escalar eucldeo T2 ( x, y) = 4x1 y1 + x1 y2 + x2 y1 + 2x2 y2 + x3 y3 . Calcular la proyeccin ortogonal del vector v = (0, 1, 0) sobre el subespacio L = (1, 0, 0), (0, 0, 1) y determinar la distancia de v a L.

150

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicio 16. Sean V un R-espacio vectorial de dimensin 4, B = {v1 , v2 , v3 , v4 } una base de V. Consideramos el producto escalar denido por v1 v1

= 7;

v1 v2 v2 v2

= 3; = 2;

v1 v3 v2 v3 v3 v3

= 3; = 1; = 2;

v1 v4 v2 v4 v3 v4 v4 v4

= 1; = 0; = 1; = 1,

que dota a V de estructura de espacio vectorial eucldeo. Dado el subespacio L de V generado por los vectores u1 = v2 + v4 , u2 = 2v1 + v2 + v3 y u3 = v3 2v4 v5 , obtener una base de L . Ejercicio 17. Sean V = R4 , B la base usual de R4 y T2 la forma bilineal simtrica cuya matriz respecto de B es 1 0 0 1 0 1 1 0 0 1 1 0 . 1 0 0 1 Si L es un subespacio de V, denimos L = {v V | T2 (v, u) = 0, u L}. 1. Probar L es un subespacio de V. 2. Hallar una base de V . 3. Sea L el subespacio de V denido por {( x1 , x2 , x3 , x4 ) | x1 x4 = x2 x3 = 0}. Comprobar que ( L ) = L. 4. Contradicen los apartados anteriores a las propiedades vistas para del subespacio ortogonal de un subespacio de un espacio vectorial eucldeo? Justicar la respuesta. Ejercicio 18. Sea B = {v1 = (1, 1, 0), v2 = (1, 0, 1), v3 = (0, 1, 1)} una base de R3 . Sobre R3 consideramos el producto escalar cuya matriz respecto de B es 1 1 0 A= 1 2 2 0 2 3 que lo dota de estructura de espacio vectorial eucldeo. 1. Calcular una base ortonormal de R3 . 2. Calcular la matriz del producto escalar respecto de la base usual de R3 . 3. Dado el subespacio L = {( x, y, z) R3 | z = 0}, calcular L . Ejercicio 19. Sobre V = M2 (R), esto es, el espacio vectorial de las matrices reales de orden 2, se considera el producto escalar dado por la igualdad A B := tr( At B), para cada A y B M2 (R).

MANUALES UEX
151

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

1. Calcular el ortogonal del subespacio L formado por las matrices diagonales de M2 (R). 2. Determinar la proyeccin ortogonal de cada matriz C M2 (R) sobre L. Ejercicio 20. Sean B = {u1 , . . . , un } una base ortonormal de un espacio vectorial eucldeo V, L un subespacio de V, {v1 , . . . , vr } una base de L y A Mnr (R) la matriz cuyas columnas son las coordenadas de v1 , . . . , vr respecto de B . 1. Probar que la matriz At A es invertible. 2. Dado un vector v = 1 u1 + + n un , demostrar que las coordenadas de la proyeccin ortogonal de v sobre L respecto de B son 1 . A ( A t A ) 1 A t . . . n 3. Aplicar lo anterior para calcular, en R4 con su producto escalar usual, la proyeccin ortogonal de (1, 2, 3, 1) sobre L = (1, 3, 2, 0), (3, 2, 0, 0) . Ejercicio 21. Dada A Mn (R), consideremos la matriz B = At A. Probar que ker( A) = ker( B) y deducir de ello que rg( A) = rg( B). Ejercicio 22. Sea A Mn (R). Probar que rg( At A) = rg( A At ) = rg( A) = rg( At ). Dar un ejemplo de una matriz con coecientes complejos tal que rg( At A) = rg( A). Ejercicio 23. Probar las siguientes armaciones: 1. Si A Mn (R) es simtrica y P es una matriz invertible, entonces A es (semi)denida positiva si, y slo si, lo es Pt AP. 2. Si Si A Mn (R) es simtrica, entonces A es denida positiva si, y slo si, existe una matriz P invertible tal que Pt AP = In . 3. Si A Mn (R) es simtrica, entonces A es denida positiva si, y slo si, existe una matriz Q invertible tal que A = Qt Q. 4. Si A Mmn (R), las matrices At A y AAt son semidenidas positivas. 5. Si A Mmn (R), entonces el rango de A es m si, y slo si, la matriz AAt es denida positiva. 6. Si A Mmn (R), entonces el rango de A es n si, y slo si, la matriz At A es denida positiva. 7. Si A Mn (R) es simtrica de rango r, entonces existe una matriz B Mnr (C) de rango r tal que A = BBt . Adems, si A es semidenida positiva, entonces B puede tomarse real.

MANUALES UEX
152

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicio 24. Consideremos la matriz cuadrada A= A11 A21 A12 A22 ,

con A11 y A22 matrices cuadradas. Probar que si A es simtrica y denida positiva, y la inversa de A es B=
entonces B111 = A11 A12 A221 A21 .

B11 B21

B12 B22

Ejercicio 25. Aplicar los distintos criterios para determinar si las siguientes formas cuadrticas son denidas positivas (negativas) o semidenidas positivas o negativas. Escribir tambin la forma reducida de cada una de ellas. 1. q1 ( x, y, z) = 3x2 + 16y2 + 139z2 + 12xy + 30xz + 92yz. 2. q2 ( x, y, z) = 4x2 5y2 2z2 + 4xz. 3. q3 ( x, y, z) = x2 + 4y2 4xy. 4. q4 ( x, y, z, t) = 4x2 + 4xy y2 9z2 + 6zt t2 . 5. q5 ( x, y) = xy. 6. q6 ( x, y, z, t) = 2xt + 2yz. 1 1 0 Ejercicio 26. Dada la matriz A = 1 2 0 , 0 0 3 1. Escribir una matriz ortogonal P tal que P1 AP sea una matriz diagonal D. 2. Escribir una matriz Q, que pueda expresarse como producto de matrices de transformaciones elementales del tipo Tij y Sij (), tal que Qt AQ sea una matriz diagonal D 3. Escribir, si es posible, una matriz R, que pueda expresarse como producto de matrices de transformaciones elementales, tal que Rt AR = I3 . Sea T2 la forma bilineal simtrica que, en la base usual de R3 tiene matriz A y sea q la forma cuadrtica asociada a T2 . 4. Comprobar que T2 es un producto escalar. 5. Las columnas de P forman una base ortonormal para el producto escalar usual de R3 . Comprobar que dichas columnas forman una base ortogonal para T2 . 6. Comprobar que las columnas de Q forman una base ortogonal para T2 y que las de R forman una base ortonormal para T2 . 7. Escribir la expresin de q en coordenadas para las bases dadas por las columnas de P, de Q y de R.

MANUALES UEX
153

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

MANUALES UEX
154

MTODOS MATEMTICOS PARA ESTADSTICA

TEMA VI

Inversas generalizadas. Mnimos cuadrados

a inversa de una matriz est denida para todas las matrices cuadradas que no son singulares, es decir, aquellas que tienen determinante no nulo. Sin embargo, hay muchas situaciones en las que podemos encontrarnos con una matriz rectangular (no cuadrada) o singular, y an as sea necesario calcular otra matriz que de alguna manera se comporte como una matriz inversa. Una de estas situaciones, que aparece a menudo en Estadstica y Probabilidad as como en otros campos de la Matemtica Aplicada, es la relacionada con el clculo de soluciones de sistemas de ecuaciones lineales. Un sistema de ecuaciones lineales se puede escribir matricialmente como Ax = b, con A Mmn (R) y b siendo x Rn el vector que queremos calcular. Si A es cuadrada e invertible, entonces x = A1 b. Pero qu ocurre cuando A1 no existe? Cmo podemos determinar si el sistema tiene alguna solucin, y en este caso, cuntas hay y cmo podemos calcularlas? El teorema de Rouche-Frbenius responde parcialmente la ltima pregunta, pues da un criterio para determinar si un sistema es compatible, pero no nos indica cmo calcular las soluciones en caso de existir. Existen diversas generalizaciones del concepto de matriz inversa. La mayora de estas generalizaciones surgen al exigir a la inversa generalizada o seudoinversa G de una matriz dada A Mmn (R) que cumpla una, dos, tres o cuatro de las siguientes condiciones: RM ,

Al nal de este tema veremos que las respuestas a todas la preguntas anteriores se pueden expresar en trminos de inversas generalizadas. En este tema nos centraremos en el estudio de la inversa de MoorePenrose, que es la cumple las cuatro condiciones, la {1}-inversa, que es la que cumple la primera de las cuatro condiciones y, por ltimo, la inversa

MANUALES UEX
155

(G1) (G2) (G3) (G4)

A G A = A, G A G = G, A G es simtrica, G A es simtrica.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

156

mnimo cuadrtica, que es la que cumple la primera y la tercera de las cuatro condiciones. La {1}-inversa se aplica para determinar la compatibilidad de los sistemas de ecuaciones lineales y caracterizar todas las soluciones. La inversa mnima cuadrtica resuelve el problema de la aproximacin mnimo cuadrtica de la solucin de un sistema de ecuaciones lineales. Finalmente, veremos que la inversa de Moore-Penrose permite calcular la solucin aproximada mnimo cuadrtica de norma mnima de un sistema incompatible. Introduciremos la inversa de Moore-Penrose de una matriz A Mmn (R) desde una perspectiva lgebro-geomtrica y la calcularemos usando la llamada descomposicin en valores singulares de A. En la prctica 9 veremos otro mtodo para calcularla. La primera seccin del tema est dedicada a la descomposicin en valores singulares de una matriz. En primer lugar, se estudian las matrices At A y A At con A Mmn (R). Ambas matrices son simtricas semidenidas positivas y tiene el mismo rango que A, por tanto sus autovalores son reales no negativos y el nmero de autovalores positivos coincide con el rango de A. Estos resultados darn sentido y sern la clave para denir la descomposicin en valores singulares de A. Tras la denicin de la descomposicin en valores singulares, el resto de la seccin se dedica a mostrar sus propiedades. Quiz lo ms interesante, por ser un aspecto poco tratado en los libros sobre inversas generalizadas, es la interpretacin geomtrica que damos al nal de la seccin La siguiente seccin trata exclusivamente sobre la inversa (generalizada) de Moore-Penrose. Al principio de la seccin damos dos deniciones de inversa de Moore-Penrose, y demostramos que son equivalentes. A continuacin demostramos que toda matriz tiene inversa de Moore-Penrose y que sta es nica. La demostracin de la existencia consiste en comprobar que la inversa de Moore-Penrose es A+ := Q1 Pt , siendo PQt la descomposicin en valores singulares de A, lo que claramente pone de maniesto la relacin entre las dos primeras secciones del tema. La otra denicin de inversa de Moore-Penrose tiene un sabor ms geomtrico, y la mostramos en el teorema VI.2.4. A continuacin, usando la interpretacin geomtrica de la descomposicin en valores singulares, damos la interpretacin geomtrica de la inversa de Moore-Penrose. Finalmente, mostramos algunas de las propiedades de la inversa de Moore-Penrose, y con ellas concluimos la seccin. Es interesante destacar que si la matriz A tiene inversa a izquierda y/o a derecha, entonces la inversa de Moore-Penrose es una inversa a izquierda y/o derecha; en particular, si A es invertible A+ = A1 . En la tercera seccin nos ocupamos de otras inversas generalizadas. Tal y como se apunt al principio, la mayora de las inversas generalizas surgen al

MANUALES UEX

MTODOS MATEMTICOS PARA ESTADSTICA

exigir que una cierta matriz cumpla una, dos, tres o cuatro de las condiciones (G1)-(G4). En esta seccin estudiamos las inversas generalizadas que cumplen (G1) y aquellas que cumplen (G1) y (G3). A las primeras las llamaremos inversas generalizadas a secas, pues todas las inversas que estudiamos en esta asignatura cumplen, al menos, (G1); a las segundas las llamaremos inversas mnimo, cuyo nombre se justica en la ltima seccin del tema. A modo de ejemplo, ilustramos la relacin de las inversas generalizadas con la forma reducida estudiada en el tema II. Adems, mostramos su expresin general y estudiamos sus propiedades. En concreto, mostramos que si A tiene inversa a izquierda, entonces las inversas generalizadas son inversas a izquierda y lo mismo ocurre cuando A tiene inversa a derecha. Finalmente, damos una expresin general para todas las inversas generalizadas de una matriz a partir de una inversa generalizada dada. A continuacin, se muestran algunas propiedades de las inversas generalizadas de At A. Estas propiedades son de suma utilidad en la obtencin de inversas generalizadas mnimo cuadrticas; concretamente, si ( At A) es una inversa generalizada de At A, entonces ( At A) A es una inversa mnimo cuadrtica de A. Es interesante resaltar que para cualquier inversa mnimo cuadrtica, A , de A, se cumple que AA = AA+ ; luego, podemos denir las inversas mnimo cuadrticas como las matrices B tales que AB es la matriz de la proyeccin ortogonal sobre la imagen A respecto de la base usual correspondiente. En la ltima seccin del tema, retomamos los sistemas de ecuaciones lineales, usamos las inversas generalizadas para estudiar su compatibilidad y damos una frmula que describe todas las soluciones en trminos de una inversa generalizada A de A. Para los sistemas incompatibles recurrimos a las inversas mnimo cuadrticas. En este caso, el sistema de ecuaciones Ax = b no tiene solucin, por lo que buscamos los vectores x tales que Ax b 2 es mnima. Usando lo estudiado en el tema 5 sobre proyecciones ortogonales, concluimos que los vectores buscados son las soluciones del sistema Ax = b1 , siendo b1 la proyeccin ortogonal de b sobre la imagen de A. Por consiguiente, teniendo en cuenta la relacin de las inversas mnimo cuadrticas con la proyeccin ortogonal, utilizamos estas inversas generalizadas para resolver el problema de una forma similar a como se hizo en el caso compatible. Como hemos dicho en repetidas ocasiones, este es un tema completamente nuevo y con el que alumno ni siquiera suele estar familiarizado. Sin embargo, este tema tiene multitud de utilidades en Estadstica y Probabilidad, vase, por ejemplo, el captulo 6 de [Bas83], el captulo 5 de [Sch05] (que es el que hemos usado principalmente para la elaboracin del tema), el captulo 8 de [Sea82], y por supuesto, [RM71] que es un libro de referencia bsica sobre inversas generalizadas. Por citar un ejemplo de uso de

MANUALES UEX
157

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

la inversa generalizada en Estadstica, retomemos los modelos lineales normales comentados anteriormente; para ello supongamos que estamos en las condiciones del modelo lineal normal, pero en este caso consideramos un sistema de n generadores de L, esto es, una matriz A Mmn (R) de rango dim( L). As, podemos expresar la media mediante su vector de coordenadas respecto de las columnas de A, es decir, una solucin del sistema de ecuaciones A = . El parmetro se puede expresar en trminos de como = A , siendo A una inversa generalizada de A. Es ms, sabemos cmo son todas las soluciones del sistema A = , en trminos de A y . No obstante, en general es desconocido, por lo que interesarn las soluciones aproximadas mnimo cuadrticas de A = y, y generalmente la de norma mnima, que segn se ve en este tema est complemente determinadas por las inversas mnimo cuadrtica y la inversa de Moore-Penrose. En los captulos 10 y 12 de [CnR05] se pueden encontrar multitud de ejercicios sobre mnimos cuadrados e inversas generalizadas, respectivamente. Tambin en [MS06], hay todo un captulo dedicado a estos temas. 1. Descomposicin en valores singulares (SVD)

Comenzamos esta seccin estudiando algunas de las propiedades de At A y de A At con A Mn (R). Proposicin VI.1.1. Sea A Mmn (R). Se cumple que: (a) ker( A) = ker( At A) y ker( At ) = ker( A At ); luego rg( A) = rg( At A) = rg( A At ). (b) At A y A At son simtricas y semidenidas positivas. En particular, At A es denida positiva si, y slo si, rg( A) = n, y A At es denida positiva si, y slo si, rg( A) = m. Demostracin. (a) En primer lugar recordamos que ker( A) = {v Rn | Av = 0}; luego es claro que ker( A) ker( At A). Recprocamente, si v ker( At A), se tiene que ( At A)v = 0, de modo que 0 = vt 0 = vt ( At A)v = (vt At )( Av) = ( Av)t ( Av),

MANUALES UEX

de donde se sigue que Av = 0, como queramos demostrar. La demostracin de la igualdad ker( At ) = ker( A At ) se hace de forma completamente anloga por lo que deja como ejercicio al lector. Finalmente, por el teorema del rango, se tiene que rg( A) = n dim(ker( A)) = n dim(ker( At A)) = rg( At A); rg( At ) = m dim(ker( At )) = m dim(ker( A At )) = rg( A At ).

158

Usando ahora que rg( A) = rg( At ) se obtiene el resultado buscado.

MTODOS MATEMTICOS PARA ESTADSTICA

(b) Es claro que At A y A At son simtricas, pues ( At A)t = At ( At )t = At A y ( A At )t = ( At )t At = A At . Al ser ambas matrices simtricas podemos garantizar que todos sus autovalores son reales, de tal que forma que para demostrar que son semidenidas positivas basta ver que todos sus autovalores son no negativos. Sea, pues, R un autovalor de At A y v Rn un autovector de At A asociado a . Entonces, 0 Av
2

= ( Av)t ( Av) = vt ( At A)v = vt (v) = (vt v),

de donde se sigue que 0. La demostracin de que todos los autovalores A At son no negativos es totalmente anloga; basta cambiar A por At . Finalmente, At A Mn (R) es denida positiva si, y slo si, todos los autovalores son positivos, esto es equivalente a que sea invertible, y por lo tanto a que tenga rango n, que coincide con el rango de A, por el apartado (a). La demostracin de que la condicin necesaria y suciente para que A At sea denida positiva es que A tenga rango m es similar. Teniendo en cuenta que las matrices At A y A At son simtricas, semidenidas positivas y tienen el mismo rango que A, r, segn la proposicin anterior, se sigue que ambas diagonalizan mediante una matriz de paso ortogonal y tienen r autovalores estrictamente positivos (no necesariamente distintos) y el resto nulos. Veamos que adems tienen los mismos autovalores. Proposicin VI.1.2. Sea A Mmn (R). Se cumple que: (a) At A y A At tienen los mismos autovalores no nulos. (b) Si v es un autovector de At A asociado a i2 = 0, entonces Av es un autovector de A At asociado a i2 . (c) Si u es un autovector de A At asociado a i2 = 0, entonces At u es un autovector de At A asociado a i2 . (d) La multiplicidad de los autovalores no nulos de At A coincide con la de los de A At . Demostracin. Sea un autovalor no nulo de At A y v un autovector de At A asociado a . Entonces

( A At ) Av = A ( At A)v = A(v) = ( Av);


luego, es un autovalor de A At y Av es autovector de A At asociado a . Ntese que Av = 0, en otro caso v = At Av = 0, es decir, = 0, lo que no es posible por hiptesis. El recproco es similar y se deja como ejercicio al lector. Sea ahora un autovalor no nulo de At A. Si u y v son dos autovectores linealmente independientes de At A asociados a , entonces Au y Av tambin son linealmente independientes. En efecto, si Au + Av = 0, entonces 0 = At (Au + Av) = ( At A)u + ( At A)v = (v + v);

MANUALES UEX
159

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

de donde se sigue que 0 = v + v y por lo tanto que = = 0. Al igual que antes, el recproco es similar y se deja como ejercicio al lector. Finalmente, como At A y A At son diagonalizables, se tiene que la multiplicidad de coincide con la dimensin del subespacio propio correspondiente. Luego, por el argumento anterior, concluimos que los autovalores no nulos de At A y de A At tienen la misma multiplicidad. Ntese que los autovalores de no nulos de At A (y los de A At ) son positivos, puesto que At A es denida positiva. De aqu que los denotemos 2 2 1 , . . . , r siendo r = rg( A) = rg( At A) = rg( A At ). Teorema VI.1.3. Forma reducida ortogonal. Sea A Mmn (R). Si A tiene rango r > 0, existen P Mm (R) y Q Mn (R) ortogonales, tales que Pt AQ = D, donde la matriz D Mmn (R) es una matriz de la forma 0(mr)r 0r(nr) 0(mr)(nr)

y es una matriz diagonal con entradas positivas en su diagonal. Las entradas diagonales de 2 son los autovalores positivos de At A (que coinciden con los de A At ). Nota VI.1.4. De ahora en adelante, por simplicidad en la notacin, escribiremos 0 para denotar a cualquier matriz nula, y slo especicaremos su orden cuando exista posibilidad de confusin. Demostracin. Sea 2 Mr (R) la matriz diagonal cuyas entradas en la diagonal son los r autovalores positivos de At A (que son los mismos que los autovalores positivos de A At ). Sea la matriz diagonal cuyas entradas en la diagonal son las races cuadradas positivas de las correspondientes entradas en la diagonal de 2 . Como At A es una matriz simtrica de orden n, podemos encontrar una matriz ortogonal Q Mn (R) tal que Qt At AQ = 2 0 0 0 .

MANUALES UEX

Partiendo Q como Q = ( Q1 | Q2 ), donde Q1 es una matriz n r, la identidad anterior implica que (VI.1.1) y (VI.1.2) Qt At AQ1 = 2 1

( AQ2 )t ( AQ2 ) = Qt At AQ2 = 0(nr)(nr) , 2


AQ2 = 0n(nr) .

de donde se sigue que

160

(VI.1.3)

MTODOS MATEMTICOS PARA ESTADSTICA

Sea P1 = AQ1 1 Mmr (R). En primer lugar observamos que las columnas de P1 son ortogonales; en efecto,
t P1 P1 = ( AQ1 1 )t ( AQ1 1 ) = (1 )t Qt At AQ1 1 = 1 2 1 = Ir . 1

Sea ahora P = ( P1 | P2 ) una matriz ortogonal de orden m, donde P2 es cualquier matriz de orden m (m r ) que la haga ortogonal. Por consiguiente, t t se tiene que P2 P1 = P2 AQ1 1 = 0(mr)r , equivalentemente, (VI.1.4)
t P1 AQ1 t AQ P2 1 t P2 AQ1 = 0(mr)r

Usando ahora (VI.1.1), (VI.1.3) y (VI.1.4), obtenemos que Pt AQ =


t P1 AQ2 t AQ P2 2

1 Qt At AQ1 1 t P2 AQ1

1 Qt At AQ2 1 t P2 AQ2 0 0

1 2 0

1 Qt At 0n(nr) 1 t P2 0n(nr)

Denicin VI.1.5. Sea A Mmn (R). Las races cuadradas positivas de los autovalores de At A (y de A At ), se llaman valores singulares de A. La descomposicin A = PDQt dada en el teorema VI.1.3 se llama descomposicin en valores singulares o SVD de A. Nota VI.1.6. Los valores singulares se denotan como 1 , 2 , . . . , r con la ordenacin 1 2 . . . r > 0. Siguiendo la notacin del teorema VI.1.3, los valores singulares de A son las entradas de la diagonal de . Por la demostracin del teorema VI.1.3, es obvio que las columnas de Q forman una base ortonormal de autovectores At A, y por lo tanto (VI.1.5) At A = QDt DQt . Tambin es importante destacar que las columnas de P forman una base ortonormal de autovectores de A At ya que (VI.1.6) A At = PDQt QDPt . Si volvemos a considerar particiones P y Q como P = ( P1 | P2 ) y Q = ( Q1 | Q2 ), con P1 Mmr (R) y Q1 Mnr (R), entonces la descomposicin en valores singulares de A se puede reescribir como sigue. Corolario VI.1.7. Sea A Mmn (R). Si A tiene rango r > 0, entonces existen t P1 Mmr (R) y Q1 Mnr (R) tales que P1 P1 = Qt Q1 = Ir , y 1 (VI.1.7) A = P1 Qt , 1 donde Mr (R) es diagonal con entradas positivas en su diagonal.

MANUALES UEX
161

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

La expresin (VI.1.7) se llama descomposicin en valores singulares corta o SVD corta de A. Se sigue de (VI.1.5) y de (VI.1.6) que P1 y Q1 son matrices semiortogonales, es decir, matrices cuyas columnas son mutuamente ortogonales y de norma 1, vericando (VI.1.8)
t P1 AAt P1 = Qt At AQ1 = 2 . 1

Sin embargo, en la descomposicin A = P1 Qt , la eleccin de la matriz se1 miortogonal P1 vericando (VI.1.8) depende de la eleccin de la matriz Q1 . Tngase en cuenta que en la demostracin del teorema VI.1.3 se elige una matriz semiortogonal Q1 vericando (VI.1.8), pero P1 viene dada por P1 = AQ1 1 . Alternativamente, se podra haber seleccionado primero P1 vericando (VI.1.8) y tomar posteriormente Q1 = At P1 1 . De esta descomposicin en valores singulares se puede obtener gran cantidad de informacin sobre la estructura de la matriz A. El nmero de valores singulares es el rango de A, mientras que las columnas de P1 y Q1 son bases ortogonales de im( A) e im( At ), respectivamente. Anlogamente, las columnas de P2 generan ker( At ) y las columnas de Q2 generan ker( A). Ejemplo VI.1.8. Hallemos la descomposicin en valores singulares corta de la siguiente matriz 2 0 1 3 1 1 . A= 2 4 1 1 1 1 En primer lugar, calculamos los autovalores y la matriz 18 10 At A = 10 18 4 4 autovectores normalizados de 4 4 . 4

2 2 2 Los autovalores son 1 = 28, 2 = 12 y 3 = 0, y sus respectivos autovectores normalizados son (1/ 2, 1/ 2, 0)t , (1/ 3, 1/ 3, 1/ 3)t y (1/ 6, 1/ 6, t 2/ 6) . Es claro, que el rango de A es 2 y que los dos valores singulares de A son 1 = 28 y 2 = 12. Por tanto, 28 0 = diag(1 , 2 ) = . 0 12

MANUALES UEX
162

Sean Q1 M32 (R) la matriz cuyas columnas son los dos primeros autovectores, Q2 M31 (R) y Q = ( Q1 | Q2 ) M3 (R). Por tanto la matriz

MTODOS MATEMTICOS PARA ESTADSTICA

P1 M42 (R) es P1 = AQ1 1 2 0 1 1/2 1/3 3 1 1 = 1/ 2 1/3 2 4 1 0 1/ 3 1 1 1 1/14 1/2 2/ 14 1/2 = 3/ 14 1/2 . 0 1/2

1/ 28 0 0 1/ 12

Por consiguiente, la descomposicin en valores singulares corta de A es 1/14 1/2 2/ 14 1/2 28 0 1/2 1/2 0 . 3/ 14 1/2 1/ 3 1/ 3 1/ 3 0 12 0 1/2 Nota VI.1.9. La descomposicin en valores singulares de un vector es muy fcil de construir. En efecto, si v Mm1 (R) es un vector no nulo de Rm , su descomposicin en valores singulares es de la forma v = p1 q1 , con =

vt v, p1 = 1 v y q1 = 1.

Ejemplo VI.1.10. Consideremos la matriz A= 6 6 1 1 .

MANUALES UEX
163

Cuando la matriz A es simtrica, los valores singulares de A estn directamente relacionados con sus autovalores. En efecto, si A es simtrica, entonces A At = A2 , y los autovalores de A2 son los cuadrados de los autovalores de A. Por consiguiente, los valores singulares de A sern los valores absolutos de los autovalores de A. Si P es una matriz cuyas columnas forman una base ortonormal de autovectores de A, entonces la matriz Q del teorema VI.1.3 ser idntica a P excepto para aquella columnas asociadas a autovalores negativos de A que sern 1 veces la correspondiente columna de P. Si A es semidenida positiva, entonces la descomposicin de valores singulares de A es precisamente la descomposicin A = PDPt estudiada en el tema V. Esta bonita relacin entre los autovalores y los valores singulares no ocurre en general.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Como 72 0 A At = , 0 2 los valores singulares de A son 72 = 6 2 y 2, mientras que los autovalores de A son 4 y 3. Veamos ahora algunas aplicaciones inmediatas de las descomposicin en valores singulares. Corolario VI.1.11. Sean A y B Mmn (R). Si At A = Bt B, entonces existe una matriz ortogonal U Mm (R) tal que B = U A. Demostracin. Si la descomposicin en valores singulares de A es A = P1 Qt , 1 entonces la descomposicin en valores singulares de B es B = P1 Qt con 1 t t P1 = BQ1 1 . Luego, B = ( P1 P1 ) A. La comprobacin de que U = P1 P1 Mm (R) es ortogonal se deja como ejercicio al lector. Corolario VI.1.12. Sean X y Y Mmn (R) y B y C Mm (R) simtricas denidas positivas. Si X t B1 X = YC 1 Y, entonces existe una matriz invertible A Mm (R) tal que Y = AX y C = A B At . Demostracin. Por ser B y C simtricas y denidas positivas existen B1/2 y C1/2 simtricas tales que B = B1/2 B1/2 y C = C1/2 C1/2 , y tambin existen B1/2 y C 1/2 simtricas tales que B1 = B1/2 B1/2 y C 1 = C 1/2 C 1/2 (vase el corolario V.5.9). Sean X1 = B1/2 X y X2 = C 1/2 Y. Como
t t X1 X1 = X t B1/2 B1/2 X = X t B1 X = YC 1 Y 1 = Y t C 1/2 C 1/2 Y = X2 X2 ,

por el corolario VI.1.11, obtenemos que existe una matriz U ortogonal tal que X2 = UX1 , es decir, C 1/2 Y = UB1/2 X, luego, Y = C1/2 UB1/2 X. De modo que basta tomar A = B1/2 UC 1/2 para concluir que Y = AX y que ABAt = C1/2 UB1/2 BB1/2 U t C1/2 = C.

MANUALES UEX

Interpretacin geomtrica de la descomposicin en valores singulares. Sean A Mmn (R) y T : Rn Rm la aplicacin lineal cuya matriz respecto de las bases usuales de Rn y Rm , respectivamente, es A. Consideremos las descomposiciones Rn = ker( T ) ker( T ) y Rm = im( T ) im( T ) . Obsrvese que = T| es inyectiva. Adems,
ker( T )

164

dim(ker( T ) ) = n dim(ker( T )) = rg( A) = dim(im( T )).

MTODOS MATEMTICOS PARA ESTADSTICA

Por lo tanto, establece un isomorsmo de ker( T ) con im( T ). Supongamos que A = P1 Qt es una descomposicin en valores singula1 res de A. Entonces la matriz de respecto de la base ortonormal de ker( T ) , que forman las columnas de Q1 y la base ortonromal de im( T ) que forman las columnas de P1 , es . Para conseguir un punto de vista ms visual de los valores singulares y de la descomposicin en valores singulares, considrese la esfera S de radio uno en Rn . La aplicacin lineal T enva esta esfera a un elipsoide de Rm . Los valores singulares son simplemente las longitudes de los semiejes del elipsoide. 2. La inversa de Moore-Penrose

Una inversa generalizada de utilidad en aplicaciones estadsticas es la desarrollada por E.H. Moore1 y R. Penrose2. Denicin VI.2.1. La inversa de Moore-Penrose de un matriz A Mmn (R) es la matriz de orden n m, que denotaremos por A+ , que verica las siguientes condiciones. (G1) A A+ A = A, (G2) A+ A A+ = A+ , (G3) ( A A+ )t = A A+ , es decir, A A+ es simtrica, (G4) ( A+ A)t = A+ A, es decir, A+ A es simtrica. Uno de las particularidades ms importantes de la inversa de MoorePenrose que la distingue de otras inversas generalizadas, es que est unvocamente denida. Este hecho, junto con su existencia, se establece en el siguiente resultado. Teorema VI.2.2. Dada una matriz A Mmn (R), existe una nica matriz A+ Mnm (R) vericando las condiciones (G1)-(G4) de la denicin VI.2.1 Demostracin. En primer lugar probamos la existencia de A+ . Si A es la matriz nula, entonces las cuatro condiciones de la denicin VI.2.1 se cumplen trivialmente para A+ = 0nm . Si A no es nula, entonces tiene rango r > 0. De modo que, por el corolario VI.1.7, sabemos que existen P1 Mmr (R) y t Q1 Mnr (R) tales que P1 P1 = Qt Q1 = Ir , y 1 A = P1 Qt , 1
1Moore, E. H. (1920). On the reciprocal of the general algebraic matrix. Bulletin of the American

Mathematical Society 26: 394-395. 2Penrose, R. (1955). A generalized inverse for matrices. Proceedings of the Cambridge Philosophical Society 51: 406-413.

MANUALES UEX
165

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

donde Mr (R) es diagonal con entradas positivas en su diagonal. Ntese t que si denimos A+ = Q1 1 P1 , entonces
t A A+ A = P1 Qt Q1 1 P1 P1 Qt = P1 1 Qt = P1 Qt = A, 1 1 1 1 t t t t A+ A A+ = Q1 1 P1 P1 Qt Q1 1 P1 = Q1 1 1 P1 = Q1 1 P1 = A+ , 1 t t A A+ = P1 Qt Q1 1 P1 = P1 P1 es simtrica, 1 t A+ A = Q1 1 P1 P1 Qt = Q1 Qt es simtrica. 1 1 t Por consiguiente, A+ = Q1 1 P1 es una inversa de Moore-Penrose de A, y por lo tanto se demuestra la existencia de inversas de Moore-Penrose. Ahora, supongamos que B y C son dos inversas de Moore-Penrose, es decir, dos matrices de orden n m que verican las condiciones (G1)-(G4) de la denicin VI.2.1. Usando estas condiciones, encontramos que

AB = ( AB)t = Bt At = Bt ( ACA)t = Bt At ( AC )t = ( AB)t AC = ABAC = AC y BA = ( BA)t = At Bt = ( ACA)t Bt = (CA)t At Bt = CA( BA)t = CABA = CA. Usando estas dos identidades y la condicin (G2) de la denicin VI.2.1, vemos que B = BAB = BAC = CAC = C. De modo que, como B y C son idnticas, la inversa de Moore-Penrose es nica. Como acabamos de ver en la demostracin del teorema VI.2.2 la inversa de Moore-Penrose de una matriz A est relacionada explcitamente con la descomposicin en valores singulares de A; es decir, podemos considerarla como una funcin de las matrices que componen la descomposicin en valores singulares de A. Ejemplo VI.2.3. La inversa de Moore-Penrose de 2 3 A= 2 1 0 1 1 1 4 1 1 1

MANUALES UEX
166

MTODOS MATEMTICOS PARA ESTADSTICA

del ejemplo VI.1.8 es 2 1/3 1/ 1/ 28 0 A+ = 1/ 2 1/3 0 1/ 12 0 1/ 3 10 1 0 1/ 14 2/ 14 3/ 14 = 4 1/2 1/2 1/2 1/2 84 7

13 1 7

2 7 16 7 . 7 7

Ntese que, como hemos apuntando antes, lo nico que necesitamos para calcular la inversa de Moore-Penrose es conocer su descomposicin en valores singulares. La denicin VI.2.1 es la denicin de inversa generalizada dada por Penrose. La siguiente denicin alternativa, que es ms til en determinadas ocasiones, es la denicin original de Moore. Esta denicin aplica el concepto de matrices de proyecciones ortogonales. Recurdese que si L es un subespacio vectorial de Rm , la proyeccin ortogonal sobre L es la aplicacin lineal L : Rm Rm ; v v1 L, donde v1 es el nico vector de Rm tal que v v1 L . Adems, si {u1 , . . . , ur } es una base ortonormal de L la matriz de L respecto de la base usual de Rm es u1 ut + . . . + ur ut . r 1 Teorema VI.2.4. Sea A Mmn (R). La inversa de Moore-Penrose es la nica matriz A+ Mnm (R) tal que (a) A A+ es la matriz de la proyeccin ortogonal de Rm sobre im( A) Rm respecto de la base usual de Rm . (b) A+ A es la matriz de la proyeccin ortogonal de Rn sobre im( A+ ) Rn respecto de la base usual de Rn . Demostracin. Sea A+ la inversa de Moore-Penrose de A. Entonces, de (G1) y de (G3) se sigue que

(v A A+ v)t Au = vt Au vt ( A A+ )t Au = vt Au vt A A+ Au = vt Au vt Au = 0.
De donde se sigue que (v A A+ v) im( A) , para todo u y v Rn . Por otra parte, como las columnas de P1 forman una base ortonormal de t t t im( A), se sigue que AA+ = P1 P1 = P1 ( P1 P1 ) P1 . Luego, por la proposicin + es la matriz de la proyeccin ortogonal sobre im( A ) V.4.8 se sigue que AA respecto de la base usual de Rm .

MANUALES UEX
167

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

La demostracin de que A+ A es la matriz de las proyeccin ortogonal sobre im( A+ ) Rn respecto de la base usual de Rn se obtiene de igual modo usando (G2) y (G4), es decir, intercambiando los papeles de A y A+ . En cuanto la unicidad, veamos que una matriz B vericando (a) y (b) debe tambin satisfacer la denicin VI.2.1. Las condiciones (G3) y (G4) son inmediatas ya que las matrices de las proyecciones ortogonales son simtricas (vase la proposicin V.4.8), mientras que las condiciones (G1) y (G2) siguen del hecho de que las columnas de A estn en im( A), y por lo tanto A BA = ( A B) A = A, y de que las columnas de B estn en im( B), y por lo tanto BA B = ( BA) B = B. Ahora, la unicidad de la inversa de Moore-Penrose implica que B = A+ .

Interpretacin geomtrica de la inversa de Moore-Penrose. Sean A Mmn (R) una matriz de rango r y T : Rn Rm la aplicacin lineal cuya matriz respecto de las bases usuales de Rn y Rm es A. Segn vimos en la interpretacin geomtrica de la descomposicin en valores singulares, la restriccin de T a ker( T ) establece un isomorsmo de ker( T ) en im( T ). Luego, existe 1 : im( T ) ker( T ) . Sea T + : Rm Rn la aplicacin lineal denida de la siguiente manera, T + ( v ) = 1 ( v 1 ) donde v1 es la proyeccin ortogonal de v sobre im( T ). Proposicin VI.2.5. Con la notacin anterior, la matriz de T + respecto de las bases usuales de Rm y Rn es A+ , es decir, la inversa de Moore-Penrose de A. Demostracin. Si v1 es la proyeccin ortogonal de v sobre im( T ), se tiene que T T + (v) = T (1 (v1 )) = (1 (v1 )) = v1 ,

MANUALES UEX

para todo v Rn , es decir, la composicin T T + es la aplicacin proyeccin ortogonal de Rm en im( T ) Rm . Por otro lado, T + T (u) = 1 ( T (u)) = u1 , donde u1 es la proyeccin ortogonal de u sobre ker( T ) = im( T + ). Luego, la composicin T + T es la proyeccin ortogonal de Rn en im( T + ) Rn . Tomando ahora las bases usuales de Rm y Rn en cada uno de los casos, respectivamente; por el teorema VI.2.4, se obtiene que A+ es la inversa de Moore-Penrose de A.

168

MTODOS MATEMTICOS PARA ESTADSTICA

Obsrvese que, por denicin, se cumplen las siguientes igualdades im( T T + ) = im( T + ) = im(1 ) = ker( T ) y im( T T + ) = im( T ). Luego, se cumple que (VI.2.9) rg( A) = rg( A+ ) = rg( A A+ ) = rg( A+ A).

Algunas propiedades bsicas de la inversa de Moore-Penrose. Proposicin VI.2.6. Sea A Mmn (R). Entonces, (a) (b) (c) (d) (e) (f) (g) (h) (i) (j)

(A)+ = 1 A+ , para todo R, no nulo. ( A + )t = ( At ) + . ( A+ )+ = A. A+ = A1 , si A es cuadrada e invertible. ( At A ) + = A + ( A + )t y ( A At ) + = ( A + )t A + . ( A A+ )+ = A A+ y ( A+ A)+ = A+ A. A + = ( At A ) + At = At ( A At ) + . A+ = ( At A)1 At y A+ A = In , si, y slo si, rg( A) = n. A+ = At ( A At )1 y A A+ = Im , si, y slo si, rg( A) = m. A+ = At , si las columnas de A son ortogonales, es decir, si At A = In .

Demostracin. Cada uno de los apartados se demuestra usando simplemente las condiciones (G1)-(G4) o la interpretacin geomtrica de la inversa de Moore-Penrose. Aqu, solamente veremos la igualdad ( At A)+ = A+ ( A+ )t , dada en el apartado (e), dejando los restantes apartados como ejercicios para lector. (e) Como A+ verica las condiciones (G1)-(G4), tenemos que At A A + ( A + )t At A = At A A + ( A A + )t A = At A A + A A + A

= At A A+ A = At A,
A + ( A + )t At A A + ( A + )t = A + ( A A + )t A A + ( A + )t = A + A A + A A + ( A + )t

= A + A A + ( A + )t = A + ( A + )t = ( At A ) + .
Luego, A+ ( A+ )t verica las condiciones (G1) y (G2) de la inversa de MoorePenrose de ( At A)+ . Adems, ntese que

( At A)( A+ ( A+ )t ) = At A( At A)+ = At AA+ ( A+ )t = At ( A+ ( A A+ )t )t


At ( A + A A + )t = At ( A + )t = ( A + A )t ,

MANUALES UEX
169

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

y como A+ A es simtrica por denicin, se sigue que la condicin (G3) se cumple para ( At A)+ = A+ ( A+ )t . Anlogamente, la condicin (G4) tambin se cumple, pues

( A+ ( A+ )t )( At A) = ( At A)+ At A = A+ ( A+ )t At A = A+ ( A A+ )t A = A+ A A+ A = A+ A.
Esto demuestra que ( At A)+ = A+ ( A+ )t . Las propiedades (h) e (i) de la proposicin VI.2.6 proporcionan frmulas para calcular la inversa de Moore-Penrose de matrices que tienen rango pleno por columnas o por las3, respectivamente. Ilustremos su utilidad con un ejemplo. Ejemplo VI.2.7. Sea A= 1 2 2 1 1 0 .

Como rg( A) = 2, podemos usar la propiedad (i). Si calculamos A At y luego ( A At )1 , obtenemos que A At = y por tanto A + = A t ( A A t ) 1 1 1 = 2 14 1 2 1 0 5 4 4 6 3 8 1 = 6 2 ; 14 5 4 6 4 4 5 y

( A A t ) 1 =

1 14

5 4 4 6

y podemos comprobar que A A+ = I2 ; en efecto, 3 8 1 1 1 2 1 A A+ = 6 2 = 2 1 0 14 14 5 4

14 0 0 14

= I2 .

MANUALES UEX

Sin embargo, A+ A = I3 como podemos comprobar 3 8 13 2 1 1 1 2 1 A+ A = = 6 2 2 10 2 1 0 14 14 5 4 3 6

3 6 . 5

De hecho las propiedades (h) e (i) de la proposicin VI.2.6 dan una condicin necesaria y suciente para que una matriz A Mmn (R) tenga inversa a izquierda y/o a derecha. La inversa a izquierda (a derecha, respectivamente) si existe no tiene por qu ser nica; es decir, pueden existir multitud de inversas a izquierda (a derecha, respectivamente).
3Se dice que una matriz A M mn (k) tiene rango pleno por las si rg( A ) = m y diremos

170

que tiene rango pleno por columnas si rg( A) = n.

MTODOS MATEMTICOS PARA ESTADSTICA

3.

Otras inversas generalizadas

La inversa de Moore-Penrose slo es una de las muchas inversas generalizadas que han sido desarrolladas en los ltimos aos. En esta seccin, trataremos brevemente otras dos inversas generalizas que tienen aplicacin en estadstica. Ambas se pueden denir usando las condiciones (G1)-(G4) , por simplicidad, 1-4, de la inversa de Moore-Penrose. De hecho, podemos denir diferentes clases de inversas generalizadas, segn el subconjunto de las condiciones 1-4 que la inversa generalizada ha de cumplir. Denicin VI.3.1. Sea A Mmn (R). Denotaremos por A(i1 ,...,ir ) a cualquier matriz que cumpla las condiciones i1 , . . . , ir entre las condiciones 1-4; se dir que la A(i1 ,...,ir ) es una {i1 , . . . , ir }-inversa. Segn la denicin anterior, la inversa de Moore-Penrose de A es una {1, 2, 3, 4}-inversa de A; es decir, A+ = A(1,2,3,4) . Ntese que para cualquier subconjunto propio {i1 , . . . , ir } de {1, 2, 3, 4}, A+ tambin ser una {i1 , . . . , ir }-inversa de A, pero no ser la nica. Como en muchos casos, hay muchas {i1 , . . . , ir }-inversas de A, puede ser ms fcil calcular una {i1 , . . . , ir }inversa de A que la inversa de Moore-Penrose. Ejemplo VI.3.2. Sea A Mmn (R). Si A tiene rango r y P Mm (R) y Q Mn (R) son matrices invertibles tales que R = P1 AQ es la forma reducida por las de A, entonces B = QRt P1 es una {1, 2}-inversa de A. En efecto, ABA = PRQQ1 Rt PP1 RQ = A, BAB = QRt P1 PRQ1 QRt P1 = B. Obsrvese que la inversa de Moore-Penrose de R es Rt . Veamos un caso concreto: sea A la matriz 1 1 1 2 1 0 1 0 . 2 1 2 2 La forma reducida de A es PAQ1 1 =R= 0 0 0 1 0 0 0 0 0 0 0

MANUALES UEX
171

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

con

0 0 1 0 0 0 0 1 . y Q= 1 0 1 0 0 1/2 0 1/2 Entonces, una inversa generalizada de A es 0 0 0 0 0 0 . B = QRt P1 = 0 1 0 0 1 1/2 1 1 P= 2 1 0 1 1 0 0

El resto de esta seccin est dedicado a la {1}-inversa y a la {1, 3}-inversa de A, cuyas aplicaciones sern discutidas en la ltima seccin de este tema. En la siguiente seccin veremos que para resolver sistemas de ecuaciones lineales, solamente necesitaremos matrices que veriquen la primera condicin de las denicin de inversa de Moore-Penrose. Nos referiremos a tales {1}inversas de A simplemente como inversas generalizadas de A, y escribiremos A en vez de A(1) . Sabemos que otra forma de calcular una inversa generalizada de una matriz consiste en conocer su descomposicin en valores singulares. Veamos que la descomposicin en valores singulares permite determinar todas las inversas generalizadas de una matriz dada. Proposicin VI.3.3. Sea A Mmn (R). Si A tiene rango r > 0 y A=P 0 0 0 Qt

es una descomposicin en valores singulares de A, entonces para cada E Mr(mr) , F M(nr)r (R) y G M(nr)(mr) (R), la matriz B=Q 1 F E G Pt

es una inversa generalizada de A, y cualquier inversa generalizada de A se puede expresar en la forma de B para ciertas E, F y G.

MANUALES UEX

Demostracin. Ntese que ABA = P 0 0 0 Qt Q 0 0 1 F Qt E G Pt P 0 0 0 Qt

=P =P

1 0 0 0 0

172

Qt = A,

MTODOS MATEMTICOS PARA ESTADSTICA

y por lo tanto B es una inversa generalizada de A independientemente de la eleccin de E, F y G. Por otra parte, si escribimos Q = ( Q1 | Q2 ) y P = ( P1 | P2 ), con Q1 Mnr (R) y P Mmr (R), entonces, como P Pt = Im y Q Qt = In , cualquier inversa generalizada B, de A, se puede expresar como B = Q Qt B P Pt = Q Qt 1 Qt 2 B ( P1 | P2 ) Pt = Q Qt B P1 1 Qt B P1 2 Qt B P2 1 Qt B P2 2 Pt ,

que tendr la forma requerida si somos capaces de probar que Qt B P1 = 1 . 1 Como B es una inversa generalizada de A, A B A = A, o equivalentemente,

( Pt A Q)( Qt B P)( Pt A Q) = Pt A Q.
Escribiendo esta igualdad en forma divida por bloques e igualando las matrices superiores izquierdas de ambos lados, obtenemos que Qt BP1 = 1 de donde se sigue que Qt BP1 = 1 . 1 Cuando A Mm (R) es invertible, la matriz B de la proposicin VI.3.3 es B = Q1 Pt , esto es, la inversa de A. Por tanto, si A es invertible, la nica inversa generalizada de A es A1 . Ejemplo VI.3.4. La matriz 1 1 A= 0 0
1 1 1 2 1 1 1 1 1 1 1 1 1 1 1 2 1 0 1 0 1 0

0 0 1 1

1/2 1/2 1/2 1/2


1/ 2 1/3 1/ 6

tiene rango r = 2 y su descomposicin en valores singulares (larga) de A es


0 3 0 0 0 1/2 0 1/3 0 1/ 6 0 0 1/ . 3 2/ 6

Si tomamos E, F y G iguales a matrices nulas y usamos la ecuacin de B dada en la proposicin VI.3.3 obtenemos que una inversa generalizada de A es 5 5 1 1 1 1 1 5 5 . 12 2 2 2 2 De hecho, segn la demostracin del teorema VI.2.2, sabemos que la matriz anterior es la inversa de Moore-Penrose de A. Se pueden construir otras inversas generalizadas de A mediante distintas elecciones de E, F y G; por ejemplo, si tomamos otra vez E y F nulas pero G = 1/ 6 0 ,

MANUALES UEX
173

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

entonces obtenemos la inversa generalizada 3 2 1 0 1 0 1 2 3 . 6 0 2 2 0 Obsrvese que esta matriz tiene rango 3, mientras que la inversa de MoorePenrose tiene el mismo rango que A que, en este caso, es 2. Veamos ahora algunas propiedades de las {1}-inversas. Proposicin VI.3.5. Sea A Mmn (R), y sea A Mnm una inversa generalizada de A. Entonces (a) (b) (c) (d) (e) (f) (g)

( A )t es una inversa generalizada de At . si R es no nulo, 1 A es una inversa generalizada de A. si A es cuadrada e invertible, A = A1 de forma nica. si B y C son invertibles, C 1 A B1 es una inversa generalizada de BAC. rg( A) = rg( A A ) = rg( A A) rg( A ). rg( A) = m si, y slo si, A A = Im . rg( A) = n si, y slo si, A A = In .

Demostracin. Las propiedades (a)-(d) se comprueban fcilmente, sin ms que vericar que se cumple la condicin (G1). Para demostrar (e), ntese que como A = A A A, podemos usar el ejercicio 5, para obtener que rg( A) = rg( A A A) rg( A A ) rg( A) y rg( A) = rg( A A A) rg( A A) rg( A), por tanto rg( A) = rg( A A ) = rg( A A). Adems, rg( A) = rg( A A A) rg( A A) rg( A ). De (e) se sigue que rg( A) = m si, y slo si, A A es invertible. Multiplicando a izquierda por ( A A )1 la expresin

( A A )2 = ( A A A ) A = A A

MANUALES UEX
174

implica (f). La demostracin de (g) es anloga y se deja como ejercicio al lector. Ejemplo VI.3.6. Algunas de las propiedades de la inversa de Moore-Penrose no se cumplen para las {1}-inversas. Por ejemplo, sabemos que la inversa de Moore-Penrose de A+ es A; es decir, ( A+ )+ = A. Sin embargo, en general, no est garantizado que A sea la inversa generalizada de A , cuando A es una inversa generalizada arbitraria. Considrese, por ejemplo, la matriz A = diag(0, 2, 4). Una eleccin de inversa generalizada para A es

MTODOS MATEMTICOS PARA ESTADSTICA

A = diag(1, 1/2, 1/4). Aqu, A es invertible, por lo tanto su nica inversa generalizada es A1 = diag(1, 2, 4). Todas las inversas generalizadas de una matriz A se pueden expresar en trminos de cualquier inversa generalizada particular. Teorema VI.3.7. Sea A Mnm (R) una inversa generalizada de A Mmn . Entonces para cualquier matriz C Mnm (R), se cumple que A + C A ACAA es una inversa generalizada de A, y cada inversa generalizada B de A se puede escribir de esta forma para C = B A . Demostracin. Como A A A = A, se tiene que A( A + C A ACAA ) A = AA A + ACA AA ACAA A

= A + ACA ACA = A;
por tanto, A + C A ACAA es una inversa generalizada de A, independientemente de la eleccin de A y C. Por otra parte, sea B una inversa generalizada de A y C = B A . Entonces, como ABA = A, se tiene que A + C A ACAA = A + ( B A ) A A( B A ) AA

= B A ABAA + A AA AA = B A AA + A AA = B.
Veamos ahora algunas propiedades de las inversas generalizadas de At A. Proposicin VI.3.8. Sean A Mmn (R). Si ( At A) es una inversa generalizada cualquiera de At A, entonces (a) (( At A) )t es una inversa generalizada de At A. (b) La matriz A( At A) At no depende de la eleccin de inversa generalizada ( At A ) . (c) A( At A) At es simtrica, an en el caso de que ( At A) no lo sea. Demostracin. Trasponiendo la expresin At A( At A) At A = At A se obtiene At A(( At A) )t At A = At A, de donde se sigue (a). Para probar (b) y (c), observamos primer lo siguiente A( At A) At A = AA+ A( At A) At A = ( AA+ )t A( At A) At A

= ( A + )t At A ( At A ) At A = ( A + )t At A = ( AA+ )t A = AA+ A = A.

MANUALES UEX
175

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Entonces, (VI.3.10) A ( At A ) At

= =

A( At A) At ( A+ )t At = A( At A) At ( AA+ )t A( At A) At AA+ = AA+ ,

donde la igualdad se sigue de la identidad A( At A) At A = A probada ms arriba; (b) sigue de (VI.3.10) ya que A+ , y por tanto AA+ , es nica. La simetra de A( At A) At se sigue de la simetra de AA+ . En la siguiente seccin veremos que la {1, 3}-inversa es til para hallar soluciones aproximadas mnimo cuadrticas de sistemas de ecuaciones lineales incompatibles. Consecuentemente, estas inversas generalizadas se suelen llamar inversas mnimo cuadrticas, y las denotaremos A en vez de A(1,3) . Como las inversas mnimo cuadrticas de A son tambin {1}-inversas de A, entonces las propiedades dadas en la proposicin VI.3.5 tambin se aplican a A (en el contexto de las {1}-inversas, claro!). Veamos algunas propiedad ms de las inversas mnimo cuadrticas. Proposicin VI.3.9. Sea A Mmn (R). Entonces, (a) para cualquier inversa mnimo cuadrtica, A , de A, se cumple que AA = AA+ , (b) ( At A) At es una inversa mnimo cuadrtica de A para cualquier inversa generalizada, ( At A) , de At A. Demostracin. Como AA A = A y ( AA )t = AA , podemos probar que AA

= AA+ AA = ( AA+ )t ( AA )t = ( A+ )t At ( A )t At = ( A+ )t ( AA A)t = ( A+ )t At = ( AA+ )t = AA+ .

El apartado (b) se sigue de la demostracin de la proposicin VI.3.8 donde ya demostramos las igualdades A ( At A ) At A = A y A ( At A) At = AA+ ,

es decir, que ( At A) At es una inversa mnimo cuadrtica.

MANUALES UEX

Corolario VI.3.10. Sea A Mmn (R). Si A tiene rango r > 0 y A=P 0 0 0 Qt

es una descomposicin en valores singulares de A, entonces para cada par de matrices F M(nr)r (R) y G M(nr)(mr) (R), la matriz B=Q 1 F 0 G Pt

176

MTODOS MATEMTICOS PARA ESTADSTICA

es una mnimo cuadrtica de A, y cualquier inversa mnimo cuadrtica de A se puede expresar en la forma de B para ciertas F y G. Demostracin. La demostracin es consecuencia directa de la proposicin VI.3.3.

4.

Sistemas de ecuaciones lineales (II). Mnimos cuadrados.

Dados A Mmn (R) y b Rm , consideramos el sistema de ecuaciones lineales Ax = b con m ecuaciones y n incgnitas. El teorema de Rouche-Frbenius es til para determinar si el sistema de ecuaciones lineales Ax = b es compatible, pero no nos dice cmo calcular una solucin del sistema cuando es compatible. El siguiente resultado proporciona una condicin necesaria y suciente alternativa de compatibilidad usando una inversa generalizada, A , de A. Una consecuencia obvia de este resultado es que cuando el sistema Ax = b sea compatible, entonces una solucin suya ser x = A b. Proposicin VI.4.1. El sistema de ecuaciones Ax = b es compatible si, y slo si, para alguna inversa generalizada, A , de A se cumple que AA b = b; en cuyo caso, x = A b es una solucin particular. Demostracin. En primer lugar, supongamos que el sistema es compatible y sea x una solucin, es decir, b = Ax. Multiplicando esta igualdad a izquierda por AA , donde A es una inversa generalizada de A, se obtiene que AA b = AA Ax = Ax = b, como queramos probar. Recprocamente, supongamos que para una inversa generalizada, A , de A se tiene que AA b = b. Si x = A b, entonces por tanto, x = A b, es una solucin, y el sistema es compatible. Nota VI.4.2. Supongamos que B y C son inversas generalizadas de A, por lo tanto ABA = ACA = A. Adems, supongamos que B verica la condicin de compatibilidad de la proposicin VI.4.1, es decir, ABb = b. Entonces, C verica la misma condicin ya que ACb = AC ( ABb) = ( ACA) Bb = ABb = b.

MANUALES UEX
177

Ax = AA b = b;

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Por tanto, para usar la proposicin VI.4.1, solamente hay que vericar la condicin para una inversa generalizada de A, sin importar qu inversa generalizada estemos usando. Ejemplo VI.4.3. Consideremos el sistema de ecuaciones Ax = b, donde 1 A= 1 2 1 0 1 1 1 2 2 0 2 3 b = 2 . 5

Segn vimos en el ejemplo VI.3.2, una inversa generalizada de A es 0 0 A = 0 0 0 0 1 1 0 0 . 0 1/2

Usando esta inversa generalizada observamos que 1 AA b = 1 2 1 0 1 1 1 2 0 0 0 2 3 0 0 0 0 2 0 1 0 2 5 0 1 1/2 3 3 2 = 2 . 5 5

1 0 0 = 0 1 0 1 1 0

Por tanto, una solucin particular del sistema de ecuaciones Ax = b es 0 0 A b = 2 1/2 No obstante, esta no es la nica inversa generalizada de A. Por ejemplo, la inversa de Moore-Penrose de A es 1/6 1/3 1/6 1/5 1/5 0 . A+ = 1/6 1/3 1/6 2/5 2/5 0 Segn lo expresado en la nota VI.4.2, si una inversa generalizada de A verica la condicin de compatibilidad de la proposicin VI.4.1, todas las inversas

MANUALES UEX
178

MTODOS MATEMTICOS PARA ESTADSTICA

generalizadas de A la verican. Por consiguiente, 1/6 1/3 1/6 1 3 1/5 1/5 1/5 0 A+ b = 2 = 1/6 1 1/3 1/6 5 2/5 2/5 0 2/5 es otra solucin del sistema de ecuaciones.

Podemos considerar que el sistema de ecuaciones Ax = b es un caso particular de sistemas de ecuaciones lineales de la forma AXC = B con B Mmq (R), C M pq (R) y, por tanto, X ser una matriz de incgnitas de orden n p. El siguiente resultado da una condicin necesaria y suciente para que exista una solucin X. Proposicin VI.4.4. Sea A Mmn (R), B Mmq (R) y C M pq (R). El sistema de ecuaciones AXC = B, es compatible si, y slo si, para algunas inversas generalizadas A y C , se cumple que (VI.4.11) AA BC C = B, en cuyo caso, X = A BC es una solucin particular. Demostracin. Supongamos que el sistema es compatible y que la matriz X es una de sus soluciones, por tanto B = A XC. Multiplicando a izquierda por AA y a derecha por C C, donde A y C son inversas generalizadas de A y C, obtenemos que AA BC C = AA A XCC C = A XC = B. Recprocamente, si A y C cumplen la condicin de compatibilidad, deni mos X = A BC , y observamos que X es una solucin del sistema. Usando un argumento similar al de la nota VI.4.2, podemos comprobar que si la condicin de compatibilidad (VI.4.11) se verica para una eleccin particular de A y B , entonces se cumple para todas las inversas generalizadas de A y B. En consecuencia, la condicin de compatibilidad (VI.4.11) es independiente de la eleccin de las inversas generalizadas de A y B. Hemos visto que si un sistema de ecuaciones Ax = b es compatible, entonces x = A b es una solucin, independientemente de la eleccin de la inversa generalizada A . Por tanto, si A vara segn la eleccin de A, entonces nuestro sistema tiene ms de una solucin (vase el ejemplo VI.4.3). El siguiente resultado da una expresin general para todas las soluciones de un sistema de ecuaciones.

MANUALES UEX
179

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Teorema VI.4.5. Sean A Mmn (R) y b Mm1 (R) tales que el sistema de ecuaciones Ax = b es compatible, y A una inversa generalizada de A. Entonces, para cada y Rn , (VI.4.12) xy = A b + ( In A A)y

es una solucin del sistema, y para cualquier solucin, x, existe y Rn tal que x = xy . Demostracin. Como Ax = b es compatible, por la proposicin VI.4.1, AA b = b, entonces Axy = AA b + A( In A A)y = b + ( A AA A)y = b, pues AA A = A. Luego, xy es una solucin independientemente de la elec cin de y Rn . Por otra parte, si x es una solucin arbitraria, entonces A Ax = A b, pues Ax = b. Consecuentemente, A b + ( In A A)x = A b + x A Ax = x, luego x = xx . Ejemplo VI.4.6. Para el sistema de ecuaciones estudiado en el ejemplo VI.4.3, tenemos que 0 0 0 1 1 1 2 0 0 0 A A = 1 0 1 0 0 1 0 2 1 2 2 0 1 1/2 0 0 0 0 0 0 0 0 = 1 0 1 0 0 1/2 0 1 usando la primera de las dos inversas generalizadas dadas en el ejemplo. Consecuentemente, una solucin del sistema de ecuaciones es

MANUALES UEX

xy = A b + ( I4 A A)y 0 1 0 0 0 1 = 2 + 1 0 1/2 0 1/2

0 0 y1 0 0 y2 0 0 y3 0 0 y4

y1 y2 = , 2 y1 1/2 y2/2

donde y = (y1 , y2 , y3 , y4 )t es un vector arbitrario.

180

Una consecuencia inmediata del teorema VI.4.5 es la siguiente:

MTODOS MATEMTICOS PARA ESTADSTICA

Corolario VI.4.7. Sean A Mmn (R) y b Mm1 (R) tales que el sistema de ecuaciones Ax = b es compatible. El sistema tiene solucin nica si, y slo si, A A = In , para cualquier inversa generalizada A de A. Demostracin. Ntese que x = A b es la nica solucin del sistema Ax = b si, y slo si, x = xy , para todo y Rn , con xy denido como en (VI.4.12). En otras palabras, la solucin es nica si, y slo si, ( In A A)y = 0, para todo y Rn , es decir, si, y slo si, In A A = 0. Corolario VI.4.8. Sean A Mmn (R) y b Mm1 (R) tales que el sistema de ecuaciones Ax = b es compatible. El sistema tiene solucin nica si, y slo si, rg( A) = n. Demostracin. Basta tener en cuenta la proposicin VI.3.5(g) y el corolario VI.4.7. Soluciones aproximadas mnimo cuadrticas de sistemas de ecuaciones lineales. Sean A Mmn (R) y b Rm tales que b im( A). Segn vimos en el tema III, el sistema de ecuaciones Ax = b es incompatible. Sin embargo, en algunas situaciones puede ser interesante conocer algn vector o un conjunto de vectores que estn cerca de vericar las ecuaciones. Si x Rn fuese una ellas, entonces x vericar aproximadamente las ecuaciones de nuestro siste ma si Ax b es prximo a 0. Si usamos la distancia para el producto escalar usual de Rm , entonces la distancia al cuadrado de Ax b a 0 es la suma al t ( A x b ) en coordenadas cuadrado de sus componentes, esto es, ( Ax b) respecto de la base usual de Rm . Cualquier vector que minimice esta suma de cuadrados se llama solucin aproximada mnimo cuadrtica. Denicin VI.4.9. Sean A Mmn (R) y b Rm . Se dice que x Rn es una solucin (aproximada) mnimo cuadrtica del sistema de ecuaciones Ax = b si cumple la desigualdad (VI.4.13) ( Ax b)t ( Ax b) ( Ax b)t ( Ax b),

Nota VI.4.10. Obsrvese que si x Rn es una solucin aproximada mnimo cuadrtica del sistema de ecuaciones Ax = b, entonces d(b, im( A))2 = mn{d(b, Ax)2 | x Rn } = mn{ Ax b
coord. 2

| x Rn }

= mn{( Ax b)t ( Ax b) | x Rn } = ( Ax b)t ( Ax b)

coord.

Ax b

= d(b, Ax)2 ,

MANUALES UEX
181

para todo x Rn .

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

donde las igualdades indicadas lo son en coordenadas respecto de la base usual de Rm . Segn vimos en el tema V, la distancia de un vector v V a un subespacio vectorial L de V se alcanza en la proyeccin ortogonal de v sobre L, esto es, en el nico vector v1 L tal que v v1 L . As, volviendo al problema que nos ocupa, si b1 es la proyeccin ortogonal de b sobre im( A), las soluciones aproximadas mnimo cuadrticas son las del sistema de ecuaciones lineales Ax = b1 . Proposicin VI.4.11. Sean A Mmn (R) y b Rm . Las soluciones aproximadas mnimo cuadrticas del sistema Ax = b son precisamente las soluciones del sistema Ax = AA+ b. Demostracin. Segn la nota VI.4.10, las soluciones aproximadas mnimo cuadrticas de Ax = b son las soluciones del sistema de ecuaciones Ax = b1 donde b1 es la proyeccin ortogonal de b sobre im( A). Como, por el teorema VI.2.4, AA+ b = b1 , tenemos que x es solucin aproximada mnimo cuadrtica del sistema Ax = b si, y slo si, es solucin del sistema Ax = AA+ b. Corolario VI.4.12. Sean A Mnm (R) una inversa mnimo cuadrtica de A Mmn (R), y b Rm . Entonces x = A b es una solucin aproximada mnimo cuadrtica del sistema Ax = b. Demostracin. Es una consecuencia inmediata de la proposicin VI.4.11, sin mas que tener en cuenta que, por la proposicin VI.3.9, AA+ = AA para cualquier inversa mnimo cuadrtica A de A. Ejemplo VI.4.13. Consideremos el sistema de ecuaciones Ax = b con 1 1 2 4 1 0 1 1 A= 1 1 2 y b = 6 . 2 0 2 5 1/6 2/5 1/3 2/5 . 1/6 0 1 = 1 1 = b, 1 5 22 Una inversa mnimo cuadrtica de A es 1/6 1/5 1 A = 1/3 1/5 10 1/6 0 Como 5 1 0 AA b= 10 5 0 0 2 0 4 5 0 5 0 0 4 1 4 0 6 8 5

MANUALES UEX
182

MTODOS MATEMTICOS PARA ESTADSTICA

de la proposicin VI.4.1 se sigue que el sistema es incompatible. Una solucin aproximada mnimo cuadrtica es 4 8 1/6 1/5 1/6 2/5 1 1 A b = 1/3 1/5 17 . 1/3 2/5 6 = 15 25 1/6 0 1/6 0 5 Veamos ahora que el recproco del corolario VI.4.12 tambin es cierto. Corolario VI.4.14. Sean A Mmn (R) y b Rm . Si x es una solucin aproximada mnimo cuadrtica del sistema Ax = b, entonces existe una inversa mnimo cuadrtica A de A tal que x = A b. Demostracin. Por la proposicin VI.4.11, x es una solucin del sistema de ecuaciones Ax = AA+ b. Luego, por la proposicin VI.4.1, existe una inversa generalizada A de A tal que x = A AA+ b. Una simple comprobacin demuestra que A AA+ es una inversa mnimo cuadrtica de A. Ntese que de los corolarios VI.4.12 y VI.4.14 se sigue que x es solucin aproximada mnimo cuadrtica de Ax = b si, y slo si, (VI.4.14) Ax = AA b,

para alguna inversa mnimo cuadrtica de A. Sin embargo, como, por la proposicin VI.3.9, AA = AA+ , para toda inversa mnimo cuadrtica A de A, se sigue que la igualdad es independiente de la inversa mnimo cuadrtica que elijamos. Teorema VI.4.15. Sean A Mmn (R), b Mm1 (R) y A mnimo cuadrtica de A. Entonces, para cada y Rn , (VI.4.15) xy = A b + ( In A A)y una inversa

es una solucin aproximada mnimo cuadrtica del sistema, y para cualquier solucin aproximada mnimo cuadrtica, x, existe y Rn tal que x = xy .

Ax = AA b, siendo A una inversa generalizada (cualquiera) de A. Ahora, basta tomar y = x A b y comprobar que x = xy .

MANUALES UEX
183

Demostracin. Usando que, por la proposicin VI.3.9, AA+ = AA , se com prueba fcilmente que xy es una solucin aproximada mnimo cuadrtica de Ax = b. Recprocamente, si x es una solucin aproximada mnimo cuadrtica de Ax = b, entonces

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejemplo VI.4.16. Calculemos todas las soluciones aproximadas mnimo cuadrtica del sistema de ecuaciones del ejemplo VI.4.13. En primer lugar, observamos que 1 0 1 A A = 0 1 1 , 0 0 0 de tal forma que xy = A b + ( I3 A A)y 0 1 = 5 10 0 2 0 2 5 0 0 4 4 1 4 6 0 5 0 + 0 0 0 0 0 1 y1 1 y2 1 y3

2,2 y3 = 2,8 y3 y3 es una solucin aproximada mnimo cuadrtica para cada y3 R. Terminamos esta seccin calculando la solucin ptima mnimo cuadrtica de un sistema de ecuaciones lineales, que no es otra cosa que la solucin aproximada mnimo cuadrtica de norma (eucldea) mnima. Corolario VI.4.17. Sean A Mmn (R) y b Mm1 (R). La solucin ptima mnimo cuadrtica del sistema de ecuaciones Ax = b es x+ = A+ b. Demostracin. Como A+ es, en particular, una inversa mnimo cuadrtica de A, por el teorema VI.4.15, se tiene que todas las soluciones aproximadas m nimo cuadrticas de Ax = b son de la forma xy = A+ b + ( In A+ A)y, para algn y Rn . Por otra parte, al ser A+ b ortogonal a ( In A+ A)y, del teorema de Pitgoras se sigue que xy
2

= A+ b

+ ( In A+ A)y

A+ b

= x+

MANUALES UEX
184

y la igualdad se alcanza si, y slo si ( In A+ A)y = 0, luego x+ = A+ b.

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicios del tema VI Ejercicio 1. Calcular la descomposicin en valores singulares (larga y corta) de la matriz 1 2 2 1 A= . 1 1 1 1 Ejercicio 2. Sea A Mmn (R). 1. Probar que los valores singulares de A son los mismos que los de At . 2. Probar que los valores singulares de A son los mismos que los de U AV, si U Mm (R) y V Mn (R) son matrices ortogonales. 3. Si = 0 es un escalar, cmo son los valores singulares de A en comparacin con los de A? Ejercicio 3. Sea A Mmn (R). Si A tiene rango r y su descomposicin en valores singulares (larga) es A=P 0 0 0 Qt ,

probar que, si vi y ui denotan, respectivamente, la columna i-sima de P y Q, entonces, vi = (1/i ) At ui , i = 1, . . . , r. Ejercicio 4. Usar la proposicin VI.2.6(h) para calcular la inversa de MoorePenrose de 1 1 1 0 1 0 0 1 1 . 2 0 1 Ejercicio 5. Probar que si A+ Mnm (R) es la inversa de Moore-Penrose de A Mmn (R), entonces ( A+ )2 es la inversa de Moore-Penrose de A2 . Ejercicio 6. Consideremos la matriz 1 1 A = 0 1 3 2 2 2 . 1

1. Calcular la inversa generalizada de Moore-Penrose de AAt , y usar la proposicin VI.2.6(g) para hallar A+ . 2. Usar A+ para calcular la matriz de proyeccin ortogonal de Rn sobre im( A) y de Rm sobre im( At ). Ejercicio 7. Sea A Mn (R). Probar que si A es simtrica, entonces 1. A+ es simtrica. 2. AA+ = A+ A.

MANUALES UEX
185

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

3. A+ = A, si A es idempotente. Demostrar que el recproco de 3. no es cierto en general. Es decir, encontrar una matriz simtrica A tal que A+ = A que no sea idempotente. Ejercicio 8. Sea A Mmn (R). Probar que si rg( A) = 1, entonces A+ = 1 At , donde = tr( A+ A). Ejercicio 9. Sean A Mmn (R) y B Mnm (R). Probar que si A y B son denidas positivas, entonces ABAt ( ABAt )+ A = A. Ejercicio 10. Sea A Mmn (R). Probar que 1. AB = 0 si, y slo si, B+ A+ = 0, con B Mn p (R). 2. A+ B = 0 si, y slo si, At B = 0, con B Mm p (R). Ejercicio 11. Sea A Mmn (R) simtrica y de rango r. Probar que si A tiene un autovalor no nulo de multiplicidad r, entonces A+ = 2 A. Ejercicio 12. Sean A Mmn (R) y B Mn p (R). Probar que si B tiene rango pleno por las (es decir, rg( B) = n), entonces AB( AB)+ = AA+ . Ejercicio 13. Sean A Mmn (R) y B Mmn (R) simtricas y semidenidas positivas tales que A B tambin es semidenida positiva. Probar que B+ A+ es semidenida positiva si, y slo si, rg( A) = rg( B). Ejercicio 14. Sean A Mmn (R) y B Mnm (R). Probar que ( AB)+ = B+ A+ si At ABBt = BBt At A. Ejercicio 15. Calcular la inversa de Moore-Penrose de 2 1 0 0 0 1 1 0 0 0 0 0 1 2 0 . 0 0 1 2 0 0 0 0 0 4

MANUALES UEX
186

Ejercicio 16. Consideremos la matriz diagonal A = diag(0, 2, 3). 1. Hallar una inversa generalizada de A de rango 2. 2. Hallar una inversa generalizada de A de rango 3 y que sea diagonal. 3. Hallar una inversa generalizada de A que no sea diagonal. Ejercicio 17. Sea A Mn (R) una matriz divida por bloques de la siguiente manera A11 A12 A= , A21 A22

MTODOS MATEMTICOS PARA ESTADSTICA

con A11 Mr (R). Probar que si rg( A11 ) = rg( A) = r, entonces


A111 0

0 0

es una inversa generalizada de A. Ejercicio 18. Sean A Mmn (R) y A una inversa generalizada de A. Probar que: 1. AA , A A, In A A e Im AA son idempotentes. 2. rg( In A A) = n rg( A) y rg( Im AA ) = m rg( A). Ejercicio 19. Sean A Mmn (R) y B Mn p (R). Probar que B A ser una inversa generalizada de AB para cualquier eleccin de A y B si rg( B) = n. Ejercicio 20. Sean A Mmn (R) y B Mn p (R). Probar que para cualquier eleccin de A y B , B A es una inversa generalizada de AB si, y slo si, A BB es idempotente. Ejercicio 21. Probar que la matriz B es una inversa generalizada de A si, y slo si, AB es idempotente y rg( A) = rg( AB). Ejercicio 22. Sean A Mmn (R) y B Mnm (R). Probar que B es la inversa de Moore-Penrose de A si, y slo si, B es una inversa mnimo cuadrtica de A y A es una inversa mnimo cuadrtica de B. Ejercicio 23. Sea A Mmn (R). Si A tiene rango r > 0 y A=P 0 0 0 Qt

es una descomposicin en valores singulares de A, entonces para cada F M(nr)r (R) la matriz B=Q 1 F 0 0 Pt

Ejercicio 24. Sean A Mmn (R) y ( AAt ) y ( At A) inversas generalizadas arbitrarias de AAt y At A, respectivamente. Probar que A+ = At ( AAt ) A( At A) At . Ejercicio 25. Sea Ax = b un sistema de ecuaciones compatible. Probar que si B es una inversa generalizada de A, entonces x = Bb es una solucin, y para cualquier solucin x, existe una inversa generalizada B de A, tal que x = Bb.

MANUALES UEX
187

es una mnimo cuadrtica de A de la forma ( At A) At y cualquier inversa mnimo cuadrtica de A de la forma ( At A) At se puede expresar en la forma de B para cierta F.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicio 26. Sea AXC = B un sistema de ecuaciones compatible, con A Mmn (R), B Mmq (R) y C M pq (R). Probar que para cualesquiera inversas generalizadas A y C , y una matriz arbitraria Y Mn p (R), XY = A BC + Y A AYCC es una solucin, y para cualquier solucin, X, existe una matriz Y tal que = XY . X Ejercicio 27. Consideremos el sistema de ecuaciones Ax = b, donde A M43 (R) es la matriz de ejercicio 4 y 1 3 b= 1 . 0 1. Probar que el sistema es compatible. 2. Hallar una solucin de este sistema de ecuaciones. 3. Cuntas soluciones linealmente independientes hay? Ejercicio 28. Consideremos el sistema de ecuaciones Ax = b, donde A M34 (R) es la matriz de ejercicio 3 y 1 1 . 4 1. 2. 3. 4. Probar que el sistema de ecuaciones es compatible. Dar la expresin para solucin general. Hallar el nmero r de soluciones linealmente independientes. Dar un conjunto de r soluciones linealmente independientes.

MANUALES UEX

Ejercicio 29. Consideremos el sistema de ecuaciones AXC = B, donde X M3 (R) es una matriz de incgnitas y 1 1 4 2 1 3 1 . A= , C= 1 0 y B= 2 1 3 2 1 0 1 1. Probar que el sistema de ecuaciones es compatible. 2. Hallar la expresin de la solucin general de este sistema. Ejercicio 30. Calcular la solucin ptima mnimo cuadrtica del siguiente sistema de ecuaciones para todos los valores de R : 1 1 1 x 1 = 0 . y 1 1 0

188

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicio 31. Sea A Mmn (R) y b Rm . Probar que x es una solucin aproximada mnimo cuadrtica del sistema Ax = b si, y slo si, x forma parte de una solucin del sistema ampliado Im At A 0 y x

b 0

No es extrao encontrar problemas de mnimos cuadrados en los que la matriz A es muy grande pero contiene muchos ceros. Para esta situacin, el anterior sistema ampliado contendr menos entradas no nulas que el sistema de ecuaciones normales, y evitar los problemas de memoria que suelen dar los algoritmos de resolucin. Adems, se evita el clculo de At A que puede producir problemas de mal condicionamiento. (vase la seccin 3 del tema VIII). Ejercicio 32. Consideremos el problema de calcular la solucin de norma mnima del problema de mnimos cuadrados mn Ax b 2 , donde A= 1 0 0 0 y b= 1 0 .

Probar que 1. la solucin x = (1, 0)t . 2. Consideremos la perturbacin de A E1 = 0 0 0

donde es un nmero positivo pequeo. Resolver la versin perturbada del problema anterior mn A1 y b 2 , donde A1 = A + E1 . Qu le ocurre a x y cuando se aproxima a cero? 3. Ahora consideremos la perturbacin de A E2 = 0 0 0

MANUALES UEX
189

donde es un nmero positivo pequeo. Resolver la versin perturbada del problema anterior mn A2 z b 2 , donde A2 = A + E2 . Qu le ocurre a x z cuando se aproxima a cero?

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

MANUALES UEX
190

MTODOS MATEMTICOS PARA ESTADSTICA

TEMA VII

Derivacin matricial

l clculo diferencial tiene multitud de aplicaciones en Estadstica. Por ejemplo, los procesos de estimacin tales como el mtodo de mxima verosimilitud o el mtodo de mnimos cuadrados usan las propiedades de optimizacin de las derivadas, mientras que el llamado mtodo delta para obtener la distribucin asinttica de una funcin de variables aleatorias usa la primera derivada para obtener una aproximacin por una serie de Taylor de primer orden. Estas y otras aplicaciones del clculo diferencial involucran a menudo vectores y matrices. En este tema, mostraremos algunas de las derivadas matriciales ms comnmente utilizadas en Estadstica. En la primera seccin de este tema, introduciremos brevemente algunos operadores matriciales especiales y estudiaremos algunas de sus propiedades. En particular, echaremos un vistazo a un producto de matrices que es diferente del usual. Este producto de matrices, llamado producto de Kronecker, produce una matriz divida por bloques tal que cada bloque es igual a un elemento de la primera matriz por la segunda (este producto ya fue denido a modo de ejemplo en el primer tema). Estrechamente relacionado con el producto Kronecker se halla el operador vec, o vectorizacin, que transforma matrices en vectores apilando las columnas una encima de otra. En muchas ocasiones, una matriz con una expresin aparentemente complicada se puede escribir de una forma realmente simple sin ms que aplicar uno o ms de estos operadores matriciales. Ni que decir tiene que existen otros operadores matriciales, algunos ya conocidos como la suma directa de matrices (vase la seccin 3 del tema III), y otros tambin importantes pero que no estudiaremos en esta asignatura, como por ejemplo el producto de Hadamard de dos matrices que no es ms que el producto entrada a entrada de cada una de ellas (vase el captulo 8 de [Sch05]). El primero de los operadores que estudiamos en esta seccin es el producto de Kronecker de matrices. Posteriormente mostramos sus propiedades bsicas y su relacin con la traza, la inversa, las inversas generalizas y el determinante. La eleccin de estas propiedades no es casual, ya que sern

MANUALES UEX
191

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

MANUALES UEX
192

las que utilicemos para calcular las diferenciales de la funciones matriciales usuales. A continuacin estudiamos el operador vec. La vectorizacin de una matriz consiste en construir un vector apilando las columnas de la matriz una encima de otra, conviene destacar que vec no es ms que una aplicacin lineal de Mmn (R) en Rmn . Las propiedades estudiadas de la vectorizacin son las que relacionan el operador vec con la traza y el producto de matrices. Terminamos esta seccin introduciendo las matrices de conmutacin que permiten relacionar la vectorizacin de una matriz y la de su traspuesta, y establecer la propiedad que relaciona la vectorizacin con el producto de Kronecker. La segunda seccin es la que da nombre al tema, en ella denimos y estudiamos las primeras propiedades del diferencial de una funcin matricial de variable matricial. La clave de la denicin de diferencial es la vectorizacin de la funcin matricial y de la matriz de variables. As, denimos la diferencial de F ( X ) en A como la nica aplicacin lineal dF ( A) tal que vec(dF ( A)) = dvec( F ( A)). Esta estrategia permite reducir el estudio de la diferencial de una funcin matricial de variable matricial, al estudio de la diferencial de una funcin vectorial de variable vectorial, y denir la derivada de una funcin matricial de variable matricial como la derivada de vec( F ( X )) respecto de vec( X )t , es decir, aquella que tiene como entrada (i, j)-sima a la derivada parcial del entrada i-sima de vec( F ( X )) con respecto a la entrada j-sima de vec( X ). Conviene advertir que existen otras deniciones de derivada matricial (vanse, por ejemplo, las secciones 3 y 4 de [MN07] y la seccin 5.4 de [BS98]). Nuestra eleccin resulta til cuando se est interesado fundamentalmente en aplicar a funciones matriciales resultados matemticos relativos a funciones vectoriales, como es nuestro caso. El resto de la seccin se dedica a las propiedades bsica de la diferencial y su relacin con algunas de las operaciones matriciales tales como la trasposicin, el producto de Kronecker y la traza. En tema naliza con el clculo de las diferenciales y derivadas de algunas funciones escalares y matriciales de variable matricial, por ejemplo, las funciones que a cada matriz le asignan su traza o su determinante, y las funciones que a cada matriz le asignan su inversa o su inversa de MoorePenrose. Todas las que aparecen en esta seccin las diferenciales y derivadas son calculadas con detalle, a excepcin de la diferencial de la inversa de Moore-Penrose de la que solamente se muestran sus expresiones. La bibliografa utilizada para este tema ha sido [Sch05] y [MN07], principalmente la teora de los captulos 8 y 9 del segundo, para la parte correspondiente a la diferenciacin matricial y el captulo 8 de [Sch05] para la seccin sobre los operadores matriciales.

MTODOS MATEMTICOS PARA ESTADSTICA

1.

Algunos operadores matriciales

El producto de Kronecker. Denicin VII.1.1. Sean A = ( aij ) Mmn (R) y B M pq (R). Se llama producto de Kronecker 1 de A por B, y se denota A B, a la matriz por bloques a11 B a12 B . . . a1n B a21 B a22 B . . . a2n B (VII.1.1) . Mmpnq (R). . . . . . . . . am1 B am2 B ... amn B Este producto es conocido ms concretamente como producto de Kronecker a derecha, siendo esta la denicin ms comn del producto de Kronecker. A diferencia de la multiplicacin de matrices el producto de Kronecker A B se puede denir independientemente de los rdenes de A y B. Sin embargo, al igual que la multiplicacin, el producto de Kronecker no es, general, conmutativo. Ejemplo VII.1.2. Sean A= Por un lado se tiene que AB = mientras que por otro BA = 1A 3A 2A 4A 0B 1B 2B 0 1 2 y B= 1 3 0 0 1 3 2 6 1 3 0 0 2 4 2 4 2 4 .

0 0 0 0

2 6 4 8

4 8

y {e1 , . . . , em } de Rn y Rm , respectivamente, es A, y sea S : R p Rq la aplicacin lineal cuya matriz respecto de las bases usuales {u1 , . . . , u p } y {u1 , . . . , uq } de Rq y R p , respectivamente, es B. El lector familiarizado con el producto tensorial puede apreciar que el producto de Kronecker de A y B no es ms que la matriz de la aplicacin T S : Rn R p Rm Rq , respecto de la bases {e1 u1 , . . . , e1 u p , . . . , en u1 , . . . , en u p } y {e1 u1 , . . . , e1 uq , . . . , em u1 , . . . , em uq } de Rn R p y Rm Rq , respectivamente.

1Sea T : Rn Rm la aplicacin lineal cuya matriz respecto de las bases usuales {e , . . . , e } n 1

MANUALES UEX
193

A pesar de que el producto de Kronecker no es conmutativo, se puede demostrar que existen matrices de permutacin P y Q tales que Pt ( A B) Q = B A; tal y como demostraremos en la proposicin VII.1.20.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

A continuacin enunciamos algunas propiedades bsicas del producto de Kronecker. Proposicin VII.1.3. Sea A, B y C matrices cualesquiera con coecientes en R y a Rm y b Rn . (a) (b) (c) (d) (e) (f) (g) A = A = A, para todo R. (A) ( B) = ( A B), para todo y R. ( A B ) C = A ( B C ). ( A + B) C = ( A C ) + ( B C ), si A y B tienen el mismo orden. A ( B + C ) = ( A B) + ( A C ), si B y C tienen el mismo orden. ( A B )t = At Bt . abt = a bt = bt a.

Demostracin. Las demostraciones son consecuencia directa de la denicin de producto de Kronecker por lo que se dejan como ejercicio al lector. En el captulo 5 de [BS98] se puede encontrar una demostracin completa de cada una de ellas. Veamos ahora una interesante propiedad que involucra tanto al producto de Kronecker como al producto usual de matrices. Teorema VII.1.4. Sean A = ( aij ) Mmr (R), B M ps (R), C = (c jl ) Mrn (R) y D Msq . Entonces (VII.1.2)

( A B)(C D ) = AC BD.

Demostracin. El miembro de la izquierda de (VII.1.2) es a11 B . . . a1r B c11 D . . . c1n D F11 . . . . = . . . . . . . . . . . am1 B donde Fij = ... amr B cr1 D
r

... ...

F1n . , . . Fmn

...

crn D

Fm1

j =1

aij c jl BD = ( AC)ij BD.


( AC )1n BD . . , . ( AC )m1 BD . . . ( AC )mn BD ...

MANUALES UEX
194

El miembro de la derecha de (VII.1.2) es ( AC )11 BD . . AC BD = .

y por tanto se sigue el resultado buscado. Nuestro siguiente resultado demuestra que la traza del producto de Kronecker A B se puede expresar fcilmente en trminos de la traza de A y de la traza B cuando ambas son matrices cuadradas.

MTODOS MATEMTICOS PARA ESTADSTICA

Proposicin VII.1.5. Sean A = ( aij ) Mm (R) y B M p (R). Entonces tr( A B) = tr( A)tr( B). Demostracin. Usando expresin (VII.1.1) cuando n = m, vemos que tr( A B) =

i =1

aii tr( B) = aii


i =1

tr( B) = tr( A)tr( B).

La proposicin VII.1.5 da una expresin simplicada para la traza de un producto de Kronecker. Existe un resultado anlogo para el determinante; sin embargo, necesitamos estudiar primero la inversa del producto de Kronecker. Proposicin VII.1.6. Sea A Mmn (R) y B M pq (R). Se cumple que (a) si m = n y p = q, y A B es invertible, entonces ( A B)1 = A1 B 1 , (b) ( A B)+ = A+ B+ . (c) ( A B) = A B , para cualquier inversa generalizada, A y B , de A y B, respectivamente. Demostracin. Usando el teorema VII.1.4 se tiene que

( A1 B1 )( A B) = ( A1 A B1 B) = Im Iq = Imp ,
luego se cumple (a). La vericacin de (b) y (c) se deja como ejercicio al lector.

Proposicin VII.1.7. Sean A Mm (R) y B Mn (R). Se cumple que

| A B| = | A|n | B|m .
Demostracin. Sean A = PD1 Qt y B = P D2 ( Q )t las descomposiciones en valores singulares (largas) de A y B, respectivamente. Como P, P , Q y Q son ortogonales, se tiene que | A| = | D1 | y | B| = | D2 |. Adems, se comprueba fcilmente que D1 y D2 verican la proposicin, es decir, | D1 D2 | = | D1 |n | D2 |m por ser D1 y D2 matrices diagonales. Por lo tanto, tenemos que Ahora, basta observar que

| A B| = |( PD1 Qt ) ( P D2 ( Q )t )| = |( P P )( D1 D2 )( Qt ( Q )t )| = |( P P )||( D1 D2 )||( Qt ( Q )t )| = |( D1 D2 )| = | A|n | B|m ,


sin ms que tener en cuenta que P P y Qt ( Q )t = ( Q Q )t tambin son matrices ortogonales. En efecto, ( P P )t ( P P ) = ( Pt ( P )t )( P P ) = ( Pt P) (( P )t P ) = ( Im ) ( In ) = Imn , y anlogamente con ( Q Q )t .

MANUALES UEX
195

| D1 D2 | = | A|n | B|m .

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Nuestro ltimo resultado sobre el producto de Kronecker identica la relacin entre el rango de A B y los rangos de A y B. Corolario VII.1.8. Sean A Mmn (R) y B M pq (R). Se cumple que rg( A B) = rg( A)rg( B) Demostracin. La demostracin es completamente anloga a la de la proposicin VII.1.7 por lo que se deja como ejercicio al lector. Nota VII.1.9. Sin comparamos las propiedades del producto ordinario de matrices y del producto de Kronecker se tiene

( AB)t ( AB)1 tr( AB) | AB| rg( AB)

= Bt At = B 1 A 1 = tr( A)tr( B) = | A| | B| mn{rg( A), rg( B)}

( A B )t ( A B ) 1 tr( A B) | A B| rg( A B)

= At Bt = A 1 B 1 = tr( A)tr( B) = | A|m | B|n = rg( A)rg( B)

entendiendo que, en cada caso, la matrices tienen los rdenes apropiados para que las frmulas tengan sentido.

El operador vec. El operador que transforma una matriz en un vector apilando sus columnas una encima de otra se conoce como el operador vec. Si la matriz A Mmn (R) tiene como i-sima columna a ai Rm , entonces vec( A) es el vector de Rmn denido por a1 . vec( A) = . . . an

MANUALES UEX

Obsrvese que vec(a) = vec(at ) = a, para todo a Rm . Ejemplo VII.1.10. Si A es la matriz 2 8 0 1 5 3 ,

196

MTODOS MATEMTICOS PARA ESTADSTICA

entonces vec( A) es el vector 2 8 0 1 5 3 .

Nota VII.1.11. Obsrvese que, si Eij es la matriz de orden m n cuya entrada (i, j)-sima es 1 y el resto de sus entradas son ceros y ek es el vector k-simo de la base usual de Rmn , entonces vec es la aplicacin lineal

Mmn (R) Rmn ; Eij em( j1)+i .


Se comprueba fcilmente que esta aplicacin es un isomorsmo de espacios vectoriales, y que su inversa es Rmn Mmn (R); ek Ec+1 r , donde c y r son el cociente y el resto de la divisin eucldea de k entre m, respectivamente. En esta seccin, desarrollaremos algunos propiedades bsicas asociadas a este operador. Por ejemplo, si a Rm y b = (b1 , . . . , bn )t Rn , entonces abt Mmn (R) y b1 a . vec(abt ) = vec ((b1 a, . . . , bn a)) = . = b a. . bn a El siguiente resultado nos da este y otros resultados que se siguen de forma inmediata de la denicin del operador vec. Proposicin VII.1.12. Sean a Rm , b Rn y A y B dos matrices del mismo orden con coecientes en R. Se cumple que: (a) vec(abt ) = b a. (b) vec(A + B) = vec( A) + vec( B), con y R. Demostracin. La demostracin es un sencillo ejercicio que proponemos al lector. La traza del producto de dos matrices se puede expresar en trminos de sus vectorizaciones. Proposicin VII.1.13. Sean A y B Mmn (R). Se cumple que tr( At B) = vec( A)t vec( B).

MANUALES UEX
197

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Demostracin. Como es habitual denotemos a1 , . . . , an las columnas de A y b1 , . . . , bn las columnas de B. Entonces b1 n n . tr( At B) = ( At B)ii = at bi = at , . . . , at . = vec( A)t vec( B). n i i .
i =1 i =1

bn

Teorema VII.1.14. Sean A Mmn (R), B Mn p (R) y C M pq (R). Se cumple que vec( ABC ) = (Ct A) vec( B). Demostracin. En primer lugar observamos que si b1 , . . . , b p son las columnas de B, entonces B se puede escribir como B=

i =1

bi eti , vec( Abi eti C) =


i =1 p

donde ei es el elemento i-simo de la base cannica de R p . As, se tiene que vec( ABC ) = vec
p

i =1

bi eti

i =1

Ct ei Abi = (Ct A) (ei bi ),

i =1 p

i =1

vec

( Abi )(Ct ei )t

donde la segunda y la ltima igualdad siguen de la proposicin VII.1.12(a). Usando de nuevo la proposicin VII.1.12(a), obtenemos que

i =1

(ei bi ) = vec(bi eti ) = vec bi eti


i =1 i =1

= vec( B),

lo que, junto con lo anterior, implica el resultado buscado. Ejemplo VII.1.15. En el tema VI, estudiamos los sistemas de ecuaciones lineales de la forma Ax = b, as como los sistemas de la forma AXC = B. Usando el operador vec y el teorema VII.1.14, este segundo sistema de ecuaciones se puede expresar de forma equivalente como vec( AXC ) = (Ct A)vec( X ) = vec( B); es decir, en un sistema de la forma Ax = b, donde en lugar de A, x y b, tenemos (Ct A), vec( X ) y vec( B), respectivamente. Como consecuencia, el teorema VI.4.5 del tema VI, que da la forma general de la solucin de Ax = b, se puede usar para realizar el ejercicio 26 del tema VI, donde se mostraba una expresin general de la solucin de AXC = B.

MANUALES UEX
198

MTODOS MATEMTICOS PARA ESTADSTICA

La proposicin VII.1.13 se puede generalizar fcilmente al caso del producto de ms de dos matrices. Corolario VII.1.16. Sean A Mmn (R), B Mn p (R), C M pq (R) y D Mqm . Se cumple que tr( ABCD ) = vec( At )t ( Dt B)vec(C ). Demostracin. Usando la proposicin VII.1.13 se sigue que tr( ABCD ) = tr( A( BCD )) = vec( At )t vec( BCD ). Sin embargo, por el teorema VII.1.14, sabemos que vec( BCD ) = ( Dt B)vec(C ), lo que completa la demostracin. Corolario VII.1.17. Sean A Mmn (R) y C Mnm (R), y B y D Mn (R). Se cumple que: (a) tr( ABC ) = vec( At )t ( Im B)vec(C ). (b) tr( ADt BDC ) = (vec( D ))t ( At Ct B)vec( D ). Demostracin. La demostracin de esta otra consecuencia del teorema VII.1.14 se deja como ejercicio al lector. Existen otras transformaciones de una matriz, A Mm (R), en un vector que son tiles cuando A tiene una estructura particular. Una de estas transformaciones de A, que se denota v( A), consiste en construir el vector de Rm(m+1)/2 que se obtiene al eliminar de vec( A) las entradas correspondientes a los elementos de A que estn por encima de la diagonal principal de A. De este modo, si A es triangular inferior, v( A) contiene todos los elementos de A excepto los ceros de la parte triangular superior de A. Asimismo, otra transformacin de A en un vector, que se denota v( A), consiste en construir m(m1)/2 que se obtiene al eliminar de v( A ) las entradas coel vector de R rrespondientes a la diagonal de A; es decir, v( A) es el vector que se obtiene apilando las porciones de columnas de A que estn por debajo de la diagonal de A. Ejemplo VII.1.18. Los operadores v y v son particularmente tiles cuando estamos manipulando matrices de covarianza y de correlacin. Por ejemplo, supongamos que estamos interesados en la distribucin de la matriz de covarianza muestral o en la distribucin de la matriz de correlacin muestral calculadas a partir de una muestra de observaciones de tres variables diferentes. Las matrices de covarianza y correlacin resultantes son de la forma s11 s12 s13 1 r12 r13 S = s12 s22 s23 y R = r12 1 r23 , s13 s23 s33 r13 r23 1

MANUALES UEX
199

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

respectivamente; de tal modo que vec(S) = (s11 , s12 , s13 , s12 , s22 , s23 , s13 , s23 , s33 )t , vec( R) = (1, r12 , r13 , r12 , 1, r23 , r13 , r23 , 1)t . Como S y R son simtricas, hay elementos redundantes en vec(S) y en vec( R). La eliminacin de estos elementos se puede obtener usando v(S) y v( R ) v(S) = (s11 , s12 , s13 , s22 , s23 , s33 )t , v( R) = (1, r12 , r13 , 1, r23 , 1)t . Finalmente, eliminando los unos no aleatorios de v( R), obtenemos v( R) = (r12 , r13 , r23 )t que contiene todas las variables aleatorias de R. Terminaremos esta seccin mostrando una interesante propiedad que nos permite transformar el vec de un producto de Kronecker en el producto de Kronecker de los operadores vec. Esta propiedad es crucial para la diferenciacin de productos de Kronecker. Pero antes, necesitamos introducir la siguiente notacin. Notacin VII.1.19. Sea A una matriz arbitraria de orden m n. Denotaremos por Kmn la nica matriz de orden mn mn tal que (VII.1.3) Kmn vec( A) = vec( At ).

Si m = n, se escribe Kn en vez de Knn . Obsrvese que Kmn es una matriz de permutacin que no depende de A. Las matrices Kmn se llama matrices de conmutacin, este nombre est justicado por el siguiente resultado: Proposicin VII.1.20. Sea A Mmn (R) y B M pq (R). Entonces K pm ( A B) = ( B A)Kqn .

MANUALES UEX

Demostracin. Sea C Mqn (R). Entonces, usando repetidas veces la expresin (VII.1.3) y el teorema VII.1.14, se tiene que K pm ( A B)vec(C ) = K pm vec( BCAt ) = vec( ACt Bt ) = ( B A)vec(Ct )

= ( B A)Kqn vec(C ).
Como C es arbitrario se sigue el resultado buscado. Ahora ya estamos en disposicin de enunciar y demostrar el teorema anteriormente anunciado.

200

MTODOS MATEMTICOS PARA ESTADSTICA

Teorema VII.1.21. Sea A Mmn (R) y B M pq (R). Entonces, vec( A B) = ( In Kqm I p )(vec( A) vec( B)). Demostracin. Sean ai , i = 1, . . . , n, y b j = 1, . . . , q, las columnas de A y B, respectivamente. Asimismo, sean ei , i = 1, . . . , n, y e j , j = 1, . . . , q, columnas de In e Iq , respectivamente. Con esta notacin, podemos escribir A y B como sigue A=

i =1

ai eti

B=

j =1

b j ( e j )t ;
n q

de este modo obtenemos que vec( A B) =

i =1 j =1

vec(ai eti b j (e j )t ) = vec((ai b j )(ei e j )t )


i =1 j =1 n q n

= =

i =1 j =1 n q

( ei e j ai b j ) =

i =1 j =1

(ei Kqm (ai e j ) b j )

i =1 j =1

( In Kqm Ip )(ei ai e j b j )
i =1

= ( In Kqm I p )

vec(ai eti )

j =1

vec(b j (ei )t )

= ( In Kqm I p )(vec( A) vec( B)),


lo que completa la demostracin.

2.

Diferenciacin matricial

Supongamos que f 1 , . . . , f m son funciones de Rn en R. Estas m funciones determinan la funcin f : Rn Rm con m componentes denida por f 1 (x) . . f (x) = , . f m (x) con x = ( x1 , . . . , xn )t ; esto es, una funcin vectorial con variable vectorial.

MANUALES UEX
201

Comenzamos recordando algunos conceptos bsicos sobre funciones en el espacio eucldeo con el nico objetivo de jar la notacin que se usar a lo largo de la seccin. Un desarrollo riguroso sobre este tema puede encontrarse, por ejemplo, en [Spi88].

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

La funcin f es diferenciable en a Rn si, y slo si, cada una de las componentes f i es diferenciable en a Rn ; equivalentemente, si existe una aplicacin lineal T : Rn Rm tal que
u0

lm

f (a + u) f (a) T (u) = 0. u

Ntese que u Rn y f (a + u) f (a) T (u) Rm , por lo que en el numerador estamos usando la norma en Rm y en el denominador la norma en Rn , ambas para el producto escalar usual. La aplicacin lineal T cuando existe es nica, se suele designar por d f (a) y se denomina diferencial de f en a. En muchas ocasiones es conveniente utilizar la matriz de d f (a) respecto de las bases usuales de Rn y Rm . Esta matriz de orden m n se suele llamar primera derivada de f en a o matriz Jacobiana de f en a, y responde a la siguiente expresin: x1 f 1 ( a ) . . . xn f 1 ( a ) . . . . . f (a) := . . t x x f m ( a ) . . . xn f m ( a )
1

En algunas situaciones concretas, las funciones f j y las variables xi se ordenan en una matriz en vez de en un vector. As, el caso ms general lo engloba una funcin matricial de orden m q f 11 ( X ) . . . f 1q ( X ) . . . . F(X ) = . . f m1 ( X ) ... f mq ( X ) de variable matricial X de orden n p. Es decir, F es una funcin de Mn p (R) en Mmq (R). Los conceptos para funciones vectoriales de variable vectorial se pueden extender fcilmente a la funcin matricial F ( X ) usando el operador vec; basta considerar la funcin f : Rnp Rmq tal que f (vec( X )) = vec( F ( X )).

MANUALES UEX

De este modo, se dene la diferencial de F en A Mn p (R) como la nica aplicacin lineal dF ( A) que hace conmutativo el siguiente diagrama:

M n p (R)
(VII.2.4)
vec

dF ( A)

- M m q (R)
vec

202

? Rnp

d f (vec( A)) -

? Rmq ,

MTODOS MATEMTICOS PARA ESTADSTICA

Es decir, por denicin, vec(dF ( A)) = d vec( F ( A)). Ahora, si consideramos las bases usuales de Rnp y Rmq , se tiene que la matriz Jacobiana de f en vec( A) Rnp es la matriz de orden mq np (VII.2.5) f (vec( A)) = vec( F ( A)), vec( X )t vec( X )t

es decir, aquella que tiene como entrada (i, j)-sima a la derivada parcial de la entrada i-sima de vec( F ( X )) con respecto a la entrada j-sima de vec( X ). Denicin VII.2.1. A la matriz (VII.2.5) la llamaremos derivada de F en A respecto de X. Ejemplo VII.2.2. La matriz de variables independientes X de orden m p dene una aplicacin de Mm p (R) Mm p (R) cuya derivada respecto de X en cualquier punto es la matriz identidad de orden mp. Existen otras deniciones de derivada matricial (vanse, por ejemplo, las secciones 3 y 4 de [MN07] y la seccin 5.4 de [BS98]). La eleccin de la denicin VII.2.1 resulta til cuando se est interesado fundamentalmente en aplicar a funciones matriciales resultados matemticos relativos a funciones vectoriales, como es nuestro caso. Propiedades de la diferencial. En lo que sigue, X denotar una matriz de orden n p de variables independientes. Adems, si F es una funcin matricial de X, escribiremos dF en vez de dF ( A) con objeto de aligerar un poco la notacin. En la siguiente proposicin se indican algunas de las reglas de derivacin para las operaciones ms usuales entre expresiones matriciales. Ni que decir tiene que todas las propiedades que veremos a continuacin slo tendrn sentido all donde exista la diferencial. Proposicin VII.2.3. (a) Derivada de la funcin constante. Sea A una matriz de orden m q cuyo elementos no dependen de los X. Entonces, (b) Derivada del producto por un escalar. Sea F una matriz de orden m q cuyos elementos son funciones de X. Entonces, para cualquier R se verica que d(F ) = (dF ). (c) Derivada de la suma. Sean F y G dos matrices de orden m q cuyos elementos son funciones de X. Entonces, d( F + G ) = dF + dG.

MANUALES UEX
203

dA = 0.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

(d) Derivada del producto. Sean F y G dos matrices de ordenes m q y q r, respectivamente, cuyos elementos son funciones de X. Entonces, d( FG ) = (dF ) G + F (dG ). Demostracin. Los apartados (a), (b) y (c) se siguen de la denicin de diferencial de una matriz en un punto. (d) Sabemos que las funciones vectoriales de variable vectorial cumplen que d( f g) = (d f ) g + f dg. Usando esta igualdad se comprueba fcilmente que (dF ) G + F (dG ) hace conmutativo el diagrama (VII.2.4), y se concluye que (dF ) G + F (dG ) = d( F G ), por la unicidad de la diferencial. Obsrvese que de (a) y (d) se sigue que d( AF ) = AdF. Veamos ahora otras propiedades de la diferencial de una funcin matricial de variable X relacionadas con las operaciones especcas de las matrices. Proposicin VII.2.4. Sean F una matriz de orden m q y G una matriz de orden r s cuyos elementos son funciones de una matriz X de orden n p de variables independientes. Se cumple que (a) dFt = (dF )t . (b) d( F G ) = (d F ) G + F d G. (c) Si q = m, entonces d(tr( F )) = tr(d F ). Demostracin. (a) Como vec(d( Ft )) = d(vec( Ft )) = d(Kmq vec( F )) = Kmq d(vec( F )) = Kmq vec(dF )

= vec((dF )t ),
se concluye la igualdad buscada. (b) Veamos en primer lugar que d(vec( F ) vec( G )) = d(vec(vec( G )vec( F )t ))

= vec((d vec( G ))vec( F )t + vec( G )d(vec( F )t )) = vec((d vec( G ))vec( F )t ) + vec(vec( G )(d vec( F ))t ) = vec( F ) (d vec( G )) + (d vec( F )) vec( G ) = vec( F ) vec(dG ) + vec(d F ) vec( G ) = vec(d F ) vec( G ) + vec( F ) vec(dG )
De modo que, como vec( F G ) = ( Iq Ksm Ir )(vec( F ) vec( G )) y vec((d F ) G + F d G ) = ( Iq Ksm Ir )(vec(d F ) vec( G ) + vec( F ) vec(dG )),

MANUALES UEX
204

MTODOS MATEMTICOS PARA ESTADSTICA

concluimos que vec(d(( F G ))) = d(vec( F G ))

= ( Iq Ksm Ir )d(vec( F ) vec( G )) = vec((d F ) G + F (d G )),


de donde se sigue el resultado buscado, por ser vec un isomorsmo. (c) Basta usar la proposicin VII.1.13 para obtener la igualdad buscada; en efecto, d(tr( F )) = d(vec( Im )t vec( F )) = vec( Im )t d(vec( F )) = vec( Im )t vec(d F ) = tr(d F ).

Ejemplo VII.2.5. Sea X una matriz de orden n q de variables independientes. Si F ( X ) = XX t , entonces vec(dF ( X )) = vec(d( XX t )) = vec((dX ) X t + X (dX )t )

= vec( In (dX ) X t ) + vec( X (dX )t In ) = ( X In )d vec( X ) + ( In X )Knq d vec( X ) = (( X In ) + Kn ( X In ))d vec( X ) = ( In2 + Kn )( X In )d vec( X )
luego, F = ( In2 + Kn )( X In ). vec( X )t 3. Algunas derivadas matriciales de inters

En la seccin anterior ya hemos mostrado algunas diferenciales y derivadas de funciones escalares y matriciales de variable matricial; en esta ltima seccin veremos algunas ms. En el captulo 9 de [MN07] y en el captulo 5 de [BS98] se pueden encontrar muchas ms diferenciales y derivadas de funciones escalares y matriciales de variable matricial. A partir de ahora, cuando consideremos funciones de la forma f ( X ) o F ( X ), supondremos que X es una matriz de orden m n de variable independientes; es decir, no consideraremos que X tenga ninguna estructura particular como pueden ser simetra, triangularidad, ... Comencemos viendo algunas funciones escalares de X. Ejemplo VII.3.1. Sea x un vector de m variables independientes, y denimos la funcin f (x) = at x, con a Rm . De d( f (x)) = d(at x) = at dx,

MANUALES UEX
205

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

concluimos que f = at . xt Ejemplo VII.3.2. Sea x un vector de m variables independientes, y denimos la funcin g(x) = xt Ax, con A Mm (R) simtrica. Usando que d( g(x)) = d(xt Ax) = d(xt ) Ax + xt Adx

= (dx)t Ax + xt Adx = ((dx)t Ax)t + xt Adx = 2xt Adx,


se sigue que g = 2xt A. xt La traza y el determinante. Proposicin VII.3.3. Sean X una matriz de orden m y adj( X ) su matriz adjunta2. Entonces, (a) d(tr( X )) = vec( Im )t d(vec( X )) y tr( X ) = vec( Im )t . vec( X )t (b) d| X | = tr(adj( X )dX ) y | X | = vec(adj( X )t )t . vec( X )t (c) si X es invertible, d| X | = | X |tr( X 1 dX ) y | X | = | X |vec(( X 1 )t )t . vec( X )t

MANUALES UEX
206

Demostracin. Teniendo en cuenta que vec(tr( X )) = tr( X ) y vec(| X |) = | X |, en el apartado (a) la relacin entre la diferencial y la deriva es directa; mientras que en los apartados (b) y (c) la relacin entre la diferencial y la derivada es consecuencia directa de la proposicin VII.1.13. (a) d(tr( X )) = tr(dX ) = vec( Im )t vec(dX ) = vec( Im )t d(vec( X )). Ahora, usando la relacin entre la diferencial y la derivada se obtiene la expresin para la derivada buscada.
2Denicin I.2.9 del tema III.

MTODOS MATEMTICOS PARA ESTADSTICA

(b) Sabemos que | X | = m 1 (1)i+k xik | Xik |, donde Xik es la submatriz de k= X que se obtiene eliminando la la i-sima y la columna k-sima. Por tanto, | X | = (1)i+ j | Xij |, xij pues | Xik | no depende de la variable xij , si k = j. De donde se sigue que | X | = vec(adj( X )t )t , vec( X )t y usando la relacin entre la diferencial y la derivada se obtiene la diferencial buscada. El apartado (c) sigue directamente del (b), sin ms que tener en cuenta que si X es invertible, entonces X 1 = | X |1 adj( X ). Una consecuencia inmediata del apartado (c) de la proposicin anterior es el siguiente resultado. Corolario VII.3.4. Sea X una matriz invertible de orden m. Entonces, d(log(| X |)) = tr( X 1 dX ) y log(| X |) = vec(( X 1 )t )t . vec( X )t Demostracin. Usando la regla de la cadena de las funciones vectoriales de variable vectorial se tiene que 1 log(| X |) = | X | = vec(( X 1 )t )t , t vec( X ) | X | vec( X )t usando ahora la relacin entre la diferencial y la derivada se concluye el resultado buscado. Ejemplo VII.3.5. Si F ( X ) = tr( X t X ) = tr( X X t ), entonces dF ( X ) = d(tr( X t X )) = tr(d( X t X )) = tr((dX )t X + X t dX )

= tr((dX )t X ) + tr( X t dX ) = 2tr( X t dX ) = 2 vec( X )t vec(dX ),


luego, F = 2vec( X t )t . vec( X )t

MANUALES UEX
207

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejemplo VII.3.6. Si X X t es invertible y F ( X ) = | X X t |, entonces dF ( X ) = | X X t |tr(( X X t )1 d( X X t ))

= | X X t |tr(( X X t )1 ((dX ) X t + X (dX )t )) = | X X t |tr(( X X t )1 (dX ) X t ) + tr(( X X t )1 X (dX )t ) = 2 | X X t |tr( X t ( XX t )1 dX ) = 2 | X X t |vec(( X t ( XX t )1 )t )t vec(dX ) = 2 | X X t |vec(( XX t )1 X )t vec(dX )
luego, F = 2 | X X t |vec(( XX t )1 X )t . vec( X )t La inversa y la inversa de Moore-Penrose. El prximo resultado nos da la diferencial y la derivada de la inversa de una matriz invertible. Proposicin VII.3.7. Si X es una matriz invertible de orden m, entonces d( X 1 ) = X 1 (dX ) X 1 y vec( X 1 ) = (( X 1 )t X 1 ). vec( X )t Demostracin. Calculando la diferencial de ambos lados de la igualdad Im = XX 1 , obtenemos que 0 = dIm = d( XX 1 ) = (dX ) X 1 + X (dX 1 ). Multiplicando a izquierda por X 1 y despejando d( X 1 ), se tiene que d( X 1 ) = X 1 (dX ) X 1 ,

MANUALES UEX

de donde sigue que d(vec( X 1 )) = vec(d( X 1 )) = vec( X 1 (dX ) X 1 )

= (( X 1 )t X 1 )vec(dX ) = (( X 1 )t X 1 )d(vec( X ))
lo que completa la demostracin. Una generalizacin natural de la proposicin VII.3.7 es el resultado que nos describe la diferencial y la derivada de la inversa de Moore-Penrose de una matriz.

208

MTODOS MATEMTICOS PARA ESTADSTICA

Teorema VII.3.8. Si X es una matriz m n y X + es su inversa de Moore-Penrose, entonces dX + = ( In X + X )(dX t )( X + )t ( X + )t + X + ( X + )t d( X t )( Im XX + ) X + (dX ) X + y = ( X + )t X + ( In X + X ) + ( Im XX + ) X + ( X + )t Kmn vec( X )t

(( X + )t X + ).
La demostracin de este teorema no es difcil aunque s muy extensa. El lector interesado puede encontrarla en la pgina 362 de [Sch05].

MANUALES UEX
209

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicios del tema VII

Ejercicio 1. Dadas las matrices A= 2 1 3 2 y B= 5 3 3 2

Calcular A B, B A, tr( A B), | A B|, los autovalores de A B y ( A B ) 1 . Ejercicio 2. Sean A Mmn (R), B M pq (R) y c Rr . Probar que 1. A( In c) = A ct . 2. (c I p ) B = c B. Ejercicio 3. Probar que 1. Si A y B son simtricas, entonces A B tambin es simtrica. 2. Si A y B son invertibles, entonces A B tambin es invertible. 3. A B = 0 si, y slo si, A = 0 B = 0. Ejercicio 4. Hallar el rango de A B donde 2 6 5 A= 1 4 y B= 2 3 1 1

2 1 0

4 1 . 2

Ejercicio 5. Sean A Mmn (R), B Mn p (R), c R p y d Rn . Probar que 1. ABc = (ct A)vec( B) = ( A ct )vec( Bt ). 2. dt Bc = (ct dt )vec( B). Ejercicio 6. Sean A, B y C matrices cuadradas de orden m. Probar que si C es simtrica, entonces

(vec(C ))t ( A B)vec(C ) = (vec(C ))t ( B A)vec(C ).

MANUALES UEX

Ejercicio 7. Sean A Mmn (R) y b R p . Probar que vec( A b) = vec( A) b. Ejercicio 8. Sean A Mmn (R) y B Mn p (R). Probar que vec( AB) = ( I p A)vec( B) = ( Bt Im )vec( A) = ( Bt A)vec( In ). Ejercicio 9. Sean A Mm (R), B Mn (R) y C Mmn (R). Probar que

210

vec( AC + CB) = ( In A) + ( Bt In ) vec(C ).

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicio 10. Probar que la matriz de conmutacin Kmn se puede escribir como Kmn =
i =1

(ei In eti ),

donde ei es el i-simo vector de la base cannica de Im . Usar que si A Mnm (R), x Rm y y R p m entonces

(Kmn )t (x A yt ) = A xyt .
Ejercicio 11. Sean A Mmn (R) de rango r y 1 , . . . , r los autovalores no nulos de At A. Si denimos P = Kmn ( At A), probar que 1. 2. 3. 4. 5. P es simtrica. rg( P) = r2 . tr( P) = tr( At A). P2 = ( AAt ) ( At A). los autovalores no nulos de P son 1 , . . . , r y (i j )1/2 , para todo i < j.

Ejercicio 12. Sean A Mmn (R) y B M pq (R). Probar que 1. vec( At B) = (Kmq,n Iq ) (vec( A) vec( B)) . 2. vec( A Bt ) = ( In K p,mq (vec( A) vec( B)) . Ejercicio 13. Sean A Mmn (R) y B M pq (R) con mp = nq. Probar que tr( A B) = vec( In ) vec( Iq )
t

vec( A) vec( Bt ) .

Ejercicio 14. Calcular la diferencial y la derivada de f (x) = Ax y de g( x ) = Xa. Ejercicio 15. Sea A y B Mm (R) y x un vector de m variables independientes. Hallar la diferencial y la derivada la funcin f (x) = xt Ax . xt Bx

Ejercicio 16. Sea X una matriz de orden m de variables independientes. Calcular la diferencial y la derivada de 1. F ( X ) = tr( X 2 ). 2. F ( X ) = | X 2 |. Ejercicio 17. Sean X una matriz invertible orden m de variables independientes, A Mm (R) y a Rm . Hallar la diferencial y la derivada de 1. tr( AX 1 ).

MANUALES UEX
211

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

2. at X 1 a. Ejercicio 18. Sea X una matriz de orden m n de variables independientes con rango n. Probar que | X t X | = 2| X t X |vec( X ( X t X )1 )t . vec( X )t Ejercicio 19. Sea A Mm (R) y X una matriz de orden m de variables independientes. Calcular las diferenciales y las derivadas de XAX t , X t AX, XAX y X t AX t . Ejercicio 20. Sean X una matriz de orden m de variables independientes y n un entero positivo. Probar que
n vec( X n ) = ( X ni )t X i1 . vec( X )t i =1

Ejercicio 21. Sean A Mnm (R) y B Mmn (R). Si X es una matriz invertible de orden m de variables independientes, hallar la derivadas de 1. vec( AXB). 2. vec( AX 1 B). Ejercicio 22. Sea X una matriz de orden m n de variables independientes. Probar que ( X X ) = ( In Knm Im ) ( Imn vec( X ) + vec( X ) Imn ) vec( X )t Ejercicio 23. Sean X una matriz invertible de orden m y adj( X ) su matriz adjunta. Probar que vec(adj( X )) = | X | vec( X 1 )vec(( X 1 )t )t (( X 1 )t X 1 ) . vec( X )t

MANUALES UEX
212

MTODOS MATEMTICOS PARA ESTADSTICA

TEMA VIII

Normas vectoriales y matriciales

n el tema V estudiamos el concepto de norma en los espacios vectoriales eucldeos, nos proponemos ahora estudiar este mismo concepto con mayor generalidad. Para ello comenzaremos deniendo el concepto de norma de forma axiomtica en cualquier espacio vectorial real o complejo de dimensin arbitraria. Evidentemente, un ejemplo destacado ser el caso de las normas denidas a partir de un producto escalar en un espacio vectorial real de dimensin nita. El par formado por un espacio vectorial V y una norma se conoce como espacio normado, estos espacios sern nuestro ambiente de trabajo en primera seccin del tema. Estudiaremos algunas de sus propiedades elementales. La introduccin de una norma en un espacio vectorial nos permitir denir la nocin de convergencia para sucesiones de vectores, lo que a su vez nos permitir hablar de lmites y continuidad en los espacios normados. Tras estudiar algunos resultados elementales sobre convergencia y funciones continuas en espacios normados, introduciremos el concepto de normas equivalentes: diremos que dos normas son equivalentes si determinan la misma nocin de convergencia; es decir, un sucesin es convergente para de las normas si, y slo si, lo es para la otra. Es claro, por tanto, que las normas equivalentes tambin conservarn la nocin de continuidad en idntico sentido. Terminamos esta primera seccin del tema, mostrando que en los espacios de vectoriales de dimensin nita todas las normas son equivalentes, y concluiremos que las aplicaciones lineales entre espacios vectoriales de dimensin nita son funciones continuas. La segunda seccin del tema se dedica al estudio de las normas matriciales. La nocin de norma matricial es una particularizacin de la nocin de normas en los espacios vectoriales de las matrices cuadradas aadiendo una condicin de compatibilidad con el producto de matrices. El primer caso de norma matricial estudiado es el de las normas matriciales subordinadas a una norma vectorial. Esto es, dada una norma en kn se puede denir una norma matricial ||| ||| en Mn (k) tal que Av ||| A||| v , para todo v kn , siendo ||| A||| el menor nmero real que verica la desigualdad para

MANUALES UEX
213

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


todo v kn . A continuacin se muestran los ejemplos de normas matriciales subordinadas ms comunes y se dan sus expresiones expresiones explcitas. Tal vez la norma matricial subordinada ms importante es la que proviene de la norma usual de n , es por esto por lo que dedicamos gran parte de nuestros esfuerzos a estudiar sus propiedades ms interesantes; principalmente, aquellas que guardan relacin con el radio espectral de la matriz. Es conveniente recordar ahora que gran parte de los resultados estudiados en los temas III y V sern fundamentales para alcanzar nuestro objetivo de relacin las normas matriciales (y en particular la subordinada a la norma usual de n ) con el radio espectral. Esta relacin pondr de maniesto (de nuevo, pues ya se vislumbr en el tema IV) que el mayor autovalor en mdulo de una matriz cuadrada rige el comportamiento asinttico de las sucesiones de potencias de matrices, tal y como estudiaremos al nal de la seccin. En esta segunda seccin no todas las normas consideras sern subordinadas, se mostrarn ejemplos de normas no subordinadas y en todo momento se especicar qu resultados son slo vlidos para normas subordinadas y cules son vlidos en general. La ltima seccin del tema se dedica el estudio del condicionamiento de sistemas de ecuaciones lineales Ax = b con A Mn (k) invertible y b kn . Se dir que un sistema est mal condicionado si pequeas modicaciones en la matriz o en el trmino independientes producen grandes cambios en la solucin del sistema. La herramienta clave para la deteccin de un buen o mal condicionamiento ser las normas matriciales. Para la elaboracin de este tema hemos seguido esencialmente las secciones 2.3, 2.4 y el captulo de 3 de [IR99] y las secciones 1.4 y 1.5 y el captulo 3 de [Cia82] 1. Normas vectoriales. Espacios normados

A lo largo de este tema k denotar R C, indistintamente, y en esta seccin V y W sern espacios vectoriales sobre k de dimensin arbitraria, mientras no se indique lo contrario.

MANUALES UEX
214

Denicin VIII.1.1. Una norma sobre V es una aplicacin V R; v v tal que: (a) v = 0 si, y slo si, v = 0. (b) v = || v , para todo k y v V. (c) u + v u + v , para todo u y v V. La condicin (c) se suele denominar desigualdad triangular. Por otra parte, como 0 = 0 = vv v + v = 2 v , se tiene que v 0, para todo v V.

MTODOS MATEMTICOS PARA ESTADSTICA

Ejemplos VIII.1.2. i) La funcin Rn R; v = (v1 , . . . , vn ) v = v2 + . . . + v2 es n 1 una norma sobre Rn . Esta norma se suele denominar norma usual de Rn y se denota 2 . Obsrvese que, en este caso, se tiene que vt v = v 2 , para todo v Rn . 2 Obsrvese que la norma usual de Rn es la norma del espacio vectorial eucldeo Rn para el producto escalar usual estudiada en el tema V. Tambin son normas sobre Rn las dos siguientes: v v
1

= | v1 | + . . . + | v n |, = m x{|v1 |, . . . , |vn |}. a

ii) La funcin Cn R; v = (v1 , . . . , vn ) v 2 = |v1 |2 + . . . + |vn |2 es una norma sobre Cn , que se llama norma usual de Cn . Ntese que, en este caso, se cumple que v v = v 2 para todo v Cn . 2 Tambin son normas sobre Cn las dos siguientes: v v
1

= | v1 | + . . . + | v n |, = m x{|v1 |, . . . , |vn |}. a

Nota VIII.1.3. La desigualdad triangular de la norma determina, para todo par de vectores u y v V las desigualdades u v

= =

v + (u v) v + u v , u + (v u) u + v u .

Como v u = u v se deduce la desigualdad (VIII.1.1) para todo u, v V. u v

uv ,

Ntese que un subespacio vectorial de un espacio normado es un espacio normado con la misma norma restringida al subespacio. Ejemplos de espacios normados son los del ejemplo VIII.1.2 y los siguientes. Otros espacios normados se vern en el ejemplo XII.1.8. Ejemplos VIII.1.5.

MANUALES UEX
215

Denicin VIII.1.4. Un espacio vectorial con una norma se llama espacio normado.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

i) En el espacio vectorial de los polinomios con coecientes reales de grado menor o igual que n, R[ x ]n , la aplicacin R[ x ]n R; p( x ) || p( x )|| =

i =0

( p(i))

1/2 2

es una norma. ii) Sea [ a, b] un intervalo cerrado de R. En el espacio vectorial de las funciones continuas reales de [ a, b], C([ a, b]; R), las siguientes aplicaciones de C([ a, b]; R) en R son normas: f f f f f f
1

= =

a b

f ( x )dx
a b

f ( x )2 dx

1/2

= sup | f ( x )|
x [ a,b]

Obsrvese que esta ltima aplicacin est bien denida por el teorema A.4.9. Evidentemente, es posible denir diferentes normas sobre el mismo espacio vectorial (vase el ejemplo VIII.1.2.i)). Por consiguiente, para denir un espacio normado necesitamos especicar tanto el espacio vectorial como la norma. Podemos decir pues que un espacio normado es un par (V, ), donde V es un espacio vectorial y es una norma sobre V. No obstante, algunos espacios vectoriales estn tradicionalmente equipados de una norma usual. Por ejemplo, cuando digamos el espacio normado kn entenderemos que la norma es v
2

| x1 |2 + . . . + | x n |2 .

MANUALES UEX

Anlogamente, las normas denidas en los ejemplos VIII.1.2.iii)-iv) son las usuales. De modo que cuando queramos considerar normas distintas a la usual en estos espacios diremos algo como consideremos el espacio ... con la norma denida por ... . Proposicin VIII.1.6. Sea (V, ) un espacio normado. u v 0, para todo u y v V; adems, u v = 0 si, y slo si, u = v. (b) u v = v u , para todo u y v V. (c) u w u v + v w . (a) Demostracin. La demostracin de esta proposicin se deja como ejercicio al lector.

216

MTODOS MATEMTICOS PARA ESTADSTICA

Sea (V, ) un espacio normado. De la proposicin anterior se deduce que la aplicacin d : V V R; (u, v) d(u, v) := u v es una mtrica sobre V. Por consiguiente, Corolario VIII.1.7. Todo espacio normado (V, ) tiene una estructura natural de espacio mtrico determinada por la mtrica d(u, v) := u v . Adems, esta mtrica es (a) invariante por traslaciones, es decir, d(u + w, v + w) = d(u, v), para todo u, v y w V. (b) absolutamente homognea por homotecias, es decir, d(u, v) = || d(u, v), para todo u y v V y k. Demostracin. La primera parte es consecuencia directa de la proposicin VIII.1.6. La demostracin de la segunda parte del corolario se deja como ejercicio al lector. Segn el corolario anterior, siempre que tengamos un espacio normado, tenemos un espacio mtrico con todas sus propiedades, deniciones, topologa, etc. Convergencia en espacios normados. El valor absoluto es un norma en R, y se usa para denir el concepto de convergencia, en pocas palabras el valor absoluto de la diferencia de dos nmeros reales es la distancia entre stos y la convergencia trata sobre acercarse tanto como se desee al punto lmite. En general, la norma sobre un espacio vectorial juega un papel similar. Mientras que v se puede interpretar como la magnitud de v, u v proporciona una medida de la distancia entre u y v. De modo que podemos recuperar la nocin de convergencia de los espacios mtricos. Denicin VIII.1.8. Sea (V, ) un espacio normado. Diremos que una sucesin (vn )nN de elementos de V converge a v V, si para todo > 0 existe un nmero N tal que para todo n N se tiene que vn v < . En este caso se escribe lmn vn = v o simplemente vn v. La denicin anterior es bastante ms simple si recurrimos al concepto de convergencia de los nmeros reales: vn v en V signica que vn v 0 en R. La convergencia en un espacio normado tiene las propiedades bsicas de la convergencia en R :

MANUALES UEX
217

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Una sucesin convergente tiene un nico lmite. Si vn v y n , entonces n vn v, siendo (n )nN una sucesin de escalares y un escalar. Si un u y vn v, entonces un + vn u + v. Todas estas propiedades se demuestran de la misma manera que se hacia en el caso de la convergencia en R, por lo que su comprobacin de deja como ejercicio al lector. Ejemplo VIII.1.9. La sucesin de vectores (vn )nN de R3 con vn = 2/n3 , 1 1/n2 , e1/n
t

R3 es convergente al vector v = lmn vn = (0, 1, 1)t .

Al igual que ocurre con el concepto de convergencia, la continuidad en espacios mtricos tiene su traduccin inmediata a los espacios normados. Denicin VIII.1.10. Sean (V, V ) y (W, W ) dos espacios normados. Se dice que una aplicacin f : V W es continua en v0 si para cada > 0, existe > 0 tal que v0 v V < implica que f (v0 ) f (v) W < . Si f es continua en todo v V, se dice que es continua en V. Proposicin VIII.1.11. Sea R; v v es continua.

una norma sobre V. La aplicacin

: V

Demostracin. Dados u V y > 0 cualesquiera basta tomar = y v V con u v < para que, aplicando la desigualdad (VIII.1.1), se verique u v < . Proposicin VIII.1.12. Sean (V, V ) y (W, W ) dos espacios normados y f : V W es una aplicacin lineal. Las siguientes armaciones son equivalentes: (a) (b) (c) (d) f es continua en un punto. f es continua. f es acotada en B[0, 1]. Existe M > 0 tal que f (v)

M v

, para todo v V.

218

Demostracin. (a) (b) Basta comprobar que f es continua en v0 V si, y slo si, lo es en 0. Lo cual es evidente si tenemos en cuenta que si para cada > 0 existe > 0 tal que v0 v V < implica f (v0 ) f (v) W < , entonces (v0 v) 0 V < implica f (v0 v) f (0) W < , y recprocamente. (b) (c) Como f es continua en 0 se tiene que existe > 0 tal que 0 v V = v V < implica que f (0) f (v) W = f (v) W < 1. Por tanto, si u B(0, 1), es decir, u V < 1, se tiene que v = u cumple que v V < , luego f (v) W < 1. De este modo concluimos que f (u) W = f (v/) W = f (v)/ W = f (v) W / < 1/.

MANUALES UEX

MTODOS MATEMTICOS PARA ESTADSTICA

(c) (d) Si M es la cota de f en B[0, 1], entonces f (v/ v V ) W < M; de donde se sigue que f (v) W < M v V , para todo v V. (d) (a) Por hiptesis, existe M > 0 tal que f (v) W < M v V , para todo v V. Ahora, dado > 0, basta tomar = /M para concluir que f es continua en 0. Denicin VIII.1.13. Dos normas sobre el mismo espacio vectorial se dicen equivalentes si denen la misma convergencia. Ms concretamente, dos normas y sobre un espacio vectorial V son equivalentes si para cualquier sucesin (vn )nN en V y v V, vn v 0 si, y slo si, vn v

0.

El siguiente teorema proporciona un criterio prctico para la equivalencia de normas. La condicin del teorema es usada a menudo como denicin de equivalencia de normas. Teorema VIII.1.14. Sean y dos normas sobre un espacio vectorial V. Las normas y son equivalentes si, y slo si, existen dos nmeros positivos m y M tales que m v v para todo v V. Demostracin. Es claro que la condicin implica la equivalencia de las normas y . Supongamos pues que las normas son equivalentes, esto es vn v 0 si, y slo si, vn v 0. Si no existe m > 0 tal que m v v para todo v V, entonces para cada n N existe vn V tal que 1 vn > vn . n Denamos 1 vn wn = . n vn

M v ,

Terminamos esta seccin mostrando algunos resultados sobre espacios normados de dimensin nita. Teorema VIII.1.15. Sea V un espacio vectorial de dimensin nita n > 0. Todas las normas sobre V son equivalentes.

MANUALES UEX
219

Entonces wn = 1/ n 0. Por otra parte, wn > n wn = n. Esta contradiccin demuestra que el nmero m con la propiedad requerida ha de existir. La existencia del nmero M se demuestra anlogamente.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Demostracin. Como V es isomorfo a Rn , cualquier norma sobre V induce una norma en Rn ; en efecto, si (1 , . . . , n ) Rn son las coordenadas de v V respecto de alguna base de V, entonces (1 , . . . , n ) := v es una norma sobre Rn . De modo que basta demostrar que todas las normas sobre Rn son equivalentes. De hecho vamos a probar que cualquier norma sobre Rn es equivalente a la norma (1 , . . . , n ) := m x{|1 |, . . . , |n |}. a Sea e1 , . . . , en la base estndar de Rn , donde e1 = (1, 0, . . . , 0), e2 = (0, 1, . . . , 0), etcetera. Entonces, dado v = (1 , . . . , n ) Rn se tiene que v =

i =1

i ei

i =1

| i |

ei n m x |i | a
i

m x ei a
i

=M v

donde M := n m xi ei . a Denamos ahora la funcin f : Rn R; v f (v) := v . La funcin f es continua respecto de la norma , pues | f (u) f (v)| = u v u v M u v . Sea S := {u Rn | u = 1}, el conjunto S es compacto para la norma . Luego, f alcanza un mximo y un mnimo en S. Sea m := f (w) tal que w S con f (w) f (u), para todo u S. Es decir, u m para todo u S. Ntese que m = 0; en otro caso, 0 = f (w) = w implica que w = 0, pero 0 S. Finalmente, dado v Rn , se tiene que u := v/ v pertenece a S. De donde se sigue que v / v = u m y por consiguiente que m v

v .

El resultado anterior no es generalizable a espacios vectorial de dimensin arbitraria. Por ejemplo, en el espacio vectorial de las funciones reales continuas en el intervalo [0, 1], C([0, 1]; R), las normas y 1 denidas por f

= sup | f ( x )| y
x [0,1]

1 0

f ( x )dx

no son equivalentes.

MANUALES UEX
220

Corolario VIII.1.16. Sean (V, V ) y (W, W ) dos espacios normados dimensin nita sobre k. Cualquier aplicacin lineal f : V W es continua. Demostracin. Supongamos que dim(V ) = n y sea {v1 , . . . , vn } una base de n V. Dado v V, existen i k, i = 1, . . . , n tales que v = i=1 i vi . Luego, n f (v) = i=1 i f (vi ); sea M1 := m x1in f (vi ) W . Por otra parte, la aplicaa n cin 1 : V k; v v 1 = i=1 i es una norma sobre V, y como todas las normas sobre V son equivalentes, existe un nmero positivo M2 tal que 1 M2 V .

MTODOS MATEMTICOS PARA ESTADSTICA

De tal forma, f (v)


W

i =1

i f ( vi )
W 1

i =1

f ( vi )
V

i =1

a i 1mxn i

f ( vi )

= M1 v

( M1 M2 ) v

De donde se sigue el resultado buscado. 2. Normas matriciales

Denicin VIII.2.1. Una norma matricial es una aplicacin ||| ||| : Mn (k) R vericando las siguientes propiedades: (a) ||| A||| = 0 si, y slo si, A = 0. (b) |||A||| = || ||| A|||, para todo A Mn (k) y k. (c) ||| A + B||| ||| A||| + ||| B|||, para todo A y B Mn (k). (d) ||| A B||| ||| A||| ||| B|||, para todo A y B Mn (k). Las propiedades (a)-(c) aseguran que toda norma matricial es una norma sobre el espacio vectorial Mn (k) y la propiedad (d) proporciona la compatibilidad de la norma con el producto de matrices. Es claro que, al tratarse de una norma, se cumple que ||| A||| 0 para todo A Mn (k); en efecto, 0 = |||0||| = ||| A + ( A)||| ||| A||| + ||| A||| = 2||| A|||. Antes de mostrar algn ejemplo de norma matricial, veamos que toda norma vectorial tiene asociada una norma matricial. Proposicin VIII.2.2. Sea

una norma vectorial sobre V = kn . La aplicacin


A ||| A||| := sup
v =0

||| ||| : Mn (k) R,


es una norma matricial.

Av = sup Au v u =1

Demostracin. Dado v = 0, podemos considerar u := v/ v , de donde se sigue la igualdad de los dos supremos. La aplicacin ||| ||| est bien denida debido a la continuidad de la aplicacin u Au (que podemos entender como la composicin de las aplicaciones continuas u Au Au ) sobre la esfera unidad, {u V : u = 1}, que es un compacto de V; luego, por el teorema A.4.9, tenemos garantizado que sup{ Au : u = 1} < . Veamos ahora que se trata de una norma matricial. La primera propiedad es trivial; en efecto, si Av = 0, para todo v V no nulo, entonces Av = 0 para todo v V de donde se sigue que A es la matriz nula. Por otra parte, tenemos que

|||A||| = sup
u =1

Au = sup || Au = || sup
u =1 u =1

Au = || ||| A|||.

MANUALES UEX
221

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Para la siguiente propiedad

||| A + B||| = sup


u =1

( A + B)u sup
u =1

Au + sup
u =1

Bu = ||| A||| + ||| B|||.

Finalmente, sea u V tal que u = 1 y llamemos v = Bu. Si v = 0, entonces ABu = 0 ||| A||| ||| B|||; en otro caso, ABu = Av = A v v = v v = ||| A||| Bu ||| A||| ||| B|||. ABu A v v

v ||| A|||

Por consiguiente, particular,

||| A||| ||| B|||, para todo u en la esfera unidad; en


u =1

||| A B||| = sup

( A B)u ||| A||| ||| B|||.

Denicin VIII.2.3. La norma ||| ||| dada en la proposicin VIII.2.2 se denomina norma matricial subordinada a la norma vectorial . Ejemplo VIII.2.4. De forma habitual utilizaremos las siguientes normas matriciales subordinadas:

||| A|||1 := sup

u =1

Au 1 ,

||| A|||2 := sup

Au

u =1

||| A||| := sup

Au

u =1

No obstante, conviene advertir que existen normas matriciales que no estn subordinadas a ninguna norma vectorial (vase la proposicin VIII.2.14). Veamos ahora algunas propiedades importantes de las normas matriciales subordinadas. Proposicin VIII.2.5. Sea ||| ||| una norma matricial subordinada a una norma vectorial sobre V = kn . Se cumple que: (a) Av ||| A||| v , para todo A Mn (k) y v V. (b) ||| A||| = nf{ 0 : Av v , v V }. (c) Existe u V tal que Au = ||| A||| u . (d) ||| In ||| = 1. Demostracin. Los apartados (a), (b) y (d) se obtienen directamente de la proposicin VIII.2.2. Para demostrar (c) basta tener en cuenta la continuidad de la aplicacin v Av sobre la esfera unidad (que es compacta) para concluir que el supremo de la proposicin VIII.2.2 se alcanza (vase el teorema A.4.9). De este modo, si u V con u = 1 verica ||| A||| = Au , entonces Au = ||| A||| u .

MANUALES UEX
222

MTODOS MATEMTICOS PARA ESTADSTICA


Nota VIII.2.6. Dada A Mn (k), a la vista del apartado (b) de la proposicin VIII.2.5, si existe una constante M 0 tal que para una norma matricial subordinada ||| ||| a una norma vectorial sobre V = kn , se verica (a) Av M v , para todo v V; (b) Existe u V tal que Au = M u , entonces M = ||| A|||. A continuacin mostremos expresiones explcitas para las normas matriciales subordinadas del ejemplo VIII.2.4. Para facilitar su compresin conviene recordar la denicin III.2.10 donde se introdujeron los conceptos de espectro y de radio espectral de una matriz. Teorema VIII.2.7. Sea A = ( aij ) Mn (k). n (a) ||| A|||1 = m x1 jn i=1 | aij |, es decir, la norma ||| |||1 viene dada por la a mayor de todas las cantidades que se obtienen al sumar los mdulos de los elementos de cada columna. ( A A) = ( A A ) = ||| A |||2 . (b) ||| A|||2 = n (c) ||| A||| = m x1in j=1 | aij |, es decir, la norma ||| ||| viene dada por la a mayor de todas las cantidades que se obtienen al sumar los mdulos de los elementos de cada la. Demostracin. Como es habitual denotaremos V = kn . (a) Para todo v V se verica que Av
1

= =

i =1 n

|( A v)i | = aij v j
i =1 j =1

i =1 n

|aij ||v j |
j =1

j =1

|aij | |v j |
i =1

j =1

|v j | |aij |
i =1

|aij | 1 j n
m x a
i =1

v 1.

Consideremos el vector u V de coordenadas 1 si i = j0 ; ui = i j0 = 0 si i = j0 , donde j0 es un subndice que verica


i j n i =1 n n

m x a

i =1

Como para este vector se tiene que u


n

=1y
n

Au

= =

i =1

|( Au)i | = |ai j0 u j0 | = |ai j0 |


i =1 i =1 1 j n i =1

m x a

|aij |

u 1,

MANUALES UEX
223

|aij | =

|ai j0 |.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

de donde se sigue que

||| A|||1 = m x a

1 j n i =1

|aij |.

(b) Por un lado, como la matrices A A y A A son hermticas tienen todos sus autovalores reales (vanse las proposiciones V.5.18 y V.5.14). Adems, usando los mismos argumentos que en la demostracin de la proposicin VI.1.2, se comprueba que sp( A A ) = sp( A A), de donde se sigue que ( A A ) = ( A A ). Por otra parte, como la matriz A A es hermtica, es normal y lo por tanto diagonalizable por una matriz de paso unitaria (vase el teorema V.5.15), es decir, Q A AQ = D = diag(i ( A A)), lo que hace que se tenga que A A = QDQ . Por tanto, como Av Av
2
2 2

( Av) ( Av), para todo v V, se sigue que

= ( Av) Av = v A Av = v QDQ v = ( Q v) D (Q v) =

i =1

i ( A A)|wi |2 ,

siendo Q v = (w1 , . . . , wn )t . Consecuentemente, Av


2
2

( A A) |wi |2 = ( A A) (( Q v) Q v) = ( A A) (v QQ v)
i =1

= ( A A) (v v) = ( A A) v 2 . 2
Por otra parte, como los autovalores de A A son nmeros reales no negativos (vanse la proposiciones V.5.17 y V.5.18), se cumple que := max1 jn j ( A A) = ( A A).

MANUALES UEX

Por consiguiente, si v V \ {0} es un autovector de A A asociado a (es decir, A Av = v), entonces Av


2
2

= ( Av) Av = v A Av = v v = v

2
2

= ( A A) v 2 ; 2

de donde se sigue que

224

||| A|||2 =
como queramos probar.

( A A ),

MTODOS MATEMTICOS PARA ESTADSTICA

(c) Para todo v V se verica que Av

= m x |( Av)i | = m x a a
1 i n

1 i n j =1

aij v j

m x a

1 i n

j =1

|aij | |v j |

1 i n j =1

m x a

|aij |

Consideremos ahora el vector u V de componentes uj = siendo i0 un subndice tal que


a i0 j | a i0 j |

si si

ai0 j = 0; ai0 j = 0,
n

|aij | = |ai0 j |. 1 i n
m x a
j =1 j =1

Como |u j | = 1, j = 1, 2, . . . , n, entonces u

=1y
n

|( Au)i | =

j =1

aij u j

j =1

|aij | |u j | = |aij | |ai0 j |


j =1 j =1 n

para todo i = 1, 2, . . . , n, lo que hace que se tenga que


1 i n

m x |( Au)i | a

j =1

| a i0 j |.

Por otra parte, como


n n n

|( Au)i0 | =

j =1 n

a i0 j u j =
| a i0 j | =

j =1 a i0 j =0 n

a i0 j u j =

j =1 a i0 j =0

a i0 j

a i0 j = | a i0 j |

j =1 a i0 j =0

| a i0 j |2 | a i0 j |

entonces Au

= m x |( Au)i | = |( Au)i0 | = a
1 i n

j =1

a |ai0 j | = 1mxn |aij | i


j =1

|aij | 1 i n
m x a
j =1

MANUALES UEX
225

j =1 a i0 j =0

j =1

| a i0 j |,

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

As, se concluye que

||| A||| = m x a

1 i n j =1

|aij |.

Nota VIII.2.8. De los apartados (a) y (c) del teorema VIII.2.7 se deduce que

||| A |||1 = ||| A||| .


Como se ha visto en el teorema VIII.2.7 las normas ||| |||1 y ||| ||| son fcilmente calculables a partir de los elementos de la matriz, a diferencia de lo que ocurre con la norma ||| |||2 . No obstante, esta norma tiene buenas propiedades desde el punto de vista terico; veamos algunas: Proposicin VIII.2.9. Sea A Mn (k). (a) La norma ||| |||2 es invariante por transformaciones unitarias, es decir, dada Q Mn (k) tal que Q Q = In se cumple que

||| A|||2 = ||| AQ|||2 = ||| QA|||2 = ||| Q AQ|||2


(b) Si A es normal, entonces

||| A|||2 = ( A).


Demostracin. (a) Segn se ha visto en el apartado (b) del teorema VIII.2.7,

||| A|||2 = ( A A) = ( A Q Q A) = (( Q A) ( Q A)) = ||| Q A|||2 , 2 2 ||| A|||2 = ( AA ) = ( AQQ A ) = (( AQ)( AQ) ) = ||| AQ|||2 , 2 2
luego,

||| Q AQ|||2 = ||| AQ|||2 = ||| A|||2 .

(b) Si A es normal, por el teorema V.5.15, existe una matriz Q unitaria tal Q AQ = D = diag(i ( A)). Por tanto, el apartado anterior nos asegura que que

||| A|||2 = ||| Q AQ|||2 = ||| D |||2 = ( D D ). 2 2 2

MANUALES UEX

Por otra parte, si sp( A) = {1 , . . . , n }, entonces D = diag(i ) y D D = diag(|i |2 ); luego, sp( D D ) = |1 |2 , |2 |2 , . . . , |n |2 De esta forma, se concluye que
2 1 i n

||| A|||2 = ( D D ) = m x |i |2 = a 2
1 i n

m x |i | a

= ( A )2 .

226

MTODOS MATEMTICOS PARA ESTADSTICA


Nota VIII.2.10. Sea A Mn (k). (a) Si A es hermtica, entonces ||| A|||2 = ( A). (b) Si A es unitaria, entonces ||| A|||2 = ( A A) =

( In ) = 1.

Como ya hemos dicho, existen normas matriciales que no estn subordinadas a ninguna norma vectorial. Vamos a construir una de ellas (que, por otra parte, no es otra que la norma usual de Mn (k) considerado como espacio vectorial de dimensin n2 sobre k) que servir como complemento prctico a la norma ||| |||2 .
n Lema VIII.2.11. Sea A = ( aij ) Mn (k). Entonces tr( A A) = i,j=1 | aij |2 .

Demostracin. Como A = ( aij ), entonces A = ( a ji ), por lo que A A = (ij ) siendo ij = n=1 aki akj para i, j = 1, 2, . . . , n. En particular, los elementos k diagonales son de la forma ii =

k =1

aki aki = |aki |2


k =1

para i = 1, 2, . . . , n; consecuente tr( A A) =

i =1

ii =

| aki |2 .

i,k =1

Proposicin VIII.2.12. La aplicacin ||| ||| F : Mn (k) R dada por

||| A||| F :=
es una norma matricial.

i,j=1

| aij |2 =

tr( A A) =

tr( A A )

Demostracin. La aplicacin ||| ||| F es la norma usual de Mn (k) considerado como espacio vectorial de dimensin n2 sobre k, por lo que:

Para la cuarta propiedad aplicamos la desigualdad de Cauchy-Schwarz1 a los vectores ai = ( ai1 , ai2 , . . . , ain )t y b j = (b1j , b2j , . . . , bnj )t ,
1Desigualdad de Cauchy-Schwarz: para todo u y v

para todo u, y se da la igualdad cuando u = v, para =

v u/v v.

kn se cumple que |u v| u

MANUALES UEX
227

(a) ||| A||| F = 0 si, y slo si, A = 0. (b) |||A||| F = || ||| A||| F , para todo A Mn (k) y k. (c) ||| A + B||| F ||| A||| F + ||| B||| F , para todo A y B Mn (k).

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

obteniendo

||| AB|||2 = F =

i,j=1 k =1


i,k =1

aik bkj

i,j=1

k =1

|aik |2

l =1

|blj |2

| aik |2

j,l =1

|blj |2

= ||| A|||2 ||| B|||2 . F F

Denicin VIII.2.13. La norma ||| ||| F dada en la proposicin VIII.2.12 se denomina norma de Frbenius. Entre las principales propiedades de la norma de Frbenius destacamos: Proposicin VIII.2.14. La norma de Frbenius ||| ||| F es una norma matricial no subordinada, si n 2, invariante por transformaciones unitarias. Adems, ||| A|||2 ||| A||| F n ||| A|||2 , para todo A Mn (k). Demostracin. Como

||| In ||| F =

n = 1 si n 2,

por la proposicin VIII.2.5.(d) se obtiene que ||| ||| F no est subordinada si n 2. Por otra parte, si Q es una matriz unitaria, se verica que

||| A|||2 = tr( A A) = tr( A Q Q A) = tr(( Q A) ( Q A)) = ||| Q A|||2 F F ||| A|||2 = tr( A A ) = tr( AQ Q A ) = tr( AQ( AQ) ) = ||| AQ|||2 F F
y

||| Q AQ|||2 = ||| AQ|||2 = ||| A|||2 . F F F


Finalmente, como los autovalores de A A son nmeros reales no negativos (vanse la proposiciones V.5.17 y V.5.18 ), entonces

MANUALES UEX

( A A)
donde sp( A A)

i =1

i n

( A A ),

= {1 , . . . , n }. As, por el teorema VIII.2.7, se tiene que

||| A|||2 = ( A A) 2

i =1

i = tr( A A) = ||| A|||2 n F

( A A) = n ||| A|||2 . 2

228

MTODOS MATEMTICOS PARA ESTADSTICA

Nota VIII.2.15. Ya se ha comentado que el teorema VIII.2.7 proporciona la manera de calcular la norma ||| |||1 y la norma ||| ||| de una matriz A Mn (k) a partir de los elementos que la componen y que no ocurre as con la norma ||| |||2 . El inters por la norma de Frbenius es que tambin se calcula directamente a partir de los elementos de la matriz y, segn la ltima parte de la proposicin VIII.2.14, puede usarse para obtener cotas de la norma ||| |||2 . Sabemos que las matrices normales verican que su norma ||| |||2 coincide con su radio espectral. En el caso general (es decir, en el caso de una matriz y norma matricial cualquiera, subordinada o no, con coecientes complejos) el resultado se convierte en desigualdad: el radio espectral es siempre menor o igual que la norma de la matriz. Teorema VIII.2.16. Sea A Mn (k). (a) Para toda norma matricial (subordinada o no) se verica que

( A) ||| A|||.
(b) Para todo > 0 existe una norma matricial ||| ||| A, (que se puede tomar subordinada) tal que

||| A||| A, ( A) + .
Demostracin. (a) Sean v V = Cn un autovector asociado al autovalor de A Mn (k) Mn (C) de mdulo mximo, es decir, Av = v con || = ( A) y w V tal que la matriz vwt Mn (C) es no nula. Entonces

( A) |||vwt ||| = |||||vwt ||| = ||| vwt ||| = ||| Avwt ||| ||| A||| |||vwt |||,
de donde se sigue el resultado buscado al ser |||vwt ||| > 0. (b) Considerando de nuevo la inmersin natural A Mn (k) Mn (C), por el teorema V.5.15(a), existen una matriz triangular superior T = (tij ) Mn (C) y una matriz unitaria Q Mn (C) tales que Q AQ = T. Sabemos que los elementos de la diagonal de T son los autovalores de A que denotaremos 1 , . . . , n . Si para cada > 0 consideramos la matriz diagonal

entonces el elemento (i, j)-simo de la matriz


D 1 Q1 AQD = ( QD )1 AQD

es ji tij si i < j, i si j = i y cero en otro caso. Dado > 0 tomamos > 0 sucientemente pequeo para que

j = i +1

ji |tij | <

MANUALES UEX
229

D = diag(1, , 2 , . . . , n1 ),

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

para i = 1, . . . , n 1, y consideramos la aplicacin ||| ||| A, : Mn (C) R dada por ||| B||| A, = |||( QD )1 B( QD )||| . Ntese que ||| ||| A, depende de la matriz A y de . Claramente, ||| ||| A, es una norma matricial subordinada a la norma vectorial v ( QD )1 v Adems,

.
n

||| A||| A, = |||( QD )1 A( QD )||| = m x a = m x a

1 i n

j = i +1

ji |tij | + |i |

1 i n j = i +1

ji |tij | + m x |i | < + ( A). a


1 i n

Convergencia de las iteraciones de una matriz. La nocin de convergencia de una sucesin de vectores (vase la denicin VIII.1.8) incluye el caso de las matrices, basta considerar Mn (k) como espacio vectorial de dimensin n2 . Concretamente, Denicin VIII.2.17. Sea ||| ||| una norma matricial sobre Mn (k). Diremos que una sucesin de matrices ( Am )mN de Mn (k) converge a un matriz A Mn (k), y lo denotaremos A = lmm Am , si
m

lm ||| Am A||| = 0.

Ejemplo VIII.2.18. La sucesin de matrices Am = converge a la matriz 1+


m m2 +3 1 2 m + m2 4 m
3 m4

1e

M2 (R)

MANUALES UEX

A = lm Am =
m

1 0

0 0

El siguiente resultado caracteriza la convergencia a cero de las potencias sucesivas Am de una matriz cuadrada A. Teorema VIII.2.19. Sea A Mn (k). Son equivalentes: (a) lmm Am = 0. (b) lmm Am v = 0, para todo v V = kn . (c) ( A) < 1.

230

MTODOS MATEMTICOS PARA ESTADSTICA

(d) Existe una norma matricial ||| ||| (que se puede tomar subordinada) tal que ||| A||| < 1. Demostracin. (a) (b) Sea ||| ||| la norma matricial subordinada a una norma vectorial . Por denicin,
m

lm Am = 0 lm ||| Am ||| = 0.
m

Por tanto, como para todo v V se verica que Am v ||| Am ||| v , para todo m N, entonces lmm Am v = 0 y, as, lmm Am v = 0. (b) (c) Procedemos por reduccin al absurdo. Si ( A) 1, entonces existe un autovalor (complejo) = ( A) sp( A) con || 1; basta considerar un autovalor v Cn \ {0} asociado a para llegar a contradiccin. En efecto, como Av = v entonces Am v = m v para todo m N y, por tanto,
m

lm

Am v = lm ||m v = 0.
m

(c) (d) Por el teorema VIII.2.16, dado > 0 existe una norma matricial ||| ||| A, tal que ||| A||| A, ( A) + . Tomando 0 < < 1 ( A) se obtiene que

||| A||| A, ( A) + (1 ( A)) = 1.


(d) (a) Claramente,

||| Am ||| = ||| Am1 A||| ||| Am1 ||| ||| A||| . . . ||| A|||m .
Por tanto, la hiptesis ||| A||| < 1 implica
m

lm ||| Am ||| = 0,

En la prctica, el resultado anterior se utiliza del siguiente modo: si se quiere demostrar que las potencias sucesivas de una matriz A convergen a cero, bastar probar que todos los autovalores (complejos) de A tienen mdulo menor que uno, o bien encontrar una norma matricial para la que ||| A||| < 1. Volveremos a estas cuestiones en el siguiente tema. El siguiente resultado muestra que la norma de las sucesivas potencias de una matriz se comporta asintticamente como las sucesivas potencias de su radio espectral:

MANUALES UEX
231

es decir, lmm Am = 0.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Teorema VIII.2.20. Si A Mn (R) y ||| ||| es una norma matricial (subordinada o no) entonces lm ||| Am |||1/m = ( A).
m+

Demostracin. Como ( A)m = ( Am ), para todo m N, el teorema VIII.2.16(a) asegura que ( A)m = ( Am ) ||| Am |||, para todo m N y, por consiguiente, que ( A) ||| Am |||1/m , para todo m N. Para demostrar que, tomando lmite, se da la igualdad, basta probar que para cada > 0 existe m0 N tal que

||| Am |||1/m < ( A) + ,


para todo m m0 . Para ello, dado > 0 denimos la matriz A = A . ( A) +

Como ( A ) < 1, aplicando el teorema VIII.2.19 obtenemos que lmm+ Am = 0, es decir, 0 = lm ||| Am ||| = lm
m+ m+

Am ( ( A) + )m

= lm

||| Am ||| . m+ ( ( A ) + )m

De donde se sigue que existe m0 N tal que ||| Am ||| < ( ( A) + )m , para todo m m0 . Tomando ahora races m-simas se obtiene la desigualdad buscada.

3.

Nmero de condicin de una matriz

Diremos que un problema est mal condicionado cuando pequeos cambios en los datos dan lugar a grandes cambios en las respuestas. Las tcnicas que se emplean en el condicionamiento de un problema estn fuertemente ligadas a la estructura del mismo. En general, a la hora de resolver un problema y = P( x ) se intenta denir un nmero de condicin2 = ( x ) 0 de forma que xx P( x ) P( x ) (x) P( x ) x Este nmero indicar, segn sea cercano a 1 o est alejado de ste, si el problema est bien o mal condicionado, respectivamente. Si el nmero de condicin es menor que 1 o est prximo a 1, el error del dato no se amplicar mucho y el error del resultado ser, a lo sumo, del mismo orden que el error
2Aqu la doble barra no signica necesariamente una norma, sino una medida de las

MANUALES UEX
232

magnitudes en cuestin.

MTODOS MATEMTICOS PARA ESTADSTICA

en el dato; por el contrario, si este nmero de condicin toma valores muy grandes, el error nal ser una gran amplicacin del dato. Para casos concretos, podemos denir fcilmente el nmero de condicin. Como por ejemplo ocurre con la resolucin de sistemas lineales Ax = b con A Mn (k), como veremos en breve. Ejemplo VIII.3.1. (R.S. Wilson) Consideremos el sistema lineal Ax = y A es la matriz simtrica 10 7 7 5 A= 8 6 7 5 que tiene por matriz inversa a A 1 b donde b es el vector b = (32, 23, 33, 31)t 8 6 10 9 7 5 9 10

25 41 = 10 6

41 10 6 68 17 10 17 5 3 10 3 2

y cuyo determinante es 1. La solucin exacta de dicho sistema es u = (1, 1, 1, 1)t . Si consideramos las perturbaciones de los datos A y b 10 7 8,1 7,2 32,1 7,08 5,04 6 5 y 22,9 A + A = 8 33,1 5,98 8,89 9 6,99 4,99 9 9,98 30,9 b y Ax = b + b . las soluciones exactas de los sistemas lineales ( A + A)x = vienen dadas, respectivamente, por 81 9,2 137 12,6 u + u = 34 y u + u = 4,5 22 1,1

Como se aprecia pequeos cambios en el dato A han producido un resultado muy alejado de la solucin original u. Anlogamente, cuando se perturba ligeramente el dato b se obtiene un resultado u + u muy distante de u. En esta seccin daremos la justicacin de estas propiedades sorprendentes, as como la forma precisa de medir el tamao de las perturbaciones y de los errores, mediante la introduccin del nmero de condicin de una matriz.

MANUALES UEX
233

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


Sean A Mn (k) una matriz invertible y b kn no nulo. Veamos cmo denir el condicionamiento de un sistema lineal Ax = b. En el supuesto de que se tome como segundo miembro, en lugar del vector b, una perturbacin de ste b + b, si denotamos u a la solucin del sistema Ax = b y u + u a la solucin del sistema perturbado, se verica que A(u + u) = b + b A u = b u = A1 b, luego a partir de la norma matricial ||| ||| subordinada a una norma vectorial , se tiene que u ||| A1 ||| b ; como, por otra parte, Au = b b ||| A||| u se tiene que b u ||| A||| ||| A1 ||| . u b Parece claro, pues, que la cantidad ||| A||| ||| A1 ||| servir como nmero de condicin para resolver un sistema lineal Ax = b. De hecho, se tiene la siguiente denicin: Denicin VIII.3.2. Sea ||| ||| una norma matricial y A Mn (k) una matriz invertible. El nmero cond( A) = ||| A||| ||| A1 ||| se denomina nmero de condicin (o condicionamiento) de la matriz A respecto de la norma ||| |||. En general, cuando escribamos cond( A) nos estaremos reriendo al condicionamiento de una matriz respecto de una norma matricial ||| |||. En el caso particular en que tomemos la norma ||| ||| p , 1 p , escribiremos cond p ( A) = ||| A||| p ||| A1 ||| p , 1 p .

||| A||| 1 , u b

MANUALES UEX

Teorema VIII.3.3. Sean ||| ||| la norma matricial subordinada a una norma vectorial y A Mn (k) una matriz invertible. Si u y u + u son las soluciones respectivas de los sistema Ax = b y Ax = b + b, con b = 0 y b kn , entonces se verica que b u cond( A) . u b

234

MTODOS MATEMTICOS PARA ESTADSTICA

Adems, cond( A) es el nmero ms pequeo que verica la desigualdad anterior en el siguiente sentido: para cada matriz A invertible existen b y b kn \ {0} tales que b u = cond( A) , u b donde u y u + u son las soluciones de los sistemas Ax = b y Ax = b + b, respectivamente. Demostracin. La desigualdad propuesta en el enunciado ya se ha demostrado previamente. Veamos la optimalidad. Por la proposicin VIII.2.5 existe u kn tal que Au = ||| A||| u . A partir de este vector u, denimos b = Au. Por otro lado, aplicando nuevamente la proposicin VIII.2.5, existe b kn tal que A1 b = ||| A1 ||| b . As pues, considerando los sistemas lineales Ax = b tendremos, como antes, que Au = b y as u = A1 b, con lo que u = A1 b = ||| A1 ||| b Por tanto, y b = Au = ||| A||| u . y Ax = b + b,

Por tanto, segn el resultado anterior, el nmero de condicin es un medida de la sensibilidad del sistema a las perturbaciones en el trmino independiente. Cuando se consideran perturbaciones de la matriz A en lugar de perturbaciones del vector b, el resultado que se obtiene no es tan ntido, pero el nmero cond( A) sigue siendo una buena herramienta para medir el condicionamiento del problema. En concreto, se tiene el siguiente resultado:

MANUALES UEX
235

b b u = ||| A|||||| A1 ||| = cond( A) . u b b

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Teorema VIII.3.4. Sean ||| ||| la norma matricial subordinada a una norma vectorial y A Mn (k) una matriz invertible. Si u y u + u son las soluciones respectivas de los sistemas lineales Ax = b con b = 0, se verica que u |||A||| cond( A) ; u + u ||| A||| es ms, y

( A + A)x = b,

|||A||| u cond( A) (1 + O(||| A|||) . u ||| A|||

Adems, cond( A) el nmero ms pequeo que verica la desigualdad anterior en el siguiente sentido: para toda matriz A invertible existen b kn \ {0} y A Mn (k) tales que u |||A||| = cond( A) , u + u ||| A||| donde u y u son las soluciones de los sistemas Ax = b y ( A + A)x = b, respectivamente. Demostracin. La demostracin de este resultado puede consultarse en [Cia82]. Otros resultados similares a los anteriores sobre el nmero de condicin como medida de sensibilidad de un sistema de ecuaciones lineales a cambios en los datos se pueden encontrar en el apartado 3.1.2 de [QSS07]. A continuacin recogemos algunas propiedades de demostracin inmediata que verica el nmero de condicin de una matriz. Proposicin VIII.3.5. Sea ||| ||| una norma matricial (subordinada o no) y A Mn (k) una matriz invertible. Se verican las siguientes propiedades: (a) cond( A) 1. (b) cond( A) = cond( A1 ). (c) cond(A) = cond( A), para todo k \ {0}.

MANUALES UEX

Demostracin. Por el teorema VIII.2.16(a), ||| B||| ( B), para todo matriz B Mn (k); en particular, ||| In ||| ( In ) = 1, de modo que se verica que 1 ||| In ||| = ||| A A1 ||| ||| A||| ||| A1 ||| = cond( A). Por otra parte, cond( A) = ||| A||| ||| A1 ||| = ||| A1 ||| ||| A||| = cond( A1 ) y, nalmente, para todo k no nulo se tiene que cond(A) = |||A||| |||(A)1 ||| = || |1 | ||| A||| ||| A1 ||| = cond( A).

236

MTODOS MATEMTICOS PARA ESTADSTICA

Adems, si consideramos como norma matricial la subordinada a ||| |||2 se tiene que: Proposicin VIII.3.6. Sea A Mn (k) una matriz invertible. Se verica que cond2 ( A) = mx mn

donde mx y mn son, respectivamente, el menor y el mayor de los autovalores de la matriz A A. Demostracin. En primer lugar hemos de tener en cuenta que A A es hermtica y denida positiva por ser A una matriz invertible (vase la proposicin V.5.18), por lo que los autovalores de A A son reales y positivos. Por otra parte, aplicando el teorema VIII.2.7 se verica que

||| A|||2 = ( A A) = mx 2
y

||| A1 |||2 = (( A1 ) A1 ) = ( A1 ( A1 ) ) = (( A A)1 ) = 2

1 . mn

Nota VIII.3.7. Sea A Mn (k) una matriz invertible. De la proposicin VIII.2.9 se deduce que: (a) Si A es normal y sp( A) = {1 , . . . , n }, entonces cond2 ( A) = ||| A|||2 ||| A1 |||2 = ( A) ( A1 ) = siendo ( A) = mn1in |i |. (b) Si A Mn (k) es una matriz invertible y normal se verica que cond( A) = ||| A||| ||| A1 ||| ( A) ( A1 ) = cond2 ( A) para cualquier norma matricial subordinada ||| ||| (vase el teorema VIII.2.16 y el apartado (a) anterior). Es decir, para matrices normales el nmero de condicin cond2 es el menor de todos. (c) En el caso particular de que A sea unitaria entonces cond2 ( A) = 1. (d) Como la norma ||| |||2 es invariante por transformaciones unitarias, se tiene que cond2 ( A) es invariante por transformaciones unitarias, es decir, cond2 ( A) = cond2 ( A Q) = cond2 ( Q A) = cond2 ( Q AQ), si Q Q = In .

( A) ( A)

MANUALES UEX
237

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Hagamos unas consideraciones nales respecto al problema que nos ocupa en esta seccin. Como hemos visto en la proposicin VIII.3.6, siempre se verica que el numero de condicin de una matriz es un nmero mayor o igual que 1. Por tanto, el sistema lineal Ax = b estar tanto mejor condicionado cuando ms prximo a 1 est cond( A). En el caso de que A sea una matriz unitaria, el sistema Ax = b siempre est bien condicionado para ||| |||2 , ya que cond2 ( A) = 1; adems, las transformaciones unitarias conservan el nmero cond2 ( A). Cuando se necesita resolver un sistema lineal Ax = b siendo A una matriz invertible con un nmero de condicin elevado, se hace necesario utilizar un precondicionador. La idea bsica es sencilla: tomar una matriz invertible M de forma que la matriz A = MA tenga un condicionamiento pequeo; despus, bastar resolver el sistema A x = b siendo b = Mb. Sin embargo, lo que no es sencillo es, precisamente, encontrar esta matriz M. Un posible eleccin, de fcil clculo, es considerar M = D 1 siendo D = diag( A). La idea aqu expuesta es la de un precondicionador por la izquierda. Tambin se suelen tomar precondicionadores: Por la derecha: A = AM, A y = b, x = My. Por ambos lados: M = C2 , A = CAC, b = Cb, x = Cy. Simtricos: M = CCt , A = CACt , b = Cb, A y = b, x = Ct y. lo que puede dar una idea de lo sosticado de estas tcnicas. Analicemos ahora, con ms detalle, el ejemplo de Wilson. Ejemplo VIII.3.8. Consideremos 10 7 8 7 32 7 5 6 5 , b = 23 A= 8 6 10 9 33 7 5 9 10 31

0,1 0,1 b = 0,1 . 0,1

La solucin del sistema Ax = b es u = (1, 1, 1, 1)t , mientras que la solucin del sistema Ax = b + b es

MANUALES UEX

u + u = (9,2, 12,6, 4,5, 1,1)t . El polinomio caracterstico de A viene dado por

A ( x ) = det( A xI4 ) = x4 35x3 + 146x2 100x + 1


y tiene como races aproximadas los nmeros 1 3 0,01015004839789, 2 3,85805745594495 y 4 0,84310714985503, 30,28868534580212.

238

MTODOS MATEMTICOS PARA ESTADSTICA

De esta forma, por ser A simtrica, el apartado (a) de la nota VIII.3.7 determina 2984,092701675342. cond2 ( A) = 4 1 Por tanto, no es de extraar el mal comportamiento que, tras las pequeas modicaciones en los datos, se observ anteriormente.

MANUALES UEX
239

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicios del tema VIII Ejercicio 1. Probar que un espacio normado toda sucesin de Cauchy est acotada. Ejercicio 2. Probar que v

n v

1 v 1 v n v n v 2 v 1 n v para todo v Cn .

1 2

Ejercicio 3. Probar que para todo p 1 se verica que v v p p n v , para cualquier v = (v1 , . . . , vn )t Cn . Concluir que v para cualquier v Cn . Ejercicio 4. Sea A Mn (k). Probar que ( Am ) = ( A)m , para todo m N. Ejercicio 5. Sea A Mn (k) una matriz hermtica con sp( A) = {1 , . . . , n }. 1. Probar que para todo R y v kn no nulo, se verica que
1 j n

= lm v
p

p,

mn | j |

Av v v 2

2. Estudiar cmo se puede aplicar el resultado anterior para obtener aproximaciones de los autovalores de la matriz A. Ejercicio 6. Sean A Mn (C) una matriz invertible tal que A = B2 . Probar que: 1. cond2 ( A) cond2 ( B)2 . 2. Si A es normal y cond2 ( A) > 1, entonces cond2 ( B) < cond2 ( A).

MANUALES UEX

Ejercicio 7. Sea A Mn (k) una matriz invertible. Demostrar las siguientes desigualdades: 1 cond2 ( A) cond1 ( A) n cond2 ( A). n 1 cond ( A) cond2 ( A) n cond ( A). n 1 cond1 ( A) cond ( A) n2 cond1 ( A). n2

240

MTODOS MATEMTICOS PARA ESTADSTICA

TEMA IX

Mtodos directos de resolucin de sistemas lineales de ecuaciones

emos estudiado los sistema de ecuaciones lineales en varias ocasiones a lo largo de la asignatura; por ejemplo, en los temas II y VI dimos condiciones necesarias y sucientes para que un sistema tuviese una, innita o ninguna solucin, y tratamos algunos aspectos relacionados con su resolucin y la forma de sus soluciones. En este tema nos vamos a ocupar de los mtodos numricos directos para la resolucin de tales sistemas. Cuando hablamos de mtodos directos nos referimos a aquellos procedimientos algortmicos que en un nmero nito de pasos alcanzan la solucin exacta del sistema. Si bien el trmino exacto slo tendr sentido desde un punto de vista terico, ya que el mal condicionamiento del sistema o la propagacin de errores de redondeo slo nos permitirn trabajar con buenas aproximaciones en el mejor de los casos. Es fundamental tener en cuenta que este tipo de mtodos adquiere su mayor inters cuando tratamos resolver sistemas con matrices de rdenes altos, donde el coste computacional de otros mtodos (como, por ejemplo, la frmula de Cramer) collevan un nmero de operaciones prohibitivo. En este tema estudiaremos el mtodo de eliminacin gaussina (que ya apareci en el tema II cuando estudiamos las formas reducidas de una matriz) y las factorizaciones LU, de Cholesky y QR. La clave del uso de la eliminacin gaussina y las tres factorizaciones citadas como mtodos de resolucin de sistema de ecuaciones lineales reside en una misma idea: reducir la resolucin del sistema a dado a la resolucin de uno varios sistemas de ecuaciones lineales en forma triangular. Estos mtodos no son de validez general (a excepcin de la resolucin basada en la factorizacin QR) por lo que en cada caso daremos condiciones necesarias y/o sucientes para su aplicacin. Por otra parte, si bien no nos ocuparemos del estudio de la complejidad de estos mtodos, s procuraremos incluir el coste computacional de cada uno de los mtodos estudiados. Con el nimo de contextualizar los mtodos y factorizaciones que aqu estudiaremos, comentamos que la factorizcin LU (y su variante PA = LU)

MANUALES UEX
241

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

consiste en descomponer la matriz del sistema como el producto de matriz triangular inferior L por una triangular superior U, por lo que guarda una estrecha relacin con el clculo de las formas reducidas y escalonadas de una matriz. La factorizacin de Cholesky es, en cierto sentido, la anloga a la LU para matrices simtricas denidas positivas (est factorizacin ya apareci en el tema V). Ambas factorizaciones se apoyan en el mtodo de eliminacin gaussiana. La factorizacin QR consiste en descomponer la matriz del sistema como producto de matriz ortogonal por una triangular superior, el mtodo usado para calcular tal descomposicin es la versin numrica del mtodo de ortonormalizacin de Gram-Schmidt, estudiado en el tema IV. La bibliografa empleada para la elaboracin de este tema ha sido [Cia82], [IR99], [QSS07] y algunas pinceladas de [QS06]. 1. Eliminacin Gaussiana y factorizacin LU

Comenzaremos estudiando algunos mtodos para resolucin de los sistemas de ecuaciones lineales de la forma Ax = b con A Mn (k) invertible y b kn , es decir, de los sistemas compatibles de determinados (vase la denicin II.5.1).

Resolucin de sistemas triangulares. Consideremos un sistema de tres ecuaciones lineales con tres incgnitas cuya matriz asociada es triangular inferior e invertible: l11 0 0 x1 b1 l21 l22 0 x2 = b2 , l31 l32 l33 x3 b3 de forma abreviada Lx = b. Como L es invertible por hiptesis, las entradas de su diagonal principal lii , i = 1, 2, 3, son no nulas, de donde se sigue que podemos calcular secuencialmente los valores de las incgnitas xi , i = 1, 2, 3, como sigue x1 x2 x3

MANUALES UEX

= b1 /l11 , = (b2 l21 x1 )/l22 , = (b3 l31 x1 l32 x2 )/l33 .

242

Este algoritmo se puede extender a sistemas con n ecuaciones y n incgnitas se llama sustitucin hacia adelante. En el caso de un sistema Lx = b, donde L es una matriz triangular inferior e invertible de orden n 2, el mtodo

MTODOS MATEMTICOS PARA ESTADSTICA

tiene la siguiente forma: x1 = xi = b1 , l11 1 lii


i 1

bi

j =1

lij x j

, i = 2, . . . , n.

El nmero de multiplicaciones y divisiones para ejecutar este algoritmo es n(n + 1)/2, mientras que el nmero de sumas y restas es n(n 1)/2. Por lo que la cuenta global de las operaciones del algoritmo de sustitucin hacia atrs es del orden de n2 . Unas conclusiones similares se pueden obtener para un sistema de ecuaciones lineales Ux = b, donde U es una matriz triangular superior e invertible de orden n 2. En este caso el algoritmo se llama sustitucin hacia atrs y en sus versin general puede escribirse como: xn = xi = bn , u11 1 uii bi
j = i +1

uij x j

, i = 2, . . . , n.

De nuevo el coste computacional es del orden de n2 operaciones. En la prctica 11 exploraremos la implementacin de los algoritmos sustitucin hacia atrs y hacia adelante. Por otra parte, en el apartado 3.2.2 de [QSS07] se pueden encontrar referencias sobre la propagacin de errores de redondeo tanto para la resolucin de sistemas triangulares mediante sustitucin hacia adelante como haca atrs. Eliminacin gaussiana y factorizacin LU. El mtodo de eliminacin gaussiana consiste el reducir un sistema de ecuaciones lineales Ax = b, con A Mn (k) invertible y b kn en otro equivalente (es decir, que tenga las mismas soluciones) de la forma Ux = b, kn . Este ltimo donde U Mn (k) es una matriz triangular superior y b sistema se podr resolver usando el algoritmo de sustitucin hacia atrs, ya que U ser invertible al serlo A. Como veremos a continuacin el mtodo de eliminacin gaussiana no es ms que una variante del mtodo de GaussJordan estudiando en el tema II. Vamos a denotar A(1) x = b(1) al sistema original, y supongamos que
(1) a11

= a11 es distinto de cero. Introduciendo los multiplicadores


li1 = ai1 /ai1 , i = 2, 3, . . . , n,
(1) (1)

MANUALES UEX
243

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


(1)

donde aij = aij , es posible eliminar la incgnita x1 es las las distintas de las primera, sencillamente restndole a la la i-esima la primera multiplicada por li1 y haciendo los mismo en el trmino independiente. Si denimos aij = aij li1 aij , i, j = 2, . . . , n, bi donde bi sistema
(1) (2) (2) (1) (1)

= bi

(1)

li1 b1 , i = 2, . . . , n,

(1)

denota los elementos de b(1) . De este modo obtenemos un sistema a11 0 . . . 0


(1)

a12 a22 . . .

(1) (2)

... ... ...

a1n a2n . . .

(1) (2)

x1 x2 . . . xn

an2

(2)

ann

(2)

b (2) 2 = . . . bn
(2)

b1

(1)

que denotaremos A(2) x = b(2) . Obsrvese que este sistema es equivalente al anterior, ya que solamente hemos realizado operaciones elementales por las de tipo III en la matrices A(1) y b(1) . De forma anloga, podemos transformar el sistema A(2) x = b(2) en otro equivalente donde la incgnita x2 haya sido eliminada de las las 3, . . . , n. En general, obtenemos una sucesin nita de sistema equivalentes A(k) x = b(k) , k = 1, . . . , n, donde para k 2 la matriz A(k) (1) a 11 0 . . . (k) A = 0 . . . 0
(i )

es de la forma a12
(1) (2)

... ... .. . 0 . . . 0

... ... akk . . .


(k)

... ... ... ...

a1n a2n . . . akn . . .

(1) (2)

a22

... ...

(k)

ank

(k)

ann

(k)

244

suponiendo que aii = 0, para i = 1, . . . , k 1. Es claro que para k = n se consigue un sistema triangular superior A(n) x = b(n) (1) (1) (1) a11 a12 . . . . . . a1n (2) (2) 0 a22 . . . . . . a2n . . .. . . . . . . . .. . . . . . (n) 0 ann

MANUALES UEX

MTODOS MATEMTICOS PARA ESTADSTICA

Siendo consistentes con la notacin hemos introducido previamente, denotamos U la matriz triangular superior A(n) . Las entradas akk se llaman pivotes y deben ser no nulos para k = 1, . . . , n 1. Con el objeto de resaltar la frmula que transforma el sistema k-simo en el (k + 1)-simo, para k = 1, . . . , n 1 suponiendo que akk = 0, denimos el multiplicador lik = aik /akk , i = k + 1, . . . , n y tomamos (IX.1.1) (IX.1.2) aij bi
( k +1) (k) (k) (k) (k)

= aij lik aij , i, j = k + 1, . . . , n, = bi


(k)

(k)

(k)

( k +1)

lik bk , i = k + 1, . . . , n,

(k)

El mtodo de eliminacin gaussiana requiere 2(n 1)n(n + 1)/3 + n(n 1) operaciones (sumas, restas, multiplicaciones y divisiones) a lo que tendremos que aadir las n(n + 1)/2 necesarias para resolver el sistema Ux = b(n) . Por tanto, sern necesarias alrededor de 1/6 n 4 n2 7 + 9 n operaciones para resolver el sistema Ax = b usando el mtodo de eliminacin gaussiana. Ignorando los trminos de menor grado en la expresin anterior podemos concluir que el mtodo de eliminacin gaussiana tiene un coste de 2n3 /3 operaciones. El lector interesado puede encontrar un estudio sobre la propagacin de errores de redondeo para el mtodo de eliminacin gaussiana en el apartado 3.2.2 de [QSS07]. Como hemos ido remarcando, el mtodo de eliminacin gaussiana termina satisfactoriamente si, y slo si, todos los pivotes akk , k = 1, . . . , n 1 son distintos de cero. Desafortunadamente, que A tenga todas las entradas sus entradas en diagonal no nulas no es suciente para garantizar que los pivotes sean no nulos durante el proceso de eliminacin. Ejemplo IX.1.1. La matriz 1 2 A= 7 2 4 8 3 5 9
(k)

tiene todas las entradas de su diagonal no nulas, sin embargo se cumple que 1 2 3 A (2) = 0 0 1 . 0 6 12 Por lo que el mtodo de eliminacin gaussiana se ve interrumpido en el segundo paso, ya que a22 = 0.
(2)

MANUALES UEX
245

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Por consiguiente, se necesitan condiciones ms restrictivas sobre A para garantizar la aplicabilidad del mtodo. En breve demostraremos que una condicin necesaria y suciente para que todos los pivotes sean no nulos es que la matriz A tenga todos sus menores principales de orden i = 1, . . . , n 1, distintos de cero (vase el teorema IX.1.4); ntese que la matriz de ejemplo anterior no tiene esta propiedad. Otros tipos de matrices en las que la eliminacin gaussiana se puede aplicar con total seguridad de xito son las siguientes: Las matrices diagonalmente dominantes por las o por columnas1. Las matrices simtricas denidas positivas. Volveremos a estas cuestiones ms adelante. Ahora nos vamos a ocupar de utilizar la eliminacin gaussiana para calcular una factorizacin de la matriz A en producto de dos matrices, A = LU, con U = A(n) . Como L y U slo dependen de A y no del vector de trminos independientes, la misma factorizacin puede ser utilizada para resolver los diferentes sistemas de ecuaciones lineales que se obtienen al variar b. Esto supone una considerable reduccin de nmero de operaciones necesarias para resolverlos, ya que el mayor esfuerzo computacional (entorno a 2n3 /3 operaciones) se consume en el proceso de eliminacin. Segn la igualdad IX.1.1, la matriz de paso a izquierda de A(k) a A(k+1) es 1 . . . 0 Lk = 0 . . . 0
(k) (k) aik /akk ,

... .. .

0 . . . 1 lk+1, k . . .

0 . . . 0 1 . . . 0

...

0 . . . 0 0 . . . 1

...

ln, k

...

con lik = para cada k = 1, . . . , n 1. Obsrvese que Lk = In k et donde k = (0, . . . , 0, lk+1, k , . . . , ln, k )t kn k y ek es el vector k-simo de la base usual de kn .

MANUALES UEX

Lema IX.1.2. Con la notacin anterior, se cumple que: (a) La matriz Lk es invertible y L1 = In + k
resp.) si
t k ek .

1Una matriz A = ( a ) M (k) es diagonalmente dominante por las (por columnas, n ij

| aii | >

j =1 j =i

|aij |,

246

n para todo i = 1, . . . , n (si | aii | > i=1 | aij |, para todo j = 1, . . . , n, resp.). i=j

MTODOS MATEMTICOS PARA ESTADSTICA

n (b) Ln1 Ln2 L1 = ( In + i=11 et ) y i 1 0 l21 1 . 1 ( Ln1 Ln2 L1 ) = . l32 . . . . . . . ln1 ln2

... .. .

...

0 0 . . .

.. ...

ln, n1

. 0 1

Demostracin. Para el apartado (a) basta tener en cuenta que la matrices L j , j = 1, . . . , n 1, son producto de matrices elementales de tipo III, el apartado (b) se comprueba de forma directa por induccin sobre n; los detalles de ambas demostraciones se proponen como ejercicio al lector (ejercicio 1).
1 1 Segn lo anterior, si denotamos L = ( Ln1 Ln2 L1 )1 = L1 1 L2 L1 , n n se sigue que

(IX.1.3)

A = LU

donde U es triangular superior y L es triangular inferior con unos en sus diagonal principal. Ntese que una vez que hemos calculado las matrices L y U, para hallar la solucin del sistema Ax = b slo hay que resolver sucesivamente los dos sistemas triangulares siguientes Ly = b Ux = y. En la prctica 11, veremos la implementacin de un algoritmo para el clculo de la factorizacin LU, as como diversos ejemplos de resolucin de sistemas de ecuaciones lineales usando dicha factorizacin. Denicin IX.1.3. Dada una matriz A Mn (k) se llama factorizacin LU de A, a LU = A tal que L es triangular inferior con unos en su diagonal principal y U es triangular superior.

Teorema IX.1.4. Sea A Mn (k). La factorizacin LU de A existe y es nica si, y slo si, los menores principales de orden i = 1, . . . , n 1 de A son no nulos2.
2Un caso importante de matrices con esta propiedad son las simtricas (y hermticas) de-

nidas positivas (vase la proposicin V.5.13).

MANUALES UEX
247

El siguiente resultado establece una relacin entre los menores principales de una matriz cuadrada y su factorizacin LU. De hecho nos da una condicin necesaria y suciente para que exista una nica factorizacin LU de una matriz cuadrada.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Demostracin. Sea a11 . Ai = . . ai1 ... ... a1i . M (R), . i . aii

es decir, Ai es la submatriz de A que se obtiene al eliminar las ltimas n i las y columnas. En primer lugar supongamos que los menores principales , | Ai |, i = 1, . . . , n 1, de A son no nulos, y veamos por induccin sobre i que existe una nica factorizacin LU de A. Es claro que el resultado es cierto para i = 1. Supongamos, pues, que Ai1 posee una nica factorizacin LU, Ai1 = L(i1) U (i1) , y demostremos que Ai tambin tiene una nica factorizacin LU. Para ello consideramos la siguiente particin de la matriz Ai , Ai = A i 1 dt c aii

y busquemos una factorizacin de Ai de la forma (IX.1.4) A i = L (i ) U (i ) = L ( i 1)


t

0 1

U ( i 1) 0t

u uii

Si calculamos el producto de estos dos factores e igualamos los bloques a los de Ai , concluimos que los vectores y u son las soluciones de los sistemas L(i1) x = c y yU (i1) = dt . Teniendo ahora en cuenta que que 0 = | Ai1 | = | L(i1) | |U (i1) |, concluimos que la existencia y unicidad de u y de , por el teorema de Rouch-Frbenius. Luego, existe una nica factorizacin LU de Ai , con uii = aii u. Recprocamente, supongamos que existe una nica factorizacin LU de A. Queremos demostrar que los menores principales de A son no nulos. Vamos a distinguir dos casos segn A sea invertible o no. Comencemos suponiendo que A es invertible. Segn la igualdad (IX.1.4) 0 = | Ai | = | L(i) | |U (i) | = |U (i) | = u11 u22 uii , de donde se sigue, tomando i = n que | A| = | An | = u11 u22 unn = 0, y por consiguiente que | Ai | = 0, i = 1, . . . , n 1. Sea ahora A no invertible y supongamos que, al menos, una de las entradas de la diagonal principal de U es no nula. Si ukk es la entrada no nula de la diagonal de U de menor ndice k. Por (IX.1.4), podemos garantizar que la factorizacin se puede calcular sin problemas hasta la etapa k + 1. A partir de entonces, al ser la matriz U (k) no invertible, por el teorema de RouchFrbenius se tiene que o bien no existe o bien no es nico, y lo mismo ocurre con la factorizacin. De modo que para que esto no ocurra (como es

MANUALES UEX
248

MTODOS MATEMTICOS PARA ESTADSTICA

nuestro caso) las entradas de la diagonal principal ukk de U tienen que ser no nulas hasta el ndice k = n 1 inclusive, y por consiguiente, de la igualdad | Ai | = u11 u22 uii , se sigue que | Ai | = 0, i = 1, . . . , n 1. Ntese que en el caso en que la factorizacin LU sea nica, tenemos que | A| = | LU | = | L||U | = |U |, es decir, el determinante de A es el producto de los pivotes:

| A| = u11 unn =

k =1

akk .

(k)

Terminamos esta seccin mostrando algunos resultados sobre la factorizacin LU de ciertos tipos especiales de matrices. Proposicin IX.1.5. Sea A Mn (k) si A es diagonalmente semidominante por las o por columnas3, entonces existe factorizacin LU. En particular, si A es diagonalmente dominante por columnas, entonces |lij | 1, para todo i, j = 1, . . . , n. Demostracin. El lector interesado puede encontrar una demostracin de este resultado en [Golub G.; Loan C. V. Matrix Computations. The John Hopkins Univ. Press, Baltimore and London. 1989] o en [Higham N. Accuracy and Stability of Numerical Algorithms. SIAM Publications, Philadelphia, PA. 1996]. Finalmente, consideremos el caso de una matriz tridiagonal b1 c1 a2 b2 c2 .. .. .. A= . . . . an1 bn1 cn1 an bn En este caso, las matrices L y U de la factorizacin LU de A son bidiagonales de la forma 1 c1 1 . 2 1 2 . . . L= y U= .. .. .. . . . c n 1 n 1 n
3Una matriz A = ( a ) M (k) es diagonalmente semidominante por las (por column ij nas, resp.) si

| aii |

j =1 j =i

|aij |,

n para todo i = 1, . . . , n (si | aii | i=1 | aij |, para todo j = 1, . . . , n, resp.). i=j

MANUALES UEX
249

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Los coecientes i y i pueden ser fcilmente calculados a partir de las siguientes relaciones: 1 = b1 , i = ai i 1 , i = bi i ci1 , i = 2, . . . , n.

Este algoritmo se puede aplicar a la resolucin de sistema tridiagonales Ax = f resolviendo los correspondientes sistemas bidiagonales Ly = f y Ux = y, para los que se cumplen las siguientes frmulas: y1 = f 1 , yi = f i i yi1 , i = 2, . . . , n, xn = yn , x = (yi ci xi+1 )/ i , i = n 1, . . . , 1. n i

El algoritmo requiere 8n 7 operaciones; precisamente 3(n 1) para la factorizacin y 5n 4 para la resolucin de los sistemas bidiagonales. 2. Factorizacin PA = LU. Tcnicas de pivoteo

Como se ha apuntado anteriormente, el mtodo de eliminacin gaussiana (y por lo tanto la factorizacin LU) falla cuando uno encontramos un pivote nulo. En estos casos, se requiere lo que se conoce como tcnica de pivoteo que consiste en intercambiar las (o columnas4) para evitar los pivotes nulos. Ejemplo IX.2.1. Consideremos de nuevo la matriz del ejemplo IX.1.1: 1 2 3 A= 2 4 5 7 8 9 en el que el mtodo de eliminacin gaussiana fallaba en la segunda etapa al aparecer un pivote nulo. En este caso, sin ms que intercambiar la la segunda y la tercera de A(2) (es decir, haciendo una operacin elemental por las de tipo I) obtenemos la matriz triangular buscada 1 2 3 A(2 ) = 0 6 12 = U. 0 0 1 En esta seccin consideramos el caso de los sistemas de ecuaciones lineales de la forma Ax = b con A Mn (k) no necesariamente invertible y b kn ; por lo que se admite la posibilidad de que sistema tenga innitas soluciones, es decir, que sea compatible indeterminado, o que no tenga ninguna solucin, es decir, que sea incompatible (vase la denicin II.5.1).
4Como hacamos en el tema II para calcular la forma reducida por las.

MANUALES UEX
250

MTODOS MATEMTICOS PARA ESTADSTICA


Teorema IX.2.2. Sea A Mn (k). Existen una matriz permutacin P, una matriz L triangular inferior con unos en su diagonal principal y una matriz U triangular superior tales que PA = LU. Demostracin. Supongamos que en la etapa k-sima del mtodo de eliminacin gaussiana nos encontramos con un pivote nulo, es decir, (1) (1) (1) a11 a12 . . . . . . . . . a1n (2) (2) 0 a22 . . . . . . . . . a2n . . .. . . . . . L k 1 L 1 A = A ( k ) = (k) (k) ... 0 akk . . . akn 0 . . . . . . . . . . . . 0
(k) (k)

...

ank

(k)

...

ann

(k)

con akk = 0. Si aik = 0, para todo i = k, . . . , n, tomamos Lk = In y pasamos a la siguiente etapa; en otro caso, existe l > k tal que alk = 0, entonces intercambiado las las k-sima y l-sima de A(k) conseguimos una matriz A(k ) equivalente a A(k) (y por lo tanto equivalente a A) con akk = 0. Obsrvese que A(k ) = Pk A(k) , donde Pk = Til es la matriz elemental de permutacin de las las i-sima y l-sima. Salvado este obstculo podemos continuar con el mtodo de eliminacin gaussiana, del forma que podemos hallar la matriz Lk , a partir de A(k ) , tal que A(k+1) = Lk A(k ) = Lk Pk Lk1 L1 A es de la forma deseada. Por consiguiente, podemos armar que existen n 1 matrices de permutacin5, Pk , k = 1, . . . , n 1, tales que Ln1 Pn1 L1 P1 A = A(n) = U. Tomando ahora M = Ln1 Pn1 L1 P1 y P = Pn1 P1 , concluimos que MA = U, y por lo tanto que MP1 PA = U. Teniendo ahora en cuenta que L = ( MP1 )1 = PM1 es triangular inferior con unos en su diagonal principal (ejercicio 5), concluimos que PA = LU. Segn el teorema anterior, podemos establecer que una permutacin adecuada de las las la matriz A original hace factible el proceso de factorizacin completo. Desafortunadamente, no podemos conocer a priori qu las debe
5Recurdese que la matriz identidad es una matriz de permutacin.

(k )

MANUALES UEX
251

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

permutarse, por lo que esta decisin ha de tomarse en cada etapa k en la que aparezca una entrada diagonal akk nula tal y como hemos hecho en la demostracin del teorema. Puesto que una permutacin de las implica cambiar el elemento pivotal, esta tcnica recibe el nombre de pivoteo por las. La factorizacin generada de esta forma devuelve la matriz original original salvo una permutacin de las, concretamente obtenemos PA = LU, donde P es una matriz de permutacin (es decir, un producto de matrices elementales de tipo I). Si en el curso del proceso las las k y l de A se permutan, la misma permutacin debe realizarse sobre las las homlogas de P. En correspondencia con ello, ahora deberamos resolver los siguientes sistemas triangulares Ly = Pb Ux = y. En importante destacar que el sistema Ux = y podra no tener solucin o poseer innitas soluciones, ya que es posible que las entradas de la diagonal principal de U sean nulas. Si bien hemos usado la tcnica de pivoteo por las para salvar la aparicin de pivotes nulos. Existen otros casos en los que es conveniente aplicar esta tcnica; por ejemplo, un pivote akk es demasiado pequeo puede amplicar la propagacin de errores de redondeo. Por tanto, para asegurar una mejor estabilidad, se suele elegir como elemento pivotal k-simo la mayor (en mdulo) de las entradas aik , i = k, . . . , n de la matriz A(k) ejecutando la correspondiente permutacin de las las de A(k) . Alternativamente, el proceso de busqueda de un pivote ptimo se puede extender a todas las entradas aij , i, j = k, . . . , n, esta estrategia se conoce como tcnica de pivoteo total y requiere permutaciones de columnas, por lo que el tipo de factorizacin obtenida en este caso seria de la forma PAQ = LU.
(k) (k) (k) (k)

MANUALES UEX

3.

Factorizacin de Cholesky

252

En el tema V vimos que cualquier matriz simtrica denida positiva A Mn (R) factoriza como sigue A = QQt con Q triangular inferior (vase el corolario V.5.12). Veamos que tal descomposicin, llamada factorizacin de Cholesky, existe y es nica para cualquier matriz hermtica (simtrica si es de entradas reales) denida positiva (vase la denicin V.5.16).

MTODOS MATEMTICOS PARA ESTADSTICA


Teorema IX.3.1. Sea A Mn (k) una matriz hermtica denida positiva. Existe una nica matriz triangular inferior H con diagonal real postiva tal que A = HH . Demostracin. Sea a11 . Ai = . . ai1 ... ... a1i . M (R), . i . aii

es decir, Ai es la submatriz de A que se obtiene al eliminar las ltimas n i las y columnas. Obsrvese que Ai es hermtica y denida positiva por serlo A. Al igual que en la demostracin del teorema IX.1.4 procederemos por induccin sobre i. Para i = 1 el resultado es obviamente cierto. Supongamos, pues, que se cumple para i 1 y veamos que tambin es vlido para i. Por la hiptesis de induccin, existe una matriz triangular inferior Hi1 tal que Ai1 = Hi1 Hi 1 . Consideremos la siguiente particin de Ai Ai = A i 1 v v ,

con R+ y v Ci1 , y busquemos una factorizacin de Ai de la forma Ai = Hi Hi = Hi1 h 0 Hi 1 0 h .

Forzando la igualdad con las entradas de Ai se obtienen las ecuaciones Hi1 h = v y h h + 2 = . El vector h est unvocamente determinado porque Hi1 es invertible. Por otra parte,
1 h h = v ( Hi1 ) Hi1 v = v ( Hi1 Hi 1 )1 v = v Ai1 v 1

1 0 < | A i | = ( v A i 1 v ).

Como > 0, ambos hechos implican que h h > 0 y por lo tanto que existe un nico nmero real positivo tal que 2 = h h. Las entradas de la matriz triangular inferior H en la factorizacin de Cholesky de una matriz hermtica denida positiva A = ( aij ) Mn (R) se pueden calcular mediante el siguiente algoritmo: ponemos h11 = a11 y para

MANUALES UEX
253

y, segn vimos al nal del tema I

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

i = 2, . . . , n, hij = 1 h jj
j 1

aij
i 1

k =1

hik h jk
1/2 2

, j = 1, . . . , i 1,

hii =

aii

k =1

|hik |

El algoritmo anterior requiere del orden de (n3 /3) operaciones (la mitad de las requeridas por la factorizacin LU). Adems, notemos que debido a la simetra slo hace falta almacenar la parte inferior de A y as H puede ser almacenada en la misma rea. Adems, se trata un algoritmo bastante estable respecto a la propagacin de errores de redondeo tal y como se ilustrar en la prctica 12. 4. Matrices de Householder. El mtodo de Householder

Existen versiones para los nmeros complejos de las deniciones y resultados que veremos a continuacin. Nosotros nos centraremos en el caso real, pero el lector interesado puede consultar [Stoer, J.; Bulirsch, R. Introduction to numerical analysis. Third edition. Texts in Applied Mathematics, 12. Springer-Verlag, New York, 2002], para el caso complejo. Denicin IX.4.1. Llamaremos matriz de Householder a una matriz de la forma w wt H(w) = In 2 t , ww siendo w un vector no nulo de Rn . Obsrvese que H(w) = H(w), para todo R no nulo. Por otra parte, si w tiene mdulo 1, entonces la correspondiente matriz de Householder es

H(w) = In 2 w wt .
De aqu, que muchos autores adopten esta ltima expresin como denicin de matriz de Householder.

MANUALES UEX

Por convenio, supondremos que la matriz identidad es una matriz de Householder (ms concretamente, la matriz de Householder para el vector cero), con el n de simplicar algunos de los enunciados posteriores. Las matrices de Householder son simtricas y ortogonales6, luego, en particular, conservan el producto escalar usual de Rn (ejercicio 6), por eso son muy estables en su aplicacin numrica.
6En efecto, sea w un vector de Rn de mdulo 1. Entonces

254

H(w)t = In 2wwt

= In 2(wwt )t = In 2wwt = H(w),

MTODOS MATEMTICOS PARA ESTADSTICA

Desde un punto de vista geomtrico la matriz de Householder H(w) es la matriz de una simetra (o reexin) respecto del hiperplano perpendicular a w; su inters en Anlisis Numrico Matricial proviene del siguiente resultado que nos permite elegir una simetra que alinea a un vector v Rn dado con el vector e1 de la base cannica de Rn .
n Teorema IX.4.2. Sea v = (v1 , v2 , . . . , vn ) Rn tal que i=2 v2 > 0. Existe una i matriz de Householder H tal que las ltimas n 1 componentes del vector Hv son nulas. Ms concretamente, si w = v v 2 e1 y H = H(w), entonces

Hv =

v 2 e1 ,

donde e1 denota el primer vector de la base cannica de Rn .


n Demostracin. En primer lugar observamos que la hiptesis i=2 v2 > 0 gai rantiza que los vectores v v 2 e1 no son nulos (condicin necesaria para poder denir las correspondientes matrices de Householder). Veamos ahora que las matrices de Householder propuestas verican el resultado deseado:

Hv = H(v v 2 e1 )v = v 2

(v v 2 e1 )(vt v 2 et ) 1 v (vt v 2 et )(v v 2 e1 ) 1

(v v 2 e1 )(vt v 2 et )v 1 (vt v 2 et )(v v 2 e1 ) 1 v 2 ( v 2 v1 )(v v 2 e1 ) = v2 2 v 2 ( v 2 v1 ) = v ( v v 2 e1 ) = v2 =


v 2 e1

El vector w = v v 2 e1 se dice que es un vector de Householder de v.


n Nota IX.4.3. Si i=2 v2 = 0; entonces i

In v = v 2 e1 H(v v 2 e1 )v = v 2 e1

si si

v1 0; v1 < 0.

es decir, H (w) es simtrica; por otra parte,

H(w)H(w)t = H(w)2 = In 2 w wt

= In 4w wt + 4(w wt )2

= In 4w wt + 4(w wt )(w wt ) = In 4w wt + 4w (wt w)wt = In 4w wt + 4w wt = In ,


esto es, H(w) es ortogonal.

MANUALES UEX
255

De tal forma que podemos concluir que el teorema 1 es cierto en todos los casos, y adems, que la primera componente del vector Hv siempre se puede tomar no negativa.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

En la prctica, procedemos de la siguiente forma: calculamos la norma de v para el producto escalar usual de Rn , v 2 , despus hallamos el vector w = v v 2 e1 , y luego el nmero wt w = v 2 ( v 2 v1 ), 2 esto es, el mdulo de w al cuadrado divido por dos. Para la eleccin del signo (que precede a v 2 e1 ) nos guiamos por la presencia de la expresin (wt w) en el denominador de la matriz de Householder: para evitar divisiones por nmeros demasiado pequeos" (lo que puede tener consecuencias desastrosas en la propagacin de errores de redondeo), elegimos w = v + v 2 e1 , si v1 0 y w = v v 2 e1 , si v1 < 0. := Siguiendo con la notacin anterior, sea H = H(w) con w = 0 (en otro caso, tmese H = In ). Si a es un vector de Rn , el clculo del vector Ha se efecta hallando primero el producto escalar := wt a, y a continuacin el vector (wwt )a w ( wt a ) w wwt = a = a Ha = a 2 t a = a w w = a w. Ntese que si = 0, entonces a pertenece al hiperplano perpendicular a w, por lo que Ha = a. El mtodo de Householder. Sea A Mn (R). El mtodo de Householder consiste en encontrar n 1 matrices de Householder, H1 , . . . , Hn1 , tales que la matriz Hn1 H2 H1 A sea triangular superior. Si denotamos A1 = A, cada matriz forma (k) Ak = ( aij ) = (k) v Ak = Hk1 H2 H1 A, k 1, es de la

la k-sima

MANUALES UEX

256

columna k-sima

MTODOS MATEMTICOS PARA ESTADSTICA

Nota IX.4.4. La distribucin de los ceros en la matriz Ak es la misma que la que se obtiene en la etapa (k 1)-sima del mtodo de Gauss. Sin embargo, el paso de la matriz Ak a la matriz Ak+1 es completamente diferente; por ejemplo, los elementos de la la k-sima se ven modicados, a diferencia de lo que ocurre con el mtodo de Gauss. Designemos por v(k) al vector de Rnk+1 cuyas componentes son los
n elementos aik , k i n, de la matriz Ak = ( aij )(k) . Si i=k+1 ( aik )2 > 0, por el teorema 1, existe un vector w(k) Rnk+1 tal que el vector H(w(k) )v(k) Rnk+1 tiene todas sus componentes nulas excepto la primera. Sea w(k) el vector de Rn tal que sus primeras (k 1) componentes son nulas y las (n k + 1) restantes son las del vector w(k) . Bajo estas condiciones, las matriz Ik1 0 Hk = 0 H(w(k) )v(k)

(k)

(k)

es la matriz de Householder H(w(k) ) y se cumple que Ak+1 = Hk Ak .


n Naturalmente, si i=k+1 ( aik )2 = 0, es decir, si aik = 0, para todo i = k + 1, . . . , n, la matriz Ak ya tiene la forma deseada por lo que podemos tomar Ak+1 = Ak y Hk = In (vase la nota 1 para ms detalle).

(k)

(k)

Factorizacin QR. La interpretacin matricial del mtodo de Householder nos conduce a un resultado tremendamente importante sobre factorizacin de matrices (cuadradas). Un primera versin del siguiente resultado ya apareci en el tema V como consecuencia del mtodo de ortonormalizacin de Gram-Schmidt (vase el corolario V.3.11). Teorema IX.4.5. Sea A Mn (R). Existen una matriz ortogonal Q, producto de matrices de Householder, y una matriz triangular superior R tales que A = QR.

Demostracin. En primer lugar, observamos que la existencia de las matrices de Householder H1 , H2 , . . . , Hn1 es independiente de que A sea invertible7, por lo que toda matriz A Mn (R) se puede escribir de la forma A = ( Hn1 H2 H1 )1 An ,
7De hecho tampoco depende de que A sea cuadrada!

MANUALES UEX
257

Adems, los elementos de R se pueden elegir no negativos; en cuyo caso, si A es invertible, la factorizacin QR es nica.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

tal que la matriz R := An sea triangular superior. La matriz Q := ( Hn1 H2 H1 )1 = H1 H2 Hn1 es ortogonal (recurdese que las matrices de Householder t cumplen que Hk 1 = Hk = Hk ). Luego, la existencia de una descomposicin QR ya est demostrada. El hecho de se puedan elegir los primeros n 1 elementos de la diagonal principal de R = (rij ) Mn (R) no negativos es consecuencia del teorema 1 y de la nota 1. Si el elemento rnn = ann fuese negativo, basta tomar la siguiente matriz de Householder 0 . . . (n) (n) . Hn = H(w ) con w = 0 (n) (n) ann | ann | Si la matriz A es invertible, al menos, existe una factorizacin A = QR tal que rii > 0, para todo i = 1, . . . , n. Demostremos, pues, la unicidad de tal descomposicin. De las igualdades A = Q1 R1 = Q2 R2 , se deduce que
Qt Q1 = R2 R1 1 =: B, 2 (n)

en particular B es una matriz triangular superior por ser producto de matrices triangular superiores. Por otra parte, Bt B = Qt Q2 Qt Q1 = In , 2 1 de donde se sigue que B ha de ser diagonal; ya que Bt = B1 es triangular inferior, pero la inversa de una matriz triangular superior es triangular superior. Adems, cmo

( Bt )ii ( B)ii = 1, i = 1, . . . , n,
y

MANUALES UEX

( R2 )ii > 0, i = 1, . . . , n, ( R1 )ii concluimos que ( B)ii = 1, para todo i = 1, . . . , n, y por consiguiente que B = In . Luego, R1 = R2 y Q1 = Q2 . ( Bt )ii = ( B)ii =
La factorizacin QR tambin se puede llevar a cabo en matrices no necesariamente cuadradas. Corolario IX.4.6. Sea A Mmn (R), con m n. Existen una matriz ortogonal Q Mm (R) y una matriz R Mmn (R) con sus n primeras las formando una matriz triangular superior y las m n ltimas nulas tales que A = QR.

258

MTODOS MATEMTICOS PARA ESTADSTICA

Demostracin. Si A = ( A|0m(mn) ) Mm (R) y A = QR es su factorizacin QR, entonces A = QR donde R es la matriz de orden m n formada por las n primeras columnas de R . El nmero de operaciones necesarias para llevar a cabo la factorizacin QR de una matriz de orden m n, m n es del orden de 2mn2 . La implementacin del algoritmo para hallar la factorizacin QR de una matriz cuadrada que se deduce de la demostracin del teorema IX.4.5 se ver en la prctica 12. Al igual que la factorizacin LU, la descomposicin QR se utiliza para resolver sistemas de ecuaciones lineales Ax = b. Calcula la factorizacin QR de A. Calcula c = Qt b. Resuelve el sistema triangular Rx = c, por ejemplo, mediante sustitucin hacia atrs. Para terminar indicamos una interpretacin muy importante de la factorizacin QR de una matriz invertible A. Si a1 , a2 , . . . , an y q1 , q2 , . . . , qn son los vectores columna de la matrices A y Q respectivamente, la relacin A = QR se escribe de la siguiente manera a1 = r11 q1 ; a2 = r12 q1 + r22 q2 ; . . . an = r1n q1 + r2n q2 + . . . + rnn qn , donde R = (rij ) Mn (R). Ahora bien, como los vectores qi forman un sistema ortogonal (pues son las columnas de una matriz ortogonal), las relaciones anteriores equivalen a un proceso de ortonormalizacin de Gram-Schmidt.

MANUALES UEX
259

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicios del tema IX

Ejercicio 1. Demostrar el lema IX.1.2. Ejercicio 2. Sea A = ( aij ) Mn (R) tal que aij = 1 si i = j o j = n, aij = 1 si i > j y cero en otro caso. Probar que A admite factorizacin LU con |lij | 1 y unn = 2n1 . Ejercicio 3. Sea 1 A = 2 3 1 2 6 3 2 . 4

Halalr para qu valores de no se satisfacen las hiptesis del teorema IX.1.4. Para qu valores de esta matriz no es invertible? Es posible calcular factorizacin LU en este caso? Ejercicio 4. Vericar que el nmero de operaciones necesarias para calcular la factorizacin LU de una matriz cuadrada de orden n es aproximadamente 2n3 /3. Ejercicio 5. Sean lij k, 1 j < i n y Lk = In
t k ek

donde

= (0, . . . , 0, lk+1, k , . . . , ln, k )t kn

MANUALES UEX

y ek es el vector k-simo de la base usual de kn , k = 1, . . . , n 1. Probar que 1. Si Tij Mn (k) es la matriz elemental de tipo I que intercambia las las i y j, entonces Tij Lk Tij = Lk , donde Lk = In k et siendo k el k vector k al que se le han intercambiado las coordenadas i y j. 2. Si P Mn (k) es una matriz de permutacin (es decir, producto de matrices elementales de tipo I), entonces PLk P1 = Lk , donde Lk = In k et siendo k el vector k al que se le han intercambiado k las coordenadas segn la permutacin denida por P.

260

MTODOS MATEMTICOS PARA ESTADSTICA


3. Si P1 , . . . , Pn1 Mn (k) son matrices de permutacin, P = Pn1 P1 y M = Ln1 Pn1 L2 P2 L1 P1 , entonces
1 MP1 = Ln1 Pn1 L2 P2 L1 P2 1 P3 1 Pn1 1 = Ln1 Pn1 L2 P2 L1 P2 1 P3 1 Pn1 1 = Ln1 Pn1 P3 L2 L1 P3 1 Pn1 1 = Ln1 Pn1 P3 L2 P3 1 P3 L1 P3 1 Pn1 1 = Ln1 Pn1 P3 L2 P3 1 L1 P4 1 Pn1 1 = Ln1 Pn1 P3 L2 P3 1 P4 1 Pn1 L1 ( n 2)

= ... = L n 1 L n 2 L 2
De donde se sigue que unos en su diagonal principal.
( n 3) ( n 2) L1 . 1 y PM 1 son MP

triangulares inferiores con

Ejercicio 6. Sean w Rn de mdulo 1 y H(w) = In 2wwt la correspondiente matriz de Householder. Probar que dados u y v Rn , se cumple que (H(w)u)t (H(w)v) = ut v.

MANUALES UEX
261

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

MANUALES UEX
262

MTODOS MATEMTICOS PARA ESTADSTICA

TEMA X

Mtodos iterativos de resolucin de sistemas lineales de ecuaciones

n este damos una breve introduccin a los mtodos iterativos para la resolucin de sistemas lineales, mostrando aquellos mtodos que tienen un comportamiento asinttico relativamente ejemplar. Los mtodos iterativos que consideraremos en este tema sern de la forma u(k+1) = Bu(k) + c, k 1,

siendo el valor inicial u(0) arbitrario, y tal que la matriz B y el vector c se construyen a partir de un sistema Ax = b. Tal es el comienzo de la primera seccin de este tema, donde exponemos la idea general sobre los mtodos iterativos y estudiamos condiciones necesarias y sucientes para que la sucesin de vectores (u(k) )kN converja a la solucin del sistema Ax = b. Aqu son fundamentales el estudio espectral de la matriz de B y los resultados sobre convergencia de las potencias de una matriz estudiados en el tema VIII. En la segunda seccin mostramos un mtodo muy general para construir mtodos iterativos que consiste en descomponer la matriz A del sistema en la forma A = M N con M invertible, y tomar B = M1 N. La matriz M se llama precondionador del mtodo, y su eleccin ser crucial para garantizar la convergencia. A continuacin en la siguientes secciones mostramos distintos mtodos iterativos derivados de distintas elecciones de M. En la tercera seccin, se estudian los mtodos de Jacobi, Gauss-Seidel y de relajacin (mtodo SOR), estos tres mtodos parten de la idea comn de descomponer la matriz A como la suma matriz diagonal D, una triangular inferior E y otra triangular superior F, y a continuacin considerar distintas combinaciones en esta descomposicin para eleccin de M; as si, por ejemplo, tomamos D = M, se consigue el llamado mtodo de Jacobi. En esta seccin mostramos algunos resultados sobre la convergencia de estos mtodos y exploramos algunos resultados que nos permiten su comparacin, para familias de matrices espaciales (esencialmente, para las matrices hermticas denidas positivas y las matrices tridiagonales). Al nal de la seccin consideramos el

MANUALES UEX
263

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

problema la condicin de parada de un mtodo iterativo para dar una buena aproximacin de la solucin del sistema. En la ltima seccin del tema, damos un pequeo paso ms all y estudiamos la generalizacin de los mtodos anteriores. Tal generalizacin se conoce como mtodo de Richardson, cuya aportacin principal, en forma general, es la introduccin un determinado parmetro que se ir actualizando en cada iteracin. Casos particulares de este mtodo, no contemplados en las seccin anterior, son el mtodo del gradiente y del gradiente conjugado. Nosotros solamente nos ocuparemos de estudiar el primero con detalle, mostrando resultados sobre su convergencia y precisin. Para la elaboracin de este tema hemos seguido el captulo 4 de [QSS07] y el captulo 5 de [Cia82]. Tambin hemos usado [QS06], tangencialmente. En [Cia82] se da una introduccin general a los mtodos iterativos de Jacobi, Gauss-Seidel y de relajacin. En [QSS07] se muestran stos mtodos, adems de los de Richardson y otras variantes de ste (distintas del mtodo del gradiente) de las que no nos ocuparemos en esta asignatura. 1. Sobre la convergencia de los mtodos iterativos

Usaremos la siguiente notacin en todo el tema V = kn , A Mn (k) invertible y b V no nulo. Para entender en qu consisten los mtodos iterativos para resolucin de sistemas lineales, supongamos que, dado un sistema lineal Ax = b, encontramos una matriz B Mn (k) y un vector c V tal que la matriz I B es invertible la nica solucin1 del sistema lineal x = Bx + c es la solucin de Ax = b. La forma del sistema x = Bx + c sugiere abordar la resolucin del sistema lineal Ax = b mediante un mtodo iterativo asociado a la matriz B del siguiente modo: dado un vector inicial u(0) V arbitrario, se construye la sucesin de vectores (u(k) )kN de V dada por (X.1.1) u(k+1) = Bu(k) + c

MANUALES UEX

para k N {0}, con la esperanza de que converja a la solucin del sistema lineal. Denicin X.1.1. El mtodo iterativo dado por la expresin (X.1.1) es convergente si existe u V tal que
m

lm u(k) = u

264

1Ntese que la condicin I B invertible garantiza que la solucin del sistema x = Bx + c existe y es nica.

MTODOS MATEMTICOS PARA ESTADSTICA

para cualquier vector inicial u(0) V. Ntese que, en tal caso, este vector u verica u = Bu + c , equivalentemente, Au = b. En otra palabras, un mtodo iterativo consiste en construir una sucesin de vectores (u(k) )kN de V (mediante la expresin (X.1.1), por ejemplo) que converja a la solucin exacta. Por esta razn B se llama matriz de la iteracin asociada al sistema lineal Ax = b. Por otra parte, si para cada k N {0} denotamos el vector de errores cometido en cada iteracin por k : = u(k) u se verica que k = u(k) u = ( Bu(k1) + c) ( Bu + c) = B(u(k1) u) = B k1 y, por tanto, (X.1.2) k = B k 1 = B 2 k 2 = . . . = B k 0 . k = Bk 0 ||| Bk ||| ||| B|||k , para la norma matricial ||| ||| subordinada a una norma vectorial cualquiera. As pues, el error en la iteraciones depende, en esencia, de la matriz B. Obsrvese que el resultado siguiente, que da un criterio fundamental de convergencia de los mtodos iterativos, slo involucra la matriz de iteracin B considerada. Criterios de convergencia para mtodos iterativos. Sea B Mn (k). Son equivalentes: a) El mtodo iterativo asociado a la matriz B es convergente. b) ( B) < 1. c) Existe una norma matricial ||| ||| (que se puede tomar subordinada) tal que ||| B||| < 1

Adems, si 0 fuese de norma 1, entonces

El mtodo es convergente lm k = 0, para todo 0 V


m

lm Bk 0 = 0, para todo 0 V
m

( B) < 1 ||| B||| < 1 para una norma matricial ||| |||.

MANUALES UEX
265

Demostracin. A partir del teorema VIII.2.19 y de la relacin (X.1.2), se tienen las equivalencias:

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Se plantea la cuestin de cmo elegir entre diversos mtodos iterativos convergentes para la resolucin de un mismo sistema lineal Ax = b. En esta lnea, se tiene la siguiente: Proposicin X.1.2. Sean Para el mtodo iterativo

una norma sobre V y u V tal que u = Bu + c.

u(0) V arbitrario u(k+1) = Bu(k) + c, k N {0}. se verica que


k+

lm

sup
0 =1

1/m

= ( B)

donde k est denido en (X.1.2). Demostracin. En el teorema VIII.2.20 vimos que lmk+ ||| Bk |||1/m = ( B). Luego, basta tener en cuenta que por (X.1.2) se tiene que

||| Bk |||1/m = sup


0 =1

Bk 0 = sup
0 =1

k .

Este ltimo resultado arma que sup

u (0) u = 1

u(k) u tiene el mismo

comportamiento asinttico que ( B)k . Por tanto, en el caso de que el mtodo iterativo converja, la convergencia de la sucesin (u(k) )kN ser igual de rpida que la convergencia a cero de la sucesin de nmero reales ( ( B)k )kN y, por consiguiente, tanto ms rpida cuanto menor sea el radio espectral de matriz B que dene el mtodo. A la hora de resolver un sistema lineal mediante un mtodo iterativo deberemos, en primer lugar, asegurar su convergencia (por ejemplo, encontrando alguna norma para la cual ||| B||| < 1 o viendo que ( B) < 1). Para luego, en caso de disponer de varios a nuestro alcance, elegir aquel cuyo radio espectral sea menor (vase el teorema VIII.2.16). En resumen, para un mtodo iterativo de la forma (X.1.1) cuya matriz de iteracin satisface las dos condiciones del principio, se verica que la convergencia para cualquier u(0) si, y slo si, ( B) < 1. Adems, como consecuencia del teorema VIII.2.16, cuando ms pequeo sea ( B), menor ser el nmero de iteraciones necesario para reducir el error inicial. 2. Cmo construir mtodos iterativos

MANUALES UEX
266

La estrategia que se va a utilizar para construir mtodos iterativos consistir en descomponer la matriz A en la forma A = MN

MTODOS MATEMTICOS PARA ESTADSTICA

donde M va a ser una matriz invertible tal que su matriz inversa sea fcil de calcular (en el sentido de que sea fcil de resolver el sistema asociado MX = In como ocurre, por ejemplo, cuando M es una matriz diagonal, diagonal por bloques, triangular o triangular por bloques, hermtica o simtrica denida positiva, . . . ). Con esta descomposicin se verica que: Au = b ( M N )u = b Mu = Nu + b u = Bu + c donde B = M1 N = In M1 A u(0) V arbitrario u(k+1) = Bu(k) + c, k N {0}. y c = M 1 b De esta forma podemos considerar el mtodo iterativo (X.2.3)

Como N = M A, entonces B = M1 N = M1 ( M A) = I M1 A. As, I B = M 1 A es una matriz invertible, por lo que el sistema ( I B)x = c tiene solucin nica. En la prctica, para calcular u(k+1) , se resolver el sistema Mu(k+1) = Nu(k) + b en vez de trabajar directamente con (X.2.3). Es por esto por lo que requerimos que M sea una matriz cuya matriz inversa sea fcil de calcular. La matriz M se suele llamar precondicionador de A. Nota X.2.1. Como ya se ha comentado, todos los mtodos iterativos que vamos a estudiar responden a una descomposicin M N de la matriz A. Intuitivamente, cuanto ms de A haya en M, tanto ms se parecer cada iteracin al clculo de la solucin exacta (de hecho, en el caso lmite M = A la solucin se obtiene en la primera iteracin). No obstante, esto va en contra de la idea inicial de que el coste de cada iteracin sea bajo. Un mtodo iterativo ser aquel que mantenga un equilibrio entre estas dos estrategias enfrentadas.

En esta seccin vamos a introducir tres de los mtodos iterativos ms usuales para la resolucin de un sistema lineal Ax = b. Todos ellos comparten una idea bsica en su construccin: separar la matriz del sistema en suma de dos matrices. A continuacin describiremos una determinada descomposicin de A que ser la que usaremos como base en los diversos mtodos iterativos que vamos a estudiar en esta seccin.

MANUALES UEX
267

3.

Mtodos de Jacobi, Gauss-Seidel y relajacin

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


Notacin X.3.1. Dada una matriz A = ( aij ) Mn (k) invertible con (X.3.4) aii = 0

para i = 1, 2, . . . , n, consideramos la siguiente descomposicin de la matriz F A= D E que podemos escribir en la forma A = DEF donde D = diag( a11 , a22 , . . . , ann ), siendo eij = E = (eij ) Mn (k), y F = ( f ij ) Mn (k)

aij 0

si si

i>j ij

f ij =

aij 0

si si

i<j ij

A esta descomposicin de A la denominaremos descomposicin D E F (por puntos) de la matriz A. Ejemplo X.3.2. Consideremos la matriz 2 2 A= 2 3 0 donde

0 1 2 siendo 0 0 y 0

R. Claramente, A = D E F 2 0 0 0 0 D = 0 3 0 , E = 2 0 0 0 0 2

0 F= 0 0

2 0 0

0 1 . 0

268

De forma anloga se podran considerar descomposiciones D E F de A por bloques; en este caso, las matrices D, E y F se eligen, respectivamente, diagonal, triangular inferior y triangular superior por bloques de ordenes apropiados para que sea A = D E F. Nosotros slo nos ocuparemos de las descomposiciones por bloques de orden 1, es decir, descomposiciones por puntos. El lector interesado puede encontrar la versin por bloques de los mtodos iterativos que estudiaremos a continuacin en el apartado 5.3.4 de [IR99].

MANUALES UEX

MTODOS MATEMTICOS PARA ESTADSTICA

Mtodo de Jacobi. Consiste en tomar M=D As pues, Au = b Du = ( E + F )u + b u = D 1 ( E + F )u + D 1 b que conduce al llamado mtodo iterativo de Jacobi o mtodo JOR (Jacobi Over-Relaxation method) u (0) V u ( k +1) o, equivalentemente, (X.3.5) u (0) V Du(k+1) arbitrario arbitrario y N = E+F

= D 1 ( E + F )u(k) + D 1 b, k N {0}

= ( E + F )u(k) + b, k N {0}

Ntese que la hiptesis (X.3.4) determina que la matriz M = D es invertible. La matriz de este mtodo es

J = D 1 ( E + F ) = I D 1 A
que se denomina matriz de Jacobi. La iteracin denida en (X.3.5) puede escribirse, coordenada a coordenada, como aii (u(k+1) )i = bi ai1 (u(k) )1 . . . ai,i1 (u(k) )i1 ai,i+1 (u(k) )i+1 . . . ain (u(k) )n
i 1 n

= bi aij (u(k) ) j
j =1

j = i +1

aij (u(k) ) j

para i = 1, 2, . . . , n, donde (u(k) ) j denota la coordenada j-sima del vector u(k) . Como se puede observar, las n componentes del vector u(k+1) pueden calcularse de forma simultnea a partir de las n componentes del vector u(k) ; de hecho, el mtodo de Jacobi tambin se conoce como mtodo de las iteraciones simultneas. Ejemplo X.3.3. Volviendo al ejemplo X.3.2, la matriz de Jacobi en este caso es 0 1 0 1/2 0 0 0 2 0 J = D 1 ( E + F ) = 0 1/3 0 2 0 1 = 2/3 0 1/3 . 0 0 1/2 0 0 /2 0 0 As, por ejemplo, para = 1 el radio espectral de J es 0,84865653915700, para = 3, es 0,97263258335935 y, para = 5, es 1,08264845639125. Luego, por los criterios de convergencia para mtodos iterativos, se tiene, en este

MANUALES UEX
269

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

caso, que para los dos primeros valores de gente y que para el ltimo no lo es. Mtodo de Gauss-Seidel.

el mtodo de Jacobi es conver-

A la vista del clculo de la componente (u(k+1) )i en el mtodo de Jacobi, parece claro que una estrategia adecuada para mejorar la convergencia de ese mtodo sera emplear las componentes ya calculadas

{(u(k+1) )1 , (u(k+1) )2 , . . . , (u(k+1) )i1 }


en vez de utilizar las antiguas"

{(u(k) )1 , (u(k) )2 , . . . , (u(k) )i1 }


Esta consideracin nos sugiere la siguiente modicacin en la descripcin coordenada a coordenada de la k-sima iteracin del mtodo de Jacobi: aii (u(k+1) )i = bi
i 1

j =1

aij (u(k+1) ) j

aij (u(k) ) j

j = i +1

para i = 1, 2, . . . , n. Matricialmente, estas ecuaciones se escriben Du(k+1) = Eu(k+1) + Fu(k) + b, es decir,

( D E)u(k+1) = Fu(k) + b.
Tenemos as denido un nuevo mtodo iterativo tomando M = DE De esta forma Au = b ( D E)u = Fu + b u = ( D E)1 Fu + ( D E)1 b que conduce al mtodo iterativo de Gauss-Seidel u (0) V u ( k +1) arbitrario y N=F

= ( D E)1 Fu(k) + ( D E)1 b, k N {0}


u (0) V

MANUALES UEX

o, en forma equivalente, arbitrario

( D E ) u ( k +1)

= Fu(k) + b, k N {0}

270

Ntese que, por (X.3.4), la matriz M = D E es invertible. La matriz de este mtodo es L1 = ( D E)1 F = In ( D E)1 A que se denomina matriz de Gauss-Seidel.

MTODOS MATEMTICOS PARA ESTADSTICA

Contrariamente a lo que suceda en el mtodo de Jacobi, las n componentes del vector u(k+1) debe obtenerse de manera sucesiva a partir de las componentes ya calculadas de u(k+1) y las restantes del vector u(k) ; por ello, a este mtodo se le denomina mtodo de las iteraciones sucesivas. Adems, segn lo dicho anteriormente, el mtodo de Gauss-Seidel ser, en principio, ms rpido" pues la matriz M contiene ms elementos de A. Aunque no siempre ocurre as: Ejemplo X.3.4. Retornando de nuevo al ejemplo X.3.2, la matriz de GaussSeidel en este caso es 1/2 0 0 0 1 0 0 2 0 L1 = ( D E)1 F = 1/3 1/3 = 0 2/3 1/3 . 0 0 0 1 /4 0 1/2 0 /2 0 As, por ejemplo, para = 1 el radio espectral de L1 es 0,86037961002806; para = 3, es 1,11506929330390 y para = 5, es 1,30515864914088. Luego, por los criterios de convergencia para mtodos iterativos, se tiene que para el primer valor de el mtodo de Gauss-Seidel es convergente y que para los dos ltimos no lo es. Luego, para = 3, el mtodo de Jacobi es mejor que el de Gauss-Seidel (vase el ejemplo X.3.3). Veamos ahora un ejemplo en el que el mtodo de Gauss-Seidel s funciona mejor que el mtodo de Jacobi, lo que pone maniesto que, en general, la conveniencia de usar uno u otro est ligada al problema, es decir, no podemos asegurar que un mtodo iterativo sea mejor que otro. Ejemplo X.3.5. Consideremos la matriz 2 A= 2 1 donde 2 0 3 0 2 D E F siendo 0 0 0 0 0 , y F = 0 0 0 0

2 0 0

. 0

As, 1/2 J = D 1 ( E + F ) = 0 0 0 0 0 1/3 0 2 0 1/2 1 2 0 0 0 1 = 2/3 0 0 1/2 0 0

0 /3 271 0

MANUALES UEX

R. Podemos escribir, A = 2 0 0 0 D = 0 3 0 , E = 2 0 0 2 1

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

y 1/2 L1 = ( D E)1 F = 1/3 1/4 As, por ejemplo, para respectivamente, para respectivamente, y, para 0 0 0 0 1/3 0 0 0 1/2 0 y y y 2 0 0 0 0

0 = 0 0

1 2/3 1/2

0 /3 . 0

= 1 los radios espectrales de J y de L1 son


0,40824829046386, 0,81649658092773, 1,08012344973464,

0,84865653915700

= 4, son = 7, son

1,03018084965341 1,17502381317383

respectivamente. Luego, por los criterios de convergencia para mtodos iterativos, se tiene que para el primer valor de ambos mtodos son convergentes, para el segundo valor de el mtodo de Jacobi es divergente, mientras que el de Gauss-Seidel es convergente, y para el tercer valor de ambos mtodos son divergentes. Mtodo de relajacin. La idea que subyace en el mtodo de relajacin es tomar como valor siguiente, en cada paso del mtodo iterativo, no el que resultara de aplicar directamente el mtodo, sino una media ponderada de ste y el valor anteriormente hallado, es decir, Valor anterior: u(k) = Mtodo: u(k+1) = Valor siguiente: u(k+1) + (1 ) u(k) para un factor de peso = 0. As, por ejemplo, aplicando esta estrategia al mtodo de Jacobi se obtiene u ( k +1) = ( u ( k +1) ) J + (1 ) u ( k ) , =0 donde (u(k+1) )J es el valor obtenido al realizar una iteracin en el mtodo de Jacobi a partir de u(k) . En trminos de coordenadas, tendramos: (X.3.6) (u(k+1) )i = aii
i 1

MANUALES UEX

bi

j =1

aij (u(k) ) j

aij (u(k) ) j

+ (1 )(u(k) )i

j = i +1

para i = 1, 2, . . . , n, lo que matricialmente se escribe como u(k+1) = D 1 (b + ( E + F )u(k) ) + (1 )u(k) 1 D + E + F u(k) + D 1 b.

272

= D 1

MTODOS MATEMTICOS PARA ESTADSTICA

Este mtodo, conocido como mtodo de relajacin-Jacobi, no se utiliza apenas debido a que no constituye una mejora sustancial del mtodo de Jacobi. A la vista de las ecuaciones dadas en (X.3.6) es razonable pensar (siguiendo la idea del mtodo de Gauss-Seidel) que los resultados obtenidos se mejoraran si usramos cada coordenada de u(k+1) desde el primer momento en que se haya calculado. Esto conducira a las ecuaciones

( u ( k +1) ) i =

aii

i 1

bi

j =1

aij (u(k+1) ) j

aij (u(k) ) j

+ (1 )(u(k) )i

j = i +1

para i = 1, 2, . . . , n, lo que, en trminos matriciales, es u(k+1) = D 1 (b + Eu(k+1) + Fu(k) ) + (1 )u(k) . Agrupando se tiene que

( D E)u(k+1) = ((1 ) D + F )u(k) + b


o, equivalentemente, D E u ( k +1) = 1 D + F u(k) + b.

Veamos ahora que la solucin obtenida mediante el uso iterado de esta frmula coincide con la del sistema Ax = b. La matriz de A puede ser escrita como A = M N siendo M= Por tanto, Au = b D E u= D E
1
D

N=

1 D

+F

1 D+F u+b 1 D+F u+ D E


1

u =

b,

u ( k +1) =

1 D

+ F u(k) +

b,

k N {0}.

o equivalentemente, u (0) V
D

arbitrario
1 D

E u ( k +1) =

+ F u(k) + b,

k N {0}

MANUALES UEX
273

lo que conduce al mtodo iterativo de relajacin u(0) V arbitrario

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

La hiptesis (X.3.4) hace que la matriz M = La matriz de este mtodo es

E con = 0 sea invertible.

L =

1 D

+ F = ( D E)1 ((1 ) D + F )

denominada matriz de relajacin. Algunos autores distinguen y denominan sobrerrelajacin cuando > 1 y subrelajacin si < 1. Ntese que para = 1 se tiene el mtodo de Gauss-Seidel, lo que hace coherente la notacin L1 para la matriz asociada al mismo. En ingls el mtodo de relajacin se conoce como Successive Over-Relaxation method, de aqu que en muchas ocasiones se le denomine mtodo SOR. Nota X.3.6. El estudio del mtodo de relajacin consiste en determinar (si existen): un intervalo I R, que no contenga al origen, tal que I = (L ) < 1; un parmetro de relajacin ptimo 0 I tal que

(L0 ) = inf{ (L ) | I }
Anlisis de convergencia. El estudio de la convergencia de los mtodos iterativos puede ser demasiado prolijo puesto que no existen teoremas que aseguren la convergencia para una clase general de matrices. No obstante, pueden darse resultados parciales para determinados tipos de matrices; aqu presentamos un resultado de carcter general y sendas condiciones de convergencia para el mtodo de relajacin y el de Jacobi, recogiendo otros resultados en los ejercicios. Lema X.3.7. Sea A Mn (k) una matriz hermtica denida positiva escrita como A = M N con M Mn (k) invertible. Si la matriz M + N es denida positiva, entonces ( M1 N ) < 1.

MANUALES UEX

Por consiguiente, en la situacin anterior, el mtodo iterativo denido por la matriz B = M1 N es convergente. Demostracin. En primer lugar, por ser A hermtica,

( M + N ) = M + N = ( A + N ) + N = ( A + N ) + N = ( A + N ) + N = M + N
por lo que la matriz M + N es hermtica. Por otra parte, sea sp( M1 N ) y v V \ {0} un autovector asociado al autovalor , es decir, (X.3.7) M1 Nv = v.

274

MTODOS MATEMTICOS PARA ESTADSTICA

A partir de v construyamos el vector (X.3.8) w = M1 Nv

En primer lugar, ntese que w = v. En efecto, en caso contrario se obtendra, a partir de (X.3.8), v = M1 Nv = Mv = Nv = Av = ( M N )v = 0, lo que contradice que A sea invertible al ser v no nulo. Por otra parte, como Mw = Nv, se verica que

(v w) ( M + N )(v w) = (v w) M (v w) + (v w) N (v w) = ( Mv Mw) (v w) + (v w) ( Nv Nw) = ( Mv Nv) (v w) + (v w) ( Mw Nw) = v A (v w) + (v w) Aw = v Av v Aw + v Aw w Aw = v Av w Aw


por ser A = M N y M + N matrices hermticas. Por tanto, (X.3.9) v Av w Aw = (v w) ( M + N )(v w) > 0 ya que v w = 0 y M + N es denida positiva. Ahora bien, a partir de (X.3.7), (X.3.8) y (X.3.9) se obtiene que 0 < v Av w Aw = v Av (v) A(v) = v Av (v ) A(v)

= (1 ||2 ) v Av.
Como v Av > 0 por ser A denida positiva y v = 0, entonces 1 ||2 > 0, de donde se sigue que || < 1, obtenindose as el resultado buscado A continuacin vamos a dar una condicin necesaria y suciente para la convergencia del mtodo de relajacin. Teorema de Ostrowski-Reich. Si A Mn (k) es una matriz hermtica denida positiva y 0 < < 2, entonces el mtodo de relajacin es convergente. En particular, cuando A es hermtica y denida positiva el mtodo de Gauss-Seidel es convergente. Demostracin. La descomposicin A = M N asociada al mtodo de relajacin es D 1 A= E D + F , = 0.

MANUALES UEX
275

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Como la matriz A es hermtica se tiene que D E F = A = A = D E F . Identicando en la igualdad anterior los elementos diagonales y los que quedan en la parte triangular inferior y superior de A, se verica que D = D y E = F. Por tanto, D 1 2 E + D+F = D; de modo que para valores del parmetro 0 < < 2 se tiene que M + N = v ( M + N )v = 2 v Dv > 0

pues D es denida positiva.2 Aplicando el lema X.3.7 concluimos el resultado. Existen extensiones del teorema de Ostrowski-Reich a situaciones ms generales; por ejemplo, el lector interesado puede encontrar en el artculo [J.M. Ortega y R.J. Plemmons Extensions of the Ostrowski-Reich theorem for SOR iterations. Linear Algebra Appl. 28 (1979), 177191] generalizaciones del teorema de Ostrowski-Reich al caso en que A sea hermtica pero no necesariamente denida positiva, o al caso en que A + A sea denida positiva pero A no sea hermtica. Veamos ahora que la condicin 0 < < 2 es necesaria para la convergencia del mtodo de relajacin. Teorema de Kahan. El radio espectral de la matriz de la relajacin siempre verica (L ) | 1|, = 0. Consecuentemente, el mtodo de relajacin slo puede ser convergente cuando 0 < < 2. Demostracin. Por denicin
1 D D

MANUALES UEX

det(L ) = det

D E

1 D+F

det det

+F
.

2En efecto, si A = ( a ) M (k) es hermtica, entonces e Ae = a > 0, para n ij i ii i todo i = 1, 2, . . . , n, siendo {e1 , . . . , en } la base usual de kn . Por otra parte, como D = diag( a11 , a22 , . . . , ann ) se sigue que

v Dv =

276

i =1

aii |vi |2 > 0.

MTODOS MATEMTICOS PARA ESTADSTICA

Como det entonces (X.3.10) det(L ) = det det


1 D D

1 D+F

= det

1 D

det

D E

= det

(1 ) n det( D ) n 1 n det( D )

= (1 ) n .

Por otra parte, si sp(L ) = {1 , 2 , . . . , n } entonces det(L ) = 1 2 n . As, usando (X.3.10) se obtiene que

i =1

| i | = |1 | n ,
n
1 n

lo que permite concluir que

(L )

i =1

| i |

|1 |.

En la aplicaciones concretas de los sistemas de ecuaciones lineales aparecen, con mucha frecuencia, matrices A = ( aij ) Mn (k) diagonalmente dominante por las3. Estas matrices son invertibles y adems, aii = 0, i = 1, 2, . . . , n. Para este tipo de matrices se tiene el siguiente resultado de convergencia para el mtodo de Jacobi. Proposicin X.3.8. Si A Mn (k) es una matriz diagonalmente dominante por las, el mtodo de Jacobi es convergente. Demostracin. La matriz de iteracin del mtodo de Jacobi J = D 1 ( E + F ) verica que aij /aii si i = j; (J )ij = 0 si i = j. Por tanto, a partir del teorema VIII.2.7, se tiene que

|||J ||| = m x a

1 i n

(J )ij = max1in

j =1

j =1 j =i

|aii |

j =1 j =i

|aij | < 1.

3Recurdese, que una matriz A = ( a ) M (k) es diagonalmente dominante por las si n ij

| aii | >
para todo i = 1, . . . , n.

j =1 j =i

|aij |,

MANUALES UEX
277

| aij |

1 = m x a | aii | 1 i n

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

De esta forma, aplicando los criterios de convergencia para mtodos iterativos, se concluye el resultado. Comparacin de los mtodos iterativos. Veamos a continuacin que, en el caso en que la matriz A es tridiagonal, se pueden comparar de forma muy precisa los radios espectrales de las matrices de Jacobi, Gauss-Seidel y de relajacin, tanto en el caso convergente como en el divergente. El caso = 1 es tcnicamente ms difcil que el caso = 1, por lo que solamente demostraremos el teorema de comparacin de los radios espectrales de los mtodos de Jacobi y Gauss-Seidel, y nos limitaremos a enunciar el resto de los teoremas. Lema X.3.9. Sean k \ {0} y A() Mn (k) una matriz forma b1 1 c1 a2 b2 1 c 2 .. .. .. A() = . . . an1 bn1 1 cn1 an Entonces, det( A()) = det( A(1)), para todo k no nulo. Demostracin. Sea Q() = diag(, 2 , . . . , n ) Mn (k). Se comprueba fcilmente que A() = Q() A(1) Q()1 , de donde se sigue el resultado buscado. bn tridiagonal de la .

Comparacin de los mtodos de Jacobi y Gauss-Seidel. Si A es tridiagonal, entonces los radios espectrales de las correspondientes matrices de Jacobi y de Gauss-Seidel est relacionados por

(L1 ) = (J )2 ,

MANUALES UEX

de tal forma que los mtodos convergen o divergen simultneamente; adems, en caso de convergencia, el mtodo de Gauss-Seidel es ms rpido que el mtodo de Jacobi. Demostracin. Los autovalores de la matriz de Jacobi J = D 1 ( E + F ) son las races del polinomio

J ( x ) = det( D 1 ( E + F ) xIn )
que coinciden con la races del polinomio qJ ( x ) = det( xD E F ) = det( D ) J ( x ).

278

MTODOS MATEMTICOS PARA ESTADSTICA

De la misma forma, los autovalores de la matriz de Gauss-Seidel L1 = ( D E)1 F son las races del polinomio

L1 ( x ) = det(( D E)1 F xIn ),


que coinciden con las races del polinomio qL1 ( x ) = det( xD xE F ) = det( E D ) L1 ( x ). Teniendo en cuenta la estructura tridiagonal de la matriz A, del lema X.3.9 se sigue que qL1 ( x2 ) = det( x2 D x2 E F ) = det( x2 D xE xF ) = x n qJ ( x ), para todo x k, pues por continuidad esta expresin tambin es vlida en x = 0. De esta relacin funcional, se deducen las siguientes implicaciones sp(L1 ) no nulo sp(J );

{ sp(J ) sp(J )} 2 sp(L1 ).


De donde se sigue el resultado deseado. Comparacin de los mtodos de Jacobi y de relajacin. Sea A una matriz tridiagonal tal que todos los autovalores de la matriz de Jacobi correspondiente son reales. Entonces, el mtodo de Jacobi, y el mtodo de relajacin para 0 < < 2, convergen o divergen simultneamente; adems, en caso de convergencia, la funcin (0, 2) (L ) alcanza un mnimo absoluto en 0 = 2 1+ 1 (J )2 .

Demostracin. Vase el teorema 5.3-5 de [Cia82]. Uniendo los resultados del Teorema de Kahan y la anterior comparacin de mtodos, obtenemos un resultado donde se pueden comparar los radios espectrales de las matrices J , L1 , L0 .

(L0 ) = inf0<<2 (L ) = 0 1 < (L1 ) = (J )2 < (J )


si (J ) > 0; si (J ) = 0, entonces 0 = 1 y (L1 ) = (J ) = 0. Demostracin. Vase el teorema 5.3-6 de [Cia82].

MANUALES UEX
279

Corolario X.3.10. Sea A una matriz hermtica, denida positiva y tridiagonal por bloques. Entonces los mtodos de Jacobi, Gauss-Seidel y de relajacin para (0, 2), son convergentes. Adems, existe un nico parmetro de relajacin ptimo 0 y se tiene que

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Test de parada de las iteraciones. Como ya se ha dicho, cuando un mtodo iterativo es convergente, la solucin del sistema lineal Ax = b se obtiene como lmite de la sucesin (u(k) )kN de iteraciones. Ante la imposibilidad de calcular todas las iteraciones, se plantea el problema de determinar k N tal que u(k) sea una buena" aproximacin de u. Es decir, si se desea que el error relativo sea inferior a una cantidad prejada > 0, el valor de k N debe cumplir k = u(k) u < u para alguna norma vectorial . Por supuesto, al ser el vector u desconocido, no se puede trabajar directamente con esas cantidades. El test ms sencillo que podemos emplear es detener el proceso cuando la diferencia entre dos iteraciones consecutivas sea, en trminos relativos, menor que la tolerancia admisible , es decir, (X.3.11) u ( k +1) u ( k ) < u ( k +1) .

Si embargo, este test tiene el inconveniente de que puede cumplirse la relacin (X.3.11) sin que el vector u(k+1) est prximo a u. Una condicin de parada de las iteraciones ms adecuada viene dada a partir del vector residual. Denicin X.3.11. Con la notacin anterior. Se llama vector residual k-simo de un mtodo iterativo a r(k) := b Au(k) = A(u u(k) ), k N {0}. En general, Si u es una aproximacin de la solucin de Ax = b se llama vector residual a b Au. Proposicin X.3.12. Si u es una aproximacin de la solucin u del sistema Ax = b, entonces, para la norma subordinada ||| ||| a una norma vectorial cualquiera, se tiene que u u ||| A1 ||| b Au y

MANUALES UEX

b Au uu cond( A) . u b Demostracin. Es una consecuencia directa de la proposicin VIII.2.5. A la vista del proposicin anterior, es razonable pensar que si u(k) est prximo a u, entonces Au(k) est prximo a b. Por tanto, pararemos las iteraciones cuando r(k) Au(k) Au = < , b Au

280

MTODOS MATEMTICOS PARA ESTADSTICA

es decir, para valores de k N tales que r(k) < b . Obviamente, debe procurarse que la comprobacin de los test de parada no incremente en exceso el nmero de operaciones necesarias para realizar una iteracin. Veamos cmo organizando los clculos de forma adecuada esto puede conseguirse tanto en el mtodo de Jacobi como en el de relajacin: a) En el mtodo de Jacobi podemos reescribir la iteracin cmo Du(k+1) = b + ( E + F )u(k) = b Au(k) + Du(k) = r(k) + Du(k) , es decir, D ( u ( k +1) u ( k ) ) = r ( k ) .

De esta forma calculando en primer lugar el vector r(k) (mediante la frmula r(k) = b Au(k) ), resolviendo a continuacin el sistema Dd(k) = r(k) y tomando u ( k +1) = u ( k ) + d ( k ) obtenemos la informacin necesaria para los test de parada as como la iteracin siguiente u(k+1) sin ver incrementado sustancialmente el nmero de operaciones. En el caso particular del mtodo de Jacobi, para cada i {1, 2, . . . , n}, se calculan

( r (k ) )i ( d (k ) )i ( u ( k +1) ) i

= bi n=1 aij (u(k) ) j j = (r(k) )i /aii = ( u (k ) )i + ( d (k ) )i


1 D + F u(k) + b,

(b) En el mtodo de relajacin podemos reescribir la iteracin como D E u ( k +1) =

y, de esta forma, D (u(k+1) u(k) ) = (k) . r

En el caso particular del mtodo de relajacin se tiene que (r(k) )i = bi ( Au (k) )i

MANUALES UEX
281

es decir, D ( k +1) D D u = Eu(k+1) Du(k) + Fu(k) + u(k) + b = r(k) + u(k) siendo r(k) = b ( D F )u(k) Eu(k+1)

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

para i = 1, 2, . . . , n, donde u ( k ) = ( u ( k +1) )1 , ( u ( k +1) )2 , . . . , ( u ( k +1) ) i 1 , ( u ( k ) ) i , . . . , ( u ( k ) ) n . Es decir, para cada i {1, 2, . . . , n}, se calculan ( r (k ) )i ( d (k ) )i ( u ( k +1) ) i
t

= bi ij1 aij (u(k+1) ) j n=i aij (u(k) ) j j =1 = (r(k) )i /aii = ( u (k ) )i + ( d (k ) )i

Para acabar, simplemente resear que las normas vectoriales que suelen emplearse con mayor frecuencia en este tipo de test son 2 y . 4. Mtodos iterativos estacionarios y no estacionarios

Como en las secciones anteriores, denotemos por B = In M1 A la matriz de iteracin asociada con el mtodo iterativo (X.2.3). Procediendo como el caso del mtodo de relajacin, (X.2.3) puede ser generalizado introduciendo un parmetro de relajacin (o aceleracin); de tal modo que consideremos descomposiciones de A de la forma A=
1 M

N.

De esta forma podemos considerar el mtodo iterativo (X.4.12) u(0) V arbitrario u(k+1) = u(k) + M1 r(k) , k N {0},

donde r(k) es el k-simo vector residual (vase la denicin X.3.11). Este mtodo se conoce como el mtodo de Richardson estacionario. De forma ms general, permitiendo que dependa del ndice de iteracin, se consigue el que se conoce como mtodo de Richardson no estacionario

MANUALES UEX

(X.4.13)

u(0) V arbitrario u ( k +1) = u ( k ) + k M 1 r ( k ) , k N { 0 } , Bk = In k M1 A,

La matriz de iteracin en la etapa k-sima para este tipo de mtodos es

282

con k = en el caso estacionario. Obsrvese que los mtodos de Jacobi y Gauss-Seidel se pueden considerar mtodos de Richardson estacionarios para = 1, M = D y M = D E, respectivamente.

MTODOS MATEMTICOS PARA ESTADSTICA

Podemos escribir (X.4.13) (y, por lo tanto, (X.4.12) tambin) en una forma ms apropiada para el clculo. Sea z ( k ) = M 1 r ( k ) el llamado vector residual precondicionado. Entonces se tiene que u(k+1) = u(k) + k z(k) y r(k+1) = b Au(k+1) = r(k) k Az(k) . En resumen, un mtodo de Richardson no estacionario requiere en su etapa (k + 1)-sima las siguientes operaciones resolver el sistema Mz(k) = r(k) ; calcular el parmetro de aceleracion; actualizar la solucin u(k+1) = u(k) + k z(k) ; actualizar el vector residual r(k+1) = r(k) k Az(k) . Por el momento slo nos ocuparemos del mtodo de Richardson estacionario, es decir, k = , para todo k. En este caso se cumple el siguiente resultado de convergencia. Teorema X.4.1. Para cualquier matriz invertible M, el mtodo de Richardson estacionario (X.4.12) es convergente si, y slo si, 2Re(i ) > 1, i = 1, . . . , n, | i |2 donde sp( M1 A) = {1 , . . . , n }. Demostracin. Por el criterio de convergencia para mtodo iterativos, tenemos que el mtodo de Richardson estacionario es convergente si, y slo si, el radio espectral de la matriz de iteracin B = In M1 A es estrictamente menor que 1. Equivalentemente, cuando |1 i | < 1, i = 1, . . . , n. De donde se sigue la desigualdad

(1 Re(i ))2 + 2 (Im(i ))2 < 1,


que implica de forma clara la desigualdad buscada. Obsrvese que si los signos de las partes de reales de los autovalores de M1 A no son constantes, el mtodo de Richardson estacionario no converger. Se pueden obtener resultados de convergencia ms especcos bajo ciertas condiciones sobre el espectro de M1 A. Teorema X.4.2. Si M es invertible y M1 A tiene todos sus autovalores reales positivos, 1 2 . . . n > 0, entonces el mtodo de Richardson estacionario

MANUALES UEX
283

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

(X.4.12) es convergente si, y slo si 0 < < 2/1 . Adems, si opt = radio espectral de Bopt es mnimo: (X.4.14) opt = mn B =

2 1 + n

el

1 n . 1 + n Demostracin. Los autovalores de B son 1 i , i = 1, . . . , n, luego (X.4.12) es convergente si, y slo si, |1 i | < 1, i = 1, . . . , n, es decir, si 0 < < 2/1 . Por otra parte, se comprueba que ( B ) es mnimo cuando 1 n = 1 1 (vase la gura 4.2 en [QSS07] p. 138), es decir, para = 2/(1 + n ), lo que proporciona el valor deseado para opt . Sin ms que sustituir, se obtiene el valor de opt buscado. Los resultados anteriores ponen de maniesto que la eleccin del precondicionador es fundamental en el mtodo de Richardson. El lector interesado en profundizar en este tema puede consultar el apartado 4.3.2 de [QSS07]. Corolario X.4.3. Sea A una matriz simtrica denida positiva. El mtodo de Richardson estacionario para M = In es convergente y ( k +1)
A

( B )

A,

k 0.

Demostracin. La convergencia es consecuencia del teorema X.4.1. Adems, observamos que ( k +1)
A

= B k

= A1/2 B k

A1/2 B A1/2

La matriz B es simtrica y denida positiva y semejante a lo tanto A1/2 B A1/2 = ( B ). Basta observa que A1/2
2

A1/2 k . 2 2 1/2 B A1/2 . A

Por

A,

para obtener la desigualdad buscada.

Un resultado similar se obtiene para cualquier M siempre que M, A y M1 A sean simtricas y denidas positivas (ejercicio 9). El mtodo del gradiente. La expresin ptima del parmetro dada en el teorema X.4.2 es de un uso muy limitado en casos prcticos, puesto que requiere el conocimiento del mayor y el menor autovalor de M1 A. En el caso especial de las matrices simtricas denidas positivas, el parmetro de aceleracin ptimo se puede calcular dinmicamente en cada etapa k como sigue. En primer lugar observamos que, para las matrices simtricas denidas positivas, resolver el sistema Ax = b es equivalente a calcular el valor mnimo de la forma cuadrtica (no homognea) (x) = 1 t x Ax xt b 2

MANUALES UEX
284

MTODOS MATEMTICOS PARA ESTADSTICA

que se denomina energa del sistema Ax = b. En efecto, el gradiente de es 1 (X.4.15) (x) = ( At + A)x b. 2 Como consecuencia, si (u) = 0, entonces u es solucin del sistema original. Por consiguiente, si u es solucin, entonces 1 (u) = (u + (v u)) = (u) + (v u)t A(v u), 2 para todo u Rn , y por tanto (v) > (u), si u = v, es decir, u es el mnimo de la funcin . Ntese que la relacin anterior es equivalente a 1 v u 2 = ( v ) ( u ), A 2 donde A es la norma asociada al producto escalar cuya matriz respecto de la base usual de Rn es A. El problema consiste, pues, en determinar el valor mnimo u de a partir de un punto u(0) Rn , es decir, seleccionar las direcciones apropiadas que nos permitan aproximarnos a la solucin tanto como queramos. El valor ptimo de la direccin que une el punto de partida u(0) con la solucin u es obviamente desconocido a priori. Por consiguiente, debemos de dar un paso desde u(0) en una direccin d(0) que nos permita jar un nuevo punto u(1) desde el cual iterando este proceso alcancemos u. De este modo, en la etapa genrica k-sima, u(k+1) se calcula como (X.4.16) u ( k +1) = u ( k ) + k d ( k ) , donde k es el valor que ja la longitud de la direccin d(k) . La idea ms natural es tomar la direccin descendiente de mayor pendiente (u(k) ), lo que produce el llamada mtodo del gradiente. Por otra parte, segn (X.4.15), (u(k) ) = Au(k) b = r(k) , por consiguiente, la direccin del gradiente de coincide con la del vector residual y puede ser calculada usando u(k) . Esto demuestra que el mtodo del gradiente se mueve en cada etapa k a lo largo de la direccin d(k) = r(k) . Para calcular el parmetro escribamos explcitamente (u(k+1) ) como una funcin del parmetro 1 (k) (u + r(k) )t A(u(k) + r(k) ) (u(k) + r(k) )t b. 2 Derivando respecto de e igualando a cero el resultado, obtenemos que el valor buscado de es ( u ( k +1) ) = (X.4.17)

( r ( k ) )t r ( k ) k = (k) = (r )t Ar(k)

r(k) r(k)

2 2 A

MANUALES UEX
285

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

que depende exclusivamente del vector residual en la etapa k-sima. Por esta razn, el mtodo de Richardson no estacionario que emplea (X.4.17) para evaluar el parmetro de aceleracin, se conoce como mtodo del gradiente con parmetro dinmico o mtodo de gradiente, para distinguirlo del mtodo de Richardson estacionario o mtodo del gradiente con parmetro constante. Resumiendo, el mtodo del gradiente se puede describir como sigue: dado u(0) Rn , para k = 0, 1, . . . , hasta la convergencia, calcular r(k) = b Au(k) k = r(k) r(k)
2 2 A

u ( k +1) = u ( k ) + k r ( k ) . Teorema X.4.4. Sea A una matriz simtrica y denida positiva. El mtodo del gradiente es convergente para cualquier eleccin del dato inicial u(0) y ( k +1)
A

cond2 ( A) 1 cond2 ( A) + 1 k

A,

k = 0, 1 . . . ,

donde k = u(k) u es el error cometido en cada iteracin. Demostracin. Sean u(k) las solucin generada por el mtodo del gradiente en la etapa k-sima, y sea u E igual al vector generado al aplicar el mtodo de Richardson estacionario para M = In con el parmetro ptimo a partir de u(k) , es decir, u(k) + opt r(k) . Por el corolario X.4.3 y por la igualdad (X.4.14), tenemos que4 E
( k +1) ( k +1) ( k +1) ( k +1)

cond2 ( A) 1 cond2 ( A) + 1 k

MANUALES UEX

donde E = uE u. Adems, por (X.4.16), tenemos que el vector u(k+1) , generado por el mtodo del gradiente, es el que minimiza la norma A del error entre todos los vectores de la forma u(k) + r(k) , con R. ( k +1) Por consiguiente, (k+1) A E A lo que completa la demostracin. El mtodo del gradiente consiste esencialmente en dos fases: elegir una direccin descendente (r(k) ) y seleccionar, mediante la eleccin del parmetro k , un mnimo local para en esa direccin. La segunda fase es independiente de la primera, ya que, dada una direccin p(k) , podemos determinar un parmetro k que minimize la funcin (u(k) + p(k) ).
4Recurdese que, cuando A es simtrica, cond ( A) = / , donde y son los auton n 2 1 1

286

valores mayor y menor de A, respectivamente (vase la nota VIII.3.7).

MTODOS MATEMTICOS PARA ESTADSTICA

En este sentido, una variante del mtodo del gradiente es el mtodo del gradiente conjugado que consiste esencialmente en elegir la sucesin de direcciones descendentes de la siguiente manera: p(0) = r(0) y p(k+1) = r(k+1) k p(k) , k = 0, 1, . . . , de tal forma que las direcciones p(0) , . . . , p(k+1) , k = 0, 1, . . . , sean mutuamente A-ortogonales5 y a continuacin determinar el parmetro k que minimize la funcin (u(k) + p(k) ). La principal ventaja de este mtodo es que ha de nalizar en n etapas (en aritmtica exacta) ya que como sabemos el nmero mximo de vectores A-ortogonales en Rn es n. El lector interesado en los detalles del mtodo del gradiente conjugado puede consultar el apartado 4.3.4 de [QSS07].

5Obsrvese que en el mtodo de gradiente dos direcciones consecutivas r(k) y r(k+1) siempre

son A-ortogonales.

MANUALES UEX
287

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicios del tema X Ejercicio 1. A partir de un vector u(0) V dado, se considera el mtodo iterativo u(k+1) = Bu(k) + c. Estudiar el comportamiento de la sucesin (u(k) ) cuando ( B) = 0. Ejercicio 2. Sea A Mn (k) una matriz triangular superior. Estudiar la convergencia de los mtodos de Jacobi, Gauss-Seidel y de relajacin para A. Idem si A es triangular inferior. Ejercicio 3. Demostrar que si A = ( aij ) Mn (k) verica

| a jj | >

i =1 i=j

|aij |

para j = 1, . . . , n, entonces el mtodo de Jacobi para A es convergente. Ejercicio 4. Analizar las propiedades de convergencia de los mtodos de Jacobi y Gauss-Seidel para la resolucin de un sistema lineal cuya matriz es 0 1 A = 0 0 , 1 0 con

R.

Ejercicio 5. Proporcionar una condicin suciente sobre tal que los mtodos de Jacobi y Gauss-Seidel converjan cuando se apliquen a la resolucin de un sistema cuya matriz es A=

10 2 5

Ejercicio 6. Sea A Mn (k). Probar que

MANUALES UEX

1. si 0 < < 1 y k con || 1, entonces 1 1; 2. si A es de diagonal estrictamente dominante, el mtodo de relajacin para A es convergente si 0 < 1. Ejercicio 7. Sea A Mn (k) una matriz hermtica e invertible descompuesta en la forma A = M N con M invertible.

288

MTODOS MATEMTICOS PARA ESTADSTICA

1. Se considera la sucesin u(k+1) = M1 Nu(n) con u(0) V \ {0} arbitrario. Probar que si la matriz M + N es denida positiva, entonces la sucesin ((u(k) ) Au(k) ) es montona creciente. 2. Demostrar que si M + N es denida positiva y ( M1 N ) < 1, entonces A es denida positiva. Ejercicio 8. Construir matrices para las cuales el mtodo de Jacobi asociado sea convergente y el mtodo de Gauss-Seidel diverja y recprocamente. Ejercicio 9. Sean A, M y M1 A matrices simtricas denidas positivas. Probar que el mtodo de Richardson estacionario es convergente y ( k +1)
A

( B )

A,

k 0.

MANUALES UEX
289

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

MANUALES UEX
290

MTODOS MATEMTICOS PARA ESTADSTICA

TEMA XI

Mtodos iterativos para el clculo de autovalores (y autovectores)

n este tema damos una breve semblanza de los mtodos iterativos para el clculo de los autovalores (y autovectores) de una matriz. Una observacin previa digna a tener en cuenta es que debido a la imposibilidad de resolver por radicales de forma exacta una ecuacin polinmica de grado mayor o igual que 5 (Teorema de Abel) es igualmente imposible calcular los autovalores de una matriz de orden mayor o igual que 5 mediante mtodos directos, al tratarse esencialmente del mismo problema. Para calcular aproximaciones numricas de los autovalores de una matriz A Mn (k), se suele construir una sucesin de matrices Uk 1 AUk convergente a una matriz cuyos autovalores sean conocidos, por ejemplo, a una matriz diagonal o a una triangular. Esta idea es la base del mtodo de Jacobi que estudiaremos en la primera seccin del tema. Este mtodo se emplea cuando buscamos aproximaciones de todos los autovalores, y (eventualmente) todos los autovectores de una matriz simtrica1. Las matrices Uk consideradas sern productos de matrices ortogonales elementales muy fciles de construir. En este caso, demostraremos que lm Uk 1 AUk = diag(1 , 2 , . . . , n ),
k

donde los nmeros reales i son los autovalores de la matriz A. Adems, cuando estos ltimos son todos distintos, veremos que cada una de las columnas de las matrices Uk forma una sucesin convergente de vectores que converge a un autovector de la matriz A. En general, para cualquier tipo de matrices, el mtodo QR revela la misma idea. Utilizando en cada iteracin la factorizacin QR de la matriz Uk 1 AUk obtenida, se obtiene un mtodo iterativo general (y no slo vlido para las matrices simtricas). En la segunda seccin slamente consideraremos el caso de las matrices reales con todos sus autovalores reales, que viene
1Recurdese que las matrices simtricas son diagonalizables con matriz de paso ortogonal

(vase el teorema V.5.3).

MANUALES UEX
291

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

a ser completamente anlogo al caso de las matrices complejas. En todo caso, conviene advertir que esta condicin es puramente tcnica a afecto de simplicar nuestra breve introduccin a los mtodos iterativos para el clculo de autovalores. As mismo, al nal de la seccin mostramos cmo se pueden calcular los autovalores bajo ciertas condiciones. En la ltima seccin estudiamos el mtodo de la potencia para el clculo de autovalores y autovectores, aunque quiz sera ms apropiado decir, para el clculo de un autovalor y un autovector, ya que este mtodo se caracteriza por su eciencia a la hora de calcular el autovalor de mayor o menor mdulo. Esto es a menudo suciente si lo que nos interesa es conocer el radio espectral de una matriz dada. La seccin naliza con un pequeo anlisis sobre la convergencia del mtodo de la potencia y mostrando un mtodo recurrente para el clculo de pares autovalor/autovector a partir de pares previamente calculados. Este tema se ha elaborado a partir del captulo 4 de [QSS07] y usando tambin algunos aspectos del captulo 6 de [Cia82]. Como se ha comentado, en este tema slo hemos entreabierto la puerta al estudio de los mtodos iterativos para el clculo de autovalores y autovectores. El lector interesado en profundizar en este tema puede comenzar con el captulo 6 de [QS06]. 1. El mtodo de Jacobi

Partiendo de una matriz simtrica A1 := A Mn (R) el mtodo de Jacobi consiste en construir una sucesin ( Qk )kN de matrices ortogonales elementales" (en un cierto sentido que se determinar en breve) tales que la sucesin de matrices (tambin simtricas) Ak+1 := Qt Ak Qk = ( Q1 Q2 Qk )t A( Q1 Q2 Qk ), k 1, k sea convergente a la matriz D = diag(1 , 2 , . . . , n ), salvo permutacin de los subndices. Adems, en ciertos casos, se puede concluir que la sucesin de matrices ortogonales (XI.1.1) Uk := Q1 Q2 Qk , k 1,

MANUALES UEX

converge a una matriz ortogonal cuyas columnas forman una base ortonormal de autovectores de la matriz A. El principio de cada transformacin Ak Ak+1 = Qt Ak Qk , k 1, k consiste en anular dos elementos extradiagonales de la matriz Ak en posicin simtrica, ( Ak ) pq y ( Ak )qp , siguiendo un proceso bastante simple que vamos a describir y a estudiar a continuacin. Por el momento no nos preocuparemos de la eleccin efectiva de la pareja ( p, q).

292

MTODOS MATEMTICOS PARA ESTADSTICA

Comenzamos con un lema tcnico que es la clave del mtodo de Jacobi. Lema XI.1.1. Sean p y q dos nmeros enteros tales que 1 p < q n, un nmero real y (XI.1.2) Q = In + R,

donde R Mn (R) tiene como entrada (i, j)-sima a cos( ) 1 si i = j = p i = j = q sen( ) si i = p y j = q rij = sen( ) si i = q y j = p 0 en otro caso. Si A = ( aij ) Mn (R) es una matriz simtrica y B = Qt AQ = (bij ) Mn (R), entonces (a) B es simtrica y ||| B||| F = ||| A||| F , es decir,
n n

i,j=1

2 bij =

i,j=1

a2 . ij

(b) si a pq = 0, existe un nico valor de en (/4, 0) (0, /4] tal que b pq = 0; tal valor es la nica solucin de la ecuacin cotan(2x ) = a pp aqq 2a pq

en (/4, 0) (0, /4]. Adems, para este valor de se cumple que


2 bii = a2 + 2a2 . pq ii i =1 n n

i =1

Demostracin. (a) Es claro que B es simtrica, pues Bt = ( Qt AQ)t = Qt At Q = Qt AQ = B. Por otra parte, se comprueba fcilmente que la matriz Q es ortogonal; luego, en particular, es unitaria. Ahora, como la norma de Frbenius es invariante por transformaciones unitarias (vase la proposicin VIII.2.14), se sigue que

i,j=1

2 bij = ||| B||| F = ||| Qt AQ||| F = ||| A||| F =

i,j=1

a2 . ij

(b) La transformacin de los elementos de ndices ( p, p), ( p, q), (q, p) y (q, q), se puede escribir de la siguiente manera b pp bqp b pq bqq

cos( ) sen( )

sen( ) cos( )

a pp aqp

a pq aqq

cos( ) sen( ) sen( ) cos( )

MANUALES UEX
293

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

de tal forma que el mismo razonamiento que el apartado (a) nos permite asegurar que
2 b2 + bqq + 2b2 = a2 + a2 + 2a2 , pp pq pp qq pq

para todo valor de . Por otra parte, como b pq = bqp es a pp aqq sen(2 ), 2 se sigue que si se pudiese elegir tal y como se indica en el enunciado, tendramos que a pq cos(2 ) + b pq = bqp = 0 y por lo tanto que
2 b2 + bqq = a2 + a2 + 2a2 . pp pp qq pq

Pero, tal valor de siempre existe y es nico ya que la funcin y = cotan(2x ) es continua y estrictamente decreciente en los intervalos (/4, 0) y (0, /4], y su imagen es (, 0) en el primer intervalo y [0, +) en el segundo. Luego, la funcin y = cotan(2x ) aqq a pp 2a pq

corta al eje OX en un nico punto. Finalmente, como aii = bii para todo i = p e i = q, concluimos que

MANUALES UEX

i =1

2 bii = a2 + 2a2 . pq ii i =1

Nota XI.1.2. i) La matriz Q es ortogonal para todo R. ii) Solamente las las y columnas p-sima y q-sima de la matriz A son modicadas por la transformacin A B = Qt AQ. De forma ms

294

MTODOS MATEMTICOS PARA ESTADSTICA

precisa, para todo R se tiene que bij = b ji es igual a aij si i = p, q y j = p, q a pj cos( ) aqj sen( ) si i = p y j = p, q a pj sen( ) + aqj cos( ) si i = q y j = p, q , 2 ( ) + a sin2 ( ) a sin(2 ) si i = j = p qq pq a pp cos a pp sin2 ( ) + aqq cos2 ( ) + a pq sin(2 ) si i = j = q a a si i = p y j = q a pq cos(2 ) + pp 2 qq sin(2 ) para todo R. iii) Gracias a las relaciones existentes entre las funciones trigonomtricas, los elementos de la matriz B son, a pesar de las apariencias, determinados por relaciones algebraicas obtenidas a partir de los elementos de A; para ello, calculemos los siguientes nmeros reales: aqq a pp x0 = (= cotan(2 )), 2a pq la raz de menor mdulo si x0 = 0 del polinomio t2 + 2x0 t 1 t0 = 1 si x0 = 0 es decir, t0 = tan( ) con | | /4, y nalmente, c= 1 1 + t2 0 t0 1 + t2 0

(= cos( )) (= sen( )).

s=

cuando el valor de es la nica solucin de la ecuacin a pp aqq cotan(2x ) = 2a pq en (/4, 0) (0, /4]. Ahora ya estamos en disposicin de describir la etapa k-sima del mtodo de Jacobi.

MANUALES UEX
295

La frmula dadas en ii) para los elementos de B se pueden escribir de la forma siguiente aij si i = p, q y j = p, q a c a s si i = p y j = p, q pj qj a pj s + aqj c si i = q y j = p, q bij = b ji = , a pp a pq t0 si i = j = p a +a t qq pq 0 si i = j = q 0 si i = p y j = q

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


(k)

Proposicin XI.1.3. Dada la matriz Ak = ( aij ) Mn (R) y jado un par ( p, q) con p = q tal que a pq = 0, se puede construir una matriz ortogonal Qk Mn (R) tal que A k +1 = Q t A k Q k k con a pq
( k +1) (k)

= aqp

( k +1)

= 0. En particular, sp( Ak+1 ) = sp( Ak ).

Demostracin. Por el lema XI.1.1 basta tomar Qk de la forma (XI.1.2) con (/4, 0) (0, /4] vericando la ecuacin cotan(2x ) = a pp aqq 2a pq
(k) (k) (k)

A continuacin distinguiremos tres estrategias para la eleccin de la pareja ( p, q). Mtodo de Jacobi clsico. La pareja ( p, q) se elige de tal forma que

| a pq | = m x | aij |. a
i=j

(k)

(k)

Entindase que la eleccin pareja ( p, q) va variando en cada una de las etapas, es decir, depende de k. La principal desventaja del mtodo de Jacobi clsico es el coste en tiempo que supone la bsqueda del elemento extradiagonal de mayor absoluto en la matriz Ak . Mtodo de Jacobi cclico. En este caso vamos recorriendo todos los elementos extradiagonales mediante un barrido cclico, sucesivamente aunque usando siempre el mismo; por ejemplo, elegimos las parejas ( p, q) con el siguiente orden

(1, 2), (1, 3), . . . , (1, n); (2, 3), . . . , (2, n); . . . , (n 1, n).

MANUALES UEX

Naturalmente, si en la etapa k-sima el elemento a pq es cero, pasamos al siguiente (desde el punto de vista matricial esto equivale a tomar Qk = In ). Mtodo de Jacobi con umbral. Procedemos como en el mtodo de Jacobi cclico, pero saltndonos aquellas parejas ( p, q) tales que | a | < , para un p,q cierto nmero real > 0 dado; pues parece intil anular aquellos elementos extradiagonales cuyo valor absoluto sea muy pequeo, mientras existan otro elementos de orden elevado.

(k)

296

MTODOS MATEMTICOS PARA ESTADSTICA

Nota XI.1.4. Independientemente de la estrategia (e incluso del mtodo) elegida, es muy importante tener en cuenta que los elementos anulados en una etapa dada puede ser reemplazados por elementos no nulos en una etapa posterior. En otro caso, obtendramos que la reduccin a una matriz diagonal se podra realizar en un nmero nito de iteraciones, lo que no es posible en general.

Anlisis de convergencia. A continuacin vamos a estudiar la convergencia del mtodo de Jacobi, aunque nos restringiremos al caso ms sencillo (es decir, al mtodo clsico) y sin preocuparnos por la estimacin de errores. En la pgina 114 de [Cia82] se pueden encontrar las referencias a algunos trabajos de P. Henrici y de H.P.M van Kempen realizados entre 1958 y 1968 sobre la convergencia de los mtodos de Jacobi clsico y cclico. Sea A Mn (R) una matriz simtrica y ( Ak )kN Mn (R) la sucesin de matrices simtricas obtenidas mediante la aplicacin del mtodo de Jacobi clsico. Al igual que antes, denotaremos aij a la entrada (i, j)-sima de la matriz Ak . Para evitar situaciones triviales, a partir de ahora supondremos que m xi = j | aij | > 0, para todo k 1. a Como es habitual, designaremos por Sn al conjunto de todas las permutaciones del conjunto {1, 2, . . . , n}, esto es el grupo simtrico n-simo. Antes de demostrar el teorema de convergencia de los autovalores para el mtodo de Jacobi clsico, necesitamos recordar el siguiente resultado sobre espacios normados que desempear un papel crucial en las demostraciones de los dos teoremas siguientes. Lema XI.1.5. Sea (V, ) un espacio normado de dimensin nita. Si (vn )nN V es una sucesin acotada tal que (a) (vn )nN posee un nmero nito de puntos de acumulacin, (b) lmn vn+1 vn = 0. entonces la sucesin (vn )nN es convergente (a un nico punto de acumulacin). Demostracin. La demostracin se propone como ejercicio a lector. Teorema XI.1.6. Con la notacin anterior, la sucesin ( Ak )kN es convergente, y
k

(k)

(k)

lm Ak = diag((1) , (2) , . . . , (n) )

para alguna permutacin Sn , siendo 1 , 2 , . . . , n R los autovalores de A.

MANUALES UEX
297

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Demostracin. Dado un entero k 1, escribiremos Ak = ( aij ) = Dk + Ck con Dk := diag( a11 , a22 , . . . , ann ). Demostremos en primer lugar que lmk Ck = 0. Los nmeros (k) k := | aij |2 = |||Ck |||2 , k 1, F
i=j

(k)

(k)

(k)

(k)

verican, por el lema XI.1.1(b), que k+1 = k + 2| a pq |2 , y, por la estrategia adoptada por el mtodo de Jacobi clsico, que k n(n 1)| a pq |2 , ya que hay n(n 1) elementos extradiagonales. Combinando estas expresiones, se obtiene que k +1 1 2 n ( n 1) k,
(k) (k)

de donde se sigue que lmk k = 0. Segn lo anterior, como Ak = Dk + Ck , k 1, se tiene que lmk Ak = lmk Dk . De modo que basta demostrar que la sucesin ( Dk ) es convergen te a diag((1) , (2) , . . . , (n) ) para alguna permutacin Sn , y habremos terminado. En primer lugar, observamos que la sucesin ( Dk ) es acotada. En efecto, por el lema XI.1.1, ||| Ak ||| F = ||| A||| F ; luego,

||| Dk ||| F ||| Ak ||| F = ||| A||| F ,


para todo k 1. Veamos ahora que la sucesin ( Dk )kN tiene un nmero nito de puntos de acumulacin, que han de ser de la forma diag((1) , (2) , . . . , (n) ) para algn Sn . Si ( Dk )kN es una subsucesin de ( Dk )kN convergente a una matriz D, entonces se tiene que
k

MANUALES UEX

lm Ak = D

con

Ak = Dk + Ck

lm Ck = 0,

de modo que, considerando los coecientes de los polinomios caractersticos, se tiene que

D ( x ) = det( D xIn ) = lm det( Ak xIn ) = lm A ( x ).


k k
k

298

Pero, como det( Ak xIn ) = det( A xIn ),

MTODOS MATEMTICOS PARA ESTADSTICA

para todo k pues sp( Ak ) = sp( A), concluimos que las matrices A y D = lmk Dk tienen los mismos autovalores con idnticas multiplicidades. Por consiguiente, como D es una matriz diagonal (por ser lmite de una sucesin de matrices diagonales), existe una permutacin Sn tal que D = diag((1) , (2) , . . . , (n) ). La siguiente etapa en nuestra demostracin consiste en ver que lmk ( Dk+1 Dk ) = 0. Para ello, observamos que 0 si i = p, q ( k +1) (k) (k) tan(k ) a pq si i = p aii aii = (k) si i = q tan(k ) a pq Como (k) y | a pq | |||Ck ||| F 4 se concluye que lmk ( Dk+1 Dk ) = 0, al ser lmk Bk = 0. |k | De todo lo anterior, por el lema XI.1.5, se sigue que la sucesin ( Dk )kN es convergente, y necesariamente lmk Dk = diag((1) , (2) , . . . , (n) ), para alguna permutacin Sn . Terminamos esta seccin mostrando un resultado sobre la convergencia del mtodo de Jacobi para el clculo de aproximaciones de los autovectores de una matriz simtrica con todos sus autovalores distintos. En primer lugar, recordemos que
t Ak+1 = Qt Ak Qk = Qt Qt 1 Ak1 Qk1 Qk = . . . = Uk AUk , k k k

donde Uk = Q1 Q2 Qk . Teorema XI.1.7. Con la notacin anterior, si todos los autovalores de la matriz A son distintos, entonces la sucesin (Uk )kN de matrices ortogonales converge a una matriz cuyas columnas forman un sistema ortonormal de autovectores de A. Demostracin. En primer lugar, como todas las matrices Uk son ortogonales (y, en particular, unitarias) se tiene que Uk 2 = 1. Luego, la sucesin (Uk )kN es acotada. Veamos que la sucesin (Uk ) tiene un nmero nito de puntos de acumulacin, que han de ser de la forma v (1) | v (2) | . . . | v ( n ) M n ( R ) , Sn ,

donde v1 , v2 , . . . , vn Rn son los vectores columna de la matriz ortogonal Q Mn (R) dada por la relacin Qt AQ = diag(1 , 2 , . . . , n ).

MANUALES UEX
299

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Sea (Uk )kN una subsucesin de (Uk )kN convergente a una matriz (ortogonal) U . Segn el teorema anterior, existe una permutacin Sn tal que diag((1) , (2) , . . . , (n) ) = lm Ak = lm ((Uk )t AUk ) = (U )t AU ,
k k

lo cual demuestra nuestro aserto. Obsrvese que la hiptesis referente a que los autovalores de A son todos distintos se utiliza como hecho esencial para concluir la existencia de un nmero nito de puntos de acumulacin. Finalmente demostremos que lmk Uk+1 Uk = 0. Por construccin, k verica tan(2k ) = 2a pq
(k) aqq (k) (k) a pp

|k |

. 4

Usando el teorema anterior y de nuevo el hecho de que todos los autovalores de A son distintos, concluimos la existencia de un entero l tal que k l | aqq a pp |
(k) (k) (k) (k)

1 min|i j | > 0 2

(como las parejas ( p, q) varan en cada etapa m, no podemos armar que las sucesiones ( a pp )kN y ( aqq )kN sea convergentes). Sin embargo, como lmk a pq = 0, tenemos que
k 0

(k)

lm k = 0,

y por tanto que

lm Qk = In

(recurdese que la expresin dada de la matriz Qk depende de ). Por consiguiente, Uk+1 Uk = Uk ( Qk+1 In ), de donde si sigue que lmk Uk+1 Uk = 0 al ser (Uk )kN una sucesin acotada. Ahora ya tenemos todos los ingredientes necesarios para aplicar el lema XI.1.5 y terminar la demostracin.

MANUALES UEX

2.

El mtodo QR

300

En esta seccin mostraremos el mtodo QR para calcular aproximaciones de los autovalores y los autovectores de una matriz cuadrada con entradas reales que tenga todos sus autovalores en R. El caso de las matrices con entradas complejas es esencialmente similar, slo que habra que adaptar la factorizacin QR a este caso, tomando Q unitaria en vez de ortogonal. El lector interesado en conocer los detalles del caso complejo puede consultar la seccin 6.3 de [Cia82].

MTODOS MATEMTICOS PARA ESTADSTICA

Sea A Mn (R). Dada una matriz ortogonal Q0 Mn (R) denimos T0 = Qt AQ0 . Para cada k = 1, 2, . . . , el mtodo QR consiste en: 0 determinar Qk y Rk tales que (XI.2.3) Qk Rk = Tk1 entonces, sea Tk = Rk Qk En cada etapa k 1, la primera fase del mtodo es la factorizacin QR de la matriz T (k1) (vase el teorema IX.4.5). La segunda fase es simplemente el clculo de un producto de matrices. Obsrvese que Tk = Rk Qk = Qt ( Qk Rk ) Qk = Qt Tk1 Qk = . . . k k (factorizacin QR);

= ( Q0 Q1 Q k )t A ( Q0 Q1 Q k ),

k 0,

es decir, Tk es congruente con A con matriz de paso ortogonal. Esto es particularmente interesante para garantizar la estabilidad del mtodo, ya que el nmero de condicin de Tk no ser peor que el de A (vase la la nota VIII.3.7(d)). Una implementacin bsica del mtodo QR consiste en tomar Q0 igual a la matriz identidad de orden n, de tal forma que T0 = A. En cada etapa k 1 la factorizcin QR de la matriz T (k1) se puede calcular usando el algoritmo descrito en el teorema IX.4.5, cuyo coste computacional es del orden de 2n3 operaciones. En el captulo 5 de [QSS07] se pueden encontrar otras implementaciones, as como variantes, del mtodo QR. En el caso que nos ocupa, Q0 = In , se tiene el siguiente resultado de convergencia: Proposicin XI.2.1. Sea A Mn (R) invertible y tal que sus autovalores son reales y son diferentes en mdulo |1 | > |2 | > . . . > |n |. Entonces 1 t12 . . . t1n 0 2 . . . t2n lm Tk = . . . . .. . . . k . . . . 0 0 ... n Adems, si A es simtrica la sucesin { Tk }kN tiende a una matriz diagonal. Demostracin. Para la demostracin, vase el teorema 6.3-1 de [Cia82]. Las hiptesis de la proposicin anterior puede vericarse a priori usando los crculos de Gerhsgorin (vase la seccin 5.1 de [QSS07] o el apartado 6.3 de [QS06]). No obstante, si los autovalores, an siendo distintos, no estn bien separados, puede ocurrir que la convergencia sea demasiado lenta, ya que

MANUALES UEX
301

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


(k)

|ti, i1 | es del orden de |i /i1 |k , i = 2, . . . , n, para k sucientemente alto (vase la Propiedad 5.9 de [QSS07]).
Supongamos ahora que tenemos una aproximacin de la igualdad Qt AQ = T siendo T triangular superior. Entonces, si Ax = x, se tiene que Qt AQQt (x), es decir, tomando y = Qt x, se cumple que Ty = y. Por tanto, y es un autovector de T, luego para calcular los autovalores de A podemos trabajar directamente con la matriz T. Supongamos por simplicidad que = tkk C es un autovalor simple de A. entonces la matriz triangular superior T se puede descomponer como T11 v T13 T = 0 wt , 0 0 T33 donde T11 Mk1 (C) y T33 Mnk (C) son matrices triangulares superiores, v Ck1 , w Cnk y sp( T11 ) sp( T33 ). De esta forma tomando y = (yt 1 , y, yt k ), con yt 1 Ck1 , y C e k n k t ynk Cnk , el sistema homogneo ( T In )y = 0 se puede escribir como ( T11 Ik1 )yk1 + vy + T13 ynk = 0 wt y n k = 0 ( T33 Ink )ynk = 0 Como tiene multiplicidad 1, las matrices T11 Ik1 y T33 Ink son invertibles, por consiguiente ynk = 0 y la primera ecuacin se transforma en ( T11 Ik1 )yk1 = vy. De donde se sigue, tomando y = 1 que una solucin del sistema triangular anterior es ( T1 1 Ik1 )1 v . y= 1 0 El autovector x buscado es, por tanto, x = Qy. 3. El mtodo de la potencia

MANUALES UEX

Sea A Mn (C) una matriz diagonalizable. Supongamos que los autovalores de A estn ordenados como sigue (XI.3.4)

| 1 | > | 2 | . . . | n |.

302

Ntese que, en particular, |1 | es distinto de los otros mdulos de los autovalores de A, es decir, que 1 es el autovalor dominante de A. Sea {u1 , . . . , un } una base de Cn tal que u j es un autovector (de norma usual 1, es decir u j
2

u u j ) asociado a j , j = 1, . . . , n y denotemos j

MTODOS MATEMTICOS PARA ESTADSTICA

por P a la matriz de orden n cuya columna j-sima es u j . Obsrvese que para garantizar la existencia de una base de Cn de autovectores de A es fundamental que A sea diagonalizable (vase el teorema III.3.4). Dado un vector inicial arbitrario q(0) Cn de norma usual 1, consideremos para k = 1, 2, . . . , la siguiente iteracin basada en el clculo de potencias de matrices, comnmente llamado el mtodo de la potencia: z( k ) (XI.3.5) q(k) (k)

= =

Aq(k1)
2

= z(k) / z(k)

(q(k) ) Aq(k) .

Anlisis de convergencia. Analicemos la convergencia de (XI.3.5). Por induccin sobre k podemos comprobar que (XI.3.6) q(k) = A k q (0) , A k q (0) 2 k 1.

Esta relacin explica el papel jugado por la potencias de A en el mtodo iterativo descrito. Supongamos que q (0) =
i =1

i ui
i 1
k

con i C, i = 1, . . . , n. Como Aui = i ui , i = 1, . . . , n, tenemos que (XI.3.7)


k A k q (0) = 1 1

u1 +

i 1 i =2

ui

k = 1, 2, . . .

q(k) =

k 1 1 u1 + v ( k ) k 1 1 u1 + v ( k ) 2

= k

u1 + v ( k ) , u1 + v ( k ) 2

k donde k es el signo de 1 1 y v(k) denota un vector que se tiende a cero cuando k tiende hacia innito. Cuando k tiende hacia innito, el vector q(k) se alinea, pues, con la direccin del autovector u1 , y se tiene la siguiente estimacin del error en la etapa k-sima.

MANUALES UEX
303

Como |i /1 | < 1, i = 2, . . . , n, cuando k aumenta el vector Ak q(0) (y por tanto q(k) , por XI.3.6) tiende a poseer una componente signicativamente grande en la direccin de u1 , mientras que las componentes en las otras direcciones u j , j = 1, disminuyen. Usando (XI.3.6) y (XI.3.7), obtenemos

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Teorema XI.3.1. Con la notacin anterior, si 1 = 0, existe una constante C > 0 tal que (XI.3.8) donde q(k) = q ( k ) A k q (0) k 1 1
n 2

q ( k ) u1

2 1

k 1,

= u1 +

i 1 i =2
n

i 1

ui ,

k = 1, 2, . . . ,

Demostracin. De (XI.3.7) se sigue que u1 + i i =2 1 i 1


k

u i u1
2

i =2 n

i 1

i 1 i 1
2

ui
2

i =2

i 1 i 1
2

2k

1/2

que no es ms que (XI.3.8) para C =

2 1

i =2

1/2

n i=2 (i /1 )2

1/2

La estimacin (XI.3.8) expresa la convergencia de q(k) hacia u1 . Por consiguiente, la sucesin de cocientes de Rayleigh ( q(k) ) A q(k) = (q(k) ) Aq(k) = (k) (k) 2 q 2 converger a 1 . Como consecuencia, lmk (k) = 1 , y la convergencia ser ms rpida cuanto menor sera el cociente |2 |/|1 |. Ejemplo XI.3.2. Consideremos la familia de matrices 2 3 13 5 11 10 8 , R. A = 9 7 6 12 4 14 15 1 Queremos aproximar el autovalor con mayor mdulo por el mtodo de la potencia. Cuando = 30, los autovalores de la matriz son 1 = 39,396, 2 = 17,8208, 3 = 9,5022 y 4 = 0,2854 aproximadamente. El mtodo aproxima 1 en menos de 30 iteraciones con q(0) = (1, 1, 1, 1)t . Sin embargo, si = 30 necesitamos ms de 700 iteraciones. El diferente comportamiento puede explicarse observando que en el ltimo caso se tiene que 1 = 30,634 y 2 = 29,7359. As, |2 |/|1 | = 0,9704, que est prximo a la unidad.

MANUALES UEX
304

MTODOS MATEMTICOS PARA ESTADSTICA

En la seccin 5.3 de [QSS07] se puede encontrar un test de parada para las iteraciones del mtodo de la potencia, as como una variante de este mtodo denominado mtodo de la potencia inversa que consiste en aplicar el mtodo de la potencia a la matriz ( A In )1 donde se elige prximo a un autovalor de A. Este mtodo tiene un coste computacional ms elevado que el mtodo de la potencia, pero tiene la ventaja de que podemos elegir de tal forma que converja a cualquier autovalor de A. La eleccin de para este propsito se puede realizar usando los crculos de Gerhsgorin (vase la seccin 5.1 de [QSS07] o el apartado 6.3 de [QS06]), por ejemplo. Los aspectos sobre la implementacin de los mtodos de la potencia y de la potencia inversa se pueden consultar en el apartado 5.3.3 de [QSS07] o en el captulo 6 de [QS06]. Deacin. Supongamos que los autovalores de A Mn (R) est ordenados como en (XI.3.4) y supongamos que el par autovalor/autovector (1 , u1 ) es conocido. La matriz A se puede transformar la siguiente matriz particionada en bloques A1 = H AH = 1 0 bt A2 ,

donde b Rn1 , H es la matriz de Householder tal que Hu1 = u1 para algn R y la matriz A2 Mn (R) tiene los mismos autovalores que A excepto 1 . La matriz H se puede calcular usando w = u1 u1 2 e1 (vase la denicin IX.4.1). La deacin consiste en calcular el segundo autovalor 2 de A aplicando el mtodo de la potencia a A2 (supuesto que |2 | = |3 |). Una vez que conocemos 2 , el autovector correspondiente u2 se puede calcular aplicando el mtodo de la potencia inversa a la matriz A tomando prximo a 2 y as sucesivamente con el resto de pares autovalor/autovector (si fuese posible).

MANUALES UEX
305

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicios del tema XI Ejercicio 1. Aplicar el mtodo de Jacobi a las siguientes matrices: 9 1 2 1 1 1 3 4 1 1 8 3 2 4 0 1 , , 2 3 3 7 1 0 0 3

2 4 3 2 , 7 1 1 6 y calcular (aproximaciones) de sus autovalores y autovectores.


1 2 3 4 2 1 4 3 3 4 1 2 4 3 , 2 1 9 1 2 4 1 8 3 2 Ejercicio 2. Aplicar el mtodo QR a las matrices del ejercicio 1 y calcular (aproximaciones) de sus autovalores y autovectores. Ejercicio 3. Este ejercicio muestra el mtodo de Jacobi-Corbato, que, a partir del mtodo de Jacobi clsico permite acelerar la busqueda de una pareja ( p, q) vericando a pq
(m)

2 1

1 3

= m xi = j aij a
ai
(m)

(m)

.
(m)
iji
(m)

1. Consideremos los vectores am y bm de componentes

= m x aij a
j >i

(m)

= a

, i = 1, . . . , n,

bi

(m)

= ji

(m)

, i = 1, . . . , n,

respectivamente. Explicar cmo se pueden construir los vectores am+1 y bm+1 a partir de los vectores am y bm . 2. Deducir un proceso para determinar, a partir de am y bm , una pareja ( p, q) tal que a pq
( m +1)

= m x aij a
i=j

( m +1)

MANUALES UEX
306

Ejercicio 4. Vericar que el mtodo de la potencia no es capaz de calcular el autovalor de mdulo mximo de la matriz siguiente, y explicar porqu: 1/3 2/3 2 3 1 0 1 2 . A= 0 0 5/3 2/3 0 0 1 0 Ejercicio 5. Supongamos que se satisfacen todas condiciones necesarias para aplicar el mtodo de la potencias excepto que = 0. Probar que en este caso la sucesin (XI.3.5) converge al par autovalor/autovector (2 , u2 ). Entonces,

MTODOS MATEMTICOS PARA ESTADSTICA

estudiar experimentalmente el comportamiento del mtodo calculando el par (1 , u1 ) para la matriz 1 1 2 A = 2 0 5 6 3 6

MANUALES UEX
307

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

MANUALES UEX
308

MTODOS MATEMTICOS PARA ESTADSTICA

TEMA XII

Espacios de Hilbert
l anlisis funcional es una de las reas centrales en la matemtica moderna, y la teora de los espacios de Hilbert es ncleo alrededor del cual el anlisis funcional se ha desarrollado. Los espacios de Hilbert tienen una estructura geomtrica bastante rica, ya que son espacios vectoriales dotados de un producto escalar que permite denir el concepto de ortogonalidad. De hecho el objetivo de este tema se centrar en la construccin de bases ortonormales (en un sentido a precisar que generalice el estudiado en los temas anteriores). Uno de los ejemplos ms importantes de espacio de Hilbert es el espacio L2 de la funciones de cuadrado Lebesgue integrable que se estudiar en la asignatura de teoras de la medida y de la probabilidad, as como el espacio 2 la sucesiones de cuadrado sumable que ser el que estudiaremos con cierto detalle en este tema. Otro ejemplo, tambin importante de espacio de Hilbert es el de espacio vectorial de dimensin nita dotado de un producto escalar. Estos espacios de Hilbert han ido apareciendo a lo largo de la asignatura desde el tema V. En la primera seccin del tema estudiamos los espacios vectorial dotados de un producto escalar (sin preocuparnos de la dimensin). stos son los llamados espacios prehilbertianos. En esta seccin denimos este tipo de espacios y mostramos sus propiedades ms importantes. Es destacable que, al igual que en el caso de dimensin nita, el producto escalar dene una norma, por lo que podremos concluir que todo espacio prehilbertiano es un espacio normado, y por lo tanto mtrico, es decir, podremos denir una nocin de distancia entre sus vectores. Tras estudiar algunas propiedades interesantes de la norma y la mtrica denidas en los espacios prehilbertiano, nalizamos el tema estudiando con detalle el ejemplo de los espacios 2 que, como se ver, ser el ejemplo fundamental de espacio de Hilbert en esta asignatura. En la segunda seccin nos ocupamos de la ortogonalidad. En este caso aparentemente no hay una diferencia sustancial con lo estudiado sobre ortogonalidad en el caso de dimensin nita; sin embargo, a poco que lo

MANUALES UEX
309

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

pensemos se echa en falta la nocin de base ortonormal. Tngase en cuenta que en todo espacio vectorial existen bases, y que dado una sucesin de vectores linealmente independiente demostramos que podemos calcular un sistema ortogonal que genere el mismo espacio que la sucesin; luego, qu ingrediente nos falta? El ingrediente que nos falta es la numerabilidad: todo espacio vectorial posee una base pero no necesariamente numerable. As, todos nuestros esfuerzos hasta el nal del tema consistirn en comprender qu condiciones hay que suponer en un espacio prehilbertiano para que exista una base ortonormal; lo que nos llevar primero a denir la nocin de espacio de Hilbert y posteriormente la de espacio de Hilbert separable. El resultado nal del tema ser que esencialmente existen dos espacios de Hilbert separables sobre k = R C, a saber, kn y 2 . Para la elaboracin de este tema hemos utilizado el captulo II de [Ber77] y algunas cuestiones puntuales del captulo 3 de [DP99]. 1. Espacios prehilbertianos

Denicin XII.1.1. Un espacio prehilbertiano es un espacio vectorial V sobre k junto con una aplicacin V V k; (u, v) u v, llamada producto escalar, tal que (a) u v = v u, para todo u y v V; (b) (u + v) w = u w + v w, para todo u, v y w V; (c) (u) v = u v, para todo k y u y v V. (d) u u 0, para todo u V, y u u = 0, si, y slo si, u = 0. Ejemplos XII.1.2. i) El espacio vectorial Rn es un espacio prehilbertiano con el producto escalar u v = vt u =
i =1

ui vi ,

MANUALES UEX

donde v = (v1 , v2 , . . . , vn )t y u = (u1 , u2 , . . . , un )t Rn . Ntese que este espacio prehilbertiano no es ms que el espacio vectorial eucldeo Rn con el producto escalar usual que fue estudiado con detalle en el tema V. ii) El espacio vectorial Cn es un espacio prehilbertiano con el producto escalar u v = v u =
i =1

ui vi ,

310

donde v = (v1 , v2 , . . . , vn )t y u = (u1 , u2 , . . . , un )t Cn , y v es el adjunto (es decir, el conjugado y traspuesto) de v. Recurdese que este espacio prehilbertiano ya apareci en el tema V cuando comentamos el caso de las matrices hermticas.

MTODOS MATEMTICOS PARA ESTADSTICA

iii) En el espacio vectorial complejo de las funciones f : {1, . . . , n} R C el producto escalar f g=

t =1

f (t) g(t)

dene una estructura de espacio prehilbertiano. iv) El espacio vectorial V de las sucesiones de nmeros reales casi nulas, esto es el conjunto de sucesiones de nmeros reales x = ( xn )nN que son cero a partir de un cierto subndice, con el producto escalar xy =

n =1

xn yn

tiene una estructura de espacio prehilbertiano. v) El espacio vectorial de dimensin innita1


2

= {( xn )nN | xn C tales que

n =1

| x n |2 < },

con el producto escalar xy = xn yn

n =1

es un espacio prehilbertiano. Tal y como veremos en el siguiente tema este espacio es, en un cierto sentido, el ejemplo ms importante de espacio prehilbertiano. vi) El espacio vectorial de las funciones continuas en el intervalo [ a, b], donde a < b, con el producto escalar f g=
b a

f ( x ) g( x )dx

tiene estructura de espacio prehilbertiano. Los axiomas (b) y (c) para un espacio prehilbertiano se pueden expresar como sigue: el producto escalar u v es aditivo y homogneo en el primer factor. Las dos primeras propiedades recogidas en el siguiente resultado arman que el producto escalar es aditivo y homogneo-conjugado en el segundo factor. Notacin XII.1.3. En lo sucesivo, escribiremos P para denotar un espacio prehilbertiano genrico. Obsrvese que, si V es un espacio prehilbertiano cualquiera y L es un subespacio vectorial de V, entonces L tambin es un espacio prehilbertiano.
= {( xn )nN | xn C tales que =1 | xn |2 < }, es un espacio n vectorial no es trivial, por lo que la hemos aadido al nal de esta seccin.
1La demostracin de que
2

MANUALES UEX
311

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Proposicin XII.1.4. Sea P un espacio prehilbertiano. (a) (b) (c) (d) u (v + w) = u v + u w, para todo u, v y w P . u (v) = u v, para todo u y v P y k. u 0 = 0 u = 0, para todo u P . (u v) w = u w v w y u (v w) = u v u w, para todo u, v y w P. (e) Si u w = v w, para todo w P , entonces u = v.

Demostracin. (a) Usando los axiomas (a) y (b) de la denicin de espacio prehilbertiano, u (v + w) = (v + w) u = v u + w u = v u + w u = u v + u w. (b) Usando los axiomas (a) y (c) de la denicin de espacio prehilbertiano, u (v) = (v) u = v u = v u = (u v). (c) u 0 = u (0 + 0) = u 0 + u 0, de donde se sigue que u 0 = 0. Anlogamente se demuestra que 0 u = 0. (d) (u v) w = (u + (v)) w = u w + (v) w = u w + (1)v w = u w v w. La otra igualdad se demuestra de forma anloga. (e) Supongamos que u w = v w, para todo w P . Entonces (u v) w = u w v w = 0, para todo w P ; en particular, (u v) (u v) = 0, de donde se sigue que u = v, por el axioma (d) de la denicin de espacio prehilbertiano. Denicin XII.1.5. En un espacio prehilbertiano P se dene la norma de v P como v := (v v)1/2 . Veamos que la denicin anterior se ajusta a la denicin de norma estudiada anteriormente. Proposicin XII.1.6. Sea P un espacio prehilbertiano. (a) (b) v > 0, cuando v = 0, y v = 0 si, y slo si, v = 0. v = || v , para todo v k y v P .

MANUALES UEX

Demostracin. El apartado (a) es inmediato a partir del axioma (d) de la denicin de espacio prehilbertiano y de la relacin 0 0 = 0. En cuanto al (b), basta observar que v 2 = (v) (v) = (v v) = ||2 v 2 . Veamos nalmente que nuestra denicin de norma en un espacio prehilbertiano verica la desigualdad triangular. Desigualdad triangular. Sea P un espacio prehilbertiano. Entonces u+v u + v ,

312

MTODOS MATEMTICOS PARA ESTADSTICA

para todo u y v P . Demostracin. Si designamos por Re() la parte real de un nmero complejo , es evidente que |Re()| ||. Aplicando la desigualdad de CauchySchwarz en los pasos adecuados, u+v
2

= u = u u

2 2 2

+ v + v + v

2 2 2

+uv+vu = u + 2Re(u v) u +2 u
2

+ v
2

+uv+uv

+ v

+ 2| u v |

v = ( u + v )2 .

De todo lo anterior se deduce que Corolario XII.1.7. Todo espacio prehilbertiano P tiene una estructura natural de espacio normado determinada por la norma v := (v v)1/2 . Recurdese que todo espacio normado (V, ) tiene una estructura natural de espacio mtrico determinada por la mtrica d(u, v) := u v . Luego, podemos concluir que todo espacio prehilbertiano es un espacio mtrico. En el tema VIII vimos algunos ejemplos de espacios normados, otro ejemplo de espacio normado es el siguiente: Ejemplos XII.1.8. i) Sea p un entero positivo. En el espacio vectorial, x = ( xn )nN de nmero complejos tales que
n =1 p,

de la sucesiones

|xn | p < +,

la aplicacin x = ( 1 | xn | p )1/p es una norma. La desigualdad n= triangular para esta norma es la desigualdad de Minkowski que veremos ms adelante. La norma que hemos denido en un espacio prehilbertiano verica la siguiente propiedad: Regla del paralelogramo. Sea P un espacio prehilbertiano. Entonces u+v para todo u y v P . Demostracin. Se tiene que u + v 2 = (u + v) (u + v) = u u + u v + v u + v v = u 2 + v 2 + (u v) + (v u), y sustituyendo v por v, que u v 2 = u 2 + v 2 (u v) (v u). Por consiguiente u + v 2 + u v 2 = 2 u 2 + 2 v 2.
2 2 2

+ uv

= 2( u

+ v 2 ),

MANUALES UEX
313

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Desigualdad de Cauchy-Schwarz. Sea P un espacio prehilbertiano. Entonces,

|u v| u

v ,

para todo u y v P , y se da la igualdad cuando u = v, para = (u v)/(v v ). Demostracin. Sea k tal que || = 1 y (v u) = |v u|. Si R, entonces (XII.1.1)

(v v)2 2|u v| + (u u) = (v u) (v u) 0.

Entendiendo (v v)2 2|u v| + (u u) como un polinomio de segundo grado en , de la desigualdad (XII.1.1) se sigue que su discriminante ha de ser negativo o cero, es decir, 4|u v|2 4(u u)(v v) 0, y concluimos que

|u v|2 (u u)(v v).


La segunda parte de la demostracin se deja como ejercicio al lector. Terminamos esta seccin mostrando un resultado sobre convergencia en espacios prehilbertianos. Proposicin XII.1.9. Sea P un espacio prehilbertiano. (a) Si un u y vn v, entonces un vn u v. (b) Si (un )nN y (vn )nN son sucesiones de Cauchy, entonces la sucesin un vn es una sucesin de Cauchy de escalares (y por lo tanto convergente). Demostracin. (a) Para todo n 1, se tiene que un vn u v = (un u) (vn v) + u (vn v) + (un u) v. Empleando la desigualdad triangular del mdulo y la desigualdad de Cauchy-Schwarz, se tiene que |un vn u v| un u vn v + u vn v + un u v ; evidentemente el segundo miembro tiende a cero cuando n tiende hacia innito. (b) Anlogamente, |un vn um vm | un um vn vm + um vn vm + un um vm , para todo m y como um y vm estn acotados (pues toda sucesin de Cauchy en un espacio normado, y los prehilberianos lo son, est acotada), el segundo miembro tiende a cero cuando n y m tienden hacia innito.

MANUALES UEX
314

MTODOS MATEMTICOS PARA ESTADSTICA

Espacios

p.

El conjunto de todas las sucesiones ( xn ) de escalares con la suma y multiplicacin denidas como sigue

( x1 , x2 , . . . ) + ( y1 , y2 , . . . ) = ( x1 + y1 , x2 + y2 , . . . ) ( x1 , x2 , . . .) = (x1 , x2 , . . .)
es un espacio vectorial sobre k. El conjunto de todas las sucesiones de escalares acotadas es un subespacio vectorial propio del espacio vectorial de la sucesiones de escalares. El conjunto de todas la sucesiones de escalares convergentes es un subespacio vectorial propio del espacio vectorial de la sucesiones de escalares acotadas. La vericacin de que los anteriores son realmente espacios vectoriales es muy fcil. En el siguiente caso la tarea es mucho ms difcil. Denotaremos por p , p 1 al conjunto de todas las sucesiones ( xn ) de nmeros complejos tales que 1 | xn | p < . n= Vamos a demostrar que p es un espacio vectorial. Como p es un subconjunto de un subespacio vectorial, concretamente el espacio vectorial de todas las sucesiones de nmeros complejos, basta demostrar que si ( xn ) e (yn ) p y C, entonces ( xn + yn ) p y (xn ) p . Para comprobar la segunda propiedad es suciente observar que

n =1

|xn | p = || p |xn | p < .


n =1

La condicin de Minkowski

1 n=

| xn + yn
1/p

|p

< se sigue de la siguiente desigualdad

n =1

| xn + yn | p

n =1

1/p

| xn | p

n =1

1/p

|yn | p

La demostracin de la desigualdad de Minkowski se basa en la desigualdad de Hlder. Ambas desigualdades estn demostradas a continuacin.

n =1

| xn yn | | xn |
n =1

1/p p

n =1

|yn |

1/q q

Demostracin. En primer lugar observamos que x1/p 1 1 x+ p q

MANUALES UEX
315

Desigualdad de Hlder. Sean p > 1, q > 1 y 1/p + 1/q = 1. Para cualquier par de sucesiones de nmeros complejos ( xn ) e (yn ) se tiene que

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

para 0 x 1. Sean a y b dos nmeros reales no negativos tales que a p bq . Entonces 0 a p /bq 1 y por consiguiente tenemos que a bq/p Como q/p = 1 q, obtenemos que a b1 q 1 ap 1 + . p bq q 1 ap 1 q + q. pb

Multiplicando en ambos miembros por bq obtenemos (XII.1.2) ab ap bq + . p q

Hemos demostrado (XII.1.2) suponiendo que a p bq . Un argumento similar sirve para demostrar (XII.1.2) cuando bq a p . Por consiguiente la desigualdad puede ser usada para cualesquiera a y b 0. Usando (XII.1.2) con a=
n k =1

|xj |
1/p

b=
n k =1

|y j |
1/q

| xk | p
|y j |
1/p

|yk |q
|y j |q
k =1

donde n N y 1 j n, obtenemos que

|xj |

k =1

| xk | p

k =1

|yk |q
n

1/q

1 p

|xj | p
k =1

| xk |

+
p

1 q

|yk |

.
q

Sumando estas desigualdades para j = 1, . . . , n obtenemos

MANUALES UEX

k =1

| xk | p

k =1 1/p

|x j ||y j |
k =1

|yk |q

1/q

1 1 + = 1; p q

tomando ahora n conseguimos la desigualdad de Hlder. Desigualdad de Minkowski. Sea p 1. Para cualesquiera dos sucesiones ( xn ) e (yn ) de nmeros complejos se tiene que

316

n =1

| xn + yn |

1/p p

n =1

| xn |

1/p p

n =1

|yn |

1/p p

MTODOS MATEMTICOS PARA ESTADSTICA

Demostracin. Para p = 1 basta con usar la desigualdad triangular para el valor absoluto. Si p > 1, entonces existe q tal que 1/p + 1/q = 1. Entonces, por la desigualdad de Hlder, tenemos que

n =1

| x n + y n | p = | x n + y n | | x n + y n | p 1
n =1 n =1

| x n | | x n + y n | p 1 +
1/p

n =1

| y n | | x n + y n | p 1
1/q

n =1

| xn | p
1/p

n =1

| x n + y n | q ( p 1)
1/q

n =1

|yn | p

n =1

| x n + y n | q ( p 1)

Como q( p 1) = p,
n =1

| xn + yn |

n =1

| xn |

1/p p

n =1

|yn |

1/p p

n =1

| xn + yn |

1(1/p) p

de donde se sigue la desigualdad de Minkowski.

2.

Sistemas ortogonales. Sucesiones ortonormales

Denicin XII.2.1. Sea P un espacio prehilbertiano. Se dice que dos vectores u y v P son ortogonales cuando u v = 0. La relacin de ortogonalidad es simtrica, pero no es reexiva. Adems, todo vector es ortogonal a 0. Proposicin XII.2.2. Sea P un espacio prehilbertiano. Si v P es ortogonal a cada uno de los vectores u1 , . . . , un P , entonces es ortogonal a cualquier combinacin lineal suya.
n Demostracin. Si u = i=1 i ui , i k, i = 1, . . . , n, entonces se tiene que n v u = i (v ui ) = 0. i =1

Denicin XII.2.3. Sea P un espacio prehilbertiano. Se dice que un subconjunto arbitrario S de P \ {0} es un sistema ortogonal cuando u v = 0 para cualquier par de elementos distintos de S. Si, adems, v = 1, para todo v S, entonces se dice que S es un sistema ortonormal.

MANUALES UEX
317

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Cualquier sistema ortogonal de vectores puede ser normalizado. En efecto, si S es un sistema ortogonal, entonces la familia S1 = v |vS v

es un sistema ortonormal. Ambos sistemas son equivalentes en el sentido de que generan el mismo subespacio vectorial de P . Corolario XII.2.4. En un espacio prehilbertiano todo sistema ortogonal es linealmente independiente. Demostracin. Sean P un espacio prehilbertiano y S P un sistema ortogon nal. Supongamos que i=1 i vi = 0, para ciertos v1 , . . . , vn S y 1 , . . . , n k. Entonces, 0=

i =1

0 ( i vi ) = j v j
i =1 j =1

( i vi ) =

i =1

| i |2

vi

como vi > 0, para todo i = 1, . . . , n, se sigue que i = 0, para todo i = 1, . . . , n. Luego, v1 , . . . , vn son linealmente independientes. Ejemplos XII.2.5. i) Sea (i )iN una sucesin cualquiera de escalares. En el espacio prehilbertiano de las sucesiones casi nulas, la sucesin v(1) = (1 , 0, . . . , ), v(2) = (0, 2 , 0, . . . , ), v(3) = (0, 0, 3 , 0, . . . , ), . . . forma un sistema ortogonal. ii) En el espacio prehilbertiano de funciones continuas en el intervalo [, ], la sucesin de funciones (sn )nN de trmino general sn (t) = sen(nt) constituye un sistema ortogonal, es decir,

sen(mt) sen(nt)dt = 0

si

m = n.

Anlogamente, la sucesin (cn )nN de trmino general cn (t) = cos(nt) forma un sistema ortogonal. Adems, sn cm = 0, para todo m y n. iii) En el espacio prehilbertiano de las funciones f : {1, . . . , n} R C, las n funciones no nulas del conjunto

MANUALES UEX

S=

sen

2kt n

, cos

2kt n

| k = 0, 1, . . .

n 2

donde [ x ] denota el mayor entero menor o igual que x, forman un sistema ortogonal. Teorema XII.2.6. Sea P un espacio prehilbertiano. (a) Teorema de Pitgoras. Si u y v P son ortogonales, entonces u+v
2

318

= u

+ v

MTODOS MATEMTICOS PARA ESTADSTICA

(b) Teorema de Pitgoras generalizado. Si {v1 , . . . , vn } es un sistema ortogonal de vectores de P , entonces

i =1

vi

i =1

vi

Demostracin. (a) Como u y v son ortogonales, u v = 0 = v u, de donde se sigue que u+v


2

= (u + v) (u + v) = u u + u v + v u + v v = uu+vv = u
2

+ v 2.

(b) Procedemos por induccin sobre n. Si n = 2, entonces v1 + v2 2 = v1 2 + v2 2 por el teorema de Pitgoras. Supongamos que n > 2 y que el teorema es cierto para n 1 vectores, es decir,
n 1 i =1 2

n 1

vi

i =1

vi

n Sea u = i=11 vi y v = vn . Como u y v son ortogonales, tenemos que

i =1

vi

= u+v
n 1

= u + vn

+ v =

n 1

=
vi
2

i =1

vi

+ vn

i =1

vi

i =1

Igualdad de Parseval (caso nito). Si {v1 , . . . , vn } es un sistema ortogonal n de vectores de P y v = i=1 i vi , entonces v y i = ( v vi ) / vi
2, 2

i =1

para cada i {1, . . . , n}.

Demostracin. Es una consecuencia inmediata del teorema de Pitagoras generalizado, por lo que los detalles de su demostracin se dejan como ejercicio al lector. Estamos ya en disposicin de enunciar y demostrar el resultado principal de esta seccin.

MANUALES UEX
319

| i |2

vi

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Igualdad y desigualdad de Bessel. Sean P un espacio prehilbertiano y {u1 , . . . , un } un sistema ortonormal de vectores de P. Para todo u P se cumple que u ( u ui ) ui
i =1 n 2

= u

| u u i |2 ;
i =1

en particular,
i =1

| u u i |2

u 2.
2

n Demostracin. Dados 1 , . . . , n k, se tiene que i=1 i ui n 2 , por la igualdad de Parseval. Por otra parte, i =1 | i |

= in=1 i ui + | i |2
i =1 n

u i ui
i =1

= u = u = u

i u ui i u ui + i i

i =1 n

i ui

uu
n

i =1

i ui
n i =1

| u u i |2 + | u u i i |2
i =1 i =1

i =1 n

i =1 n

En particular, haciendo i = u ui , i = 1, . . . , n, obtenemos la igualdad de Bessel; la desigualdad se deduce inmediatamente. Obsrvese que la desigualdad de Bessel para n = 1 es esencialmente la desigualdad de Cauchy-Schwarz. Nota XII.2.7. Proyeccin ortogonal. Segn la demostracin de la igualdad de Bessel, resulta claro que la eleccin i = u ui , i = 1, . . . , n, hace mnimo n al nmero u i=1 i ui , y por lo tanto proporciona la mejor aproximacin a u mediante una combinacin lineal de u1 , . . . , un . Adems, solamente un conjunto de coecientes da la mejor aproximacin. Obsrvese tambin que si n > m, entonces en dicha aproximacin mediante u1 , . . . , un , los m primeros coecientes son precisamente los requeridos par la mejor aproximacin mediante u1 , . . . , um . n Por otra parte, si v = i=1 (u ui )ui y w = u v, es claro que w ui = 0, para todo i = 1, . . . , n, luego w v = 0. Por lo tanto, se tiene una descomposicin u = v + w, tal que v es combinacin lineal de u1 , . . . , un y w es ortogonal a ui , i = 1, . . . , n. Es fcil ver que esta descomposicin es nica. El vector v se llama proyeccin ortogonal de u en el subespacio L generado por { u1 , . . . , u n }. Obsrvese que, segn lo dicho anteriormente, la proyeccin ortogonal v de u es el vector de L tal que d(u, v) es mnima.

MANUALES UEX
320

MTODOS MATEMTICOS PARA ESTADSTICA

Sucesiones ortonormales. Denicin XII.2.8. Sea P un espacio prehilbertiano. Una sucesin de vectores (vn )nN de P se llama sucesin ortonormal si {vn | n N} es un sistema ortonormal, es decir, si vi v j = 0, para i = j, y vi = 1, para todo i N. La condicin de ortonormalidad de una sucesin de vectores se puede expresar en trminos de la funcin delta de Kronecker: vi v j = ij = Ejemplos XII.2.9. i) Si (vn )nN es una sucesin de vectores no nulos ortogonales entre s, la sucesin (un )nN tal que un = vn / vn , n N, es ortonormal. ii) Con la notacin del ejemplo XII.2.5.ii), se tiene que c0 = 2 y sn 2 = cn 2 = , para n N. Denimos v0 ( t ) v2n (t) v2n+1 (t) 0 si 1 si i = j, i = j.

= = =

1 , 2 1 cos(nt), 1 sen(nt),

n N, n N.

Entonces, (vm )m0 es una sucesin ortonormal. iii) En el espacio prehilbertiano de las sucesiones casi nulas, sea e1 = (1, 0, . . . , ), e2 = (0, 1, 0, . . . , ), e3 = (0, 0, 1, 0, . . . , ), . . . La sucesin (ei )iN es ortonormal. iv) Con la misma notacin que en el apartado anterior, en 2 la sucesin (ei )iN es ortonormal. Es claro que, dado x = (i )iN 2 , se cumple que x ei = i , donde e1 = (1, 0, . . . , ), e2 = (0, 1, 0, . . . , ), e3 = (0, 0, 1, 0, . . . , ), . . . En particular, se cumple que i=1 |x ei |2 < ; este resultado es vlido para cualquier sucesin ortonormal en un espacio de Hilbert, como consecuencia de la desigualdad de Bessel. Corolario XII.2.10. Sea P un espacio prehilbertiano. Si (ui )iN es una sucesin ortonormal, entonces para todo u P se cumple que

i =1

| u u i |2

u 2.

En particular, la sucesin (u ui )iN converge a cero cuando i tiende hacia innito.

MANUALES UEX
321

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Demostracin. Para la primera armacin, basta tener en cuenta que la desigualdad de Bessel se verica para todo n N. La segunda es consecuencia de la condicin necesaria de convergencia de series de nmeros reales.
El corolario anterior asegura que la serie i=1 |u ui |2 es convergente para todo u P . En otras palabras, la sucesin (u ui )iN es un elemento de 2 . De modo que podemos decir que una sucesin ortonormal en P induce una aplicacin de P a 2 . La expansin

(XII.2.3)

i =1

( u ui ) ui

se llama serie de Fourier generalizada de u. Los escalares i = u ui son los coecientes generalizados de Fourier de u respecto de la sucesin ortonormal (ui )iN . Como hemos reseado, este conjunto de coecientes proporciona la mejor aproximacin de u en el espacio vectorial generado por {ui | i N}. Sin embargo, en general, no sabemos cundo la serie (XII.2.3) es convergente; volveremos a esta cuestin en el siguiente tema. Terminamos esta seccin mostrando un procedimiento sistemtico (aunque innito) para ortonormalizar cualquier sucesin linealmente independiente de vectores de un espacio prehilbertiano: Proceso de ortonormalizacin de Gram-Schmidt (caso general). Sea P un espacio prehilbertiano. Si (vi )iN es una sucesin de vectores linealmente independientes de P , existe una sucesin ortonormal (ui )iN tal que {u1 , . . . , un } genera el mismo subespacio vectorial que {v1 , . . . , vn }, para cada n N. Demostracin. Los vectores un se denen recursivamente. Sea u1 = v1 / v1 . Supongamos que ya hemos construido los vectores ortonormales u1 , . . . , un1 , de forma que el espacio vectorial que genera {u1 , . . . , u j }, es el mismo que el generado por {v1 , . . . , v j }, para cada j = 1, . . . , n 1. Sea w = vn
n 1 i =1

(vn ui )ui ; entonces w es ortogonal a u1 , . . . , un1 . Denamos un = w/

w ;

MANUALES UEX
322

esto es vlido, ya que w = 0 implicara que vn es una combinacin lineal de u1 , . . . , un1 y por tanto de v1 , . . . , vn1 , en contra de la independencia de la sucesin (vi )iN . El lector puede vericar fcilmente que toda combinacin lineal de u1 , . . . , un es tambin una combinacin lineal de v1 , . . . , vn , y viceversa. El proceso de Gram-Schmidt se puede aplicar a un conjunto nito de vectores v1 , . . . , vn linealmente independientes; en este caso, se trata de un algoritmo que proporciona un sistema ortonormal de vectores {u1 , . . . , un }

MTODOS MATEMTICOS PARA ESTADSTICA

tal que el espacio vectorial generado por u1 , . . . , u j es el mismo que el generado por v1 , . . . , v j . En particular: Corolario XII.2.11. Si P es un espacio prehilbertiano de dimensin nita, entonces P posee una base de vectores ortonormales. 3. Espacios de Hilbert

Denicin XII.3.1. Un espacio prehilbertiano completo se llama espacio de Hilbert. El siguiente ejemplo muestra que no todos los espacios prehilbertianos son espacios de Hilbert, es decir, que existen espacios prehilbertianos que no son completos. Ejemplo XII.3.2. Sabemos que el espacio vectorial V de las sucesiones de nmeros reales casi nulas, con el producto escalar uv =
i 1

ui vi

tiene una estructura de espacio prehilbertiano. Veamos que V no es completo construyendo una sucesin de Cauchy que no tenga lmite en V. La sucesin propuesta es (v(n) )nN con v (1) v (2) v (3) v(n)

= (1, 0, 0, . . .) = (1, 1/2, 0, . . .) = (1, 1/2, 1/3, 0 . . .) . . . = (1, 1/2, 1/3, . . . , 1/n, 0) . . .
2 m 2

Para todo m > n 1, v(m) v(n)


2

= (0, . . . , 0,

1 1 , . . . , , 0, . . .) n+1 m

k = n +1

1 k

Dado que la serie k1 1/k2 es convergente, se cumple que d(v(m) , v(n) ) = v(m) v(n) tiende a cero cuando n tiene hacia innito. Luego, (v(n) )nN es una sucesin de Cauchy de elementos de V. Supongamos ahora que la sucesin es convergente en V, entonces existe un elemento de V, v = (1 , 2 , . . . , N , 0, . . .), tal que lmn v(n) = v. Si n N, n 2 2 1 v(n) v = k , k k =1

MANUALES UEX
323

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

haciendo tender n hacia innito, obtenemos que k1 |1/k k |2 = 0, de donde se sigue que k = 1 k, para todo k 1, en contradiccin con que v est en V. Ejemplos de espacios de Hilbert son Rn y Cn con sus productos escalares usuales (vase el ejemplo XII.1.2.i)-ii)). Sin embargo, el ejemplo ms importante es el siguiente. Ejemplo XII.3.3. El espacio de Hilbert 2 . Veamos que el espacio vectorial del conjunto de todas las sucesiones x = ( xn )nN de nmeros complejos tales que 1 | xn |2 < con el producto escalar n= xy = xn yn
2.

n =1

es completo. Supongamos que x(1) , x(2) , . . . , x(n) , . . . , es una sucesin de Cauchy en Sea x(n)

(n) ( x i ) i N .

Para todo i N, se tiene que


(n) 2

xi

(m)

xi
(1)

j =1

xj
(n)

(m)

xj

(n) 2

= x(m) x(n)

luego la sucesin xi , xi , . . . , xi , . . . , de componentes i-simas es una sucesin de Cauchy. Como el conjunto de los nmeros complejos es completo,
existe xi C tal que lmn xi = xi . Vamos a demostrar que i=1 | xi |2 < 2 y que ( x(n) ) , es decir, que la sucesin x = ( xi )iN est en nN converge a x. Dado > 0, sea N N tal que x(m) x(n) 2 < , para todo m, n N. Fijemos un entero positivo r; entonces se tiene que

(2)

(n)

i =1

xi

(m)

xi

(n) 2

x(m) x(n)

< ,

supuesto que m, n N; haciendo tender m hacia innito,

MANUALES UEX

i =1

xi xi

(n) 2

<

supuesto que n N; como r es arbitrario, (XII.3.4)

i =1

xi xi

(n) 2

< ,

siempre que

n N.
(N)

324

En particular, i1 xi xi pertenece a
2;

(N) 2

< , por lo tanto la sucesin ( xi xi


(N)

) i N

sumndole la sucesin ( xi

)iN se obtiene ( xi )iN , por lo

MTODOS MATEMTICOS PARA ESTADSTICA

tanto, x = ( xi )iN pertenece a 2 . Luego, de (XII.3.4) se sigue que x x(n) < , para todo n N. Por lo tanto, x(n) converge a x. Base ortonormal de un espacio de Hilbert. En el espacio de Hilbert 2 , consideramos la sucesin ortogonal (en )nN tal que e1 = (1, 0, . . .), e2 = (0, 1, 0, . . .), e3 = (0, 0, 1, 0, . . .), . . . . Si x = (1 , 2 , . . . , n , 0, . . .) es una sucesin que tiene a lo sumo un nmero nito de trminos no nulos, n es claro que x = i=1 i ei ; por tanto, se podra escribir x=
i =1

i ei ,

entendiendo que i = 0 para todo i > n. Consideremos ahora x = (i )iN 2 Qu sentido se le puede dar a la expresin x = i=1 i ei ? Parece natural denir i=1 i ei como el lmite de la n sucesin de sumas parciales" xn = i=1 i ei ; este lmite existe y su valor es x, ya que x xn
2

= (0, . . . , 0, n+1 , n+2 , . . .)

i = n +1

| i |2

tiende a cero cuando n tiende hacia innito. Veamos que esta situacin es general para sucesiones ortonormales arbitrarias en espacios de Hilbert. Notacin XII.3.4. Si (vi )iN una sucesin de vectores en un espacio prehilbertiano P tal que lm
n i =1

vi = v P , escribiremos v =

i =1

vi .

Lema XII.3.5. Sean P un espacio prehilbertiano, (ui )iN una sucesin ortonormal y (i )iN una sucesin de escalares tales que i=1 |i |2 < . La sucesin (xn )nN n de trmino general xn = i=1 i ui es de Cauchy. Demostracin. Basta tener en cuenta que, por la igualdad de Parseval (caso nito), se tiene que xm xn
2

i = n +1

i ui

i = n +1

i ui

i = n +1

| i |2 ,

para m > n > 0, que tiende a cero cuando n tiende hacia innito. Teorema XII.3.6. Sean H un espacio de Hilbert, (ui )iN una sucesin ortonormal y (i )iN una sucesin de escalares. La serie i=1 i ui es convergente si, y slo si, 2 es convergente. la serie i=1 |i |

MANUALES UEX
325

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


n Demostracin. Si i=1 |i |2 < , entonces la sucesin xn = i=1 i ui es una sucesin de Cauchy, por el lema XII.3.5. Esto implica la convergencia de la serie 1 i ui debido a la completitud de H. n= Recprocamente, si la serie i=1 i ui es convergente, entonces de la igualdad de Parseval (caso nito)

i = n +1

i ui

i = n +1

| i |2 ,

para m > n > 0, se sigue la convergencia de la serie i=1 |i |2 , pues los n 2 forman una sucesin de Cauchy en R. nmeros n = i=1 |i |

Proposicin XII.3.7. Sean H un espacio de Hilbert y (ui )iN una sucesin orto normal. Supongamos que x = i=1 i ui e y = i=1 i ui , en el sentido del teorema XII.3.6. Entonces, (a) x y = i=1 i i , siendo la serie absolutamente convergente. (b) x ui = i . (c) x 2 = i=1 |i |2 = i=1 |x ui |2 .
n n Demostracin. (a) Sean xn = i=1 i ui e yn = i=1 i ui . Por denicin lmn xn = x y lmn yn = y, de donde se sigue que xn yn x y, por el apartado n n (a) de la proposicin XII.1.9. Dado que xn yn = i,j i j (ui u j ) = i=1 i j , se tiene que x y = i=1 i j . Adems, sustituyendo (i )iN y (i )iN por (|i |)iN y (|i |)iN , respectivamente, resulta claro que la convergencia es absoluta. (b) Es un caso particular del apartado (a), con i = 1 y j = 0, para todo i = j. (c) Basta tomar x = y en el apartado (a).

De los resultados anteriores y del corolario XII.2.10 se sigue que en un espacio de Hilbert H la serie i=1 (x ui )ui es convergente para todo x H, siendo (ui )iN una sucesin ortonormal. Sin embargo, puede ocurrir que converja a un vector distinto de x.

MANUALES UEX

Supongamos, pues, que (un )nN es una sucesin ortogonal en un espacio de Hilbert H. Dado x H, por el corolario XII.2.10, los escalares i = x ui , i N, verican que
i =1

| i |2

< .

326

Luego, de acuerdo con el teorema XII.3.6, se puede considerar el vector y = i=1 i ui , y, por la proposicin XII.3.7, y ui = i = x ui , para todo i N. Cundo se puede concluir que x = y? Desde luego se tiene que (y x) ui = y ui x ui = 0, para todo i N; por lo tanto, se podra concluir que

MTODOS MATEMTICOS PARA ESTADSTICA

x = y si los vectores de la sucesin (ui )iN tuviesen la siguiente propiedad: el nico vector de H que es ortogonal a ui , para todo i N, es el cero. Denicin XII.3.8. Sea H un espacio de Hilbert. Se dice que un subconjunto arbitrario S de H es un conjunto total cuando el nico vector z H tal que z v = 0, para todo v S, es z = 0. En particular, una sucesin de vectores (vi )iN H se llama sucesin total cuando z vi = 0, para todo i N = z = 0. Aqu el nombre de total hace referencia a la siguiente propiedad: un sistema ortogonal de un espacio de Hilbert H es total si, y slo si, no est contenido en ningn otro sistema ortogonal de H, cuya comprobacin proponemos como ejercicio al lector (ejercicio 12). Ejemplos XII.3.9. i) En un espacio prehilbertiano P cualquiera, el propio P es un conjunto total de vectores, pues si z x = 0, para todo x P , en particular z z = 0, luego z = 0. ii) Cualquier sistema de generadores S de un espacio prehilbertiano P es un conjunto total. En efecto, si z P es ortogonal a todo vector de S , ser ortogonal a cualquier combinacin lineal de vectores de S ; en particular, z z = 0, luego z = 0. iii) En el espacio de Hilbert 2 , la sucesin de vectores e1 = (1, 0, . . .), e2 = (0, 1, 0, . . .), e3 = (0, 0, 1, 0, . . .), . . . es total. Tambin lo es la sucesin v1 = (1, 0, . . .), v2 = (1, 1, 0, . . .), v3 = (1, 1, 1, 0, . . .), . . . Proposicin XII.3.10. Sea H un espacio de Hilbert. Entonces, una sucesin ortonormal (ui )iN de vectores de H es total si, y slo si, x= para todo x H.
i =1

( x ui ) ui ,

x=

i =1

( x ui ) ui ,

entonces es claro que x ui = 0, para todo i N, implica que x = 0. Recprocamente, sea x H y supongamos que la sucesin ortonormal (ui )iN es total. Sea y=
i =1

( x ui ) ui .

MANUALES UEX
327

Demostracin. Si cada x H admite la representacin

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Esta suma existe en H por el corolario XII.2.10 y el teorema XII.3.6. Como, para todo j N, se tiene que

( x y ) ui = x u j

i =1

( x ui ) ui

uj = x uj

i =1

( x ui )

ui u j

= x u j x u j = 0,
entonces, al ser (ui )iN total se sigue que x y = 0 y, por consiguiente, que x = i =1 ( x u i ) u i . Igualdad de Parseval (caso general). Una sucesin ortonormal (ui )iN en un espacio de Hilbert H es total si, y slo si, (XII.3.5) para todo x H. Demostracin. La implicacin directa es consecuencia inmediata de las proposiciones XII.3.10 y XII.3.7(c). Recprocamente, si se cumple (XII.3.5), el trmino de la derecha de la igualdad de Bessel, u ( u ui ) ui
i =1 n 2

i =1

| x u i |2 ,

= u

| u u i |2 ,
i =1

converge a cero cuando n tiende hacia innito, y por lo tanto lm u (u ui )ui


i =1 n 2

= 0;

de donde se sigue que la sucesin (ui )iN es total, por la proposicin XII.3.10.

Denicin XII.3.11. Se dice que una sucesin ortonormal (ui )iN en un espacio de Hilbert H es una base ortonormal si todo x H admite una nica representacin

MANUALES UEX

x= con i k para todo i N.

i =1

i ui ,

328

Nota XII.3.12. Sea H un espacio de Hilbert que contiene un conjunto nito de vectores {u1 , . . . , un } que es ortonormal y total. Si v H es un vector n arbitrario, entonces v i=1 (v ui ) ui es ortogonal a ui , i = 1, . . . , n, y por lo n tanto es nulo. As, v = i=1 (v ui ) ui , de donde se sigue que {u1 , . . . , un } es una base de H y, por lo tanto, que H es de dimensin nita. Por consiguiente,

MTODOS MATEMTICOS PARA ESTADSTICA

en un espacio de Hilbert de dimensin nita una base ortonormal es una base formada por vectores ortonormales. Ejemplo XII.3.13. La sucesin (en )nN descrita en el ejemplo XII.3.9 es una base ortonormal del espacio de Hilbert 2 que denominaremos base usual (o base cannica) de 2 . Proposicin XII.3.14. Una sucesin ortonormal en un espacio de Hilbert es base ortonormal si, y slo si, es total. Demostracin. Supongamos que (ui )iN es una base ortonormal en un espacio de Hilbert H. Sea z H, tal que z ui = 0, para todo i N. Por ser (ui )iN una base ortonormal, existen unos nicos j k, j = 1, 2, . . . , tales que z = 1 j u j . Teniendo en cuenta que j= 0 = z ui =

j =1

j uj

ui = i ,

para todo i N, concluimos que z = 0. Veamos ahora que una sucesin ortonormal total (ui )iN en un espacio de Hilbert H es una base ortonormal de H. En efecto, segn la proposicin XII.3.10 se tiene que x=
i =1

( x ui ) ui , i ui ,
2

para todo x H; luego, basta comprobar la unicidad de tal representacin. Si x= para ciertos i k, entonces 0 = xx
2 i =1

i =1

( x ui ) ui i ui
i =1

i =1

( x ui ) i ui

i =1

|(x ui ) i |2 ,

por la proposicin XII.3.7. De donde se sigue que (x ui ) = i , para todo i N. Espacios de Hilbert separables. No todos los espacios de Hilbert tienen bases ortonormales; a continuacin vamos a dar una condicin necesaria y suciente para que un espacio de Hilbert tenga una base ortonormal. Pero antes necesitamos introducir algunos conceptos generales sobre espacios mtricos.

MANUALES UEX
329

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Denicin XII.3.15. Sea ( X, d) un espacio mtrico. Se dice que una sucesin ( xn )nN de elementos de X es densa, si para cada x X existe una subsucesin de ( xn )nN que converge a x. Denicin XII.3.16. Se dice que un espacio mtrico ( X, d) es separable2 si contiene alguna sucesin densa. Dado que todo espacio de Hilbert es, en particular, un espacio mtrico, diremos que un espacio de Hilbert es separable si es separable como espacio mtrico. Lema XII.3.17. Toda sucesin densa en un espacio de Hilbert es total. Demostracin. Sean (vi )iN una sucesin densa en un espacio de Hilbert H y z H tal que z vi = 0, para todo i N. Por hiptesis, existe una subsucesin (vi )iN de (vi )iN convergente a z. Luego, por la proposicin XII.1.9, lmi (vi z) = z z = z 2 ; pero vi z = 0, para todo n N. Por consi guiente, z 2 = 0, es decir, z = 0; y concluimos que la sucesin (vi )iN es total. Teorema XII.3.18. Sea H un espacio de Hilbert. Las siguientes condiciones son equivalentes: (a) H es separable. (b) H tiene una base ortonormal (ui )iN . Demostracin. (a) (b) Si H es separable, entonces contiene alguna sucesin densa; luego, por el lema XII.3.17, contiene una sucesin total. Sea (vi )iN una sucesin total de elementos de H. De cualquier conjunto de vectores podemos extraer un subconjunto linealmente independiente que genera el mismo espacio vectorial, sea S un subconjunto linealmente independiente de {vi | i N} que genera al mismo espacio vectorial que {vi | i N}. Es claro que S es total; en efecto, si z es ortogonal a todos los elementos de S tambin lo ser a cualquier combinacin lineal suya, y por lo tanto a todo vi , i N, de donde se sigue que z = 0. Si S no es un conjunto nito, podemos considerarlo como una subsucesin de {vi | i N}. En cualquier caso, por el proceso de ortonormalizacin de Gram-Schmidt, existe un sistema ortonormal B que genera el mismo espacio vectorial que S . Este sistema ortonormal es total, por el razonamiento anterior; en consecuencia, B es una base ortonormal de H (vense la proposicin XII.3.14 y la nota XII.3.12) (b) (a) Sea (ui )iN una sucesin ortonormal total en H. Basta tener en cuenta que los elementos del subconjunto S = {1 u1 + . . . + i ui | i
2Recurdese que un espacio topolgico es denso si posee un subconjunto denso y

MANUALES UEX
330

numerable.

MTODOS MATEMTICOS PARA ESTADSTICA


Q, i N} forman una sucesin densa en H si k = R, y el subconjunto S = {(1 + i 1 )u1 + . . . + (i + i i )ui | i , i Q, i N} forman un sucesin n densa en H si k = C; ya que lmn i=1 (x ui )ui = x, para todo x H. Ejemplo XII.3.19. Sea H el espacio vectorial de todas las funciones f : R C que se anulan en todo R excepto en una cantidad numerable de puntos y tales que | f (x)|2 < .
f ( x )=0

H tiene estructura de espacio de Hilbert con el producto escalar


f g=
f ( x ) g( x )=0

f ( x ) g ( x ).

Sin embargo, este espacio de Hilbert no es separable ya que para cualquier sucesin de funciones ( f n )nN de H existen funciones no nulas f H tales que f f n = 0, para todo n N. Nota XII.3.20. Se puede demostrar que todo espacio de Hilbert (separable o no) contiene un subconjunto ortonormal total B ; tal conjunto se llama base ortonormal del espacio. Sin embargo; puede ser imposible enumerar los elementos de B en forma de sucesin. Es ms, en virtud del teorema XII.3.18, slo podremos encontrar subconjuntos ortonormales totales numerables en los espacios de Hilbert separables.

Espacios de Hilbert isomorfos. El espacio de Hilbert clsico. Denicin XII.3.21. Se dice que un espacio de Hilbert H1 es isomorfo a un espacio de Hilbert H2 si existe una aplicacin lineal biyectiva3 T : H1 H2 tal que T (x) T (y) = x y, para todo x e y H1 . La aplicacin T se dice que es un isomorsmo de espacios de Hilbert. Se comprueba fcilmente que el isomorsmo de espacios de Hilbert es una relacin de equivalencia. Teorema XII.3.22. Sea H un espacio de Hilbert separable. (a) Si H es de dimensin innita, entonces es isomorfo a 2 . (b) Si H tiene dimensin n > 0, entonces es isomorfo a kn .
3Esto es, un isomorsmo de espacios vectoriales.

MANUALES UEX
331

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Demostracin. (a) Sea (un )nN una sucesin ortonormal total en H. Sea x H. Denimos T (x) = (n )nN , donde n = x un , i = 1, 2, . . . . Por el teorema XII.3.6, T es una aplicacin biyectiva de H a 2 . Se comprueba fcilmente que es lineal. Adems, para n = x un , y n = y un , con x e y H y n N, se tiene que T ( x ) T ( y ) = ( n ) n N ( n ) n N =

n =1

n n = (x un )(y un )
n =1 n =1

n =1

(x

(y un )un = x

(y un )un

= x y.

As, concluimos que T es un isomorsmo de H a 2 . (b) La demostracin de este apartado se deja como ejercicio al lector. Como cualquier espacio de Hilbert separable de dimensin innita sobre los complejos es isomorfo al espacio 2 complejo, se sigue que cualesquiera dos espacios de Hilbert de este tipo son isomorfos. Lo mismo ocurre para los espacios de Hilbert reales; cualquier espacio de Hilbert separable de dimensin innita es isomorfo al espacio 2 sobre R. De modo que, en cierto sentido, existe un nico espacio de Hilbert separable de dimensin innita real y un nico espacio de Hilbert separable de dimensin innita complejo, que se llaman espacios de Hilbert clsicos real y complejo, respectivamente.

MANUALES UEX
332

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicios del tema XII Ejercicio 1. Comprobar que los espacios prehilbertianos del ejemplo XII.1.2 son efectivamente espacios prehilbertianos. Ejercicio 2. Sea V = Mn (C). Probar que la aplicacin V V C; ( A, B) tr( B A), donde B es la matriz adjunta (esto es, la traspuesta conjugada) de B es un producto escalar. Ejercicio 3. Probar que, en cualquier espacio prehilbertiano, se cumple que wu
2 2

+ wv

1 uv 2

+2 w

u+v 2

para todo u, v y w. Esta igualdad se conoce como identidad de Apolonio. Ejercicio 4. Sea (V, ) un espacio normado. Probar que proviene de un producto escalar si, y slo si, cumple la regla del paralelogramo. En este caso, probar que 1. si V est denido sobre los reales, 1 uv = u+v 2 uv 2 . 4 2. si V est denido sobre los complejos 1 u+v 2 uv 2 +i u+iv 2 i uiv 2 . 4 La igualdades anteriores se conocen como identidades de polarizacin. uv = Ejercicio 5. Probar que, en cualquier espacio prehilbertiano, u v + v w = u w si, y slo si, v = u + (1 )w, para algn [0, 1]. Ejercicio 6. Sean P un espacio prehilbertiano y ( xn )nN e (yn )nN dos sucesiones de elementos de P . Probar que, si lmn xn = 0 e (yn )nN es acotada, entonces lmn ( xn yn ) = 0. Ejercicio 7. En el espacio prehilbertiano de las sucesiones eventualmente nulas, ortonormalizar la sucesin de vectores v1 = (1, 0, . . . , ), v2 = (1, 1, 0, . . . , ), v3 = (1, 1, 1, 0, . . . , ), . . . Ejercicio 8. Sea P el espacio prehilbertiano de las intervalo [1, 1]. Probar que 1. La sucesin ( xn )nN de trmino general 0 si 1 t nt si 0 <t< xn (t) = 1 si 1/n t es de Cauchy. funciones continuas en el

0; 1/n; 1.

MANUALES UEX
333

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

2. La sucesin anterior no es convergente en P . 3. P no es un espacio de Hilbert. Ejercicio 9. Sea H = C 1 ([ a, b]), esto es, el espacio vectorial de las funciones reales diferenciables de derivada continua en [ a, b]. 1. Para f y g H se dene f g=
b a

f ( x ) g ( x )dx

Es un producto escalar en H? 2. Sea H = { f H | f ( a) = 0}. Es un producto escalar en H ? Es H un espacio de Hilbert? Ejercicio 10. Probar que para cualquier x en un espacio de Hilbert se cumple que x = sup y =1 | x y|. Ejercicio 11. Sean H1 , . . . , Hn espacios prehilbertianos y H = H1 . . . Hn . Probar que 1. Si x = ( x1 , . . . , xn ) e y = (y1 , . . . , yn ) H, entonces x y = x1 y1 + . . . + x n y n , dene un producto escalar en H. 2. Si H1 , . . . , Hn son espacios de Hilbert, entonces H tiene una estructura natural de espacio de Hilbert donde la norma de x = ( x1 , . . . , xn ) H es x1 2 + . . . + x n 2 . x = Ejercicio 12. Probar que un sistema ortogonal de un espacio de Hilbert H es completo si, y slo si, no est contenido en ningn otro sistema ortogonal de H.

MANUALES UEX
334

MTODOS MATEMTICOS PARA ESTADSTICA

PRCTICA 1

Vectores y MATLAB

sta y todas las dems prcticas estn pensadas para ser trabajadas delante de un ordenador con wevef instalado, y no para ser ledas como una novela. En vez de eso, cada vez que se presente un comando de wevef, se debe introducir el comando, pulsar la tecla Enter" para ejecutarlo y ver el resultado. Ms an, se desea que se verique el resultado. Asegrese de que se comprende perfectamente lo que se obtiene antes de continuar con la lectura. Aunque wevef es un entorno que trabaja con matrices, en esta prctica se aprender cmo introducir vectores por las o por columnas y a manejar algunas operaciones con vectores. Prerrequisitos: ninguno. 1. Vectores la

La introduccin de vectores la en wevef es muy fcil. Introdzcase el siguiente comando en la pantalla de wevef 1

bb vaI P Q
Hay una serie de ideas a destacar en este comando. Para introducir un vector, se escribe una apertura de corchete, los elementos del vector separados por espacios y un cierre de corchete. Se pueden usar tambin comas para delimitar las componentes del vector

El signo = es el operador de asignacin de wevef. Se usa este operador para asignar valores a variables. Para comprobar que el vector la IDPDQ ha sido asignado a la variable v introdzcase el siguiente comando en el indicador de wevef.
1El smbolo >> es el indicador de MATLAB. Se debe introducir lo que aparece tras el indica-

dor. Entonces se pulsa la tecla Enter" para ejecutar el comando.

MANUALES UEX
335

bb vaIDPDQ

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

bb v

1.1.

Rangos.

Algunas veces es necesario introducir un vector con componentes a intervalos regulares. Esto se realiza fcilmente con wevef con la estructura iniioXinrementoXfin. Si no se proporciona un incremento, wevef asume que es 1.

bb xIaHXIH
Se puede seleccionar el propio incremento.

bb xPaHXPXIH
Se puede ir incluso hacia atrs.

bb xQaIHXEPXI
O se le puede echar imaginacin.

bb xRaHXpiGPXPBpi
Hay veces, sobre todo cuando hay que pintar funciones, que se precisan un gran nmero de componentes en un vector.

bb xaHXFIXIH

MANUALES UEX

1.2.

Elimina la salida.

Se puede suprimir la salida de un comando de wevef aadiendo un punto y coma.

bb xaHXFIXIHY
Es muy til cuando la salida es muy grande y no se desea verla.

336

MTODOS MATEMTICOS PARA ESTADSTICA

1.3.

Espacio de trabajo de wevef.

Es posible obtener una lista de las variables en el espacio de trabajo en cualquier momento mediante el comando

bb who
Se puede obtener incluso ms informacin acerca de las variables con

bb whos
Se eliminar la asignacin hecha a una variable con

bb ler x bb who
Obsrvese que tambin se da el tamao de cada variable. Es posible mantener una ventana con la lista de variables usadas y su tamao. Para ello, en la barra superior seleccinese el men hesktop y actvese la opcin orkspe. Se puede obtener el tamao de un vector v con el comando

bb size@vA
La informacin que devuelve indica que el vector v tiene 1 la y 3 columnas. Aunque se puede entender al vector v como una matriz con 1 la y 3 columnas, tambin se puede entender como un vector la de longitud 3. Por ejemplo, prubese el siguiente comando:

bb length@vA

Es tambin fcil escribir vectores columna en wevef. Introdzcase el siguiente comando en el indicador.

bb waRYSYT
Observe que los smbolos de punto y coma delimitan las las de un vector columna. Prubense los siguientes comandos.

MANUALES UEX
337

2.

Vectores columna

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

bb bb bb bb

w who whos size@wA

El resultado indica que el vector w tiene 3 las y 1 columna. Aunque se puede ver al vector w como una matriz de 3 las y 1 columna, tambin es posible pensar en l como un vector columna de longitud 3. Prubese el siguiente comando.

bb length@wA

2.1.

Transposicin.

El operador en wevef para transponer es el apstrofe simple 9. Se puede cambiar as un vector la a un vector columna.

bb ya@IXIHA9
O un vector columna a un vector la.

bb yay9

2.2.

Indexado de vectores.

Una vez que se ha denido un vector, es posible acceder fcilmente a cada una de sus componentes con los comandos de wevef. Por ejemplo, introdzcase el siguiente vector.

MANUALES UEX
338

bb xaIHDIQDIWDPQDPUDQIDQWDRQDSI
Ahora prubense los siguientes comandos.

bb x@PA bb x@UA
Se puede cambiar fcilmente el contenido de una componente.

MTODOS MATEMTICOS PARA ESTADSTICA

bb x@TAaIHH
Se puede tambin acceder a un rango de elementos

bb x@IDQDSA bb x@IXQA bb x@IXPXlength@xAA

3.

Operaciones con vectores

Un gran nmero de operaciones en las que intervienen vectores y escalares se pueden ejecutar con wevef.

3.1.

Operaciones entre vector y escalar.

Las operaciones entre escalares y vectores son directas. Desde el punto de vista terico, no se puede sumar un escalar a un vector. Sin embargo, wevef s lo permite. Por ejemplo, si y es un vector, el comando yCP aadir 2 a cada componente del vector. Estdiense las salidas de los siguientes comandos.

bb bb bb bb bb

yaIXS yCP yEP PBy yGP

Por supuesto, estas operaciones son igualmente vlidas para vectores columna.

bb bb bb bb bb

wa@IXQXPHA9 wCQ wEII FIBw wGIH

MANUALES UEX
339

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

3.2.

Operaciones entre vectores.

En primer lugar, considrense los siguientes vectores.

bb aIXQ bb aRXT
La adicin y sustraccin de vectores es natural y fcil. Introdzcanse los siguientes comandos.2

bb DDC bb DDE
De nuevo, estas operaciones son vlidas para vectores columna.

bb a@IXQA9Da@RXTA9 bb CDE
Sin embargo, se pueden obtener resultados no esperados si no se recuerda que wevef es un entorno que trabaja con matrices.

bb DDB
El ltimo comando devuelve un error porque es el smbolo de wevef para la multiplicacin de matrices, y en este caso hay un problema de compatibilidad entre los ordenes de las matrices" a y b. Tambin pueden ocurrir errores si se intenta aadir vectores de diferente tamao.

bb aIXQDaRXUDC

MANUALES UEX

3.3.

Operaciones con componentes.

Para multiplicar los vectores y componente a componente, ejectese el siguiente comando de wevef.

bb a@IXQA9Da@RXTA9 bb DDFB
primero el vector a, luego el vector b y por ltimo el a+b
2Como no aparece punto y coma que suprima la salida, el comando a,b,a+b mostrar

340

MTODOS MATEMTICOS PARA ESTADSTICA

El smbolo . es el operador de wevef para la multiplicacin elemento a elemento. La salida se calcula multiplicando las primeras componentes de los vectores y , a continuacin las segundas componentes, etc. El operador de wevef para la divisin componente a componente es FG

bb DDFG
Para elevar cada componente de un vector a una potencia, sese F

bb DFP

3.4.

Expresiones ms complicadas.

Con un poco de prctica se aprender como evaluar expresiones ms complejas. Supongamos, por ejemplo, para evaluar la expresin x2 2x 3 para valores de x entre 1 y 10, con incremento de 1 escrbase

bb xaIXIH bb yaxFPEPBxEQ
Supngase ahora que se quiere evaluar la expresin sen( x )/x para valores de x entre 1 y 1 con incrementos de 0,1 unidades.3

bb xaEIXFIXI bb yasin@xAFGx
Los operadores por componentes tambin funcionan con vectores columna.

bb xdta@IXIHA9 bb xdtFP

3Escribiendo help elfun se obtiene una lista de las funciones elementales de MATLAB.

MANUALES UEX
341

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicios de la prctica 1 Ejercicio 1. Escribe el comando wevef que genera cada uno de los siguientes vectores. 1 1. 2 . 3 2. (1, 2, 1, 3). 3. Un vector columna que contenga los nmeros impares entre 1 y 1000. 4. Un vector la que contenga los nmeros pares entre 2 y 1000. Ejercicio 2. Si xaHXPXPH, escribe el comando de wevef que eleva al cuadrado cada componente de x. Ejercicio 3. Si xaHDIDRDWDITDPS, escribe el comando wevef que calcula la raz cuadrada de cada componente de x. Ejercicio 4. Si xaHXFIXI, escribe el comando de wevef que eleva cada componente de x a 2/3. Ejercicio 5. Si xaHXpiGPXPBpi, escribe el comando wevef que calcula el coseno de cada componente de x. Ejercicio 6. Si xaEIXFIXI, escribe el comando wevef que calcula el arcoseno de cada componente de x. Ejercicio 7. Si xalinspe@HDPBpiDIHHHA, cul es la entrada 50 de x? Cul es la longitud de x? Ejercicio 8. Si kaHXIHH, cul es la entrada nmero 12 de yaHFSFk?

MANUALES UEX
342

MTODOS MATEMTICOS PARA ESTADSTICA

PRCTICA 2

Matrices y MATLAB
n esta prctica se aprender a introducir y editar matrices en wevef. Se experimentar con algunas funciones de construccin de matrices incorporadas en wevef. Se aprender a construir matrices a partir de vectores y bloques de matrices. Prerrequisitos: ninguno. 1. Entrada de matrices

La entrada de matrices en wevef es fcil. Escrbase lo siguiente en el indicador de wevef.

bb eaIDPDQYRDSDTYUDVDW
Obsrvese cmo los smbolos de punto y coma indican el nal de la la, mientras que las comas se usan para separar las entradas en la la. Se pueden usar tambin espacios para delimitar las entradas de cada la.

bb eaI P QYR S TYU V W

1.1.

Matrices especiales.

bb eazeros@SA bb fazeros@QDSA
1Para obtener una lista de todas las matrices elementales de MATLAB, escrbase help elmat en el indicador de MATLAB; para obtener informacin detallada sobre una en concreto escrbase help seguido del tipo de matriz, por ejemplo, help magic.

MANUALES UEX
343

wevef tiene una serie de rutinas incorporadas para crear matrices.1 Es posible crear una matriz de ceros de cualquier tamao.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Es fcil crear una matriz de ceros con el mismo tamao que una dada.

bb gamgi@SA bb hazeros@size@gAA
Se pueden crear matrices de unos de manera anloga.

bb bb bb bb

eaones@TA faones@PDIHA gahil@SA haones@size@gAA

Cuando se realizan simulaciones en wevef es til construir matrices de nmeros aleatorios. Se puede crear una matriz de nmeros aleatorios con distribucin uniforme, cada uno entre 0 y 1, con los siguientes comandos.

bb earnd@TA bb farnd@SDQA
La multiplicacin por escalares es exactamente igual que para vectores.

bb gaIHBrnd@SA wevef proporciona unas rutinas para el redondeo de nmeros. bb bb bb bb hafloor@gA haeil@gA haround@gA hafix@gA

La matriz identidad tiene unos en su diagonal principal y ceros en el resto.

MANUALES UEX
344

bb saeye@SA
Se pueden generar otros tipos de matrices diagonales con el comando dig.

bb iadig@IDPDQDRDSA bb padig@IDPDQDRDSDEIA bb qadig@IXSDIA

MTODOS MATEMTICOS PARA ESTADSTICA

1.2.

Trasposicin.

El operador de trasposicin, que es 9 (comilla simple), tiene el mismo efecto que sobre vectores. Se intercambian las y columnas.

bb taI P QYR S TYU V W bb t9

1.3.

Elimina la salida.

Recurdese que nalizando un comando de wevef con punto y coma se elimina la salida. Es til cuando el resultado es grande y se desea ocultarlo.

bb uarnd@IHHAY
Espacio de trabajo de wevef.

1.4.

Examnese el espacio de trabajo con el comando whos, o activando la opcin Workspace" del men View" de la barra superior.

bb whos
Obsrvese que aparece el tamao de cada una de las variables. Por supuesto, se puede obtener el tamao de la matriz s con

bb size@sA
2. Indexado de matrices

a12 a22 a32

a13 a23 , a33

o en forma reducida A = ( aij ) M3 (k), donde k es cuerpo (por ejemplo, k = R o k = C. El smbolo aij se reere a la entrada situada en la la i y columna j. wevef usa una notacin similar para representar los elementos de una matriz.

MANUALES UEX
345

La siguiente notacin es la que se las y 3 columnas. a11 A = a21 a31

usa para representar una matriz con 3

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

7psl no funion en ytve bb eapsl@SA bb e@IDPA bb e@QDRA


En general, e@iDjA se reere al elemento de la la i, columna j de la matriz A. Tambin es fcil cambiar el valor de una entrada.

bb e@QDQAaIIIII

2.1.

Algo ms sobre indexado.

Cuando se indexa una matriz, los subndices pueden ser vectores. Esta es una herramienta de gran alcance que permite extraer fcilmente una submatriz de una matriz.

bb eamgi@TA bb e@IDPDQDRDSA
La notacin e@IDPDQDRDSA referencia a la submatriz formada por los elementos que aparecen en las las 1 y 2 y en las columnas 3, 4 y 5 de la matriz A. El comando

bb e@IDQDSDIDPDQDRDSDTA
produce una submatriz con las las 1, 3 y 5 de la matriz A. Si se recuerda que la notacin IXT representa al vector IDPDQDRDSDT y que la notacin IXPXT representa al vector IDQDS, de este modo se tiene que e@IXPXTDIXTA es equivalente a e@IDQDSDIDPDQDRDSDTA.

MANUALES UEX
346

bb e@IXPXTDIXTA
Si se usa el smbolo dos puntos en lugar de subndices, se indica todo el rango. As,

bb e@XDIA

MTODOS MATEMTICOS PARA ESTADSTICA

produce la primera columna de la matriz A, y

bb e@QDXA
genera la tercera la de la matriz A. En cierto sentido, la notacin e@QDXA se puede leer como Tercera la, todas las columnas." El comando

bb e@IXQDXA
produce una submatriz compuesta de las tres primeras las de la matriz A. El comando

bb e@XDIXPXTA
produce una submatriz compuesta de las columnas 1, 3 y 5 de la matriz A. 3. Construccin de matrices

Con wevef se pueden crear matrices ms complejas a partir de otras matrices y vectores. 3.1. Construccin de matrices con vectores.

Crense tres vectores la con los comandos

bb vIaIXQ bb vPaRXT bb vQaUXW


El comando

bb wavIYvPYvQ
construye una matriz con los vectores vID vP y vQ, cada uno formando una la de la matriz M. El comando

bb xavIDvPDvQ

MANUALES UEX
347

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

produce un resultado completamente diferente, pero con sentido. Cmbiense los vectores vIDvPDvQ en vectores columna con el operador de trasposicin.

bb vIavI9 bb vPavP9 bb vQavQ9


El comando

bb avIDvPDvQ
construye una matriz con los vectores vIDvPDvQ como columnas de la matriz P. Se puede obtener el mismo resultado con la transpuesta de la matriz M.

bb aw9
Tngase en cuenta que las dimensiones deben coincidir: cuando se construyen matrices, hay que asegurarse que cada la y columna tengan el mismo nmero de elementos. Por ejemplo, la siguiente secuencia de comandos producir un error.

bb wIaIXQYwPaRXTYwQaUXIHY bb awIYwPYwQ

3.2.

Construccin de matrices con otras matrices.

Es una cuestin simple aumentar una matriz con un vector la o columna. Por ejemplo,

MANUALES UEX
348

bb eaIDPDQDRYSDTDUDVYWDIHDIIDIP bb aIDIDI9 bb waeD


es vlido, pero

bb waeY

MTODOS MATEMTICOS PARA ESTADSTICA

no lo es; aunque s lo es

bb aIDIDIDI bb waeY
Se pueden concatenar dos o ms matrices. As,

bb eamgi@QADfaones@QDRA bb waeDf
es vlido, pero

bb xaeYf
no lo es; aunque s lo es

bb gaIDPDQYRDSDT bb aeYg

3.3.

La imaginacin es el lmite.

Las capacidades de construir matrices de wevef son muy exibles. Considrese el siguiente ejemplo.

bb eazeros@QADfaones@QADgaPBones@QADhaQBones@QA bb waeDfYgDh
Se puede construir una matriz de Vandermonde de la siguiente manera

O tambin matrices por bloques

bb fazeros@VA bb f@IXQDIXQAaIDPDQYRDSDTYUDVDW bb f@RXVDRXVAamgi@SA

MANUALES UEX
349

bb xaIDPDQDRDS9 bb xaones@size@xAADxDxFPDxFQDxFR

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicios de la prctica 2 Ejercicio 1. Escribe los comandos de wevef que generan las siguientes matrices. 10 5 6 1 1 3 0 5 8 4 . 1.) 3 1 2.) 6 8 5 10 3 4 4 10 7 8 8 5 Ejercicio 2. Escribe un solo comando que cree una matriz 3 5 con cada entrada igual a 3. Ejercicio 3. Crea una matriz de Hilbert con los siguientes comandos. 7pormt rt no funion en ytve

bb formt rt bb rahil@SA bb formt


Escribe una frmula para la posicin (i, j) de la matriz H. Ejercicio 4. Explica la diferencia entre los comandos floorD eilD round y fix. Apoya tu explicacin con ejemplos en wevef. Ejercicio 5. Escribe un comando wevef que genere una matriz 4 4 con valores aleatorios enteros entre 5 y 5. Ejercicio 6. El operador genera realmente la conjugada traspuesta de una matriz. Para verlo, introduzca la matriz eaIDPCiDsqrt@PAYQDQEiDsqrt@EIA, teclea entonces e9. Describe el resultado. Qu ocurre si ponemos eF9? Explica la diferencia entre los operadores de trasposicin 9 y F9. Ejercicio 7. Cul es la entrada en la 5 y columna 7 de la matriz psl@IHA? Ejercicio 8. Sea atoeplitz@IXUA. Escribe un comando de wevef que 1. coloca las las pares de la matriz T en una matriz B. 2. coloca las las impares de la matriz T en una matriz C. 3. coloca la ltima columna de la matriz T en un vector b. Ejercicio 9. Sea xaHDpiGPDPBpi. Construye una matriz, con comandos de wevef, cuya primera la es x, la segunda la est formada por el seno cada entrada de x, y la tercera la es el coseno de cada entrada de x. Ejercicio 10. Sea xalinspe@HDIHA. Construye una matriz, con comandos de wevef, cuya primera columna sea x, la segunda columna est formada por los cuadrados de cada entrada de x, y la tercera columna sea el inverso de cada entrada de x.

MANUALES UEX
350

MTODOS MATEMTICOS PARA ESTADSTICA

PRCTICA 3

Formas escalonadas de una matriz

n esta prctica aprenderemos a manejar el comando rref de wevef, que calcula la forma escalonada por las de una matriz; tambin se vern algunas de sus aplicaciones. Prerrequisitos: cierta familiaridad con clculos a mano de la forma escalonada por las de una matriz. Resolucin de sistemas con wevef

1.

Hasta ahora, hemos invertido cierto tiempo para resolver sistemas de ecuaciones lineales a mano, con lo que advertimos que es un proceso largo y con tendencia a que se produzcan errores. En cuanto la matriz de coecientes es de un tamao superior a 5 5, lo ms probable es que nos equivoquemos en el resultado. Vamos a ver cmo puede wevef ayudarnos en el proceso. En primer lugar, recordemos algunas deniciones. El primer elemento no nulo en cada la de una matriz se denomina pivote. Una matriz se dice que est en forma escalonada por las si Las las de ceros aparecen en la parte inferior de la matriz. Cada pivote es 1. Cada pivote aparece en una columna estrictamente a la derecha del pivote de la la anterior.

Cada pivote es el nico elemento no nulo en su columna. Se sabe que toda matriz es equivalente a una matriz en forma escalonada por las (reducida), es decir, que mediante transformaciones elementales (por las) toda matriz se puede convertir en una matriz escalonada por las (reducida). De hecho la forma escalonada por las reducida de una matriz se diferencia de la forma reducida por las en que en esta ltima se permiten las permutaciones de columnas.

MANUALES UEX
351

Se dice que una matriz est en forma escalonada por las reducida si satisface adems otra propiedad

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Por otra parte, es de sobra conocido que cuando se resuelve un sistema de ecuaciones de la forma a11 x1 + a12 x2 + . . . + a1n xn = b1 a21 x1 + a22 x2 + . . . + a2n xn = b2 (3.1.1) . . . am1 x1 + am2 x2 + . . . + amn xn = bm puede ocurrir que el sistema tenga una nica solucin, o el sistema no tenga solucin, o el sistema tenga innitas soluciones. Veamos un ejemplo de cada caso. 1.1. Solucin nica.

Consideremos el sistema (3.1.2) x1 x1

+ x2
x2

+ x3 2x3 + x3

= 6 = 4 = 2

La matriz ampliada de este sistema es 1 1 1 6 1 0 2 4 , (3.1.3) 0 1 1 2 que podemos introducirla en el espacio de trabajo de wevef con

bb eaIDIDIDTYIDHDEPDRYHDIDIDP
El comando rref de wevef calcula la forma escalonada por las de la matriz A.

MANUALES UEX
352

bb arref@eA
El commando rrefmovie de wevef nos muestra paso a paso cmo ha obtenido la forma escalonada por las.

bb rrefmovie@eA

MTODOS MATEMTICOS PARA ESTADSTICA

Hemos obtenido que la forma escalonada por las de la matriz ampliada (3.1.3) es 1 0 0 4 0 1 0 2 . (3.1.4) 0 0 1 0 Esta matriz representa al sistema x1 (3.1.5) x2 x3 = 4 = 2 = 0

que es equivalente al sistema (3.1.2). Por tanto, el sistema (3.1.2) tiene solucin nica (4, 2, 0). Es interesante considerar la geometra de este ejemplo. Cada una de las ecuaciones del sistema (3.1.2) representa un plano en el espacio de 3 dimensiones. Como se puede ver en la Figura (1), las tres ecuaciones del sistema (3.1.2) producen tres planos. Observemos adems que la interseccin de los tres planos en la Figura (1) es un nico punto, lo que coincide con nuestro resultado.

10 5 0 5 10 20 10 0 10 20 20 0 40

Figura 1. Un sistema con solucin nica. Los tres planos se cortan en un punto.

1.2.

Sin soluciones.

MANUALES UEX
353

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Consideremos ahora el sistema (3.1.6) x1 x1 2x1

+ x2 + x2

+ x3 2x3 x3

= 6 = 4 = 18

La matriz ampliada del sistema es 1 1 1 0 (3.1.7) 2 1

1 2 1

6 4 , 18

que podemos introducirla en wevef con el comando

bb eaIDIDIDETYIDHDEPDRYPDIDEIDIV
Usamos el comando rref para calcular la forma escalonada por las.

bb arref@eA
Por tanto, la forma escalonada por las de la matriz (3.1.7) es 1 0 2 0 0 1 (3.1.8) 3 0 0 0 0 1 Observemos la ltima la de la matriz 3.1.8. Representa la ecuacin (3.1.9) 0x1 + 0x2 + 0x3 = 1

MANUALES UEX

Es claro que la ecuacin 3.1.9 no tiene solucin. Por tanto, el sistema 3.1.6 tampoco. Decimos que el sistema 3.1.6 es incompatible. De nuevo, la representacin geomtrica aporta luz a lo anterior. Como podemos ver en la gura 2, cada plano corta a otro en una recta, pero esa recta es paralela al otro plano. Por tanto, no hay puntos comunes a los tres planos, que coincide con nuestro resultado algebraico. 1.3. Innitas soluciones.

Como ejemplo nal, consideremos el sistema (3.1.10) x1 x1 2x1

+ x2 + x2

354

+ x3 2x3 x3

= 6 = 4 = 10

MTODOS MATEMTICOS PARA ESTADSTICA

10 8 6 4 2 0 2 4 6 8 10 10 5 0 5 10 30 20 10 0 10 20 30

Figura 2. Dos planos se cortan en una recta, paralela al otro. No hay puntos comunes en la interseccin. La matriz ampliada del sistema es 1 1 1 0 (3.1.11) 2 1 y en wevef queda

1 2 1

6 4 10

bb eaIDIDIDTYIDHDEPDRYPDIDEIDIH
Usamos el comando rref

bb arref@eA
y la forma escalonada por las de la matriz 3.1.11 es 1 0 2 4 0 1 (3.1.12) 3 2 . 0 0 0 0 Observemos que tenemos una la de ceros en la parte inferior de la matriz. Adems, tenemos solamente dos pivotes. Es muy importante, en este momento, identicar las variables pivotes y las variables libres. Observemos que las columnas 1 y 2 tienen pivotes. Por tanto, x1 y x2 son variables pivote. La columna 3 no tiene pivote. As, la variable x3 es libre. Como la ltima la de la matriz representa la ecuacin (3.1.13) 0x1 + 0x2 + 0x3 = 0,

MANUALES UEX
355

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

que se verica para cualesquiera valores de x1 , x2 y x3 , nicamente necesitamos encontrar los valores de x1 , x2 y x3 que satisfacen las ecuaciones representadas por las dos primeras las de la matriz 3.1.12 (3.1.14) x1 x2

2x3 +3x3

=4 =2

Ahora el mtodo es simple y directo. Resolvemos cada ecuacin para su variable pivote en funcin de la variable libre. As nos queda (3.1.15) x1 x2

= 4 + 2x3 = 2 3x3 .

Es habitual colocar parmetros para representar la variable libre. Por ejemplo, si hacemos x3 = , el sistema 3.1.10 tiene innitas soluciones, descritas por (3.1.16) x1 = 4 + 2, x2 = 2 3, x3 =

donde es cualquier nmero real. Por cada valor que demos a obtenemos una solucin. Por ejemplo, para = 0 obtenemos la solucin (4, 2, 0). Para = 1 nos queda (6, 1, 1). De nuevo, la visualizacin geomtrica nos aclara lo anterior. Como podemos ver en la gura 3, los tres planos se cortan a lo largo de una recta. Por tanto, hay un nmero innito de soluciones, que coincide con nuestra conclusin anterior.

10 5 0 10

MANUALES UEX

5 0 10 20 10

20

40

Figura 3. Los tres planos se cortan en una recta, que contiene un nmero innito de puntos.

356

MTODOS MATEMTICOS PARA ESTADSTICA

2.

Ms difcil todava

El pnico suele crecer cuando el nmero de ecuaciones e incgnitas se incrementa. Por supuesto, este aumento hace las cosas un poco ms difciles, pero si seguimos una sencillas reglas estas dicultades desaparecen. Identica las variables pivot. Esto se consigue observando las columnas que son pivote. Identica las variables libres. Esto se obtiene observando las columnas que no tienen pivote. Resuelve cada ecuacin colocando cada variable pivot en funcin de la libres. Cambia las variables libres por parmetros. Por ejemplo, consideremos el siguiente sistema

(3.2.17)

4x1 4x1 x1

2x2 + x2 2x2 2x2

+2x4 3x4 3x4 2x4

4x5 +4x5 + x5

+4x6 4x6 x6

= 2 = 3 = 3 = 2

A simple vista, el problema puede echar para atrs por su tamao. Si seguimos las reglas anteriores, no tendremos problema para encontrar la solucin. En primer lugar, consideremos la matriz ampliada, 2 4 2 0 2 4 4 4 1 0 3 4 4 3 (3.2.18) 1 2 0 3 1 1 3 0

2 0 2

y la introducimos en wevef.

bb eaERDEPDHDPDERDRDPYRDIDHDEQDRDERDEQY FFF bb IDEPDHDEQDIDEIDEQYHDEPDHDEPDHDHDEP


Calculamos la forma escalonada por las con rref.

Las columnas uno y dos tienen pivotes. Por tanto, x1 y x2 son variables pivote. Las restantes incgnitas, x3 , x4 , x5 y x6 son variables libres. Las ltimas las de ceros se pueden ignorar, porque estas ecuaciones las verican todos los valores. As, solamente debemos resolver el sistema (3.2.19) x1 x2

x4 + x4

+ x5

x6

= 1 = 1

MANUALES UEX
357

bb arref@eA

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Resolvemos cada ecuacin para su variable pivote. (3.2.20) x1 x2

= 1 + x4 = 1 x4

x5

+ x6

Pongamos las variables libres como parmetros. Por ejemplo, x3 = , x4 = , x5 = , x6 = y nos queda x1 x2 x3 x4 x5 x6

(3.2.21)

= 1 + + , = 1 , = , = , = , = ,

donde , , , son nmeros reales arbitrarios. Entonces el sistema 3.2.17 tiene innitas soluciones, y las podemos obtener dando valores a los parmetros de 3.2.21. Como podemos ver, cuando el nmero de incgnitas y ecuaciones crece, el problema se vuelve ms difcil. No obstante, tambin observamos que con estas simples reglas, el tamao no debe ser un problema. 3. Matriz inversa y forma escalonada por las

Sea A = ( aij ) Mn (k) una matriz invertible. Por ejemplo, 1 1 0 A = 2 0 3 0 2 1

bb e a ID EID HY PD HD EQY HD PD I
La orden inv de wevef calcula la matriz inversa de A.

bb f a inv@eA bb eBf

MANUALES UEX

Veamos otra forma de calcular la inversa de A usando forma escalonada por las. Para ello basta tener en cuenta que, por denicin, la matriz inversa de A es la nica matriz X = ( xij ) Mn (k) tal que AX = In ; por lo que la columna j-sima de X es la (nica) solucin del sistema
j)

358

A( x1j , . . . , xnj )t = (0, . . . , 0, 1 , 0, . . . , 0)t .

MTODOS MATEMTICOS PARA ESTADSTICA


Por consiguiente, si partimos de la matriz ( A| In ) Mn2n (k) y calculamos su forma escalonada por las llegaremos a la matriz ( In | A1 ).

bb bb bb bb bb

s a eye@QA es a eDs res a rref@esA a res@IXQDRXTA eB

De hecho, los programas de ordenador usan este mtodo (o variantes del mismo) para calcular la matriz inversa, y no la frmula por todos conocida que tiene un coste de tiempo prohibitivo. 4. Clculo de matrices de paso

Sea A = ( aij ) Mmn (k) una matriz invertible. Por ejemplo, 0 0 1 1 2 1 2 1 A= 2 1 4 2 4 2 3 0

bb formt rt bb e a HD HD ID IY EPD EID PD EIY PD ID RD PY RD PD QD H


Veamos como podemos usar el commando rref para calcular, no slo la forma escalonada R de A, sino adems una matrices invertibles P Mn (k) y Q Mm (k) tales que Q1 AP = R. La clave de nuestra construccin consistir en tener en cuenta que la forma escalonada de A es la forma escalonada por columnas de la forma escalonada por las de A. Pero, cmo se calcula la forma escalonada por columnas con wevef? La respuesta es bien sencilla, basta calcular la traspuesta de la forma escalonada por las de la traspuesta de A.

bb g a rref@e9A9
Ya sabemos calcular la forma escalonada por columnas; sin embargo, seguimos sin conocer cmo se calculan las matrices de paso. Para calcular una matriz invertible Q Mm (k) tal que F = Q1 A es la forma escalonada por las las de A, es suciente observar que la forma escalonada por las

MANUALES UEX
359

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

de ( A| Im ) es ( F | Q1 ) (que es lo que suceda antes cuando calculbamos la inversa).

bb bb bb bb bb

p a rref@eA es a eDeye@RA pes a rref@esA I a pes@XDSXVA a inv@IA

La explicacin es bien sencilla, como el comando rref no permuta columnas, las sucesivas operaciones elementales por las que se hacen en A para obtener su forma escalonada por las quedan recogidas en la matriz identidad de la derecha. De forma ms precisa Q1 ( A| Im ) = ( Q1 A| Q1 Im ) = ( Q1 A| Q1 ) = ( F | Q1 ). Ahora, para calcular matriz invertible P Mn (k), tal que AP es la forma escalonada por columnas C de A, repetimos el proceso anterior con la traspuesta de A; y trasponemos el resultado obtenido.

bb bb bb bb bb

f a e9 fs a fDeye@RA pfs a rref@fsA I a pfs@XDSXVA a I9

MANUALES UEX
360

Una vez que sabemos calcular matrices de paso para la forma escalonada por las y para la forma escalonada por columnas de A, veamos cmo se calculan unas matrices de paso P Mn (k) y Q Mm (k) tales que Q1 AP es la forma escalonada de A. Para ello, basta calcular la forma escalonada por columnas de la forma escalonada por las de A y unas matrices de paso. En nuestro caso, ya tenamos calculada la forma escalonada por las F de A y la matriz de paso Q, luego slo nos queda calcular la forma escalonada por columnas de F y una matriz de paso.

bb bb bb bb bb

i a p9 is a iDeye@RA pis a rref@isA I a pis@XDSXVA a I9

MTODOS MATEMTICOS PARA ESTADSTICA

Obsrvese que wevef ha escrito B en vez de algunas entradas de las matrices que hemos ido obteniendo, esto ocurre cuando usamos el formato racional y el tamao de la entrada tiene demasiada longitud; por ejemplo, cuando se trata de una fraccin con un denominador muy grande, como es nuestro caso. En nuestro ejemplo, estos asteriscos deben ser tratados como ceros; aunque en realidad lo que ponen de maniesto es la propagacin de errores de redondeo en nuestras operaciones.

MANUALES UEX
361

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicios de la prctica 3 Ejercicio 1. Consideremos la siguiente matriz 4 2 4 2 10 22 A= 5 2 5 24 6 16

0 4 . 2 8

Si R es la forma escalonada por las de A, calcular, usando wevef, las matrices Q y P tales que Q1 AP = R. Calcular la forma escalonada por columnas de A, la forma reducida de A y las matrices de paso cada caso. Ejercicio 2. El comando null de wevef, calcula una base del ncleo de A, ker( A). Usando este comando, calcula la solucin general del sistema Ax = b, con A= 1 2 1 1

1 0 2 1 1 1

b=

3 1

Ejercicio 3. Dadas la siguientes matrices 1 2 1 3 8 2 4 2 6 16 A= 3 6 3 9 y B = 24 1 3 1 2 9

2 0 9 4 0 18 , 6 0 27 3 4 14

estudiar si existe una matrix invertible P M4 (R) tal que AP = B. Dar una condicin necesaria y suciente para que jadas dos matrices A y B Mmn (R) exista una matriz invertible P Mn (R) tal que AP = B. Ejercicio 4. Considerar el sistema de ecuaciones AXB = C, donde X es una matriz de orden 3 de incgnitas y 1 1 1 3 1 4 2 A= , B= 1 . 0 y C= 3 2 1 2 1 0 1 Hallar, si es posible, la solucin general de este sistema. Ejercicio 5. 1. Hallar las inversas de las siguientes matrices utilizando el mtodo de Gauss-Jordan con ayuda del comando rref de wevef. 4 6 9 1 5 11 A = 2 1 1 , B = 1 2 18 1 1 2 1 1 6

MANUALES UEX
362

MTODOS MATEMTICOS PARA ESTADSTICA

0 1 5 1 1 1 5 5 C= 1 1 4 4 1 3 5 1 2. Usar la funcin inv de wevef para comprobar dichos resultados. Ejercicio 6. Flujos de Trco. Considerar el siguiente diagrama de una malla de calles de un sentido con vehculos que entran y salen de las intersecciones. La interseccin k se denota [k ]. Las echas a lo largo de las calles indican la direccin del ujo de trco. Sea xi el nmero de vehculos por hora que circulan por la calle i. Suponiendo que el trco que entra a una interseccin tambin sale, establecer un sistema de ecuaciones que describa el diagrama del ujo de trco. Por ejemplo, en la interseccin [1] x1 + x5 + 100 = trco que entra = trco que sale = x3 + 300, lo que da x1 x3 + x5 = 200. Estudiar la compatibilidad de dicho sistema y resolverlo usando la funcin rref de wevef.

200 [2] x1 300 x3 100 [1] x5

200

x2 200 [3] 200 100 x4

[4] 100

Ejercicio 7. Considerar el sistema de ecuaciones lineales x 2y + 3z = 1 4x + y 2z = 1 2x y + 4z = 2 1. Denir la matriz A del sistema y la matriz b de trminos independientes, a las que llamaremos e y , respectivamente, y la matriz ampliada del sistema, a que llamaremos e. 2. Estudiar la compatibilidad del sistema usando la funcin rref. 3. Escribir e\ en la lnea de comandos de wevef, y explicar el resultado. Considerar ahora el sistema ecuaciones lineales, y repetir los apartados anteriores. x 2y = 1 4x + y = 1 5x y = 1

MANUALES UEX
363

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicio 8. El sistema de ecuaciones x1 +2x2 2x1 x2

3x3 3x3 + x3

=4 = 2 =0

tiene como matriz de coecientes y vector de trminos independientes a 1 2 3 4 A = 2 0 3 , b = 2 0 1 1 0 respectivamente. Construye la matriz ampliada waeD y obtenga su forma reducida por las con el comando rref@wA. Ejercicio 9. Cada una de las siguientes matrices representa la matriz ampliada de un sistema lineal. Realiza las siguientes tareas para cada caso. Dene una matriz cuadrada de orden 9 con coecientes enteros entre 4 y 4. Realiza las siguientes tareas para cada caso. Introduce la matriz en wevef y con el comando rref calcula la forma escalonada por las. Cpiala en un papel. Identica variables pivote y variables libres. Resuelve cada ecuacin para su variable pivote. Asigna parmetros a las variables libres. (a) 3 1 0 1 3 1 2 3 2 0 0 0 2 0 2 2 3 0 0 1 1 2 1 1 . 0 0 0 1 2 2 2 2 3 1 0 0 1 1 2 1 1 4 0 2 5 0 1 5 (b) 2 2 2 1 1 2 1 1 0 1 2 2 1 3 1 2 1 0 0 0 1 0 3 2 1 1 0 0 0 2 2 1 1 0 0 1 . 1 0 1 2 1 0 1 2 2 0 1 2 1 4 1 2 1 0 0 1 2 1 2 1 2 1 2 2 1 0 1 0 1 1 1 1 Ejercicio 10. Juan tiene 4 euros en monedas de 1, 2, 5 y 10 cntimos de euro. Tiene igual nmero de monedas de 2 cntimos y de 5 cntimos, y en total tiene 100 monedas. De cuntas formas es esto posible?

MANUALES UEX
364

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicio 11. Dene una matriz cuadrada de orden 9 con coecientes enteros entre 4 y 4. Con el comando rref calcula la forma escalonada por las. Identica variables pivote y variables libres. Resuelve cada ecuacin para su variable pivote. Asigna parmetros a las variables libres. Ejercicio 12. Usar el mtodo de Gauss para sistemas 4x 8y + 5z = 1 4x 7y + 4z = 0 3x 4y + 2z = 0 resolver simultneamente los 0 1 0 0 0 1

Ejercicio 13. Supongamos que 100 insectos se distribuyen en una cmara que consta de 4 habitaciones con pasajes entre ellos tal como aparece en la gura (4). Al nal de un minuto, los insectos se han redistribuido. Supongamos que un minuto no es bastante tiempo para que un insecto visite ms de una habitacin y al nal de un minuto el 40 % de los insectos de cada habitacin permanece en ella. Los insectos que la abandonan se distribuyen uniformemente entre las dems habitaciones que son accesibles desde la que ocupan inicialmente. Por ejemplo, desde la habitacin 3, la mitad de los que se mueven van a 2 y la otra mitad a 4. 1. Si al nal de un minuto hay 12, 25, 26 y 37 insectos en las habitaciones 1, 2, 3 y 4, respectivamente, determinar la distribucin inicial. 2. Si la distribucin inicial es 20, 20, 20 y 40 Cul es la distribucin al nal de un minuto?

#3

#4

#2

#1

Figura 4. Distribucin de las cmaras y los pasajes.

MANUALES UEX
365

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicio 14. En la gura (5) aparece una placa de acero. La temperatura en cada punto de la placa es constante (no cambia con el tiempo). La temperatura en cada punto del retculo en el borde de la placa aparece en la gura. Sea ti la temperatura en grados en cada punto del retculo en el interior de la placa. Supongamos que la temperatura en cada punto interior del retculo es la media de las temperaturas de sus cuatro puntos vecinos. Calcula la temperatura ti en cada punto interior del retculo.
00 C 00 C 00 C

t1

t2

t3

t4

t5

t6

t7

t8

t9

g4.01

Figura 5. Distribucin de temperatura en una placa de metal.

Ejercicio 15. Consideremos la siguiente matriz 4 2 4 0 2 10 22 4 A= 5 2 5 2 24 6 16 8

MANUALES UEX
366

Si R es la forma escalonada por las de A, calcular, usando wevef, las matrices Q y P tales que Q1 AP = R. Calcular la forma escalonada por columnas de A, la forma reducida de A y las matrices de paso cada caso.

MTODOS MATEMTICOS PARA ESTADSTICA

PRCTICA 4

Comportamiento asinttico de sistemas dinmicos

a forma cerrada de la solucin de un sistema de ecuaciones en diferencias se puede usar para determinar el comportamiento a largo plazo o asinttico de un sistema dinmico. El concepto de autovalor dominante aparece entonces. Pre-requisitos: conocimiento de autovalores y autovectores. Forma cannica de Jordan. Ecuaciones en diferencias homogneas nitas con coecientes constantes (caso diagonalizable). 1. Comportamiento de la sucesin n

Para una comprensin de lo que viene despus, necesitamos estudiar en primer lugar el comportamiento asinttico de la sucesin (n )nN , con C. Hay que distinguir varios casos. 1.1. Cuando es un nmero real.

Vamos a realizar varios experimentos cuando es un nmero real. Por ejemplo, estudiemos el lmite de la sucesin (0,5n )nN cuando n . El siguiente cdigo en wevef genera los 15 primeros trminos de la sucesin.

bb na@IXISA9Y bb @HFSAFn

bb na@IXQHA9Y bb @EHFUSAFn
Observemos que la sucesin denida por ((0,75)n )nN oscila entre valores positivos y negativos. Vemos tambin que converge a cero, aunque la velocidad es menor que la sucesin denida por (0,5n )nN .

MANUALES UEX
367

Este resultado nos indica que lmn (0,5)n = 0. De forma anloga, se puede estimar el lmite de la sucesin ((0,75)n )nN .

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Conjetura. Si es un nmero real con abs() < 1, entonces lmn n = 0. Experimento. En wevef, vericar que las siguientes sucesiones converge a cero cuando n .

(0,25)n . (0,8)n . (0,99)n .


Conjetura. Si es un nmero real tal que abs() > 1, entonces los trminos de la sucesin {n } se hacen tan grandes como queramos en valor absoluto. Experimento. En wevef, vericar que las siguientes sucesiones producen trminos de valor absoluto tan grande como queramos cuando n . 2,3n . (1,4)n . (1,05)n .

1.2.

Cuando es un nmero complejo.

Si = a + bi entonces su norma es || = a2 + b2 . Por ejemplo, si = 0,3 + 0,4i entonces la norma de es || = 0,32 + 0,42 0,5. Observemos que en este caso || < 1. Con wevef podemos calcular fcilmente la norma de un nmero complejo con los comandos norm o s

bb norm@HFQCHFRiA
Y las siguientes instrucciones en wevef generan los 15 primeros trminos de la sucesin denida por ((0,3 + 0,4i)n )nN .

bb na@IXISA9Y bb @HFQCHFRiAFn

MANUALES UEX

La siguiente gura (obtenida con el comando plot@@HFQCHFRiAFnA de wevef) se observa que los trminos de la sucesin convergen a 0 + 0i. Conjetura. Si || < 1 entonces la sucesin (n )nN converge a 0. Experimento. Usar wevef para probar que el trmino general de las siguientes sucesiones tiene norma menor que 1, y que convergen a cero.

368

{(0,25 + 0,45i )n }. {(0,5 0,2i )n }.

MTODOS MATEMTICOS PARA ESTADSTICA

0.4

0.35

0.3

0.25

0.2

0.15

0.1

0.05

0.05 0.15

0.1

0.05

0.05

0.1

0.15

0.2

0.25

0.3

Figura 1. Convergencia a 0 de la sucesin ((0,3 + 0,4i)n )nN . Conjetura. Si || > 1 entonces la sucesin (n )nN toma valores de norma tan grandes como se quiera. Por ejemplo, si = 0,8 + 1,2i entonces || = es mayor que uno. 0,82 + 1,22 1,4422, que

bb norm@HFVCIFPiA
Con las siguientes instrucciones generamos los primeros trminos de la sucesin.

bb na@IXISA9Y bb a@HFVCIFPiAFn
Podemos ver las normas de cada trmino de la sucesin.

bb s@A
Es claro que las normas de los trminos de la sucesin van creciendo en tamao. Experimento. Usar wevef para probar que el trmino general de las siguientes sucesiones tiene norma mayor que 1, y la sucesin (n )nN alcanza valores de norma cada vez mayor.

((1,25 + 0,8i)n )nN . ((1,4 0,8i)n )nN .

MANUALES UEX
369

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

200

150

100

50

50

100 150

100

50

50

100

150

Figura 2. Comportamiento de la sucesin ((0,8 + 1,2)n )nN . 2. Sistemas de ecuaciones en diferencias: comportamiento asinttico

Consideremos el sistema de ecuacin en diferencias con condicin inicial denida por (4.2.1) xn1 xn 2

= 1,0 xn1 1 + 0,2 xn1 2 = 0,2 xn1 1 + 1,0 xn1 2


0,2 1,0 1 0

con x01 = 0 y x02 = 1. En notacin matricial (4.2.2) xn = 1,0 0,2 x n 1 , x0 = .

siendo xn = ( xn1 , xn2 )t , n 0. Los autovalores y autovectores asociados de la matriz A= son 1 = 1,2 y y v1 = v2 = 1,0 0,2 0,2 1,0 1 , 1 1 1

MANUALES UEX

2 = 0,8 En efecto,

370

bb bb bb bb

e a IFHD HFPY HFPD IFH lmd a eig@eA vI a null@lmd@IABeye@PAEeD9r9A vP a null@lmd@PABeye@PAEeD9r9A

MTODOS MATEMTICOS PARA ESTADSTICA

Por consiguiente, si P = (v1 , v2 ) M2 (R), entonces P1 AP = D = diag(1 , 2 ). Como en la prctica sobre ecuaciones en diferencias, si la condicin inicial se puede escribir como combinacin lineal de los autovectores, es decir, x0 = c1 v1 + c2 v2 , entonces la forma cerrada de la solucin ecuacin (4.2.1) es (4.2.3)
n n x n = c1 1 v1 + c2 2 v2 .

En efecto, si c = P1 x0 , entonces xn = Axn1 = . . . = An x0 = P


n 1 0

0 n 2

P 1 x 0 = P

n 1 0

0 n 2

c.

Nota.- Como, en nuestro caso, |1 | > |2 |, decimos que 1 es el autovalor dominante de A.


n Ahora dividimos ambos lados de la ecuacin (4.2.3) por 1 . Nos queda entonces

(4.2.4)

1 n x n = c1 v1 + c2 1

2 1

v2

Tomemos lmite cuando n en la expresin anterior.


n

lm

1 n xn 1

lm

c1 v1 + c2
n

2 1 2 1
n

v2 v2

(4.2.5)

= c1 v1 + c2 lm

Pero como |1 | > |2 | sabemos que |2 /1 | < 1 y en consecuencia lm n 2 1


n

=0

lm

1 n x n = c1 v1 . 1

Entonces, para valores grandes de n se tiene que 1 n x n c1 v1 1 (4.2.6)


n x n c1 1 v1 . n Como c1 y 1 son escalares, la ecuacin (4.2.6) indica que el vector xn es, aproximadamente, un mltiplo de v1 . As, cuando iteramos la ecuacin (4.2.1), el vector xn se va colocando de forma paralela al autovalor v1 .

MANUALES UEX
371

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

2.1.

Dibujo de trayectorias.

Vamos a usar el m-chero tryFm (cuyo cdigo se incluye al nal de esta seccin), que nos ayudar a dibujar soluciones de la ecuacin (4.2.1). Ejecutamos el programa tecleando try en la pantalla de comandos de wevef. Introducimos entonces la matriz de la ecuacin 4.2.1 cuando nos la pidan.

bb try
El programa responde creando una gura con ejes. Coloca el puntero del ratn, aproximadamente, en el punto (1, 0), que va a ser la condicin inicial x0 = (1, 0)t , y haga click con el botn derecho. Se dibuja la trayectoria solucin, primero hacia adelante en el tiempo desde la condicin inicial x0 y luego hacia atrs en el tiempo. Observa que esta solucin, tal como aparece en la gura, se acerca de forma paralela al autovalor v1 . Crea ahora ms trayectorias de la ecuacin (4.2.1) pulsando condiciones iniciales x0 con el ratn. Note que las trayectorias futuras se acercan a un vector paralelo a v1 . Fichero tryFm

372

funtion try@tionA glol exrndl pigxum ee if nrgin`I tiona9initilize9Y end if strmp@tionD9initilize9A home eea input@9sntroduz un mtriz PxP en l form DYDd EEb 9AY pigxumafigure@gfAY lf set@pigxumDFFF 9units9D9normlized9DFFF 9position9DFI FI FV FVDFFF 9xme9D9istems hinmios9DFFF 9xumeritle9D9off9DFFF 9indowfuttonhownpn9D9try@99gotrj99A9AY exrndlaxes@FFF 9xlim9DEIH IHDFFF 9ylim9DEIHDIHDFFF 9xtik9DEIHXIHDFFF 9ytik9DEIHXIHDFFF 9units9D9normlized9DFFF 9position9DFI FI FU FVAY

MANUALES UEX

MTODOS MATEMTICOS PARA ESTADSTICA

xxaline@EIH IHDH HD9olor9D9lk9AY yxaline@H HDEIH IHD9olor9D9lk9AY grid xhndlPaxes@FFF 9units9D9normlized9DFFF 9position9DFVSDFUDFIDFPDFFF 9visile9D9off9DFFF 9xlim9DEI IDFFF 9ylim9DH IAY yaH FI FP FR FVY xazeros@size@yAAY line@xDyDFFF 9linestyle9D9E9DFFF 9mrker9D9o9DFFF 9olor9D99AY 7line@xDyDFFF 79linestyle9D9E9DFFF 79olor9D99AY textfwdauiontrol@FFF 9style9D9text9DFFF 9units9D9normlized9DFFF 9position9DFVS FT FI FHSDFFF 9string9D9futuro9DFFF 9poregroundgolor9D99AY xhndlQaxes@FFF 9units9D9normlized9DFFF 9position9DFVSDFQDFIDFPDFFF 9visile9D9off9DFFF 9xlim9DEI IDFFF 9ylim9DH IAY yaH FI FP FR FVY xazeros@size@yAAY line@xDyDFFF 9linestyle9D9E9DFFF 9mrker9D9x9DFFF 9olor9D9r9AY 7line@xDyDFFF 79linestyle9D9E9DFFF 79olor9D9r9AY textwdauiontrol@FFF 9style9D9text9DFFF

MANUALES UEX
373

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

374

9units9D9normlized9DFFF 9position9DFVS FP FI FHSDFFF 9string9D9psdo9DFFF 9poregroundgolor9D9r9AY qutauiontrol@FFF 9style9D9pushutton9DFFF 9string9D9lid9DFFF 9units9D9normlized9DFFF 9position9DFVS FHS FI FHSDFFF 9llk9D9try@99quit99A9AY figure@pigxumAY xes@exrndlA elseif strmp@tionD9gotrj9A xaPHY pointsazeros@PDxAY figure@pigxumAY xes@exrndlAY paget@gD9gurrentoint9AY xap@IDIAYyap@IDPAY points@XDIAaxDy9Y for kaPXx points@XDkAaeeBpoints@XDkEIAY end fwdptaline@points@IDXADpoints@PDXADFFF 9linestyle9D9o9DFFF 9olor9D99DFFF 9ersemode9D9kground9DFFF 9lipping9D9on9AY fwdsegaline@points@IDXADpoints@PDXADFFF 9linestyle9D9E9DFFF 9olor9D99DFFF 9ersemode9D9kground9DFFF 9lipping9D9on9AY for kaPXx points@XDkAainv@eeABpoints@XDkEIAY end wdptaline@points@IDXADpoints@PDXADFFF 9linestyle9D9x9DFFF 9olor9D9r9DFFF 9ersemode9D9kground9DFFF 9lipping9D9on9AY

MANUALES UEX

MTODOS MATEMTICOS PARA ESTADSTICA

wdsegaline@points@IDXADpoints@PDXADFFF 9linestyle9D9E9DFFF 9olor9D9r9DFFF 9ersemode9D9kground9DFFF 9lipping9D9on9AY elseif strmp@tionD9quit9A lose@pigxumA end

MANUALES UEX
375

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicios de la prctica 4 Ejercicio 1. Para cada una de las siguientes ecuaciones en diferencia (sistemas dinmicos) realizar las siguientes tareas: Usar el comando eig para calcular los autovalores y autovectores de la matriz asociada. Escribir en forma cerrada
n n x n +2 = c 1 1 v 1 + c 2 2 v 2

la solucin de la ecuacin. n n Dividir ambos lados de la solucin xn+2 = c1 1 v1 + c2 2 v2 por la n-sima potencia del autovalor dominante y tome el lmite cuando n . Usar el resultado para aproximar xn para valores grandes de n y prediga el comportamiento de la solucin. Ejecutar el m-chero tryFm y vericar que las trayectorias de la solucin se comportan como se indic en el apartado anterior. xn = xn = 0,6 0,0 1,42 0,16 0,2 0,8 0,16 1,18 x n 1 , x n 1 , x0 = x0 = 5 3 1 4 . .

MANUALES UEX
376

MTODOS MATEMTICOS PARA ESTADSTICA

PRCTICA 5

Ecuaciones en diferencias

n esta prctica ilustraremos con algunos sencillos ejemplos como se puede calcular la forma cerrada de la solucin una ecuacin lineal en diferencias con coecientes constantes con condicin inicial. Pre-requisitos: conocimiento de autovalores y autovectores. Forma cannica de Jordan. 1. Ecuaciones en diferencias de primer orden

Consideremos la siguiente expresin: (5.1.1) a n +1 a1

= (6/5) an , n 1 = 2

Esto es una ecuacin en diferencias de primer orden con condicin inicial. Este tipo de expresiones son las que aparecen cuando se denen relaciones por recurrencia. La ecuacin y su condicin inicial dada por la ecuacin (5.1.1) sirven para calcular fcilmente los trminos de la sucesin: a2 a3 a4

(5.1.2)

= (6/5) a1 = (6/5) 2, = (6/5) a2 = (6/5)2 2, = (6/5) a3 = (6/5)3 2, . . .

a11 = (6/5)10 2 12,3835. En efecto,

MANUALES UEX
377

Tal como aparece en la ecuacin (5.1.2), el trmino (n + 1)-simo de la sucesin denida en la ecuacin (5.1.1) viene dado por an+1 = (6/5)n 2. La expresin an+1 = (6/5)n 2 se llama solucin forma cerrada de la ecuacin (5.1.1). Dar la solucin en forma cerrada es til para calcular directamente cualquier trmino de la sucesin generada por la ecuacin (5.1.1). Por ejemplo, el trmino undcimo es:

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

bb IIa@TGSAIHBP
Ahora vamos a usar wevef para producir los primeros once trminos de la sucesin generada por la ecuacin en diferencias de 5.1.1. En primer lugar, declaramos un vector con ceros que usaremos para almacenar los once trminos de la sucesin. En la ecuacin (5.1.1), vemos que el primer valor de la sucesin es a1 = 2. Colocamos este valor en la primera componente del vector a.

bb azeros@IIDIAY bb @IAaP
Segn la ecuacin (5.1.1), el (n + 1)-simo trmino se obtiene multiplicando el n-simo por 6/5. Esto se puede hacer en wevef con un bucle for.

bb for naIXIHD@nCIAa@TGSAB@nAYend bb

2.

Ecuaciones en diferencias de orden p 2

Las soluciones de las ecuaciones en diferencias de orden p 2 tambin admiten una expresin cerrada. En este caso, la clave consiste en escribir la ecuacin en diferencias en forma matricial. La forma cerrada de la solucin depender de si la correspondiente matriz asociada es diagonalizable o no. 2.1. Caso diagonalizable.

Consideremos la ecuacin en diferencias de segundo orden (5.2.3) xn+2 = 3xn+1 2xn , n 1,

MANUALES UEX

con las condiciones iniciales x1 = 1 y x2 = 0. Sabemos que esta ecuacin en diferencias se puede escribir x n +2 x n +1

3 1

2 0

x n +1 xn

De tal forma que si denotamos xn = x n +2 x n +1 , n 1, y A= 3 1

378

2 0

MTODOS MATEMTICOS PARA ESTADSTICA

tenemos que nuestra ecuacin en diferencias se ha transformado en el siguiente sistema de ecuaciones en diferencias (5.2.4) xn = Axn1 , n 1 con la condicin inicial x0 = (0, 1)t . Por consiguiente el trmino general de la solucin de nuestra ecuacin en diferencias ser la primera coordenada de xn . La ecuacin en diferencia (5.2.4) se puede usar para producir una sucesin de vectores en forma similar a como hicimos con la ecuacin (5.1.1). x1 = x2 = x3 = 3 1 3 1 3 1

2 0 2 0 2 0

x0 = x1 = x2 =

3 1 3 1 3 1

2 0 2 0 2 0

0 1

= = =

2 0 6 2 14 6

, , ,

2 0 6 2

y as sucesivamente. Con wevef es muy sencillo generar trminos de la sucesin determinada por la ecuacin (5.2.4). En primer lugar, denimos la matriz A y el vector inicial x0 .

bb eaQDEPYIDH bb xHaHYI
Vamos a generar una sucesin con once trminos. Esta vez, cada trmino de la sucesin es un vector 2 1. Por tanto, reservamos espacio en una matriz X para esos once vectores, y cada uno de ellos se almacenar en una columna. La condicin inicial x0 ir en la primera columna de X.

bb azeros@PDIIAY bb @XDIAaxHY
Recordemos que la notacin @XDIA hace referencia a "todas las las, primera columna"de la matriz X. De forma similar al ejemplo anterior, el k-simo trmino de la sucesin se calcula multiplicando el (k 1)-simo trmino por la matriz A. Usamos un bucle for.

bb for naPXIID@XDnAaeB@XDnEIAYend bb

MANUALES UEX
379

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Es claro del clculo anterior que (5.2.5) x10 =

2046 1022

A continuacin vamos a calcular la forma cerrada de la solucin de la ecuacin en diferencias con condicin inicial u0 : xn x0

= Axn1 , n 1, = u0

cuando la matriz A es diagonalizable. Por ejemplo si la matriz A M2 (R) y tiene dos autovalores 1 , 2 distintos. Supongamos que v1 y v2 son autovectores de A asociados a 1 y 2 respectivamente. Como A es diagonalizable, la condicin inicial u0 se puede escribir como combinacin lineal de v1 y v2 . u0 = c1 v1 + c2 v2 . Podemos calcular x1 como sigue: x1

= Ax0 = Au0 = A ( c1 v1 + c2 v2 ) = c1 Av1 + c2 Av2 = c1 1 v1 + c2 2 v2 = Ax1 = A ( c1 1 v1 + c2 2 v2 ) = c1 1 Av1 + c2 2 Av2 = c1 2 v1 + c2 2 v2 2 1

Para x2 podemos hacer algo anlogo. x2

As, si continuamos de esta forma es claro que una forma cerrada de la ecuacin (5.2.4) est dada por (5.2.6) xn x0
n n = c1 1 v1 + c2 2 v2 , n 1 = c1 v1 + c2 v2

MANUALES UEX
380

Y por lo tanto, el trmino general la solucin de la ecuacin en diferencias (5.2.3) es n n xn+2 = c1 1 v11 + c2 2 v21 , donde v11 y v21 son las primeras coordenadas de los vectores v1 y v2 , respectivamente. Usando los datos de nuestro ejemplo, vamos a usar la ecuacin (5.2.6) para encontrar la forma cerrada de la ecuacin (5.2.4). Recordemos que la

MTODOS MATEMTICOS PARA ESTADSTICA

forma matricial de nuestra ecuacin en diferencias es 3 2 xn = xn1 , n 1, 1 0 x0 = (0, 1)t Para calcular su forma cerrada, realizamos el siguiente procedimiento: 1. Calcular los autovalores y autovectores de la matriz A y comprobar si A es diagonalizable. 2. Expresar la condicin inicial x0 como combinacin lineal de los autovectores. 3. Usar la ecuacin (5.2.6) para escribir la forma cerrada y vericar los resultados. El polinomio caracterstico de la matriz A es A ( x ) = x2 3x + 2. Los autovalores, races del polinomio A ( x ), son 1 = 2 y 2 = 1. El siguiente comando calcula el polinomio caracterstico de A.

bb papoly@eA
Observemos que los coecientes estn escritos en orden decreciente de grado. As, I EQ P representa al polinomio p( x ) = x2 3x + 2. El siguiente comando calcula las races del polinomio caracterstico, que son los autovalores de la matriz A.

bb roots@pA
Otra posibilidad es utilizar el comando eig

bb lmd a eig@eA
Obsrvese que A es diagonalizable, pues tiene tantos autovalores distintos como su orden. Luego, podemos continuar sin problemas. El subespacio de autovectores asociado a cada autovalor es el ncleo de I2 A. Aunque es fcil hacerlo a mano, vamos a usar el comando null de wevef para obtener los autovectores asociados a cada autovalor. Teclea help null para ver una descripcin del comando.

bb vIanull@lmd@IABeye@PAEeD9r9A bb vPanull@lmd@PABeye@PAEeD9r9A

MANUALES UEX
381

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Por tanto, el autovector asociado a 1 = 2 es v1 = (2, 1)t y el autovector asociado a 2 = 1 es v2 = (1, 1)t . La opcin 9r9 hace que wevef calcule el autovalor de una forma similar a como se hara a mano. Si no se usa la opcin 9r9, wevef calcula una base ortonormal del ncleo. El comando

bb Dh a eig@eA
devuelve de forma directa la matriz diagonal D = diag(1 , 2 ) y la matriz de paso P tal que D = P1 AP. En efecto,

bb inv@ABeB
Nuestra segunda tarea es escribir x0 como combinacin lineal de v1 y v2 . As, queremos calcular c1 y c2 R tales que x0 = c1 v1 + c2 v2 , que en nuestro caso es 0 1 2 1 1 1

= c1

+ c2

Esta ecuacin entre vectores se puede escribir en forma matricial como 2 1 1 1 c1 c2 Pc = x0 . Observemos que lo que estamos haciendo es un cambio de base. Conocemos las coordenadas respecto de la base B = {e1 , e2 } y queremos obtener las coordenadas respecto de la nueva base B = {v1 , v2 }. En este caso, P es la matriz del cambio de base de B a B . La solucin del sistema es c = P1 x0 . Vamos a ver cmo se puede calcular con wevef. En primer lugar, denimos la matriz de paso P M2 (R)

0 1

MANUALES UEX
382

bb avIDvP
Tambin se puede usar la matriz P calculada mediante el comando Dh a eig@eA aunque los resultados intermedios sern distintos, no as el resultado nal debe ser el mismo.

MTODOS MATEMTICOS PARA ESTADSTICA

Escribamos la condicin inicial y calculemos c

bb xHaHYIY bb ainv@ABxH
Por tanto, c= c1 c2

1 2

Por ltimo, sustituimos los valores de c1 , c2 , autovalores y autovectores en la ecuacin (5.2.6), y obtenemos que xn = (1)(2)n Tras simplicar, (5.2.7) x n = 2n 2 1 2 1

+ (2)(1)n

1 1

2 2

2 2n +1 2 2n

Podemos vericar que es correcto. Por ejemplo, para calcular x10 sustituimos n = 10 en 5.2.7 y nos queda x10 = 210 En efecto, 2 1

2 2

2048 1024

2 2

2046 1022

bb xIH a EPIHBPYICPBIYI
Observemos que coincide con el resultado obtenido en (5.2.5). Podemos usar tambin wevef para generar trminos de la sucesin a partir de la ecuacin (5.2.7).

Notemos que esta salida coincide con la que encontramos anteriormente al usar la ecuacin (5.2.4). En efecto,

bb aa

MANUALES UEX
383

bb azeros@PDIIAY bb for naIXIID@XDnAaEP@nEIABPYICPBIYIYend bb

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

De todo lo anterior se deduce que el trmino general de la solucin de la ecuacin en diferencias (5.2.3) es xn+2 = 2 2n+1 , n 1, x2 = 0, x1 = 1. Teniendo en cuenta que una sucesin de nmeros reales es, en particular, una funcin N R; n xn , podemos denir una sucesin en wevef como una funcin. Para ello abrimos el editor de wevef y escribimos

funtion y a x@nA y a PEP@nEIAY


y lo guardamos con el nombre xFm Si escribimos ahora

bb x@IPA
en wevef obtendremos el valor que toma la sucesin ( xn )nN que es solucin de la ecuacin en diferencias (5.2.3) en n = 12. 2.2. Caso A no diagonalizable.

En apartado anterior vimos con un ejemplo cmo se poda obtener una forma cerrada de la solucin de una ecuacin en diferencias cuando su matriz asociada era diagonalizable. Exploremos ahora con otro ejemplo qu ocurre en el caso no diagonalizable. Para ello, consideremos el siguiente caso (5.2.8) xn+2 = 4xn+1 4xn , n 1, x2 = 1, x1 = 1,

cuya expresin matricial con la notacin habitual es 4 4 xn = xn1 , n 1, (5.2.9) 1 0 t x0 = (1, 1)

MANUALES UEX
384

Calculemos la forma cannica de Jordan de A tal y como se explic en las clases de teora. En principio podramos tratar de calcularla con la orden eig

bb e a RD ERY I DH bb Dt a eig@eA
Hasta el momento no parece haber ningn problema; a menos que tratemos de comprobar la igualdad J = P1 AP

MTODOS MATEMTICOS PARA ESTADSTICA

bb inv@ABeB
ya que la matriz P que nos ha devuelto wevef no es invertible. Esto ocurre en general con wevef cuando usamos el comando eig con matrices no diagonalizables, y la matriz A de nuestro ejemplo no lo es, ya que su polinomio caracterstico es A ( x ) = x2 4x + 4 = ( x 2)2 pero la dimensin del subespacio propio asociado a = 2 es uno; vemoslo:

bb poly@eA
Luego, A tiene un autovalor = 2 de multiplicidad 2.

bb lmd a eig@eA
Sin embargo la dimensin del subespacio propio ker(I2 A) es uno.

bb PErnk@lmd@IABeye@PA E eA
Por consiguiente, para calcular la forma cannica de Jordan de A necesitamos considerar los subespacios invariantes generalizados asociados a L0 = {0} L1 = ker(I2 A) L2 = ker((I2 A)2 ) . . . En este caso, basta L2 pues su dimensin ya coincide con la multiplicidad de .

bb PErnk@@lmd@IABeye@PA E eAPA
Dado que n2 = dim( L2 ) = 2, n1 = dim( L1 ) = 1 y n0 = dim( L0 ) = 0, tenemos que p2 = n2 n1 = 1 y p1 = n1 n0 = 1. Luego, hay sabemos que hay p2 = 1 bloques de Jordan de orden 2 y p1 p2 = 0 bloques de Jordan de orden 1, es decir, la forma cannica de Jordan de A es J= 2 0 1 2

bb t a PD IY HD P
Calculemos ahora una matriz P M2 (R) tal que P1 AP = J; para ello elegimos p2 vectores de L2 que sean linealmente independientes mdulo L1 , en nuestro caso, basta tomar un vector de L2 que no est en L1 , por ejemplo,

MANUALES UEX
385

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

v21 = e1 = (1, 0)t , y calculamos v11 = (I2 A)v21 . As, la matriz buscada no es ms que P = (v11 |v21 )

bb bb bb bb bb

vPI a IYH vII a E@lmd@IABeye@PAEeABvPI a vIIDvPI inv@ABeB t

Pasemos entonces a resolver la ecuacin (5.2.9). Observemos que xn

= = . . . =

Axn1 A 2 x n 2 A n x0 .

El problema, por tanto, se reduce a encontrar una expresin de An . Aqu viene en nuestra ayuda la forma cannica de Jordan. Se tiene que An = ( P J P1 )k = PJP1 PJP1 PJP1 = PJ n P1 . La cuestin ahora es si podemos encontrar fcilmente la expresin de J n . Veamos el comportamiento:

bb tPD tQD tR
Tal y como vimos en las clases de teora, tenemos que Jn = 2n 0 n2n1 2n .

Entonces la solucin de la ecuacin (5.2.9) es

MANUALES UEX

xn = An x0 = PJ n P1 x0 =

2n +1 2n

( n + 1 )2n n2n1 =

P 1 x 0

2n +1 2n

( n + 1 )2n n2n1

1 3

2n +1 + 3 ( n + 1 )2n 2n + 3n2n1

386

y el trmino general de la solucin de la ecuacin en diferencias (5.2.8) es, por lo tanto, xn+2 = 2n+1 + 3(n + 1)2n = n2n+1 + (n + 1)2n , n 1. Al igual que antes podemos denir la sucesin como una funcin de wevef

MTODOS MATEMTICOS PARA ESTADSTICA

funtion yax@nA y a @nEIABP@nEPA C @nEPABP@nEIA


que debemos de guardar con el nombre xFm para luego poder invocarla en la ventana de wevef

MANUALES UEX
387

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicios de la prctica 5 Ejercicio 1. Dar la forma cerrada de la solucin y denir la correspondiente sucesin como funcin de wevef para cada una de siguiente ecuaciones en diferencias con la condicin inicial dada. 1. xn+3 = 5xn+2 8xn+1 + 4xn , x2 = 3, x1 = 2, x0 = 1 2. xn+3 = 3xn+2 3xn+1 + xn , x2 = 3, x1 = 2, x0 = 1 3. xn+3 = 2xn+2 + xn+1 2xn , x2 = 3, x1 = 2, x0 = 1.

MANUALES UEX
388

MTODOS MATEMTICOS PARA ESTADSTICA

PRCTICA 6

Matrices de Leslie

l modelo matricial de Leslie es una herramienta usada para determinar el crecimiento de una poblacin as como la distribucin por edad a lo largo del tiempo. Esta prctica est centrada en el uso de la matriz de Leslie para determinar el crecimiento de una poblacin y los porcentajes de distribucin por edad a lo largo del tiempo. Esta descripcin fue hecha por P.H. Leslie en 1945 (Biometrika, vol. 33, (1945), pp. 183-212). Se ha usado para estudiar la dinmica de poblaciones de una amplia variedad de organismos, como truchas, conejos, escarabajos, piojos, orcas, humanos o pinos. Pre-requisitos: multiplicacin de matrices e indexado en wevef, autovalores y autovectores. Matrices no negativas irreducibles. 1. Planteamiento y discusin del modelo

El modelo de Leslie para el estudio de una poblacin una cierta especie de salmn parte de las siguiente hiptesis: Solamente se consideran las hembras en la poblacin de salmones. La mxima edad alcanzada por un individuo son tres aos. Los salmones se agrupan en tres tramos de un ao cada uno. La probabilidad de sobrevivir un salmn de un ao para otro depende de su edad. La tasa de supervivencia, si , en cada grupo es conocida. La fecundidad (tasa de reproduccin), f i , en cada grupo es conocida. La distribucin de edad inicial es conocida. Con este punto de partida es posible construir un modelo determinista con matrices. Como la edad mxima de un salmn es tres aos, la poblacin entera puede dividirse en tres clases de un ao cada una. La clase 1 contiene los salmones en su primer ao de vida, la clase 2 a los salmones entre 1 y 2 aos, y la clase 3 a los salmones de ms de dos aos. Supongamos que conocemos el nmero de hembras en cada una de las tres clases en un momento inicial. Llamemos p1 (0) al nmero de hembras en

MANUALES UEX
389

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

la primera clase, p2 (0) al nmero de hembras en la segunda clase y p3 (0) al nmero de hembras en la tercera clase. Con estos tres nmeros formamos el vector p1 (0) p (0) = p2 (0) . p3 (0) Llamamos a p(0) el vector inicial de distribucin por edad, o vector de distribucin de edad en el instante inicial o instante 0. A medida que el tiempo pasa, el nmero de hembras en cada una de las tres clases cambia por la accin de tres procesos biolgicos: nacimiento, muerte y envejecimiento. Mediante la descripcin de estos procesos de forma cuantitativa podremos estimar el vector de distribucin por edad en el futuro. Observaremos la poblacin en intervalos discretos de un ao, denidos por 0, 1, 2, . . . Los procesos de nacimiento y muerte entre dos observaciones sucesivas se pueden describir a travs de los parmetros tasa media de reproduccin y tasa de supervivencia. Sea f 1 el nmero medio de hembras nacidas de una hembra en la primera clase, f 2 el nmero medio de hembras nacidas de una hembra en la segunda clase, y f 3 el nmero medio de hembras nacidas de una hembra en la tercera clase. Cada f i es la tasa media de reproduccin de una hembra en la clase i-sima. Sea s1 la fraccin de hembras en la primera clase que sobreviven el ao para pasar a la segunda clase. Sea s2 la fraccin de hembras en la segunda clase que sobreviven el ao para pasar a la tercera clase. No hay s3 . Tras cumplir 3 aos, el salmn muere tras desovar, y ninguno sobrevive para llegar a una cuarta clase. En general, f i es la tasa media de reproduccin de una hembra en la clase i. si es la tasa de supervivencia de hembras en la clase i. Por su denicin f i 0, porque la descendencia no puede ser negativa. En el caso de esta poblacin de salmones, f 1 = 0, f 2 = 0, porque el salmn solamente produce huevos en su ltimo ao de vida. Por ello, nicamente f 3 tiene un valor positivo. Tenemos tambin que 0 < si 1 para i = 1, 2, porque suponemos que alguno de los salmones debe sobrevivir para llegar a la siguiente clase. Esto es cierto excepto para la ltima clase, donde el salmn muere. Denimos el vector de distribucin por edad en el instante j por p1 ( j ) p ( j ) = p2 ( j ) , p3 ( j ) donde pi ( j) es el nmero de salmones hembra en la clase i en el instante j.

MANUALES UEX
390

MTODOS MATEMTICOS PARA ESTADSTICA

En el instante j, el nmero de salmones en la primera clase, p1 ( j), es igual a los salmones nacidos entre los instantes j 1 y j. El nmero de descendientes producidos por cada clase se puede calcular multiplicando la tasa media de reproduccin de la clase por el nmero de hembras en la clase de edad. La suma de todos estos valores proporciona el total de descendientes. As, escribimos p1 ( j ) = f 1 p1 ( j 1) + f 2 p2 ( j 1) + f 3 p3 ( j 1), que indica que el nmero de hembras en la clase 1 es igual al nmero de hijas nacidas de hembras en la clase 1 entre los instantes j 1 y j ms el nmero de hijas nacidas de hembras en la clase 2 entre j 1 y j, ms el nmero de hijas nacidas de hembras en la clase 3 entre j 1 y j. En este ejemplo, como los salmones solamente producen huevos en su ltimo ao de vida, tenemos que f 1 = f 2 = 0, y nos queda la ecuacin p1 ( j ) = 0 p1 ( j 1) + 0 p2 ( j 1) + f 3 p3 ( j 1). El nmero de hembras en la segunda clase de edad en el instante j se obtiene a partir de las hembras de la primera clase en el instante j 1 que sobreviven al instante j. En forma de ecuacin, nos queda p2 ( j ) = s1 p1 ( j 1). El nmero de hembras en la tercera clase de edad en el instante j procede del nmero de hembras de la segunda clase de edad en el instante j 1 que sobreviven al instante j. Como antes, esto nos lleva a p3 ( j ) = s2 p2 ( j 1). Por tanto, llegamos a la siguiente expresin: p1 ( j ) p2 ( j ) p3 ( j )

= f 1 p1 ( j 1) + f 2 p2 ( j 1) + f 3 p3 ( j 1) = s1 p1 ( j 1) = s2 p2 ( j 1)

En notacin vectorial nos queda p ( j ) = A p ( j 1), donde p1 ( j ) p ( j ) = p2 ( j ) p3 ( j )

MANUALES UEX
391

que en trminos matriciales se puede expresar como p1 ( j 1) p1 ( j ) f1 f2 f3 p2 ( j ) = s1 0 0 p2 ( j 1) . p3 ( j ) 0 s2 0 p3 ( j 1)

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

es la distribucin por edad en el instante j y f1 f2 f3 A = s1 0 0 0 s2 0 se denomina matriz de Leslie. Como en nuestro ejemplo f 1 = f 2 cin de salmones es 0 A = s1 0

= 0, la matriz de Leslie para la pobla0 0 s3 f3 0 . 0

Podemos generar ahora una sucesin de ecuaciones matriciales para calcular el vector de distribucin por edad en cualquier instante j. p (1) p (2) p (3) p( j)

= = = . . . =

A p (0) A p(1) = A( A p(0)) = A2 p(0) A p(2) = A( A2 p(0)) = A3 p(0) A p( j 1) = A( A j1 p(0)) = A j p(0)

Por tanto, si conocemos el vector de distribucin por edad inicial p1 (0) p (0) = p2 (0) p3 (0) y la matriz de Leslie podemos determinar el vector de distribucin por edad de la poblacin de hembras en cualquier instante posterior con la multiplicacin de una potencia apropiada de la matriz de Leslie por el vector de distribucin por edad inicial p(0).

MANUALES UEX

2.

Un ejemplo concreto con wevef

Supongamos que hay 1 000 hembras en cada una de las tres clases. Entonces p1 (0) 1000 p(0) = p2 (0) = 1000 . p3 (0) 1000 Supongamos que la tasa de supervivencia del salmn en la primera clase es de 0, 5 %, la tasa de supervivencia del salmn en la segunda clase es 10 %,

392

MTODOS MATEMTICOS PARA ESTADSTICA

y que cada hembra de la tercera clase produce 2000 hembras en su puesta. Entonces s2 = 0, 005, s3 = 0, 10 y f 3 = 2000. La matriz de Leslie es entonces 0 0 2000 A = 0, 005 0 0 . 0 0, 10 0 Para calcular el vector de distribucin por edad despus de un ao, usamos la ecuacin p(1) = Lp(0). Vamos a emplear wevef para dicho clculo. Primero, introducimos el vector de distribucin de edad inicial y la matriz de Leslie.

bb pHaIHHHYIHHHYIHHHY bb eaHDHDPHHHYHFHHSD HDHYHDHFIDH


Notemos que wevef usa notacin cientca. El valor IFHeCHHQ que precede a la matriz indica que debemos multiplicar cada entrada de la matriz por 1 103 , es decir, hay que mover la coma decimal tres lugares a la derecha. Vamos a probar un nuevo formato para la salida (con help formt se obtiene una lista completa de todas las posibilidades).

bb formt short g bb eaHDHDPHHHYHFHHSD HDHYHDHFIDH


El comando formt short g indica a wevef que use el mejor entre formato jo o en coma otante, segn cada entrada de la matriz. Ahora calculamos p(1) como sigue.

bb pIaeBpH
El vector de distribucin de edad p(1) muestra que tras el primer ao hay 2 000 000 de salmones en la primera clase, 5 en la segunda clase y 100 en la tercera clase. Procedemos ahora a calcular p(2), el vector de distribucin por edad despus de 2 aos.

bb pPaeBpI
El mismo resultado lo tendramos con

bb pPaePBpH

MANUALES UEX
393

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

El vector de distribucin por edad p(2) indica que despus de 2 aos hay 200 000 salmones en la primera clase de edad, 10 000 en la segunda clase de edad y 0, 5 en la tercera clase. En la realidad, es imposible tener medio salmn. Sin embargo, apartemos de momento esta cuestin y calculemos la poblacin tras 3 aos.

bb pQaeBpP
Observemos que la poblacin de salmones ha vuelto a su conguracin original, con 1 000 peces en cada categora. Usa wevef para realizar 4 iteraciones ms p(4), p(5), p(6) y p(7). Qu pauta sigue? 2.1. El grco de un vector de distribucin por edad.

Una de las mejores formas de examinar tendencias en el crecimiento de una poblacin es dibujar el grco del vector de distribucin por edad a lo largo del tiempo. Tambin es deseable hacer un seguimiento de la poblacin por ms de tres o cuatro aos. La iteracin de la ecuacin p( j) = A p( j 1) como lo hemos hecho antes es ineciente. Si conocemos de antemano el nmero de veces que queremos realizar la iteracin debemos usar un bucle for de wevef para realizarla. La iteracin de p( j) = A p( j 1) un total de 24 veces producir 24 generaciones del vector de distribucin por edad. En wevef es recomendable reservar espacio en memoria para almacenar los resultados. Creamos entonces una matriz de ceros de orden 3 24. Las 3 las se deben a que cada vector tiene tres componentes y las 24 columnas por las generaciones que deseamos calcular.

bb azeros@QDPRAY
Ahora colocamos el vector de distribucin por edad inicial en la primera columna de la matriz P.

MANUALES UEX
394

bb @XDIAapHY
Recordemos que la notacin @XDIA indica "todas las las, primera columna". Por tanto, el comando @XDIAapHY pone las condiciones iniciales, contenidas en pH, en la primera columna de la matriz P. Calculamos el contenido de las columnas 2 a 24 de la matriz P por iteracin de la ecuacin p( j) = A p( j 1), con j variando de 2 a 24.

MTODOS MATEMTICOS PARA ESTADSTICA

bb for jaPXPRD @XDjAaeB@XDjEIAY end


cuando el nmero de iteraciones se conoce de antemano, el bucle for de wevef es la solucin ms adecuada. Recordemos que PXPR produce un vector la, que comienza en 2 y con incremento de 1 llega a 24. Entonces el comando for jaPXPR inicia un bucle que empieza con un valor de j igual a 2. En el siguiente paso del bucle j tendr un valor de 3. La iteracin contina y el ltimo paso por el bucle j tendr un valor de 24. El comando end indica el nal de las sentencias a ejecutar dentro del bucle. El comando @XDjAaeB@XDjEIA merece una explicacin. Recordemos que @XDjA se lee como matriz P, todas las las, j-sima columna". De igual forma, el comando @XDjEIA se lee como "matriz P, todas las las, ( j 1)sima columna". Por tanto, el comando @XDjAaeB@XDjEIA calcula el producto de la matriz de Leslie A y la columna ( j 1)-sima de la matriz P, y almacena el resultado en la columna j-sima de la matriz P. Hemos nalizado el comando con ;", pero puede resultar instructivo ejecutarlo sin l. Una vez que la iteracin est completa, podemos mostrar el contenido de la matriz P.

bb
Teclea help plot en el indicador de wevef y lee la ayuda. Prestemos atencin a la lnea que indica vy@A plots the olumns of versus their index. Sin embargo, la primera la de la matriz P contiene el nmero de salmones hembra en la primera clase de edad, la segunda la contiene la segunda clase de edad, y la tercera la contiene el nmero de salmones hembra en la tercera y ltima clase de edad. Queremos pintar las las de P a lo largo de su ndice, pero plot@A dibuja las columnas de P a lo largo de su ndice. Para ver la diferencia hagamos el siguiente experimento. Introducimos

y veamos las matrices de la siguiente forma 1 2 3 4 5 1 2 3 4 5 2 3 4 5 1

1 2

1 2

2 3

3 4

4 5

5 1

,Y

MANUALES UEX
395

bb aIDPDQDRDSYPDQDRDSDIY bb plot@D9BE9ADfigureDplot@9D9BE9A

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Observamos que en la primera gura de la izquierda estn representados los pares de puntos

{(1, 1), (2, 2)}, {(1, 2), (2, 3)}, {(1, 3), (2, 4)}, {(1, 4), (2, 5)} y {(1, 5), (2, 1)}.
En la gura de la derecha encontramos a los conjuntos de 5 puntos

{(1, 1), (2, 2)), (3, 3), (4, 4), (5, 5)} y {(1, 2), (2, 3), (3, 4), (4, 5), (5, 1)}.
Por tanto, la solucin para pintar lo que queremos de la matriz P es considerar su transpuesta.

bb plot@9A
Si hemos dicho que el comando plot@9A dibuja cada una de las columnas de la matriz P , dnde estn los otros dos grcos en la gura? Si miramos con cuidado, observaremos que cerca del eje x hay algo por encima. Notemos que el valor superior de del eje y es 2 106 . Cuando hay un rango tan amplio en los datos, como en este caso, que aparecen desde 1/2 hasta 2 000 000, podemos obtener una mejor visin dibujando el logaritmo de la poblacin de salmones a lo largo del tiempo.

bb semilogy@9A
A menudo es til aadir una leyenda al grco.

bb legend@9elevines9D9reEdultos9D9edultos9A Se ve claramente a partir de la ltima gura que cada divisin por edad de la poblacin de salmones oscila con periodo 3. Podemos mejorar un poco el grco cambiando el tipo de lnea. Ejecutemos los siguientes comandos. bb bb bb bb bb hasemilogy@9A set@h@IAD9vinetyle9D9EE9A set@h@PAD9vinetyle9D9X9A legend@9elevines9D9reEdultos9D9edultos9A grid off

MANUALES UEX
396

Nota.- A partir de a versin 6 de wevef es posible cambiar el estilo de lnea de forma interactiva, editando el grco y pulsando el botn derecho del ratn sobre la lnea. Un men desplegable nos muestra estilos de lnea, color y otras propiedades.

MTODOS MATEMTICOS PARA ESTADSTICA

3.

Otro ejemplo con wevef

Consideremos ahora otra poblacin tambin divida en tres clases de edad. Supongamos que cada hembra de la segunda y tercera clases producen una descendencia femenina de 4 y 3 miembros, respectivamente, en cada iteracin. Supongamos adems que el 50 % de las hembras de la primera clase sobreviven a la segunda clase, y que el 25 % de las hembras de la segunda clase llegan vivas a la tercera clase. La matriz de Leslie de esta poblacin es 0 4 3 A = 0,5 0 0 . 0 0,25 0 Supongamos que el vector inicial de poblacin es 10 p(0) = 10 . 10

bb eaHDRDQYHFSDHDHYHDHFPSDHY bb pHaIHYIHYIHY
Vamos a seguir los cambios en la poblacin sobre un periodo de 10 aos. Empezamos en el ao cero y acabamos en el ao 11. Hay tres clases que calcular en cada iteracin. Empezamos creando una matriz que contendr los datos de la poblacin. La matriz tendr tres las, y cada la contendr los datos de una clase de edad. La matriz tendr 11 columnas, y la primera de ellas tendr el vector inicial de distribucin por edad. Las diez restantes columnas almacenarn los vectores de distribucin por edad en cada paso de la iteracin (desde el ao 1 hasta el ao 10).

bb azeros@QDIIAY
Ponemos el vector inicial en la primera columna de la matriz P.

bb @XDIAapHY
Ahora usaremos la ecuacin (6.3.1) p ( j ) = A p ( j 1)

para calcular el vector de distribucin por edad en los siguientes 10 aos. Estos diez vectores se pondrn en las columnas 2 a la 11 de la matriz P. En

MANUALES UEX
397

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

el paso j-simo, calculamos el vector de distribucin por edad nmero j multiplicando el correspondiente j 1 por la matriz A. Esto admite el siguiente bucle for.

bb for jaPXIID @XDjAaeB@XDjEIAYend


Podemos ver el resultado introduciendo la variable que contiene los datos.

bb
Recordemos que el prejo IFHeCHHQ signica que cada nmero en la salida debe multiplicarse por 103 . Para el resto de la actividad, usaremos otro formato.

bb formt short g bb
La distribucin de poblacin en cada ao aparece como un vector columna de la matriz P. La grca de la evolucin de la poblacin a lo largo del tiempo se puede obtener como sigue.

bb bb bb bb

jaHXIHY plot@jD9A xlel@9iempo9A ylel@9olin9A

El grco se aclara si aadimos una leyenda a cada color.

bb legend@9rimer lse de edd9D9egund lse de edd9D FFF 9erer lse de edd9A

MANUALES UEX
398

Observemos que el nmero de hembras en cada grupo de edad en la gura se incrementa con el tiempo, con cierto comportamiento oscilatorio. Podemos dibujar el logaritmo de la poblacin a lo largo del tiempo, tal como aparece en una gura obtenida con la siguiente secuencia de comandos.

bb ja@HXIHAY bb semilogy@jD9A bb xlel@9iempo9A

MTODOS MATEMTICOS PARA ESTADSTICA

bb ylel@9vog olion9A bb legend@9rimer lse de edd9D9egund lse de edd9D FFF 9erer lse de edd9A

Nota.- Sabemos que las matrices de Leslie son irreducibles, por lo que posee un autovalor real positivo que es mayor que cualquiera de sus otros autovalores. Adems, este autovalor tiene multiplicidad uno y tiene un autovector positivo asociado. Vamos a usar wevef para calcular los autovalores y autovectores de A.

bb Dhaeig@eA
Denotemos 1 = 1,5, 2 = 1,309 y 3 = 0,19098, y v j la columna j-sima de V, j = 1, 2, 3. En este caso, vemos que := 1 = 1,5 es el autovalor dominante, y un autovector asociado positivo a es 0,947370 v = v1 = 0,315790 , 0,052632 que es la primera columna de la matriz V cambiada de signo. Por lo que hemos visto en clase de teora, el lmite de las proporciones n de cada clase de edad sobre la poblacin total es igual a v/ i=1 vi . En este caso podemos calcular

bb vaE@XDIA bb vGsum@vA
Por tanto, la primera clase de edad compondr el 72 % de la poblacin, la segunda clase el 24 % y la tercera clase el 4 % de la poblacin total. Vamos a comprobar con wevef que, en efecto, el comportamiento a largo plazo de la poblacin sigue este esquema. Desarrollando la expresin (6.3.1) obtenemos que (6.3.2) j j p( j) = A p( j 1) = A j p(0) = VDV 1 p(0) = c1 j v1 + c2 2 v2 + c3 3 v3

MANUALES UEX
399

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

En nuestro caso queda

0,93201 0,94737 p( j) =c1 (1,5) j 0,31579 + c2 (1,309) j 0,356 0,052632 0,067989 0,22588 + c3 (0,19098) j 0,59137 0,77412

bb pIHHaeIHHBpH bb pIHHGsum@pIHHA
Los comandos anteriores han calculado el porcentaje de poblacin de cada clase de edad tras 100 aos. Vemos que coincide con lo que habamos deducido a partir de v. Vamos a dibujar la evolucin de los porcentajes de cada clase de edad en los primeros 100 aos. Primero almacenamos los vectores de distribucin por edad.

bb azeros@QDIHIAY bb @XDIAapHY bb for jaPXIHID@XDjAaeB@XDjEIAYend


Ahora podemos obtener los porcentajes de cada clase de edad sobre la poblacin total dividiendo cada columna por su suma.

bb qazeros@QDIHIAY bb for jaIXIHID q@XDjAa@XDjAGsum@@XDjAAYend


La grca de estas poblaciones "normalizadas.es interesante.

MANUALES UEX
400

bb jaHXIHHY bb plot@jDq9A bb xlel@9iempo9A bb ylel@9orentjes9A bb legend@9rimer lse de edd9D9egund lse de edd9DFFF 9erer lse de edd9A
Despus de un nmero suciente de aos, el porcentaje de organismos en cada clase se aproxima a 74 %, 24 % y 4 %.

MTODOS MATEMTICOS PARA ESTADSTICA

El autovalor dominante = 1,5 nos dice cmo cambia el vector de poblacin de un ao para otro. Veamos los siguientes comandos.

bb pWWaeWWBpH bb pIHHFGpWW
El comando pIHHFGpWW divide cada componente del vector pIHH por la correspondiente del vector pWW. En este caso vemos que el nmero de hembras en cada clase de edad despus de 100 aos es 1,5 veces el nmero de hembras en cada clase tras 99 aos. En general, tras un periodo largo de tiempo, p( j) = 1,5p( j 1). Esta frmula se puede deducir de la ecuacin 6.3.2 como sigue. Por la ecuacin 6.3.2 para j sucientemente grande tenemos que p ( j ) c1 j v1 . De forma anloga tenemos que p ( j 1 ) c 1 j 1 v 1 , o de forma equivalente v1 Entonces p ( j ) c1 j 1 p ( j 1) = p ( j 1). c 1 j 1 4. Resumen 1 p ( j 1). c 1 j 1

El modelo de Leslie est denido por la ecuacin p( j) = L j p(0), donde p(0) es el vector inicial de distribucin de la poblacin, y p( j) el el vector de distribucin de poblacin en el instante j. Si A es diagonalizable, entonces A = VDV 1 , donde D es una matriz diagonal formada por los autovalores de A. Las columnas de V son los autovectores correspondientes. En este caso, el modelo de Leslie se puede escribir como p ( j ) = c1 1 v1 + c2 2 v2 + . . . + c n n v n , donde i , vi son autovalor y autovector asociados. Si = 1 es autovalor estrictamente dominante de A, entonces para valores grandes de j se tiene que p ( j ) c1 j v1 , y la proporcin de hembras en cada clase de edad tiende a una constante. Estas proporciones lmites se pueden determinar a partir de las componentes
j j j

MANUALES UEX
401

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

de v1 . Por ltimo, el autovalor dominante determina la tasa de cambio de un ao para otro. Como p( j) p( j 1) para valores grandes de j, el vector de poblacin en el instante j es un mltiplo del vector de poblacin en ele instante j 1. Si 1 > 1 entonces la poblacin tendr un crecimiento indenido. Si 1 < 1, entonces la poblacin se extinguir.

MANUALES UEX
402

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicios de la prctica 6 Ejercicio 1. Supongamos que una especie de salmn vive cuatro aos. Adems, supongamos que la tasa de supervivencia en sus primero, segundo y tercer aos son, respectivamente, 0, 5 %, 7 % y 15 %. Sabemos tambin que cada hembra en la cuarta clase de edad produce 5 000 huevos de hembra. Las otras clases de edad no tienen descendencia. 1. Calcular la matriz de Leslie de la poblacin. 2. Si se introducen en el sistema 1 000 salmones hembra en cada clase de edad, calcular el vector de distribucin de edad inicial. 3. Usar un bucle for para iterar la ecuacin de Leslie 25 veces. Usar los grcos de wevef para dibujar el logaritmo de cada clase de edad a lo largo del tiempo. Cul es el destino de esta poblacin de salmones? 4. Calcular la poblacin de salmones en la iteracin nmero 50, sin calcular las 49 iteraciones anteriores. Ejercicio 2. En la misma situacin anterior, pero con tasas de supervivencia iguales a 2 %, 15 % y 25 %, respectivamente. Cada hembra de la cuarta clase produce 5 000 huevos hembra. Responder a las mismas cuestiones del ejercicio anterior. Ejercicio 3. En la misma situacin anterior, pero con tasas de supervivencia iguales a 1 %, 10 % y 2 %, respectivamente. Cada hembra de la cuarta clase produce 5 000 huevos hembra. Responder a las mismas cuestiones del ejercicio anterior. Ejercicio 4. Las hembras de cierta especie animal viven tres aos. Supongamos que la tasa de supervivencia de hembras en sus primero y segundo aos es del 60 % y 25 %, respectivamente. Cada hembra del segundo grupo de edad tiene 4 hijas al ao de media, y cada hembra del tercer grupo tiene una media de 3 hijas por ao. 1. Calcular la matriz de Leslie de esta poblacin. 2. Supongamos que al inicio hay 10 hembras en cada clase de edad. Usar wevef para calcular el vector de distribucin por edad para los primeros 100 aos, y dibujar los vectores de distribucin por edad con los comandos plot y semilogy. 3. Usar wevef para calcular los autovalores y autovectores de la matriz de Leslie. Qu le ocurre a esta poblacin a lo largo del tiempo? 4. Tras 100 aos, cul es el porcentaje de hembras en cada clase? 5. A largo plazo, cul es el factor de aumento o disminucin? Ejercicio 5. Igual que el ejercicio anterior, con tasas de supervivencia iguales a 20 % y 25 % y resto de datos iguales.

MANUALES UEX
403

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicio 6. Supongamos que una poblacin de salmones vive tres aos. Cada salmn adulto produce 800 huevos hembras. La probabilidad de que un salmn sobreviva el primer ao y pase al segundo ao es del 5 %, y la probabilidad de que un salmn sobreviva el segundo ao y llegue al tercero es 2,5 %. 1. Calcule la matriz de Leslie de esta poblacin. 2. Supongamos que al inicio hay 10 hembras en cada clase de edad. Use wevef para calcular el vector de distribucin por edad para los primeros 100 aos. 3. Use wevef para calcular los autovalores y autovectores de la matriz de Leslie. Hay un autovalor dominante? 4. Describir el comportamiento de la poblacin a lo largo del tiempo. Ejercicio 7. Supongamos que la poblacin de un pas se divide en clases de 6 aos de duracin. Los valores de las tasas de reproduccin f i y supervivencia si para cada clase se muestran en la siguiente tabla: i fi si 1 0 0.99670 2 0.00102 0.99837 3 0.08515 0.99780 4 0.30574 0.99672 5 0.40002 0.99607 6 0.28061 0.99472 7 0.15260 0.99240 8 0.06420 0.98867 9 0.01483 0.98274 0 10 0.00089 Supongamos que hay 10 hembras en cada una de las 10 clases al principio. Resolver las mismas preguntas que en el ejercicio 4.

MANUALES UEX
404

MTODOS MATEMTICOS PARA ESTADSTICA

PRCTICA 7

Cadenas de Markov
n lneas generales, un proceso estocstico consiste en una serie de sucesos que cambian con el tiempo de una forma secuencial y con ciertas probabilidades. Los sucesos no suelen ser independientes, y lo que ocurra en el instante t depende de lo ocurrido en los instantes t 1, t 2, . . . Cuando la probabilidad asociada a un suceso depende solamente de su estado anterior, el proceso se denomina cadena de Markov. En esta actividad analizamos diversos procesos que pueden ser modelizados por una cadena de Markov, y estudiaremos la situacin lmite. Pre-requisitos: Autovalores y autovectores. Matrices no negativas 1. Un ejemplo con wevef

Supongamos que los procesos migratorios entre dos zonas geogrcas, que llamaremos Norte y Sur, son como siguen. Cada ao, el 50 % de la poblacin del Norte emigra al Sur, mientras que el 25 % de la poblacin del Sur emigra al Norte. Este proceso se puede representar como aparece en la gura 1. GFED @ABC 3 N h
0,5

0,5

'

0,25

89:; ?>=< S i

0,75

Figura 1. Procesos migratorios. Queremos estudiar la evolucin de la poblacin a largo plazo. Sea nt la proporcin de la poblacin total que vive en el Norte al nal del ao t, y st la correspondiente para la que vive en el Sur. El modelo de migracin establece que las proporciones de poblacin en cada regin al nal del ao t + 1 son (7.1.1) n t +1 s t +1

= nt (,5) + st (,25) = nt (,5) + st (,75)

MANUALES UEX
405

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Si escribimos pt = nt st

para indicar el vector de poblacin en el instante m, entonces la ecuacin (7.1.1) se puede escribir como (7.1.2) donde P= ,5 ,5 ,25 ,75 , pt+1 = Ppt

es la matriz de transicin, porque contiene las probabilidades de transicin de un estado a otro en el sistema. Supongamos que el vector de poblacin 0,9 inicial es p0 = . Calculemos la evolucin en los prximos 10 aos. 0,1

bb bb bb bb bb bb

aHFSDHFPSYHFSDHFUS pHaWGIHYIGIHY azeros@PDIHAY@XDIAapHY for taPXIHD@XDtAaB@XDtEIAYend plot@9A legend@9olF en el xorte9D9olF en el ur9A

Observamos que el sistema se vuelve estable. El vector de estado converge a un vector jo. En este caso decimos que el proceso ha alcanzado el equilibrio. El vector jo recibe el nombre de vector de estado estacionario. En este caso tenemos lo siguiente.

bb @XDVXIHA
Podemos calcular la expresin exacta del vector estacionario a partir de la n0 forma cannica de Jordan. Sea p0 = un vector de poblacin inicial. s0 Los autovalores de la matriz P son 1 = 1/4 y 2 = 1. Los autovectores asociados respectivos son v1 =

MANUALES UEX

1 1

, v2 =

1 2

406

b formt rt b lmd a eig@A

MTODOS MATEMTICOS PARA ESTADSTICA

Observamos que la matriz T es diagonalizable. Calculemos ahora la forma cannica de Jordan J y matriz de paso P.

b b b b

t a dig@lmdAY vI a null@lmd@IABeye@PAED 9r9AY vP a null@lmd@PABeye@PAED 9r9AY a vIDvP

Entonces la forma cannica de Jordan es J= y la matriz de paso es Q= 1/4 0 0 1

1 1 1 2

Se tiene que P = QJQ1 , y es claro que


t

lm J t =

0 0

0 1

De aqu se deduce que


t

lm Pt = lm QJ t Q1 = Q
t

0 0

0 1

Q 1 =

1/3 2/3

1/3 2/3

b tinf a HDHYHDI b inf a BtinfBinv@A b formt


Entonces si escribimos p = lmt pm obtenemos que p

= lm xm = = = =
n0 s0

1/3 2/3

1/3 2/3

1/3n0 + 1/3s0 2/3n0 + 2/3s0 1/3 2/3 ,

porque recordemos que n0 + s0 = 1.

MANUALES UEX
407

lm Pt p0

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Existen procesos de este tipo que no tienen ese equilibrio. Por ejemplo, consideremos un dispositivo electrnico que puede estar en tres estados 1, 2 y 3, y supongamos que el dispositivo cambia a unos ciclos regulares de reloj. Si se encuentra en los estados 1 o 3 cambia a 2 en el siguiente ciclo. Si se encuentra en 2 cambiar a 1 o a 3 en el siguiente ciclo con igual probabilidad. La matriz de transicin es 0 0,5 0 P= 1 0 1 . 0 0,5 0 1 Si partimos de p0 = 0 , el comportamiento del sistema es peridico. 0 0 0,5 0 p1 = 1 , p2 = 0 , p3 = 1 , . . . 0 0,5 0 En efecto,

bb bb bb bb bb bb bb

formt short g a HD HFSD HY ID HD IY HD HFSD H pH a IYHYH azeros@QDIHAY@XDIAapHY for taPXIHD@XDtAaB@XDtEIAYend plot@9A legend@9rimer estdo9D9egundo estdo9D9erer estdo9A

Sin embargo, si pedimos que la matriz de transicin satisfaga una propiedad razonable (por ejemplo que sea primitiva), obtenemos unos procesos que s alcanzan el equilibrio.

MANUALES UEX

2. 2.1.

Otros ejemplos con wevef

Procesos de movilidad social.

408

Consideremos el problema de la movilidad social que involucra la transicin entre distintas clases sociales a travs de las generaciones sucesivas de una familia. Supongamos que cada individuo es clasicado socialmente segn su ocupacin como clase alta, media o baja, que etiquetamos como estados 1, 2 y 3, respectivamente. Supongamos que la matriz de transicin que

MTODOS MATEMTICOS PARA ESTADSTICA

relaciona la clase de un hijo con la de su padre es 0,45 0,05 0,05 P = 0,45 0,70 0,50 , 0,10 0,25 0,45 de tal forma que, por ejemplo, la probabilidad de que un hijo sea clase alta, media o baja cuando su padre es de clase baja viene dada por la ltima columna de P. Como P es primitiva (pues es positiva), podemos aplicar los resultados discutidos anteriormente. Un simple anlisis de los autovalores y autovectores de P revela que el autovector positivo p tal que p1 + p2 + p3 = 1 es 0,0833 p = 0,6198 . 0,2969 En efecto,

bb a HFRSD HFHSD HFHSY HFRSD HFUHD HFSHY HFIHD HFPSD HFRS bb p a null@eye@QA E D 9r9A bb p a pGsum@pA
Por consiguiente, si este proceso verica las condiciones de una cadena de Markov homognea y nita, despus de una cantidad considerable de generaciones, la poblacin masculina consistira en un 8.3 % de clase alta, un 62 % de clase media y un 29.7 % de clase baja. Veamos experimentalmente que el resultado es el mismo para cualquier dato inicial.

bb pH a rnd@QDIA bb pH a pHGsum@pHA bb pIHH a BpH

2.2.

Sistemas de seguridad.

Consideremos un sistema que tiene dos controles independientes, A y B, que previene que el sistema sea destruido. El sistema se activa en momentos discretos t1 , t2 , t3 , . . . , y el sistema se considera bajo control si alguno de los controles A o B funciona en el momento de la activacin. El sistema se destruye si A y B fallan simultneamente. Por ejemplo, un automvil tiene dos sistemas de frenado independientes, el freno de pedal y el freno de mano. El automvil est bajo control si al menos uno de los sistemas de frenado

MANUALES UEX
409

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

est operativo cuando intentamos parar, pero choca si ambos sistemas fallan simultneamente. Si uno de los controles falla en un punto de activacin pero el otro control funciona, entonces el control defectuoso es reemplazado antes de la siguiente activacin. Si un control funciona en el momento t entonces se considera able en un 90 % para la activacin t + 1. Sin embargo, si un control falla en el instante t, entonces su recambio no probado se considera able en un 60 % para t + 1. La pregunta que nos planteamos es: Puede el sistema funcionar indenidamente sin ser destruido? Si no, cunto tiempo se espera que el sistema funcione antes de la destruccin? Este problema se puede modelizar con una cadena de Markov con cuatro estados, denidos por los controles que funcionen en un momento de activacin. Podemos poner entonces que el espacio de estados es el conjunto de pares ( a, b) tales que a= 1 0 si A funciona, si A falla, yb= 1 0 si B funciona, si B falla.

El estado (0, 0) es absorbente, es decir, si se llega a l no se puede salir. Por simplicidad, escribiremos 1, 2, 3 y 4 en vez de (1, 1), (1, 0) (0, 1) y (0, 0), respectivamente. De este modo la matriz de transicin es 0,81 0,54 0,54 0 0,09 0,36 0,06 0 P= 0,09 0,06 0,36 0 0,01 0,04 0,04 1 En este caso, P no es primitiva. Sin embargo, los autovalores de la matriz P son 0,9827, 0,2473, 0,3 y 1.

MANUALES UEX

bb a HFVID HFHWD HFHWD HFHID bbeig@AY

HFSRD HFQTD HFHTD HFHRD

HFSRD HFHTD HFQTD HFHRD

HY FFF HY FFF HY FFF I

410

Entonces, existe el lmite lmt Pt , y es igual a 0 0 0 0 0 0 0 0 0 0 0 0 . 1 1 1 1

MTODOS MATEMTICOS PARA ESTADSTICA

Esto signica que el estado absorbente se alcanza siempre, partamos de donde partamos. As que tenemos respondida a la primera pregunta: el sistema se destruir, a la larga, con probabilidad 1. La segunda cuestin que plantebamos es en cuntos procesos de activacin llegaremos al desastre. Se puede probar que si escribimos P= P11 p12 0 1 ,

donde P11 es la submatriz de P formada por las tres primeras las y columnas, entonces el nmero medio de pasos antes de caer en el estado absorbente, si partimos del estado i-simo, es igual a (ut ( I3 P11 )1 )i , donde u es el vector con todas sus componentes iguales a 1 (esto es, la suma de las entradas de la columna i-sima). En efecto, la submatriz P11 da la probabilidad de ir desde cualquier estado no absorbente a otro estado no absorbente en 2 un paso exactamente, P11 da las probabilidades de ir desde cualquier estado 3 no absorbente hasta otro estado no absorbente en dos pasos exactamente. P11 n da esta misma da informacin similar para tres pasos, . . . . Por lo tanto, P11 informacin para n pasos. Para hallar el nmero esperado de pasos antes que el proceso sea absorbido, consiste en calcular el nmero esperado de veces que el proceso puede estar en cada estado no absorbente y sumarlos. Esto totalizara el nmero de pasos antes de que el proceso fuera absorbido y por consiguiente el nmero esperado de pasos hacia la absorcin. Como
2 3 I3 + P11 + P11 + P11 + . . . = ( I3 P11 )1

se sigue que ( I3 P11 )1 representa el nmero esperado de perodos que el sistema estar en cada estado no absorbente antes de la absorcin, por lo tanto la suma de cada la de ( I3 P11 )1 representa el promedio de perodos que transcurren antes de ir a un estado absorbente. En nuestro caso, 44,615 41,538 41,538 ( I3 P11 )1 = 6,9231 8,022 6,5934 , 6,9231 6,5934 8,022 ut ( I3 P11 )1 =

58,462

56,154

56,154

bb bb bb bb

II a @IXQDIXQA a inv@eye@QAEIIA u a ones@QDIA u9B

MANUALES UEX
411

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Interpretemos los resultados. El tiempo medio para fallo si partimos con los dos controles probados es algo ms de 58 pasos, mientras que el tiempo medio para fallo si partimos con uno de los controles no probado est alrededor de los 56 pasos. La diferencia no parece signicativa, pero vamos a considerar qu ocurre usamos solamente un control en el sistema. En este caso, solamente hay dos estados en la cadena de Markov: 1 (control que funciona) y 2 (control que no funciona). La matriz de transicin queda P= 0,9 0,1 0 1

por lo que el tiempo medio de fallo es nicamente de ut ( I P11 )1 = 10 pasos Qu ocurrir si usamos tres controles independientes?

MANUALES UEX
412

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicios de la prctica 7 Ejercicio 1. Determinar cules de las siguientes matrices son matrices de transicin. 0,2 0,3 0,1 0,3 0,7 (a) , (b) 0,8 0,5 0,7 0,4 0,6 0,0 0,2 0,2 Ejercicio 2. En un experimento, se coloca todos los das una rata en una jaula con dos puertas A y B. La rata puede pasar por la puerta A, y recibe una descarga elctrica, o por la puerta B, y obtiene cierto alimento. Se registra la puerta por la que pasa la rata. Al inicio del experimento, la rata tiene la misma probabilidad de pasar por la puerta A que por la puerta B. Despus de pasar por la puerta A y recibir una descarga, la probabilidad de seguir pasando por la misma puerta al da siguiente es 0,3. Despus de pasar por la puerta B y recibir alimento, la probabilidad de pasar por la misma puerta al da siguiente es 0,6. 1. Escribir la matriz de transicin para el proceso de Markov. 2. Cul es la probabilidad de que la rata contine pasando por la puerta A el tercer da despus del inicio del experimento? 3. Cul es el vector de estado estacionario? Ejercicio 3. Un pas est dividido en tres regiones demogrcas. Se calcula que cada ao un 5 % de residentes de la regin 1 se mudan a la regin 2, y un 5 % se desplazan a la regin 3. De los residentes de la regin 2, el 15 % van a la regin 1 y el 10 % a la regin 3. Y de los residentes de la regin 3, el 10 % se mueven a la regin 1 y el 5 % a la regin 2. Qu porcentaje de poblacin reside en cada una de las tres regiones tras un largo periodo de tiempo? Ejercicio 4. Usar las mismas premisas del ejemplo del sistema de seguridad, pero con tres controles A, B y C. Determinar el tiempo medio de fallo si partimos de tres controles probados, con dos probados y uno sin probar, y con uno probado y dos sin probar.

MANUALES UEX
413

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

MANUALES UEX
414

MTODOS MATEMTICOS PARA ESTADSTICA

PRCTICA 8

Proyeccin ortogonal. Mnimos cuadrados

n esta prctica ilustraremos con algunos ejemplos los conceptos de proyeccin ortogonal sobre un vector y sobre un subespacio vectorial. Adems, usaremos la proyeccin ortogonal y la inversa de Moore-Penrose para calcular la solucin aproximada mnimo cuadrtica de diversos sistemas de ecuaciones lineales. Pre-requisitos: Sistemas de ecuaciones lineales. Proyeccin ortogonal. Inversa de Moore-Penrose. 1. Proyeccin ortogonal

Comencemos recordando algunos cuestionas relacionadas con la proyeccin ortogonal en Rn con el producto escalar usual. 1.1. Proyeccin de un vector sobre una recta.

En este caso se trata de una proyeccin ortogonal. El resultado es el vector v1 que aparece en la siguiente gura. Observemos que esta eleccin de v1 hace que el vector v2 = v v1 tan pequeo de norma como sea posible. Como proyectamos sobre el vector u, el vector v1 debe ser de la forma v1 = u, un mltiplo escalar de u. Nuestro objetivo es calcular . Como el

MANUALES UEX
415

Queremos proyectar un vector v sobre otro vector u. En trminos geomtricos, esto signica que queremos calcular el vector sobre u que es ms prximo" al vector v. El concepto de ortogonalidad entra entonces en juego. En la gura de la derecha proyectamos" el vector v sobre el u.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

v2=vv1

u v1

vector v2 es ortogonal a u. Entonces, exigimos que 0 = u v2 = u (v v1 ) = u (v u) = u v u u, uv uv . = uu u 2 Con este valor de , el vector de proyeccin v1 = u se obtiene fcilmente. Pues si u y v son vectores en Rn entonces el vector proyeccin del vector v sobre el vector u es uv u. (8.1.1) v1 = u 2 = Ejemplo 8.1.1. Supongamos que queremos proyectar el vector v = (2, 1, 0) sobre el vector u = (1, 1, 1). Entonces, con la frmula (8.1.1) y wevef nos queda luego

bb uaIYIYIYvaPYEIYHY bb vIadot@uDvAGdot@uDuA B u
La aplicacin que realiza la proyeccin de un vector sobre otro es lineal. Buscamos la matriz P que aplica el vector v sobre el vector v1 calculado. Lo podemos hacer a partir de la expresin (8.1.1). Recordemos que u v lo podemos escribir en forma matricial como ut v. Entonces tenemos

MANUALES UEX

v1 =

uv uv ut v uut u= u = u t = t v = Pv uu uu uu u 2

Por tanto, la matriz de proyeccin P es igual a uut . ut u Ejemplo 8.1.2. Vamos a realizar un pequeo experimento cuando usamos la matriz de proyeccin para proyectar un nmero aleatorio de puntos en el plano sobre el vector u = (1, 1)t . P=

416

MTODOS MATEMTICOS PARA ESTADSTICA

En primer lugar denimos una matriz X de orden 2 100 con entradas aleatorias en el intervalo [1, 1]

bb aPBrnd@PDIHHAEIY
Podemos dibujar estos puntos en el plano; la primera la de la matriz X contiene las coordenadas x de los puntos aleatorios, y la segunda la las coordenadas y. Una vez que hayas obtenido el dibujo no cierres la ventana.

bb x a @IDXAY bb y a @PDXAY bb plot@xDyD9F9A


Vamos a proyectar sobre el vector u = (1, 1)t . En la gura anterior dibujamos la recta de direccin u.

bb hold on bb plot@IDEIDIDEID9y9A
Ahora calculamos la matriz P de proyeccin sobre u. Ahora, con la frmula para calcular la matriz P proyectaremos sobre el vector u = (1, 1)t .

bb u a IYI bb a@uBu9AGdot@uDuA
Por ltimo, vamos a aplicar a cada punto denido por la matriz X la matriz P, y dibujaremos el resultado. Si calculamos PX, la primera columna de PX contiene el resultado de aplicar la proyeccin sobre ( x1 , y1 ), la segunda columna el proyectado de ( x2 , y2 ), y as con todas. Realizamos la operacin.

Tal como hemos explicado, las columnas de PX contienen la proyeccin de cada punto de la matriz X sobre el vector u. Las coordenadas x de estos proyectados estn en la primera la de PX, y las coordenadas y en la segunda la de PX.

bb xa@IDXAY bb ya@PDXAY

MANUALES UEX
417

bb aBY

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ahora podemos dibujar los puntos originales en azul y sus proyectados en rojo en la misma gura.

bb plot@xDyD9rF9A bb hold off

1.2.

Proyeccin de un vector sobre un subespacio.

En este apartado vamos a recordar como se proyecta un vector v Rm sobre un subespacio vectorial L de Rm . Sean L es subespacio vectorial generado por los vectores u1 , u2 , . . . , un m ,y sea R A = u1 u2 . . . u n M m n (R). Ntese que L = im( A). Si v L, entonces no hay ms nada que hacer; la proyeccin de v sobre L es el propio v. Por ello, supongamos que v no es combinacin lineal de los vectores u1 , u2 , . . . , un , y calculemos su proyeccin sobre L = im( A). Para tener una idea grca de la situacin, pensemos por un momento que L es un plano de R3 . El vector v no est en ese plano. Esto lo representamos en la gura 1. En la gura 1 proyectamos el vector v sobre el vector v1 , que s est en el plano generado por los vectores u1 , u2 , . . . , un . Observemos, de nuevo, que el vector v2 = v v1 es ortogonal a L. En trminos geomtricos, lo que queremos es que el vector v2 sea ortogonal a cada vector de L. Esto se cumplir si v2 es ortogonal a cada uno de los vectores u1 , u2 , . . . , un . Por tanto, las ecuaciones que nos quedan son u1 v2 = u2 v2 = . . . = u n v2 = 0 En notacin matricial esto es ut v2 = ut v2 = . . . = ut v2 = 0 n 2 1 Como u1 , u2 , . . . , un son las columnas de la matriz A, entonces ut , ut , . . . , ut n 1 2 son las las de la matriz At , por lo que podemos expresar lo anterior como t u1 0 ut 0 2 . v2 = . . . . . . ut n Es claro que esto es lo mismo que At v2 = 0. 0

MANUALES UEX
418

MTODOS MATEMTICOS PARA ESTADSTICA

2 1.8 1.6 L=im(A) 1.4 1.2 1 0.8 0.6 v1 0.4 0.2 0 2 1.5 1 0.5 0 1 0.8 0.6 0.4 0.2 0 0.2 0.4 0.6 0.8 1 v v2=vv1

Figura 1. Proyeccin de v sobre L = im( A). En la gura 1 vemos que el vector v1 tiene que estar en el im( A). As, v1 se puede escribir como combinacin lineal de los vectores u1 , u2 , . . . , un . v1

= w1 u 1 + w2 u 2 + . . . + w n u n w1 w2 = u1 u2 . . . u n . . .
wn

Aw.

Entonces v2 = v Aw y podemos escribir At (v Aw) = 0.

At v At Aw A Aw
t

= 0 =
At v.

Sea ( At A)+ la inversa de Moore-Penrose de At A. Usando las propiedades de la inversa generalizada (concretamente, que ( At A)+ At = A+ y que A A+ A = A) concluimos que v1 = Aw = AA+ Aw = A( At A)+ At ) Aw = A( At A)+ At Aw = A( At A)+ At v.

MANUALES UEX
419

Si desarrollamos esta expresin, obtenemos

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Esta expresin tiene la frmula v1 = Pv, donde P = A( At A)+ At = AA+ ( A+ )t At

= AA+ ( AA+ )t = AA+ AA+ = AA+


es la matriz de proyeccin. Vamos a hacer un ejemplo similar al del apartado anterior, pero ahora en tres dimensiones. Ejemplo 8.1.3. En primer lugar, generamos un conjunto de puntos en el espacio.

bb aQBrnd@QDIHHAEIY
Extraemos las coordenadas x, y y z.

bb xa@IDXAY bb ya@PDXAY bb za@QDXAY


Dibujamos estos puntos en el espacio, y no cerramos la gura

bb bb bb bb

plotQ@xDyDzD9F9A ox on grid on hold on

MANUALES UEX
420

Vamos a proyectar los puntos denidos por X sobre el subespacio vectorial de R3 generado por la columnas de 1 0 2 A = 1 1 1 . 0 1 3 Introducimos en primer lugar la matriz A.

bb uIaIYIYHYuPaHYIYIYuQaIYHYEIY bb eauIDuPDuQY
Ahora calculamos la matriz de proyeccin. El comando pinv de wevef calcula la inversa de Moore-Penrose.

MTODOS MATEMTICOS PARA ESTADSTICA

bb aeBpinv@eA
Ahora, si multiplicamos la matriz X por la matriz P proyectaremos cada punto sobre el espacio de columnas de A.

bb aBY
Tomamos las componentes de cada punto.

bb xa@IDXAY bb ya@PDXAY bb za@QDXAY


Ya podemos dibujar los puntos originales y sus proyecciones.

bb plotQ@xDyDzD9rF9A
La pregunta es si realmente hemos conseguido lo que buscbamos. Es difcil de decir a partir de la gura obtenida. Sin embargo, podemos hacer dos cosas para convencernos de que la proyeccin se ha efectuado sobre el subespacio vectorial generado por los vectores u1 , u2 y u3 . Primero dibujemos los vectores u1 = (1, 1, 0)t , u2 = (0, 1, 1)t y u3 = (1, 0, 1) sobre la gura con los siguientes comandos.

bb bb bb bb

line@HDIDHDIDHDHD9linewidth9DPD9olor9D9k9A line@HDHDHDIDHDID9linewidth9DPD9olor9D9k9A line@HDIDHDHDHDEID9linewidth9DPD9olor9D9k9A hold off

El comando line permite aadir ms grcos sobre el dibujo. Los vectores u1 , u2 y u3 aparecen en la nueva gura sobre el plano im( A). Si ahora pulsamos el icono de rotacin en la pantalla de la gura, podemos experimentar con diferentes puntos de vista. En la gura obtenida, usamos el ratn para colocar la gura con acimut 29 y elevacin 40. Esto se puede hacer sin el ratn mediante el comando view@PWDERHA. Vemos que los vectores u1 , u2 y u3 se ocultan por la nube de puntos proyectados sobre el plano.

MANUALES UEX
421

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

2.

Soluciones aproximadas mnimo cuadrticas de sistemas de ecuaciones lineales

En algunas situaciones en las nos encontramos con sistema de ecuaciones Ax = b, puede ser conveniente hallar un vector x que este cerca de ser solucin del sistema"; entendiendo por esto que Ax b sea prximo a cero. Una de las formas ms comunes de medir la proximidad de Ax b a cero es mediante el clculo de la suma de los cuadrados de las componentes de Ax b. Cualquier vector que minimice esta suma de cuadrados se llama solucin aproximada mnimo cuadrtica. Ejemplo 8.2.1. Supongamos que queremos calcular la solucin del sistema de ecuaciones lineales m0+c = 6 m1+c = 0 m2+c = 0 Este sistema est sobre-determinado: hay ms ecuaciones que incgnitas. Es ms, es incompatible.

bb waHDIDTYIDIDHYPDIDH bb arref@wA
La ltima la de R representa la ecuacin 0 m + 0 c = 1, que no tiene solucin. Como es habitual el sistema se puede escribir en la forma 0 1 6 1 1 m = 0 , c 2 1 0 o bien Ax = b, donde

MANUALES UEX

0 A= 1 2

1 1 ,x = 1

m c

6 ,v = 0 . 0

Como el sistema no tiene solucin, b no puede escribirse como combinacin lineal de las columnas de A; en otras palabras, b im( A). Teniendo en cuenta que una recta en el plano es de la forma y = mx + c, podemos reenunciar nuestro problema en trminos geomtricos como el de

422

MTODOS MATEMTICOS PARA ESTADSTICA

calcular una recta que se ajuste lo mejor posible, en sentido mnimo cuadrtico, a los datos de la siguiente tabla: x y 0 6 1 0 2 0

Si dibujamos los datos de la tabla como puntos en un plano

bb bb bb bb

plot@HDIDPDTDHDHD9s9A xis@EIDUDEIDUA grid on hold on

se ve claramente que los puntos no estn alineados, por lo que no es posible dibujar una recta a travs de ellos como ya sabamos. De modo que tendremos que contentarnos con hallar una solucin aproximada. Vamos a calcular la solucin aproximada mnimo cuadrtica de nuestro sistema. Para ello, en primer lugar, calculamos la proyeccin ortogonal de b el espacio vectorial que generan las columnas de A tal y como hicimos en la seccin anterior.

bb bb bb bb

e a HDIYIDIYPDI a TYHYH a eBpinv@eA a B

As, obtenemos un vector b que s est en im( A), de hecho, es el vector de im( A) tal que d(b , b) = b b es mnima. De este modo, garantizamos que el sistema Ax = b tiene solucin y que la suma al cuadrado de las componentes de b b = Ax b, esto es, su norma al cuadrado es mnima.

Nota.- Aunque sabemos que el sistema Ax = b es incompatible, observemos la salida de la siguiente sentencia.

bb e

MANUALES UEX
423

bb e a eD bb rref@eA bb xgorro a e

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


Es la solucin x que habamos obtenido. Esto ocurre porque el comando calcula la solucin mnimo cuadrtica del sistema Ax = b. Teclea help mldivide para una descripcin ms completa. En trminos geomtricos la solucin aproximada mnimo cuadrtica, x, obtenida nos da la ecuacin de la recta que andbamos buscando. Como m = 3 y b = 5, la ecuacin de la recta que mejor se ajusta es y = 3x + 5.

bb xalinspe@EIDPA bb plot@xDEQBxCSD9r9A bb hold off


Es interesante examinar el error cometido al aproximar los datos con la recta de mejor ajuste. Los puntos originales eran (0, 6), (1, 0) y (2, 0), y sus proyecciones ortogonales sobre la recta son (0, 5), (1, 2) y (2, 1), respectivamente. As, tenemos que n x = 0, el valor del dato es y = 6, y el pun to sobre la recta correspondientes es y = 5; entonces, el error cometido es y y = 6 5 = 1. Anlogamente, en x = 1 tenemos que y y = 0 2 = 2, y en x = 2 obtenemos y y = 0 (1) = 1. Realmente estos errores se pueden calcular directamente con el vector e = b b .

bb eaE
Por tanto, el error total cometido es

bb norm@eAP

2.1.

Otros ejemplos con wevef.

MANUALES UEX
424

Ejemplo 8.2.2. Supongamos que en un experimento fsico, colgamos unas masas de un muelle, y medimos la distancia que el muelle elonga desde su punto de equilibrio para cada masa. Los datos los tenemos en la siguiente tabla. m 10 20 30 40 50 60 d 1,4 2,8 3,6 5,0 6,4 7,2 Vamos a usar wevef para calcular la curva ms simple que mejor ajusta a los datos de la tabla anterior. En primer lugar, introducimos los datos en wevef y los dibujamos.

MTODOS MATEMTICOS PARA ESTADSTICA

bb bb bb bb bb bb

ler ll lose ll ma@IHXIHXTHA9Y daIFRD PFVD QFTD SFHD TFRD UFP9Y plot@mDdD9B9A hold on

Usamos el operador de transposicin para formar vectores columna. Se ve en la gura que existe una tendencia lineal. En concreto,

bb orroef@mDdA
indica que el coeciente de correlacin es 0,9969. Vamos a ajustar los datos con una recta de la forma d = a + b m. Primero, sustituimos cada punto en la ecuacin: 1,4 2,8 3,6 5,0 6,4 7,2

= a + b 10 = a + b 20 = a + b 30 = a + b 40 = a + b 50 = a + b 60

y escribimos el sistema matricialmente. 1 10 1 20 1 30 a 1 40 b 1 50 1 60 Ax

1,4 2,8 3,6 5,0 6,4 7,2

El vector d ya lo tenemos denido en wevef. La segunda matriz de A contiene los datos de masa almacenados en el vector m.

bb eaones@size@mAADm
Luego ya slo nos queda calcular la solucin aproximada mnimo cuadrtica del sistema Ax = b tal y como hicimos en el ejemplo anterior

MANUALES UEX
425

= d

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

bb a eBpinv@eA bb xgorroa eBd

Nota.- Notemos de nuevo que

bb ed
nos da la solucin correcta. Entonces a = 0,2800 y b = 0,1177. Con estos valores vamos a dibujar la recta de mejor ajuste en nuestra gura.

bb ygorroaxgorro@IACxgorro@PABmY bb plot@mDygorroD9r9A bb hold off


Ejemplo 8.2.3. En otro experimento, un cohete de juguete es lanzado al aire. La altura del cohete a instantes determinados aparece en la tabla siguiente. t s 5 722 10 1073 15 1178 20 1117 25 781 30 102

Debemos examinar los datos y decidir un modelo apropiado para su ajuste por mnimos cuadrados. Empecemos introduciendo los datos en vectores columna t y s.

bb bb bb bb

ler ll lose ll ta@SXSXQHA9Y saUPPD IHUQD IIUVD IIIUD UVID IHP9Y

MANUALES UEX
426

Podemos dibujar nuestros datos como sigue:

bb plot@tDsD9s9D9wrkerpegolor9D99A bb hold on
Aparentemente los datos forman una parbola. Intentemos entonces ajustar los datos a una ecuacin de la forma s = a + bt + ct2 . Sustituimos los datos

MTODOS MATEMTICOS PARA ESTADSTICA

de la tabla en la ecuacin s = a + bt + ct2 . 722 1073 1178 1117 781 102

= a + b 5 + c (5)2 = a + b 10 + c (10)2 = a + b 15 + c (15)2 = a + b 20 + c (20)2 = a + b 25 + c (25)2 = a + b 30 + c (30)2

La expresin matricial del sistema es de la forma 722 1 5 52 2 1073 1 10 10 a 1 15 152 b = 1178 , 1117 1 20 202 c 781 1 25 252 102 1 30 302 Ax

= s.

Podemos introducir en wevef los valores de A de una forma sencilla.

bb eaones@size@tAADtDtFP
Vamos entonces a calcular la solucin aproximada mnimo cuadrtica del sistema Ax = s.

bb xgorro a es
Entonces a = 80,2000, b = 149,7814 y c = 4,9386. Con estos coecientes vamos a pintar la parbola de mejor ajuste. Adems, queremos hacer dos estimaciones. Por un lado, vamos a averiguar la altura inicial del cohete, y por otro queremos saber en qu momento volvi a tierra. Por ello, extendemos el intervalo de t para que nos aparezcan esos datos.

bb bb bb bb bb

ttalinspe@HDQSAY sgorroaxgorro@IACxgorro@PABttCxgorro@QABttFPY plot@ttDsgorroA grid hold off

El vector de errores es igual a e = s Ax, y podemos calcular su norma.

MANUALES UEX
427

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

bb paeBxgorroY bb easEp bb norm@eA


Finalmente, podemos preguntarnos por qu no realizamos, por ejemplo, un ajuste con una cbica. La ecuacin buscada es s = a + bt + ct2 + dt3 y, en ese caso, el sistema queda de la forma 722 1 5 52 53 2 103 a 1073 1 10 10 1 15 152 153 b = 1178 , 1117 1 20 202 203 c 781 1 25 252 253 d 1 30 302 303 102 Bx = s. Veamos qu resulta siguiendo los pasos anteriores.

bb faones@size@tAADtDtFPDtFQ bb xgorrofafs
Observamos que el coeciente d es de orden de 102 , lo que nos dice que la aportacin de trmino en t3 es pequea. Si calculamos el error cometido, debe salir ms pequeo que en el ajuste por una parbola.

bb efasEfBxgorrofY bb norm@efA
Por ello, no se trata de encontrar el modelo que d el menor error, sino el que sea ms sencillo y nos permita construir un modelo terico.

MANUALES UEX
428

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicios de la prctica 8 Ejercicio 1. Calcular la matriz P que proyecta todos los puntos del plano sobre el subespacio generado por el vector u = (1, 2)t . Ejercicio 2. Calcular la matriz P que proyecta todos los puntos de R3 sobre el subespacio generado por (a) u = (1, 1, 1)t . (b) u1 = (1, 0, 0)t y u2 = (1, 1, 1)t . Ejercicio 3. Calcule la recta de mejor ajuste a los datos de la siguiente tabla: x y 5 10 15 20 25 30 28 39 48 65 72 82

Ejercicio 4. Calcule la parbola de mejor ajuste a los datos de siguiente tabla: x y 2 6 10 14 18 22 286 589 749 781 563 282

Ejercicio 5. Si cada ecuacin en un sistema es lineal, entonces hemos visto que el lgebra Lineal nos permite encontrar el ajuste por mnimos cuadrados. En principio, si intentamos calcular un ajuste de una ecuacin exponencial y = aebx a los datos de la tabla siguiente parece que no seremos capaces. x y 1 2 3 4 5 6 128 149 214 269 336 434

Sin embargo, si tomamos logaritmos en ambos lados la ecuacin queda lineal. y log(y)

= aebx = log( a) + bx

Ejercicio 6. Calcule una funcin de la forma y = ax b que ajuste los datos de la siguiente tabla: x y 1 2 3 4 5 6 117 385 920 1608 2518 3611

MANUALES UEX
429

1. Prepare un grco que muestre la relacin lineal entre log(y) y x. 2. Calcule la recta de ajuste de los datos transformados del apartado anterior. 3. Usando el apartado anterior, calcule la ecuacin exponencial y = aebx que mejor ajusta a los datos originales.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

MANUALES UEX
430

MTODOS MATEMTICOS PARA ESTADSTICA

PRCTICA 9

Calculando inversas generalizadas

n esta prctica veremos algunos mtodos computacionales para las inversas generalizadas. Pre-requisitos: Inversas generalizadas. Forma reducida 1.
1

La frmula de Greville

T.N.E. Greville obtuvo en 1960 la siguiente expresin de la inversa de Moore-Penrose de una matriz A Mmn (R) particionada en la forma ( B|b), donde B es una matriz de orden m (n 1) y b es un vector columna no nulo con m las: B+ d c+ A+ = , c+ donde d = B+ b y c= b Bd 1+ d
2 2 2 2

si b = Bd

( B + )t d

( B+ )t d en otro caso

El lector interesado puede encontrar una demostracin de la frmula de Greville en [Udwadia, F.E.; Kabala, R.E. An alternative proof of the Greville formula. J. Optim. Theory Appl. 94 (1997), no. 1, 2328.]. Comprobemos con un ejemplo que la frmula funciona correctamente. Consideremos la matriz 1 1 2 3 A = 1 1 0 1 1 1 2 3 e introduzcmosla en wevef.

bb e a IDIDPDQYIDEIDHDIYIDIDPDQ
1Greville, T.N.E. Some applications of the pseudoinverse of a matrix. SIAM Rev. 2, 1960, 1522.

MANUALES UEX
431

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

A continuacin dividimos nuestra matriz A en dos bloques B y : el primero formado por las tres primeras columnas de A y el segundo por la ltima columna de A.

bb f a e@IXQDIXQA bb a e@IXQDRA
Ahora calculamos los vectores d y c. Recurdese que el comando pinv de wevef calcula la inversa de Moore-Penrose.

bb bb bb bb

d a pinv@fAB a E fBd 77 yservmos que a fBdD por tnto a @ICnorm@dAPAG@norm@pinv@fA9BdAPABpinv@fA9Bd

Y nalmente

bb a pinv@A bb ee a pinv@fA E dBY


Obsrvese que, ee coincide esencialmente con pinv@eA.

bb pinv@eA
As vista, la frmula de Geville no parece que d un mtodo para calcular la inversa de Moore-Penrose de A, ya que necesitamos conocer la inversa de Moore-Penrose de una submatriz de A. La clave est en usar la frmula de Greville recursivamente como explicamos a continuacin. Consideremos la matriz A Mmn (R), denotemos a j a la columna jsima de A y denamos A j = (a1 | . . . |a j ), de tal forma que A j Mm j (R) es la submatriz de A formada por sus j primeras columnas. La frmula de Greville nos dice que si conocemos la inversa de Moore-Penrose de A j1 podemos calcular la inversa de Moore-Penrose de A j . Por consiguiente, la inversa de Moore-Penrose de A se puede calcular hallando sucesivamente + + + + las inversas generalizadas de A1 = a1 , A2 , A3 , . . . , A+ = A. n + Teniendo adems en cuenta que la inversa de Moore-Penrose de a1 no es ms que + a1 = at / ( at a1 ); 1 1 podemos armar que tenemos un algoritmo para clculo del inversa de Moore-Penrose de A, mediante el uso recursivo de la frmula de Greville.

MANUALES UEX
432

MTODOS MATEMTICOS PARA ESTADSTICA

Pongamos en prctica nuestro algoritmo con la matriz A del ejemplo anterior. Si no hemos borrado el valor de la variable e no tendremos que volver a introducirla, esto lo podemos saber viendo nuestro orkspe, con el comando who o simplemente escribiendo

bb e
Si la variable e no est denida, obtendremos el mensaje ccc ndefined funtion or vrile 9e9 y tendremos que volver a introducirla. Consideremos ahora la primera columna de e, llammosla eI y calculemos su inversa de Moore-Penrose a la que llamaremos eeI.

bb eI a e@IXQDIA bb eeI a I9G@I9BIA


Calculemos a continuacin la inversa de Moore-Penrose de A2 = (a1 |a2 ) = ( A1 |a2 ) usando la frmula de Greville.

bb bb bb bb

P eP dP P

a a a a

e@IXQDPA eIDP eeIBP P E eIBdP

Como a2 = A1 d2 , se tiene que

bb P a P9G@P9BPA bb eeP a eeIEdPBPYP


De modo que la inversa de Moore-Penrose de A2 es
+ A2 =

1/4 1/4

1/2 1/4 1/2 1/4

La inversa de Moore-Penrose de A3 = ( A2 |a3 ) se puede calcular ahora usan+ do A2

bb bb bb bb

Q eQ dQ Q

a a a a

e@IXQDQA ePDQ eePBQ Q E ePBdQ

MANUALES UEX
433

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Como, en este caso, a3 = A2 d3 tenemos que denir c3 correctamente (siguiendo la frmula de Greville)

bb Q a @ICnorm@dQAPAG@norm@eeP9BdQAPABeeP9BdQ
y por lo tanto

bb Q a Q9G@Q9BQA bb eeQ a eePEdQBQYQ


Luego la inversa generalizada de A3 es 1/12 1/2 1/12 + A2 = 1/12 1/2 1/12 . 1/6 0 1/6 Finalmente, para obtener la inversa de Moore-Penrose de A = A4 = ( A3 |a4 ), calculamos

bb bb bb bb

R eR dR R

a a a a

e@IXQDRA eQDR eeQBR R E eQBdR

Al igual que antes, tenemos que denir correctamente el valor de c4 , pues a4 = A3 d4 .

bb R a @ICnorm@dRAPAG@norm@eeQ9BdRAPABeeQ9BdR
y para terminar

MANUALES UEX
434

bb R a R9G@R9BRA bb eeR a eeQEdRBRYR


Por lo que podemos concluir que la inversa de Moore-Penrose de A es 0 1/3 0 1/12 1/2 1/12 A+ = 1/12 1/6 1/12 1/12 1/6 1/12

MTODOS MATEMTICOS PARA ESTADSTICA

Nota 9.1.1. Como se indic en la introduccin, este mtodo basado en la frmula de Greville no se suele utilizar para calcular la inversa de MoorePenrose, la principal razn es la propagacin de errores de redondeo. Lo general es utilizar la descomposicin en valores singulares (vase demostracin del teorema VI.2.2). As es como funciona realmente el comando pinv de wevef, usando a su vez el comando svd para calcula la descomposicin en valores singulares. Bsicamente el comando svd funciona como describimos en el siguiente ejemplo En primer lugar denimos una matriz aleatoriamente con entradas entre -10 y 10 de orden tambin aleatorio m n, 1 m, n 11.

bb m a round@IHBrndCIAY bb n a round@IHBrndCIAY bb e a PHBrnd@mDnAEIHY


A continuacin calculamos su descomposicin en valores singulares A = PDQt

bb tDhD a svd@eAY
y nalmente la inversa de Moore-Penrose de A usando la frmula A+ = QD Pt , donde D se obtiene al sustituir su submatriz formada por la r primeras las y columnas por la inversa de la submatriz de las r primeras las y columnas de D, siendo r el rango de A.

bb bb bb bb

hh a zeros@nDmAY r a rnk@eA hh@IXrDIXrA a inv@h@IXrDIXrAA ee a BhhBt9

bb pinv@eA
2. Clculo de inversas generalizadas

Un mtodo comn para calcular inversas generalizadas, esto es, {1}inversas, de un matriz dada se basa en el clculo de la forma reducida.

MANUALES UEX
435

Podemos comprobar que el resultado obtenido es esencialmente el mismo que el que se obtiene con el comando pinv de wevef

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

2.1.

Inversas generalizadas de matrices cuadradas.

Sabemos que dada una matriz A Mn (R) de rango r, existen P y Q Mn (R) invertibles tales que P1 AQ = R = Ir 0 0 0 .

Es claro que la matriz R es idempotente, esto es, R2 = R. Por consiguiente, P1 A( QP1 ) AQ = ( P1 AQ)( P1 AQ) = R2 = R = P1 AQ. Entonces, multiplicando a izquierda por P y a la derecha por Q1 en la igualdad anterior, obtenemos que A( QP1 ) A = A. Es decir, QP1 es una inversa generalizada de A. Veamos con un ejemplo que el mtodo propuesto funciona. Sea 2 2 4 A = 4 2 2 . 2 4 2 Usando wevef podemos calcular la forma reducida R de A y matrices de paso P y Q invertibles tales P1 AQ = R (vase la prctica 3).

MANUALES UEX

bb bb bb bb bb bb bb bb bb bb bb

e a PDPDRYRDEPDPYPDERDEP p a rref@eA es a eDeye@QA pes a rref@esA inv a pes@XDRXTA 7snvers de i a p9 is a iDeye@QA pis a rref@isA I a pis@XDRXTA a I9 a invBeB

As obtenemos que P 1

436

0 = 0 1

1/3 1/6 1

1/6 1/3 1

0 Q = 1 1

0 1 0

1 1 1

MTODOS MATEMTICOS PARA ESTADSTICA

son matrices invertibles tales que 1 P1 AQ = R = 0 0 0 1 0 0 0 . 0

Por consiguiente, una inversa generalizada de A es 1 1 1 A = QP1 = 1 7/6 5/6 . 1 4/3 7/6 En efecto,

bb f a Binv bb eBfBe

2.2.

Inversas generalizadas, caso general.

Sea A Mmn (R), donde m < n. Denimos la matriz A como sigue A = A 0(nm)n

donde 0(nm)n es una matriz de ceros de orden (n m) n. Es claro que si P 1 A Q = R es la forma reducida de A y P1 = ( P1 | P2 ) es una particin por bloques de P1 compatible con la particin de A , entonces Q P1 es una inversa generalizada de A. En efecto, A QP1 A = A 0(nm)n A 0(nm)n AQP1 0(nm)m AQP1 A 0(nm)n Q( P1 | P2 ) A 0(nm)n A 0(nm)n A 0(nm)n

= = =

( QP1 | QP2 )
AQP2 0(nm)(nm)

Igualando esta identidad a A , obtenemos que AQP1 A = A. Una expresin anloga se obtiene cuando m > n, ampliando A a la derecha con ceros hasta hacerla cuadrada. Veamos este caso en un ejemplo.

MANUALES UEX
437

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Supongamos que queremos calcular una inversa generalizada de la matriz 1 1 A= 1 2 1 0 1 0 2 1 . 2 2

Consecuentemente consideramos la matriz ampliada 1 1 2 0 1 0 1 0 A = ( A|0) = 1 1 2 0 . 2 0 2 0 Procediendo como antes obtenemos matrices invertibles P1 y P1 A Q es la forma reducida de A . 0 0 0 1/2 0 0 1 0 0 1 1 1 1/2 1 y Q= P 1 = 1 0 1 1 0 1 0 0 1 0 Q tales que 0 0 0 1

1/2

Particionando la matriz Q como sigue Q= Q1 Q2

0 1 = 1 0

0 1 0 0

1 0 1 0 1 0 0 1

Encontramos que una inversa generalizada de A es Q1 P1 .

MANUALES UEX
438

bb bb bb bb bb bb

e a ID ID PY ID HD IY ID ID PY PD HD P inv a HD HD HD IGPY HD HD ID EIGPY ID HD EID HY HD ID HD EIGP a HD HD ID HY EID ID ID HY ID HD EID H I a @IXQDIXRA f a IBinv eBfBe

Obsrvese que es lo mismo considerar las primeras m n las de Q y realizar el producto con P1 que tomar las primeras m n del las de producto QP1 .

bb g a Binv bb h a g@IXQDIXRA

MTODOS MATEMTICOS PARA ESTADSTICA

3.

Clculo de inversas mnimo cuadrticas

Segn lo estudiado en clase de teora, se puede calcular una inversa mnimo cuadrtica de una matriz A Mmn (R) calculando primero una inversa generalizada de At A y usando la igualdad A = ( At A) At (vase la proposicin VI.3.8). Ilustremos con un ejemplo este procedimiento. Consideremos la matriz del ejemplo anterior 1 1 2 1 0 1 A= 1 1 2 2 0 2

bb e a ID ID PY ID HD IY ID ID PY PD HD P
Denamos At A, llammosla B y calculemos una de sus inversas generalizadas.

bb bb bb bb bb bb bb bb bb bb bb

f a e9Be p a rref@fA fs a fDeye@QA pfs a rref@fsA inv a pfs@XDRXTA 7snvers de i a p9 is a iDeye@QA pis a rref@isA I a pis@XDRXTA a I9 ff a Binv
= ( At A ) At

Usando ahora la expresin A

bb ee a ffBe9
se obtiene que una inversa mnimo cuadrtica de A es 0 0 0 0 A = 1/2 2/5 1/2 4/5 0 1/5 0 2/5

MANUALES UEX
439

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicios de la prctica 9 Ejercicio 1. Usar el mtodo recursivo basado en la frmula de Greville para calcular una inversa de Moore-Penrose de la matriz 1 1 1 A = 1 1 1 . 2 1 1 Ejercicio 2. Hallar una inversa generalizada de la matriz A del ejercicio anterior calculando su forma reducida. Ejercicio 3. Hallar una inversa generalizada de la matriz 1 1 2 1 A = 2 4 3 2 1 1 3 1 calculando su forma reducida. Ejercicio 4. Hallar una inversa mnimo cuadrtica de la matriz A del ejercicio anterior distinta de la inversa de Moore-Penrose.

MANUALES UEX
440

MTODOS MATEMTICOS PARA ESTADSTICA

PRCTICA 10

Nmero de condicin de una matriz y MATLAB


En esta prctica se mostrar la interpretacin grca que tiene la resolucin de un sistema de ecuaciones en relacin con el nmero de condicin de la matriz del sistema. Se expondrn tambin las funciones que incorpora wevef para calcular la norma de un vector y el nmero de condicin de una matriz. Pre-requisitos: resolucin de sistemas de ecuaciones lineales, normas matriciales. 1. Nmero de condicin de una matriz y wevef

Consideremos el sistema de ecuaciones Ax = b donde (10.1.1) A= 0,835 0,333 0,667 0,266 ,b = 0,168 0,067

La solucin del sistema se puede calcular como sigue1

bb eaHFVQSDHFTTUYHFQQQDHFPTT bb aHFITVYHFHTU bb solIae


Desde el punto de vista geomtrico, se trata de dos rectas en R2 , y la solucin es el punto de corte. Para obtener la representacin grca en wevef deben ser pasadas a paramtricas. Si r1 es la recta representada por la primera ecuacin y r2 la representada por la segunda, se tiene que r1 : x y

= 1 + 0,667 t = 1 0,835 t

y que

r2 :

x y

= 1 + 0,266 t = 1 0,333 t

Teclea en wevef la siguiente secuencia de comandos para representar ambas rectas.


1Tngase que la matriz A es invertible, por lo que el sistema de ecuaciones tiene solucin nica. En otro caso, si A no fuese invertible (o incluso si no fuese cuadrada) la orden A\b adquiere otro signicado.

MANUALES UEX
441

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

bb bb bb bb bb bb bb bb bb bb bb

lose ll talinspe@EIHDIHAY xIaICHFTTUBtY yIaEIEHFVQSBtY xPaICHFPTTBtY yPaEIEHFQQQBtY plot@xIDyID9EEr9DxPDyPD9Xg9A xis@EPDPDEPDPA grid line@IDEID9wrker9D9F9D9wrkerize9DITD9olor9D9r9A text@IDEID9@IDEIA9D9rorizontlelignment9D9veft9A

En la gura que produce wevef se ve que el punto de corte es el (1, 1) y que las rectas son casi paralelas (y por lo tanto casi idnticas pues coinciden en un punto).

A continuacin realizaremos una ligera modicacin en los coecientes de A. Consideremos ahora el sistema ( A + A)x = b, donde

(10.1.2)

A + A =

0,835 0,333

0,667 0,267

,b =

0,168 0,067

Observa que nicamente hemos alterado la entrada (2, 2). Al igual que antes la solucin del sistema se calcula como sigue:

MANUALES UEX
442

bb ePaHFVQSDHFTTUYHFQQQDHFPTU bb aHFITVYHFHTU bb solPaeP

Las representaciones grca de los sistemas (10.1.1) y (10.1.2) se pueden ver en la siguiente gura:

MTODOS MATEMTICOS PARA ESTADSTICA

(1,1)

2 2

1.5

0.5

0.5

1.5

(.2002,.0012)

2 2

1.5

0.5

0.5

1.5

Este hecho induce a pensar que sistemas en los que las rectas sean casi paralelas (es decir, aquellos en los que el determinante de la matriz del sistema est prximo a cero) tendrn nmeros de condicin muy grandes. En tal caso, el determinante de la matriz de coecientes es pequeo, lo que hace que el menor autovalor de A A sea pequeo. Recurdese que (10.1.3) cond2 ( A) = n ( A A) , 1 ( A A )

siendo n ( A A) y 1 ( A A) el mayor y el menor autovalor de A A, respectivamente, lo que nos da entonces valores grandes de cond2 ( A). 1.1. Las funciones ond y norm de wevef.

Calculemos el nmero de condicin de la matriz de coecientes para la norma ||| |||2 .

Observa que es un valor muy grande, tal como se esperaba. Para las restantes normas se obtienen resultados parecidos.

bb ond@eDIA bb ond@eDinfA

MANUALES UEX
443

bb ond@eDPA

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

En este tipo de clculo, lo que interesa es el orden de magnitud, y no tanto el valor exacto. En nuestro caso, donde se ha efectuado una modicacin en la matriz A, se tiene la siguiente acotacin:

|||A||| u cond( A) . u + u ||| A|||


donde u y u + u son las soluciones de los sistemas Ax = b y ( A + A)x = b, respectivamente. Con wevef se puede comprobar que, en nuestro caso, la acotacin es muy poco ajustada (como es de esperar).

bb bb bb bb

solIae solPaeP miemrodelizquierd a norm@solPEsolIDPAGnorm@solPDPA miemrodeldereh a ond@eDPABnorm@ePEeDPAGnorm@eDPA

Nota.- Escribe help norm y help ond para saber ms sobre las ordenes norm y ond de wevef. 2. Nmero de condicin y transformaciones elementales.

Veamos cmo afectan las transformaciones elementales al nmero de condicin de una matriz. Para ello consideraremos una nueva matriz, por ejemplo2, 0,4494 0,1426 B= . 0,7122 0,5643

bb f a HFRRWRD HFIRPTY HFUIPPD HFSTRQ bb ond@fA


Consideremos una matriz unitaria, por ejemplo,

MANUALES UEX

U=

cos(/5) sen(/5) sen(/5) cos( pi/5)

bb a os@piGSADsin@piGSAYEsin@piGSADos@piGSA
que, como podemos comprobar, es efectivamente unitaria3
2Si lo deseas puedes elegir otra matriz, por ejemplo una matriz aleatoria con la orden

444

rand(2).
3Recurdese que una matriz U M (C) es unitaria si U U = I . n n

MTODOS MATEMTICOS PARA ESTADSTICA

bb F9B
Entonces, sabemos que se dan las siguiente igualdades (10.2.4) cond2 ( B) = cond2 ( B U ) = cond2 (U B) = cond2 (U BU ),

lo que signica que el nmero de condicin respecto de la norma ||| |||2 es invariante por transformaciones unitarias. Tratemos de comprobar la igualdad cond2 ( B) = cond2 (U BU ) con wevef usando el smbolo lgico4 aa

bb kI a ond@fA bb kP a ond@F9BfBA bb kI aa kP
Evidentemente algo no ha ido bien pues la respuesta de wevef ha sido negativa. La razn es la propagacin de los errores de redondeo:

bb bb bb bb

formt long kI kP formt

Veamos ahora que el nmero de condicin respecto de la norma ||| ||| no es estable por transformaciones unitarias.

bb I a ond@fDinfA bb P a ond@BfDinfA
4En MATLAB existe un tipo de dato llamado lgico que son tambin matrices de nmeros pero que deben manipularse de distinta manera y tienen otras utilidades. La forma ms sencilla de construirlo estos datos lgicos es aplicando la funcin logical. La comparacin entre dos escalares produce un resultado de tipo lgico que vale 1 si es cierta y un 0 cuando es falsa. Las operaciones de relacin en MATLAB son las siguientes

== = < > <= >=

igualdad desigualdad menor que mayor que menor o igual que mayor o igual que

MANUALES UEX
445

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

En este caso no hay dudas de que ambos nmeros de condicin son distintos. Consideremos ahora P Mn (C) no unitaria, por ejemplo, P= 1 455477 0 1142114

y calculemos el nmero de condicin cond2 ( P A) y cond2 ( P1 A) para A= 0,8350 0,3330 0,6670 0,2660 .

bb bb bb bb bb

ler ll a IDHYRSSRUUDEIIRPIIR e a HFVQSDHFTTUYHFQQQDHFPTT kI a ond@BeA kP a ond@inv@ABeA

Observamos que PA tiene el mejor nmero de condicin posible, mientras que P1 A tiene un nmero de condicin mucho ms grande que el que tena A. La primera opcin, PA, representa la mejor situacin que se nos puede dar, porque recordemos que el nmero de condicin de una matriz siempre es mayor o igual que 1. Desde el punto de vista geomtrico signica que las rectas determinadas por PAx = b con bt = (0,168, 0,067) se cortan de forma casi perpendicular. La representacin grca la tenemos en la siguiente gura:
2

1.5

0.5

MANUALES UEX

0.5

(1,1)

1.5

446

2 2

1.5

0.5

0.5

1.5

MTODOS MATEMTICOS PARA ESTADSTICA

3.

Sistemas mal condicionados.

Consideremos ahora los sistemas lineales Hn xn = bn , donde Hn Mn (R) es la llamada matriz de Hilbert de orden n cuya entrada (i, j)-sima es hij = 1/(i + j 1), i, j = 1, . . . , n, mientras que bn Rn se elige de tal forma que la solucin exacta sea xn = (1, 1, . . . , 1)t , es decir, b es el vector cuya coordenada i-sima es

( b n )i =

j =1

i + j 1,

i = 1, 2, . . . , n.

La matriz Hn es claramente simtrica y se puede probar que es denida positiva (por consiguiente, su autovalores son reales y positivos). Vamos a dibujar una grca (en escala semilogartmica) para visualizar el comportamiento de los errores relativos n = xn xn / xn cuando aumenta n, siendo xn la solucin del sistema Hn x = bn que nos ha proporcionado wevef, usando el comando \ Usa el editor de wevef para introducir los siguientes comandos, y ejecutarlos todos juntos posteriormente. Guarda estos comandos en un chero llamado mlondFm en tu disco (asegrate de que el Current directory es eX\)

Sobre la base de la observacin anterior podramos especular diciendo que cuando el sistema lineal Ax = b se resuelve numricamente, en realidad uno est buscando la solucin exacta x de un sistema perturbado ( A + A)x = b + b,

MANUALES UEX
447

bb bb bb bb bb bb bb bb bb bb bb bb bb

wrning@9off9A in a Y for n a IXIHH ler xxY x a ones@nDIAY for i a IXn @iA a sum@IFG@iC@IXnAEIAAY end xx a hil@nA9Y in a inD norm@xExxAGnorm@xAY end semilogy@IXIHHDinA wrning@9on9A

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

donde A y b son, respectivamente, una matriz y un vector que dependen del mtodo numrico especco que se est utilizando. Luego, segn lo que hemos estudiado en clase, el nmero de condicin de la matriz A explicara el resultado experimental anterior (retomaremos esta cuestin en el ejercicio 5).

MANUALES UEX
448

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicios de la prctica 10 Ejercicio 1. Utiliza el comando eig de wevef y la frmula 10.1.3 para calcular cond2 ( A) siendo A la matriz de Wilson 10 7 8 7 7 5 6 5 A= 8 6 10 9 . 7 5 9 10 Calcular tambin, usando el comando ond de wevef, los condicionamientos de dicha matriz respecto de las normas ||| |||1 , ||| ||| y ||| ||| F ; comprobar que los tres son mayores que cond2 ( A). Resolver los sistemas Ax = b para b = obtenidos. y Ax = (b + b),

(32, 23, 33, 31)t

y b = (0,1, 0,1, 0,1, 0,1)t . Explicar los resultados

Ejercicio 2. Consideremos el sistema 3x 3x

+ 4y = 7 + 5y = 8

1. Calcula su nmero de condicin respecto a la norma 1. 2. Construye, si es posible, sistemas equivalentes que tengan un nmero de condicin mayor y menor que el dado. Ejercicio 3. Tomemos el sistema Ax = b, donde A= 1000 999 999 998 ,x = x1 x2 ,b = 1999 1997 .

Calcula ||| A||| , ||| A1 ||| y el nmero de condicin cond ( A). Se puede decir que el sistema est bien condicionado? Ejercicio 4. Considerar el siguiente sistema de ecuaciones lineales

Comprobar que una pequea variacin b = (1, 0)t en trmino independiente produce grandes cambios en la solucin. Explicar por qu. Ejercicio 5. Dibujar una grca donde se muestre el comportamiento del nmero de condicin de la matriz de Hilbert de orden n para n = 1, . . . , 100, primero en escala 1:1 y luego en escala semilogartmica (distingue esta ltima de las anteriores dibujndola en rojo, por ejemplo)

MANUALES UEX
449

1001 1000

1000 1001

x1 x2

2001 2001

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


Usando la orden hold on, comparar la grca en escala semilogartmica obtenida con la del comportamiento de los errores relativos estudiada anteriormente (si guardaste aquella ordenes el disco solo tienes que escribir mlond). Explicar el resultado obtenido.

MANUALES UEX
450

MTODOS MATEMTICOS PARA ESTADSTICA

PRCTICA 11

Factorizacin LU
1. Introduccin

En esta prctica aprenderemos a resolver sistemas lineales de ecuaciones con la descomposicin LU de una matriz, junto a las sustituciones hacia adelante y hacia atrs. Adems, veremos algunas funciones de wevef sobre cheros y estructuras de control en programacin. Pre-requisitos: conocimiento de vectores y matrices en MATLAB. Familiaridad con la eliminacin gaussiana, matrices elementales y factorizacin LU. 2. M-cheros de ejecucin y de funciones en wevef

Los M-cheros de funciones (funciones) son similares a los scripts. El cdigo introducido se ejecuta en secuencia. Sin embargo, mientras que los scripts
smbolo % es tratado como comentario. MATLAB no lo procesa.
1Los puntos suspensivos son comandos de continuacin en MATLAB. Todo lo que sigue al

MANUALES UEX
451

Los M-cheros de ejecucin (scripts) son simplemente una forma conveniente de poner unos comandos de wevef que queremos ejecutar en secuencia. Por ejemplo, abrimos el editor de wevef e introducimos el siguiente cdigo1 formt rt 7 formto rionl ea ID PDEQD RY FFF PD HDEID RY FFF QD ID HD TY FFF ERD RD VD H a IY IY IYEI waeD arref@wA xa@XDSA formt 7 vuelt l formto originl Grabemos el chero como ejemploFm. Ahora, en el indicador de wevef, escribimos bb ejemplo y cada lnea de ejemploFm se ejecutar en el orden que aparece en el chero.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

permiten al usuario introducir datos, las funciones pueden devolver una respuesta a las funciones que las llamen (en algunos casos, la propia pantalla de wevef). Supongamos, por ejemplo, que quisiramos codicar la funcin denida por f ( x ) = x2 . Abrimos el editor de wevef e introducimos las siguientes lneas de cdigo.

452

funtion yaf@xA yaxPY Lo grabamos como fFm. Ahora la probamos en el indicador de wevef con los siguientes comandos. bb taVY bb zaf@tA Observemos que en la llamada a la funcin no es necesario que se use el mismo nombre para la variable independiente. En la funcin es x y nosotros hemos usado t. Tampoco tienen que coincidir los nombres de las variables dependientes. Por ejemplo, es vlido lo siguiente. bb taVY bb tudrdoaf@tAY bb tudrdo Evidentemente, la funcin no tiene por qu llamarse f , podemos darle el nombre que queramos. Abrimos el editor de wevef e introducimos las siguientes lneas de cdigo. funtion yaudrdo@xA yaxPY No obstante, wevef requiere que grabemos el chero con el mismo nombre que le demos a la funcin. Esto es, en el caso anterior, el chero debe llamarse udrdoFm. Esta funcin tendr un comportamiento igual que la primera funcin. Solamente han cambiado los nombres. bb taVY bb tudrdo a udrdo@tAY bb tudrdo Las funciones pueden tener ms de una entrada y pueden tener una salida mltiple. Por ejemplo, consideremos la funcin denida por g( x, y) = x2 + y2 . La codicamos como sigue en el editor de wevef. funtion z a g@xDyA zaxPCyPY Grabamos este chero como gFm y ejecutamos los siguientes comandos en el indicador de wevef. bb uaQYvaRY

MANUALES UEX

MTODOS MATEMTICOS PARA ESTADSTICA

bb zag@uDvAY bb z
Aunque pronto encontraremos funciones con respuesta mltiple, veamos un ejemplo. Consideremos la funcin h( x, y) = [ x2 + y2 , x2 y2 ]. La codicamos como sigue en el editor de wevef.

funtion hIDhP a h@xDyA hIaxPCyPY hPaxPEyPY


Grabamos este chero como hFm y ejecutamos los siguientes comandos en el indicador de wevef.

bb uaSYvaPY bb Dah@uDvAY bb D
Tradicionalmente wevef obliga a crear un M-chero por cada funcin. El nombre de la funcin debe coincidir con el de la funcin. No obstante, a partir de la versin 5.0 se han introducido las subfunciones, que son funciones adicionales denidas en un mismo M-chero con nombre diferentes del nombre del chero (y del nombre de la funcin principal) y que slo pueden ser llamadas por funciones contenidas en ese chero, resultando invisibles" par otra funciones externas. Por ejemplo, si escribimos en el editor de wevef

funtion y a fun@xA y a xCsufun@xAY funtion y a sufun@xA y a xPY


grabamos este chero como funFm y ejecutamos los siguientes comandos en el indicador de wevef

observamos que wevef reconoce" la funcin fun, pero no as la funcin sufun; aunque esta ltima sea necesaria para el buen funcionamiento de la primera. 3. Mtodos especcos para la resolucin de sistemas triangulares. Sustitucin hacia atrs.

3.1.

MANUALES UEX
453

bb waPY bb fun@PA bb sufun@PA

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


Consideremos el sistema de ecuaciones2 2x1 (11.3.1)

+ x2 2x2

x3 + x3 4x3

= 4 = 3 = 8

En forma matricial, se puede representar como 2 1 2 x1 4 0 2 1 x2 = 3 . 0 0 4 x3 8 Hemos escrito el sistema (11.3.1) como Ux = c, donde 2 x1 4 1 , x = x2 , c = 3 . 4 x3 8 Observemos que la matriz U es cuadrada de orden 3 y triangular superior, porque cada coeciente por debajo de la diagonal principal es nulo. Adems, U es invertible. Estos sistemas se resuelven fcilmente con una tcnica que se denomina sustitucin hacia atrs. En primer lugar, resolvemos la ltima ecuacin del sistema (11.3.1) para calcular el valor de x3 , y nos da x3 = 2. Este valor lo sustituimos en la segunda ecuacin del sistema (11.3.1). 2 U= 0 0 1 2 0

2x2 + x3 = 3 x2 = (3 x3 )/(2) = (3 2)/(2) = 5/2.


Por ltimo, sustituimos x3 = 2 y x2 = 5/2 en la primera ecuacin del sistema (11.3.1), y calculamos el valor de x1 . 2x1 + x2 2x3 = 4 x1 = (4 x2 + 2x3 )/2 = (4 5/2 + 2 2)/2 = 11/4. En general, si U es triangular superior e invertible3, entonces para cualquier c el sistema Ux = c tiene solucin nica. sta se encuentra fcilmente con la sustitucin hacia atrs. u11 x1 + u12 x2 + . . . + u1n xn = c1 u22 x2 + . . . + u2n xn = c2 . . . unn xn = cn
2Que podemos pensar que el sistema equivalente a uno dado, despus de haber calculado

MANUALES UEX
454

la forma reducida por las de la matriz ampliada del sistema original. 3Recurdese que si una matriz es triangular, entonces su determinante coincide con el producto de los elementos de su diagonal principal. Por lo que la condicin necesaria y suciente para que sea invertible es que los elementos de su diagonal principal sean distintos de cero.

MTODOS MATEMTICOS PARA ESTADSTICA

En primer lugar, resolvemos xn de la ltima ecuacin. (11.3.2) xn = cn /unn .

Con este dato y la penltima ecuacin encontramos xn1 . xn1 = (cn1 un1,n xn )/un1,n1 . Si continuamos de esta manera, podemos resolver todo el sistema. Por ejemplo, la i-sima ecuacin uii xi + ui,i+1 xi+1 + . . . + uin xn = ci nos lleva a xi = (ci ui,i+1 xi+1 . . . uin xn )/uii y en notacin sumatoria (11.3.3) xi = ( ci
n

j = i +1

uij x j )/uii .

esta ltima ecuacin es la que permite automatizar el proceso. Vamos a sistematizar el proceso de sustitucin hacia atrs denicin una funcin de wevef. Para ello, abrimos el editor de wevef y comenzamos dando un nombre a la funcin y a sus entradas y salidas. Pasamos como dato de entrada la matriz de coecientes U, que debe ser cuadrada de orden n, y el vector c de trminos independientes. La funcin tiene que devolver la solucin del sistema Ux = c en la variable x.

funtion xasusttrs@DA
Ahora, almacenamos el tamao de la matriz U en las variables m (nmero de las) y n (nmero de columnas).

mDnasize@AY
Si la matriz no es cuadrada, tenemos un problema. Puede ocurrir que el sistema tenga ms de una solucin. Vericamos tal condicin, y si la matriz U no es cuadrada paramos la ejecucin y damos un mensaje de aviso.

Ahora reservamos un espacio que contendr la solucin del sistema.

xazeros@nDIAY
Usamos la ecuacin (11.3.2) para calcular xn y almacenar la solucin

x@nAa@nAG@nDnAY

MANUALES UEX
455

if m~an disp@9v mtriz no es udrdF9A returnY end

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Con la sustitucin hacia atrs, podemos calcular los valores de xi para i = n 1, . . . , 2, 1. Esta es una tarea iterada, que podemos programar con un bucle for. El bucle interno calcula la suma de la ecuacin (11.3.3). Por ltimo, la ecuacin (11.3.3) se usa para obtener xi .

for kanEIXEIXI sumaHY for jakCIXn sumasumC@kDjABx@jAY end x@kAa@@kAEsumAG@kDkAY end


El texto completo que debe aparecer escrito en el editor de wevef es el siguiente:

456

funtion x a susttrs@DA mDnasize@AY if m~an disp@9v mtriz no es udrdF9A returnY end xazeros@nDIAY x@nAa@nAG@nDnAY for kanEIXEIXI sumaHY for jakCIXn sumasumC@kDjABx@jAY end x@kAa@@kAEsumAG@kDkAY end Guardamos el chero como susttrsFm y lo probamos con la matriz del sistema (11.3.1). En primer lugar, introducimos U y c. bb aPDIDEPYHDEPDIYHDHDR bb aRYEQYV Observemos que c se dene como un vector columna. Finalmente, obtenemos la solucin con los siguientes comandos. bb formt rt bb xasusttrs@DA bb formt y vemos que coincide con la solucin del sistema (11.3.1) que habamos calculado a mano.

MANUALES UEX

MTODOS MATEMTICOS PARA ESTADSTICA

3.2.

Sustitucin hacia adelante.

Consideremos ahora el sistema de ecuaciones (11.3.4) c1 2c1 + c2 3c1 + 2c2 + c3 = 4 = 5 = 10

En forma matricial, este sistema se puede escribir como 1 0 0 c1 4 2 1 0 c2 = (11.3.5) 5 . 3 2 1 c3 10 y el sistema (11.3.4) toma la forma Lc = b, donde 1 L= 2 3 0 1 2 0 c1 4 0 , c = c2 , b = 5 . 1 c3 10

Observemos que L es una matriz cuadrada 3 3, triangular inferior. Adems, los elementos de la diagonal principal son iguales a 1, lo que simplica el clculo de la solucin que se puede obtener mediante el mtodo de sustitucin hacia adelante. Empezamos por resolver la ecuacin para c1 . c1 = 4. Sustitumos c1 en la segunda ecuacin del sistema (11.3.4) y obtenemos c2 . 2c1 + c2 c2 c2 c2

= = = =

5 5 2c1 524 3

3c1 + 2c2 + c3 c3 c3 c3

= = = =

10 10 + 3c1 2c2 10 + 3 4 2 (3) 8

En general, si L es una matriz cuadrada, triangular inferior y con unos en la diagonal, entonces para cualquier b el sistema Lc = b tiene solucin

MANUALES UEX
457

Sustitumos ahora c1 y c2 en la tercera ecuacin del sistema (11.3.4) y calculamos c3 .

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

nica. El sistema se resuelve fcilmente con sustitucin hacia adelante. c1 = b1 l21 c1 + c2 = b2 . . . ln1 c1 + ln2 c2 + . . . + cn = bn Resolvemos la primera ecuacin para c1 . c1 = b1 . Con este resultado calculamos c2 en la segunda ecuacin. l21 c1 + c2 c2

= b2 ; = b2 l21 c1 .

Continuando de esta forma calculamos el resto de incgnitas. La i-sima ecuacin li1 c1 + li2 c2 + . . . + li,i1 ci1 + ci = bi ; nos da ci = bi li1 c1 li2 c2 . . . li,i1 ci1 . En notacin de sumatorio es
i 1

c i = bi

j =1

lij c j .

Denimos la funcin sustdelnte sin explicacin. Animamos al lector a usar la explicacin de susttrs para comprender el algoritmo antes de pasar a probar la rutina.

458

funtion asustdelnte@vDA mDnasize@vAY if m~an disp@9v mtriz v no es udrdF9A returnY end azeros@nDIAY @IAa@IAY for kaPXn sumaHY for jaIXkEI sumasumCv@kDjAB@jAY end @kAa@kAEsumY end

MANUALES UEX

MTODOS MATEMTICOS PARA ESTADSTICA

Grabamos el chero como sustdelnteFm y comprobamos su funcionamiento con el sistema (11.3.4).

bb vaIDHDHYPDIDHYEQDPDI bb aRYSYEIH bb asustdelnte@vDA Como era de esperar, la solucin coincide con la que habamos obtenido previamente.
4. Factorizacin LU

Nota 11.4.1. La descripcin y justicacin terica de la descomposicin LU se puede encontrar en los apuntes de la asignatura lgebra y Geometra. Consideremos el sistema de ecuaciones 2x1 4x1 6x1

+ x2 7x2

2x3 3x3 +12x3


Ax = b,

= 4 = 5 = 10

En forma matricial, el sistema tiene la forma

donde 2 A= 4 6 1 0 7 2 x1 4 3 , x = x2 , b = 5 12 x3 10

Vamos a usar operaciones elementales por las para llevar la matriz A a una matriz triangular superior, y guardamos los multiplicadores de cada posicin en una matriz triangular inferior L segn vamos haciendo los clculos. Calculamos el primer multiplicador con l21 := a21 /a11 = 4/2 = 2. Restamos a la segunda la la primera multiplicada por l21 . 1 0 0 2 1 2 2 1 E1 A = 2 1 0 4 0 3 = 0 2 0 0 1 6 7 12 6 7 Calculamos el segundo multiplicador con l31 := a31 /a11 = 6/2 = 3. Ahora le restamos a la tercera la la primera multiplicada por l31 . 1 0 0 2 1 2 2 1 2 E2 ( E1 A) = 0 1 0 0 2 1 = 0 2 1 3 0 1 6 7 12 0 4 6 2 1 12

MANUALES UEX
459

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Calculamos ahora el siguiente multiplicador con l32 = a32 /a22 = 4/(2) = 2, donde a32 , a22 son las entradas correspondientes de A(2) = E2 E1 A. Restamos a la tercera la la segunda multiplicada por l32 . 1 0 0 2 1 2 2 1 2 E3 ( E2 E1 A) = 0 1 0 0 2 1 = 0 2 1 = U. 0 2 1 0 4 6 0 0 4 Entonces 2 U= 0 0 1 2 0 2 1 . 4
(2) (2) (2) (2)

Construimos la matriz L a partir de la matriz identidad colocando los multiplicadores lij en sus posiciones correspondientes. 1 0 0 1 0 0 L = l21 1 0 = 2 1 0 . l31 l32 1 3 2 1 Observemos que estas matrices U y L son las matrices triangulares que hemos usado en los sistemas de la seccin 3. Entonces A = LU y el sistema Ax = b se transforma en

( LU )x = b L(Ux) = b
Podemos escribirlo como dos sistemas Lc = b y Ux = c. Estos sistemas fueron resueltos en la seccin 3. Por tanto, la solucin del sistema Ax = b es 11/4 x = 5/2 . 2 Vamos ahora a escribir una rutina para calcular la descomposicin LU. La entrada es una matriz cuadrada A, y la salida son matrices triangulares L (inferior con unos en la diagonal) y U (superior) tales que A = LU.

MANUALES UEX
460

funtion vDamilu@eA Al igual que antes, si A no es cuadrada, devolvemos un mensaje de error y paramos.

MTODOS MATEMTICOS PARA ESTADSTICA

mDnasize@eAY if m ~a n disp@9e no es udrdF9A return end


La asignacin inicial de la matriz L es la identidad.

vaeye@nAY
Modicaremos las entradas de la matriz A, usando como pivotes los elementos de la diagonal para eliminar las entradas que estn por debajo de ellos. Como no hay coecientes por debajo de la la n, el bucle de eliminacin llega hasta n 1.

for kaIXnEI
En el paso k-simo, la matriz A tendr la siguiente forma, donde hemos usado aij para nombrar a sus entradas, dado que los pasos previos de eliminacin han alterado los valores originales aij . a11 . . . a1k a1,k+1 ... a1n . .. . . ... . 0 ... akk ak,k+1 ... akn . 0 . . . a+1,k a+1,k+1 . . . a+1,n k k k . . . . . . . . . . . . . . . . . . an,k+1 ... ann 0 ... ank Ahora notemos que las las por debajo de a van desde k + 1 hasta n. kk

for iakCIXn
A continuacin, determinamos el multiplicador. Es importante observar que las entradas en A son las actuales, todas calculadas en los k 1 pasos previos de eliminacin.

v@iDkAae@iDkAGe@kDkAY

for jakXn e@iDjAae@iDjAEv@iDkABe@kDjAY end


Cerramos los dos bucles anteriores

end end

MANUALES UEX
461

Con este multiplicador eliminamos ai,k . Estamos en la columna k, y la eliminacin afectar a las entradas a la derecha de esta columna, que corresponden a un ndice inicial de k + 1.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

La matriz A se ha transformado en triangular superior. Basta asignar este valor a U

aeY
Adems, L est tambin completa, y no tenemos que hacer nada con ella. Si no lo hemos hecho ya, abrimos el editor de wevef e introducimos el cdigo completo.

funtion vDamilu@eA mDnasize@eAY if m ~a n disp@9e no es udrdF9A return end vaeye@nAY for kaIXnEI for iakCIXn v@iDkAae@iDkAGe@kDkAY for jakXn e@iDjAae@iDjAEv@iDkABe@kDjAY end end end aeY
Finalmente, grabamos el chero como miluFm y comprobamos su funcionamiento usando la matriz 2 1 2 A= 4 0 3 , 6 7 12 de la que sabemos que 1 A = LU = 2 3 Introducimos la matriz A. 0 1 2 0 2 0 0 1 0 1 2 0 2 1 . 4

MANUALES UEX
462

bb eaPDIDEPYRDHDEQYETDEUDIP
Usamos nuestra funcin milu para calcular la descomposicin LU.

bb vDamilu@eA
y vericamos que el resultado obtenido concuerda con los anteriores.

MTODOS MATEMTICOS PARA ESTADSTICA

5.

wevef y la factorizacin LU

wevef tiene una rutina muy eciente para calcular la factorizacin LU de una matriz. Si no se necesitan cambios de las, el comando vDalu@eA calcula una matriz L triangular inferior y una matriz U triangular superior tales que A = LU. bb formt rt bb eaPDIDEIYHDIDEIYIDHDI bb vDalu@eA
Si hay que realizar cambios de las para calcular la descomposicin LU, entonces el comando vDDalu@eA devuelve adems una matriz de permutacin P tal que PA = LU.

bb eaIDIDHYPDEPDIYHDIDS bb vDDalu@eA wevef usa pivoteo por las4 para el clculo de la factorizacin LU. Observemos el siguiente ejemplo. bb bb bb bb bb eaIDPDEQDRYRDVDIPDEVYPDQDPDIYEQDEIDIDER lu@eA vDalu@eA vDDalu@eA formt
5.1. Rendimiento.

Podemos pensar qu es ms costoso, en trminos de CPU, calcular las tres matrices de la factorizacin LU u obtener la forma reducida por las de una matriz. Vamos a hacer algunos experimentos.

bb earound@IHBrnd@SHAESAY bb tiYrref@eAYto
Para comparar, veamos el tiempo que tarda en realizar una descomposicin LU de la matriz A.
4Se toma como pivote el elemento de mayor mdulo entre los n j ltimos elementos de la columna j-sima; es decir, se elige aij , j i n, de forma que
| aij | = m x | a |. a lj
jl n

MANUALES UEX
463

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

bbtiYvDDalu@eAYto
Como se ve, el comando lu es muy eciente, y por ello wevef lo usa en muchas de sus rutinas. 5.2. Matrices con muchos ceros.

Consideremos una matriz A con un nmero elevado de ceros en sus entradas. Las llamaremos matrices dispersas (sparse). Uno de los problemas de la factorizacin LU es que si A es una matriz dispersa, las matrices L y U no lo sern en general. Veamos un ejemplo.

bb bb bb bb bb bb bb bb

lose ll faukyY vDDalu@fAY spy@fAY 7 figur I figure spy@vAY 7 figur P figure spy@AY 7 figur Q

Con el comando gllery de wevef podemos tener acceso a una coleccin de matrices que poseen diferentes estructuras y propiedades. Escribe

bb help gllery
para mayor informacin.

MANUALES UEX
464

MTODOS MATEMTICOS PARA ESTADSTICA

Ejercicios de la prctica 11 Ejercicio 1. Usa la descomposicin LU para resolver los siguientes sistemas: 2x1 3x3 = 6 2x1 3x2 4x3 = 12 , x1 +2x2 + x3 = 4 3x1 + x3 = 9 3x1 + x2 5x3 = 15 3x1 x2 x3 = 3 Ejercicio 2. Construye una matriz A de orden 3 3 singular sin entradas nulas tal que la rutina milu falle. Qu mensaje de error da wevef? Explica por qu la rutina falla sobre la matriz. Ejercicio 3. Construye una matriz A de orden 3 3 invertible sin entradas nulas tal que la rutina milu falle. Qu mensaje de error da wevef? Explica por qu la rutina falla sobre la matriz. Ejercicio 4. Si una matriz A necesita intercambio de las en la eliminacin, entonces la rutina milu falla. Observa qu ocurre al calcular una descomposicin LU de la siguiente matriz: 1 1 1 1 1 1 0 1 . A= 2 1 1 0 5 3 3 2 Calcula L y U tales que PA = LU. Considera el vector 1 1 b= 1 . 1 Explica cmo se pueden usar las funciones de wevef lu, sustdelnte y susttrs para calcular la solucin del sistema Ax = b. salas para calcularla. Ejercicio 5. Consideremos los sistemas de ecuaciones lineales Ax = b con 2 2 0 A = 2 2 0 0 1 3 y b tal que la solucin correspondiente sea u = (1, 1, 1)t , siendo un nmero real positivo. Calcular la factorizacin LU de A para distintos valores de y observar que l32 cuando 0. A pesar de ello, vericar que las solucin calculada posee una buena precisin.

MANUALES UEX
465

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

MANUALES UEX
466

MTODOS MATEMTICOS PARA ESTADSTICA

PRCTICA 12

Otras factorizaciones de matrices


1. Introduccin

En esta prctica estudiaremos las factorizaciones de Cholesky y QR. Adems, veremos cmo se puede aadir comentarios de ayuda en nuestros Mcheros que se puedan visualizar con el comando help de wevef. Pre-requisitos: Factorizacin de Cholesky. Matrices de Householder. Factorizacin QR 2. Factorizacin de Cholesky 3 4 . 14

Consideremos la matriz simtrica 1 2 2 8 A= 3 4

Usando wevef podemos comprobar que es denida positiva, por ejemplo, calculando sus autovalores y observando que son estrictamente positivos

bb eig@eA
Por tanto, tenemos garanta que A admite una factorizacin de Cholesky, es decir, podemos armar que existe Q triangular inferior tal con entradas positivas en su diagonal principal tal que A = QQt . Segn vimos en clase de teora, las entradas de Q se pueden calcular median te el siguiente algoritmo: ponemos q11 = a11 y para i = 2, . . . , n, qij = 1 q jj
j 1

aij
i 1

k =1

qik q jk
1/2

, j = 1, . . . , i 1,

qii =

aii

k =1

q2 ik

MANUALES UEX
467

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Veamos paso a paso como funciona este algoritmo con nuestro ejemplo. Vamos a usar wevef para hacer los clculos, aunque dado el tamao de la matriz bien se podran hacer a mano. Para comenzar denimos una matriz nula Q del mismo orden que A.

bb a zeros@size@eAA
Segn nuestro algoritmo

bb bb bb bb bb bb

@IDIA @PDIA @PDPA @QDIA @QDPA @QDQA

a a a a a a

sqrt@e@IDIAA e@PDIAG@IDIA sqrt@e@PDPAE@PDIAPA e@QDIAG@IDIA @e@QDPAE@QDIAB@PDIAAG@PDPA sqrt@e@QDQAE@QDIAPE@QDPAPA

Ahora podemos comprobar que en efecto A = QQt .

bb e aa B9
Este proceso se puede automatizar en wevef deniendo una funcin adecuaamente. La siguiente funcin de wevef calcula la factorizacin de Cholesky de una matriz hermtica denida positiva. funtion r a mihol@eA 7wsgryvX 7 entrdX e E mtriz hermti definid positivF 7 slidX r E mtriz tringulr inferior tl que e a rBr9 7 7 i l mtriz e no es hermti o definid positiv l funin 7 operr inorretmente pudindose produir errores de divisin 7 por eroF

MANUALES UEX
468

nDn a size@eAY r a zeros@nAY r@IDIA a sqrt@e@IDIAAY for i a PXn for j a IXiEI r@iDjA a @e@iDjAEr@iDIXjEIABr@jDIXjEIA9AGr@jDjAY end r@iDiA a sqrt@e@iDiAEr@iDIXiEIABr@iDIXiEIA9AY

MTODOS MATEMTICOS PARA ESTADSTICA

end Usemos nuestro ejemplo para comprobar que nuestra funcin est bien denida: bb r a mihol@eA bb aa r
En nuestra funcin mihol hemos aadido un comentario de ayuda. Observa qu ocurre cuando escribes

bb help mihol
en el indicador de wevef. En esta ayuda advertimos que la funcin mihol no verica si la matriz es hermtica o denida positiva, por lo que la salida de nuestra funcin puede no ser able a menos que tengamos garanta de que la matriz usada tenga estas propiedades. Evidentemente podramos aadir un test de hiptesis en nuestra funcin, por ejemplo, escribiendo

bb if e aa e9
antes de la lnea 10 de mihol y

else error@9v mtriz no es hermti9AY end al nal de la funcin mihol, para vericar que la matriz es hermtica; o if e@iDiA ` r@iDIXiEIABr@iDIXiEIA9 FFF error@9v mtriz no es definid positiv9AY end
antes de la lnea 17 de mihol, para comprobar que la matriz es denida positiva. No obstante, lo habitual es no incluir demasiados tests de hiptesis en favor de una mayor velocidad de clculo. En todo caso, he aqu nuestra funcin mihol modicada, a la que llamamos miholP

funtion r a miholP@eA 7wsgryvPX

MANUALES UEX
469

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

7 7 7 7 7

entrdX e slidX r

E mtriz hermti definid positivF E mtriz tringulr inferior tl que e a rBr9

i l mtriz e no es hermti o definid positiv l funin devolver un mensje de errorF if e aa e9 nDn a size@eAY r a zeros@nAY r@IDIA a sqrt@e@IDIAAY for i a PXn for j a IXiEI r@iDjA a @e@iDjAEr@iDIXjEIABr@jDIXjEIA9AGr@jDjAY end if e@iDiA ` r@iDIXiEIABr@iDIXiEIA9 FFF error@9v mtriz no es definid positiv9AY end r@iDiA a sqrt@e@iDiAEr@iDIXiEIABr@iDIXiEIA9AY end else error@9v mtriz no es hermti9AY end

wevef posee un comando propio para calcular la factorizacin de Cholesky de una matriz hermtica y denida positiva. Si leemos la ayuda de este comando bb help hol
observamos que calcula una matriz triangular superior tal que A = Qt Q; adems, esta funcin s comprueba que la matriz introducida sea denida positiva, aunque no que sea hermtica.

MANUALES UEX
470

bb e a IDPYEIDS bb hol@eA
Ntese que la salida del comando hol de wevef es la traspuesta conjugada de la salida de nuestra funcin mihol.

2.1.

Rendimiento.

MTODOS MATEMTICOS PARA ESTADSTICA

El algoritmo para la factorizacin de Cholesky es muy estable respecto a la propagacin de errores de redondeo, incluso para matrices mal condicionadas.

bb e a hil@ISAY bb a mihol@eAY bb spy@eEB9A


Por otra parte, el algoritmo de factorizcin de Cholesky es mucho ms eciente que el de factorizacin LU, aunque usemos la estrategia de pivoteo parcial.

bb bb bb bb bb bb bb bb bb

e a rnd@SHAY 77777 hefinimos un mtriz letori de orden SH f a eBe9Y 77777 hefinimos un mtriz simtriD que ser 77777 ser definid positiv si e es invertile a mihol@fAY spy@fEB9A vD a lu@fAY spy@fEvBA vDD a lu@fAY spy@BfEvBA
3. Matrices de Householder

Comencemos deniendo la matriz de Householder asociada a un vector v Rn . En primer lugar consideramos la siguiente funcin de wevef calcula un vector de Householder w y el factor de un vector no nulo v Rn . funtion wDet a vetorhouseholder@vA 7igyryiryvhiX 7 entrdX v E un vetor no nuloF 7 slidX w E un vetor de rouseholder de vF 7 et E el mdulo de w l udrdo divido por dosF

n a length@vAY nv a norm@vAY w a vY a nvP E v@IAPY if aa H w@IA a Emin@PBv@IADHAY

MANUALES UEX
471

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

et a w@IAPGPY else if v@IA ba H w@IA a v@IA C nvY else w@IA a v@IA E nvY end et a nvBs@w@IAAY end
La siguiente funcin de wevef calcula la imagen de un vector a Rn por la matriz de Householder un vector v dado.

funtion r a imhouse@vDA 7swryi 7 entrdX v E un vetor no nuloF 7 E un vetor ritrrioF 7 slidX r E imgen de por l mtriz de rouseholder r tl 7 que rv es un mltiplo del vetor @ID HD FFFD HAY 7 esto esD l imgen de por l simetr respeto 7 del hiperplno ortogonl un vetor de rouseholder 7 de vF wDet a vetorhouseholder@vAY lph a w9BY if et aa H r a Y else r a E lphGetBwY end Comprobemos el buen funcionamiento de las dos funciones anteriores calculando un vector de Householder de v = (1, 2, 3)t . bb v a IY PY QY bb wDet a vetorhouseholder@vA
y la imagen de a = (0, 3, 2)t por la transformacin de Householder de matriz H = H(w) para el vector w obtenido anteriormente:

MANUALES UEX
472

bb a HY QY P bb r a imhouse@vDA

MTODOS MATEMTICOS PARA ESTADSTICA

Obsrvese que Ha coincide con a por qu? 4. Factorizacin QR

La siguiente funcin de wevef calcula las matrices Q y R del teorema IX.4.5 tales que A = QR, de una matriz A dada.

funtion D a miqr@eA 7 igsfi ve ehe mDn a size@eAY a eye@mAY a eY for i a IXnEI r a eye@mAY v a @iXmDiAY wDet a vetorhouseholder@vAY if et aa H r a rY else r@iXmDiXmA a eye@mEiCIA E wBw9GetY end a rBY a BrY end
Comprobemos nuestro algoritmo con la matriz 4 1 A= 1 0 1 1 0 4 0 1 0 4 1 1 1 4

wevef tiene una rutina muy eciente para calcular la factorizacin QR de una matriz. bb help qr

MANUALES UEX
473

bb e a RD EID EID HY EID RD HD EIY EID HD RD EIY HD EID EID R bb D a miqr@eA

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

4.1.

Rendimiento.

Un hecho destacable del mtodo de Householder es que el condicionamiento para la norma matricial eucldea de la matriz de partida no se ve modicado; cond2 ( A) = cond2 ( Ak ), k 1; ya que el cond2 () es invariante por transformaciones ortogonales (unitarias).

bb bb bb bb

e a round@IHBrnd@SHAESAY D a miqr@eAY ond@eA ond@A

Esto es una ventaja, del mtodo de Householder respecto del mtodo de eliminacin gaussiana, desde el punto de vista de la estabilidad numrica" compensada, sin embargo, por un mayor nmero (prcticamente el doble) de operaciones elementales con la consecuente propagacin de errores de redondeo.

bb bb bb bb bb

e a round@IHBrnd@SHAESAY tiYrref@eAYto tiYlu@eAYto tiYD a miqr@eAYto tiYD a qr@eAYto

El mtodo de Householder permite calcular de forma muy simple el determinante de la matriz A. En efecto, el determinante de una matriz de Householder es 1, de modo que det( A) = (1)r a11 a22 ann ,
(1) (2) (n)

MANUALES UEX
474

siendo r el nmero de matrices de Householder utilizadas distintas de las unidad.

bb bb bb bb

e a round@IHBrnd@IHAESAY D a miqr@eAY det@eA prod@dig@AA

MTODOS MATEMTICOS PARA ESTADSTICA

Terminamos esta prctica mostrando que la propagacin de errores de redondeo es similar si usamos la factorizacin LU o la factorizacin QR para resolver un sistema de ecuaciones lineales mal condicionado. Consideremos los sistemas lineales An xn = bn donde An Mn (R) es la matriz de Hilbert de orden n mientras que bn se elige de tal forma que la solucin exacta del sistema sea un = (1, 1, . . . , 1)t . La matriz An es claramente simtrica y se puede comprobar que es denida positiva. Para n = 1, . . . , 100, utilizamos las funciones lu y qr para factorizar la matriz An . Entonces, resolvemos los sistemas lineales asociados (mediante las sustitucin hacia adelante y hacia atrs) y denotamos por u + u la solucin calculada. En la gura que resulta recogemos (en escala semilogartmica) los errores relativos En = un 2 / un |2 en cada caso.

bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb bb

wrning@9off9A lose ll iIn a Y iPn a Y for n a IXIHH ler xxY x a ones@nDIAY for i a IXn @iA a sum@IFG@iC@IXnAEIAAY end en a hil@nAY vDD a lu@enAY y a sustdelnte@vDB9AY xx a susttrs@DyAY iIn a iInD norm@xExxAGnorm@xAY D a qr@enAY xx a susttrs@D9B9AY iPn a iPnD norm@xExxAGnorm@xAY end semilogy@IXIHHDiInD9r9A hold on semilogy@IXIHHDiPnA legend@9irror reltivo on v9D9irror reltivo on 9A wrning@9on9A

MANUALES UEX
475

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejercicios de la prctica 12 Ejercicio 1. Calcular, si es posible, la factorizacin de Cholesky de la siguiente matriz 2 1 0 0 1 4 1 0 A= 0 1 4 1 . 0 0 1 2 Comparar la factorizacin obtenida con su factorizacin LU. Ejercicio 2. Sea

5 2 2 1 2 1 2 4 A = 1 2 0 4 3 3 3 1 0 3 2 0 Calcular las matrices de Householder H1 , H2 , H3


H4 H3 H2 H1 A es triangular superior.

4 3 1 . 3 2 y H4 tales que

Ejercicio 3. Usa las descomposiciones LU y QR para sistema: x1 +1/2 x2 +1/3 x3 = 6 1/2 x1 +1/3 x2 +1/4 x3 = 4 1/3 x1 +1/4 x2 +1/5 x3 = 15 Interpreta los resultados obtenidos.

resolver el siguiente

Ejercicio 4. Modica debidamente la funcin miqr para determinar cuantas matrices de Householder distintas de la identidad se han usado. Usando esta modicacin, dene una funcin de wevef que calcule el determinante de una matriz cuadrada. Ejercicio 5. Dene una matriz aleatoria de orden 3 5 con entradas enteras entre 10 y 10. Se puede calcular una descomposicin QR de esta matriz? Comprubalo con wevef y explica el resultado. Ejercicio 6. Estudia el comportamiento de la descomposicin QR para matrices dispersas (es decir, aquellas que tiene un nmero elevado de entradas nulas).

MANUALES UEX
476

MTODOS MATEMTICOS PARA ESTADSTICA

APNDICE A

Conceptos topolgicos fundamentales


1. Espacios Mtricos

Denicin A.1.1. Sea X un conjunto no vaco. Una aplicacin d : X X R es una distancia (o aplicacin distancia) sobre X, si para todo x, y y z X verica los axiomas siguientes: (a) (Denida positiva) d( x, y) 0; adems, d( x, y) = 0 si, y slo si, x = y. (b) (Simetra) d( x, y) = d(y, x ). (c) (Desigualdad triangular) d( x, z) d( x, y) + d(y, z). El nmero real d( x, y) recibe el nombre de distancia de x a y. Ntese que (a) establece que la distancia de un elemento de X a otro elemento de X nunca es negativa, y es cero nicamente cuando ambos elementos son iguales, en particular, la distancia de un elemento a s mismo es cero, y recprocamente. El axioma (b) establece que la distancia de un elemento de x X a un elemento y X es la misma que la distancia de y a x, por esta razn d( x, y) se lee distancia entre x e y. El axioma (c) se conoce desigualdad triangular porque si x, y y z son tres puntos de plano R2 , entonces (c) establece que la longitud d( x, z) de uno de los lados del tringulo de vrtices x, y y z es menor o igual que la suma d( x, y) + d(y, z) de las longitudes de los otros dos lados del tringulo. Veamos, a continuacin, algunos ejemplos de distancias. Que estos ejemplos verican realmente los axiomas requeridos se propone como ejercicio al lector. Ejemplos A.1.2. i) Distancia discreta. Sean X un conjunto no vaco y d : X X R tal que d( x, y) = 0 si x = y; 1 si x = y.

ii) La aplicacin d( x, y) = | x y|, donde x e y son nmeros reales, es un distancia llamada distancia usual de la recta real R. Adems, la

MANUALES UEX
477

AMELIA LVAREZ SNCHEZ / IGNACIO OJEDA MARTNEZ DE CASTILLA

aplicacin d denida por d(u, v) =

( u1 v1 )2 + ( u2 v2 )2

donde u = (u1 , u2 ) y v = (v1 , v2 ) estn en R2 , es una distancia llamada distancia usual de R2 . En general, la aplicacin d : Rn Rn R denida por d(u, v) =

i =1

| ui vi |

1/2 2

donde u = (u1 , u2 , . . . , un ) y v = (v1 , v2 , . . . , vn ), es una distancia llamada distancia usual de Rn . iii) En Rn se pueden denir otras distancias distintas de la usual; por ejemplo, las aplicaciones d denidas como sigue son distancias sobre Rn d(u, v) =
i =1

| ui vi |
i =1

d(u, v) =

| ui vi | p

1/p

p 1.

d(u, v) = m x {|ui vi |, i = 1, . . . , n} . a iv) En C[0, 1] = { f : [0, 1] R continuas}, se puede denir una distancia de la manera siguiente: d( f , g ) =
1 0

f ( x ) g( x ) dx.

Asimismo, se pueden denir las dos distancias siguientes d( f , g ) = y d( f , g) = m x f ( x ) g( x ) a


x [0,1] 1 0

f ( x ) g( x )

1/p

dx

, p1

MANUALES UEX
478

Denicin A.1.3. Un espacio mtrico es un par ( X, d) formado por un conjunto no vaco X y una distancia sobre X. Ntese que un mismo conjunto podemos denir varias distancias; por lo que, en un espacio mtrico, tan importante es el conjunto como la distancia denida. Nota A.1.4. Obsrvese que si ( X, d) es un espacio mtrico e Y es un subconjunto de X, entonces la restriccin de d a Y Y dene una estructura natural de espacio mtrico en Y.

MTODOS MATEMTICOS PARA ESTADSTICA

Proposicin A.1.5. Sea ( X, d) un espacio mtrico. Entonces d( x, z) d(y, z) d( x, y). Demostracin. Por la desigualdad triangular, d( x, z) d( x, y) + d(y, z); por tanto, d( x, z) d(y, z) d( x, y). Intercambiando el papel de x e y, obtenemos que d(y, z) d( x, z) d(y, x ), esto es, d( x, y) d( x, z) d(y, z). En resumen,

d( x, y) d( x, z) d(y, z) d( x, y),
de donde se sigue la desigualdad buscada.

Topologa mtrica. Denicin A.1.6. Sean ( X, d) un espacio mtrico, x X y un nmero real positivo. Llamaremos bola abierta de centro x y radio al conjunto B( x, ) := {y X | d( x, y) < }. Llamaremos bola cerrada de centro x y radio al conjunto B[ x, ] := {y X | d( x, y) }. Ejemplos A.1.7. Veamos los ejemplos bolas abiertas en R2 para las distancias ms comunes. i) Si d(v, u) = |v1 u1 |2 + |v2 u2 |2 , con v = (v1 , v2 ) y u = (u1 , u2 ) R2 , entonces B(v, ) = {u R2 | d(v, u) < }

= { u R2 |

| v1 u1 |2 + | v2 u2 |2 < }

= {u R2 | |v1 u1 |2 + |v2 u2 |2 < 2 }.

B(0, 1) = {u R2 | d(0, u) < 1}

= {u R2 | m x{|u1 |, |u2 |} < 1} a = {u R2 | u1 , u2 (1, 1)}.


Esto es, el cuadrado (sin borde) de vrtices (1, 1), (1, 1), (1, 1) y (1, 1).

MANUALES UEX
479

Esto es, el crculo (sin borde) de centro u y radio . ii) Si d(v, u) = m x{|v1 u1 |, |v2 u2 |}, con v = (v1 , v2 ) y u = (u1 , u2 ) a R2 , entonces

AMELIA LVAREZ SNCHEZ / IGNACIO OJEDA MARTNEZ DE CASTILLA


iii) Si d(v, u) = |v1 u1 | + |v2 u2 |, con v = (v1 , v2 ) y u = (u1 , u2 ) R2 , B(0, 1) = {u R2 | d(0, u) < 1}

= { u R2 | | u 1 | + | u 2 | < 1 } .
Esto es, el cuadrado (sin borde) de vrtices (1, 0), (0, 1), (1, 0) y (0, 1). Denicin A.1.8. Sea ( X, d) un espacio mtrico. Un subconjunto A de X es un entorno de un elemento x X si existe una bola abierta centrada en x contenida en A, es decir, si existe > 0 tal que B( x, ) A. Obsrvese que toda bola abierta contiene bolas cerradas del mismo centro y radio menor, y que toda bola cerrada contiene bolas abiertas del mismo centro y radio menor. Denicin A.1.9. Sea ( X, d) un espacio mtrico. Un subconjunto U de X se dice abierto cuando para cada x U existe > 0 (que depende de x) tal que B( x, ) U. Luego, si U es un abierto de un espacio mtrico ( X, d), para cada punto de U se puede encontrar una bola abierta centrada en l contenida en U, dicho de otro modo, U es entorno de todos sus puntos. Ejemplos A.1.10. i) Las bolas abiertas de un espacio mtrico son subconjuntos abiertos. ii) En R con la distancia usual, los intervalos abiertos son subconjuntos abiertos. iii) En cualquier conjunto X con la distancia discreta, cualquier punto x X es un abierto, ya que B( x, 1/2) = { x }. Propiedades de los subconjuntos abiertos de un espacio mtrico. Sea ( X, d) un espacio mtrico. (a) El conjunto vaco, , y el total, X, son abiertos. (b) La unin arbitraria de abiertos es un abierto, es decir, si {Ui }i I es una familia arbitraria de abiertos, entonces i I Ui es abierto. (c) La interseccin nita de abiertos es un abierto, es decir, si {U1 , . . . , Un } n es una familia nita de abiertos, entonces i=1 Ui es abierto. Demostracin. La demostracin de estas propiedades se deja como ejercicio al lector. Denicin A.1.11. Sea X un conjunto no vaco. Un clase T de subconjuntos de X es una topologa en X si T verica los axiomas siguientes. (a) y X pertenecen a T .

MANUALES UEX
480

MTODOS MATEMTICOS PARA ESTADSTICA

(b) La unin arbitraria de conjuntos de T pertenece a T . (c) La interseccin de un nmero nito de conjuntos de T pertenece a T. Los elementos de T se llaman conjuntos abiertos de la topologa T y el par ( X, T ) se llama espacio topolgico. De la propiedades de los subconjuntos abiertos de un espacio mtrico, se deduce que todo espacio mtrico ( X, d) tiene una estructura natural de espacio topolgico, aquella que dene la topologa T formada por los abiertos de ( X, d) que llamaremos topologa mtrica. Denicin A.1.12. Un espacio topolgico ( X, T ) es un espacio de Hausdorff si dados dos puntos cualesquiera x e y X distintos, existen conjuntos abiertos U y V T tales que x U, y V y U V = .

Proposicin A.1.13. Todo espacio mtrico es de Hausdorff. Demostracin. Sean ( X, d) un espacio mtrico y x e y X dos puntos distintos; luego, de acuerdo con el axioma (a) de la denicin de espacio mtrico, d( x, y) = > 0. Consideremos las bolas abiertas U = B( x, /3) y V = B(y, /3) y veamos que son disjuntas. En efecto, si z U V, entonces d( x, z) < /3 y d(z, y) < /3, de donde se sigue que d( x, y) d( x, z) + d(z, y) < /3 + /3 = 2 /3, lo que supone una contradiccin. Por tanto, U y V son abiertos disjuntos tales que x U e y V. Nota A.1.14. Aunque todos los espacios topolgicos que consideraremos en esta asignatura sern espacios mtricos, conviene advertir al lector que no todos los espacios topolgicos son mtricos. Por ejemplo, sean X = {0, 1} y T = {, {0}, X }, el par ( X, T ) es un espacio topolgico, llamado espacio topolgico de Sierpinski,en el que no se puede denir ninguna distancia.

Ejemplos A.1.16. i) Las bolas cerradas de un espacio mtrico son subconjuntos cerrados. ii) En R con la distancia usual, los intervalos cerrados son subconjuntos cerrados. iii) En cualquier conjunto X con la distancia discreta, cualquier punto x X es un cerrado, ya que B[ x, 1/2] = { x }.

MANUALES UEX
481

Denicin A.1.15. Sea ( X, d) un espacio mtrico. Un subconjunto F X se dice cerrado cuando su complementario, X \ F es abierto.

AMELIA LVAREZ SNCHEZ / IGNACIO OJEDA MARTNEZ DE CASTILLA

Propiedades de los subconjuntos cerrados de un espacio mtrico. Sea ( X, d) un espacio mtrico. (a) El conjunto vaco, , y el total, X, son cerrados. (b) La unin nita de cerrados es un cerrado. (c) La interseccin arbitraria de cerrados es un cerrado. Demostracin. La demostracin de estas propiedades se deja como ejercicio al lector. Denicin A.1.17. Sean ( X, d) un espacio mtrico y A un subconjunto de X. Un elemento x A es interior de A cuando existe una bola de centro x y radio > 0 contenida en A, equivalentemente, si A es un entorno de x. El interior de A es el conjunto formado por todos sus puntos interiores int( A) := { x X | B( x, ) A, para algn > 0}. Un elemento x A es adherente a A cuando toda bola de centro x corta a A. la clausura de A es el conjunto de sus puntos adherentes, A := { x X | B( x, ) A = , para todo > 0}. Un elemento x est en la frontera de A cuando toda bola de centro x corta A y a su complementario X \ A. La frontera de A es el conjunto de sus puntos frontera Fr( A) := { x X | B( x, ) A = y B( x, ) ( X \ A) = , para todo > 0}. Un elemento x es un punto de acumulacin de A cuando toda bola de centro x corta a A \ { x }. El conjunto de puntos de acumulacin de A se denota por A . Proposicin A.1.18. Sean ( X, d) un espacio mtrico y A un subconjunto de X. Se verica que: (a) int( A) A A. (b) Si A B, entonces int( A) int( B) y A B. (c) A es abierto si, y slo si, A = int( A). (d) A es cerrado si, y slo si, A = A. (e) int( A) es el mayor abierto contenido en A. (f) A es el menor cerrado que contiene a A. (g) X \ A = int( X \ A). (h) Fr( A) = A \ int( A).

MANUALES UEX
482

MTODOS MATEMTICOS PARA ESTADSTICA

Demostracin. La demostracin de esta proposicin se deja como ejercicio al lector. 2. Sucesiones y continuidad

Sea X un conjunto. Usaremos la notacin ( xn )nN o ( x1 , x2 , . . .) (o simplemente ( xn ) cuando no exista posibilidad de confusin) para denotar la sucesin de elementos de X cuyo n-simo trmino es xn y { xn | n N} para denotar el conjunto de todos los elementos de la sucesin. Ntese que { xn | n N} puede ser nito aunque la sucesin ( xn )nN sea innita. Dada una sucesin ( xn )nN y M un subconjunto innito de N, diremos que la sucesin ( xm )m M es una subsucesin de la primera. Denicin A.2.1. Sea ( X, d) un espacio mtrico. Un elemento x X es un valor de adherencia de una sucesin ( xn ) de elementos de X, si en cada bola de centro x hay innitos trminos de la sucesin. Denicin A.2.2. Diremos que una sucesin ( xn )nN de elementos de un espacio mtrico ( X, d) converge a x X, y lo denotaremos lmn xn = x, si para cada > 0 existe N N tal que xn B( x, ) para todo n N, es decir, cuando para cada bola de centro x existe un subndice a partir de cual los trminos de la sucesin quedan dentro de la bola. En general, el concepto de convergencia depende de la distancia que determina la estructura mtrica. Ntese que el lmite de una sucesin es un valor de adherencia. Aunque no al contrario, una sucesin puede tener valor de adherencia y no ser convergente; considrese, por ejemplo, la sucesin de nmeros reales xn = (1)n , n N. Proposicin A.2.3. Sean ( X, d) un espacio mtrico. El lmite de ( xn )nN una sucesin de elementos de X, si existe, es nico Demostracin. Supongamos que existen x e y X distintos, tales que lmn xn = x y lmn xn = y. Como, por la proposicin A.1.13, ( X, d) es un espacio Haussdorff, existen dos abiertos disjuntos U y V tales que x U e y V. Por consiguiente, existen dos bolas abiertas disjuntas B( x, ) y B(y, ); lo que es del todo imposible ya que para N sucientemente grande xn B( x, ) y xn B(y, ), para todo n N, por ser x e y lmites de la sucesin ( xn )nN . Veamos ahora que los conjuntos cerrados de un espacio mtrico se pueden caracterizar usando sucesiones. Proposicin A.2.4. Sean ( X, d) un espacio mtrico y A un subconjunto de X.

MANUALES UEX
483

AMELIA LVAREZ SNCHEZ / IGNACIO OJEDA MARTNEZ DE CASTILLA


(a) x A si, y slo si, existe una sucesin de elementos de A que converge a x. (b) A es cerrado si, y slo si, cualquier sucesin convergente de elementos de A converge a un elemento de A. Demostracin. (a) Si x A, entonces x es un punto adherente a A, es decir, cualquier bola de centro de x corta A. Por consiguiente, para cada n N, la interseccin B( x, 1/n) A no es vaca. Por lo que podemos tomar un elemento xn B( x, 1/n) A, para cada n N, y construir de este modo una sucesin, ( xn )nN de elementos de A convergente a x. El recproco se sigue de las deniciones de convergencia y de punto adherente. (b) Si ( xn )nN A es una sucesin convergente a x X, entonces toda bola de centro x contiene (innitos) trminos de la sucesin, en particular, corta a A. Luego, x A y por ser A cerrado concluimos que x A. Rec por el apartado anterior, existe una sucesin en A que procamente, si x A, converge a x; luego, por hiptesis, x A y concluimos que A es cerrado. Proposicin A.2.5. Sean ( X, d) un espacio mtrico, ( xn )nN e (yn )nN dos sucesiones de elementos de X y x e y X. Entonces lmn xn = x lmn yn = y

= lm d( xn , yn ) = d( x, y).
n

Demostracin. Usando la proposicin A.1.5 y la desigualdad triangular del valor absoluto,

|d( x, y) d( xn , yn )| |d( x, y) d( xn , y)| + |d( xn , y) d( xn , yn )| d( x, xn ) + d(y, yn )


que tiende a cero cuando n tiende hacia innito. Denicin A.2.6. Una aplicacin f : ( X, d) (Y, d ) entre dos espacios mtricos se dice que es continua en un elemento x X, cuando para cada > 0, existe > 0 tal que d( x, y) < implica que d ( f ( x ), f (y)) < ,

MANUALES UEX

equivalentemente, si para cada > 0 existe > 0 tal que y B( x, ) implica f (y) B( f ( x ), ), es decir, f ( B( x, )) B( f ( x ), ). Ntese que depende tanto de como de x. El concepto de continuidad de una aplicacin en un punto es local. Se trata, intuitivamente, de que la aplicacin conserve la nocin de proximidad en torno a x. Denicin A.2.7. Una aplicacin f : ( X, d) (Y, d ) entre dos espacios mtricos se dice que es continua, cuando es continua en cada elemento de X.

484

MTODOS MATEMTICOS PARA ESTADSTICA

Proposicin A.2.8. Una aplicacin f : ( X, d) (Y, d ) entre dos espacios mtricos es continua si, y slo si, la imagen inversa de un abierto es un abierto. Demostracin. Sea U Y un abierto, se trata de demostrar que f 1 (U ) es un abierto de X, es decir, que f 1 (U ) es entorno de cada uno de sus puntos. Sea x f 1 (U ), entonces f ( x ) U. Luego, existe > 0 tal que B(( f ( x ), ) U. Ahora, por ser f continua, existe > 0 tal que f ( B( x, )) B( f ( x ), ) U. De donde se sigue que B( x, ) f 1 (U ). Recprocamente, veamos que f es continua en x X. Para cada > 0, B( f ( x ), ) es un abierto de Y. Luego, f 1 ( B( f ( x ), )) es un abierto de X que contiene a x. Por consiguiente, existe > 0 tal que B( x, ) f 1 ( B( f ( x ), )), y concluimos que f ( B( x, )) B( f ( x ), ). Otras caracterizaciones del concepto de concepto de continuidad son las siguientes: Una aplicacin f : ( X, d) (Y, d ) entre dos espacios mtricos es continua si, y slo si, la imagen inversa de un cerrado es un cerrado. Una aplicacin f : ( X, d) (Y, d ) entre dos espacios mtricos es continua si, y slo si, para todo subconjunto A de X se cumple que f ( A ) f ( A ). Teorema A.2.9. La composicin de aplicaciones continuas es continua. Demostracin. Sean f : ( X, d) (Y, d ) y g : (Y, d ) ( Z, d ) dos aplicaciones continuas entre espacios mtricos. Si U Z es un abierto, entonces g1 (U ) es un abierto en Y y f 1 ( g1 (U )) es un abierto en X. De donde se sigue que ( g f )1 (U ) = f 1 ( g1 (U )) es un abierto. Proposicin A.2.10. Una aplicacin continua entre espacios mtricos transforma sucesiones convergentes en sucesiones convergentes. Demostracin. Sean f : ( X, d) (Y, d ) una aplicacin continua entre espacios mtricos y sea ( xn )nN una sucesin convergente de elementos de X, por ejemplo, lmn xn = x X. Dado > 0, existe > 0 tal que por ser f continua. Por otra parte, al ser ( xn )nN convergente, existe N N tal que, para todo n N, d( x, xn ) < ; de donde se sigue que d ( f ( x ), f ( xn )) < , y se concluye que la sucesin ( f ( xn ))nN es convergente a f ( x ). Denicin A.2.11. Una aplicacin f : ( X, d) (Y, d ) entre dos espacios mtricos

MANUALES UEX
485

d( x, y) < d ( f ( x ), f (y)) < ,

AMELIA LVAREZ SNCHEZ / IGNACIO OJEDA MARTNEZ DE CASTILLA

(a) es abierta si lleva abiertos en abiertos, es decir, si para todo abierto U X, f (U ) es un abierto. (b) es cerrada si lleva cerrados en cerrados, es decir, si para todo cerrado F X, f ( F ) es un cerrado. (c) es un homeomorsmo si es biyectiva y tanto f como f 1 son continuas. 3. Sucesiones de Cauchy. Completitud

Denicin A.3.1. Una sucesin ( xn )nN en un espacio mtrico ( X, d) se dice que es de Cauchy si para cada > 0 existe n0 N tal que n, m > n0 implica que d( xn , xm ) < , es decir, si se pueden encontrar dos trminos de la sucesin tan prximos como se quiera. Ntese que toda sucesin convergente es de Cauchy1, pero el recproco no es cierto. Por ejemplo la sucesin de trmino general xn = (1 + 1/n)n en el espacio mtrico Q con la distancia usual (es decir, el valor absoluto) es de Cauchy, aunque no es convergente pues su lmite sera el nmero e que no es racional. Ejemplo A.3.2. Sea (vm )mN una sucesin de Cauchy en Rn con la distancia usual; por ejemplo, v1 = ( v1 , v2 , . . . , v n ), . . . , v m = ( v1 , v2 , . . . , v n ), . . . Las proyecciones de los vectores vm , m N, en cada uno de los n subespacios coordenados, es decir, (A.3.1)
(1) (1) (1) (m) (m) (m)

( v 1 ) m N , . . . , ( v n ) m N

(m)

(m)

son sucesiones de Cauchy en R. En efecto, para cada > 0, puesto que (vm )mN es de Cauchy, existe m0 N tal que si i y j son mayores que m0 , entonces d( v i , v j )2 = | v i
(1)

v j |2 + . . . + | v i
(m)

(1)

(m)

vj

(m) 2

| < 2 .

MANUALES UEX

Luego, en particular, si i y j son mayores que m0 , entonces

| vi

(1)

v j |2 < 2 , . . . , | v i

(1)

vj

(m) 2

| < 2 .

1Sea ( x ) n nN una sucesin convergente en un espacio mtrico ( X, d); por ejemplo, lmn xn = x X. Entonces, ( xn )nN es necesariamente una sucesin de Cauchy porque, para todo > 0, existe n0 N tal que n n0 implica que d( xn , x ) < 1/2 . Luego, por la desigualdad triangular, dados n y m mayores que n0 , se cumple que

486

d( xn , xm ) d( xn , x ) + d( xm , x ) < 1/2 + 1/2 = . En otras palabras, ( xn )nN es una sucesin de Cauchy.

MTODOS MATEMTICOS PARA ESTADSTICA

En otras palabras, cada una de las m sucesiones dadas en (A.3.1) es una sucesin de Cauchy. Lema A.3.3. Sea ( X, d) un espacio mtrico. Toda sucesin de Cauchy de elementos de X con un valor de adherencia es convergente. Demostracin. Sea ( xn )nN X una sucesin de Cauchy y x X un valor de adherencia de la sucesin. Veamos que lmn xn = x. Sea > 0. Por ser ( xn )nN un sucesin de Cauchy, existe n0 N tal que d( xn , xm ) < /2, para todo n, m n0 . Por otra parte, al ser x un valor de adherencia de la sucesin, existe N n0 tal que x N B( x, /2). De ambos hechos se sigue que, para todo n N, d( xn , x ) d( xn , x N ) + d( x N , x ) < /2 + /2 = . Luego, la sucesin es convergente al valor de adherencia. Denicin A.3.4. Un espacio mtrico ( X, d) es completo si toda sucesin de Cauchy ( xn )nN de elementos de X converge a un elemento de X. Ejemplos A.3.5. i) Veamos que R con la distancia usual, es decir, con el valor absoluto de la diferencia, es un espacio mtrico completo. Veamos en primer lugar que toda sucesin de Cauchy de nmeros reales es acotada2. Sea N N tal que | xn xm | < 1 si n, m N. En particular, | xn x N | < 1 si n N. Por tanto, | xn | | xn x N | + | x N | < 1 + | x N |. Por lo tanto, si K es el mximo de | x1 |, . . . , | x N 1 | y 1 + | x N |, concluimos que | xn | < K, para todo n N, es decir, xn (K, K ) para todo n N. A continuacin demostraremos que toda sucesin de Cauchy de nmeros reales posee una subsucesin convergente. Sea ( xn )nN una sucesin de Cauchy de nmeros reales. Como es acotada, existe K > 0 tal que xn (K, K ) para todo n N. Ahora, podemos dividir (K, K ) en dos mitades, y en una de ellas, que denotamos ( a1 , b1 ), encontraremos innitos trminos de nuestra sucesin. Elegimos un trmino de la sucesin xi1 ( a1 , b1 ). Dividimos ahora ( a1 , b1 ) en dos mitades, nuevamente habr innitos elementos de nuestra sucesin en una de las mitades, que denotamos ( a2 , b2 ); y elegimos un trmino de nuestra sucesin xi2 ( a2 , b2 ) con i1 i2 . Continuando de esta
2De hecho, esta propiedad es cierta para cualquier espacio normado como veremos ms

adelante.

MANUALES UEX
487

AMELIA LVAREZ SNCHEZ / IGNACIO OJEDA MARTNEZ DE CASTILLA

manera, obtenemos dos sucesiones ( an )nN y (bn )nN , y una subsucesin ( xin )nN de ( xn )nN . Est tres sucesiones tienen las siguientes caractersticas: (a) La sucesin ( an )nN es montona creciente y acotada, luego es convergente (comprubese). Sea a = lmn an . (b) La sucesin (bn )nN es montona decreciente y acotada, luego es convergente (comprubese). Sea b = lmn bn . (c) La subsucesin ( xin )nN est comprendida entre las anteriores, es decir, an < xin < bn , para cada n 1 (comprubese). Veamos ahora, que a y b son iguales. Es claro que la longitud del intervalo ( an , bn ) es | an bn | = K/2n1 , que converge a 0 cuando n tiende hacia innito. Por consiguiente, usando la desigualdad triangular del valor absoluto, obtenemos que

| a b | | a a n | + | a n b | | a a n | + | a n bn | + | bn b | .
De donde se sigue que a = b. Adems, como an < xin < bn , para cada n 1, concluimos que la subsucesin ( xin )nN es convergente; es ms, lmn xin = a = b. Hemos demostrado que toda sucesin de Cauchy de nmero reales posee una subsucesin convergente, es decir, toda sucesin de Cauchy de nmeros reales tiene un valor de adherencia. Luego, por el lema A.3.3, concluimos que toda sucesin de Cauchy de nmeros reales es convergente, y por lo tanto que R es un espacio mtrico completo. ii) El espacio vectorial Rn con la distancia usual es completo. En efecto, sea (vm )mN una sucesin de Cauchy en Rn , donde v1 = ( v1 , v2 , . . . , v n ), . . . , v m = ( v1 , v2 , . . . , v n ), . . . Entonces (vase el ejemplo A.3.2) las proyecciones de (vm )mN en los m subespacio coordenados son sucesiones de Cauchy y, puesto que R es completo, convergen:
(1) (1) (1) (m) (m) (m)

MANUALES UEX

(m) lm v m 1 (m)

= v1 , . . . , lm vn
m

(m)

= vn .

As, pues (vm )mN converge a v = (v1 , . . . , vn ) Rn , ya que d( v m , v )2 = | v1

v1 |2 + . . . + | v n

(m)

v n |2 .

488

iii) Tanto C como Cn , con sus distancias usuales respectivas, son completos; basta tener en cuenta que C la distancia denida por el mdulo de la diferencia es, topolgicamente hablando, exactamente igual que R2 con la distancia usual.

MTODOS MATEMTICOS PARA ESTADSTICA

Proposicin A.3.6. Sea ( X, d) un espacio mtrico. Si ( xn )nN e (yn )nN son sucesiones de Cauchy, entonces d( xn , yn ) es una sucesin convergente de nmeros reales. Demostracin. Usando la proposicin A.1.5 y la desigualdad triangular del valor absoluto,

|d( xm , ym ) d( xn , yn )| |d( xm , ym ) d( xn , ym )| + |d(ym , xn ) d(yn , xn )| d( x m , x n ) + d( y m , y n )


que tiende a cero cuando n y m tienden hacia innito. Como los nmeros reales con la distancia usual constituyen un espacio mtrico completo, la sucesin de Cauchy d( xn , yn ) es convergente. Veamos ahora que todo subconjunto completo de un espacio mtrico es cerrado. Proposicin A.3.7. Sea ( X, d) un espacio mtrico. Todo subconjunto completo de X es cerrado. Demostracin. Toda sucesin convergente de elementos de Y es, en particular, de Cauchy. Luego, su lmite pertenece a Y y, por la proposicin A.2.4(b), podemos armar que Y es cerrado. Proposicin A.3.8. Sea ( X, d) un espacio mtrico completo. Un subconjunto de X es completo si, y slo si, es cerrado. Demostracin. Si Y es completo, entonces, por la proposicin anterior, es cerrado. Recprocamente, como toda sucesin de Cauchy de elementos de Y es convergente en X (pues, en particular, es una sucesin de elementos de X y X es completo) e Y es cerrado, por la proposicin A.2.4(b), tiene su lmite en Y. 4. Conjuntos compactos

Denicin A.4.1. Sea ( X, d) un espacio mtrico. Se dice que un subconjunto M de X es acotado si existen x M y > 0 tales que M B( x, ). Obsrvese que las bolas abiertas y cerradas son conjuntos acotados. Denicin A.4.2. Sea ( X, d) un espacio mtrico. Se dice que un subconjunto M de X es totalmente acotado (o precompacto) cuando de cualquier sucesin de elementos de M se puede extraer una subsucesin de Cauchy. Tambin pueden describirse los conjuntos totalmente acotados de la siguiente manera:

MANUALES UEX
489

AMELIA LVAREZ SNCHEZ / IGNACIO OJEDA MARTNEZ DE CASTILLA

Proposicin A.4.3. Sea ( X, d) un espacio mtrico. Un subconjunto M X es totalmente acotado si, y slo si, para cada > 0 existe un nmero nito de elementos x1 , . . . , xn M (que dependen de ) tales que,
n

M
i =1

B ( x i , ).

Demostracin. Demostremos el contrarrecproco. Supongamos que existe > 0 tal que para cualquier conjunto nito x1 , . . . , xn M existe xn+1 M con d( xi , xn+1 ) , i {1, . . . , n}. Es decir, existe una sucesin ( xn )nN tal que d( xi , x j ) , para todo j > i. Es claro, que de esta sucesin no se puede extraer ninguna subsucesin de Cauchy por lo que M no es totalmente acotado. Sean (yn )nN una sucesin de elementos de M y > 0. Por hiptesis, existen x1 , . . . , xn j tales que
nj

( j)

( j)

M
i =1

B( xi , /2 j ),

( j)

para cada j N. Si reordenamos las bolas de tal forma que


k

Uk :=
j =1

B( x j , /2 j )

(1)

contenga innitos trminos de la sucesin, para cada k 1, y elegimos yn1 U1 , yn2 U2 , con n2 > n1 , . . . , ynk Uk , con nk > nk1 , y as sucesivamente; obtenemos una subsucesin, (ynk )kN , de (yn )nN que es de Cauchy. Corolario A.4.4. Sea ( X, d) un espacio mtrico. Todo subconjunto de X totalmente acotado es acotado. Demostracin. Si M X es totalmente acotado, para cada > 0 existen n y1 , . . . , yn M (que dependen de ) tales que, M i=1 B(yi , ). Sean n 1 = i=1 d(yi , yi+1 ) y x M, sin perdida de generalidad, podemos suponer que x B(y1 , ). Si y M, existe m {1, . . . , n} tal que d(ym , y) < . Por consiguiente, d( x, y) = d( x, y1 ) + . . . + d(ym , y) < 2 + . Luego, y B( x, ), con = 2 + , y concluimos que M es acotado. El recproco de la proposicin anterior no es cierto en general. Por ejemplo, la recta real R con la distancia d denida por d( x, y) = nf{1, | x y|} es acotada pero no es totalmente acotada.

MANUALES UEX
490

MTODOS MATEMTICOS PARA ESTADSTICA

Denicin A.4.5. Sea ( X, d) un espacio mtrico. Se dice que un subconjunto K de X es compacto cuando cualquier sucesin de elementos de K se puede extraer una subsucesin convergente a un elemento de K. En particular, todo conjunto compacto es totalmente acotado. Propiedad fundamental de los espacios mtricos. Sea ( X, d) un espacio mtrico. Un subconjunto de X es compacto si, y slo si, es completo y totalmente acotado. Demostracin. Sea K X compacto. Por hiptesis, de cualquier sucesin ( xn )nN de elementos de K se puede extraer una subsucesin convergente a un elemento de K. Luego, en particular se puede extraer un subsucesin de Cauchy y K es totalmente acotado. Por otra parte, toda sucesin de Cauchy en K admite una subsucesin convergente a un elemento x K, luego x ser un valor de adherencia de la sucesin de Cauchy y, por el lema A.3.3, el lmite de la sucesin de Cauchy. Luego, K es completo. Recprocamente, si K X es totalmente acotado, de toda sucesin ( xn )nN se puede extraer una subsucesin de Cauchy, que, por ser K completo, es convergente a un elemento de K. Luego, K es compacto. Ntese que de la Propiedad fundamental de los espacios mtricos, se sigue que, en un espacio mtrico todo compacto es cerrado y acotado. Corolario A.4.6. Sea ( X, d) un espacio mtrico. Si un subconjunto de X es compacto, entonces es cerrado. Demostracin. Si K X es compacto, entonces, por la Propiedad fundamental de los espacios mtricos, es completo y totalmente acotado. Luego, por la proposicin A.3.7, es cerrado. Corolario A.4.7. Sea ( X, d) un espacio mtrico compacto. Un subconjunto de X es compacto si, y slo si, es cerrado. Demostracin. Si K X es compacto, entonces, por el corolario anterior, es cerrado. Recprocamente, si K X es cerrado, entonces es completo, por la proposicin A.3.8, y es totalmente acotado por serlo X. Luego, por Propiedad fundamental de los espacios mtricos, concluimos que K es compacto. Ejemplos A.4.8. i) La recta real R con la distancia usual, no es compacta porque no es acotada. ii) La bola cerrada de centro el origen y radio unidad de la recta real R con la distancia usual es compacta, pues es completa (al ser un cerrado de un espacio mtrico completo), y es totalmente acotada.

MANUALES UEX
491

AMELIA LVAREZ SNCHEZ / IGNACIO OJEDA MARTNEZ DE CASTILLA


iii) En la real R con la distancia usual ser totalmente acotado equivale a ser acotado, luego en este caso se tiene que un subconjunto es compacto si, y slo si, es cerrado y acotado. iv) En Rn con la distancia usual, se puede comprobar que los conjuntos cerrados y acotados son compactos. Luego, en Rn tambin se cumple que un subconjunto es compacto si, y slo si, es cerrado y acotado. Teorema A.4.9. Sea ( X, d) un espacio mtrico compacto. Si f : X R es continua, entonces (a) f es acotada, es decir, existe M > 0 tal que | f ( x )| < M, para todo x X. (b) f alcanza un mximo y un mnimo. (c) f es cerrada. Demostracin. La demostracin de este teorema se deja como ejercicio al lector.

Nota A.4.10. El lector interesado en profundizar en este tema puede consultar [Lip70] donde adems encontrar multitud de ejercicios y ejemplos que puede ayudar a una mejor compresin de este apndice.

MANUALES UEX
492

MTODOS MATEMTICOS PARA ESTADSTICA

APNDICE B

Estructuras algebraicas

continuacin repasemos brevemente los conceptos de grupo, cuerpo y anillo, centrndonos en algunos ejemplos conocidos. Un estudio ms detallado de estas estructuras puede encontrarse en [Nav96]. 1. Grupos y subgrupos

La suma en Z se puede entender como una aplicacin

: Z Z Z (m, n) (m, n) := m + n
que verica las siguientes propiedades: Propiedad asociativa: si m, n y p Z, entonces (m + n) + p = m + ( n + p ). Propiedad de elemento neutro: existe e Z tal que n + e = e + n = n, para todo n Z. Tmese, e = 0 Z. Propiedad de elemento simtrico: existe n Z tal que n + n = n + n = e, para cada n Z. Tmese n = n, para cada n Z. Propiedad conmutativa: m + n = n + m, para todo m y n Z. Este conocido ejemplo sirve como introduccin a la nocin de grupo. Denicin B.1.1. Un grupo es un par ( G, ) donde G es un conjunto no vaco y : G G G; ( a, b) a b es una aplicacin que verica las siguientes propiedades:

Adems, si se cumple (G4) Propiedad conmutativa: a b = b a, para todo a y b G. se dice que el par ( G, ) es un grupo conmutativo grupo abeliano.

MANUALES UEX
493

(G1) Propiedad asociativa: si a, b y c G, entonces ( a b) c = a (b c). (G2) Propiedad de elemento neutro: existe e G tal que a e = e a = a, para todo a G. (G3) Propiedad de elemento simtrico: para cada a G existe a G tal que a a = a a = e.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Ejemplo B.1.2. El par (Z, +) es un grupo conmutativo. El par (Gln (Q), ) con n > 1 es un grupo no conmutativo. Nota B.1.3. Dado que la gran mayora de los grupos con los que vamos a trabajar sern grupos conmutativos, a partir de ahora omitiremos el apelativo conmutativo y nos referimos a ellos como grupos sin ms, especicando lo contrario cuando sea necesario. Habitualmente, si ( G, ) es grupo, a la aplicacin se le llama operacin interna del grupo ley de composicin interna. Es fundamental el hecho de que, dados dos elementos a y b G, la imagen por del par ( a, b), es decir, a b, es tambin un elemento de G. Veamos ahora que los elementos de G cuya existencia aseguran los axiomas (G2) y (G3) de la denicin B.1.1 son nicos. Proposicin B.1.4. Si ( G, ) es un grupo, entonces se verican las siguientes propiedades: (a) Existe un nico elemento e G, tal que a e = e a = a, para todo a G. (b) Existe un nico elemento a G, tal que a a = a a = e, para cada a G. Demostracin. (a) Si existen dos elementos neutros e y e G, entonces e e = e e = e y e e = e e = e . De donde se sigue e = e . (b) Sea a G, si existen dos elementos simtricos a y a G, entonces aa = e a a=e

= a ( a a ) = a e = a = ( a a) a = e a = a

Asociativa

= a = a .

Denicin B.1.5. Sea ( G, ) un grupo. Al nico elemento e de G tal que a e = e a = a, para todo a G, lo llamaremos elemento neutro de G. Si a G, al nico elemento a de G tal que a a = a a = e, para cada a G, lo llamaremos elemento simtrico de a. Aunque a la operacin interna del grupo la hayamos llamado , es frecuente utilizar las notaciones habituales de la adicin(+) y de la multiplicacin(). En notacin aditiva, el elemento neutro se llama cero y se expresa por 0, y el elemento simtrico de un elemento a G se llama opuesto y se representa por a. En notacin multiplicativa, el elemento neutro se llama unidad y se representa por 1, y el elemento simtrico de un elemento a G se llama inverso y se representa por a1 . Ejemplo B.1.6. Adems de los ejemplos que han servido como introduccin al concepto de grupo, se citan a continuacin otros, de los que se deja al lector las comprobaciones correspondientes:

MANUALES UEX
494

MTODOS MATEMTICOS PARA ESTADSTICA

1. (Q, +), (R, +) y (C, +) son grupos. Aqu la operacin interna + es la suma usual. 2. (Q \ {0}, ), (R \ {0}, ) y (C \ {0}, ) son grupos. Es decir, el conjunto de los racionales (reales, complejos, respectivamente) no nulos junto con la multiplicacin usual de nmeros racionales (reales, complejos, respectivamente) tiene estructura de grupo Por qu ha sido necesario prescindir del cero? 3. Sea n N jo. (Qn , +) es un grupo, donde Qn := {( a1 , a2 , . . . , an ) | ai Q, i = 1, . . . , n} y + es la suma elemento a elemento, es decir, ( a1 , a2 , . . . , an ) + (b1 , b2 , . . . , bn ) = ( a1 + b1 , a2 + b2 , . . . , an + bn ). Asimismo (Rn , +) y (Cn , +) son grupos, con la suma denida de igual forma que antes. Nota B.1.7. En lo sucesivo, y mientras no se diga lo contrario, usaremos la notacin aditiva para grupos. As escribiremos ( G, +) en vez de ( G, ), entendiendo que + denota la operacin interna que dota G de estructura de grupo. Ejercicio B.1.8. Dado un grupo ( G, +) cualquiera, no necesariamente conmutativo. Probar que las siguientes armaciones son equivalentes: (a) G es conmutativo; (b) n( a + b) = na + nb, para todo a y b G y n Z. (c) ( a + b) = a b, para todo a y b G. Generalmente, los subconjuntos de un grupo no heredan la estructura de grupo. Llamaremos subgrupo a los subconjuntos que s la conserven. Denicin B.1.9. Sean ( G, +) un grupo (no necesariamente conmutativo) y H un subconjunto no vaco de G. Diremos que H es un subgrupo (no necesariamente conmutativo) de ( G, +) si ( H, +) es grupo, donde + : H H H es la restriccin de + : G G G a H H G G. Obsrvese que, dado un grupo ( G, +), se tiene que tanto G como {0} son subgrupos de ( G, +). Un subgrupo se dice propio si es distinto de G. Segn la denicin anterior, para comprobar si H G es un subgrupo de ( G, +) tenemos que asegurarnos de que H es un subconjunto no vaco, que la restriccin de + : H H H est bien denida, es decir, que es una aplicacin, y que el par ( H, +) verica los axiomas de grupo, (G1-G3) de la denicin B.1.1. Sin embargo, en breve veremos que esto no va a ser necesario. Ejemplo B.1.10. Consideramos el grupo (Z, +) con + la suma usual de nmeros enteros.

MANUALES UEX
495

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

1. El subconjunto de Z formado por todos los nmeros enteros pares, es decir, {2z | z Z} Z, que denotamos por 2Z es un subgrupo de (Z, +) (comprubese). 2. El subconjunto de todos los nmeros enteros impares, es decir, H := {2z + 1 | z Z} Z, no es subgrupo de Z. Basta observar que la correspondencia + : H H H es el conjunto vaco y por tanto que no es aplicacin. 3. El subconjunto de todos los nmeros naturales, N, no es subgrupo de (Z, +). En efecto, aunque la aplicacin + : N N N est bien denida, no se verica la propiedad de elemento simtrico ((G3) de la denicin B.1.1). El siguiente resultado proporciona una denicin equivalente de subgrupo, que resulta mucho ms manejable. Proposicin B.1.11. Sean ( G, +) un grupo y H un subconjunto no vaco de G. Son equivalentes: (a) H es un subgrupo de G. (b) Si a y b H, entonces a b = a + (b) H. Demostracin. (a) (b) Sean a y b elementos de H. Por ser H subgrupo de ( G, +) se tiene que ( H, +) es grupo. Luego por el axioma (G3) de la denicin B.1.1, tenemos que b H, de donde se sigue que a + (b) = a b H. (b) (a) La propiedad asociativa, al vericarse en ( G, +), se verica en cualquier subconjunto H de G. Por otro lado, si a H (existe alguno pues H = ) tomando b = a, se tiene a a H. O sea, 0 H, y por lo tanto 0 a H, luego a H. De manera que, si a y b H, en particular, b H, y por tanto a (b) = a + b H, lo que completa la demostracin. Operaciones con subgrupos. A lo largo de este apartado consideramos jado un grupo ( G, +). Es claro que la interseccin y unin de subconjuntos de G es de nuevo un subconjunto de G. Parece por tanto natural, que nos preguntemos si ocurre algo similar con la interseccin y unin de subgrupos de ( G, +). En este apartado veremos que la interseccin de subgrupos de ( G, +) es un subgrupo de ( G, +), y que esto no ocurrir en general para la unin de subgrupos. Hacindose necesario introducir una nueva operacin que llamaremos suma de subgrupos, y que jugar un papel anlogo a la unin de subconjuntos. Proposicin B.1.12. Si H1 y H2 son dos subgrupos de ( G, +), entonces el conjunto interseccin de H1 y H2 , es decir, H1 H2 , es un subgrupo de ( G, +).

MANUALES UEX
496

MTODOS MATEMTICOS PARA ESTADSTICA

Demostracin. En primer lugar, tenemos que asegurarnos de que H1 H2 = . Dado que el elemento neutro 0 pertenece a cualquier subgrupo de ( G, +), podemos armar que H1 H2 = . Ahora, por la proposicin B.1.11, basta comprobar que si a y b est en H1 H2 , entonces a b H1 H2 , lo que es elemental y se deja como ejercicio. El resultado anterior se puede generalizar a una familia arbitraria de subgrupos de ( G, +). Corolario B.1.13. Si { Hi }i I es una familia de subgrupos de ( G, +), entonces i I Hi es un subgrupo de ( G, +). Ejercicio B.1.14. Sean H1 y H2 dos subgrupos de ( G, +). Probar que H1 H2 es el mayor de todos los subgrupo de ( G, +) que estn contenidos en H1 y H2 simultneamente. Generalizar el resultado para una interseccin arbitraria de subgrupos. Por consiguiente, podemos armar que la interseccin es el nmo de una familia de subgrupos dada. Como ya hemos comentando, la unin de subgrupos no es subgrupo en general, tal y como puede deducirse del siguiente ejemplo. Ejemplo B.1.15. Consideramos el grupo (Z, +) donde + es la suma usual de nmeros enteros, y los subconjuntos 2Z = {2n | n Z} y 3Z = {2n | n Z} de Z. Tanto 2Z como 3Z son subgrupos de (Z, +) (comprubese). En cambio 2Z 3Z no lo es, ya que 2 y 3 2Z 3Z pero 2 3 = 1 2Z 3Z pues 1 ni es par ni mltiplo de 3. nica y exclusivamente se puede asegurar que la unin de dos subgrupos H1 y H2 de ( G, +) es un subgrupo de ( G, +) si y slo si H1 H2 H2 H1 , es decir, si y slo si H1 H2 = H2 H1 H2 = H1 . Por consiguiente, a diferencia de lo que ocurra con los conjuntos la unin no podr desempear el rol de supremo de una familia de subgrupos dada. Esta deciencia se suple con la suma de subgrupos, que pasamos a denir a continuacin.

Comencemos deniendo la suma de dos subgrupos de ( G, +) y comprobando que efectivamente es subgrupo de ( G, +). Denicin B.1.17. Sean H1 y H2 dos subgrupos de ( G, +). Denimos la suma de H1 y H2 como el subconjunto H1 + H2 := { h1 + h2 | h1 H1 y h2 H2 } G.

MANUALES UEX
497

Nota B.1.16. Advertimos al lector que en los siguientes resultados se har uso de la propiedad conmutativa, y que por tanto no sern ciertos para grupos no conmutativos en general.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Proposicin B.1.18. Sean H1 y H2 dos subgrupos de ( G, +). El conjunto suma de H1 con H2 , es decir, H1 + H2 , es subgrupo de G. Demostracin. Obviamente H1 + H2 = , pues 0 = 0 + 0 H1 + H2 . Por la proposicin B.1.11, basta probar que si a y b H1 + H2 , entonces a b H1 + H2 . Si a y b H1 + H2 , entonces a = a1 + a2 y b = b1 + b2 con a1 y b1 H1 y a2 y b2 H2 . De manera que tenemos la siguiente cadena de igualdades a b = ( a1 + a2 ) (b1 + b2 ) = a1 + a2 b2 b1
Conmutativa

( a1 b1 ) + ( a2 b2 ).

Como H1 y H2 son subgrupos de ( G, +) podemos asegurar que ( a1 b1 ) H1 y ( a2 b2 ) H2 . De donde se sigue que a b = ( a1 b1 ) + ( a2 b2 ) H1 + H2 . La denicin de suma de dos subgrupos se puede generalizar sin mayor complicacin a una suma de una familia nita de subgrupos de ( G, +). Obtenindose el siguiente resultado, cuya demostracin se deja como ejercicio. Corolario B.1.19. Sean { H1 , . . . , Hn } una familia nita de subgrupos de ( G, +). El conjunto suma H1 + . . . + Hn es un subgrupo de ( G, +). Nota B.1.20. Se puede denir la suma de una familia arbitraria de subgrupos de ( G, +), pero no de forma totalmente anloga. Y puesto que a lo ms, trabajaremos con sumas nitas de subgrupos, es preferible sacricar la generalidad por una mayor concrecin. Ejercicio B.1.21. Sean H1 y H2 dos subgrupos de ( G, +). Probar que H1 + H2 es el menor de todos los subgrupos de ( G, +) que contiene tanto a H1 como a H2 , es decir, que contiene al conjunto H1 H2 . Generalizar el resultado para cualquier suma nita de subgrupos. 2. Cuerpos

MANUALES UEX

En los apartados 1. y 2. del ejemplo B.1.6 vimos que las operaciones usuales de suma y producto de nmeros racionales dotan a los conjuntos Q y Q \ {0} de estructura de grupo (conmutativo), respectivamente. Adems, no es difcil comprobar que ambas operaciones verican la siguiente propiedad:

a, b y c Q, a (b + c) = a b + a c

().

Y anlogamente ocurre en R y R \ {0} y en C y C \ {0}. Esta doble estructura de grupo (conmutativo) junto con la propiedad (*) recibe el nombre de cuerpo (conmutativo). Denicin B.2.1. Un cuerpo es una terna (mathbbmssk, +, ), donde k es un conjunto no vaco, y + : k k k, ( a, b) a + b, y : k k k, ( a, b) a b, dos aplicaciones, vericando:

498

MTODOS MATEMTICOS PARA ESTADSTICA

(a) (mathbbmssk, +) es un grupo conmutativo, es decir: ( a + b) + c = a + (b + c), para todo a, b y c k. Existe e k tal que a + e = e + a = a, para todo a k. (e = 0). Para cada a k, existe a k tal que a + a = a + a = e (a = a). a + b = b + a, para todo a y b k. (b) (k \ {0}, ) es un grupo conmutativo, esto es: ( a b) c = a (b c), para todo a, b y c k \ {0}. Existe u k \ {0} tal que a u = u a = a, para todo a k \ {0}. (u = 1). Para cada a k \ {0}, existe a k \ {0} tal que a a = a a = u (a = a1 ). a b = b a, para todo a y b k \ {0}. (c) Propiedad distributiva: a (b + c) = a b + a c, para todo a, b y c k. Conviene destacar que el conjunto cuyo nico elemento es el cero no es un cuerpo, en otro caso, tendramos que ({0} \ {0} = , ) sera un grupo, lo que es del todo imposible. Luego, podemos armar que todo cuerpo tiene al menos dos elementos, el 0 y el 1. Nota B.2.2. En lo sucesivo, dado un cuerpo conmutativo (mathbbmssk, +, ), nos referiremos a l como el cuerpo k a secas, sobrentendiendo las operaciones internas de suma(+) y producto(), y asumiendo que k es conmutativo salvo que se diga lo contrario. Nota B.2.3. Obsrvese que a 0 = 0 a = 0, para todo a k. En efecto, para cualesquiera a y b k \ {0} se tiene que a b = a ( b + 0)
Distributiva

a b + a 0,

de donde se sigue, por la unicidad del elemento neutro, que a 0 = 0 y, por la conmutatividad del producto, que 0 a = 0. De aqu que en mucho textos se sobrentienda esta propiedad y en el punto 2. de la denicin B.2.1 se escriba: 2. La aplicacin : k k k cumple: ( a b) c = a (b c), para todo a, b y c k. Existe u k tal que a u = u a = a, para todo a k. (u = 1). Para cada a k \ {0}, existe a k tal que a a = a a = u (a = a1 ). a b = b a, para todo a y b k.

Lo que evidentemente implica que si k = {0}, entonces (k \ {0}, ) es grupo. Ejemplo B.2.4. Como se comentado anteriormente, ejemplos de cuerpo son Q, R y C con la suma y el producto habituales en cada uno de ellos. Sin embargo, (Z, +, ) no es cuerpo, puesto que (Z \ {0}, ) no es un grupo.

MANUALES UEX
499

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Nota B.2.5. La propiedad distributiva, junto con la unicidad de los elementos neutro y unidad (vase la proposicin B.1.4), asegura que las dos aplicaciones que dotan a un conjunto de estructura de cuerpo han de ser necesariamente distintas. 3. Anillos

Finalmente recordamos que se entiende por anillo (conmutativo, con elemento unidad) y k-lgebra. Denicin B.3.1. Un anillo es una terna ( A, +, ), donde A es un conjunto no vaco y (a) + : A A A, ( a, b) a + b, es una aplicacin, llamada suma, tal que ( A, +) es un grupo conmutativo, es decir: ( a + b) + c = a + (b + c), para todo a, b y c k. Existe e k tal que a + e = e + a = a, para todo a k. (e = 0). Existe a k tal que a + a = a + a = e, para cada a k. (a = a). a + b = b + a, para todo a y b k. (b) : A A A, ( a, b) a b, es otra aplicacin, llamada producto, vericando las propiedades asociativa y distributiva respecto a +, es decir: ( a b) c = a (b c), para todo a, b y c k. a (b + c) = a b + a c, para todo a, b y c k. Si la aplicacin producto verica la propiedad de elemento unidad, es decir, u k \ {0} tal que a u = u a = a, para todo a k. (u = 1). se dice que ( A, +, ) es un anillo con unidad. Por otra parte, si la aplicacin producto verica la propiedad conmutativa, es decir, a b = a (b c), para todo a y b k \ {0}. se dice que ( A, +, ) es un anillo conmutativo. Ejemplo B.3.2. Todo cuerpo (conmutativo) es, en particular, un anillo (conmutativo) con elemento unidad. Un ejemplo de un anillo conmutativo con elemento unidad que no es un cuerpo es Z con las operaciones usuales de suma y producto (comprubese). El conjunto k[ x ] de polinomios en la indeterminada x con coecientes en un cuerpo k es un anillo conmutativo con unidad para la suma y el producto habitual de polinomios (comprubese). Denicin B.3.3. Sean A y A dos anillos. Diremos que una aplicacin f : A A es un morsmo de anillos si verica que (a) f ( a + A b) = f ( a) + A f (b), para todo a y b A; (b) f ( a A b) = f ( a) A f (b), para todo a y b A,

MANUALES UEX
500

MTODOS MATEMTICOS PARA ESTADSTICA

y si adems, A y A son anillos con unidad, que (c) f (1 A ) = 1 A . Nota B.3.4. Este apndice cubre con creces los conceptos y resultados elementales sobre estructuras algebraicas que usaremos en este manual. No obstante, el lector interesado en profundizar en este tema puede consultar [Nav96] donde adems encontrar multitud de ejercicios y ejemplos que puede ayudar a una mejor compresin de este apndice.

MANUALES UEX
501

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

MANUALES UEX
502

MTODOS MATEMTICOS PARA ESTADSTICA

APNDICE C

Espacios vectoriales
1. Deniciones y propiedades. Ejemplos

e ahora en adelante, mientras no se indique lo contrario, k denotar a un cuerpo.

Denicin C.1.1. Un espacio vectorial sobre k, tambin llamado k-espacio vectorial, es un conjunto no vaco V junto con: (a) Una operacin interna + : V V V que dota a V de estructura de grupo conmutativo, es decir, que cumple: (u + v) + w = u + (v + w), para todo u, v y w V. Existe e V tal que u + e = e + u = u, para todo u V. (e = 0). Existe u V tal que u + u = u + u = e, para cada u V. (u = u). u + v = v + u, para todo u y v V. (b) Una aplicacin u operacin externa

: kV (, u)

V , (, u) := u

que verica: (u + v) = u + v, para todo u y v V y k. ( + ) u = u + u, para todo u V y y k. ( ) u = ( u), para todo u V y y k. 1 u = u, para todo u V, donde 1 es el elemento unidad de k.

Segn de la denicin anterior, un k-espacio vectorial es una terna (V, +, ) que verica una serie de propiedades. Sin embargo, por simplicidad en la escritura, a partir de ahora diremos que V es k-espacio vectorial, entendiendo

MANUALES UEX
503

Nota C.1.2. Sea (V, +, ) un k-espacio vectorial. Llamaremos vectores a los elementos de V y escalares a los elementos del cuerpo k. La aplicacin : k V V se llama producto por escalares. De aqu que en lo que sigue, abusemos de la notacin multiplicativa y, si k y u V, escribamos u u en vez de u.

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

por ello que V est dotado de una operacin + con la que es grupo abeliano y de un producto por escalares del cuerpo k. Asimismo conviene destacar que estamos denotando por 0 al elemento neutro del espacio vectorial, el vector cero, y por 0 al elemento neutro del cuerpo k, el escalar cero. En cualquier caso, el propio contexto, delimitar claramente cuando se usa uno u otro. Ejemplo C.1.3. Mostramos a continuacin una serie de ejemplos de espacios vectoriales, de los que se deja al lector las comprobaciones correspondientes. 1. El cuerpo k, con las operaciones suma y productos propias, es un espacio vectorial sobre s mismo. 2. El conjunto cuyo nico elemento es el cero {0} es un k-espacio vectorial, que llamaremos espacio vectorial trivial. 3. Las matrices de m las y n columnas con coecientes en k, Mmn (k), junto con la operacin suma de matrices y el producto de escalares habitual, es decir, A + B = ( aij ) + (bij ) = ( aij + bij ) y A = ( aij ) = (aij ) con A = ( aij ) y B = ( aij ) Mmn (k) y k, es un k-espacio vectorial. 4. El conjunto de los polinomios en la variable x y coecientes en k, k[ x ] con las operaciones usuales, es un espacio vectorial sobre k. 5. El conjunto de los polinomios en la variable x de grado menor o igual que n N y con coecientes en k, k[ x ]n con las operaciones usuales, es un espacio vectorial sobre k. De la denicin C.1.1 se siguen de forma inmediata las siguientes propiedades. Proposicin C.1.4. Sea V un k-espacio vectorial. Para todo u y v V y y k, se verica que: (a) 0 = 0. (b) 0 u = 0. (c) (u v) = u v. (d) ( ) u = u u. (e) () u = ( u). (f) (u) = ( u). Demostracin. (a) Si u V es un vector arbitrario, entonces u = (u + 0) = u + 0 = 0 = 0. (b) Si k es un escalar cualquiera, entonces u = ( + 0) u = u + 0 u = 0 u = 0. (c) (u v) + v = ((u v) + v) = (u + (v + v)) = u = (u v) = u v. (d) ( ) u + u = (( ) + ) u = ( + ( + )) u = u = ( ) u = u u.

MANUALES UEX
504

MTODOS MATEMTICOS PARA ESTADSTICA

(e) () u + u = ( + ) u = 0 u = 0 = () u = u. (f) (u) + u = (u + u) = 0 = 0 = (u) = u. Ejemplo C.1.5. En un ejemplo anterior vimos que todo cuerpo k con sus propias operaciones de suma y producto es un k-espacio vectorial. Por ejemplo R con la suma y producto usual de nmeros reales es un R-espacio vectorial. Sin embargo, los siguientes productos por escalares (*) de R no dotan a R con la suma usual de estructura de R-espacio vectorial. Lo que pone de maniesto que, en la denicin de espacio vectorial, la operacin externa tan importante como la estructura de grupo. 1. Si u = 2 u, para todo u R y R, entonces (R, +, ) no es un espacio vectorial sobre R, pues ( + ) u = u + u. 2. Si u = 0, para todo u R y R, entonces (R, +, ) no es un espacio vectorial sobre R, pues 1 u = u. Para nalizar esta seccin veamos con detalle el ejemplo de los espacios vectoriales numricos. Ejemplo C.1.6. Sea n N jo. Si consideramos

kn = {u = (u1 , . . . , un ) | ui k, i = 1, . . . , n}
con las operaciones suma y producto por escalares denidas como sigue: u+v u

= ( u1 , . . . , u n ) + ( v1 , . . . , v n ) : = ( u1 + v1 , . . . , u n + v n ); = ( u1 , . . . , u n ) := (u1 , . . . , un ),

para todo u y v kn y k, entonces (kn , +, ) es un k-espacio vectorial. En efecto, (kn , +) es un grupo (comprubese), veamos que se verican el resto de axiomas de espacio vectorial. Si u y v kn y y k, entonces (u + v) = ((u1 , . . . , un ) + (v1 , . . . , vn )) = (u1 + v1 , . . . , un + vn ) = ((u1 + v1 ), . . . , (un + vn )) = (u1 + v1 , . . . , un + vn ) = (u1 , . . . , un ) + (v1 , . . . , vn ) = (u1 , . . . , un ) + (v1 , . . . , vn ) = u + v. ( + ) u = ( + ) (u1 , . . . , un ) = (( + )u1 , . . . , ( + )un ) = (u1 + u1 , . . . , un + un ) = (u1 , . . . , un ) + (u1 , . . . , un ) = (u1 , . . . , un ) + (u1 , . . . , un ) = u + u. ( ) u = ( ) (u1 , . . . , un ) = (( )u1 , . . . , ( )un ) = ( ( u1 ), . . . , ( un )) = (u1 , . . . , un ) = ((u1 , . . . , un ) = ( u ). 1 u = 1 (u1 , . . . , un ) = (1 u1 , . . . , 1 un ) = (u1 , . . . , un ) = u. El espacio vectorial (kn , +, ) se llama k-espacio vectorial numrico de dimensin n.

MANUALES UEX
505

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

2.

Subespacios vectoriales

Denicin C.2.1. Sea V un espacio vectorial sobre k. Diremos que un subconjunto no vaco L de V es un subespacio vectorial de V sobre k, si L, con las operaciones interna y externa de V, es un espacio vectorial. Por consiguiente, si L es un subespacio vectorial de (V, +, ), entonces ( L, +) es un grupo (conmutativo) y la restriccin del producto por escalares denido en V dota a F de estructura de espacio vectorial sobre k; en resumen, todo subespacio vectorial es de modo natural un espacio vectorial. Veamos, en primer lugar, los ejemplos ms sencillos de subespacios vectoriales. Ejemplo C.2.2. 1. Todo espacio vectorial es un subespacio vectorial de l mismo; dicho subespacio se denomina subespacio vectorial total impropio. Un subespacio vectorial se dice propio si es distinto del total. 2. Todo espacio vectorial tiene un subespacio vectorial denominado trivial, aquel cuyo nico elemento es el vector cero. Como ocurre con la denicin de subgrupo, existen deniciones equivalentes de subespacio vectorial que facilitan las comprobaciones a efectos prcticos. Proposicin C.2.3. Sean V un k-espacio vectorial y L un subconjunto no vaco de V. Las siguientes condiciones son equivalentes: (a) L es subespacio vectorial de V. (b) ( L, +) es un subgrupo de V cerrado para el producto por escalares, es decir, u L, para todo k y u L. (c) L es un conjunto cerrado para combinaciones lineales, esto es, u + v L, para todo , k y u, v L. Demostracin. (a) = (b) Como L es subespacio vectorial, en particular ( L, +) es un subgrupo de V y adems la restriccin del producto por escalares a k L valora en L. (b) = (c) Sean , k y u, v L. Al ser L cerrado para el producto por escalares tenemos que u y v estn en L. De donde se sigue u + v L, pues ( L, +) es subgrupo. (c) = (a) Tenemos que (C.2.2) u + v L, para todo , k y u, v L.

MANUALES UEX
506

Tomando = 1 y = 1 en (C.2.2), se prueba que u v L, para todo u, v L. Luego, por la proposicin B.1.11, se sigue que ( L, +) es subgrupo de V. Tomando ahora = 0 en (C.2.2) se obtiene que u L, para todo k

MTODOS MATEMTICOS PARA ESTADSTICA


y u L, es decir, que la restriccin de a k L valora en L. De todo esto se deduce que las operaciones interna y externa de V dotan a L de estructura de espacio vectorial sobre k, si ms que comprobar que la aplicacin : k L L verica lo requerido en la denicin C.1.1(b), lo que se deja como ejercicio. Ejercicio C.2.4. Probar que los nicos subespacios vectoriales de un cuerpo, considerado como espacio vectorial sobre s mismo, son el trivial y el total. Ejemplo C.2.5. A continuacin mostramos un par de ejemplos no elementales de subespacios vectoriales. 1. El conjunto L I = {( a1 , . . . , an ) kn | ai = 0, si i I }, es un subespacio vectorial de kn , para todo I {1, . . . , n}. 2. Sea A = ( aij ) Mn (k). Se llama traza de A, tr( A), a la suma de los n elementos de la diagonal principal de A, es decir, tr( A) := i=1 aii . El subconjunto de Mn (k) formado por la matrices de traza 0 es un subespacio vectorial de Mn (k) con la suma de matrices y producto por escalares habituales. 3. Bases de un espacio vectorial. Dimensin

En esta seccin deniremos un primer invariante intrnseco asociado a un espacio vectorial, la dimensin. Para ello ser necesario introducir una serie de conceptos que nos conducirn a la nocin de base de un espacio vectorial, y de aqu a la de dimensin. Denicin C.3.1. Sea V un espacio vectorial sobre k. Se dice que u V es combinacin lineal de un conjunto de vectores {v1 , v2 , . . . , vr } de V, si existen 1 , 2 , . . . , r k tales que u = 1 v1 + 2 v2 + . . . + r vr . Ejemplo C.3.2. 1. El vector 0 V es combinacin lineal de cualquier conjunto de vectores de V. 2. El vector v := 3x2 + 2x 2 V = k[ x ] es combinacin lineal del conjunto de vectores {v1 := x2 , v1 := x 1} V.

k-espacio vectorial V, cualquier combinacin lineal suya es un vector de V.


Este hecho dota de sentido a la siguiente:

Obsrvese que dado un conjunto nito de vectores {v1 , v2 , . . . , vr } de un

Notacin C.3.3. Sea S V un subconjunto no vaco (no necesariamente nito). Denotaremos por S al conjunto de combinaciones lineales de los subconjuntos nitos de S, es decir, S := {1 v1 + 2 v2 + . . . + r vr | i ky {v1 , v2 , . . . , vr } S}.

MANUALES UEX
507

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


Proposicin C.3.4. Sean V un espacio vectorial sobre k y S V un subconjunto no vaco (no necesariamente nito). El conjunto de combinaciones lineales de los subconjuntos nitos de S, S es el menor subespacio vectorial de V que contiene a S. Demostracin. Por la proposicin C.2.3(c), basta probar que S es cerrado para combinaciones lineales, es decir, u + v S , parta todo , k y u, v S . Sean u y v S . Como u S , existir un subconjunto nito de S, {u1 , u2 , . . . , ur } tal que u = 1 u1 + 2 u2 + . . . + r ur , para ciertos i k, i = 1, . . . , r, y anlogamente, con v = 1 v1 + 2 v2 + . . . + s v s , para algn subconjunto nito {v1 , v2 , . . . , vs } de S y i k, i = 1, . . . , s. Por ser V un espacio vectorial se sigue que u + v = (1 )u1 + (2 )u2 + . . . + (r )ur + (1 )v1 + (2 )v2 + . . . + (s )vs , y por consiguiente que existe un subconjunto nito de S, {u1 , u2 , . . . , ur } {v1 , v2 , . . . , vs }, tal que u + v es combinacin lineal suya. Esto prueba que u + v S y por tanto que es subespacio vectorial. Queda ver que S es el menor subespacio vectorial que contiene a S. Pero esto es elemental, ya que si F es un subespacio vectorial que contiene a S, entonces contiene a cualquier combinacin lineal (nita) de elementos de S. De donde se sigue que S F. Denicin C.3.5. Sean V un espacio vectorial sobre k y F V un subespacio vectorial. Si S es un subconjunto tal que F = S , diremos que F est generado por S, que S es un sistema de generadores de F que S genera a F, indistintamente. Nota C.3.6. Todo subespacio vectorial F de V posee un sistema de generadores, ya que, por ejemplo, F = F . Ejemplo C.3.7. Veamos alguno ejemplos que ilustran el concepto de sistema de generadores. 1. Sea V un k-espacio vectorial cualquiera y F el subespacio vectorial trivial, es decir, F = 0 . El conjunto cuyo nico elemento es el vector cero, S = {0}, es un sistema de generadores de F. 2. Sea V = R3 y consideramos el subespacio vectorial F = {(0, a2 , a3 ) | a2 , a3 R}. Los conjuntos S1 = {v1 = (0, 1, 0), v2 = (0, 0, 1)}, S2 = {v1 = (0, 2, 0), v2 = (0, 1/2, 1)} y S3 = {v1 = (0, 1, 1), v2 = (0, 1, 1), v3 = (0, 2, 3)} son (cada uno ellos) sistemas de generadores de F. El conjunto S4 = {v1 = (0, 1, 1)} no genera a F. Obsrvese que la primera

MANUALES UEX
508

MTODOS MATEMTICOS PARA ESTADSTICA

parte de este ejemplo seala que un mismo subespacio vectorial puede tener distintos sistemas de generadores. 3. Sea V = k[ x ]. Los conjuntos de vectores S1 = {1, x, x2 , . . . , x n , . . .} y S2 = {1, ( x 7), ( x 7)2 , . . . , ( x 7)n , . . .} son (cada uno) sistemas de generadores del subespacio vectorial impropio, es decir, del mismo V. 4. Sea V = k[ x ] y consideramos el subespacio vectorial F = k[ x ]n . Los conjuntos de vectores S1 = {1, x, x2 , . . . , x n } y S2 = {1, x, x2 , . . . , x n , x 1, x 2, . . . , x m, . . . , } son (cada uno) sistemas de generadores de F. 5. Sea k = Q y consideramos R con estructura de Q-espacio vectorial. El conjunto de vectores S = {1} (R \ Q) es un sistema de generadores de R como Q-espacio vectorial. Antes vimos (vase la nota C.3.6) que todo subespacio vectorial tiene, al menos, un sistema de generadores. Adems, en el caso de los espacios vectoriales se puede hablar de sistemas de minimales generadores. La siguiente denicin precisar que entenderemos por minimal. Denicin C.3.8. Sean V un espacio vectorial sobre k y S V un subconjunto no vaco (no necesariamente nito). Se dice que S es un conjunto linealmente independiente libre si toda combinacin lineal (nita) de vectores de S nula tiene sus escalares nulos. Es decir, 1 v1 + 2 v2 + . . . + r vr = 0 = 1 = 2 = . . . = r = 0, para todo subconjunto nito {v1 , v2 , . . . , vr } S. En otro caso se dice que S es un conjunto linealmente dependiente. Ejemplo C.3.9. Sea V un k-espacio vectorial. Un subconjunto S de V formado por nico vector v V, esto es S = {v}, es linealmente independiente si, y slo si, v = 0. Proposicin C.3.10. Sean V un espacio vectorial sobre k y S V un subconjunto no vaco (no necesariamente nito). Se cumple que:

Demostracin. Teniendo en cuenta que la equivalencia del apartado (a) es la negacin de la del apartado (b), y viceversa, es suciente demostrar una de las dos. (b) Si S es linealmente dependiente, entonces existe {v1 , . . . , vr } S tal que 1 v1 + 2 v2 + . . . + r vr = 0 con j = 0 para algn j {1, 2, . . . , r } Sin perdida de generalidad, podemos suponer 1 = 0, en otro caso reordenaramos los subndices del conjunto {v1 , . . . , vr }. Por consiguiente, como

MANUALES UEX
509

(a) S es linealmente independiente si, y slo si, v S \ v , para todo v S. (b) S es linealmente dependiente si, y slo si, existe v S tal que v S \ v .

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

1 v1 + 2 v2 + . . . + r vr = 0 implica 1 v1 = 2 v2 . . . r vr , y dado que 1 = 0, se sigue que v1 = 2 v2 . . . r vr es un elemento de S \ v1 . 1 1 Recprocamente, si v S \ v1 , entonces existe un subconjunto nito {v1 , v2 , . . . , vr } de S, tal que v = 1 v1 + 2 v2 + . . . + r vr , para ciertos i mathbbmssk, y vi = v, para todo i = 1, 2, . . . , r. Ahora bien, como v = 1 v1 + 2 v2 + . . . + r vr implica 0 = v + 1 v1 + 2 v2 + . . . + r vr y vi = v, para todo i = 1, 2, . . . , r. Luego tenemos una combinacin lineal nula de vectores de S con al menos un escalar no nulo (el 1 que acompaa a v). Por consiguiente S es un conjunto linealmente dependiente. Corolario C.3.11. Sean V un espacio vectorial sobre k y S V un subconjunto no vaco (no necesariamente nito). Si 0 S, entonces S es linealmente dependiente. Demostracin. Por la proposicin C.3.10, la prueba es inmediata pues 0 S \ {0} , ya que el vector cero pertenece a todo subespacio vectorial. Ejemplo C.3.12. Volviendo al ejemplo C.3.7 tenemos que: 1. El conjunto S = {0} no es linealmente independiente. 2. Los conjuntos S1 , S2 y S4 son linealmente independientes, pero S3 no lo es, es decir, S3 es linealmente dependiente. 3. Los conjuntos S1 y S2 son conjuntos (con innitos elementos) linealmente independientes. Pero, si tomamos S1 S2 obtenemos un conjunto linealmente dependiente. 4. El conjunto de vectores S1 es linealmente independiente y el conjunto de vectores S2 es linealmente dependiente. 5. El conjunto de vectores S es no linealmente independiente, ya que por ejemplo {, 2 } S no es linealmente independiente. Si nos jamos en el ejemplo anterior, observamos que la independencia lineal dene una relacin de orden (relacin que verica las propiedades reexiva y transitiva y tal que x y e y x simultneamente implica x = y) en el conjunto de todos los sistemas de generadores de un subespacio vectorial dado; S S S = S y S S . Lo que nos permite denir un concepto de minimalidad entre sistemas de generadores: un sistema de generadores de un subespacio vectorial L es minimal si no existe ningn otro sistema de generadores de L contenido dentro de l. Un sistema de generadores minimal es lo que llamaremos una base. Denicin C.3.13. Sean V un k-espacio vectorial, L un subespacio vectorial y B un conjunto de vectores de V. Diremos que B es una base L si genera a L y es linealmente independiente. Nota C.3.14. Obsrvese que si S es un conjunto linealmente independiente, entonces es base de S .

MANUALES UEX
510

MTODOS MATEMTICOS PARA ESTADSTICA

Ejemplo C.3.15. Por la denicin de base de un subespacio vectorial y a la vista de los ejemplos C.3.7 y C.3.12, tenemos que: 1. El subespacio vectorial trivial no tiene base. 2. Los conjuntos S1 y S2 son bases de L. Luego un subespacio vectorial puede tener mas de una base. 3. Los conjuntos S1 y S2 son bases de k[ x ]. Por lo tanto, hay bases con innitos vectores. 4. El conjunto S1 es una base de k[ x ]n , es decir que un espacio vectorial con bases de innitos vectores, contiene subespacios vectoriales cuyas bases tienen un nmero nito de vectores. 5. S no es una base de R como Q-espacio vectorial. Ejercicio C.3.16. Probar que una base del espacio vectorial de matrices de orden 2 3 con coecientes en k es
1 0 0 0 0 0 , 0 0 1 0 0 0 , 0 0 0 0 1 0 , 0 1 0 0 0 0 , 0 0 0 1 0 0 , 0 0 0 0 0 1 .

La relevancia de las bases en espacios vectoriales no slo radica en el hecho de que corresponda con la idea de sistema minimal de generadores minimal. El siguiente resultado muestra una importante propiedad de las bases que ser fundamental en el transcurso de este curso. Proposicin C.3.17. Sean V un k-espacio vectorial, L un subespacio vectorial y B un conjunto de vectores de L. B es base de L si, y slo si, todo vector de L se expresa de manera nica como combinacin lineal de elementos de B . Demostracin. Si B es base de L, en particular es sistema de generadores de L. Luego, dado v L, existe {v1 , . . . , vr } B tal que v = 1 v1 + . . . r vr , para ciertos i k, i = 1, . . . , r. Sea {u1 , . . . , us } B , otro conjunto de vectores tal que v = 1 u1 + . . . s u1 + . . . s us para ciertos i k, i = 1, . . . , s. Si un vector v j no aparece en la segunda expresin, aadimos a sta el sumando 0v j ; anlogamente, si un u j no aparece en la primera expresin, aadimos a sta el sumando 0u j . Consiguiendo de este modo dos combinaciones lineales de los mismos vectores, es decir, con {v1 , . . . , vm } = {u1 , . . . , um }. As, reordenando los subndices de la segunda expresin si fuese necesario, obtenemos que v = 1 v1 + . . . + m vm , que v = 1 v1 + . . . + vm y, restando ambas expresiones, que 0 = ( 1 1 ) v1 + . . . + ( m m ) v m . El conjuto de vectores {v1 , . . . , vm } est contenido en la base B que, en particular, es un conjunto linealmente independiente. Por la denicin C.3.8, se sigue 1 1 = . . . = m m = 0, es decir, 1 = 1 , . . . , m = m = 0.

MANUALES UEX

v = 1 v 1 + . . . + r v r + r +1 v r +1 + . . . + m v m = 1 u 1 + . . . + s u s + s +1 u s +1 + . . . + m u m

511

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Recprocamente, si todo vector de L se expresa como combinacin lineal de elementos de B , entonces, por la proposicin C.3.4, tenemos que B genera a L. Por otro lado, si {v1 , . . . , vr } es un subconjunto de vectores de B tal que 0 = 1 v1 + . . . + r vr , dado que tambin 0 = 0v1 + . . . + 0vr y que la expresin debe ser nica, se sigue 1 = . . . = r = 0. Luego B es linealmente independiente. Sabemos, por la proposicin C.3.17, que todo vector v V se expresa de forma nica como combinacin lineal de los vectores de B ; es decir, existen unos nicos 1 , . . . , n k tales que v = 1 v1 + . . . + n vn , llamados coordenadas de v V respecto de B . En lo que sigue centraremos nuestra atencin en aquellos espacios vectoriales que est generados por un nmero nito de vectores. Probaremos que las bases de stos son siempre nitas y que el nmero de vectores en cualquiera de sus bases es una constante. A esta constante la llamaremos dimensin del espacio vectorial. Denicin C.3.18. Sea V un espacio vectorial sobre k. Diremos que V es de dimensin nita si posee sistemas de generadores nitos. En caso contrario diremos que es de dimensin innita. Proposicin C.3.19. Sea V un k-espacio vectorial no trivial de dimensin nita. Si S es un sistema de generadores nito de V, entonces existe un subconjunto de S que es base de V. Es decir, todo espacio vectorial de dimensin nita tiene una base nita. Demostracin. En primer lugar, conviene resaltar que existe v S no nulo, ya que V = S y V = {0}. Luego, al menos, hay un subconjunto S que es linealmente independiente. Como V es de dimensin nita podemos asegurar que existe un conjunto nito S = {v1 , . . . , vn } que genera a V. Si S es linealmente independiente, entonces B = S es una base de V. En caso contrario, hay al menos uno que es combinacin lineal de los otros. Sin perdida de generalidad podemos suponer que ste es v1 . Entonces V = S = v2 , . . . , vr . Si este nuevo conjunto es linealmente independiente, es una base de V. En otro caso, podemos volver a suprimir uno de ellos, obteniendo otro sistema de generadores de V. Repitiendo el proceso tantas veces como sea necesario, eliminando aquellos generadores que sean combinacin lineal del resto. Llegaremos de esta manera a conseguir un conjunto linealmente independiente que genera a V, es decir, una base de V. Teorema C.3.20. de Steinitz. Si V es un k-espacio vectorial no trivial de dimensin nita, entonces cualesquiera dos bases nitas de V tienen el mismo nmero de vectores.

MANUALES UEX
512

MTODOS MATEMTICOS PARA ESTADSTICA

Demostracin. Sean B = {v1 , . . . , vn } y B = {u1 , . . . , um } dos bases de V, y suponemos n m. Sustituiremos uno por uno n vectores de la base B por los n vectores de la base B . Por ser B un sistema de generadores de V tenemos que v1 = 1 u1 + . . . + m um , para ciertos i k. Como v1 = 0, al menos uno de los j es distinto de cero. Sin perdida de generalidad podemos suponer 1 = 0. Entonces
u1 = 1 1 v1 + ( 1 1 2 ) u2 + . . . + ( 1 1 m ) u m .

Esta expresin asegura que u1 , u2 , . . . , um = v1 , u2 , . . . , um y por consiguiente que {v1 , u2 , . . . , um } genera a V. Adems, {v1 , u2 , . . . , um } es linealmente independiente. En efecto, si 0 = 1 v1 + 2 u2 + . . . + m um = m 1 ( i =1 i u i ) + 2 u 2 + . . . + m u m = 1 1 u 1 + ( 1 2 + 2 ) u 2 + . . . + ( 1 m + m )um , entonces 1 1 = 0 y 1 i + i = 0, i = 2, . . . , m, pues B es linealmente independiente. Pero 1 = 0. Por tanto 1 = 0 y i = 0, i = 2, . . . , m. As pues,{v1 , u2 , . . . , um } es una base de V. Tenemos que {v1 , u2 , . . . , um } es una nueva base de V. Procedamos igual que antes y expresemos v2 como combinacin lineal de esta base: v2 = 1 v1 + 2 u2 + . . . + m um , para ciertos i k. A la vista de lo anterior, slo tenemos que probar que v2 se puede sustituir por alguno de los u j , j = 2, . . . , m. Para ello, y a la vista de lo anterior, basta asegurar que algn j , j = 2, . . . , m, es distinto de cero. Pero si fuese 2 = . . . = m = 0, entonces v2 = 1 v1 , es decir, v2 sera combinacin lineal de {v1 , v3 , . . . , vn } y esto no es posible por ser B base. Siguiendo el proceso descrito arriba sustituimos n vectores de la base B por los vectores de B , y reordenando los subndices de los vectores de B podemos suponer que hemos cambiado los n primeros vectores de B . As obtenemos que B = {v1 , . . . , vn , un+1 , . . . um } es una base de V. Pero {un+1 , . . . , um } V = B = v1 , . . . , vn . Luego, necesariamente, m = n y B = B. Corolario C.3.21. Si V es un k-espacio vectorial no trivial de dimensin nita, entonces cualesquiera dos bases de V tienen el mismo nmero de vectores. Es decir, en un espacio vectorial de dimensin nita distinto del trivial todas las bases son nitas y tienen el mismo nmero de vectores. Demostracin. Basta repetir la demostracin del teorema de Steinitz (teorema C.3.20) con B = {v1 , . . . , vn } y B = {u j | j J }, con J es un conjunto arbitrario de ndices. Este ltimo corolario permite denir sin ambigedad el concepto de dimensin.

MANUALES UEX
513

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


Denicin C.3.22. Llamaremos dimensin de un k-espacio vectorial no trivial de dimensin nita V, y la denotaremos por dimk V ( simplemente dim V), al nmero de elementos de las bases de V. Por convenio, se dene la dimensin del espacio vectorial trivial como cero, es decir, dim 0 = 0. Ejemplo C.3.23. 1. La dimensin de k como k-espacio vectorial es 1. Por ejemplo, R tiene dimensin 1 como R-espacio vectorial. Sin embargo, tiene dimensin innita como Q-espacio vectorial. 2. kn es un k-espacio vectorial de dimensin n. 3. k[ x ] es un k-espacio vectorial de dimensin innita. 4. k[ x ]n es un k-espacio vectorial dimensin n + 1. 5. Mmn (k) es un espacio vectorial de dimensin m n sobre k. Por la proposicin C.3.19 podemos armar que la dimensin de un espacio vectorial V coincide con el menor nmero de vectores que generan a V. Veamos que la dimensin de V tambin se puede entender como el mayor nmero de vectores linealmente independientes en V. Proposicin C.3.24. Sean V un espacio vectorial sobre k y v V. Si S V es subconjunto linealmente independiente (no necesariamente nito) tal que v S , entonces S = S {v} tambin es linealmente independiente. Demostracin. Consideramos v + 1 v1 + . . . + r vr = 0, donde {v1 , . . . , vr } S , k y i k, i = 1, . . . , r. Si = 0, entonces existe 1 k y por tanto v = (1 1 )v1 . . . (1 r )vr S , en contra de la hiptesis v S . Por tanto = 0. Pero entonces tenemos 1 v1 + . . . + r vr = 0, con {v1 , . . . , vr } S y i k, i = 1, . . . , r. Por ser S linealmente se sigue que 1 = . . . = r = 0. Corolario C.3.25. Si V es un k-espacio vectorial no trivial de dimensin nita. Todo conjunto linealmente independiente de vectores de V o es una base de V o se puede ampliar a una base del espacio vectorial.

MANUALES UEX
514

Demostracin. La prueba es inmediata a partir del teorema de Steinitz (teorema C.3.20 y la proposicin C.3.24. Ejercicio C.3.26. Sea V un k-espacio vectorial de dimensin n. Probar las siguientes armaciones: 1. Todo subconjunto linealmente independiente de n vectores es una base de V. 2. Todo conjunto de ms de n vectores es linealmente dependiente. 3. Todo sistema de generadores de V tiene al menos n vectores.

MTODOS MATEMTICOS PARA ESTADSTICA

4. Todo sistema de generadores con n elementos es una base de V. Para terminar esta seccin veamos que ocurre con la dimensin de los subespacios de un espacio vectorial de dimensin nita. Proposicin C.3.27. Sea V un k-espacio vectorial de dimensin nita. Si L es un subespacio vectorial de V, entonces L tiene dimensin nita y dim L dim V. Demostracin. Si B una base de L, en particular es un subconjunto de vectores de V linealmente independiente. Luego, por el corolario C.3.25 es ampliable a una base de V. De donde se sigue que B tiene, a lo sumo, tanto elementos como dim V. Denicin C.3.28. Sean V un k-espacio vectorial de dimensin nita y L un subespacio vectorial de V. Se llama Rango de L, y se denota por rango( L), a su dimensin como k-espacio vectorial, es decir, rango( L) = dim L. Corolario C.3.29. Sean V un k-espacio vectorial de dimensin nita y L un subespacio vectorial de V. Toda base de L es ampliable a una base de V. Demostracin. Sigue del corolario C.3.25. Corolario C.3.30. Sean V un k-espacio vectorial de dimensin nita y L un subespacio vectorial de V. dim L = dim V, si, y slo si, L = V. Demostracin. Si L = V entonces, es claro, que dim L = dim V. Recprocamente, si dim L = dim V, entonces toda base B de L es base de V. En otro caso, sera ampliable y por tanto dim L < dim V. Luego L = B = V. Anexo. Bases en un espacio vectorial de dimensin innita. Aunque en esta seccin hemos centrado nuestra atencin en los espacios vectoriales de dimensin nita con el objeto de denir su dimensin, se puede probar la existencia de bases para cualquier espacio vectorial independientemente de su dimensin. Es decir, todo espacio vectorial distinto del trivial tiene base. Aadimos en este apartado la demostracin de tal resultado, advirtiendo al lector que la clave de la prueba se base en el Lema de Zorn1
1M.F.Atiyah, I.G.Macdonald, Introduccin al lgebra conmutativa p.4. Sea S un conjunto no vaco parcialmente ordenado (es decir se ha dado una relacin x y en S que es reexiva y transitiva y tal que x y e y x simultneamente implica x = y). Un subconjunto T de S es una cadena si o x y o y x para cada par de elementos x, y en T. El Lema de Zorn se puede establecer como sigue: si cada cadena T de S tiene una cota superior en S (es decir, si existe un x S tal que t x para todo t T), entonces S tiene, por lo menos, un elemento maximal. Para una demostracin de la equivalencia del Lema de Zorn con el axioma de eleccin, con el principio de buena de ordenacin, etc. ver, por ejemplo, Paul R. Halmos. Naive Set Theory. Undergraduate Texts in Mathematics. Springer-Verlag 1974.

MANUALES UEX
515

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS


Teorema C.3.31. Todo k-espacio vectorial V distinto del trivial tiene base. Demostracin. Sea el conjunto de todos los subconjuntos linealmente independientes de V. Se ordena por inclusin. es no vaco, pues {v} , para todo v V no nulo. Para aplicar el lema de Zorn, se ha de probar que toda cadena en tiene cota superior; sea {Si }i I una cadena de subconjuntos de V linealmente independientes de forma que para cada par de ndices j, k se tiene S j Sk o Sk S j . Sea S = i I Si . Entonces S subconjunto de V que es linealmente independiente (comprubese). Por tanto S y es una cota superior de la cadena. Por virtud del lema de Zorn tiene elemento maximal, este elemento maximal es necesariamente una base de V. 4. Interseccin y suma de subespacios vectoriales

Similarmente a lo que ocurra con los subgrupos, tenemos que la interseccin de subespacios vectoriales es siempre un subespacio vectorial: Proposicin C.4.1. Sean V un k-espacio vectorial. Si L1 y L2 son dos subespacios vectoriales de V, entonces L1 L2 es un subespacio vectorial de V. Demostracin. Por la proposicin B.1.12, tenemos que ( L1 L2 , +) es un subgrupo de (V, +). De modo que, por la proposicin C.2.3(b), queda ver que el grupo L1 L2 es cerrado para el producto por escalares. Sean u L1 L2 y k. Como u L1 y u L2 , y ambos son subespacios vectoriales, se sigue que u L1 y u L2 . Luego u L1 L2 . Ejercicio C.4.2. Generalizar el resultado anterior a cualquier interseccin nita de subespacios vectoriales. Como, en general, la unin de subgrupos no es un subgrupo, la unin de subespacios vectoriales no va a ser subespacio vectorial (vase la proposicin C.2.3(b)). De modo que, para evitar trabajar con conjuntos que no son subespacios vectoriales, consideramos, en lugar de la unin, el subespacio vectorial generado por la unin. Veremos que este subespacio vectorial coincide con la nocin de suma de subgrupos.

MANUALES UEX

Proposicin C.4.3. Sean V un k-espacio vectorial. Si L1 y L2 son dos subespacios vectoriales de V, entonces L1 L2 = { u + v | u L1 , v L2 }. Demostracin. Sabemos que la suma como subgrupos de L1 y L2 , es decir L1 + L2 = {u + v | u L1 , v L2 }, es el menor subgrupo que contiene a L1 y a L2 . Veamos adems que es cerrada para el producto por escalares. En efecto, si k y u L1 + L2 , entonces existen u1 L1 y u2 L2 tales que u = u1 + u2 , por tanto u = (u1 + u2 ) = u1 + u2 L1 + L2 ,

516

MTODOS MATEMTICOS PARA ESTADSTICA

pues L1 y L2 son subespacios vectoriales. As, por la proposicin C.2.3(b), tenemos que L1 + L2 es subespacio vectorial. De hecho tiene que ser el menor subespacio vectorial de V que contiene a L1 y a L2 , luego, por denicin, L1 L2 = L1 + L2 . Denicin C.4.4. Sean V un k-espacio vectorial. Si L1 y L2 son dos subespacios vectoriales de V, llamaremos la suma de L1 y L2 , y la denotaremos por L1 + L2 , a L1 L2 . En general, si { L1 , . . . , Lr } es una familia nita de subespacios vectoriales de V, se dene la suma de L1 , . . . , Lr , y se denota por L1 + . . . + Lr , como L1 . . . Lr . Ejercicio C.4.5. Sean V un k-espacio vectorial y L1 y L2 dos subespacios vectoriales de V. Probar que, si B1 y B2 son bases de L1 y L2 , respectivamente, entonces B1 B2 genera a L1 + L2 , pero, en general, no es base de L1 + L2 . Veamos a continuacin el resultado principal de esta seccin, conocido como frmula para la dimensin de la suma frmula de Grassmann. Teorema C.4.6. (de Grassmann). Sea V un k-espacio vectorial. Si L1 y L2 son dos subespacios de V de dimensin nita, entonces L1 L2 y L1 + L2 son de dimensin nita y dim( L1 + L2 ) = dim L1 + dim L2 dim( L1 L2 ). Demostracin. En primer lugar, como L1 L2 es un subespacio vectorial de L1 (y de L2 ) y L1 es de dimensin nita, podemos asegurar, por la proposicin C.3.27, que L1 L2 tambin tiene dimensin menor o igual que dim L1 (y que dim L2 ), y por lo tanto que es de dimensin nita. Sean m = dim( L1 L2 ), r = dim L1 y s = dim L2 , con m r y m s. Dada una base {u1 , . . . , um } de L1 L2 , por el corolario C.3.29, podemos ampliarla a una base de L1 y a una base de L2 : B1 = {u1 , . . . , um , v1 , . . . , vrm } base de L1 y B2 = {u1 , . . . , um , w1 , . . . , wsm } base de L2 . Si probamos que

B = B1 B2 = { u1 , . . . , u m , v1 , . . . , vr m , w1 , . . . , w s m }
es base de L1 + L2 , habremos terminado ya que tendramos que dim( L1 + L2 ) = m + (r m) + (s m) = r + s m . Veamos que efectivamente B es base de L1 + L2 . Por el ejercicio C.4.5, tenemos que L1 + L2 = B1 B2 = B . Luego slo nos queda probar que, B es linealmente independiente. Sea pues (C.4.3) 1 u1 + . . . + m um + 1 v1 + . . . + rm vrm + 1 w1 + . . . + sm wsm = 0. Entonces 1 w1 + . . . + sm wsm = (1 u1 + . . . + m um + 1 v1 + . . . + rm vrm ) .

MANUALES UEX
517

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Como el segundo miembro de la igualdad es un vector de L1 , entonces el primer miembro es un vector de L1 que est en L2 , pues es combinacin lineal de vectores de B2 . Luego 1 w1 + . . . + sm wsm L1 L2 y por tanto existen 1 , . . . , m k tales que 1 w1 + . . . + sm wsm = 1 u1 + . . . m um , y por ser B2 base de L2 , resulta i = 0, i = 1, . . . , s m y j = 0, j = 1, . . . , m. Entonces, volviendo a (C.4.3), tenemos que 1 u1 + . . . + m um + 1 v1 + . . . + rm vrm = 0, que es una combinacin lineal nula de vectores de B1 . Por tanto, 1 = . . . = m = 1 = . . . = mr = 0. En resumen, hemos probado que los coecientes de la combinacin lineal (C.4.3) son nulos. Luego B es linealmente independiente. Ejercicio C.4.7. Sean V un k-espacio vectorial y B1 y B2 bases de dos subespacios vectoriales L1 y L2 , respectivamente. Probar que B1 B2 es base de L1 + L2 si, y slo si, B1 B2 es base de L1 L2 . 5. Suma directa de subespacios vectoriales. Subespacios suplementarios

Un caso especial de suma de subespacios vectoriales L1 y L2 de un kespacio vectorial V es aquel en que L1 L2 = {0}, pues, en esta situacin, el teorema C.4.6 nos dice que la dimensin de L1 + L2 es igual a la suma de las dimensiones de L1 y L2 . Denicin C.5.1. Sean V un k-espacio vectorial y L1 y L2 dos subespacios vectoriales. Se dice que L1 + L2 estn en suma directa ( que la suma L1 + L2 es directa), y se denota L1 L2 , cuando L1 L2 = {0} La proposicin que sigue caracteriza las sumas directas. Proposicin C.5.2. Sean V un k-espacio vectorial y L1 y L2 dos subespacios vectoriales. La suma L1 + L2 es directa si, y slo si, la expresin de un vector de L1 + L2 como suma de un vector de L1 y otro de L2 es nica.

MANUALES UEX
518

Demostracin. Si tenemos dos expresiones u1 + u2 = v1 + v2 con u1 , v1 L1 y u2 , v2 L2 , entonces u1 v1 = u2 v2 L1 L2 = {0}, de donde se sigue que u1 v1 = u2 v2 = {0} y, por tanto, que u1 = v1 y u2 v2 . Si v L1 L2 , resulta que v + 0 = 0 + v son dos expresiones de un mismo vector de L1 + L2 . Las dos expresiones deben coincidir. Por tanto, v = 0. Nota C.5.3. Es conveniente destacar que la suma directa de subespacios vectoriales, pese a su nombre, no es una operacin sino una propiedad de la suma de subespacios vectoriales.

MTODOS MATEMTICOS PARA ESTADSTICA

La generalizacin de la suma directa presenta ms dicultades. La forma correcta de hacerlo es usando la proposicin C.5.2. As pues, diremos que la suma L1 + . . . + Lm es directa y escribiremos L1 . . . Lm si la expresin de todo vector de L1 + . . . + Lm como suma de vectores de L1 , . . . , Lm es nica. Proposicin C.5.4. Sean V un k-espacio vectorial y { L1 , . . . , Lm } una familia de subespacios vectoriales de V. Los subespacios L1 , . . . , Lm est en suma directa si, y slo si, se satisfacen las siguientes m 1 igualdades: ( L1 + . . . + Li ) Li+1 = {0}, para cada i = 1, . . . , m 1. Demostracin. Sea i {1, . . . , m 1} jo. Si v ( L1 + . . . + Li ) Li+1 , entonces v = v1 + . . . + vi = vi+1 para ciertos vectores v j L j , j = 1, . . . , i + 1. Luego 0 = v1 + . . . + vi + (vi+1 ) + 0 + . . . + 0 L1 + . . . Li + Li+1 + Li+2 + . . . + Lm . De donde se sigue, aplicando la hiptesis, que v1 = . . . = vi = vi+1 = 0 = . . . = 0, en particular v = 0. Sean v j L j , j = 1, . . . , m tales que v1 + . . . + vm = 0. Despejando vm obtenemos que vm = (v1 + . . . + vm1 ) ( L1 + . . . + Lm1 ) Lm = {0} y por lo tanto que vm = 0 y v1 + . . . + vm1 = 0. Despejando ahora vm1 en est ltima igualdad obtenemos que vm1 = (v1 + . . . + vm2 ) ( L1 + . . . + Lm2 ) Lm1 = {0}, luego vm1 = 0 y v1 + . . . + vm2 = 0. Repitiendo este razonamiento las veces que sea necesario se concluye que v1 = . . . = vm = 0.

Ejercicio C.5.5. Sean V un k-espacio vectorial y { L1 , . . . , Lm } una familia de subespacios vectoriales de V. Probar que L1 Li+1 + . . . + Li Li+1 ( L1 + . . . + Li ) Li+1 , para cada i = 1, . . . , n 1. Concluir que ( L1 + . . . + Li ) Li+1 = {0}, para cada i = 1, . . . , n 1, implica Li L j = {0}, para todo i = j. Sin embargo la implicacin contraria no es cierta en general. Por ejemplo, si V = R2 y L1 = (1, 0) , L2 = (0, 1) y L3 = (1, 1) , entonces L1 L3 = L2 L3 = L2 L3 = {0}, mientras que ( L1 + L2 ) L3 = L3 = {0}.

L1 L2 = {0} y L1 + L2 = V. Proposicin C.5.7. Sea V un k-espacio vectorial de dimensin nita. Si L es un subespacio vectorial de V, entonces existe otro subespacio vectorial L de V tal que L L = V, es decir, tal que L y L son suplementarios.

MANUALES UEX
519

Denicin C.5.6. Sean V un k-espacio vectorial y L1 y L2 dos subespacios vectoriales de V. Diremos que L1 y L2 son suplementarios si estn en suma directa y su suma es V. Es decir, segn la denicin de dos subespacios que estn en suma directa, tenemos que L1 y L2 son suplementarios si

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

Demostracin. Supongamos dim V = n. Sea B = {u1 , . . . , um } una base de L. Si Completamos B a una base de V; {u1 , . . . , um , um+1 , . . . , un }, entonces el subespacio L = um+1 , . . . , un cumple lo deseado (comprubese). Ejercicio C.5.8. Sean V un k-espacio vectorial y L1 y L2 dos subespacios vectoriales de V. Probar que las siguiente armaciones son equivalentes: (a) L1 y L2 son suplementarios. (b) Para todo v V existe un nico v1 L1 tal que v v1 L2 . Al vector v1 se le llama proyeccin de v sobre L1 paralelamente a L2 . Anexo. Subespacios suplementarios en un espacio vectorial de dimensin innita. Teorema C.5.9. Todo subespacio vectorial de un k-espacio vectorial posee un subespacio suplementario. Demostracin. Sea L un subespacio vectorial de un k-espacio vectorial V y consideramos el conjunto

L = { L subespacio vectorial de V | L L = {0}};


dicho conjunto no es vaco y est ordenado por la inclusin. Si { Li }i I es una cadena de L, entonces i I Li es un elemento de L que es una cota superior para el conjunto { Li }i I de L. Por lo tanto, aplicando el Lema de Zorn, obtenemos que en L hay elementos maximales, es decir, existe un subespacio vectorial L de V que es elemento de L tal que ningn elemento de L contiene estrictamente a L. Veamos que L y L son suplementarios, para lo cual basta probar que V = L + L . Supongamos que no se satisface la igualdad, es decir, que existe un vector no nulo v V tal que v L + L ; entonces el subespacio vectorial L + v de V sera un elemento de L que contiene estrictamente a L, lo que claramente supone una contradiccin. 6. Suma directa de espacios vectoriales

MANUALES UEX

Sean U y V dos espacios vectoriales sobre un cuerpo k. Llamaremos suma directa de U y V al conjunto U V con las operaciones

(u, v) + (u , v ) := (u + u , v + v ); (u, v) := (u, v),


donde u, u U, v, v V y k. Con estas dos operaciones U V es un espacio vectorial, que designaremos por U V. La suma directa una familia nita de k-espacios vectoriales se dene forma completamente anloga.

520

MTODOS MATEMTICOS PARA ESTADSTICA

Ejemplo C.6.1. Un ejemplo ya conocido de suma directa de espacios vectoriales es el de los espacios vectoriales numricos, kn = k . . . k. En general, la suma de directa de un mismo k-espacio vectorial V n veces, V . . . V, se denota por V n . Proposicin C.6.2. Si U y V son dos k-espacios vectoriales de dimensin nita, entonces U V es de dimensin nita y dim(U V ) = dim U + dim V. Demostracin. Sean BU = {u1 , . . . , un } una base de U y BV = {v1 , . . . , vm } una base de V. Entonces B = {(u1 , 0V ), . . . , (un , 0V ), (0U , v1 ), . . . , (0U , vm )} es una base de U V. En efecto: estos vectores generan U V, ya que si (u, v) U V tenemos

(u, v) = (u, 0V ) + (0U , v) = (in=1 i ui , 0V ) + (0U , m 1 j v j ) j= = in=1 i (ui , 0V ) + m 1 j (0U , v j ), j=


y son linealmente independientes, ya que si

i =1

i ( ui , 0V ) +
n

j =1 m

j ( 0U , v j ) = ( 0U , 0 V )

entonces

( i u i , j v j ) = ( 0U , 0 V ),
i =1 j =1

lo que implica i ui = 0U y m 1 j v j = 0V . De donde se sigue que j= 1 = . . . = n = 1 = . . . = m = 0, por ser BU y BV bases. Corolario C.6.3. Si {V1 , . . . , Vn } es una familia de k-espacios vectoriales de dimensin nita, entonces V1 . . . Vn es de dimensin nita y dim(V1 . . . Vn ) = dim V1 + . . . + dim Vn . En algunos textos se usa el smbolo en vez de para expresar lo que hemos denido como suma directa de espacios vectoriales. Hemos optado por esta notacin para evitar confusiones. Nota C.6.4. En los captulos 1 y 2 de [BCR07] se pueden encontrar diversos ejercicios y ejemplos que con seguridad ayudarn a la mejor compresin de este tema, sobre todo al lector poco familiarizado con los conceptos y resultados.

n i =1

MANUALES UEX
521

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

MANUALES UEX
522

MTODOS MATEMTICOS PARA ESTADSTICA

Bibliografa
[AB93] A. Aubanell, A. Benseny, A. Delshams tiles bsicos de clculo numrico. Labor, 1993. [BS98] R. Barbolla and P. Sanz, lgebra lineal y teora de matrices, Prentice Hall, Madrid, 1998. [Bas83] A. Basilevsky, Applied matrix algebra in the statistical sciences, North-Holland, New York, 1983. [Ber77] S.K. Berberian, Introduccin al espacio de hilbert, Editorial Teide, 1977. [BCR07] V.J. Bols, J. Cayetano, and B. Requejo, lgebra lineal y geometra, Manuales de Unex, vol. 50, Universidad de Extremadura, 2007. [BF04] R.L. Burden, J.D. Faires. Anlisis numrico. Grupo Thomson Editores, 2004. [Cia82] P.G. Ciarlet, Introduction lanalyse numrique matriciele et loptimisation, Masson, Paris, 1982. [CnR05] J. Arves Carballo, F. Marcelln Espa nol, and J. Snchez Ruiz, Problemas resueltos de lgebra lineal, Thomson Editores Spain, Madrid, 2005. [DP99] L. Debnath and P.Mikusinski, Introduction to hilbert spaces with applications, Academic Press, Inc., San Diego, CA, 1999. [FVV03] C. Fernndez-Prez, F.J. Vzquez-Hernndez, and J.M. Vegas Montaner, Ecuaciones diferencias y en diferencias, Thomson Editores Spain, Madrid, 2003. [Her85] D. Hernndez, lgebra lineal, Manuales de la Universidad de Salamanca, Universidad de Salamanca, 1985. [HF77] D. Hinrichsen, J.L. Fernndez. Topologa general. Urmo, 1977. [IR99] J.A. Infante del Ro and J.M. Rey Cabezas, Metodos numericos: teoria, problemas y practicas con matlab, Ed. Pirmide, S.A., Madrid, 1999. [KC96] D. Kincaid, W. Cheney. Anlisis numrico. Grupo Editorial Iberoamericana, 1996. [Lip70] S. Lipschutz, Topologa general, Serie de Compendios Schaum, McGraw-Hill, Mxico, 1970. [MN07] J.R. Magnus and H. Neudecker, Matrix Differential Calculus with applications in statistics and econometrics, second (revised) ed., Wiley Series in Probability and Statistics, John Wiley & Sons, Chichester, 2007. [MS06] L. Merino and E. Santos, lgebra lineal con mtodos elementales, Thomson Editores Spain, Madrid, 2006. [Mey00] C. Meyer, Matrix analysis and applied linear algebra, Society for Industrial and Applied Mathematics (SIAM), Philadelphia, PA, 2000. [Nav96] J.A. Navarro Gonzlez, lgebra conmutativa bsica, Manuales de Unex, vol. 19, Universidad de Extremadura, 1996. [dR87] D. Pea Snchez de Rivera, Estadstica. modelos y mtodos, Alianza Universidad Textos, vol. 110, Alianza Editorial, Madrid, 1987. [QS06] A. Quarteroni, , and F. Saleri, Clculo cientco con MATLAB y Octave, Springer-Verlag, Milano, 2006. [QSS07] A. Quarteroni, R. Sacco, and F. Saleri, Numerical mathematics, second ed., Texts in Applied Mathematics, vol. 37, Springer-Verlag, Berlin, 2007.
523

MANUALES UEX
523

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

[RM71] C.R. Rao and S.K. Mitra, Generalized inverse of matrices and its applications, John Wiley & Sons, New York-London-Sydney, 1971. [Sch05] J.R. Schott, Matrix analysis for statistics, second ed., Wiley Series in Probability and Statistics, John Wiley & Sons, Hoboken, NJ, 2005. [Sea82] S.R. Searle, Matrix algebra useful for statistics, Wiley Series in Probability and Statistics, John Wiley & Sons, Chichester, 1982. [Sen81] E. Seneta, Non-negative matrices and markov chains, Springer Series in Statistics, Springer Verlag, Berlin, 1981. [SV95] M.J. Soto and J.L. Vicente, Algebra lineal con matlab y maple, Prentice Hall International, Hertfordshire, Reino Unido, 1995. [Spi88] M. Spivak, Clculo en variedades, Editorial revert, Barcelona, 1988.

MANUALES UEX
524

MTODOS MATEMTICOS PARA ESTADSTICA

ndice alfabtico

base, 506 de Jordan, 74 ortogonal, 124 ortonormal, 124 en un espacio de Hilbert, 324 bloque de Jordan, 73
525

MANUALES UEX
525

abierto de un espacio mtrico, 476 de una topologa, 477 adjunto, 19 anillo, 496 con unidad, 496 conmutativo, 496 aplicacin abierta, 482 cerrada, 482 continua, 480 en un punto, 480 continua entre espacios normados, 214 distancia, 473 lineal, 39 cambio de base, 46 ecuacin, 44 identidad, 39 imagen, 41 inclusin, 39 matriz, 43 ncleo, 41 nula, 39 trivial, 39 automorsmo, 39 autovalor, 61 de Perron, 105 autovector, 62 de Perron, 105

bola abierta, 475 cerrada, 475 cadena de Markov, 109 nita, 109 homognea, 109 cerrado de un espacio mtrico, 477 clausura, 478 columna de una matriz, 15 combinacin lineal, 503 complemento de Schur, 28 completitud, 483 condicionamiento, 230 conjugado de un nmero complejo, 14 conjunto acotado, 485 compacto, 487 ortogonal, 123 precompacto, 485 total, 323 totalmente acotado, 485 continuidad en espacios normados, 214 global, 480 local, 480 convergencia, 479 en un espacio normado, 213 coordenadas, 42, 508 criterio de convergencia para mtodos iterativos, 261 de diagonalizacin por el polinomio caracterstico, 68

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

cuerpo, 494 deacin, 301 derivada matricial, 199 descomposicin espectral, 84 descomposicin en valores singulares corta, 158 larga, 157 desigualdad de Bessel, 316 de Cauchy-Schwarz, 310 de Hlder, 311 de Minkowski, 312 triangular, 308 determinante de una matriz, 18 de Vandermonde, 26 desarrollo por una columna, 19 la, 19 diferencial matricial, 198 dimensin, 510 nita, 508 innita, 508 distancia, 473 discreta, 473 en un espacio vectorial eucldeo, 123 usual de Rn , 474 de la recta real, 473 ecuacin lineal en diferencias, 95 elemento adherente, 478 frontera, 478 interior, 478 inverso, 490 neutro, 490 opuesto, 490 simtrico, 490 unidad, 490 endomorsmo, 39 diagonalizable, 63 matriz, 43 nilpotente, 86 entorno, 476 entrada de una matriz, 15

epimorsmo, 39 equivalencia de matrices, 33 escalar, 499 espacio de Hausdorff, 477 de Hilbert, 319 clsico, 328 separable, 326 mtrico, 474 completo, 483 separable, 326 normado, 211 prehilbertiano, 306 topolgico, 477 vectorial, 499 Eucldeo, 122 eucldeo usual, 122 morsmo, 39 numrico, 501 suma directa, 516 trivial, 500 espectro de un matriz, 63 frmula de la matriz inversa, 21 del cambio de base, 47 factorizacin de Cholesky, 137 de Schur, 139 LU, 243 QR, 126, 253 la de una matriz, 15 forma bilineal, 119 antisimtrica, 119 denida positiva, 121 simtrica, 119 cannica de Jordan, 74 cuadrtica, 140 escalonada por columnas, 37 por las, 37 reducida, 37 ortogonal, 156 por columnas, 37 por las, 34 frontera, 478 grupo, 489

MANUALES UEX
526

MTODOS MATEMTICOS PARA ESTADSTICA

abeliano, 489 conmutativo, 489 simtrico, 18 Hausdorff espacio de, 477 homeomorsmo, 482 igualdad de Bessel, 316 de Parseval (caso nito), 315 de Parseval (caso general), 324 interior, 478 inversa generalizada, 167 isomorsmo, 39 de espacios de Hilbert, 327 libre, 505 linealmente dependiente, 505 independiente, 505 mtodo de Gauss-Seidel, 266 de Jacobi, 265 de la potencia, 299 inversa, 301 de Richardson estacionario, 278 no estacionario, 278 del gradiente, 281 QR, 297 mtodo de Gauss-Jordan, 37 mtodo iterativo convergente, 260 mtrica, 119 simtrica, 119 mdulo, 14 de un vector, 123 matrices congruentes, 121 semejantes, 58 matrix diagonalmente dominante por columnas, 242 por las, 242 diagonalmente semidominante por columnas, 245 por las, 245 matriz, 14

adjunta, 20 ampliada, 50 antisimtrica, 17 aplicacin lineal, 43 asociada a una forma bilineal, 119 aumentada por bloques, 22 cambio de base, 46 congruente con, 121 cuadrada, 15 de conmutacin, 196 de Gauss-Seidel, 266 de Jacobi, 265 de Jordan, 74 de la iteracin, 261 de Leslie, 108 de permutacin, 34, 99 de transicin de probabilidades, 110 de una forma cuadrtica, 142 denida positiva, 135, 140 determinante, 18 diagonal, 15 por bloques, 23 diagonalizable, 64 divida por bloques, 21 dolemente estacstica, 109 elemental, 34 endomorsmo, 43 equivalente a, 33 estacstica, 109 estocstica, 87 extrada, 15 hermtica, 17 idempotente, 26 identidad, 16 inversa, 17 de Moore-Penrose, 161 frmula de, 21 generalizada, 167 mnimo cuadrtrica, 172 invertible, 17 irreducible, 99 nilpotente, 27 no negativa, 99 no singular, 17 normal, 17 nula, 15 ortogonal, 17 positiva, 99 primitiva, 105

MANUALES UEX
527

IGNACIO OJEDA MARTNEZ DE CASTILLA / JESS GAGO VARGAS

rango, 37 reducible, 99 semidenida positiva, 135, 140 simtrica, 17 traspuesta, 17 traspuesta conjugada, 17 triangular inferior, 16 superior, 16 unidad, 16 unitaria, 17 menor adjunto, 19 de una matriz, 18 principal, 18 monomorsmo, 39 moore-Penrose inversa de, 161 morsmo de anillos, 496 multiplicidad de un autovalor, 67 nmero de condicin, 230 norma de Frbenius, 224 de un vector, 123 en un espacio prehilbertiano, 308 matricial, 217 subordinada, 218 usual de Cn , 211 usual de Rn , 211 vectorial, 210 normas equivalentes, 215 operaciones elementales por columnas, 34 por las, 33 operador vec, 192 ortogonalidad, 123 en un espacio prehilbertiano, 313 particin de la multiplicidad, 79 perturbacin de la identidad, 28 pivoteo por las, 248 polinomio caracterstico de un endomorsmo, 61

de una ecuacin en diferencias, 96 de una matriz, 59 mnico, 60 unitario, 60 precondicionador, 263 proceso de ortonormalizacin de Gram-Schmidt, 318 producto de Kronecker, 23, 189 de matrices, 16 de un escalar por una matriz, 16 escalar, 122, 306 usual, 122 por escalares, 499 propiedad fundamental de los espacios mtricos, 487 propiedades de los abiertos de un espacio mtrico, 476 de los cerrados de un espacio mtrico, 478 de los determinantes, 19 proyeccin ortogonal, 130, 316 de un vector, 129 punto de acumulacin, 478 raz de un endomorsmo, 112 radio espectral, 63, 103 rango de un subespacio vectorial, 511 de una matriz, 37 pleno por columnas, 52 pleno por la, 52 regla del paralelogramo, 309 residual, 276 semejanza de matrices, 58 sistema de generadores, 504 lineal de ecuaciones, 49 compatible, 49 homogneo, 49 incompatible, 49 ortogonal, 313 ortonormal, 313 subespacio

MANUALES UEX
528

MTODOS MATEMTICOS PARA ESTADSTICA

propio asociado a un autovalor, 62 invariante, 69 genralizado, 75 ortogonal, 128 propio mximo de un autovalor, 76 vectorial, 502 impropio, 502 interseccin, 512 propio, 502 rango, 511 suma, 513 suplementario, 515 total, 502 trivial, 502 subgrupo, 491 propio, 491 submatriz, 15 subsucesin, 479 sucesin, 479 de Cauchy, 482 densa, 325 ortonormal, 317 total, 323 suma de matrices, 16 directa de matrices, 22 sustitucin hacia adelante, 239 hacia atrs, 238 SVD corta, 158 larga, 157 teorema de Perron-Frbenius, 103 de Pitgoras, 314 de Pitgoras generalizado, 315 de Rouch-Frbenius, 50 del rango, 48 tolerancia de un mtodo iterativo, 276 topologa, 476 mtrica, 477 traza de una matriz, 18 valor absoluto, 14

de adherencia de una sucesin, 479 propio, 61 valores singulares, 157 vec, 192 vector, 499 de probabilidad, 109 extremal, 102 propio, 62 residual, 276 precondicionado, 279 unitario, 124

MANUALES UEX
529

ISBN 978-84-691-6429-7

58

Das könnte Ihnen auch gefallen