Sie sind auf Seite 1von 33

UNIVERSIDAD NACIONAL DE EDUCACIN A DISTANCIA

lgebra I
lgebra Lineal II

Elliot Medina Lujn


1. ESPACIO VECTORIAL EUCLDEO

PRODUCTO ESCALAR
Sea Vun R -espacio vectorial, un producto escalar en
V es una aplicacin

,>:V V R

verificando las siguientes propiedades

1.- u , v v , u> ; u , v V

2.- u+v , w u , w>+ v , w > ; u , v , w V

3.- au , va<u , v > ; a R ; u , v V

4.- u V , u ,u> 0 y u ,u0 u=0

Para cada n , en el espacio vectorial Rn la regla

( x 1 , , x n ) , ( y 1 , , y n )x 1 y 1 ++ x n y n

define un producto escalar, que define el nombre de


producto escalar usual de Rn .

Veamos que se verifican los axiomas de producto escalar

1.-
( y 1 , , y n ) , ( x 1 , , x n ) y 1 x1 ++ y n x n=

x1 y 1 ++ x n y n= ( x 1 , , x n ) , ( y 1 , , y n ) >

2.-

( x 1 , , x n ) + ( y 1 , , y n ) , ( z 1 , , z n )

< ( x 1 + y 1 , , x n + y n ) , ( z1 , , z n )
( x 1+ y1 ) z 1+ + ( x n + y n ) z n=

( x 1 z 1+ + x n z n ) + ( y1 z 1+ + y n z n ) =

( x 1 , , x n ) , ( z 1 , , z n ) >+ ( y 1 , , y n) , ( z 1 , , z n ) >
3.-

a ( x 1 , , x n ) , ( y1 , , y n ) ( a x 1 , , a x n ) , ( y 1 , , y n )
a x 1 y 1 ++a x n y n=a ( x 1 y1 + + x n y n ) =

a< ( x 1 , , x n ) , ( y 1 , , y n ) >

4.-

( x 1 , , x n ) , ( x 1 , , x n ) x12 ++ x n2 0

( x 1 , , x n ) , ( x 1 , , x n ) 0 x 12 ++ x n2=0

x1 =x2 ==x n=0

( x 1 , , x n )=( 0, 0 , 0 )

ESPACIO VECTORIAL EUCLDEO

Un espacio vectorial eucldeo es un par V ,<,>


formado
por un espacio vectorial real V y un producto escalar

En el espacio vectorial Pn ( R ) , de los polinomios de grado


menor o igual de n con coeficientes en R , se tiene el
producto escalar dado por
1
p ( x ) , q ( x ) p ( x ) q ( x ) dx
0

Por ejemplo, si en P2 ( R ) se consideran los polinomios


p ( x )=x 2 +1 y q ( x )=2 x+ 3 su producto escalar es

1 1
p ( x ) , q ( x ) p ( x ) q ( x ) dx = ( 2 x 3 +3 x 2+2 x +3 ) dx
0 0

[
1
x 4 + x 3+ x2 +3 x =
2 0
11
2 ]
EXPRESIN MATRICIAL DEL PRODUCTO
ESCALAR

Dados vectores x , y V de coordenadas x=( x 1 , , x n )B ,


y=( y 1 , , y n )B se tiene

x , y x 1 u 1+ + x n u n , y 1 u 1+ + y n u n

x i y j<u i , u j> =
n

i , j=1

n
aij x i y j
i , j =1

o matricialmente

( )( )
a11 a1 n y 1
x , y( x 1 , , x n )
an 1 a nn y n

As pues denotando

() ()
x1 y1
X = ;Y =
xn yn
se obtiene

x , y X t AY

Consideremos en R2 la base cannica B={ e1 , e2 } . Si de un


producto escalar se conoce que

e 1 , e 11<e 1 , e 21<e 2 ,e 22

entonces la matriz de Gram es

(11 12)
As pues, para los vectores u=(2, 3) y v =(1, 2) se tiene

( )( )
u , v ( 2, 3 ) , (1, 2 )( 2 3 ) 1 1 1 =( 5 8 ) 1 =21
1 2 2 2 ()
NORMA DE UN VECTOR

Sea V ,<,>
un espacio vectorial eucldeo, se define la
norma de un vector u V por

u ,u>
u=

En Rn con el producto escalar usual se tiene

( x 1 , , x n )= x12 ++ x n2

DESIGUALDAD DE SCHWARTZ

V ,<,>
Sea un espacio vectorial eucldeo. Para cada
x , y V se verifica

x , y >


DESIGUALDAD TRIANGULAR O DE MINKOWSKI

V ,<,>
Sea un espacio vectorial eucldeo. Para cada
x , y V se verifica

x + yx+ y

Aplicadas al caso del espacio eucldeo Rn con el producto


escalar usual, las desigualdades de Schwartz y Minkowski
afirman que, para cualesquiera nmeros reales
x 1 , , x n , y 1 , , y n , se verifica

|x 1 y 1 ++ x n y n| x 12 + + x n2 y 12 + + y n2

n n n

( x i+ yi ) 2 x i2 + y i2
i=1 i =1 i=1

NGULO ENTRE DOS VECTORES

Llamaremos ngulo entre dos vectores x e y al nico


nmero real , 0 de forma que

x, y>
x y
cos ( )=

En R
2
con el producto escalar usual, si x=( x 1 , x 2 ) e
y=( y 1 , y 2 ) , entonces el ngulo entre x e y es

x 1 y 1+ x 2 y 2
=arcos
( x 1 2+ x 22 y 12 + y 2 2 )
As por ejemplo, el ngulo entre los vectores x=(1, 1) e
y=(1,0) es

arcos ( 12 )= 4
VECTORES ORTOGONALES

Sea V ,<,>
un espacio vectorial eucldeo. Se dice que los
vectores x e y son ortogonales, y se denota por

Consideremos el espacio vectorial Pn ( R ) , de los polinomios


de grado menor o igual de n con coeficientes en R , se
tiene el producto escalar dado por
1
p ( x ) , q ( x ) p ( x ) q ( x ) dx
0

Los polinomios p ( x )=x 1 y q ( x )=3 x1 son ortogonales,


puesto que
1 1
p ( x ) , q ( x ) p ( x ) q ( x ) dx= ( x1 )( 3 x1 ) dx=
0 0

1
( 3 x2 4 x +1 ) dx=0
0

BASE ORTOGONAL

Dado un espacio vectorial eucldeo V ,<,> , una base


B={ e1 , ,e n } de V se dice que es una base ortogonal si
los vectores que la forman son ortogonales dos a dos, esto

En R2 con el producto escalar usual, es fcil comprobar


que la base { ( 1,1 ) ,(1,1) } es ortogonal.

BASE ORTONORMAL

Dado un espacio vectorial eucldeo V ,<,> , una base


B={ e1 , ,e n } de V se dice que es una base ortonormal si
es ortogonal y adems todos los vectores que la forman
tiene norma 1 , esto es: e i=1 , i=1, , n .

En Rn con el producto escalar usual, la base cannica es


ortonormal.

MATRIZ ORTOGONAL

La matriz cambio de base entre dos bases ortonormales


es una matriz ortogonal. Esto es, se verifica
t 1
P =P
V ,<,>
COEFICIENTES
Sea unDEespacio
FOURIERvectorial eucldeo y sea
B={ u1 , , un } una base ortogonal de V . Entonces, dado
un vector x V se verifica

x ,u n > 2 u n
un
x , u1 > 2 u 1+ +
u1
x=

x , ui > 2
esto es: x=( x 1 , , x n )B para ui , i=1, , n .
x i=
Si en R3 consideramos la base ortogonal

B ={ ( 1, 1,1 ) , ( 1,1, 0 ) ,(1/2 ,1/2 ,1) }

y el vector x=(1, 2, 1) entonces sus coordenadas en la base


B sern

4
( 1,2, 1 ) , ( 1, 1,1 ) > =
(1,1, 1) 3
2

x1 =

1
( 1,2, 1 ) , ( 1,1,0 )> =
(1,1, 0) 2
2

x 2=

1
El mtodo
( 1,2, de Gram-Schmidt
1 ) , ( 1/2 , 1/2,1 )> = es un proceso para obtener
) 3 de una base cualquiera
2
una base ortonormal ( 1/2, 1/2a,1partir
B={ u , , u } . x 3=
1 n

esSedecir;
calculax=( 4 /3 ,1/2 , 1/3 )B .

e 1=u1

u2 , e1 > 2 e 1
e 1
e2=u 2

un , e n1 > 2 en 1
MTODOeDE n GRAM - SCHMIDT
un , e1 > e
2 1
e 1
en =un

Esto es, para i=1, , n

e i=ui i ,1 e1 i ,i1 ei1


Consideremos el espacio vectorial eucldeo R3 con el
producto escalar usual y en l la base
B={ ( 1,1,1 ) , (1,1,0 ) , (1,0,1 ) } . Para obtener una base ortogonal
aplicamos el mtodo de Gram-Schmidt

e 1=( 1,1,1 )

u2 , e1 > 2 e 1
e 1
e 2=( 1,1,0 )

u3 , e 2> 2 e2
e2
u3 , e1 > 2 e 1
e 1
e3 =( 1,0,1 )

Como u2 , e1 ( 1,1,0 ) , ( 1,1,1 )0 queda


e 2=u2=( 1,1,0 )

puesto que este vector ya era ortogonal con el anterior.


Ahora calculamos

( 1,0,1 ) , ( 1,1,1 ) > =0


3
u3 , e1 > =
2
e 1

1
( 1,0,1 ) , ( 1,1,0 ) > =
3 2
u 3 , e2 > =
2
e2

y nos queda

1
e 3=( 1,0,1 )0 (1,1,1 ) ( 1,1,0 )= (1 /2 , 1/2,1 )
2

La base ortogonal obtenida es

B ={ ( 1,1,1 ) , (1,1,0 ) , ( 1/2 , 1/2,1 ) }

y una base ortonormal puede calcularse a partir de sta


dividiendo cada vector por su norma

1
v 1= ( 1,1,1 )
3
1
v 2= ( 1,1,0 )
2

v 3=
2
3
( 1/2 , 1/2,1 )

o sea

B =

{( 1/ 3 ,1 / 3 , 1/ 3 ) , ( 1/ 2 ,1/ 2, 0 ) , ( 1/ 6 , 1/ 6 ,2/ 6 ) }
COMPLEMENTO ORTOGONAL DE UN
SUBESPACIO VECTORIAL

V ,<,>
Sea un espacio vectorial eucldeo y sea
U=L ( u1 , ,u r ) un subespacio de V . Dado xV se
verifica

{
x u1
xU
x u r

Adems se tiene que el conjunto

U = { x V x U }

es un subespacio vectorial de V , y recibe el nombre de

En R3 con el producto escalar usual, consideremos el


subespacio vectorial U=L ( ( 1,0,1 ) ) .

( x , y , z ) U < ( x , y , z ) , ( 1,0,1 )0 x + z=0

Luego U tiene ecuacin cartesiana x+ z =0 .

PROYECCIN ORTOGONAL

Sea V ,<,>
un espacio vectorial eucldeo y sea U un
subespacio de V . Todo vector x V , podr escribirse de
forma nica como x=u+ v con u U , v U . En esta
situacin diremos que u es la proyeccin ortogonal de
x sobre U y lo denotaremos por u= pU (x ) .
Consideremos en R3 con el producto escalar usual el
subespacio U=L ( ( 1,0,1 ) ) y sea x el vector x=( 1,2,3 ) . U y
U

tiene respectivamente ecuaciones cartesianas

{
U : xz =0
y =0

U : { x+ z=0

Llamemos pU ( x )= ( a , b , c ) , entonces

( 1,2,3 )=( a ,b , c ) + ( 1a ,2b , 3c )

con ( a , b , c ) U , ( 1a , 2b ,3c ) U . As pues

{
ac=0
b=0
(1a ) + ( 3c )=0

Por tanto ha de ser a=2 , b=0 , c=2 , y en consecuencia


pU ( x )= (2,0,2 ) .

TEOREMA DE PITGORAS

Sea V ,<,>
un espacio vectorial eucldeo y sean x , y V ,
entonces

PRODUCTO VECTORIAL EN R3

Consideremos el espacio vectorial eucldeo R3 con el


producto escalar usual. Dados dos vectores x=( x 1 , x 2 , x 3 ) e
y=( y 1 , y 2 , y 3 ) en R3 , se define su producto escalar como
el vector

x y=( x 2 y 3 x3 y 2 , x 3 y1 x1 y 3 , x 1 y 2 x2 y 1 )=

(| | | | | |)
x2
y2
x3 x3
,
y3 y 3
x1 x1
,
y1 y1
x2
y2
Una regla muy extendida para recordar la frmula del
producto vectorial consiste en escribirlo como un
determinante en la que la primera fila est formada por los
vectores de la base cannica e 1 , e 2 , e 3

| |
e1 e2 e3
( 1,2,0 ) ( 1,1,2 )= 1 2 0 =4 e 1 +e 32 e3 2 e2=
1 1 2

4 e12e 2e 3=( 4,2,1 )B


2. ISOMETRAS

ISOMETRA

Una isometra es una aplicacin que conserva las distancias


(norma) y los ngulos, es decir

f ( x ) , f ( y ) x , y >

ISOMETRAS EN R
2

Consideremos una aplicacin lineal f : R2 R2 , y sea


B={ e1 , e2 } una base ortonormal.

Rotacin de ngulo

f ( e1 )= ( cos , sen )

f ( e2 )= (sen , cos )

La matriz asociada en este caso es

(cos
sen
sen
cos )
Simetra respecto de una recta

f ( e1 )= ( cos , sen )

f ( e2 )= ( sen ,cos )

La matriz asociada en este caso es

(cos
sen
sen
cos )
y la recta de simetra


( ( )) ( ( ))
sen
2
x cos
2
y =0
ISOMETRAS EN R3

Dada una isometra en un espacio vectorial eucldeo,


podemos considerar el conjunto de todos los vectores que
quedan fijos por la isometra

V f ={ v V f ( v )=v }

Si A es la matriz asociada a f , entonces un vector con


matriz de coordenadas X est en V f si y slo si AX =X .
Por tanto

dim ( V f )=nrg ( AI n )

Clasificacin de las isometras

1.- Giro: dim ( V f )=1 .


2.- Simetra: dim ( V f )=2 .

3.- Composicin de giro y simetra: dim ( V f )=0 .


3. DIAGONALIZACIN

AUTOVALOR

Sea V un K -espacio vectorial y sea f :V V un


endomorfismo de V . Se dice que el escalar K es un
autovalor (o valor propio) de f si existe un vector no
nulo u V de forma que f ( u ) =u .
AUTOVECTOR

Sea V un K -espacio vectorial y sea f :V V un


endomorfismo de V . Para un escalar K , llamaremos
autovector (o vector propio) asociado a a cada vector
u de V tal que f ( u ) =u .

SUBESPACIO PROPIO

Denotaremos por V al conjunto de todos los


autovectores asociados a , esto es

V = {u V f (u )=u }

El subespacio V recibe el nombre de subespacio propio

POLINOMIO CARACTERSTICO

Considerando como indeterminada, el determinante

| |
a11 a12 a1 n

det ( A I n )= a21 a22 a2 n

an 1 a n2 a nn

es un polinomio en , p ( ) , de grado n que recibe el


nombre de polinomio caracterstico de f .
MULTIPLICIDAD ALGEBRAICA DE UN
AUTOVALOR

Sea V un K -espacio vectorial de dimensin n y sea


f :V V un endomorfismo de V de matriz asociada A
y consideremos los autovalores distintos de f (o de A )

1 , 2 , , r

Para cada i , llamaremos multiplicidad algebraica del


autovalor i a la multiplicacin de i como raz del
polinomio caracterstico, esto es: el mayor exponente i

para el cual el factor ( i ) aparece en la
i

descomposicin de p ( ) .
MULTIPLICIDAD GEOMTRICA DE UN
AUTOVALOR

Sea V un K -espacio vectorial de dimensin n y sea


f :V V un endomorfismo de V de matriz asociada A
y consideremos los autovalores distintos de f (o de A )

1 , 2 , , r

Llamaremos multiplicidad geomtrica de i a la


dimensin d i del subespacio propio V , esto es i

d i=dim ( V ) =nrg ( A i I n )
i

MATRIZ DIAGONIZABLE

Se dice que una matriz cuadrada A es diagonizable si


existe una matriz diagonal D semejante a A .

ENDOMORFISMO DIAGONIZABLE

Diremos que el endomorfismo f :V V es diagonizable si


existe una base de V con respecto a la cual la matriz
asociada a f sea diagonal.
TEOREMA ESPECTRAL

Toda matriz simtrica real es diagonizable en R .

DIAGONALIZACIN DE MATRICES
1.- Se calcula el polinomio caracterstico p ( ) .

2.- Descomponiendo el polinomio caracterstico se calcula


sus races. Si alguna de ellas es compleja, la matriz no ser
diagonizable en R , posiblemente s en C . Tenemos de
esta forma los autovalores y sus multiplicidades
algebraicas.

3.- Se calculan las multiplicidades geomtricas,


d i=nrg ( A i I n ) .

4.- Se aplica el criterio de la diagonalizabilidad. Si para


algn i se tiene d i i , entonces la matriz no es
diagonizable. En caso contrario, si d i= i para todo i , la
matriz es diagonizable y su forma diagonal es la matriz
diagonal cuya diagonal est formada por los autovalores
repetidos segn su multiplicidad.

5.- Obtenemos bases de los subespacios propios


V =ker ( f i I n ) .
i

6.- Uniendo estas bases se obtiene una base V para la


cual la matriz asociada es D . As pues la matriz de cambio
de base, cuyas columnas son las coordenadas de estos
vectores propios, es la matriz de paso, esto es: una matriz
regular P cumpliendo que D=P1 AP .
4. FORMA DE JORDAN

INTRODUCCIN
Dada una matriz A M n n ( K ) , la forma ms sencilla a la
cual puede reducirse mediante un cambio de base recibe el
nombre de matriz de Jordan de A .

A la matriz de Jordan de A se le representa por J , o J A


cuando sea necesario, y a la matriz del cambio de base de
A a J se le representa por P ; as pues, se tiene

J =P1 AP

o equivalentemente

A=PJ P1

OBTENCIN DE LA FORMA DE JORDAN DE UNA


MATRIZ

1.- Dada una matriz A se comienza calculando los


autovalores de A ; sean stos 1 , , m con multiplicidades
r 1 , ,r m respectivamente, tal que r 1 ++r m =n .

2.- Para cada autovalor se calcula la cadena de


subespacios
2
E1 ( )=ker ( A I n ) E2 ( )=ker ( A I n )

E p ( )=ker ( A I n ) p E p +1 ( )=ker ( A I n ) p+1=

formada por los ncleos de las potencias sucesivas de


( A In ) ; la cadena anterior se estabiliza despus de un
cierto nmero de pasos p (el subespacio E p ( ) se
denomina autoespacio mximo asociado a ). El valor de
p puede obtenerse sabiendo que dim ( E p ( ) ) =multiplicidad de .
3.- Tomar el mayor nmero posible de vectores linealmente
independientes de E p ( )E p1 ( ) sean stos

F p ={
u1 , , ur }

Las imgenes sucesivas mediante ( A In ) de cada uno de


los vectores de F p forman una matriz elemental de
Jordan: J p () . En el subespacio generado por F p y las
potencias sucesivas mediante ( A In ) de los elementos de
F p la matriz A respecto a la base

p1
B p ( )=( A I n ) ( F p ) ( A I n )( F p ) F p

est formada por la yuxtaposicin de r matrices


elementales de Jordan de orden p dispuestas sobre la
diagonal principal.

4.- Se elige a continuacin el mayor nmero posible de


vectores E p1 ( )E p2 ( ) que sean linealmente
independientes entre s y linealmente independientes con la
coleccin B p ( ) ; sean stos

F p 1 ={
ur +1 , ,
ul }
Las imgenes sucesivas de cada uno de estos vectores
mediante ( A In ) nos dan un conjunto de vectores
linealmente independientes B p1 ( ) con respecto a los
cuales la matriz A es una yuxtaposicin en la diagonal
principal de rl matrices de Jordan elementales de orden
p1 .

5.- Se contina realizando el procedimiento descrito en 4


hasta llegar a E1 ( ) en donde se eligen, si es posible, los
vectores necesarios para que junto con todos los vectores
anteriormente elegidos se tenga una base B() del
autoespacio mximo E p ( ) .

6.- Los pasos desde el 2 hasta el 5 se repiten con cada uno


de los autovalores j ; como los autoespacios mximos
son invariantes respecto de A la matriz de Jordan de A
es mla yuxtaposicin de las matrices de Jordan de A
restringida a E p ( i ) . El cambio de base viene dado por
i

todos los vectores anteriormente elegidos.

BLOQUE DE JORDAN

Un bloque de Jordan es una matriz cuadrada que tiene


todos los elementos de la diagonal idnticos, la lnea por
encima de la diagonal est formada por unos (
ai , i+1=1 i=1,2, ) y todos los restantes elementos son cero.

MATRIZ DE JORDAN

Una matriz de Jordan es una matriz diagonal por bloques


de manera que los bloques de la diagonal son bloques de
FORMA CANNICA DE JORDAN

Dada una matriz A (o un endomorfismo f ), si existe


una matriz de Jordan que sea semejante con A diremos
que es su forma cannica de Jordan

SUBESPACIOS PROPIOS GENERALIZADOS

Sea V un espacio vectorial de dimensin finita y


supongamos que f : V V es un endomorfismo cuya
matriz asociada en una base B es A y que es un
autovalor de f . Se definen los subespacios propios
generalizados asociados a por

Ei ( )=ker ( f I n )i ; i=1, 2,

SUBESPACIO MXIMO

Cada subespacio propio generalizado est contenido en el


siguiente y as forman una cadena
1 2 k1 k
E ( ) E ( ) E ( ) E ( )

El ltimo de los eslabones, Ek ( ) , para el que


k k+1
E ( ) =E ( ) pero E ( ) E ( ) , recibe el nombre de
k1 k

subespacio mximo del autovalor y lo denotaremos


por M ( ) .
MATRIZ DE JORDAN REAL

Una matriz de Jordan real es una matriz de Jordan por


bloques en la que, para los autovalores complejos, el
papel del autovalor es ocupado por un bloque de orden
dos del tipo C y cada 1 sobre la diagonal se sustituye
por una matriz identidad de orden 2 , I 2 , es decir,
aparecen bloques con apariencia de bloques de Jordan del
tipo

C I2 0 0

( 0 C I 2

0 0 0
0 0 0

0

I2
C
)
FORMA CANNICA DE JORDAN REAL

Una matriz de Jordan real semejante con una matriz real


dada se dir que es su forma cannica de Jordan real.
5. SUBESPACIOS INVARIANTES

ENDOMORFISMOS LINEALMENTE
EQUIVALENTES

Dos endomorfismos vectoriales o aplicaciones lineales f


y g de un K -espacio vectorial V de dimensin finita
son linealmente equivalentes si existe un isomorfismo h
de V tal que f =hg h1 .
SUBESPACIO INVARIANTE POR UN
ENDOMORFISMO f

Un espacio vectorial U de V se dice que es invariante


por un endomorfismo f de V o f -invariante, si se
cumple f (U) U , es decir f (v ) U para todo v U .

Sea f un endomorfismo de R3 cuya matriz en la


base cannica B es

( )
2 2 1
0 1 0
1 2 0

a) Determine si el plano de ecuacin 2 x 1 + x 2+ 3 x 3=0 en


la base cannica es invariante por f .

Para que el plano V : 2 x 1+ x2 +3 x 3=0 sea invariante por f , se


tendra que cumplir que f (V ) V .

{
x 1=
V : x 2=2 3
x 3=
Una base de V ser { ( 1,2,0 ) , ( 0,3,1 ) }

Calculamos las imgenes de los vectores en la base de V

( )( ) ( )
2 2 1 1 2
f ( 1,2,0 )= 0 1 0 2 = 2
1 2 0 0 5

( )( ) ( )
2 2 1 0 5
f ( 0,3,1 )= 0 1 0 3 = 3
1 2 0 1 6

Y estos vectores no pertenecen al plano V , por tanto, el


plano V no es f -invariante.

b) Estudie si f admite una cantidad infinita de


planos invariantes.

La matriz de Jordan traspuesta es

( )
0 0
J t= 1 0
0 0

de forma que los planos invariantes se obtienen as

( )( ) ( )
0 0 0 x1 0
t
( J I n ) X =0 1 0 0 x 2 = 0 {x 1=0 }
0 0 0 x3 0

Y habr infinitos planos invariantes, que sern de la forma


b x 2+ c x 3=0 .

SUBESPACIO INVARIANTE REDUCIBLE E


IRREDUCIBLE

Un subespacio f -invariante de U se dice que es


irreducible si no puede descomponerse como suma
directa U=U 1 U 2 de subespacios f -invariantes no
triviales. En caso contrario se dice que es reducible
ENDOMORFISMOS MTRICAMENTE
EQUIVALENTES

Dos isometras vectoriales f y g diremos que son


mtricamente equivalentes si y slo si existe otra
isometra vectorial h tal que f =hg h1 . Esta condicin es
equivalente a decir que si M ( f ) y M ( g ) son matrices de
f y g respectivamente, entonces existe una matriz
ortogonal tal que M ( f )=PM ( g ) P1 .
POLINOMIO ANULADOR

Diremos que un polinomio p (t ) anula a un endomorfismo


f o que es un polinomio anulador de f , si p ( f ) es el
endomorfismo nulo, lo cual expresamos diciendo p ( f )=0 .

TEOREMA DE CAYLEY - HAMILTON

Sea pf ( t ) K [ t ] el polinomio caracterstico de un


endomorfismo f . Se cumple que pf ( t )=0

POLINOMIO MNIMO ANULADOR

Se denomina polinomio mnimo anulador de un


endomorfismo f al polinomio mf ( t ) K [ t ] mnico (su
coeficiente principal, an es igual a 1 ) de grado mnimo
que anula a f .

Das könnte Ihnen auch gefallen