Beruflich Dokumente
Kultur Dokumente
Espacios vectoriales
Espacios vectoriales
Espacios vectoriales
Subespacios vectoriales
Combinaciones lineales
Dependencia e independencia lineal
Base y dimensión
Espacios vectoriales
Un espacio vectorial E=(V,F)
Es un conjunto de elementos llamados
vectores sobre un campo F donde
x+y=y+x y pertenece a V
x+(y+z)=(x+y)+z
Existe el vector 0, tal que 0+x=x+0=x
Para cada vector x existe el –x, tal que x-x=0
Espacios vectoriales
Cada elemento dol campo es
llamado un escalar
µ(x+y)= µx+µy
µx= xµ
(µ1+ µ2)x= µ1(x)+ µ2(y)
1x=x 1 la unidad multiplicativa del
campo
Espacios vectoriales
Teorema
0v=v0=0
0v=0v+0v-0v=(0+0)v-0v=0v-0v=0
(-1)v=-v
v+(-1)v=1v+(-1)v=(1-1)v=0v=0
Agregando –v a ambos lados se tiene el
resultado
Subespacio
Sea (V,F) un espacio, entonces (S,F)
es un subespacio de (V,F) si
preserva todas las características de
espacio y S es un subconjunto de V
Creación de espacios
Teorema.
Espacio vectorial (V,F)
S subconjunto de V
Si v1,…vn están en S, entonces también α 1v1+…
+α nvn, donde α i son elementos del campo
(S,F) es un subespacio
Demo en clase por los alumnos
Dependencia e
independencia lineal
Definición. Sea S={v1,v2,...vn} un
conjunto de vectores. El vector
y=α 1v1+α 2v2+...+α nvn donde
los coeficientes son escalares será
llamada combinación lineal de S.
Dependencia e
independencia lineal
Definición. Sea S={v1,v2,...vn} un
conjunto de vectores. S es
linealmente independiente si
α 1v1+α 2v2+...+α nvn=0 tiene
como única solución la trivial. De lo
contrario se llamarán linealmente
dependientes.
Dependencia e
independencia lineal
Definición. Sea S={v1,v2,...vn} un
conjunto de vectores. Si S es
linealmente independiente,
entonces el espacio creado por S
será llamado espacio generado por
S.
Dependencia e
independencia lineal
Sea S={v1,v2,...vn} un conjunto de
vectores. Para mostrar si es
linealmente independiente se
resuelve la ecuación:
α1
α2
...
[v1 v2 ... vn] =0
αn
Dependencia e
independencia lineal
Entonces ya podemos aplicar Gauss
para resolver el sistema y ver su
solución
Si la matriz [v1 ...vn] es de rango n
entonces tiene solución única
Si la matriz [v1 ... vn] es de rango
menor a n, entonces tiene más de una
solución.
Bases, Dimensión y
coordenadas
Definición. Sea (V,F) un espacio
vectorial, entonces el conjunto
S={v1, v2, ...vn} será una base
para (V,F) si S genera (V,F).
S es linealmente independiente
S genera (V,F)
Bases, Dimensión y
coordenadas
Notita. Si z es una C.L. (combinación
lineal) de los vectores x1,...,xr; y xi es una
C.L. de los vectores y1,...,ys. Entonces z es
una C.L. de los vectores y1,...,ys.
z=a1x1+...+arxr
z=a1(b11y1+...+b1sys)+...+ar(br1y1+...+brsys)
Es una propiedad de transitividad
Bases, Dimensión y
coordenadas
Notita. Si algunos vectores x1,...,xn son
linealmente dependientes (L.D.) entonces
todo el sistema x1,...,xn son L.D.
Suponer que x1,...,xk (k<n) son L.D.
a1x1+...+akxk=0 con ai diferente de nulo.
a1x1+...+akxk+0xk+1 +...+0xn=0 es
solución y el sistema es L.D.
Bases, Dimensión y Coordenadas
coordenadas
La base B={v1, ..., vn} es un conjunto,
pero tiene un orden para facilitar
trabajos futuros. α1
Representación. Un vector v se puedeα 2
reescribir en términos de una base.
v=α 1v1+α 2v2+...+α nvn, a donde
...
4 1 0
=4 +4
4 0 1
Bases, Dimensión y
coordenadas
El mismo vector en otra base
B2={
1 0 }
1 1
4 1 0
=4 +0
0 1 1
Bases, Dimensión y
coordenadas
Si el mismo vector se puede
representar en diferentes bases, ¿se
podrá transformar de una en otra?
1 0 4 1 0 4
=
0 1 4 1 1 0
Bases, Dimensión y
coordenadas
-1
1 0 1 0 4 4
=
1 1 0 1 4 0
2 3 1 1.5
1 1 0 1
1 -1 1 -1
-1 1 0 0
0 -1 0 1
0 1 0 0
si α =-||x||22/xTy, entonces
0≤ -||x||22+(||x||24||y||22/xTy|2)
Despejando se llega a la desigualdad
Producto interno
Definición. El producto interno en (V,F) sobre
un par de vectores (u,v) que satisface:
(u,v)=(v,u)
(α u+β v,w)= α (u,w)+ β (v,w)
(w,α u+β v)= α (w,u)+ β (w,v)
(u,u)>0, y es igual a cero si u es cero.
Producto interno
El producto interno (u,v)1/2 induce una norma en el
espacio vectorial.
Definición. Sean el producto interno (•,•)
u, v son ortogonales ssi (u,v)=0
Un conjunto de vectores son ortogonales ssi cada par de
vectores (u,v) son ortogonales
Si un vector u es usado para producir u/||u|| tal que ||v||=1,
entonces u se dice ser normalizado para producir el vector
normalizado v
Un conjunto de vectores se dice ortonormal ssi es ortogonal y ||
v||=1 para todo vector v
Producto interno
Diferentes productos internos
(u,v)=uTv
si f y g son funciones real valuadas continuas en
0∫ f ((f,g)=
0≤ t≤ 1, entonces t ) g (t )dt
Proyecciones ortogonales
Teorema. Sea (V,F) un espacio vectorial. Sea (V0,F)
un subespacio generado por los vectores
ortogonales S={v1,...,vq}. Defínase la proyección
ortogonal como sigue. Para cualquier vector v
P0v=α 1v1+...+α qvq, donde α i=(vi,v)/(vi,vi)
entonces
v-P0v es ortogonal a todo vector v en (V0,F)
P0(u+v)=P0u+P0v
P0(α v)= α P0v
Proyecciones ortogonales
Demostración
(vi,v-P0v)=(vi,v)-α 1(vi,v1)-...-α q(vi,vq)=(vi,v)-
α i(vi,vi)=0
Los otros puntos salen de la definición de los
coeficientes α . v
v-P0v
vi
P0v= α vi
Proyecciones ortogonales
Teorema. Sea (V,F) un espacio vectorial con producto
interno y con su norma inducida por el producto interno ||
•||. Sea (V0,F) un subespacio generado por los vectores
ortogonales S={v1,...,vq}. Entonces para cualquier v, P0v
es el único punto más cercano en (V0,F) a v, y ||v-P0v|| es
la distancia de v a (V0,F)
||v-P0v||<||v-v0|| para todo v0 diferente de P0v en (V0,F)
Proyecciones ortogonales
Demostración.
||v-v0||2=(v-v0,v-v0)=(v-P0v+P0v-v0, v-P0v+P0v-v0)= (v-P0v,
v-P0v )+(v-P0v, P0v-v0)+(P0v-v0,v- P0v)+(P0v-v0, P0v-v0)
Sabemos que v- P0v es ortogonal a los vectores en (V0,F),
entonces se obtiene que:
||v-v0||=||v- P0v||+|| P0v-v0||
entonces ||v-v0||>||v- P0v|| a menos que v0= ||v-v0||=||v-
P0v||+||
Proyecciones ortogonales
Sea S={v1,...,vq} un conjunto de vectores
ortogonales, entonces estos vectores son
linealmente independientes.
si se toma el vector 0=c1v1+...+cqvq,
tenemos que saber el valor de cada ci.
0=(vi,0)=(vi,c1v1+...+cqvq)=ci(vi,vi)
como (vi,vi)>0 ci=0 y son L.I.
Proyecciones ortogonales
Se sigue que si el vector proyectado v está
en el espacio (V0,F), entonces P0v será el
mismo v y los valores de las α i será la
representación del vector en la base
seleccionada S.
Proyecciones ortogonales
Teorema. Sea B={v1,...vq} una base
ortogonal. La representación del vector v se
calcula como
v=α 1v1+...+α qvq, donde
α i=(vi,v)/(vi,vi)
Note que si la base es ortonormal, entonces los
α i se calculan fácilmente
Proyecciones ortogonales
6.1 Definición
6.2 Propiedades
6.3 Kernel e imagen de una transformación lineal
6.4 Representación matricial de una
transformación lineal
6.5 Isomorfismos
6.6 Operaciones con transformaciones lineales
6.7 Algebra de transformaciones lineales
Transformaciones lineales
El espacio imagen
Todos los vectores w en (W,G) tal que w=T(v)
Solución. Si w es fijo, entonces existe v en (V,F) tal
que T(v)=w ssi w está en la imagen de T.
Se aplica Sobre
Se aplica Inyectividad
De igual forma
T(δ u)=T[(δ α 1v1+...+ δ α nvn)] Por la definición de
T,
δ α 1w1+...+ δ α nwn= δ T(u)
Por teorema anterior se tiene la unicidad
i) Im T ≠ Im A, pero isomorfo
ii)ρ (T)=ρ (A)
iii)Ker T≠ Ker A, pero isomorfo
iv)ν (T)=ν (A)
Transformaciones lineales
Demo.
Sabemos que [T(x)]B2=AxB1
Ahora,
xB1=QxB1’ y [T(x)]B2=P[T(x)]B2’
Por tanto
P[T(x)]B2’=A QxB1’
[T(x)]B2’=P-1A QxB1’
A’=P-1AQ es la matriz de transformación
Transformaciones lineales
Transformaciones T
Inyectiva Kernel T = {0}
Sobre
Demo. Tarea.
Transformaciones lineales
Si B es no singular
ρ (A)+ρ (B)-n = ρ (A) ≤ ρ (AB) ≤ min(ρ (A),n) =
ρ (A)
ρ (A) R(A) R(AB)
ρ (B) R(B)
d
p n
n(A)
n(B)
4. Valores y vectores propios
Valores y vectores propios
Definición y propiedades
Teorema de Cayley-Hamilton
Diagonalización de matrices
Valores y vectores propios
Definición. Sea V un espacio vectorial y
T:VV una transformación lineal del
espacio en sí mismo. Sea v∈V un vector
diferente de cero pa el cual existe un
escalar λ tal que T(v)=λ v,
entonces se dice que λ es un valor
propio de T y que v es un vector propio
de T asociado a λ .
Valores y vectores propios
Cuando V es un espacio de dimensión finita, la
transformación T la podemos representar como
una matriz A de n,n. Entonces podemos redefir
los valores y vectores propios de la siguiente
forma.
Definición. Sea A una matriz de n,n. El escalar λ
se denomina valor propio de A si existe un vector
x diferente del nulo, tal que Ax= λ x
nuevamente x es el vector propio asociado a λ .
Valores y vectores propios
Teorema. Sea A una matriz de n,n. Entonces λ
es un valor propio de A ssi det(λ I-A)=0
Demo.
Sólo si. Suponga que λ es un valor propio de
A; entonces existe un vector x diferente de
cero tal que Ax= λ x
(λ I-A)x=0, como x diferente de cero (λ I-A)
es singular det(λ I-A)=0
Valores y vectores propios
(si). Si det(λ I-A)=0 (λ I-A) es
singular
(λ I-A)x=0 tiene soluciones
diferentes de cero, entonces existe
x diferente de cero tal que Ax= λ x.
Valores y vectores propios
Definición. La ecuación det(λ I-A)=0 se conoce como
ecuación característica de A, y el polinomio
p(λ )=det(λ I-A)
Observe que p(λ )=(det(λ I-A)=a0+a1λ +...+anλ
por el teorema fundamental del álgebra, cualquier
polinomio de grado n tiene n raíces (contando
multiplicidades).
p(λ )=(det(λ I-A)=a0+a1λ +...+an=
(λ - λ 1)r1 ...(λ - λ m)rm
Los número ri son la multiplicidad algebraica de los
valores propios de λ 1,..., λ m.
Valores y vectores propios
Teorema. Sea λ un valor propio de
A y Eλ ={x|Ax= λ x}. Entonces Eλ
es un subespacio vectorial de Cn
Nótese que Eλ son las soluciones de
(λ I-A)x=0, es decir el kernel de un
operador lineal es un subespacio
vectorial.
Valores y vectores propios
Definición. Sean λ un valor propio de A.
Entonces Eλ se denomina espacio propio de A
correspondiente a λ .
Definición. Sea Eλ el espacio propio de A
debido a λ . A la dimensión de Eλ se le conoce
como multiplicidad geométrica de λ .
Multiplicidad geométrica de λ =dim
Eλ =dim{Ker (λ I-A)}
Valores y vectores propios
Ejemplos y procedimientos de
cálculo.
4 -2 2 -1 1 -1
1 1 -4 2 2 -1
Valores y vectores propios
Teorema. Sea λ un valor propio de
A. Entonces se cumple que la
multiplicidad geométrica de
λ ≤ multiplicidad algebraica de λ
Valores y vectores propios
Teorema. Sean λ 1, λ 2, ..., λ m valores propios
diferentes de A (n,n), donde m≤ n y sean x1, x2,..., xm
sus vectores propios correspondientes. Entonces x1,
x2, ..., xm son linealmente independientes.
Demostración.
Suponga que {x1,...,xm} son L.D. y que xs es el
primer vector L.D. de los previos
xs=α 1x1+α 2x2+...+α s-1 xs-1
Multiplicando por A
Axs= α 1Ax1+α 2Ax2+...+α s-1 Axs-1
Valores y vectores propios
λ sxs= α 1 λ 1 x1+α 2 λ 2 x2+...+α s-1 λ s-1 xs-1
Restando ecuaciones y multiplicando por λ s se tiene
0=α 1(λ 1-λ s)x1+α 2 (λ 2-λ s) x2+...+α s-1 (λ s-1 -λ s)xs-1
Como xs es el primer vector L.D. entonces
α 1(λ 1-λ s)=α 2 (λ 2-λ s)=...=α s-1 (λ s-1 -λ s)=0
como λ i≠ λ s α i=0 xs=0, lo cual contradice la
suposición las vectores son L.I.
Valores y vectores propios
Teorema. La matriz A (n,n) tiene n
vectores propios L.I. ssi la
multiplicidad geométrica de cada
valor propio es igual a su
multiplicidad algebraica.
Tarea (Grossman, pag 545)
Valores y vectores propios
Definición. Sea F(x)=a0+a1x+a2x2+...+anxn un polinomio y A
una matriz cuadrada
Se define el polinomio f(x) en la matriz A como:
F(A)=a0I+a1A+a2A2+...+anAn
Sy f(A) es igual a la matriz cero, entonces se dice que A es
raíz (o cero) del polinomio f(x).
Sea F(λ ) (n,n) una matriz polinomial en la variable λ , i.e.
F(λ )=F0+F1λ +...+Fmλ m= F(λ )=F0+λ F1+...+λ mFm
donde F0, F1,...,Fm son matrices cuadradas reales.
Valores y vectores propios
Se dice que F(λ ) es de orden n; y si Fm≠ 0, entonces F(λ ) es
de grado m. Además F(λ ) se dice regular si det(Fm)≠ 0
Definicion. Sean F(λ ) y G(λ ) matrices polinomiales de
orden n., y G(λ ) es regular. Las matrices polinomiales
Q(λ ) y R(λ ) se conocen como cociente derecho y residuo
derecho respectivamente de F(λ ) dicidida por G(λ ) si
F(λ )= Q(λ ) G(λ ) + R(λ )
y si el grado de R(λ ) es menor que el grado de G(λ ) [R(λ )
puede ser cero]
Valores y vectores propios
De manera similar se pueden definir el
cociente izquierdo y residuo izquierdo
Sea A (n,n) y denota F(A) la evaluación por la
derecha de A en la matriz polinomial F(λ ) ,
esto es, si
F(λ )=F0+F1λ +...+Fmλ m=
F(λ )= F0+F1A+...+FmAm
Valores y vectores propios
Teorema. Si la matriz polimial F(λ ) es dividida
por la derecha por la matriz (λ I-A) entonces el
residuo es F(A), y si es dividida por la izquierda
por (λ I-A) entonces el resiudo es F’(A) (por la
izquierdA).
Demostración. Tarea.
(teorema generalizado de Bezout, Grantmatcher,
pag 81)
Valores y vectores propios
Corolario. La matriz polinomial F(λ ) es divisible por la
derecha por la matriz (λ I-A) sin residuo (R(λ )=0) ssi
F(A)=0
(De manera similar se puede hacer por la izquierda)
1 1 2
0 1 3
0 0 2
Diagonalización de
matrices
Tiene dos propio valores λ 1=1, λ 2=2
con multiplicidades algebraicas 2 y 1 y
geométricas 1 y 1 respectivamente
no es posible diagonalizar A, pero ¿es
posible encontrar una bse donde A sea
casi diagonal?
Diagonalización de
matrices
Definición.- Un vector v es llamado un
vector propio generalizado de rango k
de A asociado con λ iff
(A- λ I)kv=0
(A- λ I)k-1v≠ 0
Note que si k=1 coincide con vector
propio
Diagonalización de
matrices
Definición.-
vk=v vector propio generalizado
vk-1 =(A-λ I)v=(A-λ I)vk
vk-2 =(A-λ I)2v=(A-λ I)vk-1
...
v1=(A-λ I)k-1 v=(A-λ I)v2
Diagonalización de
matrices
...
vk-2 =(A-λ I)2v=(A-λ I)vk-1
...
Entonces para 1≤ i≤ k vi es un vector propio
generalizado de rango i, por ejemplo
(A-λ I)k-2 vk-2 =(A-λ I)k-2 (A-λ I)2v=(A-λ I)kv=0
(A- λ I)k-1 vk-2 =(A-λ I)k-1 v≠ 0
Diagonalización de
matrices
Definición.- Lleamaremos a los vectores
{v1, v2,...,vk} una cadena de vectores
propios generalizados si vk es un vector
propio generalizado que dio origen a
todos los demás vectores
Diagonalización de
matrices
Teorema. El conjunto de vectores propios
generalizados v1, v2, ..., vk definidos
anteriormente es L.I.
Demostración.-
Suponer que v1, v2, ..., vk son L.D., entonces
existen soluciones diferentes de la trivial a:
α 1v1+α 2v2+...+α kvk=0
Multiplicando por (A-λ I)k-1 y observando que
vi=vk-(k-i) =(A-λ I)k-i v por definición
Diagonalización de
matrices
entonces
(A-λ I)k-1 vi=(A-λ I)2k-(i+1) v=0
para i=1,2,...,k-1
α k(A-λ I)k-1 vk=0
y sabiendo de la def. de vector propio generalizado
que (A-λ I)k-1 vk≠ 0, α k=0
Aplicando ahora (A-λ I)k-2 se demuestra que α k-1 =0
Siguiendo esto se tiene que α i=0, lo que contradice
la suposición. son L.I.
Diagonalización de
matrices
Teorema: Los vectores propios generalizados de A
asociados con diferentes propio valores son L.I.
Demostración.
Sea v vector propio generalizado λ 1
vi=(A-λ 1I)vi+1 =(A-λ 1I)k-i v
Sea u vector propio generalizado λ 2
ui=(A-λ 2I)ui+1 =(A-λ 2I)l-i u
Del teorema anterior los vi son L.I. y los ui son L.I, falta ver
que {ui}, {vi} son L.I.
Diagonalización de
matrices
Suponer que vi es L.D. en {u1,...,ul}
vi=α 1u1+α 2u2+...+α lul
Aplicando (A-λ 1I)i
0= (A-λ 1I)i [α 1u1+α 2u2+...+α lul α ]
Ahora aplicando (A-λ 2I)l-1 y observando que
(A-λ 2I)l-1 (A-λ 1I)i = (A-λ 1I)i (A-λ 2I)l-1
y el hecho de que (A-λ 2I)l-1 uj=0, j=1,2,..., l-1
0=α l(A-λ 1I)i(A-λ 2I)l-1 ul=α l(A-λ 1I)iu1
Como (A-λ 2I)u1=0 o Au1=λ 2u1, la ecuación anterior se reduce a
α l(λ 2-λ 1)iu1=0
Diagonalización de
matrices
se reduce a
α l(λ 2-λ 1)iu1=0
lo cual implica que α l=0.
Un procedimiento similar llega a la
conclusión de que todos los α i=0, lo que
contradice la suposición y los vectores
son L.I.
Diagonalización de
matrices
Teorema. Sean u y v propio vectores de
rango o y l respectivamente, asociados con
el mismo valor propio λ .
vi=(A-λ I)vi+1 =(A-λ 1I)k-i v
ui=(A-λ I)ui+1 =(A-λ 2I)l-i u
Si u1 y v1 son L.I. las cadenas son L.I.
Diagonalización de
matrices
El tratar de construir la forma casi diagonal (diagonal
por bloques o forma de Jordan) se convierte en un
proceso iterativo.
1.- se calculan propio valores y propio vectores de la
forma tradicional.
2.- Si la multiplicidad algebraica es mayor que la
geométrica tratar de encontrar una cadena lo
suficientemente larga de vectores generalizados para
construir los vectores L.I. independientes faltantes, de
lo contrario construir cadenas más pequeñas hasta
completarlos
Matrices unitarias
Si P es no singular B=P-1 AP transformación de
similaridad
Sirven para cambio de bases
Más conveniente si las bases son ortogonales y
ortonormales
Si {x1,...,xp} es un conjunto ortonormal xiTxi=1
y xiTxj=0
Si hacemos que P=[x1,...,xp] PTP=I o PT=P-1
Matrices unitarias
Definición. Una matriz P (de reales) para la cual
PT=P-1 tal que PTP=I, se dice ser unitaria.
Teorema.
a) P unitaria el conjunto de vectores columna
es ortonormal
b) P unitiaria |det(P)|=1
c) P unitaria <PX,Py>=<x,y>
d) P unitaria si λ valor propio de P |λ |=1
Demo. Clara
Matrices unitarias
Teorema.
Si B=P-1AP donde P es unitaria (se dice
transformación de similaridad unitaria)
todo lo que se vió de propiedades de
similaridad sigue valiendo.
Matrices unitarias
Teorema.
Si A es una matriz de pxp.
a) A es similar unitaria a una matriz triangular superior T;
T=P-1 AP con P unitaria y con los propiovalores de A en su
diagonal principal. T es llamada la forma de Shur de A y la
descomposición A=PTP-1 = PTPT es la descomposición Shur
de A.
Demo.
Si p=1 ya terminamos.
Suponer que para p=k es cierto
Para p=k+1 tenemos.
Matrices unitarias
λ 1 es el propio valor asociado a x1, podemos normalizar este
vector para que ||x1||2=1
Entonces x1 entra a la base que ya teníamos de
propiovectores ortonormalizados {w1,...,wk} si no es
otronormal a esta base, aplicamos Gram-Schmidt y tenemos la
nueva base {x1,w1,...,wk}
U= [x1,w1,...,wk]=[x1,W]
A’=UTAU=[x1,W]TA[x1,W]=[x1,W]T[Ax1 AW]=
λ 1 x1TAW λ 1 bT
=
0 W AW
T 0 C
Matrices unitarias
Definición. Una matriz A de pxp es
normal si ATA=AAT
Teorema. A normal D=PTAP, D es
diagonal, y P es unitaria.
Por tanto los propio vectores de A son p
linealmente independientes
Matrices unitarias
Veamos ahora el caso en que A=UΣ VT,
con U y V unitarias de pxp y qxq, Σ es
pxq casi cero, excepto en la diagonal
que vale Σ ii=σ i que es un real no
negativo. 4 0
2 0 0 3 0 0 0 6
0 0 0 0 2 0
0 0
Así son Σ
Matrices unitarias
Claramente se tendría AV=UΣ Avi=σ iui para
1≤ i≤ min(p,q), dende los ui, vi son las columnas de U y
V respectivamente.
Además
ATA= (UΣ VT)T (UΣ VT)=VΣ TUTUΣ VT=V(Σ TΣ )VT
donde Σ TΣ =D=VTATAV es diagonal de qxq
que los propio vectores de ATA sirven para construir
V y D tiene los valores propios D=Σ TΣ
Similarmente para el caso
AAT=U(Σ TΣ )UT en este caso D= Σ Σ T
Matrices unitarias
Definición. A la descomposición que hemos venido manejando,
A=UΣ VT, se le conoce como descomposición en valores singulares
de A.
Viendo lo que hicimos para la descomposición de Schur, podemos
ver que la descomposición en valores singulares siempre existe.
Los valores singulares de A son los σ i, y el número de valores no
cero es el rango de A. Los ui son los vetores singulares izquierdos y
los vi los vectores singulares derechos relacionados con σ i.
1 1
9 9
A= 2 2 ATA
2 2 9 9
u1=[1/3 2/3 2/3]T u2=[(-2)51/2 /5 51/2 /5 0]T u3 =[(2)51/2 /15 (4)51/2 /15 (-1)51/2 /3 ]T
Entonces U=[u1 u2 u3]
1 1 2 4 4
A= 2 2 AAT= 4 8 8
2 2 4 8 8
3(2)1/2 0
0 0
0 0
Mínimos cuadrados
Suponer que A=UΣ VT, es la descomposición en valores singulares,
donde A es de rango k. El problema es minimizar ||Ax-b||2 con
respecto a x.
||Ax-b||2=||UΣ VTx-b||2=||Σ y-UTb||2
y=VTx ||Ax-b||2 es mínimo cra x ssi ||Σ y-UTb||2 es mínimo cra y.
||Σ y-b’||22=|σ 1y1-b1’|2+...+|σ kyk-bk’|2+|bk+1 ’|2+...+|bp’|2
b’=UTb
Es minimizado si yi=bi’/σ i
Mínimos cuadrados
Entonces para ||Ax-b||2 con respecto a x.
Encontrar A=UΣ VT
Calcular b’=UTb
Calcular yi=bi’/σ i para 1≤ i≤ k, yi=0 otro caso
x0=Vy
y=VTx ||Ax-b||2 es mínimo cra x ssi ||Σ y-UTb||2 es mínimo cra y.
||Σ y-b’||22=|σ 1y1-b1’|2+...+|σ kyk-bk’|2+|bk+1 ’|2+...+|bp’|2
b’=UTb
Es minimizado si yi=bi’/σ i