Beruflich Dokumente
Kultur Dokumente
ASIGNATURA:
ALBAÑILERÍA ESTRUCTURAL
DOCENTE
AUTOR:
CHIMBOTE – PERÚ
2017
EIGEN VALORES Y EIGEN VECTORES
Para resolver (c) se requiere conocer , y para que exista una solución no trivial, el determinante
de la matriz [A] = A I debe ser igual a cero. El desarrollo del determinante
igualándolo a cero, da como resultado un polinomio (conocido como ecuación característica)
de grado n (tamaño de la matriz) y las raíces de este polinomio son las soluciones de los
eigenvalores, pudiendo ser estos con valor repetido. Esta ecuación característica es de la forma:
Al sustituir uno de los eigenvalores en la matriz [A], se obtiene un sistema lineal de ecuaciones
homogéneas con solución diferente de la trivial. Para resolver el sistema se da a una de las
incógnitas de {X} un valor arbitrario, por ejemplo x1 = 1, con esto se obtienen los valores de las
otras incógnitas en términos de x1 al resolver el sistema resultante. Con la solución del sistema
se obtendrá el eigenvector correspondiente al eigenvalor utilizado.
Este método hace uso de la traza de una matriz (tr [A]), esta es la suma de los elementos de la
diagonal principal. El método se expresa por el siguiente conjunto de ecuaciones concurrentes:
Donde, b1, b2,…, bn, son las constantes a1,…, an-1, an, de la ecuación característica (4), a0 =
1.
Ejemplo 1.
Resolver el sistema matricial [A] {X} = 0 utilizando eigenvalores:
3 92 18 6 0
1 0.416
2 2.294
3 6.290
El hecho de que toda norma defina una métrica sobre un espacio vectorial dado, nos permite
hablar de los conceptos topológicos habituales como abiertos y cerrados; junto con ellos
aparecen en forma natural otros algo más complejos, como por ejemplo el borde de un
conjunto, un conjunto nunca denso (magro) o un conjunto denso en todo el espacio. En un
espacio normado E, es posible que un sub-espacio propio H sea denso (por ejemplo, el sub-
espacio IR (IN) de sucesiones con finitos términos no nulos en el espacio l∞(IR), como el
lector puede verificar). Por otro lado, si H es cerrado, está claro que la única forma que tiene
de ser denso, es ser todo E. Esto nos permite deducir que si H es un sub-espacio propio
cerrado, entonces hay punto de E a distancia positiva de H, ya que dist(x, H) = inf {kx − hkE:
h ∈ H}, y si ´este ínfimo es cero para todo x ∈ E, entonces H es denso. En el caso general,
está claro que dist(x, H) ≤ kxk, y uno estaría entonces tentado a tratar de encontrar algún
vector x ∈ E de manera que kxk= dist(x, H), por la siguiente razón: el concepto intuitivo de
distancia euclídea está íntimamente ligado con la idea de ortogonalidad; cada vez que
pensamos en la distancia entre un punto y un objeto extenso, pensamos en la distancia
perpendicular del objeto al punto. Ahora bien, la distancia perpendicular a un sub-espacio
puede medirse en particular desde el origen, y entonces un vector en las condiciones de arriba
sería lo más parecido algo”perpendicular” u ”ortogonal” al sub-espacio dado. Como veremos
luego, este vector es posible de hallar en un espacio con producto interno, ya que en un
espacio así subsiste la idea euclídea de ortogonalidad, inducida por el producto.
Desgraciadamente, en la mayoría de los casos de espacios normados, este vector no existe,
ni siquiera si el espacio es completo
Ejemplo 11 (a) Tomemos el sub-espacio X de C[0, 1] formado por todas las funciones
continuas f que satisfacen f(0) = 0 dotado de la norma supremo. Es un resultado conocido.
(Que se demuestra en cualquier curso de cálculo avanzado) que (C[0, 1], k k∞) es un espacio
completo. Como X es un sub-espacio cerrado, resulta que (X, k k∞) es un espacio normado
completo. Consideremos el sub-espacio M de X formado por todas las funciones g tales que
Si tomamos un punto de acumulación de este sub-espacio, y una sucesión de funciones {gn}
en M, la desigualdad:
Ahora supongamos que f0 ∈ X, kf0k∞ = 1, y que vale d(f0, M) = 1, y veamos que esto es
imposible. De la definición de distancia se obtiene que kf0 − gk∞ ≥ 1 para todo g ∈ M. Para
cada f ∈ X − M definamos:
Ahora consideremos la sucesión de funciones fn(t) = t 1 n en C[0, 1]. Por un lado se ve que
fn(0) = 0 para todo n ∈ IN, (o sea fn ∈ X ∀ n ∈ IN); y por otra parte está claro que ninguna
está en M. Además es trivial la verificación de que kfnk∞ = 1 para todo n ∈ IN; reemplazando
en la ecuación (I.8) y tomando límite para n → ∞ se obtiene:
Es decir que:
Pero por otra parte la continuidad de f0 y el hecho de que f0(0) = 0, junto con la cota |f0(t)|
≤ 1 nos asegura que debe ser:
Sin embargo, en cualquier caso subsiste una idea de ”cuasiortogonalidad” inducida por el
siguiente lema
Demostración:
Ejemplo:
Clausura e hiperplanos:
La discusión previa al lema de Riesz nos plantea el problema de tratar de decidir cuándo un
sub- espacio es denso. Esta pregunta tiene no tiene una respuesta automática, pero el
panorama se aclara un poco después de los próximos resultados.
Proposición I.13
, pero f(H*H) C.H, entonces f(H*H) C.H. esto prueba que la suma de dos
elementos en la clausura del sub-espacio siguen estando en la clausura. Un argumento similar
sobre la función producto por escalares concluye la prueba de que H es un sub-espacio.
Definición I.14
O sea que para todo elemento w ∈ E existen un vector h ∈ H y un escalar λw ∈ IF tales que
w = h + λwv.
Está claro que hay un isomorfismo de espacios vectoriales E/H 'IF, definido como:
Proposición I.15
Si H = f −1 (0), con f lineal, entonces está claro que f es un sub-espacio; falta ver que es
maximal. Para esto tomemos un vector cualquiera v ∈ E tal que f(v) 6= 0, y consideremos el
sub espacio.
S = H⊕ < v >
(Donde < v > indica el sub-espacio generado por v). Ahora tomemos un elemento cualquiera
w ∈ E; y escribamos el vector h = w − f(w) f(v) v. Como f es lineal,
lo que nos dice que w ∈ S. Como cualquier vector de E está en S, resulta E ⊂ S, luego debe
ser E = S.
Para la recíproca, supongamos que existe un hiperplano H, por ende un vector v /∈ H tales
que para todo vector w del espacio existen hw ∈ H, λw ∈ IF de manera que vale:
w = hw + λwv .
y como el el último término es un vector de H, en el cual por hipótesis v no está, se tiene que
f(αw + βz) − αf(w) − βf(z) = 0, o lo que es lo mismo f(αw + βz) = αf(w) + βf(z), que prueba
la linealidad de f. En cualquier caso, si suponemos que hay otra funcional g : E → IF tal que
H = g −1 (0), entonces aplicándola sobre (I.10) se deduce que, para todo w ∈ E
Proposición I.16:
Demostración:
Para la primera parte, las inclusiones obvias H ⊂ H ⊂ E, junto con el hecho de que H es un
sub-espacio y H un sub-espacio maximal, nos dicen que H = H o bien H = E. Si f es continua,
H es automáticamente cerrado por ser la pre imagen de un cerrado. Para la reciproca,
lamentablemente vamos a necesitar (para no caer en una demostración altamente técnica) los
resultados de la sección dedicada a espacios cocientes, en el Capítulo II sección II.5.
Consideremos el diagrama.
Donde Π es la proyección al cociente, y la función f está bien definida puesto que ker f = H,
y además es un morfismo (o sea es un aplicación lineal). Por ser H un hiperplano, el espacio
cociente es un espacio vectorial de dimensión uno. La Proposición II.19 de la mencionada
sección nos dice que el espacio vectorial E/H es en realidad un espacio normado (por ser H
cerrado). Además la Proposición II.20.3 nos asegura que la proyección Π es una función
continua. Por otra parte, el hecho de que H/S sea unidimensional nos dice que H/S = hv0i, y
entonces
y entonces la Proposición I.15 nos dice que existe una constante α ∈ IF tal que f = αg, con lo
cual f resulta continua.
Una generalización del argumento sobre la continuidad de f puede verse sobre e el final de
éste capítulo, en la sección I.7 sobre espacios normados de dimensión finita.
Esta descripción de c nos dice también que se trata de un espacio normado separable, ya que
en el Ejemplo 7 observamos que c0 es separable, y si {xn} es un denso numerable de c0,
tomamos el subconjunto (numerable) de c formado por los vectores de la forma
Método de la potencia:
Ejemplo:
Dado el vector:
Vemos que:
Vector normalizado
El método de Jacobi es bastante más complicado pero tiene la ventaja de hallar los valores
propios y los vectores propios de una matriz simétrica A. El método de Jacobi se basa en
que existen matrices ortogonales P, tales que transforman a la matriz A en una matriz cuya
diagonal principal está formada por los valores propios.
Son nulos todos los elementos, excepto la diagonal principal y los elementos (k, l) y su
simétrico (l, k). Dado que P es ortogonal la matriz B tal que B=PAPtB=PAPt tiene los mismos
valores propios que A, y además eligiendo convenientemente el ángulo θ se puede conseguir
que los elementos bkl y blk sean nulos, los valores de dichos ángulos son:
de esta manera hemos obtenido una matriz B más sencilla que A con sus mismos valores
propios.
Este es el procedimiento para hallar los valores propios reales y sus correspondientes
vectores propios de una matriz simétrica A. La tarea ahora será la de codificar dicho
procedimiento:
La matriz ortogonal P
Veamos el procedimiento para hallar el valor absoluto mayor de los elementos que están
fuera de la diagonal de una matriz simétrica. Consideremos una matriz cuadrada de
dimensión anterior.
los elementos marcados con d, son los de la diagonal principal, los elementos marcados con
una x, son los que tenemos que examinar para encontrar el elemento (k, l) que tiene el mayor
valor absoluto. Partimos del elemento que está situado el segundo en la primera fila k=0, l=1,
y recorremos mediante un doble bucle el resto de los términos marcados con la x.