Sie sind auf Seite 1von 3

: Álgebra Lineal

CAPÍTULO 1: Espacios vectoriales reales


1.1 Espacios vectoriales.
Axiomas de un espacio vectorial. Teorema de la multiplicación por el número 0, la multiplicación por -1,…etc.
1.2 Subespacios.
Definición. Teorema de las condiciones para que un sub conjunto de un espacio vectorial sea un subespacio
vectorial. Espacio nulo de una matriz. Combinación lineal de vectores. Conjunto de las combinaciones lineales
de un conjunto de vectores. Teorema que el conjunto de las combinaciones lineales de un conjunto de vectores
es un sub espacio vectorial.
Suma de sub espacios vectoriales. Teorema de que la suma de sub espacios vectoriales es un sub espacio
vectorial. Suma directa de Sub espacios vectoriales.
1.3 Independencia lineal.
Generador de un espacio vectorial. Definición de dependencia y de independencia lineal de vectores. Teorema.
1.4 Bases y dimensión
Definición de base. Teorema de la representación única en una base. Teoremas.
Definición de dimensión. Teoremas.
1.5 Sistemas Homogéneos.
Base para el espacio solución de un sistema de ecuaciones lineales homogéneas.
Nulidad. Relación entre sistemas lineales no homogéneos y sistemas homogéneos.
1.6 El rango de una matriz y sus aplicaciones
Espacio fila de una matriz y espacio columna de una matriz. Teorema de las matrices equivalentes por fila.
Determinación de una base del espacio columnas de una matriz, en forma análoga para las filas.
Rango fila y rango columna de una matriz. Teorema. Rango de una matriz. Teorema del rango, la nulidad y el
número de columnas de una matriz. Teorema del rango y la no singularidad de una matriz. Teorema.
1.7 Coordenadas y cambio de base
Coordenadas de un vector en una base.
Matrices de transición de bases. Teorema de la no singularidad de matrices de transición.
1.8 Bases ortonormales en Rn
En Rn definición de conjunto ortogonal de vectores y conjunto ortonormal de vectores.
Base ortogonal y base ortonormal. Teorema de la descomposición de un vector en una base ortonormal.
Proceso de ortonormalización de Gram-Schmidt
1.9 Complementos ortogonales
Vector ortogonal a un sub espacio vectorial. Complemento ortogonal de un sub espacio. Teorema de que el
complemento ortogonal de un sub espacio W es un sub espacio vectorial y su intersección con el sub espacio W
es el vector cero. Teorema de la suma directa de un sub espacio vectorial con su complemento ortogonal.
Teorema del complemento del complemento de un sub espacio vectorial.
Relaciones entre los espacios vectoriales fundamentales asociados con una matriz:
Teorema el espacio nulo de una matriz A es el complemento ortogonal del espacio fila de A
Teorema el espacio nulo de una matriz At es el complemento ortogonal del espacio columna de A
Proyecciones ortogonales en Rn y aplicaciones: Proyección de un vector sobre otro vector en Rn.
Proyección ortogonal de un vector sobre un sub espacio vectorial.
Teorema descomposición de un vector de Rn como la suma de las proyecciones ortogonales de dicho vector
sobre los vectores de una base ortogonal de Rn. Distancia de un vector a un sub espacio.
Teorema en Rn dado un sub espacio vectorial W y un vector cualquiera v de Rn, el vector en W más cercano
(distancia mínima) a v es el vector proyección de v sobre el sub espacio W.
1.10 Mínimos cuadrados: Teorema sea A es una matriz de m×n tal que rango A = n, entonces el sistema
Ax = b tiene una única solución dada por x=(ATA)−1ATb.
Cálculo de la proyección de un vector b sobre el sub espacio vectorial de las combinaciones lineales de un
conjunto de vectores linealmente (l.i.) proy=(ATA)−1ATb, tomando por A la matriz formada por los vectores l.i. en
columnas.
Aplicaciones de ajuste por mínimos cuadrados: Ajuste lineal, ajuste cuadrático, ajuste cúbico.

1
CAPÍTULO 2: Valores propios, vectores propios y Diagonalización
2.1 Valores propios y vectores propios.
Valor propio y vector propio. Polinomio característico. Teorema Una matriz A de n × n es singular si y sólo si 0 es
un valor propio de A. Lista de equivalencias no singulares. Teorema Los valores propios de A son las raíces del
polinomio característico de A.
2.2 Diagonalización.
Matrices semejantes (similares). Matriz diagonalizable. Teorema Matrices semejantes tienen los mismos valores
propios. Teorema Una matriz A de nxn es diagonalizable si y sólo si tiene n vectores propios linealmente
independientes. Teorema Si todas las raíces del polinomio característico de una matriz A de n × n son distintas
(es decir, si todas son diferentes entre sí), A es diagonalizable.
2.3 Diagonalización de matrices simétricas por una matriz ortogonal
Teorema Todas las raíces del polinomio característico de una matriz simétrica son números reales. Teorema Si A
es una matriz simétrica, los vectores propios correspondientes a valores propios distintos de A son ortogonales.
Matriz ortogonal. Teorema La matriz A de n × n es ortogonal si y sólo si las columnas (y las filas) de A forman un
conjunto ortonormal de vectores en Rn. Teorema Si A es una matriz simétrica entonces existe una matriz
ortogonal que la diagonaliza. Teorema Una matriz A de n × n es ortogonalmente diagonalizable si y sólo si A es
simétrica
2.4 Forma canónica de Jordan y Matriz exponencial.
Definición de una matriz de bloques de Jordan. Matriz de Jordan. Teorema de la forma canónica de Jordan de
una matriz. Teorema Para una matriz A de orden 2x2 la cual tiene un valor característico λ de multiplicidad
algebraica 2 y multiplicidad geométrica 1, con vector característico v1 , entonces existe v2 talque (A − λ)v2 =
v1 . Vector propio generalizado. Teorema Diagonalización de Jordan para una matriz A de orden 2x2 la cual tiene
un valor característico λ de multiplicidad algebraica 2 y multiplicidad geométrica 1, con vector característico v1 , y
v2 con vector generalizado (A − λ)v2 = v1 .
Definición de eA. Convergencia de la matriz exponencial. Teorema Solución del sistema x’=Ax con la matriz
exponencial eAt. Cálculo de eAt cuando A es una matriz diagonal. Teorema Sea J la forma canónica de Jordan de
una matriz A y sea C-1AC=J. Entonces eAt = CeJt C−1
2.5 Aplicaciones a sistemas de ecuaciones diferenciales lineales x’=Ax
Teorema de la solución del sistema de ecuaciones diferenciales x’=Ax
2.6 Aplicaciones a sistemas dinámicos.
Ecuaciones diferenciales autónomas. Trayectoria u órbita. Plano fase. Posición de equilibrio. Movimiento
armónico simple. Retrato de fase. Punto de equilibrio o punto fijo. Punto de equilibrio estable o atractor. Punto de
equilibrio marginalmente estable. Punto de equilibrio inestable o punto repelente. Punto silla. Caso en que los
valores propios de A son reales: Valores propios negativos y diferentes. Valores propios positivos y
distintos. Valores propios negativos e iguales. Un valor propio positivo y un valor propio negativo. Ambos valores
propios son números complejos: Parte real positiva, parte real negativa y parte real igual a cero.

2.7 Formas cuadráticas.


Forma cuadrática real en las variables x1, x2, . . . , xn. La matriz A es la matriz de la forma cuadrática g.
Congruencia de matrices. Formas cuadráticas equivalentes. Teorema de los ejes principales. Matriz definida
positiva. Matriz definida negativa.
2.8 Secciones cónicas
Ecuación cuadrática de dos variables. Ecuación en posición standard (canónica). Sección cónica no degenerada
y degenerada. Identificación de una sección cónica. Casos de valores propios
2.9 Superficies cuadráticas.
Ecuación cuadrática de tres variables. Elipsoide. Paraboloide. Hiperboloide de dos hojas. Paraboloide
hiperbólico. Cilindro hiperbólico. Cilindro parabólico.

2
CAPÍTULO 3: Transformaciones lineales y números complejos
3.1 Transformación lineal.
Definición de una transformación lineal. Operador lineal. Operador Proyección, Dilatación, Contracción,
Reflexión, Rotación. Teoremas.
Transformación lineal uno a uno (inyectiva) y transformación lineal sobre (Sobreyectiva).
1.2 El núcleo y la imagen de una transformación lineal
El núcleo (Kernel) de una transformación lineal. Teorema el núcleo es un sub espacio. Nulidad de una
transformación lineal. Teorema una transformación lineal es 1 a 1 si el Kernel está formado por tan solo el vector
o.
Imagen de una transformación lineal. Teorema la Imagen es un sub espacio. Rango de una transformación
lineal.
Determinación de una base para el Kernel y de una base para la imagen. Teorema de la nulidad, rango y
dimensión del espacio de partida de una transformación lineal. Propiedad sobre la transformación lineal 1 a 1 y
Sobreyectiva.
3.3 La matriz de una transformación lineal.
Representación de una transformación lineal y representación de una transformación lineal en otra base
3.4 Números complejos
Definición. Operaciones. Representaciones. Propiedades, Raíces n-ésimas de un complejo (6 ejemplos)

II. BIBLIOGRAFÍA
Algebra Lineal - Kolman - 2006
P. Grossman, Stanley I.; P. Grossman, Stanley I; “Álgebra Lineal”; Sexta Edición, McGraw-Hill/Interamericana
Editores, S.A., 2008.

Das könnte Ihnen auch gefallen