Sie sind auf Seite 1von 16

ALGEBRA LINEAL.

I.- MATRICES Y VECTORES .


MATRICES . DEFINICIONES BSICASSe define una matriz real de orden o dimensin como el conjunto de nmeros
reales dispuestos en filas y columnas y recogidos en una tabla, de la forma siguiente:

a11

a
A 21
..

a
m1

a12
a 22
..
am 2

.. a1n

.. a 2 n
.. ..

.. a mn

El smbolo ( ) , con 1 y 1 , designa la matriz completa.


es el elemento de la matriz que ocupa la fila i y la columna j.
Se llama dimensin u orden de la matriz al nmero de filas por el de columnas, y se designa
por . Si m n la matriz es rectangular; si = se dice que la matriz es cuadrada y de
orden . En el caso particular en que = 1 la matriz se conoce como matriz ( vector) fila,
y si es = 1 como matriz ( vector) columna. Si = = 1, entonces es unidimensional y
por tanto un nmero.
Dadas dos matrices ( = ( )) de igual dimensin, diremos que = si y slo si
= , , .
Repasaremos a continuacin las definiciones de matrices particulares que, por su especial
aplicacin, conviene recordar. As:
-

Matriz traspuesta (se obtiene cambiando en filas por columnas )


Matriz simtrica ( lo ser cuando = , con cuadrada )
Matriz antisimtrica (cuando en se verifica que = , con cuadrada )
Matriz nula o matriz cero ( = 0 . , . La notaremos 0 )
Matriz diagonal ( matriz cuadrada en la que todos los elementos fuera de la diagonal
principal son ceros)
Matriz unitaria , unidad o identidad ( matriz diagonal con todos los elementos de la
diagonal principal iguales a 1)
Matriz triangular ( matriz cuadrada en la que todos los elementos por encima o por
debajo de la diagonal principal son ceros)
Matriz idempotente ( cuadrada y tal que = . )

Las matrices , por su especial comodidad a la hora de recoger informacin relativa a variedad
de datos sobre una misma variable y ,simultneamente, hacerlo para varias variables con ella

relacionadas, constituye una de las partes del lgebra lineal de mayor aplicabilidad a todas las
ciencias, y, en particular a la Economa( tablas Input-Output de Leontieff).
OPERACIONES CON MATRICES.Desde el punto de vista del lgebra Lineal, las matrices de trminos reales y de dimensin
constituyen un ejemplo de espacio vectorial sobre el conjunto de los nmeros reales, que
notaremos como .(IR). Recordando lo estudiado para el espacio vectorial () al
inicio de la teora de funciones,podemos definir las siguientes operaciones con matrices:
1) Suma matricial.Dadas = ( ) y = ( ), se define la matriz suma = + = ( ) como aquella
tal que:
= + , = 1, . , ; = 1, . . ,
Propiedades de la suma.- Aplicando lo estudiado para espacios vectoriales al caso particular
de las matrices, la suma es una operacin interna en .(IR) que goza de las siguientes
propiedades:
1.1.- Asociativa: , .(IR) , + ( + ) = ( + ) +
1.2.-Existencia de elemento neutro: .(IR) 0 / + 0 = A
1.3.- Existencia de elemento opuesto

. (IR) A = (aij ) /A +

(A)=0
1.4.- Conmutativa: + = + ,

. (IR)

As . (IR) tiene con respecto a la operacin interna suma estructura de grupo abeliano
o conmutativo.

2) Producto de un nmero real por una matriz.Dada una matriz = ( ) y un nmero real k, se define el producto real- matriz
= . = ( ) = ( ) como aquella matriz tal que:
= . , . (IR)
Propiedades.- Por lo estudiado con respecto a espacios vectoriales afirmamos que la
operacin producto real-matriz es una operacin externa en . (IR) , con las
siguientes propiedades:
2.1.- Asociativa mixta: , y , () = ()
2.2.- Distributiva con respecto a la suma de matrices: y ,
( + ) = +

2.3.- Distributiva con respecto a la suma de escalares (reales): , y


, ( + ) = +
2.4.- 1 / 1. = ,

3) Producto matricial.3.1.- Producto de una matriz fila por una matriz columna.

b11

b21
Sea la matriz fila = (11 , 12 , , 1 ) y la matriz columna = .
..

b
n1

b11

b21
Se define el producto escalar . = (11 , 12 , , 1 ). = 11 . 11 + 12 . 21 +
..

b
n1
+ 1 . 1
3.2.- Producto de dos matrices cualesquiera.
Dadas la matriz = ( ) de dimensin y = ( ) de dimensin se define la
matriz producto A.B = = ( ) de dimensin tal que cada elemento se obtiene
multiplicando la fila de la primera matriz por la columna de la segunda, esto es:
= 1 .1 +2 .2 ++ 1 .
As pues, para poder multiplicar dos matrices es necesario que el nmero de columnas de
la primera coincida con el nmero de filas de la segunda.

Propiedades del producto de matrices.1) Asociativa : . (. ) = (. ). ,


2) Si es una matriz cuadrada de orden , / . = . = , donde es la
matriz unidad de orden .
3) Distributiva del producto respecto de la suma: . ( + ) = . + .
4) En el caso de que sea una matriz diagonal, = ( ) = ( )
Lo ms importante a sealar en el producto matricial es el no cumplimiento de la
propiedad conmutativa, a diferencia de lo que ocurre con el producto de nmeros
reales o complejos. En el caso de matrices rectangulares cualesquiera este hecho es
evidente, ya que siendo realizable el producto . ocurre que en muchos casos ni

siquiera puede plantearse el . (pinsese en el caso de que y


, con ). Lo que resulta ms importante destacar con respecto a la
conmutatividad del producto matricial, es que an en el caso particular de las matrices
cuadradas de dimensin para el que se garantiza la existencia de las matrices . y
. , dicho producto no es conmutativo, esto es, . . . As, es importante tener
en cuenta el orden en que se multiplican las matrices, distinguiendo entre premultiplicar y post-multiplicar, cuando se multiplica una matriz por la izquierda o por la
derecha, respectivamente. Como consecuencias, entre otras, a destacar:

. = 0 ello no implica necesariamente que = 0 B = 0


Si A.B = A.C no necesariamente = ( en el caso particular de que todas sean
cuadradas y, adems, inversible, la implicacin sera cierta)
( + )2 no es necesariamente igual a 2 + 2 A .B + 2
( )2 no es necesariamenteigual a 2 2 A .B + 2

( A B) ( A B) no necesariamente es igual a 2 2

4.- Matriz inversa.Las matrices, segn lo expuesto pueden ser sumadas, restadas ( = + ()) y
multiplicadas (siempre que el producto est definido) , pero no existe el cociente entre
matrices. Ello es consecuencia de la falta de conmutatividad en el producto, que hace
que, an en el caso de las matrices cuadradas,. no exista el elemento inverso, y de ah el
cociente.
Para subsanar esa deficiencia se define en el espacio vectorial () el concepto de
matriz inversa, de la forma siguiente:
Dada se llama inversa de , y se nota por 1 , a la matriz y tal que
verifica . 1 = 1 . = . Una matriz cuadrada que posee inversa se llama
regular o inversible, y, en caso contrario, diremos que la matriz es singular.
Para el clculo de la matriz inversa se precisa de una serie de conocimientos que a
continuacin desarrollaremos.
Trasposicin y operaciones con matrices .- Dadas tales que por sus dimensiones
pueden ser realizadas las operaciones siguientes, se verifica:
. ( + ) = +
. (. ) = .
. (1 ) = ( )1 , en el caso de que sea cuadrada e inversible.

VECTORES.Se llama vector a todo elemento de un espacio vectorial, y lo notaremos por .


Recordemos que un espacio vectorial sobre un cuerpo es todo conjunto que, con
respecto a la operacin interna suma tiene estructura de grupo conmutativo, y con
respecto a la operacin externa producto por los elementos del cuerpo posee las cuatro
propiedades antes indicadas.
Segn acabamos de sealar, el conjunto de las matrices de orden y de trminos
reales ( ()) constituye un caso particular de espacio vectorial sobre el cuerpo de
los nmeros reales, cualesquiera que sean y . As, en el caso particular de las
matrices fila (1) o columna (1), stas pueden ser consideradas como vectores,
con la particularidad aadida de que se tratara de vectores en el espacio vectorial o
, respectivamente, que para nosotros ya son conocidos.
DEF:.- Dados los vectores ,
1 ,..,
2

de un espacio vectorial cualquiera, se llama


combinacin lineal de los mismos a la expresin que resulta de sumarlos multiplicados
por escalares (reales) arbitrarios:
1 . .+
1 2 . +.+
2
= =1
.
Como consecuencia de las operaciones interna y externa definidas en los espacios
vectoriales, el resultado de dicha combinacin lineal no es otra cosa que un vector del
mismo espacio vectorial , = =1 , al que denominamos vector combinacin
lineal de los anteriores.
Evidentemente, se pueden hacer infinitas combinaciones lineales a partir de una
coleccin cualquiera de vectores de un espacio, tomando distintos escalares. Ahora
bien, dado un conjunto de vectores determinado, no siempre es posible obtener
cualquier vector del espacio por medio de dichas combinaciones( salvo en el caso del
vector nulo del espacio, que siempre se puede expresar como combinacin lineal de
cualesquiera otros tomando como coeficientes en la expresin todo ceros) ; en caso de
que los vectores iniciales posean tal caracterstica, reciben el nombre de sistema
generador del espacio vectorial.
DEF: Se llama sistema generador de un espacio vectorial a todo conjunto de vectores
del mismo con la capacidad de, mediante sus infinitas combinaciones lineales , generar
cualquier vector del espacio.
Dependencia e independencia lineal de vectores .
DEF: Dados los vectores
,
2 . ,

1 ,
de () se dice que son linealmente
independientes si la nica forma de obtener por combinacin lineal de los mismos el
vector nulo del espacio (0 ) es utilizando todos los escalares (reales) iguales a
cero;
1 ,
,
2 . ,

linealmente independientes si, y slo si,

1 . .+
1 2 . +.+
2
= 0 , con = 0, = 1, , .
.
2

DEF: Dados los vectores ,


1 ,
2 . ,

de () se dice son linealmente dependientes si


para obtener por combinacin lineal de los mismos el vector nulo del espacio no es
necesario tomar todos los escalares iguales a cero:
1 ,
,
2 . ,

linealmente dependientes si, y slo si,


1 . .+
1 2 . +.+
2
= 0 con algn 0
.
Cuando un conjunto de vectores es linealmente dependiente es que, al menos, uno de
ellos se puede expresar como combinacin lineal de los dems . Para verlo, y trabajando
en la definicin de dependencia lineal antes formalizada matemticamente, sea el
coeficiente que ,al menos y en particular, es distinto de cero. Eso significa que podemos
multiplicar en la igualdad vectorial por el escalar(real)

, de manera que:

1 .
1 + 2 .
2 + . +1.
+ +
=
0 ,
con =

, = 1,2, , ( 1), ( + 1), ,

Y, sumando a los dos miembros de la igualdad el opuesto del vector


obtendramos el
resultado buscado:

1 .
=
1 + 2 .
2 + . +1 . 1 + +1 . +1 + +
, con = ,
que expresa el vector
como combinacin lineal del resto de vectores.
El resultado anterior nos permite redefinir los conceptos de dependencia e
independencia lineal de otro modo. As, un conjunto de vectores es linealmente
dependiente si, y slo si, al menos uno de ellos se puede expresar como combinacin
lineal de los restantes; en caso contrario diremos que los vectores son linealmente
independientes.
Los conceptos de dependencia e independencia lineal entre vectores, as como el de
sistema generador, permiten definir lo que es una base en un espacio vectorial.
DEF: Diremos que dado un conjunto de vectores de un espacio vectorial stos son una
base si son sistema generador y linealmente independientes. Aunque el objetivo de este
tema no es el estudio de los espacios vectoriales y, por tanto, el de las bases, s
queremos sealar la importancia que en todo el lgebra tiene el concepto de base, por
proporcionar un sistema de referencia en el que cualquier vector del espacio puede ser
expresado de forma nica.

Volviendo ahora al caso particular del espacio vectorial de las matrices rectangulares
sobre el cuerpo de los nmeros reales ( ()) , sea una matriz cualquiera;

podemos considerar sus filas como vectores del espacio vectorial , o bien, sus
columnas como vectores del espacio vectorial . Los conceptos de dependencia e
independencia lineal pueden ahora aplicarse de la forma siguiente: una fila ( o una
columna) de la matriz depende linealmente de sus paralelas si puede expresarse como
combinacin lineal de las mismas, esto es:
= 1 . 1 +2 . 2 ++1 1 + +1 +1 ++
En caso contrario se dice que son linealmente independientes.
DEF: Se llama transformacin elemental en las filas ( columnas) de una matriz a la
operacin que consiste en sumar restar a una fila ( columna) determinada
cualesquiera otras multiplicadas por escalares (reales) arbitrarios.
El mtodo de las transformaciones elementales constituye uno de los procedimientos
para calcular tanto la inversa como el rango de una matriz, cuestin que estudiaremos
ms adelante.

II.- DETERMINANTE DE UNA MATRIZ ().DEF: Toda matriz cuadrada y de trminos reales tiene asociado un nmero real, al que
llamamos su determinante y notamos por det() bien ||, y cuya definicin es:

|| = det () = () =1 ,
donde la suma se calcula sobre todas las permutaciones del conjunto {1,2, , }. La
posicin del elemento i despus de la permutacin se denota como ; el conjunto de
todas las permutaciones es . Para cada , () es la signatura de , esto es (+1) si la
permutacin es par, y (-1) si es impar. Por ltimo, en cualquiera de los n sumandos, el
trmino =1 , denota el producto de las entradas en la posicin (, ), =
1, , .
Dada la complejidad de la definicin anterior se hace necesario un mtodo que, en la
prctica, permita obtener de forma cmoda el valor del determinante de una matriz; en
el caso de las matrices cuadradas de 2 y 3 orden es la llamada regla de Sarrus la que se
aplica. En el caso de matrices cuadradas de mayor dimensin, el estudio de las
propiedades de los determinantes nos permitir obtener formas de clculo del valor del
determinante de una matriz cualquiera.
Propiedades de los determinantes.1) Si se multiplican todos los elementos de una misma lnea (fila columna) por un
nmero, el determinante queda multiplicado por dicho nmero.

2) Si cambiamos entre s dos lneas paralelas, el determinante cambia de signo.


3) Si todos los elementos de una lnea se descomponen en dos sumandos , el
determinante ser igual a la suma de dos determinantes, que tienen en esa fila
columna el primero y segundo sumandos respectivamente, y en las dems los mismos
elementos que el determinante inicial, esto es:
11

| 21

12
22

1
2 | =

| 2

12
22

1
1
2 | + |2

12
22

1
2 |,

con 1 = + , = 1,2, ,

4) Si y son dos matrices cuadradas del mismo orden, entonces


det ( . ) = det ().det()
5) El determinante de una matriz es cero si :
5.1) La matriz tiene una lnea con todos los elementos nulos.
5.2) La matriz tiene dos lneas paralelas iguales proporcionales.
5.3) La matriz tiene una fila una columna que es combinacin lineal de las dems.
De la propiedad 5, en sus distintos casos, se deduce: el determinante de una matriz es
cero si, y slo si, sus filas columnas son linealmente dependientes.
Clculo del determinante.- Para matrices de dimensin dos o tres recordbamos que la
regla de Sarrus permita, de forma sencilla, obtener el valor del determinante. Para
matrices cuadradas de rdenes superiores se hace necesario obtener otros medios de
clculo ms generales, entre los que sealaremos dos:
1. Desarrollando por los elementos de una lnea:
DEF: Se llama adjunto del elemento de una matriz, y se representa por , al
determinante que resulta de suprimir en la matriz la fila y la columna , precedido del
signo + , segn que la suma ( + ) sea par impar, respectivamente.
Se puede demostrar que el determinante de una matriz cuadrada es igual a la suma de
los elementos de una lnea ( fila columna) multiplicados por sus adjuntos
correspondientes. Parar agilizar los clculos, previamente, se suelen hacer
transformaciones en la matriz para que en sta haya una lnea con todos los elementos
iguales a cero menos uno; as la suma anterior constara de un solo sumando. La forma
de conseguir lo anterior se basa en aplicar dos propiedades de los determinantes, que
son consecuencia de las anteriormente sealadas:

a) Si a una fila columna de una matriz cuadrada se le suma otra paralela , su


determinante no cambia. Para verlo:
11
|| = det() = |21

12
22

1
11 + 1
2 | = | 21

12
22

1
1
2 | + |21

11

= | 21

12 + 2 1 +
22
2 | =

2
22

2 | = || + 0

b) Si a una fila columna de una matriz cuadrada se le suma otra paralela


multiplicada por un nmero, su determinante no vara.
11

|| = det() = | 21

12
22

11

= | 21

1
2 | =

12
22
2

11

| 21

12
22

1 + . 1
2 + . 2 | =

+ .

1
11
2 | + |21

12
22

. 1
. 2 | = || + 0

2.- Clculo del determinante por el mtodo de Gauss.Sea una matriz cuadrada y triangular ( superior inferior), tal como
11
=( 0
0

12
22

1
2 )

Desarrollando por los elementos de la 1 columna :


11
|| = | 0
0

12
22

1
22
2 | = . (1)1+1 | 0
11

23
33

2
3 |

Repitiendo el proceso anterior:

2+2

|| = 11 . 22 . (1)

33
| 0

34
44

3
4 | = ..= . . .
11 22

El mtodo de Gauss para calcular el determinante de una matriz consiste en convertirla en


otra triangular y que tenga el mismo determinante, lo que se consigue aplicando propiedades
de los determinantes, en particular:
. Si se permutan dos lneas paralelas de una matriz, su determinante cambia de signo.
. Si a una lnea de la matriz se le suma otra paralela, el determinante no vara.
. Si a una lnea de la matriz se le suma otra paralela multiplicada por cualquier nmero, el
determinante no cambia.
Una vez transformada la matriz en otra triangular y con igual determinante aplicando las
operaciones anteriores, se calcula el de sta ltima, sin ms que multiplicar los elementos de
su diagonal principal.
11

||= | 21
1

12
22

11
1
2 | = | 0

12
22

1
2 | = .
11 22

III.- RANGO DE UNA MATRIZ .- Sea


DEF: Se define el rango o caracterstica de una matriz rectangular como el nmero de filas o
de columnas linealmente independientes que sta tiene ( se puede demostrar que dicho
nmero es el mismo para las filas y para las columnas).
Clculo del rango de una matriz .- Estudiaremos dos mtodos:
1) Mtodo de Gauss o de transformaciones elementales.DEF: Se llama matriz escalonada a aquella en la que el primer miembro no nulo de cada
fila est ms a la derecha que el primer miembro no nulo de la fila anterior.
El mtodo de Gauss para el clculo del rango de una matriz cualquiera consiste en aplicar
transformaciones elementales a las filas o a las columnas con el fin de obtener una matriz
escalonada, verificndose que el rango de la matriz inicial es igual al nmero de filas no
nulas de dicha matriz escalonada, por ser stas linealmente independientes. Las
transformaciones elementales que dejan invariante el rango de una matriz son:
. Permutar en ella dos filas columnas.
. Multiplicar dividir una lnea por un nmero real no nulo.
. Sumar o restar a una lnea otra paralela.
El rango de una matriz no cambia si en ella se suprimen:
. Las filas columnas nulas.
. Las filas columnas iguales proporcionales a otras paralelas.

. Las filas o columnas que dependen linealmente ( son combinacin lineal ) de otras
paralelas.

2)Mtodo de clculo del rango por medio de determinantes.DEF: Se llama menor de una matriz a cualquiera de los determinantes que en
ella se pueden obtener suprimiendo cualesquiera nmero de filas y cualesquiera nmero
de columnas, y sin alterar el orden de las filas y columnas restantes.
Se demuestra que el rango de es igual al orden del mayor menor no nulo de
dicha matriz. De forma esquemtica, podemos plantear el proceso de obtencin del rango
de por este mtodo de la forma siguiente:
. Si en se verifica que ( bien ), el mayor rango posible de es ( en
el otro caso), y ser () si existe al menos un menor de orden () en no nulo.
. En el caso de que todos los menores de orden () sean nulos, procederemos de igual
forma con todos los menores de orden ( 1)(( 1)) posibles en la matriz,
continuando reiteradamente el proceso, reduciendo el orden de los menores de uno en
uno hasta que encontremos alguno distinto de cero, siendo el rango de igual al orden o
dimensin de dicho primer menor no nulo.
As, si tiene rango (, ) es que existe un determinante extrado de la
matriz de orden distinto de cero, siendo todos los determinantes (o menores) de orden
( + 1) nulos.

IV.- INVERSA DE UNA MATRIZ .- Sea () . Definamos anteriormente su inversa, y la


notbamos 1 , como aquella otra matriz tal que:
. 1= 1 . =
Asimismo, sealbamos que no toda matriz cuadrada tiene inversa , y que a las que la
poseen las llamamos inversibles regulares, frente a las que no la tienen, que se califican
de singulares.
Para calcular, si existe, la inversa de una matriz cuadrada existen varios procedimientos:
1) Clculo de la inversa por la definicin . tiene inversa si 1 tal que . 1 =
Realizando el producto matricial e igualando a la matriz unidad trmino a trmino, se obtiene
un sistema de ecuaciones cuya solucin, de existir, proporciona los elementos de la matriz
inversa buscada. En el caso de que no exista solucin es que la matriz inicial es singular.

2) Clculo de la inversa por el mtodo de Gauss-Jordan.Dada para calcular su inversa por este mtodo, se procede:
. Se adjunta por la derecha a la matriz la matriz unidad . De este modo se obtiene una
matriz de dimensin 2 , que se representa por ( | ).
. Mediante sucesivas transformaciones elementales la matriz ( | ) anterior se convierte
en otra matriz de la forma ( |1 ). De este modo se obtiene 1 . Las transformaciones
elementales permitidas son las mismas que las indicadas para el clculo del rango en el
epgrafe anterior.
Es de sealar que, si en algn paso de este proceso se llega a obtener una fila columna
formada toda ella por ceros en la transformada de la matriz , la matriz no sera inversible .

3) Clculo de la inversa por determinantes.- Sea


DEF: Se llama matriz adjunta de , y se representa por (), a la matriz que se obtiene
al sustituir cada elemento de por su adjunto correspondiente.
Se puede demostrar que :
. (()) = ||. , con || .
1

Si, adems || 0 , se puede multiplicar la igualdad matricial anterior por el nmero || ,


de donde
.

(())
||

Esta igualdad, junto con el hecho de que la inversa de , si existe , es tal que . 1 = ,
nos permite obtener el siguiente resultado:
1 =

(())
||

Adems de proporcionarnos una forma relativamente sencilla de obtener la inversa de una


matriz, el resultado anterior muestra una condicin necesaria y suficiente para que una matriz
cuadrada sea inversible, y es que || 0.

V.-SISTEMAS DE ECUACIONES LINEALES Y LGEBRA MATRICIAL.Definiciones bsicas.- Se llama sistema de ecuaciones lineales con incgnitas a la
expresin:

11 . 1 +12 . 2 +..+1 . = 1
21 . 1 +22 . 2 +..+2 . = 2

1 . 1 +2 . 2 +..+ . =

donde los , = 1, , y = 1, , , reciben el nombre de coeficientes del


sistema , son los trminos independientes y son las incgnitas. Si, en particular,
= 0 , diremos que el sistema lineal es homogneo.
Resolver un sistema de ecuaciones lineales es encontrar, si existen, los valores de las
incgnitas 1 , 2 , , que lo verifican, pudiendo ocurrir que dicha solucin no exista, que
sea nica ( un nico para cada = 1, , ) que haya infinitas (para cada infinitos
valores de ).
Nuestro objeto de estudio es la determinacin de tcnicas de resolucin de sistemas lineales.
Para ello, nos ser de utilidad el lgebra matricial desarrollado con anterioridad,
suministrndonos mtodos sencillos no slo para resolver, sino tambin para determinar a
priori la existencia no de solucin de soluciones.
DEF: Dado un sistema de ecuaciones lineales con incgnitas, diremos que dicho sistema
es:
. Incompatible, cuando no tiene solucin.
. Compatible, cuando la tiene. Si dicha solucin es nica, se dice que el sistema es
compatible determinado, mientras que si tiene ms de una ser compatible indeterminado.

Es evidente que todo sistema lineal homogneo es siempre compatible, siendo adems
determinado en el caso de que la nica solucin que tenga sea la trivial ( 1 = 2 = =
= 0 ).

Notacin matricial de un sistema lineal.- Todo sistema lineal de ecuaciones admite una
expresin matricial tal como :
. = ,

11
21

(
1

con , ,
12
22

1
2

= ( 2 )

= ( 2 )

La matriz se llama matriz de coeficientes , es el vector columna de incgnitas y es el


vector de trminos independientes del sistema.

Discusin sobre la existencia y unicidad en la solucin a un sistema de ecuaciones lineales.Teorema de Rouch.Sea el sistema de ecuaciones lineales en expresin matricial

. =

DEF: Se llama matriz de coeficientes ampliada, y se representa por (|), a la matriz A con
una columna aadida, formada por todos los trminos independientes .
11

(|) = ( 21

1 1
2 | 2 )

2
12
22

El teorema de Rouch establece los siguientes enunciados:


. Un sistema es compatible si, y slo si, se verifica que () = (|).De no verificar
lo anterior se dice que el sistema es incompatible y no tiene solucin.
. Un sistema es compatible determinado si, adems de lo anterior, se cumple que () =
( nmero de incgnitas). En este caso el sistema tendr solucin nica.
. En el caso de que () < ( nmero de incgnitas), el sistema es compatible
indeterminado, y contar con infinitas soluciones.

Mtodos de resolucin de un sistema de ecuaciones lineales.1) Mtodo de Gauss.DEF: Dos sistemas de ecuaciones lineales con ecuaciones y incgnitas se dice son
equivalentes cuando tienen las mismas soluciones.
Dado un sistema, los siguientes enunciados nos muestran cmo obtener otro
equivalente. As:
. Multiplicando los dos miembros de la ecuacin por un nmero real distinto de cero.
. Sumando a una ecuacin determinada otra cualquiera del sistema.
Como consecuencia de lo anterior:
. Si en un sistema una ecuacin depende linealmente de otras (una fila de es
combinacin lineal de otras), se puede suprimir, siendo el sistema resultante equivalente
al inicial.

El mtodo de Gauss para resolver sistemas de ecuaciones lineales se basa en transformar


el sistema inicial en otro equivalente cuya matriz de coeficientes sea escalonada, aplicando
a las ecuaciones iniciales las operaciones antes enunciadas. Una vez obtenido el nuevo
sistema equivalente y con matriz de coeficientes escalonada( triangular en el caso de que
sea cuadrada), la propia forma del sistema permite cmodamente proceder a su
resolucin, caso de que exista.

2) Mtodo de la matriz inversa ., y siendo la matriz regular (inversible),


Dado el sistema en expresin matricial, . =
podemos multiplicar los dos miembros de la igualdad matricial anterior a la izquierda por 1 ,
obteniendo:
1 . . = 1 . , de donde = 1 .

As, la resolucin del sistema se reduce al clculo de una inversa y a una multiplicacin
matricial posterior.

3) Mtodo de los determinantes. Regla de Cramer.DEF: Un sistema de ecuaciones lineales se dice es de Cramer si cumple las condiciones:
. Tiene igual nmero de ecuaciones que de incgnitas ( = ).
. Las n ecuaciones del sistema son independientes ( () = , bien || 0 ).
As, en base a lo establecido en el teorema de Rouch, todo sistema de Cramer es siempre
compatible ( () = ( |) ) y, adems, determinado ( () = ).
Teorema de Cramer.- Dado un sistema de Cramer . =
, donde y | | 0,
notaremos cada columna de la matriz por , donde
11

1 =( 12
) ,

=( 2 )

12

2 =( 22
) , . ,

11
Evidentemente ||= |
1
2 . .
| = | 21
1

12
22

1
2 |

Si ahora llamamos a las matrices que resultan de sustituir en la matriz de coeficientes


la columna correspondiente a cada incgnita por la columna de trminos independientes (
vector columna ) podemos escribir:
|1 | = |
,
2 ,

| , |2 | = |
1 , ,
| ,.., | | = |
1 , 2 , |

Apoyndonos en las propiedades de los determinantes, se demuestra que:


1 =

|1 |
||

, 2 =

|2 |
||

, .., =

| |
||

Sistemas lineales indeterminados.- Si por cualquiera de los mtodos anteriores obtenemos


que nuestro sistema es compatible indeterminado ( () = < ), una forma
conveniente de proceder es elegir ecuaciones independientes, pasando al 2 miembro de
cada ecuacin los trminos de incgnitas. De esta forma obtenemos un sistema de
ecuaciones independientes con incgnitas. A las incgnitas que pasan al segundo
miembro las notamos por 1 , 2 ,., . De este modo todas las incnitas se pueden expresar
en funcin de 1 , 2 ,., , que son parmetros que pueden tomar cualquier valor real.

Das könnte Ihnen auch gefallen