Sie sind auf Seite 1von 39

Erick Rosas Lpez A01332337

Matemticas para Economa


Cuaderno de apuntes del semestre
PRIMER PARCIAL

Sistemas de ecuaciones lineales y matrices


El lgebra lineal nace del estudio de los Sistemas de Ecuaciones Lineales Simultneas (SELS).
Un SELS est compuesto de m ecuaciones con n incgnitas. Para que sea lineal, las ecuaciones
tienen que cumplir que:

Las incgnitas estn elevadas a la primera potencia.


Las incgnitas no se multipliquen entre s.
Slo se hallen en las ecuaciones la multiplicacin de variable por escalar y las sumas entre
variables.

Es decir, una ecuacin lineal ser de la forma:


a1x1+a2x2+a3x3++anxn=b
Es importante notar que una solucin de una ecuacin lineal de este tipo es una sucesin de n
nmero tal que la ecuacin se satisface cuando se sustituyen los n nmero en las n incgnitas. al
conjunto de todas estas sucesiones de nmeros se le denomina conjunto solucin. (pg.2)
Dando como resultado un SELS de la forma:
a11x1 + a12x2 + a13x3 + + a1nxn = b1
a21x1 + a22x2 + a23x3 + + a2nxn = b2
a31x1 + a32x2 + a33x3 + + a3nxn = b3

am1x1 + am2x2 +am3x3 + + amnxn = bm


Donde a y b son constantes, x1, x2, , xn son las incgnitas. Los subndices en aij indican la
ubicacin del coeficiente en el sistema. As, i indica la ecuacin en la que est a y j la incgnita a
la que multiplica.
Dado este SELS ordenado (incgnitas de un lado y trminos independientes [bi] del otro),
podemos resumirlo en una matriz:

a11 ##a12 ##a13 ####a1n ##b1

a21 ##a22 ##a23 ####a2n ##b2 #


a ##a ##a ####a ##b ####
3n
3
31 32 33

!
!
!
! !

am1 ##am2 #am3 ####amn ##bm


Este arreglo es una matriz (arreglo rectangular de nmeros) aumentada y representa a un SELS
de una manera ms eficiente. Tenemos otras definiciones concernientes a esto:
Matriz de coeficientes:

a11 ##a12 ##a13 ####a1n

a21 ##a22 ##a23 ####a2n #


A = a31 ##a32 ##a33 ####a3n ####

!
! !
!

am1 ##am2 #am3 ####amn

Vector de incgnitas:

x1

x2#

x = x 3 ####
!

xn

Vector de trminos independientes:

b1

b2
b = b3 $$$$

bn

La matriz aumentada se denota A|b, siendo una unin de la matriz de coeficientes y el vector de
trminos independientes. La matriz A es de tamao u orden m x n: m renglones o ecuaciones y n
incgnitos o columnas. Siguiendo esta definicin, los vectores tanto de incgnitas como de
trminos independientes pueden expresarse como matrices de orden n x 1.
Una forma general para expresar un SELS es la siguiente: llllllllllllllll
Ax = b 1
Para resolver un sistema, se sustituye por otro ms sencillo que posea el mismo conjunto
solucin. Este se obtiene mediante operaciones elementales (OO.EE.) en los renglones (las
cuales obviamente no afectan el conjunto solucin):
1. Multiplicar una ecuacin por una constante diferente de cero.
2. Intercambiar dos ecuaciones (renglones).
3. Sumar un mltiplo de una ecuacin (rengln) a otra ecuacin (rengln).
Estas operaciones pueden ser vistas como equivalentes a las tcnicas usadas en el lgebra
bsica para resolver sistemas de ecuaciones [sustitucin, igualacin, eliminacin]
Clasificacin de Sistemas de Ecuaciones Lineales Simultneas por nmero de soluciones

Se habla ms adelante de las implicaciones de esta ecuacin con la multiplicacin matricial.


2

Donde el vector de trminos independientes tiene como elementos n ceros (vector nulo), este
sistema es homogneo y siempre tendr solucin. Si es determinado, tendr una solucin nica.
Indeterminado: infinidad de soluciones. En cambio, donde el vector de trminos independientes no
sea el vector nulo, el sistema puede o no tener soluciones; si no las tiene, es inconsistente y en
caso contrario es consistente. Por definicin, entonces, un sistema homogneo es siempre
consistente.
Para determinar de qu clase de SELS estamos hablando es necesario conocer el concepto del
rango r(A) y/o el de determinante, de los cuales se hablarn ms adelante.
Contamos, por ahora, con dos mtodos para resolver SELS:

Eliminacin Gaussiana
Mtodo de Gauss-Jordan

Necesitamos un concepto adicional:


Una matriz en la forma escalonada tiene las siguientes caractersticas:
1. El primer elemento de un rengln no nulo debe ser +1 (pivote).
2. Si hay renglones que constan de puros ceros, se agrupan en la parte inferior de la matriz.
3. Los elementos abajo del 1 principal son cero.
La matriz escalonada reducida tiene estas tres caractersticas y:
4. Los elementos arriba del 1 principal son 0. (pg. 8)
No es irrelevante notar que los elementos diferentes de cero en un rengln que no sean unos
principales en la matriz escalonada reducida, se denominan variables libres.
Al llegar a la matriz escalonada o la escalonada reducida de la matriz aumentada a travs de
OO.EE., ser mucho ms fcil resolver el sistema. Por eso explicamos los mtodos enumerados
ms arriba con un sencillo ejemplo
Sea A|b la matriz aumentada del SELS

A|b = 2 4
2 5

6
6

0 1 2
0 2 5

2x 4 y + 6z = 0
2x +5 y + 6z = 0
3 0 1 2
6 0 0 9

3
0

0 1 2
0 0 1

3
0

0
0

Se realizaron las operaciones elementales como sigue, para obtener la matriz escalonada en el
ltimo recuadro:
1) El primer rengln, para hacer que contuviera un uno principal, se dividi entre el elemento a11.
2) Se sumo -2 veces el primer rengln al segundo, para que abajo del primer uno principal
hubiera puros ceros.
3) Se divide el segundo rengln entre el elemento a22 para obtener la matriz escalonada.
Hasta aqu el mtodo es el mismo para cualquier matriz, ya sea que se resuelva por eliminacin
Gaussiana o por Gauss-Jordan. A partir de aqu difieren los mtodos:
Eliminacin Gaussiana:
La matriz escalonada puede escribirse como el sistema

2 y + 3z = 0
y

=0

Como sabemos que y = 0, al sustituir en la primera ecuacin, obtenemos: x = 3z


Esto significa que x puede tomar cualquier mltiplo de -3 para cualquier valor de z. Entonces la
solucin es:

x = 3t , y = 0,z = t

Donde t es un parmetro para la variable libre z. El mtodo usado aqu se llama retrosustitucin.
Gauss-Jordan:
3

La diferencia aqu es que se calculara la matriz escalonada reducida, as que a partir de la


escalonada:

A|b 1 2
0 1

3
0

0 1 0
0 0 1

0
0

3
0

Slo se le rest al primer rengln -2 veces el segundo. A partir de aqu podemos hallar la misma
solucin del otro mtodo por simple inspeccin.
La matriz escalonada nos proporciona una herramienta ms de anlisis: el rango. Lo definiremos
por ahora como el nmero de renglones con elementos diferentes de 0 en la matriz escalonada.
Por lo tanto: r(A) = 2 y r(A|b) = 2. Con ayuda de la tabla de arriba, podemos clasificar al sistema
como indeterminado pues n = 3 y 2<3. Lo que significa, como vimos en la solucin, que tenemos
infinidad de soluciones.

Ahora, la solucin puede expresarse como el vector x.

x =

3t
0
t

3
= 0 t

La manera de expresarlo aqu se llama la solucin general del sistema homogneo.


Cualquier solucin de un SELS puede expresarse como x = x p + x h . Donde el primer
elemento es la solucin particular del sistema y el segundo es la solucin general del sistema
homogneo.2 sta ltima depende solamente de la matriz de coeficientes A.
En un sistema homogneo, por definicin habr al menos una solucin, en la que x1, x2, , xn son
todas 0. Es decir, su solucin particular ser el vector nulo. A esta solucin se le llama solucin
trivial.
TEOREMA 1.2.1: Un sistema de ecuaciones lineales homogneo con ms incgnitas que
ecuaciones tiene infinidad de soluciones. pg. 18

n sistema tiene o una solucin


Ya que en un SELS homogneo tenemos que r(A) = r(A|b) ,=el
(determinado) o infinidad de soluciones. Si en una matriz de orden m x n, n > m, siempre
tendremos variables libres y por lo tanto ms que la solucin trivial.
MATRICES Y OPERACIONES CON MATRICES
Una manera de definir una matriz es como un arreglo rectangular de nmeros reales (pg. 23). El
orden o tamao de dicha matriz, como ya lo vimos es de m renglones y n columnas, o (m x n). La
matriz se denota con una letra mayscula y los elementos de la matriz con esa misma letra en
minscula (e.g. A =[aij] donde aij es el elemento en el rengln i y la columna j)Tambin una matriz
puede definirse como un conjunto ordenado de vectores rengln o vectores columna. Un vector
rengln (ri)ser una matriz de tamao (1 x n) y un vector columna (ci)de tamao (n x 1). As
cualquier vector se escribir con minscula testada.

a11 ##a12 ##a13 ####a1n

a21 ##a22 ##a23 ####a2n #


A = a31 ##a32 ##a33 ####a3n ####

am1 ##am2 #am3 ####amn

r 1 =

a11
a21
a31
!
an1

c 1 = a11 a12 a13

! a1n

Tambin se le llama solucin complementaria.


4

Surge el problema de desarrollar una especie de aritmtica matricial, el cual consiste en hallar qu
caractersticas deben satisfacer las matrices para ser comparadas y para que se interacte con
ellas.
Definicin: dos matrices son iguales si son del mismo tamao y sus elementos correspondientes
son iguales. Es decir, si A = [aij] y B = [bij] entonces son iguales si son del mismo orden y aij = bij
i, j. (pg. 25)

Operaciones con matrices:


SUMA
Definicin: Si A=B son del matrices del mismo tamao, entonces la suma A+B es la matriz que se
obtiene al sumar los elementos de B con los elementos correspondientes de A y la diferencia A-B
es la matriz que se obtiene al restar los elementos de B de los elementos correspondientes de A.
No es posible sumar o restar matrices de tamaos diferentes. (pg. 26)
PRODUCTO ESCALAR
Definicin: Si A es cualquier matriz y c es cualquier escalar, entonces el producto cA es la matriz
que se obtiene al multiplicar cada elemento de la matriz A por c. Se dice que la matriz cA es un
mltiplo escalar de A. (pg. 26)
COMBINACIN LINEAL
Una expresin de la forma c1 A1 + c2 A2 +!cn An donde c1, c2, , cn son coeficientes esclaras, se
denomina combinacin lineal de la matrices A1, A2, , An. En esta operacin solo se permite el
producto escalar y la suma. (pg. 27)
MULTIPLICACIN DE MATRICES
Definicin: Si A es una matriz m x r y B es una matriz r x n, entonces el producto AB es la matriz
m x n cuyos elementos se determinan como sigue. Para encontrar el elemento en el rengln i y en
la columna j de AB, se consideran nicamente el rengln i de la matriz A y la columna j de la matriz
B. Se multiplican entre s los elementos correspondientes del rengln y la columna mencionados y
luego se suman los productos resultantes. (pg. 27)
Para que la multiplicacin sea posible, conformable o bien, est definida, se requiere que el
nmero de columnas de A sea igual al nmero de renglones de B. Es decir, a diferencia de la
multiplicacin en el lgebra bsica, el producto matricial no es siempre conmutativo.

A
mxr

B
rxn

AB
mxn

Interiores
Exteriores
Para entender mejor la multiplicacin de matrices se introduce el concepto del producto punto o
escalar de vectores, que es bsicamente una suma de productos.Se multiplicarn dos vectores
con el mismo nmero de elementos y de tamaos conformables; es decir, un vector rengln y un
vector columna [(1xn)(nx1)=(1x1)]:

uv = u1 ,u2 ,,un

v1
n
v2 = u1v1 + u2v2 +"unvn = u j v j

j=1
!

vn

As, como el producto punto da lugar a un slo escalar (o a una matriz 1x1), cada elemento de la
multiplicacin matricial puede interpretarse como un producto punto.
p

A B = C = [C ij ] = ai1b1 j + ai2b2 j + aipbpj = aik bkj

(mxp) ( pxn)

(mxn)

k=1

Productos de matrices como combinaciones lineales: el producto es una combinacin lineal de las
matrices columna de A con los coeficientes que provienen del vector x. (pg. 31)
a11 ##a12 ##a13 ####a1n

a21 ##a22 ##a23 ####a2n #


A = a31 ##a32 ##a33 ####a3n ####

am1 ##am2 #am3 ####amn

x1

x2#

x = x 3 ####
!

xn

a
a11 x1 +$a12 x 2 ++a1n x n
11

a21
a x +$a x ++a2n x n $
Ax = 21 1 22 2
=
x
1

am1
am1 x1 +$am2 x 2 ++amn x n

12

a22
+ x2

am2

1n

a2n
+"+ x n

amn

La multiplicacin de matrices define de una manera ms adecuada un SELS de la forma Ax = b ,


donde Ax es el producto punto de la matriz de coeficientes y el vector de incgnitas (pg. 32).

a11 x1 +$a12 x 2 ++a1n x n a11 a12 ! a1n


a21 x1 +$a22 x 2 ++a2n x n $ a21 a22 ! a2n
A x =
=
"
"

"
am1 x1 +$am2 x 2 ++amn x n am1 am2 ! amn

x1

x2
=
"
x n

b1

b2

"
bm

TRANSPOSICIN
Definicin: Si A es cualquier matriz m x n, entonces la transpuesta de A, denotada por AT, se
define como la matriz n x m que resulta de intercambiar los renglones y las columnas de A; es
decir, la primera columna de AT es el primer rengln de A, la segunda columna de AT es el
segundo rengln de A, y as sucesivamente (pg. 33).

(AT )ij = (A) ji

Esto quiere decir que el elemento en el rengln i y la columna j de AT es el elemento en el rengln


j y la columna i de A.
TRAZA
Definicin: Si A es una matriz cuadrada (n x n), entonces la traza de A, denotada por tr(A), se
define como la uma de los elementos de la diagonal principal de A. La traza de A no est definida
si A no es una matriz cuadrada (pg. 34).
n

tr( A ) = aii
nxn

i=1

Reglas de la aritmtica de las matrices


Conceptos relevantes:
Matriz nula o matriz cero. Una matriz en la que todos sus elementos son 0. (A)ij = [aij]= 0 para
toda i, j.
Es importante notar que algunas reglas de la aritmtica no son aplicables a la aritmtica matricial.
En especial estas reglas no se cumplen para las matrices:
Si ab=ac y a0, entonces b=c.
Si ad=0, entonces a o d (o ambos) debe ser cero (pp. 41)
Matriz cuadrada. Una matriz de orden n x n, es decir, que tiene la misma cantidad de renglones
que de columnas. El conjunto de elementos aij donde i=j se denomina la diagonal principal.

a
a
11 12
a21 a22

Matriz identidad. Matrices cuadradas que tienen unos en la diagonal principal y ceros fuera de
ella. Se denota In donde n es ele tamao de la matriz.

1 0 0
I3 = 0 1 0
0 0 1

TEOREMA 1.4.3: Si R es la forma escalonada reducida de una matriz(A n x n, entonces o R tiene


un rengln de ceros o es la matriz identidad In (pg. 42).
Invertibilidad de matrices
Definicin: Si A es una matriz cuadrada, y si se puede encontrar una matriz B del mismo tamao
tal que AB=BA=I, entonces se dice que A es invertible y B se denomina la inversa (nica) de A. Si
no es posible encontrar dicha matriz B, entonces se dice que A es singular. (pg. 43)
La inversa tiene la funcin del recproco en aritmtica matricial. Pues da como resultado el neutro
multiplicativo.
TEOREMA 1.4.5. : La matriz a

b es invertible si ad-bc 0, y
c d

d
b

1
d b = ad bc
ad bc
A1 =

ad bc c a
c
a
ad bc ad bc

(pg. 44)

Este teorema solamente aplica para las matrices 2x2 y tiene que ver con el concepto de
determinante, menores y cofactores, analizados posteriormente.

Propiedades de la aritmtica matricial (asumimos que las operaciones estn definidas)


Ley conmutativa de la adicin
A+ B = B + A
Ley asociativa de la adicin
A +(B + C ) = (A + B)+ C

A(BC ) = (AB)C
A(B C ) = AB AC
(B C ) = B C

Ley asociativa de la multiplicacin


Ley distributiva por la izquierda

(BC ) = ( B)C
(BC ) = ( B)C = B C
A = A
AI = A IA = A
A =
A0 = I
An = A A A A A
An = (A1 )n = (An )1
Ar A s = Ar+s
(Ar )s = Ars
1 1
A
k
(A1 )1 = A
(kA)1 =

(AT )1 = (A1 )T
1

(AB) = B A
(AB)T = B T AT

El producto de cualquier nmero de matrices invertibles es invertible, y la


inversa del producto es el producto de las inversas en orden invertido. (pp. 44)
La transpuesta de un producto de cualquier nmero de matrices es igual al
producto de sus transpuestas en orden invertido (pp. 47)

T )T = A
(A

(A + B)T = AT + B T
(kA)T = k(AT )
Mtodos para determinar la matriz inversa
1. Operaciones Elementales
2. Matriz Adjunta
3. Desarrollo por Cofactores
Nos enfocaremos por ahora solamente en el primer mtodo, pero para ello necesitamos conocer
el siguiente concepto:
Matriz elemental
Definicin: Una matriz n x n se denomina una matriz elemental si se puede obtener a partir de la
matriz identidad efectuando una sola operacin elemental en los renglones. () Si la matriz
elemental E resulta de la ejecucin de ciertas operaciones en los renglones de Im y si A es una
matriz m x n, entonces el producto EA es la matriz que se obtiene cuando esta misma operacin
en los renglones se efecta en A (pg. 51 y 52).
8

Esto implica que pueden hacerse las operaciones inversas a las hechas para obtener E, para
regresar a Im.
Si suponemos que la forma escalonada reducida de A en una matriz cuadrada es la identidad,
esta matriz se podr expresar como un producto de matrices elementales, o ms bien, que a
travs de una serie de OO.EE. en los renglones fue posible llegar a la matriz identidad. Es decir:

Ek !E2E1 A = In
Esto, a la vez, implica que como la matriz A es invertible, la inversa puede expresarse as:

A1 = Ek !E2E1In
Entonces, la sucesin de operaciones en los renglones que reduce A a In tambin reduce In a A-1.
Para determinar la inversa de una matriz invertible A, es necesario encontrar una sucesin de
operaciones elementales en los renglones que reduzca A a la matriz identidad y luego efectuar la
misma sucesin de operaciones en In para obtener A-1 (pg. 55).

(A|In ) (In | A1 )
Ejemplo:

1
1 3
2 3
1 0
2 | 2
|
4 1 0 1
1

0
1 4


1
1 3

2 |
2

1 0 7
1
4
4
2
0

1 0

4
0

1
3

14
A 14
2
1

7
7
1

1
2 | 2
2
1
7


1
3
1 0
14
14

|
0 1
1
2
1

7
7
7
0

TEOREMA 1.6.2: Si A es una matriz invertible n x n, entonces para toda matriz b n x 1, el sistema
de ecuaciones Ax = b tiene exactamente una solucin (pg. 61).
Y la solucin sera, al premultiplicar Ax = b por A-1:

A1 Ax = A1 b In x = A1 b x = A1 b
Proposiciones Equivalentes (primer parcial)3
Si A es n x n
a. A es no singular o invertible.
b. Ax = 0 es determinado y tiene solo la solucin trivial.
c. La forma escalonada reducida de A es In.
d. Ax = b es consistente determinado para toda b de tamao nx1
e. A-1 puede expresarse como producto de matrices elementales

Matrices Diagonales Triangulares y Simtricas


Matriz diagonal: Una matriz cuadrada en la que todos los elementos fuera de la diagonal principal
son cero.

A = aij |aij = 0i j

La matriz es invertible si todos los elementos en su diagonal principal son diferentes de cero (p.
68). Tambin las potencias de una matriz diagonal son fciles de calcular:

3Todas

sern verdaderas o todas falsas segn sea el caso. Con demostrar una, las dems quedan demostradas.
9

D=

d1
0
"
0

d2 ! 0

"
"
0 ! dn
0 !

D1 =

1
d1

1
d2

"

"

! 0

"
1
!
dn
!

dk
1
0
Dk =
"
0

0
d2k
"
0

! 0

"
! dnk
!

Matrices triangulares: Una matriz cuadrada en la que todos los elementos arriba/abajo de la
diagonal principal son cero. Si los elementos cero estn arriba es triangular inferior y si estn
abajo es triangular superior.

A = aij |aij = 0i > j

A = aij |aij = 0i < j

TEOREMA 1.7.1: a) La transpuesta de una matriz triangular inferior es triangular superior, y la


transpuesta de una matriz triangular superior es triangular inferior.
b) El producto de matrices triangulares inferiores es triangular inferior, y el producto de matrices
triangulares superiores es triangular superior.
c) La matriz triangular es invertible si y slo si todos sus elementos diagonales son diferentes de 0.
d) La inversa de una matriz triangular inferior invertible es triangular inferior, y la inversa de una
matriz triangular superior invertible es triangular superior. (pg. 70)
Matrices simtricas: Una matriz cuadrada es simtrica si su transpuesta es igual a la original.

A = AT

TEOREMA 1.7.3: Si A es una matriz simtrica invertible, entonces A-1 es simtrica (pg. 72)
Utilizando la propiedad (A1 )T = (AT )1 y como A = AT , entonces (A1 )T = A1
SEGUNDO PARCIAL

Determinantes
La funcin determinante asocia un nmero real a una matriz cuadrada (pg 83), el cual es un
escalar nico. El determinante se puede denotar det(A) o |A|. El concepto surge, de solucionar
SELS de matrices n x n.
Una definicin ms formal del determinante implica hablar de sumas de producto con signo,de
permutaciones pares e impares, determinadas al escoger un elemento de cada rengln y otro de
cada columna. Para calcular el determinante de una matriz 2x2:

a b
c d

Se escoge un solo elemento de cada rengln y otro de cada columna (a,d o c,b), y la
multiplicacin es la permutacin. Para saber si es par o impar, y por ende, su signo,
contamos el nmero de violaciones que tiene. Si hay un nmero par de violaciones el signo
es positivo y en caso contrario negativo.
Las
violaciones se cuentan a partir de la localizacin del trmino en la matriz. Una no+ad bc
11 22
12 21 violacin requiere que se respete el orden en el nmero del rengln y columna. Es por eso
que ad no tiene violaciones, pues tanto renglones como columnas estn en orden ascendente (y
por ende su signo es positivo). En cambio bc tiene una violacin, porque las columnas estn en orden
descendente (entonces, signo negativo).

Sin embargo, este mtodo es excesivamente tedioso y por ello veremos los siguientes:
1. Mtodo de Sarrus (solo para matrices cuadradas de orden 2 y 3)
2. Expansin por cofactores
3. Operaciones Elementales

10

1. Mtodo de Sarrus
Una manera de resumir el mtodo de las permutaciones visto primeramente. En una matriz n x n
habr n! sumandos, la mitad sern positivos y la otra mitad negativos.
Cada sumando es el resultado de la multiplicacin de n factores. As en una matriz 3x3:

a b c
d e f
a b c
a b c a b

A= d e f
g h i
A = d e f d e
A =

g h i
g h i g h
a b c
d e f

Los sumandos positivos se obtendrn multiplicando los elementos


de la matriz diagonalmente de
izquierda a derecha abajo y los sumandos negativos de derecha a izquierda arriba. Para las tres
maneras expuestas arriba tenemos el mismo resultado:
|A| = aei+bfg+dhc - (gec+ahf+dbi)
Ejemplo:

a b c 2 3 4

A = d e f = 5 6 7 = (2)(6)(1)+(3)(7)(8)+(5)(9)(4)((8)(6)(4)+(9)(7)(2)+(5)(3)(1))
= 360 333 = 27
g h i 8 9 1
Slo es conveniente utilizar este mtodo para matrices de orden 3 o menor. Pues al intentar
hacerlo con matrices de 4 x 4, por ejemplo, tendramos que calcular 4! = 24 sumandos.
Para calcular el determinante en matrices de orden mayor utilizaremos un mtodo recursivo, en el
cual el determinante de una matriz n x n se define en trminos de ciertas matrices
(n-1)x(n-1) (pg 84)
2. Desarrollo por cofactores
Primero necesitamos los siguientes conceptos:
Definicin: Si A es una matriz cuadrada, entonces el menor del elemento aij se denota por Mij y
se define como el determinantes de la submatriz que queda despus de quitar el i-simo rengln y
la j-sima columna de A. El nmero [(-1)i+j Mij] se denota por Cij y se denomina el cofactor del
elemento aij (pg. 84).
El determinante es la suma de los elementos de un rengln o columna de la matriz, cada uno
multiplicado por su cofactor. As A = a11C11 + a12C12 +a1nC1n es la frmula para calcular el
determinante a lo largo del primer rengln. De una forma ms general (pg. 86):
n

Rengln i

Ejemplo:

A = ai1C i1 + ai2C i2 +ainC in = aijC ij

Columna j

j=1

A = a1 jC1 j + a2 jC2 j +anjC nj = aijC ij


i=1

5 4 2 1
A = 2 3 1 2 = 5M11 4M12 + 2C13 C14 = 5C11 + 4C12 + 2C13 + C14
5 7 3 9
1 2 1 4

5 4 2 1
3 1 2
2
3
1
2
M11 =
= 7 3 9 = 1
5 7 3 9
2 1 4
1 2 1 4
C11 = (1)1+1 M11 = 1

2 1 2
M12 = 5 3 9 = 7
1 1 4
C12 = (1)1+2 M12 = 7

11

2 3 2
M13 = 5 7 9 = 33
1 2 4
C13 = (1)1+3 M13 = 33

2 3 1
M14 = 5 7 3 = 5
1 2 1
C14 = (1)1+4 M14 = 5

A = 5(1)+ 4(7)+ 2(33)+5 = 38

3. Operaciones Elementales
Antes de explicar el mtodo, es imperativo conocer antes algunos conceptos, propiedades e
implicaciones del determinante y las operaciones elementales sobre este.
TEOREMA 2.2.1 y 2.2.2 : Sea A una matriz cuadrada. Entonces det(A) = det(AT). Adems, si A
tiene un rengln de ceros o una columna de ceros det(A)= 0.
TEOREMA 2.2.3: Sea A una matriz n x n:
a) Si B es la matriz que se obtiene cuando un solo rengln o una sola columna de A se multiplica
por un escalar k, entonces det(B)= k det(A).
b) Si B es la matriz que se obtiene cuando se intercambian dos renglones o dos columnas de A,
entonces det(B) = -det(A).
c) Si B es la matriz que se obtiene cuando un mltiplo de un rengln (columna) de A se suma a
otro rengln (columna), entonces det(B)=det(A). (pg. 96)

TEOREMA 2.1.3: Si A es una matriz triangular n x n, entonces det(A) es el producto de los


elementos de a diagonal principal de la matriz; es decir det(A)=a11a22ann
Bsicamente el mtodo consiste en realizar operaciones elementales y hacer uso de las
propiedades descritas arriba para reducir la matriz original a 1) una matriz triangular o 2) una
matriz con 1s escalonados.
En el primer caso, al reducir la matriz a una triangular. Tan solo bastar hacer uso del teorema
2.1.3. para calcular el determinante. En el segundo caso, se aplicar el mtodo de desarrollo por
cofactores. Como todos los factores menos uno en la columna son 0, slo bastar calcular un
cofactor. Se dar un ejemplo con ambas variaciones:

Ejemplo:

2 1 4 3
A = 1 2 3 4 = (1)
2 3 4 5
3 4 5 6

1 2 3 4
2 1 4 3 = (1)
2 3 4 5
3 4 5 6

1 2 3 4
0 3 2 5
0 7 10 3
0 2 4 18

Se intercambi el primer rengln por el segundo, por eso la multiplicacin por -1. Luego se realizaron sumas
de mltiplos de otros renglones, operaciones que no afectan al determinante.

Hasta aqu el procedimiento es igual. Sin embargo 1):


1 2
0
1 2 3 4
A = (1) 0 3 2 5 = (1)(3)
0
0 7 10 3
0 2 4 18
0

1
0
0

3
2

3
16

3
8

4
5
3
16
26 = (1)(3)( )
3

3
44
3

1 2
0

3 4
2 5

3 3
16
13 = (1)(3)( )(19) = 304
3
1
8
57
0
3
12

Y por su parte, con 2)


1 2 3 4
3 2 5
A = (1) 0 3 2 5 = (1)(1) 7 10 3 = 1[(54012140(100 252 36))]= (304) = 304
0 7 10 3
2 4 18
0 2 4 18

Otras herramientas derivadas de los determinantes


Se complementa el entendimiento de determinantes con un listado de teoremas.
Definicin: Si A es cualquier matriz n x n y Cij es el cofactor de aij, entonces la matriz
C
C12 ! C1n
11
C21 C22 ! C2n

"
"
"
C n1 C n2 ! C nn

se denomina la matriz de cofactores de A. La transpuesta de esta matriz se denomina la


adjunta de A o adj(A) (pg. 88).
Esta definicin nos ayuda a derivar una frmula para conocer la inversa de una matriz, o si la
matriz misma es invrertible.
TEOREMA 2.1.2: Si A es una matriz invertible, entonces A1 = 1 adj(A) (pg. 89)

Regla de Cramer

ax + by = e
af ce
e by
x=
y=
&

cx + dy = f
ad bc
a

Pero tambin pueden expresarse como

x=

A1
A

y=

x=
A2

de bf
ad bc

Por el mtodo de sustitucin se


obtienen ests soluciones al SELS 2x2

donde A1 y A2 son las matriz que se obtienen al

b
e
b
=
1 =

sustituir los elementos de la j-sima columna de A con los elementos del vector
b2 f (pg 92)
As en este caso:

A= a b
c d

e
A1 =
f

b
d

a
A2 =
b

e
f

Esto es aplicable para cualquier sistema de ecuaciones que tenga n ecuaciones con n incgnitas
tal que el determinante de la matriz sea 0 (y por lo tanto tenga una solucin
nica).

det(kA) = k n det(A)

Por ejemplo:

ka11

ka12 ka13

ka21 ka22 ka23 = k


ka31 ka32 ka33

a11
3

a12 a13

a21 a22 a23


a31 a32 a33

(pg. 103)

TEOREMA 2.3.3: Una matriz cuadrada A es invertible si y slo si det(A) 0. (pg 105)
TEOREMA 2.3.4: Si A y B son matrices cuadradas del mismo orden: det(AB)=det(A)det(B) (p. 106)
TEOREMA 2.3.5: SI A es invertible, entonces

A1 =

1
A

(pg. 107)

Proposiciones Equivalentes (ampliadas) Si A es n x n


13

a.
b.
c.
d.
e.
f.

A es no singular o invertible.
Ax = 0 es determinado y tiene solo la solucin trivial.
La forma escalonada reducida de A es In.
Ax = b es consistente determinado para toda b de tamao nx1
A-1 puede expresarse como producto de matrices elementales
det(A) 0 (pg. 109)

Espacios vectoriales generales


Es de gran utilidad saber este concepto, pues da una interpretacin geomtrica que ayuda a
resolver muchos problemas. En especial, para nuestro curso es adecuado estudiarlo para
comprender ms la naturaleza de los SELS4 y las matrices en general:
Definicin: Sea V un conjunto arbitrario de objetos sobre el que estn definidas dos operaciones:
la adicin y la multiplicacin por escalares. Por adicin se entiende una regla que asocia cada par
de objetos u y v en V un objeto u+ v, denominado la suma de u y v; por multiplicacin escalar
se entiende una regla que asocia cada escalar k, y con cada objeto u en V un objeto ku,
denominado el mltiplo escalar de u por k. Si los objetos u, v y w en V y los escalares k y m
satisfacen los siguientes axiomas, entonces V se denomina espacio vectorial y objetos en V se
denominan vectores.
1. Si u y v son objetos en V, entonces u y v est en V.
2. u + v = v + u
3. u + (v + w) = (u + v) + w
4. Existe un objeto 0 en V, denominado el vector cero de V, tal que 0 + u = u + 0 = u para todo u
5. Para todo u en V, existe un objeto -u, denominado el negativo de u, tal que u+(-u) = (-u)+u= 0
6. Si k es cualquier escalar y u es cualquier objeto en V, entonces ku est en V.
7. k(u + v) = ku + kv
8. (k +m)u = ku + mu
9. k(mu) = (kmu)
(pg. 222)
10. 1u = u
Esta definicin tiene algunas implicaciones relevantes. Primeramente, podemos interpretar de otra
manera las operaciones definidas en un espacio vectorial: las operaciones son cerradas tanto a la
suma como a la multiplicacin escalar. Es decir, las caractersticas de un objeto o vector en un
espacio, despus de aplicarles estas operaciones, permanecen constantes.
Otra implicacin tiene que ver justamente con la definicin misma de vector: puntos en el plano;
conjunto de escalares ordenados o, ms formalmente, segmento de recta dirigido; es decir, que
posee una norma o mdulo (magnitud) con ngulo (direccin). Bajo el esquema de los espacios
vectoriales, sin embargo, cualquier conjunto de objetos que cumpla con los axiomas descritos
arriba, podr ser llamado vector.
Son de especial inters los espacios vectoriales en Rn. En particular, por la posibilidad de
representacin geomtrica, los casos ms importantes sern R (los nmero reales), R2 (vectores
en el plano) y R3 (vectores en el espacio tridimensional). Tambin podemos encontrar espacios
vectoriales formados por matrices o polinomios.

Combinacin lineal
Un concepto fundamental para el lgebra lineal y para el anlisis de los espacios vectoriales es la
combinacin lineal. A pesar de haberla definido anteriormente, es til definirla en profundidad:

14

Definicin: Un vector w se denomina combinacin lineal de los vectores v1,v2,,vr si se puede


expresar de la forma w = c v + c v +!+ c v donde c1,c2,,cr son escalares. (pg. 234)
1 1

2 2

Otra forma de definirlo:


Sea S = {v1,v2,,vr}, Si v = c1v1+c2v2++crvr, entonces v es combinacin lineal de S.
Ejemplo: dado S, v1 es combinacin lineal de los otros dos vectores?

S = (1,3,1),(0,1,2),(1,0,5)

v1 = c2 v2 + c3 v3 ?

1
0
1

Esto da origen a un SELS lineal, con las incgnitas siendo las constantes.
3 = c2 1 + c3 0 Si el sistema tiene solucin, entonces podremos afirmar la existencia de C.L.
1
2
5

c3 = 1;c2 = 3;2c2 5c3 = 5 , el sistema es consistente determinado y v = 3v +1v


1
2
3

Como

Espacios solucin de sistemas homogneos:


Cada vector x que satisface la ecuacin Ax=b se denomina vector solucin del sistema. Al
conjunto de vectores solucin que conforman un espacio vectorial se le denomina espacio
solucin. De hecho, al resolver un SELS Ax=b, nos estamos preguntando si hay una
combinacin lineal de b compuesta por cada variable xi y los vectores columna de A.

b = a1 x1 + a2 x 2 +!ar x r
Espacio generado
Si v1,v2,,vr son vectores en un espacio vectorial V, entonces por lo general algunos de los
vectores en V pueden ser combinaciones lineales de v1,v2,,vr y otros no. Si se construye un
conjunto W que conste de todos los vectores que pueden expresarse como combinaciones
lineales de v1,v2,,vr.. Tenemos a v1,v2,,vr como conjunto generador
Definicin: Si S = {v1,v2,,vr} es un conjunto de vectores en un espacio vectorial V, entonces el
subespecio W de V que consta de todas las combinaciones lineales de los vectores en S se
denomina el espacio generado por v1,v2,,vr y se dice que los vectores v1,v2,,vr generan a W
(pg. 236)
Otra forma un tanto ms simple de definirlo:
Sea S = {v1,v2,,vr} contenido en V. S es un conjunto generador de V si todo vector en V es
combinacin lineal de S. En ese caso S genera a V.
Ejemplos:

2
a)S = (1,0),(0,1 ! se podr obtener el vector que sea a partir de la combinacin lineal de S?

w
1
0 w1
1
2
w=
! c1
c = w ;c = w w = w v + w v
+ c2
=
1
1 2
2
1 1
2 2
w2
0
1 w2
b)

3
2
P = (x 2 2x),(x 3 8),(x 3 x 2 ),(x 2 4) P3 tomando en cuenta que P3(x) = a3 x + a2 x + a1 x + a0

c1

0
1
2
0

+ c2

1
0
0
8

+ c3

1
1
0
0

+ c4

0
1
0
4

p1

p2
=p
p3
p4

lo que da lugar a la matriz de coeficientes:

0 1 1 0
1 0 1 1
2 0 0 0
0 8 0 4

como el determinante de esta matriz es diferente de 0 (comprobar), el sistema tiene una nica solucin y
por tanto es conjunto generador.
15

Independencia Lineal
Definicin: Si S = {v1,v2,,vr} es un conjunto no vaco de vectores, entoonces la ecuacin vectorial

c1v1+c2v2++crvr= 0 tiene al menos una solucin, a saber, c1 = 0, c2 = 0,, cr = 0. Si sta es la


nica solucin, entonces S se denomina conjunto linealmente independiente (LI). Si existen
otras soluciones, entonces S se denomina conjunto linealmente dependiente (LD) (pg. 241)
Esto quiere decir que un conjunto de vectores es linealmente dependiente si hay combinacin
lineal entre los vectores del conjunto, ante soluciones no triviales del sistema homogneo.

2 1 3 0 1 0
Ejemplo: S =

,
,
M2x 2

0 1 2 1 2 0

2 1
3 0
1 0 0 0

c1
+ c2
+ c3
=
A|b =

0 1
2 1
2 0 0 0

2
1
0
1

3
0
2
1

1
0
2
0

0
0
0
0

Este SELS tiene solo la solucin trivial y por lo tanto S es Linealmente Independiente.

La dependencia lineal nos muestra que los vectores dependen de s de alguna manera porque:
TEOREMA 5.3.1: Un conjunto S con dos o ms vectores es:
a) Linealmente dependiente si y slo si al menos uno de los vectores en S puede expresarse
como una combinacin lineal de los dems vectores en S.
b) Linealmente independiente si y slo si ningn vector en S se puede expresar como un
combinacin lineal de los dems vectores en S. (pg. 243)
Otros teoremas de dependencia e independencia lineal:
TEOREMA 5.3.2:
a) Un conjunto finito de vectores que contiene al vector cero es linealmente dependiente.
b) Un conjunto con exactamente dos vectores es linealmente independiente si y solo si ninguno
de los vectores es un mltiplo escalara del otro. (pg. 244)
Colinealidad y coplanaridad: Geomtricamente en R2 y R3 un conjunto de dos vectores que es
colineal es linearmente dependiente. En R3 un conjunto de tres vectores que sea coplanar es
linealmente dependiente. (pg. 244)
TEOREMA 5.3.3: Sea S = {v1,v2,,vr} un conjunto de vectores en Rn. Si r > n, entonces S es LD.
Esto nos da una herramienta prctica para ver si los vectores en Rn son LI o LD.
Base
En un sistema de coordenadas, se tienen los ejes y las escalas. En un plano cartesiano
convencional, por ejemplo, el eje x es horizontal (0 de inclinacin )y es perpendicular al eje y.
Adems, regularmente la escala de este plano es de unidades. Si definimos a los vectores
bsicos como los que especifican un sistema de coordenadas (pg. 251), en este caso
tendramos vectores de norma o longitud 1 y de direccin positivo con 0 grados de inclinacin.
Definicin: Si V es cualquier espacio vectorial y S = {v1,v2,,vn} es un conjunto de vectores en
V, entonces S se denomina una base para V si se cumplen las dos condiciones siguientes:
a) S es linealmente independiente.
b) S genera a V (conjunto generador). (pg. 251)
TEOREMA 5.4.1: Si S = {v1,v2,,vn} es una base para el espacio vectorial V, entonces todo vector
v en V se puede expresas en forma nica como v = c1v1+c2v2++cnvn (pg. 252)

16

Coordenadas respecto a una base


Si S = {v1,v2,,vn} es una base para un espacio vectorial V y v = c1v1+c2v2++cnvn} es la
expresin que describe un vector en trminos de la base S, entonces los escalares c1, c2,cn se
denominan las coordenadas del vector v respecto a la base S. El vector de coordenadas ser
(v)s=(c1,c2,cn)
(pg. 253)
Definicin: Se dice que un espacio vectorial V diferente de cero se denomina de dimensin
finita si contiene un conjunto finito de vectores {v1,v2,,vn} que forma una base. Si no existe tal
conjunto, V se denomina de dimensin infinita. Adems, se consider que el espacio vectorial
cero es de dimensin finita. (pg. 257)
TEOREMA 5.4.2: Sea V un espacio vectorial de dimensin finita y sea {v1,v2,,vn} cualquier base:
a) Si un conjunto tiene ms de n vectores, entonces es linealmente dependiente.
b) SI un conjunto tiene menos de n vectores, entonces no genera a V. (pg. 257)
Esto sugiere que una base tiene que tener a fuerza n vectores. Y la n indica la dimensin del
espacio que se est generando. As, para generar Rn necesitamos n vectores. El nmero de
vectores en una base es igual a la dimensin. Esto se deduce del hecho de que R3 es
tridimiensional, R2 bidimensional y R unidimensional.
Definicin: La dimensin de un espacio vectorial V de dimensin finita, denotada por dim(V), se
define como el nmero de vectores que hay en una base para V. Adems, por definicin, el
espacio vectorial cero tiene dimensin cero. (pg. 258)
A partir de esto, podemos sacar ests conclusiones:
Ejemplo: Demostrar si S es base para R5.

S =

1
2
1
3
4

c1

1
2
1
3
4

+ c2

0
1
3
2
3




,



0
1
3
2
3

0
0
2
1
5

+ c3

0
0
0
2
3

0
0
2
1
5

1 0 0 0 0
2 1 0 0 0
1 3 2 0 0
3 2 1 2 0

4 3 5 3 2

dim(Rn ) = n
dim(Pn ) = n +1
dim(Mmn ) = mn

0
0
0
0
2

+ c4


5
!

0
0
0
2
3

+ c5

0
0
0
0
2

w1

w2

w3
w4

w5

1 0 0 0 0
2 1 0 0 0
1 3 2 0 0 = 8es*base.
3 2 1 2 0
4 3 5 3 2

Ntese que se hace uso del determinante para determinar tanto independencia lineal como la
generacin del espacio. Esto es porque se requiere una solucin nica tanto para el vector 0 (LI)
como para el vector w (conjunto generador).
17

Espacio rengln, espacio columna y espacio nulo. Rango y nulidad.


Relacin entre las soluciones de un sistema lineal y las propiedades de su matriz de coeficientes.
Para entenderlo, enumeraremos una serie de definiciones para luego ilustrar con un ejemplo:
Definicin: Si A es una matriz m x n, entonces el subespacio de Rn generado por los vectores
rengln de A se denomina el espacio rengln de A , y el subespacio de Rn generado por los
vectores columna de A se denomina el espacio columna de A. El espacio solucin del sistema de
ecuaciones homogneo Ax=0, que es un subespacio de Rn, se denomina el espacio nulo de A
(pg. 266)

Definicin: Las operaciones elementales en los renglones no cambian el espacio nulo de una
matriz (pg. 270)
Definicin: Las operaciones elementales en los renglones no cambian el espacio rengln de una
matriz (pg. 270)
TEOREMA 5.5.6: Si una matriz R est en forma escalonada, entonces los vectores rengln con
los 1 principales (es decir, los vectores rengln diferentes de cero) forman una base para el
espacio rengln de R, y los vectores columna con los 1 principales de los vectores rengln forman
una base para el espacio columna de R. (pg. 272)
Supongamos una matriz A de orden 5x4.

A=

1
0
3
3
2
c1

r
1 3
3 1 3 1

1 1 0 r2 0 1
0 6 1 r3 0 0
0 0
4 2 1 r
4

0 0
0 4 2
r5
c2 c3 c 4 c5

1
1
0
0
0

3
0
1
0
0

A = r1 r2 r3 r4 r5 ! 4

A = c1 c2 c3 c4 !5

Se aplicaron operaciones elementales en la matriz A para llegar a la matriz escalonada R. Por el


teorema 5.5.6, sabemos que el espacio rengln ser generado por los vectores rengln r1, r2 y r3.
el espacio columna por los vectores columna c1, c2 y c4 . Adems podemos deducir que el rango
de R determinara la dimensin de los espacios columna y rengln. Pues la cantidad de unos
principales es la misma del modo que se vea y por lo tanto tambin el nmero de vectores en la
base para dichos espacios.
Es importante notar que usamos las operaciones elementales para hallar la localizacin de la base
para los espacios. Pero los vectores que formaran la base son los de la matriz original. As:

Espacio(rengln(de(A:((E1 = gen

Espacio(columna(de(A:((E2 = gen

r1 r2 r3

c1

c2 c 4

= gen

(1

gen

3 1 3

1
0
3
3
2

) (0
3
1
0
4
0

1 1 0

3
0
1
1
2

) ( 3

0 6 1

Podemos ver a la matriz como un arreglo de 5 vectores rengln ri (con 4 elementos c/u) o como
un arreglo de 4 vectores columna ci (con 5 elementos c/u) [ver imagen de la derecha]. As, los
vectores rengln podrn estar a lo sumo en R4, por su nmero de elementos y los vectores
18

columna en R5 por la misma razn. De esta manera, lo mximo que pueden aspirar generar los
vectores de la matriz es R4. O generalizando:
Si A es una matriz m x n, entonces los vectores rengln estn en Rn y los vectores columna
estn en Rm. Esto implica que el espacio rengln de A es a lo sumo de dimensin n y el espacio
columna de A es a lo sumo de dimensin m. Como los espacios rengln y columna tienen la
misma dimensin (el rango de A), se debe concluir que si mn, entonces el rango de A es a lo
sumo el menor de los valores de m y n. (pg. 283)
Al seguir resolviendo para obtener las soluciones del SELS homogneo, obtenemos la matriz
escalonada reducida:

1
0
0
0
0

0 2 0
1 1 0
0 0 1
0 0 0

0 0 0

x =

2
1
1
0

La solucin general del sistema homogneo

(solucin complementaria) nos proporcionar la

base para el espacio nulo, as como su


t
$$$[sea$x
=
t
]

3
dimensin. Esto aplica por igual para SELS no

homogneos.Por esto, en un SELS homogneo

con solo la solucin trivial (o un SELS no


homogneo con solo solucin particular) tendr un espacio solucin de dimensin cero.

Se enlistan algunas definiciones formalmente que fueron probadas en este ejemplo:


Definicin: Si A es cualquier matriz, entonces el espacio rengln y el espacio columna de A tienen
la misma dimensin. (pg. 279)
Definicin: La dimensin comn del espacio rengln y del espacio columna de una matriz A se
denomina rango de A; la dimensin del espacio nulo se denomina la nulidad de A (pg. 280)
Definicin: Si A es cualquier matriz, entonces r(A) = r(AT) (pg. 281)
(El rango tambin puede verse como la mxima cantidad de vectores linealmente independientes
en una matriz)
Los siguientes teoremas son importante para la determinacin del rango y la unidad:
TEOREMA 5.6.3: Teorema de la dimensin para matrices
Si A es una matriz con n columnas, entonces: r(A) + nul(A) = n (pg. 281)
TEOREMA 5.6.4: Si A es una matriz m x n, entonces (pg. 282)
a) El rango de A es el nmero de variables principales en la solucin del sistema homogneo.
b) La nulidad de A es el nmero de parmetros que hay en la solucin del sistema homogneo.
Las implicaciones de todo lo expuesto aqu sobre los SELS se pueden dividir en dos partes, los
efectos 1) en matrices m x n y 2) en matrices cuadradas:
1)
TEOREMA 5.5.1: Un sistema de ecuaciones lineales Ax = b es consistente si y slo si b est en el
espacio columna de A (pg. 267)
Esto es porque la solucin de un SELS puede expresarse como combinacin lineal de los
vectores columna de la matriz de coeficientes; por ello, la base puede generar esa solucin.
TEOREMA 5.6.6: Teniendo un SELS m x n, las siguientes son proposiciones equivalentes:
a) Ax = b es consistente para toda matriz b m x 1.
b) Los vectores columna de A generan Rm.
c) rango de A es m. (pg. 284)
19

Esto es esencialmente porque los vectores columna de A tienen que combinarse linealmente para
dar lugar a cualquier vector de m elementos. Por eso generaran a Rm y su rango ser m.
TEOREMA 5.6.7: Si Ax = b es un sistema lineal consistente de m ecuaciones con n incgnitas y
si A es de rango r, entonces la solucin general del sistema contiene n-r parmetros.
Estos ltimos teoremas nos llevan a definir dos tipos de sistemas:
Sistema sobredeterminado: donde hay ms ecuaciones que incgnitas (m > n). Como el rango
mximo al que puede aspirar un sistema como este es n, no podr generar a Rm y por lo tanto no
puede ser consistente para cada b posible.
Sistema subdeterminado: donde hay ms incgnitas que ecuaciones (m < n). Esto implica que el
rango mximo que podra tener el sistema ser m, y la nulidad o los parmetros ser al menos
uno. Esto significa que un sistema subdeterminado consistente tiene infinidad de soluciones.
2) Se amplan las proposiciones equivalentes vistas anteriormente:
Proposiciones Equivalentes
Si A es n x n y si TA: Rn > Rn es la multiplicacin por A:
a. A es no singular o invertible.
b. Ax = 0 es determinado y tiene solo la solucin trivial.
c. La forma escalonada reducida de A es In.
d. Ax = b es consistente determinado para toda b de tamao nx1
e. A-1 puede expresarse como producto de matrices elementales
f. det(A) 0
g. El recorrido de TA es Rn.
h. TA es uno a uno
i. Los vectores columna de A son linealmente independientes.
j. Los vectores rengln de A son linealmente independientes.
k. Los vectores columna de A generan a Rn.
l. Los vectores rengln de A generan a Rn.
m. Los vectores columna de A generan una base para Rn.
n. Los vectores rengn de A generan una base para Rn.
o. El rango de A es n.
p. La nulidad de A es 0
q. =0 no es un eigenvalor de A5. (pg. 366)

Eigenvalores, eigenvectores
Al multiplicar una matriz por un vector, podemos hallar una relacin geomtrica; este es que la
multiplicacin Ax resulte un mltiplo escalar de x. Esto significara que, grficamente el nuevo
vector quedara mapeado sobre la misma recta que el nuevo.
Definicin: Si A es una matriz n x n, encunes un vector x diferente de cero en Rn se denomina
eigenvector de A si Ax es un mltiplo escalar de x; es decir, si Ax = x para algn escalar . El
escalar se denomina eigenvalor de A, y se dice que x es un eigenvector de A correspondiente
a . (pg. 360)
Al transformar el vector al multiplicarlo por la matriz, se cambiar la magnitud o norma pero la
direccin se mantiene. Demostracin: sea x el vector localizado en el punto (a,b):

norma:' x = a2 + b2 ''''direccin:' tan =

norma:' x =
5Este

b
a

(a)2 +(b)2 = 2(a2 + b2 ) = a2 + b2 ''''direccin:' tan =

b b
=
a a

hecho se explica a continuacin


20

Dada una matriz A, ell problema consiste en encontrar el eigenvector x y el eigenvalor :

Ax = I x Ax Ax = I x Ax 0 = ( I A)x
El ltimo miembro implica un sistema homogneo. Como queremos que haya soluciones no
triviales para lambda, tendemos que hallar los valores en donde el determinante sea cero.
Esta expresin se denomina la ecuacin caracterstica de A. Al desarrollar esta
I A = 0 ecuacin siempre se obtendr el polinomio caracterstico de A y ser de la forma:

p( ) = n + c1 n1 +!+ cn
A lo sumo se tendrn n soluciones distintas en una matriz n x n (pg. 361). Veamos un ejemplo
con soluciones distintas:

=2

0
I A = 0 0 2 0 = 2
= 0 ( 2)( +1) = 0&&&&&&& 1
0
+1
2 = 1
0 0 1
Al obtener los eigenvalores de A, faltarn solamente los eigenvectores: resolvemos ( I A)x = 0 :

Si#1 = 2 (2I A)x = 2 2 0 x = 0 0 1 = 0


2+1
0
0 3 x 2 0

0 x = 3 0 x1 = 0
Si#2 = 1 (I A)x = 1 2

0
1+1

0 0 x 2 0


sea$x1 = t : $x = 1 t E1 = gen 1
0
0


sea$x2 = t : $x = 0 t E2 = gen 0
1
1

Al resolver el SELS homogneo indeterminado se obtendrn infinitos eigenvectores de A para


cada uno de las soluciones. Se dice que el vector que genera todas estas soluciones es la base
para el eigenespacio de A. En este caso ambos eigenespacios sern de dimensin 1.
En caso de presentarse soluciones repetidas, haremos uso de los siguientes conceptos:
Si 0 es un eigenvalor de una ma matriz A n x n, entonces la dimensin del eigenespacio
correspondiente se denomina la multiplicidad geomtrica de 0 y el nmero de veces que 0
aparece como factor en el polinomio caracterstica de A se denomina la multiplicidad algebraica
(pg. 376). Designaremos a la multiplicidad algebraica con la letra k y a la geomtrica con la letra
m. Ejemplo:
2 1 0
2 1
0
=2

A = 0 2 0 $$$$$$$ I A = 0
0
2
0
= 0 ( 2)3 = 0$$$$ 1,2,3
k =3
0 0 2
0
0
2

2 2 1
0
Si#1,2,3 = 2 (2I A)x = 0 2 2 0
0
0 2 2

0 1 0 x1 0
x = 0 0 0 x = 0

0 0 0 x 0
3

1 0
1 0

sean%
x = 0 s + 0 t E1 = gen 0 , 0 %%m = 2
x3 = t
0 1
0 1

x1 = s

Como se ve en el ejemplo, la multiplicidad algebraica la podremos ver al sacar los eigenvalores y


la multiplicidad algebraica al sacar la base para el eigenespacio; por ello, puede verse tambin
como la dimensin del espacio solucin (nulidad) de la ecuacin caracterstica. Este concepto
ser de utilidad para el tema de diagonalizacin.
21

Se complementa el tema con los siguientes teoremas:


TEOREMA 7.1.1: Si A es una matriz triangular (triangular superior triangular inferior o diagonal)
n x n, entonces los eigenvalores de A son los elementos de la diagonal principal de A. (pg. 363)
TEOREMA 7.1.3: Si k es un entero positivo, es un eigenvalor de una matriz A y x es un
eigenvector correspondiente, k ser un eigenvalor de Ak y x un eigenvector de A. (pg. 365)
TEOREMA 7.1.4: Una matriz cuadrada es invertible si y slo si = 0 no es un eigenvalor de A
(pg. 365)
Esto ltimo es porque si en el polinomio caracterstico p( ) = n + c1 n1 +!+ cn alguna solucin
es 0: 0I A = p(0) = 0n + c 0n1 +!+ c A = c por lo que = 0 es eigenvalor de A si el
1
n
n
determinante (cn) es 0, o lo que es lo mismo, si A es singular o no invertible.

Diagonalizacin
Un tema subyacente al de la diagonalizacin es la semejanza de matrices:
Sean A y B matrices cuadradas del mismo orden n x n, se dice que son semejantes si B = P-1AP
Ejemplo:

A = 2 2 $$$$$B= 3 2 $$$$$$P = 1 1 $$$$$$P 1 = 1 1


1 3
1 2
0 1
0 1

El problema de diagonalizacin se puede abordad de dos maneras: 1) Hallar una matriz B que sea
semejante a A y adems diagonal. 2) Dada una matriz A n x n, hallar una base para Rn integrada
por eigenvectores de A.
Definicin: Una matriz cuadrada A se denomina diagonalizable si existe una matriz invertible P
tal que P-1AP es una matriz diagonal; se dice que la matriz P diagonaliza a A. (pg. 369)
Para poder abordar los dos problemas anteriores, se requiere que A tenga n vectores propios
linealmente independientes, de otra forma no podra generar a Rn. Que A sea diagonalizable,
implica que A y su matriz diagonal correspondiente son semejantes y por tanto tienen los mismos
eigenvalores, lo que se demuestra a continuacin:
Sea$$$$B = P .1 AP : $ I B = I P 1 AP
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$ I B = P IP 1 P 1 AP
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$ I B = P 1( IP AP)
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$ I B = P 1( I A)P
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$ I B = P 1 I A P
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$ I B = P 1 P I A
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$ I B = I A

Misma ecuacin caracterstica, mismos eigenvalores

Procedimiento para diagonalizar una matriz: (pg. 371)


Paso I: Encontrar n eigenvectores linealmente independientes de A, por ejemplo p1, p2, , pn. El
mtodo para realizar esto es encontrar las bases para los eigenespacios de A.
Paso II: Formar la matriz P con p1, p2, , pn como sus vectores columna.
Paso III: Entonces la matriz P-1AP ser diagonal con 1, 2, , n como los elementos sucesivos
de la diagonal, donde i es el eigenvalor correspondiente a pi, para i= 1,2,,n.
22

Ejemplo:
1 0 0
1
0
0

A = 1 1 1 %%%%%%%%% I A = 0 1
1 1
1 2 4
1
2
4

= ( 1)( 1)( 4)+ 2( 1)


= %%%%( 2 2 +1)( 4)+ 2 2
= 3 6 2 + 9 + 8 + 2 2

1 = 1%;%k = 1
2 = 2%;%k = 1

3 = 3%;%k = 1

= 3 6 2 +10 + 6 = 0

11 0
0

Si#1 = 1 (I A)x = 1 11 1
1
2 1 4

0 0 0 x1 0
1
x = 1 0 1 x = 0 ###sea#x = t : #x = 1 t E = gen 1

3
2

1 2 3 x 0
1

21 0
0
Si#2 = 2 (2I A)x = 1 21 1
1
2 2 4

1 0 0 x1 0
0
x = 1 1 1 x = 0 ###sea#x = t : #x = 1 t E = gen 1

3
2

1 2 2 x 0
1

31
0
0
Si#3 = 3 (3I A)x = 1
31 1
1
2 3 4

2 0 0 x1 0

x = 1 2 1 x
0 ###sea#x = t : #x =
=

2
3

1 2 1 x 0

0
1
2
1

t E = gen
2

0
1
2
1

Se ha realizado el paso I. En este punto es conveniente introducir el siguiente teorema:


TEOREMA 7.2.4: Multiplicidad geomtrica y multiplicidad algebraica
Si A es una matriz cuadrada, entonces:
a) Para todo eigenvalor de A, la multiplicidad geomtrica es menor o igual a la algebraica.
b) A es diagonalizable si y slo si, para todo eigenvalor, la multiplicidad geomtrica es igual a la
multiplicidad algebraica. (pg. 376)
Ya que la multiplicidad geomtrica para cada eigenvalor es 1; ms bien, por la parte a) del
teorema, si la multiplicidad algebraica es 1, la geomtrica lo ser tambin, o lo que es lo mismo:
TEOREMA 7.2.3: Si una matriz A n x n tiene n eigenvalores distintos, es diagonalizable (pg. 374)
Se ha demostrado que la matriz es diagonalizable, se continuar con el paso II y III.
1 0 0
1 0 0

1
1
P= 1 1
$$$$$$$$$$$$$$$$$P |I3 = 1 1

2
2

1 1 1
1 1 1

1 0 0

0 1 .5
0 0 1

1 0 0
1 0 0
1
0 1 0 0 1

2
0 0 1
0
1
1

1 0 0 1 0 0

1 1 0 0 1 0
0 2 2 0 0 1

1 0 0 1 0 0

1 1 0 0 1 .5

1 0 1 0 0 .5

1 0 0

1
1
1 0 1 = I3 |P (((((((((P =

0 2 2

1 0 0 1 0 0 1 0

P 1 AP = 1 0 1 1 1 1 1 1
0 2 2 1 2 4
1 1

0
1
2
1

1 0
1
P 1 =0
0 2

1 0 0 1 0

= 2 2 4 1 1
0 6 6
1 1

1 0 0 1

D = 0 2 0 = 0
0 0 3 0

2
0

1 0 0

1 1 0
0 1 1

10 0 0

1 ( 0 1 $$$
1

2
0 2 2

0
1
2
1


1 0 0 1

= 0 2 0 = 0
0 0 3
0

3
23

2
0

Clculo de potencias de una matriz:


Si A es una matriz n x n diagonalizable entonces el clculo de potencias se simplifica, por ejemplo:

(P 1 AP)2 = P 1 APP 1 AP = P 1 AIAP = P 1 A2P


D = P A P PD2 = PP 1 A2P PD2P 1 = IA2PP 1 A2 = PD2P 1
1

Y de forma general:

Ak = PDk P 1

(pg. 377)

Formas cuadrticas
Las funciones en las que los trminos son cuadrados de variables o productos de dos variables
pueden ser representadas con matrices; es decir, funciones de la forma:
a1 x12 + a2 x 22 +!an x n2 +(todos(los(posibles(trmino(de(la(forma(ak x i x j (para(i<j) (pg. 480)
A esta forma se le denomina forma cuadrtica, un ejemplo con tres variables ser el siguiente:

f (x1 ,x2 ,x3 ) = ax1 + a x + a x + a4 x1 x2 + a5 x1 x3 + a6 x1 x3


2

2
2 2

2
3 3

(x

x2

x3

a1

a4

a5

a4

a2
a6

2 x

1
a6
x

2 2
x
3
a3

a5

Ms generalmente, la manera de expresar una forma cuadrtica en formacin matricial ser: x Ax


donde x es el vector columna de las variables, y A es una matriz simtrica cuyos elementos en la
diagonal principal son los coeficientes de los trminos elevados al cuadrada,y los elementos fuera
de la diagonal son la mitad de los coeficientes de los trminos de producto cruzado. (pg. 480)

x Ax =

(x

x2

x3

! xn

a11
a21
a31
"
an1

a12 a13 ! a1n

a22 a23 ! a2n

a32 a33 ! a3n


"
"
"

an2 an3 ! ann

x1

x2

x3 $
"

x n

donde%f (x1 ,x 2 ,x 3 ,,x n ) = a11 x12 + a22 x 22 + a33 x 32 ++ ann x n2 +

a12
2

x1 x 2 +

a21
2

x 2 x1 +

a13
2

x1 x 3 +!+

a31
2

x 3 x1 +

aij
2

xi x j +

aij
2

xi x j

El anlisis de las formas cuadrticas tiene un nmero de aplicaciones importantes:


Encontrar los valores mximo y mnimo de la forma xTAx si x est restringido de tal modo que

x = x12 + x 22 + x 32 +!+ x n2 = 1

Qu condiciones debe satisfacer A para que una forma cuadrtica satisfaga la desigualdad
xTAx > 0 para todo x0?
Si xTAx es una forma cuadrtica con dos o tres variables y c es una constante, qu perfil
tiene la grfica de la ecuacin xTAx=c? (pg. 481)

Se plantean resoluciones para el primer y segundo problema. El primero usar eigenvalores:


TEOREMA 9.5.1: Sea A una matriz simtrica n x n con eigenvalores 1 2 n. Si x se
restringe de modo que ||x||=1, entonces:
a) 1 xTAx n.
b) xTAx = n si x es un eigenvector de A correspondiente a n y xTAx = 1 si x es un eigenvector
de A correspondiente a 1. (pg. 481)
Esto significa que el valor mayor de lambda ser el mximo y el menor de lambda el mnimo.
24

Se dar un ejemplo para encontrar los valores mximo y mnimo de una forma cuadrtica:

x12 + x 22 + 4x1 x 2 $$sujeta$a$x12 + x 22 = 1


T

x Ax =

x1

x
x2 1 2 1
2 1 x 2

1 2 = 2 2 3 = ( 3)( +1) = 0''' 1 = 3


I A =

2 1
2 = 1

Si#1 = 3: ## 3I A x = 2 2 1 = 0 #####sea#x2 =t x = 1 t E1 = gen 1


2 2 x 2 0
1
1


Si#2 = 1: ## I A x = 2 2 1 = 0 #####sea#x2 =t x = 1 t E2 = gen 1
2 2 x2 0
1
1

Hasta aqu hemos llegado a los valores propios mximos y mnimos, as como sus vectores
propios correspondientes. Para sacar los vectores propios en donde se maximiza la forma
cuadrtica se tiene que cumplir la restriccin; es decir, la norma tiene que ser unitaria. Para lograr
eso, dividiremos cada elemento de cada eigenvector entre su propia norma:

x = x12 + x 22 = 1

E1 = 12 +12 = 2

1
1

2
2 E = (1)2 +12 = 2
2
1
1

2
2

Clasificacin de las formas cuadrticas:


Definicin: Una forma cuadrtica se denomina positiva definida si xTAx > 0 para todo x0, y
una matriz simtrica A se denomina matriz positiva definida si xTAx es una forma cuadrtica
positiva definida. (pg. 482)
Tambin tenemos los siguientes tipos de formas cuadrticas, con definiciones intuituvas:
positiva semidefinida
negativa definida
negativa semidefinida
indefinida

si xTAx 0 para todo x


si xTAx< 0 para todo x0
si xTAx 0 para todo x
si xTAx tiene valores tanto positivos como negativos. (pg. 484)

Cmo clasificarlos?: a) Mtodo de eigenvalores b) Mtodo de las submatrices


a) TEOREMA 9.5.2: Una matriz simtrica A es positiva definida si y slo si todos los eigenvalores
de A son positivos. (pg. 482)
Se adapta el teorema del libro para hacerlo aplicable a los dems tipos de formas cuadrticas
Una matriz simtrica A es positiva semidefinida si y slo si todos los eigenvalores de A son no
negativos.
Una matriz simtrica A es negativa definida si y slo si todos los eigenvalores de A son
negativos.
Una matriz simtrica A es negativa semidefinida si y slo si todos los eigenvalores de A son no
positivos.
Una matriz simtrica A es indefinida si los eigenvalores de A son algunos negativos y otros
positivos.

b) Una submatriz o un menor lder o principal es la submatriz formada con los r primeros
renglones y las r primeras columnas de A para r= 1,2,, n. Por ejemplo:
25

a
a12

11
A1 = a11 """"A 2 =

a21 a22

TEOREMA 9.5.3: Una matriz simtrica A es positiva definida si y slo si el determinante de toda
submatriz principal es positiva (pg. 484)

( )

a
a
a

11 12 13
""""""A 3 = a21 a22 a23

a31 a32 a33

a
a ! a1n

11 12

a ! a2n
a
""""""""A n = A = 21 22
"
"

"

an1 an2 ! ann

Esto es: Si |Ai| > 0 para todo i.


A partir de esto ltima se desarrollan el siguiente teorema:
Una matriz simtrica A es positiva semidefinida si y slo si el determinante de toda submatriz
principal es no negativa.
Si |Ai| 0 para todo i.
Para las matrices simtricas negativas definidas requerimos que los determinantes de las
submatrices con r par sean positivas y las que tengan r impar negativas.
Si (-1)i|Ai| > 0 para todo i.
Y para las negativas semidefinidas: Si (-1)i|Ai| 0 para todo i.
Una matriz indefinida no seguir el patrn descrito por la definicin anterior; es decir, nos
encontraremos, por ejemplo, con dos determinantes positivos seguidos de uno negativo.
Ejemplo:

Q(x1 ,x 2 ,x 3 ) = x12 + 6x 22 + 3x 33 2x1 x 2 4x 2 x 3 )))))))x Ax =


A1 = 1 > 0#### A2 =

(x

x2

x3

1 1 0 x1
1 6 2 x

2
0 2 3 x
3

1 1 = 5 > 0##### A = 1 > 0####A#es#positiva#definida.


3
1 6

Aplicaciones: Modelo de Leontief


Se explica el Modelo de Leontief visto en clase y se agrega un breve resumen del libro del tema:
El modelo de produccin de Leontief establece ciertos parmetros econmicos que describen las
interpelaciones entre las industrias en la economa bajo consideracin. En el modelo cerrado, se
considera la interaccin de k industrias, donde se demandan recprocamente su produccin, de tal
manera que el ingreso de cada industria se iguale con el gasto de la misma en factores (pg. 640)
En el modelo abierto de Leontief, las salidas de las k industrias se destinan, adems de a las
industrias, a una demanda a la que se intenta satisfacer. Analiza la economa interna, es decir el
producto interior bruto; el que se da dentro de las fronteras del pas en cuestin. El modelo es
esttico, es decir, es una especie de foto en un periodo de tiempo t. Se tienen las siguientes
definiciones:
Matriz de insumo-producto
Es una matriz aumentada que contiene a la Matriz de Demanda Intermedia, al vector (columna) de
Demanda Final, el vector (rengln) del Valor Agregado Bruto y el vector del Valor Bruto de la
Produccin.
Matriz de Demanda Intermedia
26

Es una matriz cuadrada que muestra las transacciones de bienes intermedios dentro de la
industria. Se divide generalmente en sectores, los cuales representan las columnas y los
renglones de la matriz. Como se sigue la igualdad Gasto = Ingreso, los renglones representan las
ventas internas de la industria i a cada industria j, y las columnas las compras de la industria j a la
industria i. Por ejemplo:

I
v11

II
v12

II

v21

v22 compras realizadas por parte del sector II al sector I.

El elemento v12 representa la venta realizada del sector I al sector II. O bien, las

Vector de Demanda Final


di = valor monetario de la produccin de la i-sima industria necesaria para satisfacer la demanda
Existen 4 agentes que participan en la demanda final: Empresas, Familias, Administracin Pblica
y Resto del Mundo. La Demanda Final es la sumatoria de: FBKF + S + C Pr+ CG + X M . Donde:
FBKF es la Formacin Bruta de Capital Fijo y S es la Variacin de Existencias, y ambas las
determina la interaccin de las empresas en la economa. Son los componentes principales de
la inversin.
CPr es el consumo privado, realizado por las familias.
CG es el consumo del gobierno, realizado por la administracin pblica.
X-M son las exportaciones netas (Exportaciones-Importaciones).
Valor Agregado Bruto
Se define como el valor creado dentro de las industrias. No es demanda intermedia sino que es
creado por los factores de produccin. La demanda final y el valor agregado bruto son sinnimos y
ambos expresan el PIB; en lo que difieren es el mtodo. La demanda final usa el mtodo del
gasto, mientras que el valor agregado bruto el del ingreso; es decir: VAB = RA + EBO +(TI S) donde:
RA es Remuneracin de Asalariados.
EBO es el Excedente Bruto de Operacin.
TI-S es tributacin indirecta, o impuestos indirectos netos de subsidios.
Valor Bruto de la Produccin
xi = valor monetario de la produccin total de la i-sima industria
Es la suma total de los valores de los Bienes y servicios producidos por una sociedad,
independientemente de que se trate de insumos o bienes finales. Por ello, incluye duplicaciones.
El valor bruto de produccin se puede obtener tambin mediante la suma de la Demanda
Intermedia y el Valor Agregado Bruto.
La matriz de insumo producto se puede representar as:

I
v11

II
v12

d
d1

x Donde V = Matriz de Demanda Intermedia, d = Vector de Demanda Final, y


x1 x = Vector del Valor bruto de la produccin.

II

v21

v22

d2

x2 se obtiene multiplicar la matriz V por el vector suma:

Como d = VAB se tiene la siguiente propiedad:

x = v + d donde el vector v
v
v
v = 11 12
v21 v22

v +v
1 = 11 12
1 v21 + v22

Matriz de Coeficientes Tcnicos A={aij}


aij = valor monetario de la produccin de la i-sima industria que la j-sma industria necesita para
producir una unidad de valor monetario de su propia produccin (pg. 643)
Te va a decir la cantidad de insumo proveniente del sector i para producir un peso de j. Por
ejemplo si a12 = 0.4 significa que por cada peso que produce el sector 2, gasta 40 centavos en
insumos del sector 1. a22 sera el porcentaje que se gasta el sector en s mismo para producir.
Esta matriz es reflejo de la tecnologa promedio del pas en anlisis.
27

Por su definicin, el clculo es relativamente fcil: se dividir cada elemento de la matriz de


Demanda Intermedia entre el valor bruto de la produccin del sector. Para realizar esto se
construir una matriz diagonal W, tal que los elementos sucesivos en la diagonal principal sean el
Valor Bruto de la Produccin de cada sector. Con dos sectores, esto sera:
1

1
A = V W = V

W = diag 1
1
0

xi

x 2
Por la definicin de aij y xj se puede ver que la cantidad ai1 x1 + ai2 x 2 +!+ aik x k es el valor de la
produccin que los k sectores necesitan para lograr una produccin total especificada por el vector
de produccin x (pg. 644). El producto Ax representar la demanda intermedia por sector, as:

Ax = v!!!!!!!!!!!!!!

x = v +d
x = Ax + d

Requerimos que el valor bruto de la produccin sea suficiente para satisfacer la demanda interna
y tambin la externa; es decir, la demanda final.
Aplicacin:
Lo expuesto aqu tiene cierta capacidad predictiva. Dada una estimacin de la demanda final en el
periodo siguiente, podemos calcular el valor de la produccin necesario para satisfacerla. Para
resolver el problema, suponemos que la tecnologa no cambia; es decir, la matriz A es constante.
As, solo necesitamos un sencillo despeje:

x = Ax + d x Ax = Ax Ax + d (I A)x = d (I A)1(I A)x = (I A)1 d


x = (I A)1 d
La matriz (I-A)-1 a se denomina la Matriz de Requerimientos Directos e Indirectos o Inversa de
Leontief. Muestra cunto debe producir el sector para satisfacer la demanda de los dems y
aparte la demanda final. Es por eso que en esta matriz los elementos de la diagonal principal son
mayores a uno; tienen que producir para s mismos y para el mercado. Resume los efectos de un
cambio en la demanda ya sea de insumos o del producto final; es decir, la reaccin en cadena que
causa la interdependencia de la industria. Es por eso que hay requerimientos directos e indirectos.
Ejemplo:

I
II
III
d0
x0
252
I
51
284
0.04
252
586
V |d | x =
-----------Si-d1 = 7325 x1 ?
II 84 2412 748 7325 10567
7000
III 42 1242 1392 6885 9528
Por

x = (I A)1 d

1
586

A = V W = V
0

necesitamos la matriz A:

0
1

10567
0

1
51 284 0.04 586

0
0
= 84 2412 748
42 1242 1392

1

0
9528

0
1

10567
0

.0862 .0268 .000004


0
= .1427 .2281 .0735
.1175 .0712 .1461

1

9528
0

.9138 .0268 .000004


1.007 .0389 .0036

1
I A = .1427 .7719
.0735 (I A) = .2159 1.3217 .1215
.1175 .0712
.1215 .1850 1.8980
.8539

28

1.007 .0389 .0036 252 591


x1 = (I A)1 d1 = .2159 1.3217 .1215 7325 = 10856
.1215 .1850 1.8980 7000 9772
A pesar de que la demanda final en el periodo 1 solo cambi para el sector III aumentando, el
valor bruto de la produccin necesaria para satisfacerla es mayor en todos los sectores. Esto es
por la interdependencia entre las industrias. El sector III necesit ms insumos para producir, lo
que supone una interaccin de todos los productores para abastecerla.
Se tienen un par de definiciones adicionales:
Definicin: Se dice que una matriz de coeficientes tcnicos A es productiva si (I-A)-1 existe e
(I-A)-1 0Es productiva si y slo si existe algn sector de produccin x0 tal que x>Ax (pg. 645)
Como Ax=v, el que existe el valor bruto de la produccin mayor a este, significa que cada industria
podr producir ms de lo que consume para, adems de satisfacer la demanda intermedia, se
satisfaga la demanda final o externa.
TERCER PARCIAL
Se proporcionarn teoremas y definiciones importantes de las secciones del libro Matemticas
para el Anlisis Econmico6, combinndolo con lo visto en clase:

Captulo 15. Funciones de varias variables. Secciones 15.1, 15.3, 15.5 y 15.6.
15.1. Funciones de dos o ms variables
Una funcin f de dos variables x e y con dominio DR2 es una regla que asigna un nmero
especfico f(x,y) a cada punto (x,y) D (pg. 390).
Una funcin f de n variables x1,,xn con domino DR2 es una regla que asigna un nmero
especfico f(x1,,xn) a cada n-vector (x1,,xn) D (pg. 392).
Suponemos que el dominio de una funcin definida por una forma es el mayor dominio en el cual
la frmula tiene sentido y da una valor nico (pg. 393)
Clase
El clculo con n variables independientes es relevante en economa. Trataremos funciones
reales, es decir funciones en Rn. Una funcin asigna un valor a un conjunto de variables
independientes. Cuando hablamos de una funcin Rn R queremos decir que las variables
x1,,xn evaluadas en la funcin dan como resultado un solo valor nico. La funcin transforma un
vector en Rn a un punto.
Tericamente una funcin con races cuadradas y tres variables independientes es R3R2
Al conjunto x1,,xn que da origen a z debe estar ordenado y le llamamos n-ada.
Por las definiciones de arriba, asumimos que cualquier funcin es una regla de correspondencia.

Dominio:

6Las

pginas citadas ahora sern de este libro y no ms del de Algebra Lineal de Anton.
29

Se puede definir como el conjunto de valores que no llevan a contradicciones. El dominio


matemtico nos interesa y por supuesto el econmico (valores positivos para precios, cantidades,
etc.)
Indeterminaciones del lgebra en R.
1) Divisin entre cero 2) Raz par de un nmero negativo 3) El logaritmo de un nmero no positivo
Ejemplos:

4 2
&&&&&&D = (x , y)| x 0, y 0
x y
4
f (x , y) =
&&&D = (x , y)| x y > 0
x y
f (x , y) =

f (x , y,z) = 25 x 2 y 2 z 2 &&&&&&D = (x , y,z)| x 2 + y 2 + z 2 25

2n +1
f (r ,s,v,p) = rs 2 tanv + 4sv ln p&&&&D = (r ,s,v,p)|p > 0,v

Clasificacin de las funciones segn la operacin a realizar:

polinomios potencias+enteras+positivas
Operaciones+algebricas
funcin+potencia racionales+potencias
trigonomtrica

Operaciones+no+algebricas exponenciales
logartmica

Mixtas operaciones+algebricas+y+no+algebricas+Ej:++f (x , y) = x + senx


Representacin geomtrica de funciones de dos variables
Una funcin f: R2R mapea un vector (x,y) [pareja ordenada] en un nico valor f=z.
Hay tres maneras de representar geomtricamente las funciones de R2R.
1. Curvas de nivel
2. Trazas
3. Grfica de la funcin
Respecto a 3, fuera de toda obviedad, es de notar que en el espacio R2 la grfica es llamada
curva y en R3 es llamada superficie.
1.Las curvas de nivel son grficas en el plano xy de una funcin de dos variables independientes.
Las grficas son una especie de corte horizontal a la superficie en tercera dimensin. Es decir:

z = f (x , y) c = f (x , y)$donde$c$es$constante.$

As, por ejemplo, las curvas de nivel de la funcin de utilidad del tipo Cobb Douglas para una
canasta de dos bienes, se llama Curva de Indiferencia porque la utilidad (z) se mantiene
constante. Son generalmente paralelas este tipo de grficas.
2. Las trazas son otro tipo de cortes, la diferencia es que se dan cuando una de las variables
independientes es mantenida constante. Se graficaran, por ello en los ejes xz o yz.

15.3. Derivadas parciales en dos variables


30

Para funciones de dos variables queremos ver la velocidad de variacin respecto de los cambios
de valores en las variables independientes. (pg. 401)
Sea z = f (x , y) . La derivada parcial de z (o f) con respecto a x, denotada por z / x, es la
derivada de f(x,y) con respecto a x cuando y se mantiene constante. La derivada parcial de z (o f)
con respecto a y, denotada por z / y, es la derivada de f(x,y) con respecto a y cuando x se
mantiene constante. (pg. 402)
Otras notaciones para la derivada parcial:

f z
f (x , y)
=
= z x = f x(x , y) = f1(x , y) =
x x
x
Derivadas parciales de orden superior
Las derivadas parciales que acabamos de definir son las de primer orden. Al derivar las de primer
orden respecto a cualquier variable independiente se obtienen las de segundo orden.

p(pg. 403)
Clase
El concepto de derivada es muy amplio y cubre tres principales definiciones:
1) Tasa instantnea de cambio
2) Pendiente de la recta tangente en un punto dado
3) Cociente de diferenciales
Definicin formal:

dy
f (x + h) f (x)
= lim
dx h0
h

Diferencial: dy = f (x)dx

El anlisis de las derivadas parciales expuesto arriba puede enriquecerse al analizarlas con el
concepto de trazas en R2 de funciones de R2 en R. La ecuacin de la pendiente de la recta
tangente que toca a la traza en el plano xz es la derivada parcial de f(x,y) respecto a x, pues la
traza se construy a partir de dejar constante a y. Lo mismo aplica para la derivada parcial
respecto a y.
15.5. Derivadas parciales de funciones de varias variables.
Si z = f (x1 ,x 2 ,x n ), entonces f / x i es la derivada zde
= f (x1 ,x 2 ,x n ) con respecto a xi
considerando las otras variables xj (ji) como constantes. (pg. 409)
La derivada parcial z / x i es aproximadamente igual a la variacin de la funcin z = f (x1 ,x 2 ,x n )
producida por un aumento unitario de xi mientras las otras xj permanecen constantes (pg. 410).
Para cada derivada parcial de primer orden, se tienen n parciales segundas, la matriz conformada
por todas las parciales segundas es la matriz hessiana:

( ) f ( x )
( ) f ( x )

f x
11

f x
H = 21

f x
n1

12

22

( ) f ( x )

z xy
= z yx

n2

( )

f ( x )

f1n x
2n

f nn x

()

31

Como es usual con las derivadas parciales segundas en funciones de dos variables
independientes,
por lo que en funciones de n variables:
Teorema de Young
z = f (x1 ,x 2 ,x n ) se han
Supongamos que dos derivadas parciales de orden m de la funcin
obtenido con el mismo nmero de derivaciones respecto a cada una de las variables y son
continuas en un conjunto abierto S. Entonces las dos derivadas parciales son iguales en todo
punto de S. (pg. 411)
(Clase: Definicin formal de derivada parcial en funciones de dos variables)

f (x + h, y0 ) f (x , y0 ) z
f (x 0 , y + h) f (x 0 , y)
z
= lim

= lim
x h0
h
y h0
h
Definicin formal de la derivada parcial en funciones de n variables independientes

f (x1 ,,x i + h,,x n ) f (x1 ,,x i ,,x n )


z
= lim
x i h0
h
De la seccin 15.6. Derivadas parciales en economa no se citar pues no se encuentran
definiciones o teoremas.

Captulo 16. Tcnicas de esttica comparativa. Secciones 16.116,6


La finalidad de la esttica comparativa es responder a qu ocurre con una solucin ptima
cuando los parmetros del problema cambian?
16.1 La regla de la cadena.
Se ve con funciones compuestas; es decir, funciones de varias variables que a su vez son
funciones de otras variables bsicas. Se estudia qu pasa con la funcin cuando una variable
bsica cambia. (pg. 429)
La regla de la cadena
dz
dx
dy
= F1(x , y) + F2(x , y)
Si z = F(x , y),x = f (t ), y = g(t ), entonces

dt

dt

dt

(pg. 430)

dz/dt es la derivada total de z con respecto a t; supone que existen derivadas parciales de F
respecto a x y y, que son funciones derivables de t.
Derivadas direccionales
Se obtiene una tasa de variacin de una funcin de dos variables en otras direcciones (adems de
x y y) .
Derivadas direccionales
La derivada direccional de f(x,y) en (x 0 , y0 ) en la direccin del vector unitario (h,k) (es decir,
h2+k2=1) es
(pg. 432)

Dh,k f (x 0 , y0 ) = f1(x 0 , y0 )h+ f2(x 0 , y0 )k

El vector ( f (x , y ), f (x , y )) se llama el gradiente de f en (x , y ) . Entonces la derivada


1
0
0
2
0
0
0
0
direccional en la direccin (h,k) es el producto escalar del gradiente por el vector (h,k).
16.2. Generalizaciones de la regla de la cadena
La regla de la cadena
z
Sea z = F(x , y),x = f (t ,s), y = g(t ,s), entonces

= F1(x , y)

x
y
+ F2(x , y)
t
t

z
x
y
= F1(x , y) + F2(x , y)
s
s
s

(pg. 436)

32

La regla general de la cadena


Sea z = F(x1 ,,x n )%con%x1 = f1 (t1 ,t m ),,x n = f n (t1 ,t m ) una funcin compuesta de t1,,tm:

z z x1 z x 2
z x n
=
+
+!+
,$$$( j = 1,2,m)
t j x1 t j x 2 t j
x n t j

(pg. 436)

16.3. Derivadas de funciones definidas implcitamente


Considerar la funcin F(x , y) = c F(x , f (x)) = c donde c es constante y y est en funcin de x
(implcitamente). El hallar la derivada y = f (x)consiste en encontrar la pendiente de la curva de
nivel. Al derivar implcitamente:

F1(x , f (x))+ F2(x , f (x))( f (x)) = 0

f (x) =

F (x , f (x))
dy
= 1
dx
F2(x , f (x))

(pg. 441)

16.4. Elasticidades parciales


La elasticidad parcial es aproximadamente igual a la variacin porcentual de z producida por un
aumento del 1% en xi, mientras las otras xj, (ji) permanecen constantes.

Eli z = Eli f (x1 ,x 2 ,x n ),Elx z = ei =


i

xi

f (x1 ,x 2 ,x n )

f (x1 ,x 2 ,x n )

x i

Elasticidad de sustitucin
La tasa marginal de sustitucin entre y y x es:

y = R yx =

F1(x , y)
F2(x , y)

x i z
z x i

(pg. 449)

Ryx es aproximadamente la cantidad de y que hay que aadir por unidad de x que se quita,
siempre que se permanezca en la misma curva de nivel.
Para F(x , y) = c , la elasticidad de sutitucin entre y y x es:

y
yx = ElR (pg. 449)
yx
x

Es la elasticidad de la fraccin y/x con respecto a la TMS; variacin porcentual de la relacin y/x
cuando Ryx crece un 1%.
16.5. Funciones homogneas de dos variables
Una funcin de dos variables es homognea de grado k si para todo t > 0
(pg. 452)
k

f (tx ,ty) = t f (x , y)

Es decir, el multiplicar las variables por un factor positivo t implicar que el valor de la funcin se
multiplicar por el factor tk. Por ejemplo,la funcin F de Cobb-Douglas es homognea de grado a+b.

F(x , y) = Ax a y b F(tx ,ty) = A(tx)a (ty)b = t a+b Ax a y b = t a+b F(x , y)


Propiedades de las funciones homogneas de dos variables:
Teorema de Euler
f(x,y) es homognea de grado k si y slo si x f + y f = kf (x , y)

(pg. 452)

Si f(x,y) es una funcin homognea de grado k:

f1(x , y) f2(x , y)&son&homogneas&de&grado&k1


f (x , y) = xk f (1, y / x) = y k f (x / y,1)
x 2 f11(x , y)+ 2xyf12(x , y)+ y 2 f22(x , y) = k(k 1) f (x , y)
Geomtricamente la propiedad ms importante de las funciones homogneaas es que el
conocimiento de una curva de nivel particular determina el de las dems (pg. 454)
33

16.6. Funciones homogneas generales y funciones homotticas


Una funcin de n variables es homognea de grado k en D si para todo t > 0

f (tx1 ,tx 2 ,,tx n ) = t k f (x1 ,x 2 ,,x n ) (pg. 455)


Teorema 16.1 (Teorema de Euler)
Sea f una funcin de n variables con derivadas parciales continuas en un dominio abierto D tal que
(x1,x2,,xn) D y t > 0 implican (tx1,tx2,,txn) D. Entonces f e homognea de grado k en D si y
slo si se verifica la siguiente ecuacin para todo (x1,x2,,xn) D:
n

x f (x ,x ,x
i i

i=1

) = kf (x1 ,x 2 ,x n )

(pg. 456)

Si dividimos cada trmino de esta ltima ecuacin entre f(x1,x2,xn) tenemos:

El1 (x1 ,x 2 ,x n )+ El2 (x1 ,x 2 ,x n )+!+ Eln (x1 ,x 2 ,x n ) = k


La suma de las elasticidades parciales de una funcin homognea de grado k es igual a k.
Funciones Homotticas
Una funcin de n variables, definida en un dominio x1,x2,xn ^ tx1,tx2,,txn D, es homottica si:

x , y K ,""f (x) = f ( y),"""t > 0"" f (tx) = f (ty)


f (tx) = t k f (x) = t k f ( y) = f (ty) (pg. 458)
Una funcin homogneaa de grado k es homottica
Por ejemplo la funcin de utilidad de un consumidor, al ser homottica implica que, si al
consumidor le es indiferente entre elegir dos cestas de x e y, le sigue siendo indiferente si los
bienes aumentan o disminuyen en la misma proporcin.

Captulo 17. Optimizacin en varias variables. Secciones 17.4, 17.8 y 17.9.


17.4. Puntos ptimos locales
Definicin de mximo local: f (x) f (c)#para#todo#x#de#S#con# x c < r (pg. 489)
Definicin de mnimo local: f (x) f (c)#para#todo#x#de#S#con# x c < r
Estos dos son referidos a puntos ptimos locales.
Los puntos estacionarios son obtenidos cuando las condiciones de primer orden se cumplen,
es decir:
Sea f una funcin definida en un conjunto SRn y sea c = (c1, c2,,cn) un punto interior de S en el
que f es diferenciable. Una condicin necesaria para que c sea un mximo o mnimo para f es que
c sea un punto estacionario para f, esto es f i (c) = 0$$$$$(i = 1,,n) (pg. 484),
Un punto estacionario puede ser:
1. mximo local
2. mnimo local
3. punto de silla
Se pueden evaluar con las condiciones de segundo orden:
Teorema 17.5 (El test de la derivada segunda para funciones de dos variables)
Sea f(x,y) una funcin con derivadas parciales continuas de primero y segundo orden en un
dominio S, y sea (x0,y0) un punto interior de S que sea un punto estacionario de f.
Pongamos
A = f (x , y ),&&&&B = f (x , y ),&&&&&C = f (x , y )
11

12

22

Se tiene:
(a) Si A < 0 y AC B2 > 0, entonces (x0,y0) es un mximo local.
(b) Si A > 0 y AC B2 > 0, entonces (x0,y0) es un mnimo local.
(c) Si AC B2 < 0, entonces (x0,y0) es un punto de silla.
(d) Si AC B2 = 0, entonces (x0,y0) puede ser un mximo local, mnimo local o punto de silla.
(pg. 491)
34

17.8. Tests de la derivada segunda para concavidad y convexidad: el cado de dos variables
Teorema 17.9
Sea z = f(x,y) una funcin con derivadas parciales continuas de primero y segundo orden, definida
sobre un conjunto abierto y convexo S del plano. Entonces
(a) f es cncava si y slo si f11 0, f22 0, y

f11

f12

f21

f22

(b) f es convexa si y slo si f11 0, f22 0, y

f11

f12

f21

f22

0 (pg. 505)

Teorema 17.11 (Condiciones suficientes de ptimos globales)


Sea f(x,y) una funcin con derivadas parciales primeras y segundas continuas en un dominio
convexo S, y sea (x0,y0) un punto estacionario de f interior a S.
2
(a) Si, para todo (x,y) S, es f11(x , y) 0,&f22(x , y) 0,&y&f11(x , y) f22(x , y)[ f12(x , y)] 0,
entonces (x0,y0) es un mximo de f(x,y) en S.
2
(b) Si, para todo (x,y) S, es f11(x , y) 0,&f22(x , y) 0,&y&f11(x , y) f22(x , y)[ f12(x , y)] 0,
entonces (x0,y0) es un mnimo de f(x,y) en S.
(pg. 507)
17.9. Tests de la segunda derivada para concavidad y convexidad: el caso de n variables.
Los menores principales dominantes de la matriz hessiana H(x) a los n determinantes

Dk (x) =

f11(x)

f12(x) !

f1n(x)

f21(x)

f22(x) !

f2n(x)

"
f n1(x)

"
f n2(x) !

"
f nn(x)

%%%%%%%%(%k = 1,n)

As, se tienen los siguientes teoremas:

(1)k Dk (x) > 0%para%k = 1,,n%y%para%todo%x S f %es%estrictamente%cncava%en%S


Dk (x) > 0%para%k = 1,,n%y%para%todo%x S f %es%estrictamente%convexa%en%S

(pg. 509)

Teorema 17.12 (Condiciones necesarias y suficientes para puntos ptimos locales)


Sea f(x1,,xn) una funcin C2 definida en un conjunto S de Rn y sea x0 un punto estacionario de f
interior a S, o sea
f i (x 0 ) = 0$$$(i = 1,,n)
Sea Dk(x0) los menores principales de la matriz hessiana y designemos por r (x ) a un menor
principal arbitrario de orden r de la matriz hessiana. Entonces:
0
r
0
0
(a) x "es"un"mximo"local (1) r (x ) 0"para"todos"los"menores"principales" r (x )"de"orden"r = 1,n
k
0
0
(b) (1) Dk (x ) > 0%para%k = 1,,n% x %es%un%mximo%local
(c) x 0 "es"un"mnimo"local r (x 0 ) 0"para"todos"los"menores"principales" r (x 0 )"de"orden"r = 1,n
(d) Dk (x 0 ) > 0$para$k = 1,,n$ x 0 $es$un$mnimo$local
0

Test de punto silla


(e) Si Dn(x0)0 y no se satisfacen ni las condiciones determinantes de (b) y (d), entonces x0 de f es
un punto de silla. (pg. 510-511)

35

Clase
El punto mximo es el punto ms alto en la vecindad; es decir, todos los valores alrededor de una
funcin son menores al analizado. Lo opuesto aplica para los mnimos. El algoritmo para
calcularlos es:
Optimizacin no restringida
Sea z = f (x1 ,x 2 ,,x n )
Si falla este mtodo, se puede evaluar la funcin
alrededor del punto crtico que se origin de las
CC.P.O, o bien se puede utilizar el mtodo del
gradiente, que tiene que ver con el concepto de
derivada direccional.

Condiciones de primer orden

z z z
z
=
=
=!=
=0
x1 x 2 x 3
x n
Condiciones de segundo orden
Sea

H = Dk (x) =

f11(x)

f12(x) !

f1n(x)

f21(x)

f22(x) !

f2n(x)

"
f n1(x)

"
f n2(x) !

"
f nn(x)

Si' Hi = (1)i Mi > 0i Mximo'local


Si' Hi = Mi > 0i Mnimo'local''''''''''

Donde Mi es el menor principal de tamao i. Es la misma condicin que en el teorema 17.12.


Ejemplo:
2

max$f (x , y,z) = e x y z +2 y+xz


C.P.O :
2
2
2
f
= (2x + z)(e x y z +2 y+xz ) = 0
x
2
2
2
f
= (2 y + 2)(e x y z +2 y+xz ) = 0 dividiendo'entre'e x y z +2 y+xz
y
2
2
2
f
= (2z + x)(e x y z +2 y+xz ) = 0
z
2

f
= 2x + z = 0
x
f
= 2 y + 2 = 0####
y
f
= 2z + x = 0
z

2 0 1 0 1 0 1/2 0 1 0 1/2 0 1 0 0 0
x =0

SELS :A|b = 0 2 0 2 0 1
0
1 0 1
0
1 0 1 0 1 y = 1
1 0 2 0 0 0 3/2 0 0 0
1
0 0 0 1 0
z =0

C.S.O :
f11(0,1,0) = 2e w +(2x + z)2 e w = 2e
f22(0,1,0) = 2e w +(2 y + 2)2 e w = 2e
f33(0,1,0) = 2e w +(2z + x)2 e w = 2e
f12(0,1,0) = (2 y + 2)(2x + z)e w = 0
f13(0,1,0) = e w +(2z + x)(2x + z)e w = e
f23(0,1,0) = (2z + x)(2 y + 2)e w = 0
36

2e 0
e
H = 0 2e 0 H1 = 2e < 0, H2 = 2e 0 4e > 0, H3 = (2e)3 ((2e)e2 ) = 6e3 < 0
0 2e
e
0 2e
Entonces el punto P(0,1,0, e) es un mximo local

Capitulo 18. Optimizacinn Restringida. Secciones 18.2 y 18.5


18.2. El mtodo de los multiplicadores de Lagrange
Para un problema que consista en maximizar f(x,y) sujeta a g(x,y) = c, La condicin de primer
orden ser:

f1(x , y)

g1 (x , y)

&o&

f1(x , y)

f2(x , y)

f2(x , y) g2 (x , y) g1 (x , y) g2 (x , y)
(pg. 523)
Las fracciones del ltimo miembro de la expresin de arriba coincidirn si (x0,y0) es una solucin.
El valor comn se llama multiplicador de Lagrange. Entonces tenemos:
f1(x , y)
g1 (x , y)

f2(x , y)
g2 (x , y)

f1(x , y)
g1 (x , y)

= f1(x , y) g1 (x , y)

f2(x , y) g2 (x , y)

Por ello se construye una funcin cuyas primeras derivadas sean las indicadas arriba y tenemos:
El metodo lagrangiano
Para hallar las soluciones del problema: max(min) f(x,y) sujeta a g(x,y) = c se procede as:
1. Escribir la funcin lagrangiana L(x , y) = f (x , y) ( g(x , y) c)$donde$ $es$constante.
2. Derivar L respecto a x e y, e igualar a 0 las parciales.
3. Escribir el sistemas formado por las dos ecuaciones de 2 junto con la restriccin:

f1(x , y) = g1 (x , y)
f2(x , y) = g2 (x , y)
g(x , y) = c
4. Resolver estas tres ecuaciones en las tres incgnitas x,y y . (pg. 524)
Si x* y y* resuelve el problema, y tenemos la restriccin g(x,y)=c, podemos suponer que x y y (y )
dependen de c y construiremos la funcin valor ptimo:
f *(c) = f (x *(c), y *(c))

df *(c)

= (c) (pg. 526). Es decir, el multiplicador de Lagrange es la tasa de


Para la cual:
c
variacin del valor ptimo de la funcin objetivo cuando la constante de restriccin c cambia.

Es por ello que en economa es llamada el precio sombre de un recurso, ya que la medida
aproximada del aumento de utilidad o beneficio que se puede obtener de aadir unidades de
recurso es:
(pg. 528)
f *(c + dc) f *(c) (c)dc
18.5. Problemas lagrangianos ms generales
El problema con n variables y a lo sumo n-1 restricciones, se resuelve de igual forma, slo que
hay ahora ms de un multiplicador de Lagrange:
g (x ,,x ) = c
n
1
1 1,

max(min)(f (x1, ,,x n )(sujeta(a !!!!!! L(x1, ,,x n ) = f (x1, ,,x n )


g (x ,,x ) = c
n
m
m 1,
Condiciones de primer orden:

( g (x
j=1

1,

,,x n ) c j )

L f (x1, ,,x n ) m g j (x1, ,,x n )


=
j
= 0&&&&&&&&&(i = 1,2,,n)
x i
x i
x i
j=1

Se forma un sistema de n + m ecuaciones con las n + m incgnitas x1,.xn, 1,,m (pg. 537)
37

Clase
Se ilustran los algoritmos para resolver problemas de optimizacin restringida con igualdad y con
desigualdades.
Optimizacin restringida con igualdad (con n-1 restricciones)

Sea$z = f (x1 ,x 2 ,,x n )$sujeto$a$g(x1 ,x 2 ,,x n ) = 0


L(x1 ,x 2 ,,x n ) = f (x1 ,x 2 ,,x n ) g(x1 ,x 2 ,,x n )
Condiciones$de$primer$orden

Se limita el dominio con las restricciones. Si


fueran n restricciones tendramos a lo sumo un
punto en el dominio. Como no habra vecindad
de esta manera, el problema no tendr solucin

L L
L L
=
=!=
=
=0
x1 x 2
x n
Condiciones)de)segundo)orden
0

g1

g2

gn

g1

L11

L12 ! L1n

H = Dk (x) = g2

L21

L22 ! L2n

"
gn

"
Ln1

"
"
Ln2 ! Lnn

Si) Hi = (1)i+1 Mi > 0))i 3 Mximo)local)restringido


Si) Hi = Mi < 0))i 3 Mnimo)local)restringido))))))))))

Ejemplo:

f (x1 ,x 2 ,x 3 ) = x12 2x 22 x 32 + x1 x 2 + x 3 ''s.a.''x1 + x 2 + x 3 = 35


C.P.O
L = x12 2x 22 x 32 + x1 x 2 + x 3 (x1 + x 2 + x 3 35)
L1 = 2x1 + x 2 = 0
L2 = 4x 2 + x1 = 0
L3 = 2x 3 +1 = 0
L = (x1 + x 2 + x 3 35) = 0

SELS : A|b =




1 8 /7 35

0
1
21

1 4 0
0 1 0
0

2 1 0 1 0

1 4 0 1 0
0 0 2 1 1
1 1 1 0 35
1
3/7

0
0

1 4 0 1 0

2 1 0 1 0
1 1 1 0 35

0 0 2 1 1



1 8 /7 35

0
1
21

1 4 0
0 1 0
0

1
3/7

0
0




1 8 /7 35

1 1/2 1/2

1 4 0
0 1 0
0

1 4 0 0 21
0 1 0 0 9
0 0 1 0 11
0 0 0 1 21

1
3/7

0
0

1
0
0
0

0
1
0
0

0
0
1
0

1 8 /7
35

0 23/14 69/2

1 4 0
0 1 0
0

0 15
0 9
0 11
1 21

1
3/7

0
0

x1 = 15

x2 = 9
x 3 = 11

= 21

C.S.O.
0 1 1 1
0 1 1
1
2
1
0
L22
H3 = 1 2 1 = 8 > 0
= 4 L13
= 0 g2 = 1 H =
1 1 4 0
1 1 4
L33
= 2 L23
= 0 g3 = 1
1 0 0 2
L11
= 2 L12
= 1

g1 = 1

38

0 1 1 1
0 1 1 1
1 1 1
H4 = 1 2 1 0 = 1 2 1 2 = (1)5 2 1 2 = 24 < 0 Mx$local$en$P(15,9,11,362)
1 1 4 0
1 1 4 2
1 4 2
1 0 0 2
1 0 0 0

Optimizacin restringida con desigualdad

Max$z$sujeto$a$g$$0

sea$z = f (x1 ,x 2 ,,x n )$y$g(x1 ,x 2 ,,x n ) 0

Min$z$sujeto$a$g$$0

L(x1 ,x 2 ,,x n ) = f (x1 ,x 2 ,,x n ) g(x1 ,x 2 ,,x n )


Condiciones$de$Kuhn=Tucker
L L
L
1)$
=
=!=
=0
x1 x 2
x n
2)$ g(x1 ,x 2 ,,x n ) = 0

Aqu g(x1,x2,,xn) o tendrn que ser 0.

Mx.$g(x ,x ,,x ) 0

1
2
n
3)$
Min.$g(x1 ,x 2 ,,x n ) 0
Ejemplo:

Min!z = x1 x 2 + x1 x 3 + x 2 x 3 sujeto!a!x1x2x3 125


L = x1 x 2 + x1 x 3 + x 2 x 3 (x1x2x3 125 0)
L1 = x 2 + x 3 x2x3 = 0
1) L2 = x1 + x 3 x1x3 = 0 2)!(x1 x 2 x 3 125) = 0 3)!x1 x 2 x 3 125
L3 = x1 + x 2 x1x2 = 0
Resolver:
2)!Si! =0:
x2 + x3 = 0

x1 = 0
0 1 1
1) x1 + x 3 = 0 A = 1 0 1 = 2!solo!la!solucin!trivial! x 2 = 0
1 1 0
x1 + x 2 = 0
x3 = 0
3)!x1 x 2 x 3 125 (0)(0)(0) 125!no!se!cumple,!! 0
2)#Si#x1 x 2 x 3 125 = 0:

=
1)# =

x2 + x3
x2 x3

x2 + x3

x1 + x 3
x1 x 3
x1 + x 2

x2 x3

x1 + x 3
x1 x 3

x1(x 2 + x 3 )
x2

x1 + x 3
x1 x 3

= x1 + x 3 x1 x 2 + x1 x 3 = x1 x 2 + x 2 x 3 x1 = x 2

x1 + x 2
x1 x 2

(x1 + x 3 )
x3

= 2 x1 = x 3

x1 x 2

x1 = x 2 = x 3 x 33 = 125 x1 = x 2 = x 3 = 5
3)&x1 x 2 x 3 125 (5)(5)(5) = 125&El&punto&(5,5,5,75)&es&mnimo&local&
39

Das könnte Ihnen auch gefallen