Beruflich Dokumente
Kultur Dokumente
!
!
!
! !
!
! !
!
Vector de incgnitas:
x1
x2#
x = x 3 ####
!
xn
b1
b2
b = b3 $$$$
bn
La matriz aumentada se denota A|b, siendo una unin de la matriz de coeficientes y el vector de
trminos independientes. La matriz A es de tamao u orden m x n: m renglones o ecuaciones y n
incgnitos o columnas. Siguiendo esta definicin, los vectores tanto de incgnitas como de
trminos independientes pueden expresarse como matrices de orden n x 1.
Una forma general para expresar un SELS es la siguiente: llllllllllllllll
Ax = b 1
Para resolver un sistema, se sustituye por otro ms sencillo que posea el mismo conjunto
solucin. Este se obtiene mediante operaciones elementales (OO.EE.) en los renglones (las
cuales obviamente no afectan el conjunto solucin):
1. Multiplicar una ecuacin por una constante diferente de cero.
2. Intercambiar dos ecuaciones (renglones).
3. Sumar un mltiplo de una ecuacin (rengln) a otra ecuacin (rengln).
Estas operaciones pueden ser vistas como equivalentes a las tcnicas usadas en el lgebra
bsica para resolver sistemas de ecuaciones [sustitucin, igualacin, eliminacin]
Clasificacin de Sistemas de Ecuaciones Lineales Simultneas por nmero de soluciones
Donde el vector de trminos independientes tiene como elementos n ceros (vector nulo), este
sistema es homogneo y siempre tendr solucin. Si es determinado, tendr una solucin nica.
Indeterminado: infinidad de soluciones. En cambio, donde el vector de trminos independientes no
sea el vector nulo, el sistema puede o no tener soluciones; si no las tiene, es inconsistente y en
caso contrario es consistente. Por definicin, entonces, un sistema homogneo es siempre
consistente.
Para determinar de qu clase de SELS estamos hablando es necesario conocer el concepto del
rango r(A) y/o el de determinante, de los cuales se hablarn ms adelante.
Contamos, por ahora, con dos mtodos para resolver SELS:
Eliminacin Gaussiana
Mtodo de Gauss-Jordan
A|b = 2 4
2 5
6
6
0 1 2
0 2 5
2x 4 y + 6z = 0
2x +5 y + 6z = 0
3 0 1 2
6 0 0 9
3
0
0 1 2
0 0 1
3
0
0
0
Se realizaron las operaciones elementales como sigue, para obtener la matriz escalonada en el
ltimo recuadro:
1) El primer rengln, para hacer que contuviera un uno principal, se dividi entre el elemento a11.
2) Se sumo -2 veces el primer rengln al segundo, para que abajo del primer uno principal
hubiera puros ceros.
3) Se divide el segundo rengln entre el elemento a22 para obtener la matriz escalonada.
Hasta aqu el mtodo es el mismo para cualquier matriz, ya sea que se resuelva por eliminacin
Gaussiana o por Gauss-Jordan. A partir de aqu difieren los mtodos:
Eliminacin Gaussiana:
La matriz escalonada puede escribirse como el sistema
2 y + 3z = 0
y
=0
x = 3t , y = 0,z = t
Donde t es un parmetro para la variable libre z. El mtodo usado aqu se llama retrosustitucin.
Gauss-Jordan:
3
A|b 1 2
0 1
3
0
0 1 0
0 0 1
0
0
3
0
Slo se le rest al primer rengln -2 veces el segundo. A partir de aqu podemos hallar la misma
solucin del otro mtodo por simple inspeccin.
La matriz escalonada nos proporciona una herramienta ms de anlisis: el rango. Lo definiremos
por ahora como el nmero de renglones con elementos diferentes de 0 en la matriz escalonada.
Por lo tanto: r(A) = 2 y r(A|b) = 2. Con ayuda de la tabla de arriba, podemos clasificar al sistema
como indeterminado pues n = 3 y 2<3. Lo que significa, como vimos en la solucin, que tenemos
infinidad de soluciones.
x =
3t
0
t
3
= 0 t
r 1 =
a11
a21
a31
!
an1
! a1n
Surge el problema de desarrollar una especie de aritmtica matricial, el cual consiste en hallar qu
caractersticas deben satisfacer las matrices para ser comparadas y para que se interacte con
ellas.
Definicin: dos matrices son iguales si son del mismo tamao y sus elementos correspondientes
son iguales. Es decir, si A = [aij] y B = [bij] entonces son iguales si son del mismo orden y aij = bij
i, j. (pg. 25)
A
mxr
B
rxn
AB
mxn
Interiores
Exteriores
Para entender mejor la multiplicacin de matrices se introduce el concepto del producto punto o
escalar de vectores, que es bsicamente una suma de productos.Se multiplicarn dos vectores
con el mismo nmero de elementos y de tamaos conformables; es decir, un vector rengln y un
vector columna [(1xn)(nx1)=(1x1)]:
uv = u1 ,u2 ,,un
v1
n
v2 = u1v1 + u2v2 +"unvn = u j v j
j=1
!
vn
As, como el producto punto da lugar a un slo escalar (o a una matriz 1x1), cada elemento de la
multiplicacin matricial puede interpretarse como un producto punto.
p
(mxp) ( pxn)
(mxn)
k=1
Productos de matrices como combinaciones lineales: el producto es una combinacin lineal de las
matrices columna de A con los coeficientes que provienen del vector x. (pg. 31)
a11 ##a12 ##a13 ####a1n
x1
x2#
x = x 3 ####
!
xn
a
a11 x1 +$a12 x 2 ++a1n x n
11
a21
a x +$a x ++a2n x n $
Ax = 21 1 22 2
=
x
1
am1
am1 x1 +$am2 x 2 ++amn x n
12
a22
+ x2
am2
1n
a2n
+"+ x n
amn
a21 x1 +$a22 x 2 ++a2n x n $ a21 a22 ! a2n
A x =
=
"
"
"
am1 x1 +$am2 x 2 ++amn x n am1 am2 ! amn
x1
x2
=
"
x n
b1
b2
"
bm
TRANSPOSICIN
Definicin: Si A es cualquier matriz m x n, entonces la transpuesta de A, denotada por AT, se
define como la matriz n x m que resulta de intercambiar los renglones y las columnas de A; es
decir, la primera columna de AT es el primer rengln de A, la segunda columna de AT es el
segundo rengln de A, y as sucesivamente (pg. 33).
tr( A ) = aii
nxn
i=1
a
a
11 12
a21 a22
Matriz identidad. Matrices cuadradas que tienen unos en la diagonal principal y ceros fuera de
ella. Se denota In donde n es ele tamao de la matriz.
1 0 0
I3 = 0 1 0
0 0 1
b es invertible si ad-bc 0, y
c d
d
b
1
d b = ad bc
ad bc
A1 =
ad bc c a
c
a
ad bc ad bc
(pg. 44)
Este teorema solamente aplica para las matrices 2x2 y tiene que ver con el concepto de
determinante, menores y cofactores, analizados posteriormente.
A(BC ) = (AB)C
A(B C ) = AB AC
(B C ) = B C
(BC ) = ( B)C
(BC ) = ( B)C = B C
A = A
AI = A IA = A
A =
A0 = I
An = A A A A A
An = (A1 )n = (An )1
Ar A s = Ar+s
(Ar )s = Ars
1 1
A
k
(A1 )1 = A
(kA)1 =
(AT )1 = (A1 )T
1
(AB) = B A
(AB)T = B T AT
T )T = A
(A
(A + B)T = AT + B T
(kA)T = k(AT )
Mtodos para determinar la matriz inversa
1. Operaciones Elementales
2. Matriz Adjunta
3. Desarrollo por Cofactores
Nos enfocaremos por ahora solamente en el primer mtodo, pero para ello necesitamos conocer
el siguiente concepto:
Matriz elemental
Definicin: Una matriz n x n se denomina una matriz elemental si se puede obtener a partir de la
matriz identidad efectuando una sola operacin elemental en los renglones. () Si la matriz
elemental E resulta de la ejecucin de ciertas operaciones en los renglones de Im y si A es una
matriz m x n, entonces el producto EA es la matriz que se obtiene cuando esta misma operacin
en los renglones se efecta en A (pg. 51 y 52).
8
Esto implica que pueden hacerse las operaciones inversas a las hechas para obtener E, para
regresar a Im.
Si suponemos que la forma escalonada reducida de A en una matriz cuadrada es la identidad,
esta matriz se podr expresar como un producto de matrices elementales, o ms bien, que a
travs de una serie de OO.EE. en los renglones fue posible llegar a la matriz identidad. Es decir:
Ek !E2E1 A = In
Esto, a la vez, implica que como la matriz A es invertible, la inversa puede expresarse as:
A1 = Ek !E2E1In
Entonces, la sucesin de operaciones en los renglones que reduce A a In tambin reduce In a A-1.
Para determinar la inversa de una matriz invertible A, es necesario encontrar una sucesin de
operaciones elementales en los renglones que reduzca A a la matriz identidad y luego efectuar la
misma sucesin de operaciones en In para obtener A-1 (pg. 55).
(A|In ) (In | A1 )
Ejemplo:
1
1 3
2 3
1 0
2 | 2
|
4 1 0 1
1
0
1 4
1
1 3
2 |
2
1 0 7
1
4
4
2
0
1 0
4
0
1
3
14
A 14
2
1
7
7
1
1
2 | 2
2
1
7
1
3
1 0
14
14
|
0 1
1
2
1
7
7
7
0
TEOREMA 1.6.2: Si A es una matriz invertible n x n, entonces para toda matriz b n x 1, el sistema
de ecuaciones Ax = b tiene exactamente una solucin (pg. 61).
Y la solucin sera, al premultiplicar Ax = b por A-1:
A1 Ax = A1 b In x = A1 b x = A1 b
Proposiciones Equivalentes (primer parcial)3
Si A es n x n
a. A es no singular o invertible.
b. Ax = 0 es determinado y tiene solo la solucin trivial.
c. La forma escalonada reducida de A es In.
d. Ax = b es consistente determinado para toda b de tamao nx1
e. A-1 puede expresarse como producto de matrices elementales
A = aij |aij = 0i j
La matriz es invertible si todos los elementos en su diagonal principal son diferentes de cero (p.
68). Tambin las potencias de una matriz diagonal son fciles de calcular:
3Todas
sern verdaderas o todas falsas segn sea el caso. Con demostrar una, las dems quedan demostradas.
9
D=
d1
0
"
0
d2 ! 0
"
"
0 ! dn
0 !
D1 =
1
d1
1
d2
"
"
! 0
"
1
!
dn
!
dk
1
0
Dk =
"
0
0
d2k
"
0
! 0
"
! dnk
!
Matrices triangulares: Una matriz cuadrada en la que todos los elementos arriba/abajo de la
diagonal principal son cero. Si los elementos cero estn arriba es triangular inferior y si estn
abajo es triangular superior.
A = AT
TEOREMA 1.7.3: Si A es una matriz simtrica invertible, entonces A-1 es simtrica (pg. 72)
Utilizando la propiedad (A1 )T = (AT )1 y como A = AT , entonces (A1 )T = A1
SEGUNDO PARCIAL
Determinantes
La funcin determinante asocia un nmero real a una matriz cuadrada (pg 83), el cual es un
escalar nico. El determinante se puede denotar det(A) o |A|. El concepto surge, de solucionar
SELS de matrices n x n.
Una definicin ms formal del determinante implica hablar de sumas de producto con signo,de
permutaciones pares e impares, determinadas al escoger un elemento de cada rengln y otro de
cada columna. Para calcular el determinante de una matriz 2x2:
a b
c d
Se escoge un solo elemento de cada rengln y otro de cada columna (a,d o c,b), y la
multiplicacin es la permutacin. Para saber si es par o impar, y por ende, su signo,
contamos el nmero de violaciones que tiene. Si hay un nmero par de violaciones el signo
es positivo y en caso contrario negativo.
Las
violaciones se cuentan a partir de la localizacin del trmino en la matriz. Una no+ad bc
11 22
12 21 violacin requiere que se respete el orden en el nmero del rengln y columna. Es por eso
que ad no tiene violaciones, pues tanto renglones como columnas estn en orden ascendente (y
por ende su signo es positivo). En cambio bc tiene una violacin, porque las columnas estn en orden
descendente (entonces, signo negativo).
Sin embargo, este mtodo es excesivamente tedioso y por ello veremos los siguientes:
1. Mtodo de Sarrus (solo para matrices cuadradas de orden 2 y 3)
2. Expansin por cofactores
3. Operaciones Elementales
10
1. Mtodo de Sarrus
Una manera de resumir el mtodo de las permutaciones visto primeramente. En una matriz n x n
habr n! sumandos, la mitad sern positivos y la otra mitad negativos.
Cada sumando es el resultado de la multiplicacin de n factores. As en una matriz 3x3:
a b c
d e f
a b c
a b c a b
A= d e f
g h i
A = d e f d e
A =
g h i
g h i g h
a b c
d e f
a b c 2 3 4
A = d e f = 5 6 7 = (2)(6)(1)+(3)(7)(8)+(5)(9)(4)((8)(6)(4)+(9)(7)(2)+(5)(3)(1))
= 360 333 = 27
g h i 8 9 1
Slo es conveniente utilizar este mtodo para matrices de orden 3 o menor. Pues al intentar
hacerlo con matrices de 4 x 4, por ejemplo, tendramos que calcular 4! = 24 sumandos.
Para calcular el determinante en matrices de orden mayor utilizaremos un mtodo recursivo, en el
cual el determinante de una matriz n x n se define en trminos de ciertas matrices
(n-1)x(n-1) (pg 84)
2. Desarrollo por cofactores
Primero necesitamos los siguientes conceptos:
Definicin: Si A es una matriz cuadrada, entonces el menor del elemento aij se denota por Mij y
se define como el determinantes de la submatriz que queda despus de quitar el i-simo rengln y
la j-sima columna de A. El nmero [(-1)i+j Mij] se denota por Cij y se denomina el cofactor del
elemento aij (pg. 84).
El determinante es la suma de los elementos de un rengln o columna de la matriz, cada uno
multiplicado por su cofactor. As A = a11C11 + a12C12 +a1nC1n es la frmula para calcular el
determinante a lo largo del primer rengln. De una forma ms general (pg. 86):
n
Rengln i
Ejemplo:
Columna j
j=1
5 4 2 1
A = 2 3 1 2 = 5M11 4M12 + 2C13 C14 = 5C11 + 4C12 + 2C13 + C14
5 7 3 9
1 2 1 4
5 4 2 1
3 1 2
2
3
1
2
M11 =
= 7 3 9 = 1
5 7 3 9
2 1 4
1 2 1 4
C11 = (1)1+1 M11 = 1
2 1 2
M12 = 5 3 9 = 7
1 1 4
C12 = (1)1+2 M12 = 7
11
2 3 2
M13 = 5 7 9 = 33
1 2 4
C13 = (1)1+3 M13 = 33
2 3 1
M14 = 5 7 3 = 5
1 2 1
C14 = (1)1+4 M14 = 5
3. Operaciones Elementales
Antes de explicar el mtodo, es imperativo conocer antes algunos conceptos, propiedades e
implicaciones del determinante y las operaciones elementales sobre este.
TEOREMA 2.2.1 y 2.2.2 : Sea A una matriz cuadrada. Entonces det(A) = det(AT). Adems, si A
tiene un rengln de ceros o una columna de ceros det(A)= 0.
TEOREMA 2.2.3: Sea A una matriz n x n:
a) Si B es la matriz que se obtiene cuando un solo rengln o una sola columna de A se multiplica
por un escalar k, entonces det(B)= k det(A).
b) Si B es la matriz que se obtiene cuando se intercambian dos renglones o dos columnas de A,
entonces det(B) = -det(A).
c) Si B es la matriz que se obtiene cuando un mltiplo de un rengln (columna) de A se suma a
otro rengln (columna), entonces det(B)=det(A). (pg. 96)
Ejemplo:
2 1 4 3
A = 1 2 3 4 = (1)
2 3 4 5
3 4 5 6
1 2 3 4
2 1 4 3 = (1)
2 3 4 5
3 4 5 6
1 2 3 4
0 3 2 5
0 7 10 3
0 2 4 18
Se intercambi el primer rengln por el segundo, por eso la multiplicacin por -1. Luego se realizaron sumas
de mltiplos de otros renglones, operaciones que no afectan al determinante.
1
0
0
3
2
3
16
3
8
4
5
3
16
26 = (1)(3)( )
3
3
44
3
1 2
0
3 4
2 5
3 3
16
13 = (1)(3)( )(19) = 304
3
1
8
57
0
3
12
"
"
"
C n1 C n2 ! C nn
Regla de Cramer
ax + by = e
af ce
e by
x=
y=
&
cx + dy = f
ad bc
a
x=
A1
A
y=
x=
A2
de bf
ad bc
b
e
b
=
1 =
sustituir los elementos de la j-sima columna de A con los elementos del vector
b2 f (pg 92)
As en este caso:
A= a b
c d
e
A1 =
f
b
d
a
A2 =
b
e
f
Esto es aplicable para cualquier sistema de ecuaciones que tenga n ecuaciones con n incgnitas
tal que el determinante de la matriz sea 0 (y por lo tanto tenga una solucin
nica).
det(kA) = k n det(A)
Por ejemplo:
ka11
ka12 ka13
a11
3
a12 a13
(pg. 103)
TEOREMA 2.3.3: Una matriz cuadrada A es invertible si y slo si det(A) 0. (pg 105)
TEOREMA 2.3.4: Si A y B son matrices cuadradas del mismo orden: det(AB)=det(A)det(B) (p. 106)
TEOREMA 2.3.5: SI A es invertible, entonces
A1 =
1
A
(pg. 107)
a.
b.
c.
d.
e.
f.
A es no singular o invertible.
Ax = 0 es determinado y tiene solo la solucin trivial.
La forma escalonada reducida de A es In.
Ax = b es consistente determinado para toda b de tamao nx1
A-1 puede expresarse como producto de matrices elementales
det(A) 0 (pg. 109)
Combinacin lineal
Un concepto fundamental para el lgebra lineal y para el anlisis de los espacios vectoriales es la
combinacin lineal. A pesar de haberla definido anteriormente, es til definirla en profundidad:
14
2 2
S = (1,3,1),(0,1,2),(1,0,5)
v1 = c2 v2 + c3 v3 ?
1
0
1
Esto da origen a un SELS lineal, con las incgnitas siendo las constantes.
3 = c2 1 + c3 0 Si el sistema tiene solucin, entonces podremos afirmar la existencia de C.L.
1
2
5
Como
b = a1 x1 + a2 x 2 +!ar x r
Espacio generado
Si v1,v2,,vr son vectores en un espacio vectorial V, entonces por lo general algunos de los
vectores en V pueden ser combinaciones lineales de v1,v2,,vr y otros no. Si se construye un
conjunto W que conste de todos los vectores que pueden expresarse como combinaciones
lineales de v1,v2,,vr.. Tenemos a v1,v2,,vr como conjunto generador
Definicin: Si S = {v1,v2,,vr} es un conjunto de vectores en un espacio vectorial V, entonces el
subespecio W de V que consta de todas las combinaciones lineales de los vectores en S se
denomina el espacio generado por v1,v2,,vr y se dice que los vectores v1,v2,,vr generan a W
(pg. 236)
Otra forma un tanto ms simple de definirlo:
Sea S = {v1,v2,,vr} contenido en V. S es un conjunto generador de V si todo vector en V es
combinacin lineal de S. En ese caso S genera a V.
Ejemplos:
2
a)S = (1,0),(0,1 ! se podr obtener el vector que sea a partir de la combinacin lineal de S?
w
1
0 w1
1
2
w=
! c1
c = w ;c = w w = w v + w v
+ c2
=
1
1 2
2
1 1
2 2
w2
0
1 w2
b)
3
2
P = (x 2 2x),(x 3 8),(x 3 x 2 ),(x 2 4) P3 tomando en cuenta que P3(x) = a3 x + a2 x + a1 x + a0
c1
0
1
2
0
+ c2
1
0
0
8
+ c3
1
1
0
0
+ c4
0
1
0
4
p1
p2
=p
p3
p4
0 1 1 0
1 0 1 1
2 0 0 0
0 8 0 4
como el determinante de esta matriz es diferente de 0 (comprobar), el sistema tiene una nica solucin y
por tanto es conjunto generador.
15
Independencia Lineal
Definicin: Si S = {v1,v2,,vr} es un conjunto no vaco de vectores, entoonces la ecuacin vectorial
2 1 3 0 1 0
Ejemplo: S =
,
,
M2x 2
0 1 2 1 2 0
2 1
3 0
1 0 0 0
c1
+ c2
+ c3
=
A|b =
0 1
2 1
2 0 0 0
2
1
0
1
3
0
2
1
1
0
2
0
0
0
0
0
Este SELS tiene solo la solucin trivial y por lo tanto S es Linealmente Independiente.
La dependencia lineal nos muestra que los vectores dependen de s de alguna manera porque:
TEOREMA 5.3.1: Un conjunto S con dos o ms vectores es:
a) Linealmente dependiente si y slo si al menos uno de los vectores en S puede expresarse
como una combinacin lineal de los dems vectores en S.
b) Linealmente independiente si y slo si ningn vector en S se puede expresar como un
combinacin lineal de los dems vectores en S. (pg. 243)
Otros teoremas de dependencia e independencia lineal:
TEOREMA 5.3.2:
a) Un conjunto finito de vectores que contiene al vector cero es linealmente dependiente.
b) Un conjunto con exactamente dos vectores es linealmente independiente si y solo si ninguno
de los vectores es un mltiplo escalara del otro. (pg. 244)
Colinealidad y coplanaridad: Geomtricamente en R2 y R3 un conjunto de dos vectores que es
colineal es linearmente dependiente. En R3 un conjunto de tres vectores que sea coplanar es
linealmente dependiente. (pg. 244)
TEOREMA 5.3.3: Sea S = {v1,v2,,vr} un conjunto de vectores en Rn. Si r > n, entonces S es LD.
Esto nos da una herramienta prctica para ver si los vectores en Rn son LI o LD.
Base
En un sistema de coordenadas, se tienen los ejes y las escalas. En un plano cartesiano
convencional, por ejemplo, el eje x es horizontal (0 de inclinacin )y es perpendicular al eje y.
Adems, regularmente la escala de este plano es de unidades. Si definimos a los vectores
bsicos como los que especifican un sistema de coordenadas (pg. 251), en este caso
tendramos vectores de norma o longitud 1 y de direccin positivo con 0 grados de inclinacin.
Definicin: Si V es cualquier espacio vectorial y S = {v1,v2,,vn} es un conjunto de vectores en
V, entonces S se denomina una base para V si se cumplen las dos condiciones siguientes:
a) S es linealmente independiente.
b) S genera a V (conjunto generador). (pg. 251)
TEOREMA 5.4.1: Si S = {v1,v2,,vn} es una base para el espacio vectorial V, entonces todo vector
v en V se puede expresas en forma nica como v = c1v1+c2v2++cnvn (pg. 252)
16
S =
1
2
1
3
4
c1
1
2
1
3
4
+ c2
0
1
3
2
3
,
0
1
3
2
3
0
0
2
1
5
+ c3
0
0
0
2
3
0
0
2
1
5
1 0 0 0 0
2 1 0 0 0
1 3 2 0 0
3 2 1 2 0
4 3 5 3 2
dim(Rn ) = n
dim(Pn ) = n +1
dim(Mmn ) = mn
0
0
0
0
2
+ c4
5
!
0
0
0
2
3
+ c5
0
0
0
0
2
w1
w2
w3
w4
w5
1 0 0 0 0
2 1 0 0 0
1 3 2 0 0 = 8es*base.
3 2 1 2 0
4 3 5 3 2
Ntese que se hace uso del determinante para determinar tanto independencia lineal como la
generacin del espacio. Esto es porque se requiere una solucin nica tanto para el vector 0 (LI)
como para el vector w (conjunto generador).
17
Definicin: Las operaciones elementales en los renglones no cambian el espacio nulo de una
matriz (pg. 270)
Definicin: Las operaciones elementales en los renglones no cambian el espacio rengln de una
matriz (pg. 270)
TEOREMA 5.5.6: Si una matriz R est en forma escalonada, entonces los vectores rengln con
los 1 principales (es decir, los vectores rengln diferentes de cero) forman una base para el
espacio rengln de R, y los vectores columna con los 1 principales de los vectores rengln forman
una base para el espacio columna de R. (pg. 272)
Supongamos una matriz A de orden 5x4.
A=
1
0
3
3
2
c1
r
1 3
3 1 3 1
1 1 0 r2 0 1
0 6 1 r3 0 0
0 0
4 2 1 r
4
0 0
0 4 2
r5
c2 c3 c 4 c5
1
1
0
0
0
3
0
1
0
0
A = r1 r2 r3 r4 r5 ! 4
A = c1 c2 c3 c4 !5
Espacio(rengln(de(A:((E1 = gen
Espacio(columna(de(A:((E2 = gen
r1 r2 r3
c1
c2 c 4
= gen
(1
gen
3 1 3
1
0
3
3
2
) (0
3
1
0
4
0
1 1 0
3
0
1
1
2
) ( 3
0 6 1
Podemos ver a la matriz como un arreglo de 5 vectores rengln ri (con 4 elementos c/u) o como
un arreglo de 4 vectores columna ci (con 5 elementos c/u) [ver imagen de la derecha]. As, los
vectores rengln podrn estar a lo sumo en R4, por su nmero de elementos y los vectores
18
columna en R5 por la misma razn. De esta manera, lo mximo que pueden aspirar generar los
vectores de la matriz es R4. O generalizando:
Si A es una matriz m x n, entonces los vectores rengln estn en Rn y los vectores columna
estn en Rm. Esto implica que el espacio rengln de A es a lo sumo de dimensin n y el espacio
columna de A es a lo sumo de dimensin m. Como los espacios rengln y columna tienen la
misma dimensin (el rango de A), se debe concluir que si mn, entonces el rango de A es a lo
sumo el menor de los valores de m y n. (pg. 283)
Al seguir resolviendo para obtener las soluciones del SELS homogneo, obtenemos la matriz
escalonada reducida:
1
0
0
0
0
0 2 0
1 1 0
0 0 1
0 0 0
0 0 0
x =
2
1
1
0
3
dimensin. Esto aplica por igual para SELS no
Esto es esencialmente porque los vectores columna de A tienen que combinarse linealmente para
dar lugar a cualquier vector de m elementos. Por eso generaran a Rm y su rango ser m.
TEOREMA 5.6.7: Si Ax = b es un sistema lineal consistente de m ecuaciones con n incgnitas y
si A es de rango r, entonces la solucin general del sistema contiene n-r parmetros.
Estos ltimos teoremas nos llevan a definir dos tipos de sistemas:
Sistema sobredeterminado: donde hay ms ecuaciones que incgnitas (m > n). Como el rango
mximo al que puede aspirar un sistema como este es n, no podr generar a Rm y por lo tanto no
puede ser consistente para cada b posible.
Sistema subdeterminado: donde hay ms incgnitas que ecuaciones (m < n). Esto implica que el
rango mximo que podra tener el sistema ser m, y la nulidad o los parmetros ser al menos
uno. Esto significa que un sistema subdeterminado consistente tiene infinidad de soluciones.
2) Se amplan las proposiciones equivalentes vistas anteriormente:
Proposiciones Equivalentes
Si A es n x n y si TA: Rn > Rn es la multiplicacin por A:
a. A es no singular o invertible.
b. Ax = 0 es determinado y tiene solo la solucin trivial.
c. La forma escalonada reducida de A es In.
d. Ax = b es consistente determinado para toda b de tamao nx1
e. A-1 puede expresarse como producto de matrices elementales
f. det(A) 0
g. El recorrido de TA es Rn.
h. TA es uno a uno
i. Los vectores columna de A son linealmente independientes.
j. Los vectores rengln de A son linealmente independientes.
k. Los vectores columna de A generan a Rn.
l. Los vectores rengln de A generan a Rn.
m. Los vectores columna de A generan una base para Rn.
n. Los vectores rengn de A generan una base para Rn.
o. El rango de A es n.
p. La nulidad de A es 0
q. =0 no es un eigenvalor de A5. (pg. 366)
Eigenvalores, eigenvectores
Al multiplicar una matriz por un vector, podemos hallar una relacin geomtrica; este es que la
multiplicacin Ax resulte un mltiplo escalar de x. Esto significara que, grficamente el nuevo
vector quedara mapeado sobre la misma recta que el nuevo.
Definicin: Si A es una matriz n x n, encunes un vector x diferente de cero en Rn se denomina
eigenvector de A si Ax es un mltiplo escalar de x; es decir, si Ax = x para algn escalar . El
escalar se denomina eigenvalor de A, y se dice que x es un eigenvector de A correspondiente
a . (pg. 360)
Al transformar el vector al multiplicarlo por la matriz, se cambiar la magnitud o norma pero la
direccin se mantiene. Demostracin: sea x el vector localizado en el punto (a,b):
norma:' x =
5Este
b
a
b b
=
a a
Ax = I x Ax Ax = I x Ax 0 = ( I A)x
El ltimo miembro implica un sistema homogneo. Como queremos que haya soluciones no
triviales para lambda, tendemos que hallar los valores en donde el determinante sea cero.
Esta expresin se denomina la ecuacin caracterstica de A. Al desarrollar esta
I A = 0 ecuacin siempre se obtendr el polinomio caracterstico de A y ser de la forma:
p( ) = n + c1 n1 +!+ cn
A lo sumo se tendrn n soluciones distintas en una matriz n x n (pg. 361). Veamos un ejemplo
con soluciones distintas:
=2
0
I A = 0 0 2 0 = 2
= 0 ( 2)( +1) = 0&&&&&&& 1
0
+1
2 = 1
0 0 1
Al obtener los eigenvalores de A, faltarn solamente los eigenvectores: resolvemos ( I A)x = 0 :
0 x = 3 0 x1 = 0
Si#2 = 1 (I A)x = 1 2
0
1+1
0 0 x 2 0
sea$x1 = t : $x = 1 t E1 = gen 1
0
0
sea$x2 = t : $x = 0 t E2 = gen 0
1
1
A = 0 2 0 $$$$$$$ I A = 0
0
2
0
= 0 ( 2)3 = 0$$$$ 1,2,3
k =3
0 0 2
0
0
2
2 2 1
0
Si#1,2,3 = 2 (2I A)x = 0 2 2 0
0
0 2 2
0 1 0 x1 0
x = 0 0 0 x = 0
0 0 0 x 0
3
1 0
1 0
sean%
x = 0 s + 0 t E1 = gen 0 , 0 %%m = 2
x3 = t
0 1
0 1
x1 = s
Diagonalizacin
Un tema subyacente al de la diagonalizacin es la semejanza de matrices:
Sean A y B matrices cuadradas del mismo orden n x n, se dice que son semejantes si B = P-1AP
Ejemplo:
El problema de diagonalizacin se puede abordad de dos maneras: 1) Hallar una matriz B que sea
semejante a A y adems diagonal. 2) Dada una matriz A n x n, hallar una base para Rn integrada
por eigenvectores de A.
Definicin: Una matriz cuadrada A se denomina diagonalizable si existe una matriz invertible P
tal que P-1AP es una matriz diagonal; se dice que la matriz P diagonaliza a A. (pg. 369)
Para poder abordar los dos problemas anteriores, se requiere que A tenga n vectores propios
linealmente independientes, de otra forma no podra generar a Rn. Que A sea diagonalizable,
implica que A y su matriz diagonal correspondiente son semejantes y por tanto tienen los mismos
eigenvalores, lo que se demuestra a continuacin:
Sea$$$$B = P .1 AP : $ I B = I P 1 AP
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$ I B = P IP 1 P 1 AP
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$ I B = P 1( IP AP)
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$ I B = P 1( I A)P
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$ I B = P 1 I A P
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$ I B = P 1 P I A
$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$$ I B = I A
Ejemplo:
1 0 0
1
0
0
A = 1 1 1 %%%%%%%%% I A = 0 1
1 1
1 2 4
1
2
4
1 = 1%;%k = 1
2 = 2%;%k = 1
3 = 3%;%k = 1
= 3 6 2 +10 + 6 = 0
11 0
0
Si#1 = 1 (I A)x = 1 11 1
1
2 1 4
0 0 0 x1 0
1
x = 1 0 1 x = 0 ###sea#x = t : #x = 1 t E = gen 1
3
2
1 2 3 x 0
1
21 0
0
Si#2 = 2 (2I A)x = 1 21 1
1
2 2 4
1 0 0 x1 0
0
x = 1 1 1 x = 0 ###sea#x = t : #x = 1 t E = gen 1
3
2
1 2 2 x 0
1
31
0
0
Si#3 = 3 (3I A)x = 1
31 1
1
2 3 4
2 0 0 x1 0
x = 1 2 1 x
0 ###sea#x = t : #x =
=
2
3
1 2 1 x 0
0
1
2
1
t E = gen
2
0
1
2
1
1
1
P= 1 1
$$$$$$$$$$$$$$$$$P |I3 = 1 1
2
2
1 1 1
1 1 1
1 0 0
0 1 .5
0 0 1
1 0 0
1 0 0
1
0 1 0 0 1
2
0 0 1
0
1
1
1 0 0 1 0 0
1 1 0 0 1 0
0 2 2 0 0 1
1 0 0 1 0 0
1 1 0 0 1 .5
1 0 1 0 0 .5
1 0 0
1
1
1 0 1 = I3 |P (((((((((P =
0 2 2
1 0 0 1 0 0 1 0
P 1 AP = 1 0 1 1 1 1 1 1
0 2 2 1 2 4
1 1
0
1
2
1
1 0
1
P 1 =0
0 2
1 0 0 1 0
= 2 2 4 1 1
0 6 6
1 1
1 0 0 1
D = 0 2 0 = 0
0 0 3 0
2
0
1 0 0
1 1 0
0 1 1
10 0 0
1 ( 0 1 $$$
1
2
0 2 2
0
1
2
1
1 0 0 1
= 0 2 0 = 0
0 0 3
0
3
23
2
0
Y de forma general:
Ak = PDk P 1
(pg. 377)
Formas cuadrticas
Las funciones en las que los trminos son cuadrados de variables o productos de dos variables
pueden ser representadas con matrices; es decir, funciones de la forma:
a1 x12 + a2 x 22 +!an x n2 +(todos(los(posibles(trmino(de(la(forma(ak x i x j (para(i<j) (pg. 480)
A esta forma se le denomina forma cuadrtica, un ejemplo con tres variables ser el siguiente:
2
2 2
2
3 3
(x
x2
x3
a1
a4
a5
a4
a2
a6
2 x
1
a6
x
2 2
x
3
a3
a5
x Ax =
(x
x2
x3
! xn
a11
a21
a31
"
an1
x1
x2
x3 $
"
x n
a12
2
x1 x 2 +
a21
2
x 2 x1 +
a13
2
x1 x 3 +!+
a31
2
x 3 x1 +
aij
2
xi x j +
aij
2
xi x j
x = x12 + x 22 + x 32 +!+ x n2 = 1
Qu condiciones debe satisfacer A para que una forma cuadrtica satisfaga la desigualdad
xTAx > 0 para todo x0?
Si xTAx es una forma cuadrtica con dos o tres variables y c es una constante, qu perfil
tiene la grfica de la ecuacin xTAx=c? (pg. 481)
Se dar un ejemplo para encontrar los valores mximo y mnimo de una forma cuadrtica:
x Ax =
x1
x
x2 1 2 1
2 1 x 2
2 1
2 = 1
Si#2 = 1: ## I A x = 2 2 1 = 0 #####sea#x2 =t x = 1 t E2 = gen 1
2 2 x2 0
1
1
Hasta aqu hemos llegado a los valores propios mximos y mnimos, as como sus vectores
propios correspondientes. Para sacar los vectores propios en donde se maximiza la forma
cuadrtica se tiene que cumplir la restriccin; es decir, la norma tiene que ser unitaria. Para lograr
eso, dividiremos cada elemento de cada eigenvector entre su propia norma:
x = x12 + x 22 = 1
E1 = 12 +12 = 2
1
1
2
2 E = (1)2 +12 = 2
2
1
1
2
2
b) Una submatriz o un menor lder o principal es la submatriz formada con los r primeros
renglones y las r primeras columnas de A para r= 1,2,, n. Por ejemplo:
25
a
a12
11
A1 = a11 """"A 2 =
a21 a22
TEOREMA 9.5.3: Una matriz simtrica A es positiva definida si y slo si el determinante de toda
submatriz principal es positiva (pg. 484)
( )
a
a
a
11 12 13
""""""A 3 = a21 a22 a23
a
a ! a1n
11 12
a ! a2n
a
""""""""A n = A = 21 22
"
"
"
(x
x2
x3
1 1 0 x1
1 6 2 x
2
0 2 3 x
3
Es una matriz cuadrada que muestra las transacciones de bienes intermedios dentro de la
industria. Se divide generalmente en sectores, los cuales representan las columnas y los
renglones de la matriz. Como se sigue la igualdad Gasto = Ingreso, los renglones representan las
ventas internas de la industria i a cada industria j, y las columnas las compras de la industria j a la
industria i. Por ejemplo:
I
v11
II
v12
II
v21
El elemento v12 representa la venta realizada del sector I al sector II. O bien, las
I
v11
II
v12
d
d1
II
v21
v22
d2
x = v + d donde el vector v
v
v
v = 11 12
v21 v22
v +v
1 = 11 12
1 v21 + v22
1
A = V W = V
W = diag 1
1
0
xi
x 2
Por la definicin de aij y xj se puede ver que la cantidad ai1 x1 + ai2 x 2 +!+ aik x k es el valor de la
produccin que los k sectores necesitan para lograr una produccin total especificada por el vector
de produccin x (pg. 644). El producto Ax representar la demanda intermedia por sector, as:
Ax = v!!!!!!!!!!!!!!
x = v +d
x = Ax + d
Requerimos que el valor bruto de la produccin sea suficiente para satisfacer la demanda interna
y tambin la externa; es decir, la demanda final.
Aplicacin:
Lo expuesto aqu tiene cierta capacidad predictiva. Dada una estimacin de la demanda final en el
periodo siguiente, podemos calcular el valor de la produccin necesario para satisfacerla. Para
resolver el problema, suponemos que la tecnologa no cambia; es decir, la matriz A es constante.
As, solo necesitamos un sencillo despeje:
I
II
III
d0
x0
252
I
51
284
0.04
252
586
V |d | x =
-----------Si-d1 = 7325 x1 ?
II 84 2412 748 7325 10567
7000
III 42 1242 1392 6885 9528
Por
x = (I A)1 d
1
586
A = V W = V
0
necesitamos la matriz A:
0
1
10567
0
1
51 284 0.04 586
0
0
= 84 2412 748
42 1242 1392
1
0
9528
0
1
10567
0
0
= .1427 .2281 .0735
.1175 .0712 .1461
1
9528
0
1
I A = .1427 .7719
.0735 (I A) = .2159 1.3217 .1215
.1175 .0712
.1215 .1850 1.8980
.8539
28
Captulo 15. Funciones de varias variables. Secciones 15.1, 15.3, 15.5 y 15.6.
15.1. Funciones de dos o ms variables
Una funcin f de dos variables x e y con dominio DR2 es una regla que asigna un nmero
especfico f(x,y) a cada punto (x,y) D (pg. 390).
Una funcin f de n variables x1,,xn con domino DR2 es una regla que asigna un nmero
especfico f(x1,,xn) a cada n-vector (x1,,xn) D (pg. 392).
Suponemos que el dominio de una funcin definida por una forma es el mayor dominio en el cual
la frmula tiene sentido y da una valor nico (pg. 393)
Clase
El clculo con n variables independientes es relevante en economa. Trataremos funciones
reales, es decir funciones en Rn. Una funcin asigna un valor a un conjunto de variables
independientes. Cuando hablamos de una funcin Rn R queremos decir que las variables
x1,,xn evaluadas en la funcin dan como resultado un solo valor nico. La funcin transforma un
vector en Rn a un punto.
Tericamente una funcin con races cuadradas y tres variables independientes es R3R2
Al conjunto x1,,xn que da origen a z debe estar ordenado y le llamamos n-ada.
Por las definiciones de arriba, asumimos que cualquier funcin es una regla de correspondencia.
Dominio:
6Las
pginas citadas ahora sern de este libro y no ms del de Algebra Lineal de Anton.
29
4 2
&&&&&&D = (x , y)| x 0, y 0
x y
4
f (x , y) =
&&&D = (x , y)| x y > 0
x y
f (x , y) =
2n +1
f (r ,s,v,p) = rs 2 tanv + 4sv ln p&&&&D = (r ,s,v,p)|p > 0,v
polinomios potencias+enteras+positivas
Operaciones+algebricas
funcin+potencia racionales+potencias
trigonomtrica
Operaciones+no+algebricas exponenciales
logartmica
z = f (x , y) c = f (x , y)$donde$c$es$constante.$
As, por ejemplo, las curvas de nivel de la funcin de utilidad del tipo Cobb Douglas para una
canasta de dos bienes, se llama Curva de Indiferencia porque la utilidad (z) se mantiene
constante. Son generalmente paralelas este tipo de grficas.
2. Las trazas son otro tipo de cortes, la diferencia es que se dan cuando una de las variables
independientes es mantenida constante. Se graficaran, por ello en los ejes xz o yz.
Para funciones de dos variables queremos ver la velocidad de variacin respecto de los cambios
de valores en las variables independientes. (pg. 401)
Sea z = f (x , y) . La derivada parcial de z (o f) con respecto a x, denotada por z / x, es la
derivada de f(x,y) con respecto a x cuando y se mantiene constante. La derivada parcial de z (o f)
con respecto a y, denotada por z / y, es la derivada de f(x,y) con respecto a y cuando x se
mantiene constante. (pg. 402)
Otras notaciones para la derivada parcial:
f z
f (x , y)
=
= z x = f x(x , y) = f1(x , y) =
x x
x
Derivadas parciales de orden superior
Las derivadas parciales que acabamos de definir son las de primer orden. Al derivar las de primer
orden respecto a cualquier variable independiente se obtienen las de segundo orden.
p(pg. 403)
Clase
El concepto de derivada es muy amplio y cubre tres principales definiciones:
1) Tasa instantnea de cambio
2) Pendiente de la recta tangente en un punto dado
3) Cociente de diferenciales
Definicin formal:
dy
f (x + h) f (x)
= lim
dx h0
h
Diferencial: dy = f (x)dx
El anlisis de las derivadas parciales expuesto arriba puede enriquecerse al analizarlas con el
concepto de trazas en R2 de funciones de R2 en R. La ecuacin de la pendiente de la recta
tangente que toca a la traza en el plano xz es la derivada parcial de f(x,y) respecto a x, pues la
traza se construy a partir de dejar constante a y. Lo mismo aplica para la derivada parcial
respecto a y.
15.5. Derivadas parciales de funciones de varias variables.
Si z = f (x1 ,x 2 ,x n ), entonces f / x i es la derivada zde
= f (x1 ,x 2 ,x n ) con respecto a xi
considerando las otras variables xj (ji) como constantes. (pg. 409)
La derivada parcial z / x i es aproximadamente igual a la variacin de la funcin z = f (x1 ,x 2 ,x n )
producida por un aumento unitario de xi mientras las otras xj permanecen constantes (pg. 410).
Para cada derivada parcial de primer orden, se tienen n parciales segundas, la matriz conformada
por todas las parciales segundas es la matriz hessiana:
( ) f ( x )
( ) f ( x )
f x
11
f x
H = 21
f x
n1
12
22
( ) f ( x )
z xy
= z yx
n2
( )
f ( x )
f1n x
2n
f nn x
()
31
Como es usual con las derivadas parciales segundas en funciones de dos variables
independientes,
por lo que en funciones de n variables:
Teorema de Young
z = f (x1 ,x 2 ,x n ) se han
Supongamos que dos derivadas parciales de orden m de la funcin
obtenido con el mismo nmero de derivaciones respecto a cada una de las variables y son
continuas en un conjunto abierto S. Entonces las dos derivadas parciales son iguales en todo
punto de S. (pg. 411)
(Clase: Definicin formal de derivada parcial en funciones de dos variables)
f (x + h, y0 ) f (x , y0 ) z
f (x 0 , y + h) f (x 0 , y)
z
= lim
= lim
x h0
h
y h0
h
Definicin formal de la derivada parcial en funciones de n variables independientes
dt
dt
dt
(pg. 430)
dz/dt es la derivada total de z con respecto a t; supone que existen derivadas parciales de F
respecto a x y y, que son funciones derivables de t.
Derivadas direccionales
Se obtiene una tasa de variacin de una funcin de dos variables en otras direcciones (adems de
x y y) .
Derivadas direccionales
La derivada direccional de f(x,y) en (x 0 , y0 ) en la direccin del vector unitario (h,k) (es decir,
h2+k2=1) es
(pg. 432)
= F1(x , y)
x
y
+ F2(x , y)
t
t
z
x
y
= F1(x , y) + F2(x , y)
s
s
s
(pg. 436)
32
z z x1 z x 2
z x n
=
+
+!+
,$$$( j = 1,2,m)
t j x1 t j x 2 t j
x n t j
(pg. 436)
f (x) =
F (x , f (x))
dy
= 1
dx
F2(x , f (x))
(pg. 441)
xi
f (x1 ,x 2 ,x n )
f (x1 ,x 2 ,x n )
x i
Elasticidad de sustitucin
La tasa marginal de sustitucin entre y y x es:
y = R yx =
F1(x , y)
F2(x , y)
x i z
z x i
(pg. 449)
Ryx es aproximadamente la cantidad de y que hay que aadir por unidad de x que se quita,
siempre que se permanezca en la misma curva de nivel.
Para F(x , y) = c , la elasticidad de sutitucin entre y y x es:
y
yx = ElR (pg. 449)
yx
x
Es la elasticidad de la fraccin y/x con respecto a la TMS; variacin porcentual de la relacin y/x
cuando Ryx crece un 1%.
16.5. Funciones homogneas de dos variables
Una funcin de dos variables es homognea de grado k si para todo t > 0
(pg. 452)
k
f (tx ,ty) = t f (x , y)
Es decir, el multiplicar las variables por un factor positivo t implicar que el valor de la funcin se
multiplicar por el factor tk. Por ejemplo,la funcin F de Cobb-Douglas es homognea de grado a+b.
(pg. 452)
x f (x ,x ,x
i i
i=1
) = kf (x1 ,x 2 ,x n )
(pg. 456)
12
22
Se tiene:
(a) Si A < 0 y AC B2 > 0, entonces (x0,y0) es un mximo local.
(b) Si A > 0 y AC B2 > 0, entonces (x0,y0) es un mnimo local.
(c) Si AC B2 < 0, entonces (x0,y0) es un punto de silla.
(d) Si AC B2 = 0, entonces (x0,y0) puede ser un mximo local, mnimo local o punto de silla.
(pg. 491)
34
17.8. Tests de la derivada segunda para concavidad y convexidad: el cado de dos variables
Teorema 17.9
Sea z = f(x,y) una funcin con derivadas parciales continuas de primero y segundo orden, definida
sobre un conjunto abierto y convexo S del plano. Entonces
(a) f es cncava si y slo si f11 0, f22 0, y
f11
f12
f21
f22
f11
f12
f21
f22
0 (pg. 505)
Dk (x) =
f11(x)
f12(x) !
f1n(x)
f21(x)
f22(x) !
f2n(x)
"
f n1(x)
"
f n2(x) !
"
f nn(x)
%%%%%%%%(%k = 1,n)
(pg. 509)
35
Clase
El punto mximo es el punto ms alto en la vecindad; es decir, todos los valores alrededor de una
funcin son menores al analizado. Lo opuesto aplica para los mnimos. El algoritmo para
calcularlos es:
Optimizacin no restringida
Sea z = f (x1 ,x 2 ,,x n )
Si falla este mtodo, se puede evaluar la funcin
alrededor del punto crtico que se origin de las
CC.P.O, o bien se puede utilizar el mtodo del
gradiente, que tiene que ver con el concepto de
derivada direccional.
z z z
z
=
=
=!=
=0
x1 x 2 x 3
x n
Condiciones de segundo orden
Sea
H = Dk (x) =
f11(x)
f12(x) !
f1n(x)
f21(x)
f22(x) !
f2n(x)
"
f n1(x)
"
f n2(x) !
"
f nn(x)
f
= 2x + z = 0
x
f
= 2 y + 2 = 0####
y
f
= 2z + x = 0
z
2 0 1 0 1 0 1/2 0 1 0 1/2 0 1 0 0 0
x =0
SELS :A|b = 0 2 0 2 0 1
0
1 0 1
0
1 0 1 0 1 y = 1
1 0 2 0 0 0 3/2 0 0 0
1
0 0 0 1 0
z =0
C.S.O :
f11(0,1,0) = 2e w +(2x + z)2 e w = 2e
f22(0,1,0) = 2e w +(2 y + 2)2 e w = 2e
f33(0,1,0) = 2e w +(2z + x)2 e w = 2e
f12(0,1,0) = (2 y + 2)(2x + z)e w = 0
f13(0,1,0) = e w +(2z + x)(2x + z)e w = e
f23(0,1,0) = (2z + x)(2 y + 2)e w = 0
36
2e 0
e
H = 0 2e 0 H1 = 2e < 0, H2 = 2e 0 4e > 0, H3 = (2e)3 ((2e)e2 ) = 6e3 < 0
0 2e
e
0 2e
Entonces el punto P(0,1,0, e) es un mximo local
f1(x , y)
g1 (x , y)
&o&
f1(x , y)
f2(x , y)
f2(x , y) g2 (x , y) g1 (x , y) g2 (x , y)
(pg. 523)
Las fracciones del ltimo miembro de la expresin de arriba coincidirn si (x0,y0) es una solucin.
El valor comn se llama multiplicador de Lagrange. Entonces tenemos:
f1(x , y)
g1 (x , y)
f2(x , y)
g2 (x , y)
f1(x , y)
g1 (x , y)
= f1(x , y) g1 (x , y)
f2(x , y) g2 (x , y)
Por ello se construye una funcin cuyas primeras derivadas sean las indicadas arriba y tenemos:
El metodo lagrangiano
Para hallar las soluciones del problema: max(min) f(x,y) sujeta a g(x,y) = c se procede as:
1. Escribir la funcin lagrangiana L(x , y) = f (x , y) ( g(x , y) c)$donde$ $es$constante.
2. Derivar L respecto a x e y, e igualar a 0 las parciales.
3. Escribir el sistemas formado por las dos ecuaciones de 2 junto con la restriccin:
f1(x , y) = g1 (x , y)
f2(x , y) = g2 (x , y)
g(x , y) = c
4. Resolver estas tres ecuaciones en las tres incgnitas x,y y . (pg. 524)
Si x* y y* resuelve el problema, y tenemos la restriccin g(x,y)=c, podemos suponer que x y y (y )
dependen de c y construiremos la funcin valor ptimo:
f *(c) = f (x *(c), y *(c))
df *(c)
Es por ello que en economa es llamada el precio sombre de un recurso, ya que la medida
aproximada del aumento de utilidad o beneficio que se puede obtener de aadir unidades de
recurso es:
(pg. 528)
f *(c + dc) f *(c) (c)dc
18.5. Problemas lagrangianos ms generales
El problema con n variables y a lo sumo n-1 restricciones, se resuelve de igual forma, slo que
hay ahora ms de un multiplicador de Lagrange:
g (x ,,x ) = c
n
1
1 1,
( g (x
j=1
1,
,,x n ) c j )
Se forma un sistema de n + m ecuaciones con las n + m incgnitas x1,.xn, 1,,m (pg. 537)
37
Clase
Se ilustran los algoritmos para resolver problemas de optimizacin restringida con igualdad y con
desigualdades.
Optimizacin restringida con igualdad (con n-1 restricciones)
L L
L L
=
=!=
=
=0
x1 x 2
x n
Condiciones)de)segundo)orden
0
g1
g2
gn
g1
L11
L12 ! L1n
H = Dk (x) = g2
L21
L22 ! L2n
"
gn
"
Ln1
"
"
Ln2 ! Lnn
Ejemplo:
SELS : A|b =
1 8 /7 35
0
1
21
1 4 0
0 1 0
0
2 1 0 1 0
1 4 0 1 0
0 0 2 1 1
1 1 1 0 35
1
3/7
0
0
1 4 0 1 0
2 1 0 1 0
1 1 1 0 35
0 0 2 1 1
1 8 /7 35
0
1
21
1 4 0
0 1 0
0
1
3/7
0
0
1 8 /7 35
1 1/2 1/2
1 4 0
0 1 0
0
1 4 0 0 21
0 1 0 0 9
0 0 1 0 11
0 0 0 1 21
1
3/7
0
0
1
0
0
0
0
1
0
0
0
0
1
0
1 8 /7
35
0 23/14 69/2
1 4 0
0 1 0
0
0 15
0 9
0 11
1 21
1
3/7
0
0
x1 = 15
x2 = 9
x 3 = 11
= 21
C.S.O.
0 1 1 1
0 1 1
1
2
1
0
L22
H3 = 1 2 1 = 8 > 0
= 4 L13
= 0 g2 = 1 H =
1 1 4 0
1 1 4
L33
= 2 L23
= 0 g3 = 1
1 0 0 2
L11
= 2 L12
= 1
g1 = 1
38
0 1 1 1
0 1 1 1
1 1 1
H4 = 1 2 1 0 = 1 2 1 2 = (1)5 2 1 2 = 24 < 0 Mx$local$en$P(15,9,11,362)
1 1 4 0
1 1 4 2
1 4 2
1 0 0 2
1 0 0 0
Max$z$sujeto$a$g$$0
Min$z$sujeto$a$g$$0
Mx.$g(x ,x ,,x ) 0
1
2
n
3)$
Min.$g(x1 ,x 2 ,,x n ) 0
Ejemplo:
x1 = 0
0 1 1
1) x1 + x 3 = 0 A = 1 0 1 = 2!solo!la!solucin!trivial! x 2 = 0
1 1 0
x1 + x 2 = 0
x3 = 0
3)!x1 x 2 x 3 125 (0)(0)(0) 125!no!se!cumple,!! 0
2)#Si#x1 x 2 x 3 125 = 0:
=
1)# =
x2 + x3
x2 x3
x2 + x3
x1 + x 3
x1 x 3
x1 + x 2
x2 x3
x1 + x 3
x1 x 3
x1(x 2 + x 3 )
x2
x1 + x 3
x1 x 3
= x1 + x 3 x1 x 2 + x1 x 3 = x1 x 2 + x 2 x 3 x1 = x 2
x1 + x 2
x1 x 2
(x1 + x 3 )
x3
= 2 x1 = x 3
x1 x 2
x1 = x 2 = x 3 x 33 = 125 x1 = x 2 = x 3 = 5
3)&x1 x 2 x 3 125 (5)(5)(5) = 125&El&punto&(5,5,5,75)&es&mnimo&local&
39