Beruflich Dokumente
Kultur Dokumente
MATEMÁTICA APLICADA
2009
PROGRAMACIÓN
LINEAL
Matemática Aplicada Programación Lineal
Capítulo 1. INTRODUCCIÓN
1.1 DEFINICIONES
𝑖=𝑛
Minimizar/Maximizar 𝑖=1 𝑐𝑖 𝑥𝑖 .
𝑖=𝑛
Sujeto a: 𝑎 𝑥
𝑖=1 𝑖𝑗 𝑖 ≥ 𝑏𝑗
𝑖=𝑛
𝑖=1 𝑎𝑖𝑗 𝑥𝑖 ≤ 𝑏𝑗
.
𝑖=𝑛
𝑖=1𝑎𝑖𝑗 𝑥𝑖 = 𝑏𝑗
𝑥𝑖 ≥ 0
con 𝑖 = 1, … , 𝑛 𝑦 𝑗 = 1, … , 𝑚
𝑖=𝑛
𝑖=1 𝑐𝑖 𝑥𝑖 es llamada FUNCIÓN OBJETIVO.
𝑥𝑖 son llamadas VARIABLES DE DECISIÓN.
𝑎𝑖𝑗 son llamados COEFICIENTES TECNOLÓGICOS.
𝑐𝑖 son llamados COEFICIENTES DE COSTO.
𝑏 = (𝑏1 , … , 𝑏𝑚 ) es llamada VECTOR DEL LADO DERECHO.
𝑖=𝑛
𝑖=1 𝑎𝑖𝑗 𝑥𝑖 , 𝑐𝑜𝑛 𝑗 𝑑𝑎𝑑𝑜 es llamada j-ÉSIMA RESTRICCIÓN.
𝑖=𝑛
𝑖=1 𝑎𝑖𝑗 𝑥𝑖 ≥ 𝑏𝑗
𝑖=𝑛
𝑎𝑖𝑗 𝑥𝑖 ≤ 𝑏𝑗
𝑥 ∈ ℝ𝑛 ; 𝑖=1 se llama REGIÓN FACTIBLE.
𝑖=𝑛
𝑖=1 𝑎𝑖𝑗 𝑥𝑖 = 𝑏𝑗
𝑥𝑖 ≥ 0
𝑖=𝑛
Minimizar/Maximizar 𝑖=1 𝑐𝑖 𝑥𝑖 .
𝑖=𝑛
Sujeto a: 𝑎 𝑥
𝑖=1 𝑖𝑗 𝑖 ≥ 𝑏𝑗
𝑖=𝑛
𝑖=1 𝑎𝑖𝑗 𝑥𝑖 ≤ 𝑏𝑗
.
𝑖=𝑛
𝑖=1𝑎𝑖𝑗 𝑥𝑖 = 𝑏𝑗
𝑥𝑖 ≥ 0
con 𝑖 = 1, … , 𝑛 𝑦 𝑗 = 1, … , 𝑚
PROPORCIONALIDAD:
La contribución de cada actividad al valor de la función objetivo es proporcional al nivel de actividad: 𝑐𝑖 𝑥𝑖
La contribución de cada actividad al lado izquierdo de cada restricción funcional es proporcional al nivel
de actividad: 𝑎𝑖𝑗 𝑥𝑖 .
Esta suposición elimina cualquier exponente distinto de 1 para las variables de decisión 𝑥𝑖 , con 𝑖 = 1, … , 𝑛.
ADITIVIDAD: Cada función (tanto la función objetivo como las funciones de las restricciones) es la suma de las
contribuciones individuales de las actividades respectivas: 𝑖=𝑛
𝑖=1 𝑐𝑖 𝑥𝑖 y
𝑖=𝑛
𝑖=1 𝑎𝑖𝑗 𝑥𝑖 .
DIVISIBILIDAD: Las variables de decisión 𝑥𝑖 pueden tomar valores no enteros. (Las actividades se pueden
realizar a niveles fraccionarios.)
CERTIDUMBRE: Los valores asignados a cada parámetro 𝑐𝑖 , 𝑎𝑖𝑗 y 𝑏𝑗 , para todo 𝑖 = 1, … , 𝑛 𝑦 𝑗 = 1, … , 𝑚, son
constantes conocidas.
I.P.A. - 2009
Matemática Aplicada Programación Lineal
𝑖=𝑛 𝑖=𝑛
Minimizar/Maximizar 𝑖=1 𝑐𝑖 𝑥𝑖 . Minimizar/Maximizar 𝑖=1 𝑐𝑖 𝑥𝑖 .
𝑖=𝑛 𝑖=𝑛
Sujeto a: 𝑖=1 𝑎𝑖𝑗 𝑥𝑖 = 𝑏𝑗 . Sujeto a: 𝑖=1 𝑎𝑖𝑗 𝑥𝑖 ≥ 𝑏𝑗 .
𝑥𝑖 ≥ 0 𝑥𝑖 ≥ 0
con 𝑖 = 1, … , 𝑛 𝑦 𝑗 = 1, … , 𝑚 con 𝑖 = 1, … , 𝑛 𝑦 𝑗 = 1, … , 𝑚
Maximizar 𝑍 ⟺ Minimizar −𝑍
1.4.3 Pasaje de ≥ o ≤ a =
Luego:
Minimizar/Maximizar 𝑐𝑥
Sujeto a: 𝐴1 𝑥 + 1 = 𝑏1 Minimizar/Maximizar 𝑐𝑥
𝐴2 𝑥 − 2 = 𝑏2 obteniendo entonces un problema de la forma Sujeto a: 𝐴𝑥 = 𝑏 . .
𝐴3 𝑥 = 𝑏3 𝑥≥0
𝑥, 1 , 2 ≥ 0
I.P.A. - 2009
Matemática Aplicada Programación Lineal
2.1 Vectores
VECTOR CERO O VECTOR NULO: Vector cuyas componentes son todas 0. (Se anota como 0.)
VECTOR CANÓNICO 𝒆𝒊 : Vector cuyas componentes son todas 0 salvo la i-ésima componente que es 1.
VECTOR SUMA: Vector cuyas componentes son todas 1. (Se anota como 1.)
𝑖=𝑛
VECTORES LINEALMENTE INDEPENDIENTES: Una colección de vectores 𝑎1 , … 𝑎𝑛 es LI sii 𝑖=1 𝜆𝑖 𝑎𝑖 = 0 ⟹
𝜆𝑖 = 0 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑖 = 1, … , 𝑛.
Observación: Dada una base de ℝ𝑛 , todo vector b de ℝ𝑛 tiene una representación única como combinación lineal
de los vectores de la base.
2.2 Matrices
Notación: Una matriz A es 𝑚 × 𝑛 sii A tiene m filas y n columnas. (𝑓𝑖𝑙𝑎𝑠 × 𝑐𝑜𝑙𝑢𝑚𝑛𝑎𝑠)
Observación: Las condiciones para poder realizar la multiplicación de dos matrices A y B es que la cantidad de
columnas de A sea igual a la cantidad de filas de B.
MATRIZ TRANSPUESTA: Dada una matriz 𝐴𝑚 ×𝑛 , su transpuesta es otra matriz 𝐴𝑡 𝑛×𝑚 en donde cada columna
de 𝐴𝑡 es cada fila de A.
Propiedades:
𝐴𝑡 𝑡 = 𝐴
𝑡
Si 𝐴𝑚 ×𝑛 y 𝐵𝑚 ×𝑛 : 𝐴 + 𝐵 = 𝐴𝑡 + 𝐵𝑡 y Si 𝐴𝑚 ×𝑛 y 𝐵𝑛 × : 𝐴𝐵 𝑡 = 𝐵 𝑡 𝐴𝑡
OPERACIONES ELEMENTALES DE FILAS: Dada una matriz 𝐴𝑚×𝑛 llamamos operaciones elementales de las
𝑓1
filas de 𝐴 = ⋮ a cualquiera de las siguientes operaciones:
𝑓𝑚
1. Se intercambian las filas 𝑓𝑖 y 𝑓𝑗 .
2. La fila 𝑖 se multiplica por un escalar 𝑘 ≠ 0. (𝑓𝑖 se reemplaza por: 𝑘. 𝑓𝑖 )
3. La fila 𝑖 se reemplaza por la fila 𝑖 +𝑘 veces la fila 𝑗. (𝑓𝑖 se reemplaza por: 𝑓𝑖 + 𝑘. 𝑓𝑗 )
I.P.A. - 2009
Matemática Aplicada Programación Lineal
MATRIZ INVERSA: Dada una matriz 𝐴𝑛×𝑛 . La matriz 𝐵𝑛 ×𝑛 es la matriz inversa de A sii 𝐴𝐵 = 𝐵𝐴 = 𝐼.
Se dice que una matriz es NO SINGULAR si tiene inversa. En caso contrario se dice que es SINGULAR.
Propiedades:
A es no singular ⟹ 𝐴𝑡 𝑒𝑠 𝑛𝑜 𝑠𝑖𝑛𝑔𝑢𝑙𝑎𝑟 𝑦 𝐴𝑡 −1 = 𝐴−1 𝑡
−1
Si 𝐴𝑛×𝑛 y 𝐵𝑛 ×𝑛 son matrices no singulares⟹ 𝐴𝐵 𝑒𝑠 𝑛𝑜 𝑠𝑖𝑛𝑔𝑢𝑙𝑎𝑟 𝑦 𝐴𝐵 = 𝐵−1 𝐴−1
DETERMINANTE DE UNA MATRIZ: Dada una matriz 𝐴𝑛 ×𝑛 , llamamos determinante de A al número real
det 𝐴 = 𝑖=𝑛 𝑖=1 𝑎𝑖𝑗 . −1
𝑖+1 . det(𝐴 ).
𝑖𝑗
donde j es un número fijo de 1 a n; y 𝐴𝑖𝑗 es una sub-matriz de A obtenida al eliminar la 𝑗-ésima columna y la i-
ésima fila.
𝑎 𝑏
Observación: det(𝐴2×2 ) = det = 𝑎𝑑 − 𝑏𝑐 .
𝑐 𝑑
Propiedades:
det 𝐴 = det(𝐴𝑡 )
Si B es la matriz que se obtiene al realizar una operación elemental 1: det 𝐵 = −det(𝐴)
Si B es la matriz que se obtiene al realizar una operación elemental 2: det 𝐵 = 𝑘. det(𝐴)
Si B es la matriz que se obtiene al realizar una operación elemental 3: det 𝐵 = det(𝐴)
Si 𝐴𝑛×𝑛 y 𝐵𝑛 ×𝑛 :det 𝐴𝐵 = det 𝐴 . det(𝐵)
det(𝐴) ≠ 0 ⟺ 𝐴 𝑒𝑠 𝑛𝑜 𝑠𝑖𝑛𝑔𝑢𝑙𝑎𝑟.
RANGO POR FILA DE UNA MATRIZ: Dada una matriz 𝐴𝑚 ×𝑛 , llamamos rango por fila de A a la cantidad de
filas LI que tiene A.
RANGO POR COLUMNA DE UNA MATRIZ: Dada una matriz 𝐴𝑚 ×𝑛 , llamamos rango por columna de A a la
cantidad de columnas LI que tiene A.
Observación: Dada una matriz 𝐴𝑚×𝑛 . 𝐸𝑛𝑡𝑜𝑛𝑐𝑒𝑠: 𝑅𝑎𝑛𝑔𝑜 𝑝𝑜𝑟 𝑓𝑖𝑙𝑎 𝑑𝑒 𝐴 = 𝑅𝑎𝑛𝑔𝑜 𝑝𝑜𝑟 𝑐𝑜𝑙𝑢𝑚𝑛𝑎 𝑑𝑒 𝐴.
I.P.A. - 2009
Matemática Aplicada Programación Lineal
Lema:
Se 𝑋 = 𝑥: 𝐴𝑥 = 𝑏 𝑦 𝑥 ≥ 0 un conjunto poliédrico no vacío. Entonces:
Teorema: (REPRESENTACIÓN)
𝑥 = 𝑖=𝑛
𝑖=1 𝜆𝑖 𝑥𝑖
a) X acotado: 𝑥 ∈ 𝑋 ⟺ ∃𝜆1 , … , 𝜆𝑛 ≥ 0 𝑡𝑎𝑙 𝑞𝑢𝑒
𝜆1 + ⋯ + 𝜆𝑛 = 1
𝑖=𝑛 𝑗 =𝑚
𝑥= 𝑖=1𝜆𝑖 𝑥𝑖 + 𝑗 =1 𝜇𝑗 𝑑𝑗
b) X no acotado: 𝑥 ∈ 𝑋 ⟺ ∃𝜆1 , … , 𝜆𝑛 ≥ 0 , ∃𝜇1 , … , 𝜇𝑚 ≥ 0 𝑡𝑎𝑙 𝑞𝑢𝑒
𝜆1 + ⋯ + 𝜆𝑛 = 1
I.P.A. - 2009
Matemática Aplicada Programación Lineal
Teorema: (FARKAS)
Dada una matriz 𝐴𝑚 ×𝑛 y un vector 𝑐 ∈ ℝ𝑛 . Entonces: uno, y sólo uno, de los siguientes sistemas tiene solución:
SISTEMA 1: 𝐴𝑥 ≤ 0 y 𝑐𝑥 > 0
SISTEMA 2: 𝑤𝐴 = 𝑐 y 𝑤 ≥ 0
Corolario:
Dada una matriz 𝐴𝑚 ×𝑛 y un vector 𝑐 ∈ ℝ𝑛 . Entonces: uno, y sólo uno, de los siguientes sistemas tiene solución:
SISTEMA 1: 𝐴𝑥 ≤ 0 , 𝑐𝑥 > 0 y 𝑥 ≤ 0
SISTEMA 2: 𝑤𝐴 ≤ 𝑐 y 𝑤 ≥ 0
Porque la intersección del semi-espacio con el cono Porque el vector c pertenece al cono generado por
es distinta de vacío. los renglones de la matriz.
I.P.A. - 2009
Matemática Aplicada Programación Lineal
→ Si además:
a) 𝑥𝐵 = 𝐵−1 𝑏 > 0, 𝑥 es una SBF NO DEGENERADA del sistema.
b) 𝑥𝐵 = 𝐵−1 𝑏 ≯ 0 (al menos una componente es 0), 𝑥 es una SBF DEGENERADA del sistema.
Nota: Nótese que el sistema debe estar con restricciones en igual, por lo que ya está completo con las variables
de holgura.
Dem.:
Minimizar 𝑐𝑥 .
Sujeto a: 𝐴𝑥 = 𝑏
𝑥≥0
Sabemos del lema del teorema de representación que la región factible 𝑋 = 𝑥 ∈ ℝ𝑛 / 𝐴𝑥 = 𝑏 (no vacía) tiene
una cantidad finita de puntos extremos y (posiblemente) una cantidad finita de direcciones extremas. Sea
𝑥1 , … , 𝑥𝑘 el conjunto de los puntos extremos, y sea 𝑑1 , … , 𝑑𝑙 el conjunto de as direcciones extremas.
𝐴1 𝑏1
1 Si 𝑟𝑎𝑛𝑔𝑜(𝐴) < 𝑚, aplicando operaciones elementales re-expresamos 𝐴, 𝑏 = , de modo que 𝐴1 tenga tantas filas
𝐴2 𝑏2
como 𝑟𝑎𝑛𝑔𝑜(𝐴). como las filas 𝐴2 , 𝑏2 son combinación lineal de 𝐴1 , 𝑏1 , entonces las eliminamos por ser redundantes.
I.P.A. - 2009
Matemática Aplicada Programación Lineal
Hemos transformado nuestro problema. Nos interesa ahora encontrar las variables 𝜆1 , … , 𝜆𝑘 , 𝜇1 , … , 𝜇𝑙 que
optimicen el siguiente problema lineal.
𝑖=𝑘 𝑗 =𝑙
Minimizar 𝑐 𝑖=1 𝜆𝑖 𝑥𝑖 + 𝑗 =1 𝜇𝑗 𝑑𝑗 .
Sujeto a: 𝜆1 + ⋯ + 𝜆𝑘 = 1
𝜆1 , … , 𝜆𝑘 , 𝜇1 , … , 𝜇𝑙 ≥ 0
Lo que es lo mismo:
𝑖=𝑘 𝑗 =𝑙
Minimizar 𝑖=1 𝜆𝑖 𝑐𝑥𝑖 + 𝑗 =1 𝜇𝑗 𝑐𝑑𝑗 .
Sujeto a: 𝜆1 + ⋯ + 𝜆𝑘 = 1
𝜆1 , … , 𝜆𝑘 , 𝜇1 , … , 𝜇𝑙 ≥ 0
𝑗 =𝑙
Obsérvese el segundo sumando de la función objetivo: 𝑗 =1 𝜇𝑗 𝑐𝑑𝑗 .
Como queremos minimizar la función objetivo, si podemos lograr que alguno de los términos sea tan “negativo”
como queramos, la solución estaría no acotada. Y como podemos tomar los valores de 𝜇𝑗 tan mayores como
deseemos, bastará con encontrar algún término 𝑐𝑑𝑗 < 0, para que al multiplicarlo con su correspondiente 𝜇𝑗
arbitrariamente grande, podamos reducir la imagen de la función objetivo a gusto. Así que.
Teniendo en cuenta que 𝜆1 + ⋯ + 𝜆𝑘 = 1 y que 𝜆1 , … , 𝜆𝑘 ≥ 0, podemos entender que tenemos una unidad para
repartir entre los términos 𝑐𝑥𝑖 . Como nuestro objetivo es minimizar la suma total, le asignamos todo el peso a
aquel término que sea el mínimo y cero a todos los demás. Es decir: Sea 𝑖0 ∈ 1, … , 𝑘 tal que 𝑐𝑥𝑖 0 =
𝑚𝑖𝑛 𝑐𝑥𝑖 / 𝑖 = 1, … , 𝑘 , tomamos 𝜆𝑖0 = 1 y 𝜆𝑖 = 0, ∀𝑖 = 1, … , 𝑘, 𝑖 ≠ 𝑖0 . Obteniendo así una solución finita dada
𝑖=𝑘 𝑗 =𝑙
en 𝑥 = 𝑖=1 𝜆𝑖 𝑥𝑖 + 𝑗 =1 𝜇𝑗 𝑑𝑗 donde 𝜇1 = ⋯ = 𝜇𝑙 = 0 y 𝜆𝑖0 = 1 y 𝜆𝑖 = 0, ∀𝑖 = 1, … , 𝑘, 𝑖 ≠ 𝑖0 . Luego, 𝑥 = 𝑥𝑖0 .
En virtud del caso 1 y el caso 2, podemos afirmar que la solución del programa lineal es finita si, y sólo si,
𝑐𝑑𝑗 ≥ 0, ∀𝑗 ∈ 1, … , 𝑙 .
Además, en caso de tener una solución óptima, bastará rastrearla solamente por los puntos extremos de la
región factible, y no en todos los infinitos puntos de la región factible.
I.P.A. - 2009
Matemática Aplicada Programación Lineal
Minimizar 𝑐𝑥 .
Sujeto a: 𝐴𝑥 = 𝑏
𝑥≥0
DIRECTO:
Sin pérdida de generalidad, reordenemos las componentes de 𝑥 de forma de que las primeras componentes
sean positivas y las últimas componentes sean aquellas que son cero. 𝑥 = 𝑥1 , … , 𝑥𝑝 , 𝑥𝑝 +1 , … , 𝑥𝑛 .
>0 =0
Buscaremos probar que las columnas de A correspondientes a las primeras p componentes de 𝑥 son LI.
Demostrémoslo por absurdo.
Claim: 𝒂𝟏 , . . , 𝒂𝒑 es LI
𝑖=𝑝
Supongamos que no son LI. Entonces ∃𝛾1 , … , 𝛾𝑝 ∈ ℝ tales que 𝑖=1 𝛾𝑖 𝑎𝑖 = 0, pero existe algún 𝛾𝑖 ≠ 0. (1)
𝑥′′ 𝑖 = 𝑥𝑖 − 𝜆𝛾𝑖 , ∀𝑖 = 1, … , 𝑝
𝑥 ′′ tal que
𝑥′′ 𝑖 = 0, ∀𝑖 = 𝑝 + 1, … , 𝑛
𝑥𝑖
Para que ninguna de las componentes sea negativas, elegimos 𝜆 tal que 0 < 𝜆 < 𝑚𝑖𝑛 , 𝛾𝑖 ≠ 0, 𝑖 = 1, … , 𝑝 . 2
𝛾𝑖
Por (1) sabemos que existe algún 𝛾𝑖 ≠ 0, por lo que 𝑥 ′ ≠ 𝑥′′.
Dem:
𝑖=𝑛 𝑖=𝑝 𝑖=𝑛 𝑖=𝑝 𝑖=𝑝
𝐴𝑥 ′ = 𝑖=1 𝑎𝑖 . 𝑥 ′ 𝑖 = 𝑖=1 𝑎𝑖 . 𝑥 ′ 𝑖 + 𝑖=𝑝+1 𝑎𝑖 . 𝑥′ 𝑖 = 𝑖=1 𝑎𝑖 . 𝑥′ 𝑖 = 𝑖=1 𝑎𝑖 . 𝑥𝑖 + 𝜆𝛾𝑖 =.
=0
=0
𝑖=𝑝 𝑖=𝑝 𝑖=𝑝 𝑖=𝑝
= 𝑖=1 𝑎𝑖 . 𝑥𝑖 + 𝑖=1 𝑎𝑖 . 𝜆𝛾𝑖 = 𝑏 + 𝑖=1 𝑎𝑖 . 𝜆𝛾𝑖 = 𝑏 + 𝜆 𝑖=1 𝑎𝑖 . 𝛾𝑖 = 𝑏.
=𝑏 =0
𝑖=𝑛 𝑖=𝑝 𝑖=𝑛 𝑖=𝑝 𝑖=𝑝
Analogamente: 𝐴𝑥 ′′ = 𝑖=1 𝑎𝑖 . 𝑥 ′′ 𝑖 = 𝑖=1 𝑎𝑖 . 𝑥 ′′ 𝑖 + ′′
𝑖=𝑝+1 𝑎𝑖 . 𝑥 𝑖 = 𝑖=1 𝑎𝑖 . 𝑥 ′′ 𝑖 = 𝑖=1 𝑎𝑖 . 𝑥𝑖 − 𝜆𝛾𝑖 =.
=0
=0
Dem.:
1 ′ 1 1 1
∀𝑖 = 1, … , 𝑝: 𝑥 𝑖 + 𝑥 ′′ 𝑖 = 𝑥𝑖 + 𝜆𝛾𝑖 + 𝑥𝑖 − 𝜆𝛾𝑖 = 𝑥𝑖
2 2 2 2
1 ′ 1 ′′
∀𝑖 = 𝑝 + 1, … , 𝑛: 𝑥 + 𝑥 =0
2 𝑖 2 𝑖
1 1
Luego: 𝑥 ′ + 𝑥 ′′ = 𝑥, por lo que 𝑥 es combinación convexa de 𝑥’ y 𝑥’’.
2 2
Por lo tanto, las columnas de A correspondientes a las primeras p componentes de 𝑥 son LI.
Ahora,
Caso 1: 𝒑 ≠ 𝒎: Entonces 𝑝 < 𝑚 (porque no puede ser mayor porque encontramos un conjunto de p elementos
LI en una matriz de rango m). Como el 𝑟𝑎𝑛𝑔𝑜 𝐴 = 𝑚, podemos agregar al conjunto 𝑎1 , … , 𝑎𝑝 𝑚 − 𝑝
columnas de A (de las 𝑎𝑝+1 a 𝑎𝑛 ), obteniendo así una base para la solución 𝑥, por lo que nuevamente 𝑥 es una
SBF.
RECÍPROCO:
Para probar que 𝑥 es un punto extremo, intentaremos expresar a 𝑥 como una combinación convexa estricta de
otros dos puntos de la región factible, y veremos que necesariamente estos dos puntos deben coincidir con 𝑥.
𝑥𝐵 −1
Sea B la matriz básica correspondiente a la SBF 𝑥. Luego, 𝑥 = = 𝐵 .𝑏 .
0 0
Supongamos que 𝑥 no es punto extremo de la región factible, entonces 𝑥 se puede escribir como combinación
lineal convexa de otros dos puntos (𝑥’ y 𝑥’’) de la región factible. Entonces: 𝑥 = 𝜆𝑥 ′ + (1 − 𝜆)𝑥′′, con 𝜆 ∈ (0,1).
𝑥 𝑥′ 𝑥′′𝐵
Dicho de otro modo: 𝐵 = 𝜆 𝐵 + (1 − 𝜆) , con 𝜆 ∈ (0,1).
0 𝑥′𝑁 𝑥′′𝑁
Entonces: 0 = 𝜆. 𝑥′𝑁 + (1 − 𝜆). 𝑥′′𝑁 , donde, por ser 𝜆 ∈ (0,1), 𝜆 > 0 , 1 − 𝜆 > 0 , 𝑥′𝑁 ≥ 0 𝑦 𝑥′′𝑁 ≥ 0 (por ser
𝑥′ y 𝑥′′ puntos de la región factible). Luego, necesariamente 𝑥′𝑁 = 𝑥′′𝑁 = 0.
𝑥′𝐵 𝑥′′𝐵
Luego: 𝑥 ′ = y 𝑥 ′′ = .
0 0
Como 𝑥′ y 𝑥′′ son soluciones factibles, sabemos que 𝐴𝑥′ = 𝑏 . Trabajaremos sólo para 𝑥’, ya que 𝑥’’ es análogo.
𝐴𝑥′′ = 𝑏
𝑥′ −1
𝐴𝑥 ′ = 𝑏 ⟹ 𝐵, 𝑁 . 𝐵 = 𝑏 ⟹ 𝐵. 𝑥′𝐵 + 𝑁. 0 = 𝑏 ⟹ 𝐵. 𝑥′𝐵 = 𝑏 −1 𝑥′𝐵 = 𝐵 −1 . 𝑏. Entonces: 𝑥 ′ = 𝐵 . 𝑏 = 𝑥
0 ×𝐵 0
′
Luego: 𝑥 ′ = 𝑥 ′ = 𝑥, por lo que 𝑥 no es combinación convexa estricta de otros dos puntos de la región factible.
(absurdo con suposición)
Luego, 𝑥 es punto extremo.
I.P.A. - 2009
Matemática Aplicada Programación Lineal
Dem.:
Sin pérdida de generalidad, reordenemos las componentes de 𝑥 de forma de que las primeras componentes
sean positivas y las últimas componentes sean aquellas que son cero. 𝑥 = 𝑥1 , … , 𝑥𝑝 , 𝑥𝑝 +1 , … , 𝑥𝑛 .
>0 =0
Caso 1: 𝒂𝟏 , . . , 𝒂𝒑 𝐞𝐬 𝐋𝐈
Entonces 𝑥 es un SBF del sistema. Esto se cumple porque la matriz básica estará formada por las columnas
a1 , . . , ap , cuyas variables asociadas son positivas; y todas las demás columnas están asociadas a variables que
valen 0.
Caso 2: 𝒂𝟏 , . . , 𝒂𝒑 es LD
𝑖=𝑝
Entonces ∃𝛾1 , … , 𝛾𝑝 ∈ ℝ tales que 𝑖=1 𝛾𝑖 𝑎𝑖 = 0, pero existe algún 𝛾𝑖 > 0. (1)
𝑥𝑖 𝑥𝑘 3
Para que ninguna de las componentes sea negativas, elegimos 𝜆 tal que 𝜆 = 𝑚𝑖𝑛 ,𝛾 > 0, 𝑖 = 1, … , 𝑝 = .
𝛾𝑖 𝑖 𝛾𝑘
Dem:
𝑖=𝑛 𝑖=𝑝 𝑖=𝑛 𝑖=𝑝 𝑖=𝑝
𝐴𝑥 ′ = 𝑖=1 𝑎𝑖 . 𝑥 ′ 𝑖 = 𝑖=1 𝑎𝑖 . 𝑥 ′ 𝑖 + 𝑖=𝑝+1 𝑎𝑖 . 𝑥′ 𝑖 = 𝑖=1 𝑎𝑖 . 𝑥′ 𝑖 = 𝑖=1 𝑎𝑖 . 𝑥𝑖 − 𝜆𝛾𝑖 =.
=0
𝑖=𝑝 𝑖=𝑝 𝑖=𝑝 𝑖=𝑝
= 𝑖=1 𝑎𝑖 . 𝑥𝑖 − 𝑖=1 𝑎𝑖 . 𝜆𝛾𝑖 = 𝑏 − 𝑖=1 𝑎𝑖 . 𝜆𝛾𝑖 = 𝑏 − 𝜆 𝑖=1 𝑎𝑖 . 𝛾𝑖 = 𝑏.
=𝑏 =0
Ahora, si las columnas de A asociadas a las componentes positivas de 𝑥’ son LI, 𝑥’ es una SBF del sistema, por lo
que por teorema anterior, es un punto extremo.
Si las columnas de 𝐴 asociadas a las componentes positivas de 𝑥’ son LD, reiteramos el prcedimiento hasta
disminuir la cantidad de columnas consideradas alcanzando el rango de A. Allí habremos encontrado una SBF
del sistema, y por lo tanto un punto extremo.
𝑥
3
∀𝑖 = 1, … , 𝑝: 𝑥 ′ 𝑖 ≥ 0 ⟹ 𝑥𝑖 − 𝜆𝛾𝑖 ≥ 0 ⟹ 𝜆𝛾𝑖 ≤ 𝑥𝑖 ⟹ 𝜆 ≤ 𝛾 𝑖 .
𝑖
I.P.A. - 2009
Matemática Aplicada Programación Lineal
Minimizar/Maximizar 𝑐1 𝑥1 + 𝑐2 𝑥2 .
Sujeto a: 𝐴1 𝑥1 , 𝑥2 ≤ 𝑏1
𝐴2 𝑥1 , 𝑥2 ≥ 𝑏2
𝐴3 𝑥1 , 𝑥2 = 𝑏3
𝑥1 , 𝑥2 ≥ 0
La región factible de dicho problema puede representarse en el plano interceptando los semi-espacios
determinados por las restricciones 𝐴1 𝑥1 , 𝑥2 ≤ 𝑏1 , 𝐴2 𝑥1 , 𝑥2 ≥ 𝑏2 , 𝐴3 𝑥1 , 𝑥2 = 𝑏3 y 𝑥1 , 𝑥2 ≥ 0.
Puesto que la función 𝑐1 𝑥1 + 𝑐2 𝑥2 es un plano, sabemos que crece en el sentido del vector 𝑐 = (𝑐1 , 𝑐2 ). De este
modo, todos los puntos de una recta r perpendicular a c poseen igual imagen en la función 𝑐1 𝑥1 + 𝑐2 𝑥2 ; por lo
que el análisis debe hacerse sobre todas las rectas r perpendiculares a dicho vector.
Caso 1: 𝐌𝐢𝐧𝐢𝐦𝐢𝐳𝐚𝐫 𝒄𝟏 𝒙𝟏 + 𝒄𝟐 𝒙𝟐 .
En el caso de minimizar, como la el valor de la función objetivo crece en el sentido
de c, nos interesará analizar las rectas r a medida que se desplazan en sentido
contrario al vector c.
Caso 2: 𝐌𝐚𝐱𝐢𝐦𝐢𝐳𝐚𝐫 𝒄𝟏 𝒙𝟏 + 𝒄𝟐 𝒙𝟐 .
En el caso de maximizar, como la el valor de la función objetivo crece en el sentido
de c, nos interesará analizar las rectas r a medida que se desplazan en sentido del
vector c.
I.P.A. - 2009
Matemática Aplicada Programación Lineal
El problema tiene solución finita dada en un punto único si la recta r óptima intersección la zona factible es un
único punto.
El problema tiene solución finita dada en puntos alternativos si la recta r óptima intersección la zona factible es
un segmento o una semi-recta. En este caso, todos los puntos de dicho segmento o semi-recta general el mismo
valor óptimo.
El problema tiene solución no acotada si no existe una recta r óptima, y por lo tanto la función puede crecer (o
disminuir en el caso de minimizar) infinitamente. Notemos que para tal caso la región factible debe ser no
acotada.
I.P.A. - 2009
Matemática Aplicada Programación Lineal
Representamos los semiplanos de las restricciones y modificamos el problema a la forma 𝐴𝑥 = 𝑏 agregando las
variables de holgura:
Sujeto a: 𝑥1 + 𝑥2 − 1 = 2
5𝑥1 + 8𝑥2 + 2 = 40
𝑥1 − 2𝑥2 + 3 = 4
−𝑥1 + 𝑥2 + 4 = 3
3𝑥1 − 𝑥2 + 5 = 18
𝑥1 , 𝑥2 , 1 , 2 , 3 , 4 , 5 ≥ 0
1 1 −1 0 0 0 0
5 8 0 1 0 0 0
Escribimos la matriz 𝐴 = 1 −2 0 0 1 0 0 = 𝑎1 𝑎2 𝑎3 𝑎4 𝑎5 𝑎6 𝑎7
−1 1 0 0 0 1 0
3 −1 0 0 0 0 1
Observación: En cada punto de una recta borde de un semi-espacio la respectiva variable de holgura se
encuentra en el nivel cero. Respectivamente, cada variable de holgura se encuentra en el nivel cero si el punto
pertenece a la recta borde del semiplano restricción respectiva. Es decir:
Ya hemos probado que las SBF se dan en los puntos extremos de las regiones factibles. Por ello, a continuación
analizaremos mediante el método gráfico cómo darse cuenta de de si una SBF es degenerada o no.
46 55 56 10
Consideremos los puntos 𝐴 0,3 , 𝐵 , ,𝐶 , , 𝐷 4,0 y 𝐸 2,0 (puntos extremos de la región factible).
3 3 9 9
Nótese que para cada punto extremo, en miras de la observación anterior, la SBF correspondiente es:
I.P.A. - 2009
Matemática Aplicada Programación Lineal
𝐴 0,3 : 0, 𝟑, 0, ≠ 𝟎, ≠ 𝟎, 0, ≠ 𝟎 es SBF degenerada. (Tome la base que tome, como 𝑥𝐵 debe ser un 5-
vector, siempre un 0 debe estar en 𝑥𝐵 . Nótese que cualquier posible B debe contener a 𝑎2 , 𝑎4 , 𝑎5 y 𝑎7 ).
46 55 𝟒𝟔 𝟓𝟓
𝐵 , : , , ≠ 𝟎, 0, ≠ 𝟎, 0, ≠ 𝟎 es SBF no degenerada. (Tomando como base
3 3 𝟑 𝟑
𝐵 = 𝑎1 𝑎2 𝑎3 𝑎5 𝑎6 , 𝑥𝐵 > 0)
56 10 𝟓𝟔 𝟏𝟎
𝐶 , : , , ≠ 𝟎, 0,0, ≠ 𝟎, 0 es SBF degenerada. (Tome la base que tome, como 𝑥𝐵 debe ser un
9 9 𝟗 𝟗
5-vector, siempre un 0 debe estar en 𝑥𝐵 . Nótese que cualquier posible B debe contener a 𝑎1 , 𝑎2 , 𝑎3 y 𝑎6 ).
𝐷 4,0 : 𝟒, 0, ≠ 𝟎, ≠ 𝟎, 0, ≠ 𝟎, ≠ 𝟎 es SBF no degenerada. (Tomando como base
𝐵 = 𝑎1 𝑎3 𝑎4 𝑎6 𝑎7 , 𝑥𝐵 > 0)
𝐸 2,0 : 𝟐, 0,0, ≠ 𝟎, ≠ 𝟎, ≠ 𝟎, ≠ 𝟎 es SBF no degenerada. (Tomando como base
𝐵 = 𝑎1 𝑎4 𝑎5 𝑎6 𝑎7 , 𝑥𝐵 > 0)
CONCLUSIÓN: Una SBF es degenerada sii es intersección de tres o más bordes de semiplanos
restricciones.
Nota: la quinta restricción es redundante, pero como no es combinación lineal de las otras, a los efectos de dar
la solución al problema la tengo que considerar.
Sujeto a: 𝑥1 + 𝑥2 ≥ 2
5𝑥1 + 8𝑥2 ≤ 40
𝑥1 − 2𝑥2 ≤ 4
−𝑥1 + 𝑥2 ≤ 3
𝑥1 , 𝑥2 ≥ 0 ≥ 0
Representamos los semiplanos de las restricciones y modificamos el problema a la forma 𝐴𝑥 = 𝑏 agregando las
variables de holgura:
Sujeto a: 𝑥1 + 𝑥2 − 1 = 2
5𝑥1 + 8𝑥2 + 2 = 40 −1 −1 −1 0 0 0
𝑥1 − 2𝑥2 + 3 = 4 Escribimos la matriz 𝐴 = −5 −8 −0 1 0 0
−𝑥1 + 𝑥2 + 4 = 3 −1 −2 −0 0 1 0
−1 −1 −0 0 0 1
𝑥1 , 𝑥2 ≥ 0
I.P.A. - 2009
Matemática Aplicada Programación Lineal
46 55 56 10
Consideremos los puntos 𝐴 2,0 , 𝐵 0,2 , 𝐶 , ,𝑠 , ,y 𝐷 4,0 (puntos extremos de la región factible).
3 3 9 9
56 10
𝑆= ,
9 9
56 10 16
𝑥1 + 𝑥2 − 1 = 2 ⇒ + − 1 = 2 ⇒ 1 =
9 9 3
56 10 73
−𝑥1 + 𝑥2 + 4 = 3 ⇒ − + + 4 = 3 ⇒ 4 =
9 9 9
56 10 16 73
Luego, , , , 0,0, es SBF óptima del problema no degenerada, cuya matriz básica son las columnas de A
9 9 3 9
56 10 −158
correspondientes a 𝑥1 , 𝑥2 , 1 𝑦 4 . El valor óptimo obtenido es −3. − = .
9 9 9
𝐴 2,0 y 𝐵 0,2
5𝑥1 + 8𝑥2 + 2 = 40 ⇒ 10 + 0 + 2 = 40 ⇒ 2 = 30
𝑥1 − 2𝑥2 + 3 = 4 ⇒ 2 − 0 + 3 = 4 ⇒ 3 = 2
−𝑥1 + 𝑥2 + 4 = 3 ⇒ −2 + 0 + 4 = 3 ⇒ 4 = 5
I.P.A. - 2009
Matemática Aplicada Programación Lineal
En B: Por la observación anterior, sabemos que 1 = 0 , por lo que solamente nos resta averiguar los valores
de 2 , 3 y 4 :
5𝑥1 + 8𝑥2 + 2 = 40 ⇒ 0 + 16 + 2 = 40 ⇒ 2 = 24
𝑥1 − 2𝑥2 + 3 = 4 ⇒ 0 − 4 + 3 = 4 ⇒ 3 = 8
−𝑥1 + 𝑥2 + 4 = 3 ⇒ −0 + 2 + 4 = 3 ⇒ 4 = 1
Entonces: El valor óptimo obtenido es de 2.0 + 2.2 = 4 y las soluciones óptimas son el segmento de extremos A
y B: 𝜆. 2,0,0,30,2,5 + 1 − 𝜆 2,0,0,30,2,5 ; 𝜆 ∈ 0,1 .
I.P.A. - 2009
Matemática Aplicada Programación Lineal
1) Calcular: 𝑧𝑗 = 𝑐𝐵 𝐵 −1 𝑎𝑗 , ∀𝑗 ∈ 𝑅
2) Calcular: 𝑧𝑗 − 𝑐𝑗 , ∀𝑗 ∈ 𝑅
Definimos: 𝑏 = 𝐵 −1 . 𝑏 e 𝑦𝑘 = 𝐵 −1 . 𝑎𝑘
𝑏𝑖 𝑏𝑟
Tomo 𝑥𝑘 = 𝑚í𝑛 ; 𝑦𝑖𝑘 > 0 = y actualizo la base sabiendo que 𝑥𝐵 = 𝑏 − 𝑦𝑘 . 𝑥𝑘 .
𝑦 𝑖𝑘 𝑦 𝑟𝑘
(VUELVO A INICIAR)
Multiplicando esta última ecuación por 𝑐𝐵 obtenemos 𝑐𝐵 𝑥𝐵 = 𝑐𝐵 𝐵 −1 𝑏 − 𝑐𝐵 𝐵 −1 𝑁𝑥𝑁 ; y sustituyendo (1) en esta
última ecuación obtenemos que: 𝑐𝐵 𝑥𝐵 = 𝑧0 − 𝑐𝐵 𝐵−1 𝑁𝑥𝑁
El valor objetivo de 𝑥 es 𝑧 = 𝑐𝐵 . 𝑥𝐵 + 𝑐𝑁 . 𝑥𝑁 .
Llámese 𝑧𝑗 = 𝑐𝐵 𝐵 −1 𝑎𝑗 : 𝑧 = 𝑧0 − 𝑧𝑗 − 𝑐𝑗 𝑥𝑗
𝑗 ∈𝑅
CASO 1: ∃𝒌 ∈ 𝑹, 𝒛𝒌 − 𝒄𝒌 > 𝟎:
Puesto que se desea minimizar, sería ventajoso aumentar 𝑥𝑘 para los casos en que 𝑧𝑘 − 𝑐𝑘 > 0, disminuyendo
así el valor en la función costo. Puesto que pueden haber varias variables no básicas en tales condiciones, se fija
la siguiente regla: Se fija cada variable no básica en 0 salvo una de las 𝑥𝑘 que tiene valor positivo 𝑧𝑘 − 𝑐𝑘 . (Por
ejemplo: el 𝑥𝑘 cuyo valor 𝑧𝑘 − 𝑐𝑘 es el más positivo).
𝑥𝐵1 𝑏1 𝑦𝑘 1
⋮ ⋮ ⋮
En otras palabras: 𝑥𝐵𝑟 = 𝑏𝑟 − 𝑦𝑘 𝑟 . 𝑥𝑘 (3)
⋮ ⋮ ⋮
𝑥𝐵𝑚 𝑏𝑚 𝑦𝑘 𝑚
Sub-Caso 1: Si ∀𝒊 = 𝟏, … , 𝒎, 𝒚𝒌 𝒊 ≤ 𝟎:
Como 𝑥𝑘 puede crecer infinitamente sin problema de anular la no negatividad de las variables, y a medida que
𝑥𝑘 → +∞, 𝑧 → −∞, la solución óptima es no acotada y por lo tanto el valor óptimo es −∞. Este valor óptimo
se da al moverse en el rayo con origen la SBF de la que partimos y dirección −𝑦𝑘 , 0, … ,0,1,0, … ,0 (con
componente 1 en la k-ésima posición), lo que es equivalente a decir:
𝐵 −1 𝑏 −𝑦𝑘
0 0
⋮ ⋮
𝑟𝑥 0 ,𝑑 = + 𝑥𝑘 1 ; 𝑥𝑘 ≥ 0 , que es en efecto una dirección extrema de la zona factible.
0
⋮ ⋮
0 0
Sub-Caso 2: Si ∃𝒊 = 𝟏, … , 𝒎, 𝒚𝒌 𝒊 > 0:
Como 𝑥𝑘 no puede crecer infinitamente ya que corremos el riesgo de que 𝑥𝐵𝑖 llegue a ser negativa violando la
condición de no negatividad, debemos bloquear el crecimiento de 𝑥𝑘 . De este modo, y puesto que buscamos
aumentar el 𝑥𝑘 tanto como sea posible, lo haremos hasta que la primer variable básica llegue al nivel 0.
𝑏𝑖
Como 𝑥𝐵𝑖 = 𝑏𝑖 − 𝑦𝑘 𝑖 . 𝑥𝑘 , es claro que 𝑥𝐵𝑖 = 0 cuando 𝑥𝑘 = .
𝑦𝑘 𝑖
I.P.A. - 2009
Matemática Aplicada Programación Lineal
Recordando que estamos preocupados por las componentes 𝑥𝐵𝑖 donde 𝑦𝑘 𝑖 > 0, nos queda que el primer 𝑥𝐵𝑟 en
𝑏𝑟 𝑏𝑖
hacerse 0 es aquel tal que = 𝑚𝑖𝑛 , con 𝑦𝑘 𝑖 > 0 . Hacemos entonces que 𝑥𝑘 tome dicho valor y se
𝑦𝑘 𝑟 𝑦𝑘 𝑖
𝑥𝐵1 𝑏1 𝑦𝑘 1
⋮ ⋮ ⋮
actualizan los valores de 𝑥𝐵 acuerdo a la ecuación (3): 𝑥𝐵𝑟 = 𝑏𝑟 − 𝑦𝑘 𝑟 . 𝑥𝑘
⋮ ⋮ ⋮
𝑥𝐵𝑚 𝑏𝑚 𝑦𝑘 𝑚
Decimos que a 𝑥𝑘 lo “entramos a la base”. Análogamente, como 𝑥𝐵𝑟 = 0 decimos que lo “sacamos de la base”.
Luego, como 𝑥𝐵𝑟 = 0 y todas las variables no básicas distintas de 𝑥𝑘 las dejamos en el nivel 0, a lo sumo hay m
variables positivas. Además, 𝑎𝑘 = 𝜆1 𝑎𝐵1 + ⋯ + 𝑦𝑘 𝑟 𝑎𝐵𝑟 + ⋯ + 𝜆𝑚 𝑎𝐵𝑚 (porque 𝑦𝑘 = 𝐵−1 𝑎𝑘 ⟹ 𝐵. 𝑦𝑘 = 𝑎𝑘 ), y
como 𝑦𝑘 𝑟 ≠ 0 , por observación del capítulo 2.I: 𝑎𝐵1 , … , 𝑎𝑘 , … , 𝑎𝐵𝑚 son LI.
Luego: tomando 𝐵 = 𝑎𝐵1 , … , 𝑎𝑘 , … , 𝑎𝐵𝑚 la nueva solución es una SBF, cuyo valor objetivo 𝑧 = 𝑧0 −
𝑧𝑘 − 𝑐𝑘 𝑥𝑘 ≤ 𝑧0 es un valor mejorado (o al menos no empeorado) del valor objetivo inicial.
>0 ≥0
Sub-Sub.Caso 1: 𝒃𝒓 = 𝟎:
Si 𝑏𝑟 = 0 entonces 𝑥𝑘 entra a la base con el nivel 0 y por lo tanto la solución factible nueva es degenerada,
además de que la que ya había era degenerada (pues 𝑏 = 𝐵 −1 𝑏 = 𝑥𝐵 ), por lo que me conviene tomar otro 𝑥𝑘 ya
que no mejoro el valor objetivo: 𝑧 = 𝑧0 − 𝑧𝑘 − 𝑐𝑘 𝑥𝑘 = 𝑧0 .
=0
Nota: a este caso se le llama ciclado.
Sub-Sub.Caso 2: 𝒃𝒓 > 0:
Si 𝑏𝑟 > 0, entonces se saca a 𝑥𝑘 del nivel cero, y por lo tanto se mejora el valor de la función objetivo.
CASO 2: ∀𝒋 ∈ 𝑹, 𝒛𝒋 − 𝒄𝒋 ≤ 𝟎:
Sub-Caso 1: Si ∀𝒋 ∈ 𝑹, 𝒛𝒋 − 𝒄𝒋 < 𝟎: Entonces cualquier modificación del nivel cero en las variables no básicas
produciría un incremento en el valor de la función costo, lo cual empeoraría nuestro intento de minimizar la
función costo. Por lo tanto, actualmente nos encontramos con una SBF óptima y única.
Sub-Sub-Sub-Caso 1: 𝒃 > 0:
SBF óptima única y no degenerada.
Sub-Sub-Sub.Caso 2: 𝒃 ≯ 𝟎:
SBF óptima única degenerada.
I.P.A. - 2009
Matemática Aplicada Programación Lineal
Las soluciones alternativas están formadas por el segmento o rayo al considerar si 𝑥𝑘 puede crecer
infinitamente o está bloqueada. Análogamente a como lo hemos trabajado en el caso 1, el bloqueo de 𝑥𝑘 estaría
𝑥𝐵1 𝑏1 𝑦𝑘 1
⋮ ⋮ ⋮
dado por la ecuación: 𝑥𝐵𝑟 = 𝑏𝑟 − 𝑦𝑘 𝑟 . 𝑥𝑘
⋮ ⋮ ⋮
𝑥𝐵𝑚 𝑏 𝑦𝑘 𝑚
𝑚
Sub-Sub-Caso 1: Si ∀𝒊 = 𝟏, … , 𝒎, 𝒚𝒌 𝒊 ≤ 𝟎:
Como 𝑥𝑘 puede crecer infinitamente sin problema de anular la no negatividad de las variables, la solución
óptima está dada en el rayo con origen la SBF hallada y dirección −𝑦𝑘 , 0, … ,0,1,0, … ,0 (con componente 1 en
la k-ésima posición), lo que es equivalente a decir:
𝐵 −1 𝑏 −𝑦𝑘
0 0
⋮ ⋮
𝑟𝑥 0 ,𝑑 = + 𝑥𝑘 1 ; 𝑥𝑘 ≥ 0 , que es en efecto una dirección extrema de la zona factible.
0
⋮ ⋮
0 0
Por lo que la solución obtenida es SBF óptima pero no única (alternativas)
Sub-Caso 2: Si ∃𝒊 = 𝟏, … , 𝒎, 𝒚𝒌 𝒊 > 0:
Como 𝑥𝑘 no puede crecer infinitamente ya que corremos el riesgo de que 𝑥𝐵𝑖 llegue a ser negativa violando la
condición de no negatividad, debemos bloquear el crecimiento de 𝑥𝑘 . De este modo, y puesto que buscamos
aumentar el 𝑥𝑘 tanto como sea posible, lo haremos hasta que la primer variable básica llegue al nivel 0.
𝑏𝑖
Como 𝑥𝐵𝑖 = 𝑏𝑖 − 𝑦𝑘 𝑖 . 𝑥𝑘 , es claro que 𝑥𝐵𝑖 = 0 cuando 𝑥𝑘 = .
𝑦𝑘 𝑖
𝑏𝑟 𝑏𝑖
Análogo a lo expuesto en el cao 1, el primer 𝑥𝐵𝑟 en hacerse 0 es aquel tal que = 𝑚𝑖𝑛 , con 𝑦𝑘 𝑖 > 0 .
𝑦𝑘 𝑟 𝑦𝑘 𝑖
Hacemos entonces que 𝑥𝑘 tome dicho valor y se actualizan los valores de 𝑥𝐵 acuerdo a la ecuación (3):
𝑥𝐵1 𝑏1 𝑦𝑘 1
⋮ ⋮ ⋮
𝑥𝐵𝑟 = 𝑏 − 𝑦𝑘 𝑟 . 𝑥𝑘
𝑟
⋮ ⋮ ⋮
𝑥𝐵𝑚 𝑏𝑚 𝑦𝑘 𝑚
Luego, como 𝑥𝐵𝑟 = 0 y todas las variables no básicas distintas de 𝑥𝑘 las dejamos en el nivel 0, a lo sumo hay m
variables positivas. Además, 𝑎𝑘 = 𝜆1 𝑎𝐵1 + ⋯ + 𝑦𝑘 𝑟 𝑎𝐵𝑟 + ⋯ + 𝜆𝑚 𝑎𝐵𝑚 , y como 𝑦𝑘 𝑟 ≠ 0 , por observación del
capítulo 2.I: 𝑎𝐵1 , … , 𝑎𝑘 , … , 𝑎𝐵𝑚 son LI.
Luego: tomando 𝐵 = 𝑎𝐵1 , … , 𝑎𝑘 , … , 𝑎𝐵𝑚 la nueva solución es una SBF, cuyo valor objetivo 𝑧 = 𝑧0 −
𝑧𝑘 − 𝑐𝑘 𝑥𝑘 = 𝑧0 permanece igual al valor objetivo inicial.
=0 ≥0
Sub-Sub-Sub-Caso 1: 𝒃𝒓 = 𝟎:
Si 𝑏𝑟 = 0 entonces 𝑥𝑘 entra a la base con el nivel 0 y por lo tanto la solución factible nueva es degenerada,
además de que la que ya había era degenerada (pues 𝑏 = 𝐵 −1 𝑏 = 𝑥𝐵 ), por lo que en caso de existir otro 𝑥𝑘 en
las mismas condiciones de 𝑧𝑘 − 𝑐𝑘 = 0 ya que no si bien puedo tomar otra base, no cambio la SFB óptima.
Si todos los 𝑥𝑘 cumplen que 𝑏𝑟 = 0 entonces la solución es única y degenerada. Por lo que la solución obtenida
es SBF óptima única.
I.P.A. - 2009
Matemática Aplicada Programación Lineal
Sub-Sub-Sub.Caso 2: 𝒃𝒓 > 0:
Si 𝑏𝑟 > 0, entonces se saca a 𝑥𝑘 del nivel cero, y por lo tanto la nueva SBF obtenida 𝑥0∗ es otro punto extremo
de la región. En la caso las soluciones alternativas son todos los puntos del segmento con extremos 𝑥0∗ y 𝑥0 . Es
decir: 𝜆𝑥0∗ + a − λ 𝑥0 , con 𝜆 ∈ 0,1 . Luego la solución obtenida es SBF óptima pero no única
(alternativas).
𝑧 𝑥𝐵 𝑥𝑁 𝐿𝐷 𝑧 𝑥𝐵 𝑥𝑁 𝐿𝐷
Renglón 0 𝑧 1 0 𝑐𝐵 𝐵 −1 𝑁 − 𝑐𝑁 𝑐𝐵 𝐵 −1 𝑏 o 𝑧 1 0 𝑧𝑗 − 𝑐𝑗 𝑧0
Renglones 1 a m 𝑥𝐵 0 𝐼 𝐵−1 𝑁 𝐵 −1 𝑏 𝑥𝐵 0 𝐼 𝑦𝑗 𝑏
Tomando una matriz básica B cualquiera, podemos este problema expresarlo como:
Minimizar/Maximizar 𝑧 = 𝑐𝐵 𝑥𝐵 + 𝑐𝑁 𝑥𝑁 .
Sujeto a: 𝐵𝑥𝐵 + 𝑁𝑥𝑁 = 𝑏
𝑥𝐵 , 𝑥𝑁 ≥ 0
𝑧 − 𝟎𝑥𝐵 + 𝑐𝐵 𝐵 −1 𝑁 − 𝑐𝑁 𝑥𝑁 = 𝑐𝐵 𝐵 −1 𝑏 (2)
Luego, el tableau reúne ambas ecuaciones. Además, por la demostración realizada anteriormente, podemos
observar que contiene toda la información necesaria para el mejoramiento de una SBF.
I.P.A. - 2009
Matemática Aplicada Programación Lineal
Una vez transformado el problema tal que A contenga una matriz identidad y 𝑏 ≥ 0.
Donde 𝐵 = 𝐼
𝑧 𝑥 𝐿𝐷
Renglón 0 𝑧 1 −𝑐 0
Renglones 1 a m 𝑥𝐵 0 𝐴 𝑏
Matriz B: Matriz formada por las columnas de A correspondientes a las variables básicas, teniendo en cuenta el
orden de la identidad en el tableau.
Matriz N: Matriz formada por las columnas de A correspondientes a las variables no básicas.
Matriz 𝑩−𝟏 : Matriz formada por las columnas del tableau correspondientes a la matriz identidad original del
tableau.
I.P.A. - 2009
5.3 TIPOS DE SOLUCIONES OBTENIDAS
Una vez que llego a la condición de parada, podemos analizar qué tipo de soluciones hemos obtenido. Como estas condiciones se basan en la no anulación de 𝑧𝑗 − 𝑐𝑗
con 𝑗 ∈ 𝑅 o en la no anulación de 𝑏, se cumplen tanto para un caso de maximización o de minimización. Además, analizaremos los distintos casos dentro de una
condición de no parada.
Si existe algún 𝑏𝑖 < 0, multiplicamos la i-ésima restricción por −1. Luego obtenemos un problema de la forma:
𝑏
Observación: 𝐵 = 𝐼 ⟹ 𝑒𝑠 𝑆𝐵𝐹.
0
𝑏
Dem.: 𝐵 = 𝐼 ⟹ 𝐵 −1 = 𝐼 ⟹ 𝐵 −1 . 𝑏 = 𝐼. 𝑏 = 𝑏 ⟹ 𝑥𝐵 = 𝑏 ≥ 0 ⟹ es SBF .
0
Ya vimos que teniendo una matriz identidad contenida en A es muy sencillo hallar una SBF inicial al problema.
Por eso, introducimos lo que llamamos VARIABLES ARTIFICIALES en las restricciones necesarias para
completar una identidad dentro de A. Es decir: si no existe columna de A que coincida con el vector canónico de
ℝ𝑚 𝑒𝑗 , introducimos en la j-ésima restricción una variable artificial 𝑥𝑎𝑗 ≥ 0:
De este modo, las restricciones del problema quedan planteadas de la siguiente manera: 𝐴𝑥 + 𝑥𝑎 = 𝑏
(Nótese que en las restricciones donde no era necesario introducir una variable artificial, la componente de 𝑥𝑎
se da con el valor 0)
A este nuevo problema, por ser del caso 1, es fácil hallarle una SBF inicial.
Sin embargo: 𝐴𝑥 = 𝑏 ⟺ 𝐴𝑥 + 𝑥𝑎 = 𝑏 𝑐𝑜𝑛 𝑥𝑎 = 0, por lo que una solución factible del nuevo problema será
también solución factible del problema original si, y sólo si, las variables artificiales introducidas toman el valor
0.
Matemática Aplicada Programación Lineal
A continuación describiremos dos métodos que nos permiten la eliminación de las variables artificiales
(llevarlas al nivel 0), encontrando simultáneamente SBF inicial al problema original.
Con este método intentaremos eliminar las variables artificiales minimizando 𝟏𝑥𝑎 .
FASE 1:
Minimizar 𝟏𝑥𝑎 .
Sujeto a: 𝐴𝑥 + 𝑥𝑎 = 𝑏
𝑥, 𝑥𝑎 ≥ 0
Si al alcanzar optimalidad:
𝑥𝑎 = 0 ⟹ el problema original tiene región factible no vacía y el punto donde se alcanza optimalidad
(son considerar las variables artificiales) es una SBF del problema original.
En este caso:
Si todas las variables artificiales son no básicas: la matriz base de la SBF hallada del problema original
coincide con la matriz base del valor óptimo.
Si alguna de las variables artificiales es básica: La matriz base de la SBF hallada del problema original es
la matriz base del valor óptimo sustituyendo la columna correspondiente a la variable artificial por
cualquier columna de una variable no básica que no sea artificial.
FASE 2:
Minimizar/Maximizar 𝑐𝑥.
Sujeto a: 𝐴𝑥 = 𝑏
𝑥≥0
Observación: En tableau para iniciar esta fase los renglones 1 a m son una copia del tableau óptimo de la fase
1, eliminando las columnas correspondientes a las variables artificiales.
I.P.A. - 2009
Matemática Aplicada Programación Lineal
Con este método intentaremos eliminar las variables artificiales haciendo pagar una pena muy grande M si las
variables artificiales no se hacen 0, reflejando la inconveniencia de que 𝑥𝑎 ≠ 0 pagando un costo muy grande en
la función objetivo. Considerando 𝑀 > 0 (grande), transformamos el problema:
Si al alcanzar optimalidad:
I.P.A. - 2009
Matemática Aplicada Programación Lineal
𝑥 𝑒𝑠 𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛 ó𝑝𝑡𝑖𝑚𝑎 𝑑𝑒𝑙 𝑝𝑟𝑜𝑏𝑙𝑒𝑚𝑎 ⟺ 𝑒𝑥𝑖𝑠𝑡𝑒 𝑢𝑛 𝑣𝑒𝑐𝑡𝑜𝑟 𝑣 𝑑𝑒 ℝ𝑛 𝑦 𝑒𝑥𝑖𝑠𝑡𝑒 𝑢𝑛 𝑣𝑒𝑐𝑜𝑡 𝑤 𝑑𝑒 ℝ𝑚 𝑡𝑎𝑙𝑒𝑠 𝑞𝑢𝑒:
𝐴𝑥 ≥ 𝑏 𝑥≥0
𝑐 − 𝑤𝐴 − 𝑣 = 0 𝑤 ≥ 0 𝑣 ≥ 0
𝑤 𝐴𝑥 − 𝑏 = 0 𝑣𝑥 = 0
Definiciones:
Observación: 𝑣𝑥 = 0 ⟺ ∀𝑗 = 1, … , 𝑚 ∶ 𝑣𝑗 = 0 𝑜 𝑥𝑗 = 0
𝑥 𝑒𝑠 𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛 ó𝑝𝑡𝑖𝑚𝑎 𝑑𝑒𝑙 𝑝𝑟𝑜𝑏𝑙𝑒𝑚𝑎 ⟺ 𝑒𝑥𝑖𝑠𝑡𝑒 𝑢𝑛 𝑣𝑒𝑐𝑡𝑜𝑟 𝑣 𝑑𝑒 ℝ𝑛 𝑦 𝑒𝑥𝑖𝑠𝑡𝑒 𝑢𝑛 𝑣𝑒𝑐𝑜𝑡 𝑤 𝑑𝑒 ℝ𝑚 𝑡𝑎𝑙𝑒𝑠 𝑞𝑢𝑒:
𝐴𝑥 = 𝑏 𝑥≥0
𝑐 − 𝑤𝐴 − 𝑣 = 0 𝑤 𝑛𝑜 𝑟𝑒𝑠𝑡𝑟𝑖𝑛𝑔𝑖𝑑𝑎 𝑣≥0
𝑣𝑥 = 0
I.P.A. - 2009
Matemática Aplicada Programación Lineal
En la definición canónica de dual es importante que (P) tenga un objetivo de minimización, además de
que las restricciones sean de la forma ≥ y las variables de decisión no negativas.
Dem.: Supondremos la forma estándar como una definición, y probaremos que la canónica se deduce
de ella.
I.P.A. - 2009
Matemática Aplicada Programación Lineal
Dem.:
𝑥𝑡 ≥ 0
Lo transformamos:
(D’) Minimizar 𝑐𝑥
(𝐴. 𝐵)𝑡 = 𝐵𝑡 . 𝐴𝑡
sujeto a 𝐴𝑥 ≥ 𝑏
𝐴𝑡 𝑡 = 𝐴
𝑥≥0
𝑀𝑎𝑥𝑖𝑚𝑖𝑧𝑎𝑟 𝑍 = 𝑀𝑖𝑛𝑖𝑚𝑖𝑧𝑎𝑟 − 𝑍
PRIMAL DUAL
Minimización Maximización
≥0 ≤
RESTRICCIONES
VARIABLES
≤0 ≥
No
=
restringida
≥ ≥0
RESTRICCIONES
VARIABLES
≤ ≤0
No
=
restringida
I.P.A. - 2009
Matemática Aplicada Programación Lineal
Lema: El valor de la función objetivo para cualquier solución factible del primal (en minimización), es
siempre ≥ que valor de la función objetivo para cualquier solución factible del dual (en maximización).
Dem.: Considérese la forma canónica de dualidad y sean 𝑥0 y 𝑤0 solución factible de los problemas
primal y dual, respectivamente. Entonces:
𝐴𝑥0 ≥ 𝑏 y 𝑥0 ≥ 0
𝑤0 𝐴 ≤ 𝑐 y 𝑤0 ≥ 0
Corolario:
El valor objetivo de cualquier solución del primal (problema de minimización) da una cota
superior del valor objetivo óptimo del dual (problema de maximización).
El valor objetivo de cualquier solución del dual (problema de maximización) da una cota inferior
del valor objetivo óptimo del primal (problema de minimización).
Corolario: Si 𝑥0 y 𝑤0 son solución factible de los problemas primal y dual respectivamente, y son tales
que 𝑐𝑥0 = 𝑤0 𝑏, entonces 𝑥0 y 𝑤0 son soluciones óptimas de sus respectivos problemas.
Dem.: Supongamos que 𝑥0 no es solución óptima del primal. Entonces, existe 𝑥 ∗ ≠ 𝑥0 tal que
𝑐𝑥 ∗ < 𝑐𝑥0 . Sin embargo del lema anterior sabemos que 𝑐𝑥0 = 𝑤0 𝑏 ≤ 𝑐𝑥 ∗ , por lo que 𝑐𝑥0 ≤ 𝑐𝑥 ∗ ,
contradiciendo la suposición.
Análogamente para 𝑤0 .
Corolario: Si uno de los problemas tiene valor óptimo no acotado, entonces el otro problema no tiene
solución factible.
Dem.: Tomemos el caso en que el problema primal tiene valor óptimo no acotado, y que el problema
dual no tenga región factible vacía. Entonces, existe 𝑤0 solución factible del dual, por lo que por lema,
el valor óptimo del primal es tal que 𝑤0 𝑏 ≤ 𝑐𝑥, por lo que está acotado inferiormente, contradiciendo
el no acotamiento.
Análogamente, si el dual tiene valor óptimo no acotado, el primal tendrá región factible vacía.
Nota: Que uno de los problemas no tenga solución factible no implica que el otro problema tenga
solución factible no acotada. Es decir, el recíproco del corolario anterior no es cierto.
(Ver contraejemplo página 240)
I.P.A. - 2009
Matemática Aplicada Programación Lineal
Lema: Si uno de los problemas tiene solución óptima, entonces el otro problema tiene solución óptima y
sus valores óptimos son iguales.
Dem.: Tomemos el caso en que existe 𝑥0 solución óptima del problema primal. Entonces, por las
condiciones de optimalidad de Khun-Tuker, existe 𝑤0 y existe 𝑣 tal que:
𝐴𝑥0 ≥ 𝑏 y 𝑥0 ≥ 0 (1)
𝑐 − 𝑤0 𝐴 − 𝑣 = 0 y 𝑤0 ≥ 0, 𝑣 ≥ 0 (2)
𝑤0 𝐴𝑥0 − 𝑏 = 0 y 𝑣𝑥0 = 0 (3)
𝐴𝑥0 ≥ 𝑏 y 𝑥0 ≥ 0 (a)
𝑤0 𝐴 ≤ 𝑐 y 𝑤0 ≥ 0 (b)
𝑤0 𝐴𝑥0 − 𝑏 = 0 y 𝑐 − 𝑤0 𝐴 𝑥0 = 0 (c)
a) Ambos problemas tienen soluciones óptimas y sus valores óptimos son iguales.
b) Uno de los problemas tiene valor objetivo no acotado y el otro problema es no factible.
c) Ambos problemas son no factibles.
I.P.A. - 2009
Matemática Aplicada Programación Lineal
(P) Minimizar 𝑐𝑥
Sujeto a 𝐴𝑥 ≥ 𝑏
𝑥≥0
En caso de optimalidad:
Si una variable de uno de los problemas es positiva, la restricción correspondiente en el otro
problema es activa (sin holgura).
Si una restricción en uno de los problemas es inactiva (con holgura), la variante
correspondiente en el otro problema es nula.
Dem.: Ya hemos visto que si 𝑥 ∗ y 𝑤 ∗ son soluciones óptimas de los problemas dual y primal
respectivamente, tendremos que 𝑤 ∗ 𝑏 ≤ 𝑤 ∗ 𝐴𝑥 ∗ ≤ 𝑐𝑥 ∗ . Como además los valores óptimos coinciden
(𝑤 ∗ 𝑏 = 𝑐𝑥 ∗ ), resulta que:
𝑤 ∗ 𝑏 = 𝑤 ∗ 𝐴𝑥 ∗ = 𝑐𝑥 ∗
Luego, es fácil de observar que una variable positiva debe ir acompañada de una restricción activa,
mientras que una restricción inactiva debe ir acompañada de una variable nula.
(P) Minimizar 𝑐𝑥
Sujeto a 𝐴𝑥 ≥ 𝑏
𝑥≥0
Corolario: Si 𝑥 ∗ y 𝑤 ∗ son puntos factibles de sus problemas respectivos y satisfacen las condiciones de
holgura, entonces, son soluciones óptimas.
Recodemos que las restricciones de un problema de programación lineal representan las limitantes de
recursos o los requisitos mínimos que tiene una empresa. La primer pregunta que podemos hacernos
es ¿cuánto estoy dispuesto a pagar por una unidad más de recurso? Y la respuesta a esto es el precio
sombra. La segunda pregunta que debemos plantearnos es ¿de cuántos recursos más puedo disponer
para mantener el óptimo?
Hemos visto que en el caso de optimalidad, el valor óptimo del problema dual está dado por 𝑐𝐵 𝐵−1 𝑏, y
el del problema dual por 𝑤 ∗ 𝑏, valores que, además, coinciden. Por lo tanto:
𝑧 ∗ = 𝑐𝐵 𝐵−1 𝑏 = 𝑤 ∗ 𝑏
de lo cual se deduce que
𝜕𝑧 ∗
= 𝑐𝐵 𝐵−1 = 𝑤 ∗
𝜕𝑏
Es decir que la componente 𝑤𝑖∗ representa cuánto aumenta el valor objetivo por cada unidad que se
incrementa la componente i-ésima de b. A este concepto lo denominamos PRECIO SOMBRA de la i-
ésima restricción.
PEGAR!!!
Los intervalos de sensibilidad de los coeficientes de costo indican los posibles valores que pueden
tomar dichos coeficientes de forma de que el punto óptimo no sea afectado. Gráficamente éste análisis
resulta sumamente sencillo
PEGAR!!!
NOTA: Los intervalos de sensibilidad de los coeficientes de costo del primal coinciden con los
intervalos de sensibilidad de los términos independientes del dual y viceversa. (Siempre que estén en
forma canónica.)
I.P.A. - 2009
Matemática Aplicada Programación Lineal
Es importante analizar el tableau del primal, ya que en el mismo se encuentra insertado el tableau del
dual.
Lema: Considérese un problema de programación lineal primal (P) y su dual (D). Luego, el criterio
simplex de optimalidad4 en el primal implica factibilidad del dual.
Es más: Sea B una base que permite el criterio simplex de optimalidad del problema primal, entonces el
vector 𝑤 ∗ = 𝑐𝐵 𝐵−1 es solución factible del problema dual. Además, 𝑤𝑖∗ = − 𝑧𝑛+𝑖 − 𝑐𝑛+𝑖 = −𝑧𝑛+𝑖 , para
todo 𝑖 = 1, … , 𝑚.
(P) Minimizar 𝑐𝑥
Sujeto a 𝐴𝑥 ≥ 𝑏
𝑥≥0
Dada una base B (no necesariamente factible) que da la condición simplex de optimalidad, es decir:
𝑧𝑗 − 𝑐𝑗 ≤ 0, para todo 𝑖 = 1, … , 𝑛 + 𝑚. (1)
𝑧 𝑥1 ⋯ 𝑥𝑛 𝑥𝑛 +1 ⋯ 𝑥𝑛 +𝑚 𝐿𝐷
𝑧 1 𝑧1 − 𝑐1 ⋯ 𝑧𝑛 − 𝑐𝑛 𝑧𝑛+1 − 𝑐𝑛+1 ⋯ 𝑧𝑛+𝑚 − 𝑐𝑛+𝑚 𝑐𝐵 𝑏
𝑥𝐵1 0 𝑦1,1 ⋯ 𝑦1,𝑛 𝑦1,𝑛+1 ⋯ 𝑦1,𝑛+𝑚 𝑏1
⋮ ⋮ ⋮ ⋮⋯ ⋮ ⋮ ⋮⋯ ⋮ ⋮
𝑥𝐵𝑚 0 𝑦𝑚,1 ⋯ 𝑦𝑚,𝑛 𝑦𝑚,𝑛+1 ⋯ 𝑦𝑚,𝑛+𝑚 𝑏𝑚
Sea 𝑤 ∗ = 𝑐𝐵 𝐵−1 .
Demostraremos que 𝑤 ∗ es solución óptima del dual y que 𝑤𝑖∗ = −(𝑧𝑛+𝑖 − 𝑐𝑛+𝑖 ), para todo 𝑖 = 1, … , 𝑚.
Trabajaremos primero con las variables de decisión (𝑗 = 1, … , 𝑛), que tienen coeficiente de costo no nulo;
y luego con las variables de holgura (𝑗 = 𝑛 + 1, … , 𝑛 + 𝑚), que tienen coeficiente de costo nulo.
𝑗 = 1, … , 𝑛:
Si estamos frente a una solución óptima del primal P, por (1): Para todo 𝑖 = 1, … , 𝑛:
4
Condición de parada.
I.P.A. - 2009
Matemática Aplicada Programación Lineal
𝑤 ∗ 𝑎𝑗 − 𝑐𝑗 = 𝑧𝑗 − 𝑐𝑗 ≤ 0 ⟹ 𝑤 ∗ 𝑎𝑗 − 𝑐𝑗 ≤ 0 ⟹ 𝑤 ∗ 𝑎𝑗 ≤ 𝑐𝑗 ⟹ 𝑤 ∗ 𝐴 ≤ 𝑐 (i)
(1)
𝑗 = 𝑛 + 1, … , 𝑛 + 𝑚:
Como los 𝑥𝑗 = 𝑥𝑛 +𝑖 son las variables de holgura de cada restricción, para todo 𝑖 = 1, … , 𝑚 sabemos
que sabemos que 𝑎𝑛 +𝑖 = −𝑒𝑖 . Además, 𝑐𝑛+𝑖 = 0 ⟹
Si estamos frente a una solución óptima del primal P, por (1): Para todo 𝑖 = 1, … , 𝑚:
De (i) y (ii): El vector 𝑤 ∗ es solución factible del dual. Estando 𝑤 ∗ es las condiciones de la tesis.
Teorema: En optimalidad del problema primal de minimización, 𝑤 ∗ = 𝑐𝐵 𝐵−1 es solución óptima del
problema dual. Además, 𝑤𝑖∗ = − 𝑧𝑛+𝑖 − 𝑐𝑛+𝑖 = −𝑧𝑛+𝑖 , para todo 𝑖 = 1, … , 𝑚.
Dem.: Basándonos en el lema anterior, se tiene solución básica factible del primal si 𝑏 ≥ 0; es decir: si
𝑏 = 𝐵−1 . 𝑏 ≥ 0.
Se sabe además que 𝑤 ∗ = 𝑐𝐵 𝐵−1 es solución factible del dual con valor objetivo 𝑤 ∗ 𝑏 = 𝑐𝐵 𝐵−1 . 𝑏 =
= 𝑐𝐵 𝐵−1 𝑏 = 𝑐𝐵 𝑏 = 𝑧 ∗ ; por lo que los objetivos del primal y del dual son iguales, por lo que estamos
frente a soluciones óptimas.
I.P.A. - 2009