Sie sind auf Seite 1von 28

Direccin General de Institutos Tecnolgicos

Instituto Tecnolgico de Veracruz


Departamento de Ingeniera Qumica y Bioqumica

PROYECTO 2
Mtodos de optimizacin utilizados en la columna
DISEO DE PROCESOS 2

EQUIPO #6
Gutirrez Limn Mara Esther
Santos Rodrguez Mara Magdalena
Torralba Galn Valeria
Vela Luz Dirce Ludvika
Zamudio Lpez Stephanie
PROFESOR
REYNA ARREDONDO TOLEDO

Mayo 2011, H. Veracruz, Ver

DISEO DE PROCESOS II

OPTIMIZACION MULTIVARIABLE
INTRODUCCION
Los mtodos clsicos de optimizacin son tiles para encontrar la solucin ptima
de funciones continuas y diferenciables. Estos mtodos son analticos y hacer uso
de las tcnicas del clculo diferencial en la localizacin de los puntos ptimos.
Debido a que algunos de los problemas prcticos que involucran como objetivo
funciones que no son continuas y / o diferenciales, las tcnicas de optimizacin
clsicas tienen un alcance limitado en la aplicaciones prcticas.

Los problemas de optimizacin multivariable


deterministas y estocsticos.

pueden ser clasificados como

1. METODOS DETERMINISTICOS. Mtodos deterministas siguen un determinado


patrn de bsqueda y no implica ningn paso adivinado o al azar. Mtodos
deterministas pueden clasificarse en mtodos de bsqueda directa e indirecta. Los
mtodos directos de bsqueda no requieren derivados (gradientes) de la funcin.
Los mtodos indirectos derivados pueden ser obtenidos numricamente ms que
analticamente.
Los mtodos directos de bsqueda. Un ejemplo de un mtodo de bsqueda
directa es una bsqueda univariable, como se ilustra en la Figura 1. Todas
las variables, excepto una son fijas y el resto de la variable se ha
optimizado. Una vez que el punto mnimo o mximo se ha alcanzado, esta
variable es fija y otra variable optimizados, con el resto de las variables que
se fija. Este se repite hasta que no haya nuevas mejoras en la funcin
objetivo. Figura 1 ilustra una de dos dimensiones de bsqueda en la que se
fijan por primera vez x 1 y x 2 optimizado. Entonces x 2 es fijo y x 1
optimizado, y as sucesivamente hasta que no haya ms la mejora en la
funcin objetivo se obtiene. En Figura 1., la bsqueda de variables es capaz
de localizar el mundial ptimo. Es fcil ver que si el punto de partida para la

DISEO DE PROCESOS II

bsqueda en la Figura 1. ha sido en un menor valor de x 1 , entonces la


bsqueda se ha localizado el ptimo local, ms que el ptimo global. Para
buscar problemas multivariable de optimizacin, a menudo la nica manera
de garantizar que el ptimo global se ha alcanzado es para iniciar la
optimizacin desde diferentes puntos iniciales.

Figura 1. Bsqueda univariable

Otro ejemplo de una bsqueda directa es una secuencia simple de


bsqueda. El mtodo utiliza una geomtrica regular forma (una cara) para
generar direcciones de la bsqueda. En dos dimensiones, la forma ms
simple es un tringulo equiltero. En tres dimensiones, es un tetraedro
regular. El objetivo la funcin se evala en los vrtices de la simple, como
se ilustra en la Figura 2. La funcin objetivo debe ser evaluada en los
vrtices A, B y C. La direccin general de bsqueda se proyecta fuera del
peor vrtice (en este caso el vrtice A) a travs del centro de gravedad de
los restantes vrtices (B y C), la figura 3.8a. Una nueva forma simple
mediante la sustitucin de las peores vrtice de un nuevo punto de que es
la imagen del espejo de la simple (vrtice D), como se muestra en
Figura 3.8a. Entonces vrtices D sustituye vrtice A, vrtice A es un punto
inferior. Los vrtices simples para el siguiente paso son B, C y D. Este
proceso se repite para los sucesivos, se mueve en forma de zigzag, como
se muestra en la Figura 2b. La direccin de bsqueda se puede cambiar
como se ilustra en la figura 2c. Cuando el simple est cerca del ptimo,
puede haber alguna repeticin de simple, con la bsqueda dando vueltas en
crculos. Si este es el caso, entonces el tamao de la simple debe
reducirse.

DISEO DE PROCESOS II

a)

b)

c)

Figura 8. La bsqueda simple

Los mtodos indirectos de bsqueda. Los mtodos indirectos de bsqueda


utilizan derivados (pendientes) de la funcin objetivo. Los derivados se
pueden obtener analticamente o numricamente. Hay muchos mtodos
disponibles para la bsqueda indirecta. Un ejemplo es el mtodo de
descenso ms rpido en la reduccin al mnimo problema. La direccin de
mxima pendiente es la bsqueda de direccin que da la tasa mxima de
variacin de la funcin objetivo desde el punto actual. El mtodo se ilustra
en la Figura 3. Un problema con esta bsqueda mtodo es que el tamao
de paso adecuado no se conoce, y esto es, en circunstancias cuando el
gradiente puede cambiar significativamente durante la bsqueda. Otro
problema es que la bsqueda puede ralentizar significativamente ya que
llega al punto ptimo. Si se realiza una bsqueda de la mxima una funcin
objetivo, entonces la bsqueda es un anlogo de empinado ascenso.

Figura 3. Mtodo de descenso

El mtodo de descenso ms rpido utiliza slo de primer orden derivados


para determinar la direccin de bsqueda. Por otra parte, El mtodo de

DISEO DE PROCESOS II

Newton para la optimizacin de una sola variable puede ser adaptado para
llevar a cabo la optimizacin multivariable, teniendo ventaja de los dos
primeros-y los derivados de segundo orden para obtener una mejor
direccin de bsqueda. Sin embargo, de segundo orden derivados deben
ser evaluados, ya sea analticamente o numricamente, y las funciones
multimodal puede hacer que el mtodo inestable. Por lo tanto, si bien este
mtodo puede ser muy potente, tambin tiene algunas dificultades
prcticas. Una de las dificultades fundamentales con las prcticas tanto en
el directo y los mtodos indirectos de bsqueda es que, dependiendo de la
forma del espacio de soluciones, la bsqueda puede encontrar ptimos
locales, ms que el ptimo global. A menudo, la nica manera de garantizar
que el ptimo global se ha alcanzado es iniciar la optimizacin de los
diferentes puntos inicial y repita el proceso.
2. MTODOS ESTOCSTICOS DE BSQUEDA. En todos los de la optimizacin
mtodos discutidos hasta el momento, el algoritmo busca en el objetivo funcin
que buscan mejorar la funcin objetivo en cada paso, utilizando la informacin
como degradados. Por desgracia, como ya se seal, este proceso puede
significar que la bsqueda es atrada hacia un ptimo local. Por otro lado, los
mtodos estocsticos de bsqueda utilizan para guiar la eleccin al azar la
bsqueda y puede permitir el deterioro de la funcin objetivo durante la bsqueda.
Es importante reconocer que una de bsqueda al azar no significa una bsqueda
de direccin. Mtodos estocsticos de bsqueda generan una ruta de acceso al
azar a la solucin sobre la base de las probabilidades. Mejora de la funcin
objetivo se convierte en el ltimo lugar de el objetivo inmediato, y un cierto
deterioro en el objetivo funcin es tolerada, especialmente durante las primeras
etapas de la bsqueda. En la bsqueda de un mnimo en el objetivo funcin, en
lugar de buscar siempre el de intentar ir cuesta abajo, los mtodos estocsticos
permiten la bsqueda tambin a veces van hacia arriba. Del mismo modo, si la
funcin objetivo debe ser maximizada, mtodos estocsticos permite la bsqueda
a veces ir cuesta abajo. A medida que la optimizacin progresa, la capacidad del
algoritmo para aceptar el deterioro en el objetivo funcin es eliminada
gradualmente. Esto ayuda a reducir el problema de estar atrapado en un ptimo
local.
Mtodos estocsticos no necesita informacin auxiliar, como los derivados, con el
fin de curso. Slo se requieren una funcin objetivo para la bsqueda. Esto
significa que mtodos estocsticos pueden manejar los problemas en los que el
clculo de los derivados sera complejo y causar mtodos deterministas al fracaso.

DISEO DE PROCESOS II

Dos de los mtodos estocsticos ms populares son simuladas algoritmos


genticos y recocidos.
Recocido simulado.
Recocido simulado emula el proceso fsico de recocido de metales. En el proceso
fsico a altas temperaturas, las molculas del lquido pueden moverse libremente
con respecto a los dems. Si el lquido se enfra lentamente, la movilidad trmica
se pierde. Los tomos son capaces de que se alinean y forman cristales perfectos.
Este cristal estado es uno de mnima energa para el sistema. Si el metal lquido
se enfra rpidamente, no llega a este estado sino que termina en un estado
policristalino o amorfo tener una energa ms alta. As que la esencia del proceso
de refrigeracin es lenta, el tiempo suficiente para permitir la redistribucin de los
tomos al perder la movilidad para llegar a un estado de energa mnima.
Con este proceso fsico de la mente, un algoritmo puede se sugiri en el que un
sistema se mueve de un punto a otro, con el cambio resultante en el objetivo
funcin de E1 a E2 . La probabilidad de este cambio se puede suponer que
siguen una relacin similar a la Boltzmann distribucin de probabilidad (el
mantenimiento de la analoga con un recocido fsica):
P=exp [( E 2E1 ) /T ] .1.

Donde P es la probabilidad, E es la funcin objetivo (la analoga de la energa) y T


es un parmetro de control (la analoga de la temperatura de hibridacin).
Relaciones distintas que la ecuacin anterior puede ser utilizada. Si la funcin
objetivo es minimiza y E2 es menor que E1 (es decir, el objetivo funcin de
mejora como resultado de la medida), entonces la probabilidad de la ecuacin es
mayor que la unidad. En tales casos, el movimiento se le asigna arbitrariamente a
una probabilidad de la unidad, y el sistema siempre debe aceptar tal movimiento.
Si la probabilidad de la ecuacin 1., es 0, el movimiento se rechaza. Si la
probabilidad de la ecuacin 1., es 0, el movimiento se rechaza. Si la probabilidad
es entre cero y la unidad (es decir, la funcin objetivo empeora como
consecuencia del movimiento), entonces el criterio que se necesita para dictar si el
movimiento es aceptado o rechazado.

DISEO DE PROCESOS II

Un punto de corte arbitrario (por ejemplo, rechazar cualquier movimiento con una
probabilidad de menos de 0,5) se podra hacer, pero el valor ms adecuado es
probable que cambio de un problema a otro. En cambio, la analoga con recocido
fsica se mantiene, y la probabilidad de La ecuacin 1., se compara con la salida
de un azar generador de nmeros que crea un nmero aleatorio entre cero y la
unidad. Si la ecuacin 1. predice una probabilidad mayor que el generador de
nmeros aleatorios, entonces el movimiento se acepta. Si es menor, entonces el
movimiento es rechazado y otro movimiento se intenta en su lugar. Por lo tanto, la
ecuacin 1., determina si un movimiento es aceptado o rechazado. En este As, el
mtodo siempre aceptar una bajo paso cuando minimizando una funcin objetivo,
aunque a veces se da un paso hacia arriba.
Sin embargo, como la optimizacin avanza, la posibilidad de aceptar movimientos
que resultan en un deterioro de la funcin objetivo debe ser eliminada
gradualmente. Este es la funcin del parmetro de control (la analoga de
temperatura) en la ecuacin 1. El parmetro de control disminuy gradualmente, lo
que resulta en la probabilidad del a ecuacin 1., disminuyendo gradualmente para
los movimientos en los que la funcin objetivo se deteriora. Cuando esto se
compara con el nmero aleatorio, poco a poco se hace ms probable que la
medida ser rechazada. Un programa de recocido requiere que controla cmo el
parmetro de control se reduce de alto a valores bajos.
Por lo tanto, la forma en que el algoritmo funciona es establecer un primer valor
para el parmetro de control. En este ajuste del parmetro de control, una serie de
movimientos se hacen al azar. La ecuacin 1., determina si una jugada personal
es aceptada o rechazada. El parmetro de control (recocido temperatura) se baja
y una nueva serie de azar se mueve, y as sucesivamente. A medida que el
parmetro de control (temperatura de tratamiento) se baja, la probabilidad de
deterioro de la aceptacin en la funcin objetivo, segn lo dictado por la ecuacin
1., disminuye. De esta manera, la aceptabilidad para la bsqueda de moverse
hacia arriba en la minimizacin o cuesta abajo durante la maximizacin se
supriman gradualmente.
Si bien recocido simulado puede ser muy poderosa en la solucin de problemas
difciles de optimizacin con muchos locales ptimos, que tiene una serie de
desventajas. Inicial y final los valores del parmetro de control, un programa de
recocido y el nmero de movimientos al azar para cada configuracin del control
parmetro debe ser especificado. Adems, debido a que cada bsqueda es
al azar, el proceso puede repetirse varias veces para garantizar que una bsqueda
adecuada del espacio de soluciones se han hecho.

DISEO DE PROCESOS II

Esto puede ser muy til para proporcionar un nmero de soluciones en la regin
del ptimo global, en lugar de una solucin nica. Este tipo de soluciones mltiples
a continuacin, se puede seleccionar no slo en funcin de los costes, sino
tambin en muchas otras cuestiones, tales como la complejidad del diseo,
control, seguridad, etc. en adelante, que son difciles de incluir en la optimizacin.
Los algoritmos genticos.
Los algoritmos genticos sacan su inspiracin biolgica evolucin a diferencia de
todos los mtodos de optimizacin discutida hasta ahora, que se mueven de un
punto a otro, se mueve un algoritmo gentico de un conjunto de puntos (llamados
una poblacin) a otro conjunto de puntos. Las poblaciones de cadenas (la
analoga de los cromosomas) se crean para representar un conjunto subyacente
de parmetros (por ejemplo, temperaturas, presiones o concentraciones). Un
algoritmo gentico simple explota tres operadores bsicos: reproduccin, cruce y
mutacin.
La reproduccin es un proceso en el que los miembros individuales de una
poblacin se copian en funcin del objetivo funcin con el fin de generar nuevos
conjuntos de poblacin. El creador se inspira en la "seleccin natural" y la
supervivencia "del ms apto". La forma ms fcil de entender la reproduccin es
hacer una analoga con una rueda de la ruleta. En una rueda de una ruleta, la
probabilidad de seleccin es proporcional al rea de las ranuras de la rueda. En un
algoritmo gentico, la probabilidad de reproduccin es proporcional a la aptitud (la
funcin objetivo). Aunque el procedimiento de seleccin es estocstico, las
cadenas ms en forma se les dan una mejor oportunidad de seleccin
(supervivencia). El operador de reproduccin puede implementar en un algoritmo
gentico muchos.
Crossover implica la combinacin de material gentico a partir de dos padres
exitosos para formar dos hijos (los nios). Crossover consiste en cortar dos
cadenas padre en los puntos al azar y combinar de manera diferente a la nueva
forma descendencia. El punto de cruce se genera aleatoriamente. Crossover
trabaja como operador de bsqueda local y se extiende en buenas propiedades de
entre la poblacin. La fraccin de nueva poblacin generada por cruce es
generalmente grande (como se observa en la naturaleza) y es controlado
estocsticamente.
La mutacin crea nuevas cadenas de forma aleatoria cambiante (mutacin) partes
de las cadenas, pero (como con la naturaleza) con una baja probabilidad de
ocurrir. Un cambio al azar se hace en uno de los genes con el fin de preservar la
diversidad. La mutacin crea una nueva solucin en el entorno de un punto
sometido a mutacin.

DISEO DE PROCESOS II

Un algoritmo gentico trabaja en primer lugar generar una primera poblacin al


azar. La poblacin se evala de acuerdo a su aptitud (valor de la funcin objetivo).
Una reproduccin operadora proporciona entonces una poblacin intermedia
mediante la seleccin estocstico, pero sesgada hacia la supervivencia de la los
ms aptos. Operadores de cruce y mutacin son aplicados a la poblacin
intermedia para crear una nueva generacin de la poblacin. La nueva poblacin
se evala de acuerdo a su estado fsico y la bsqueda contina con su posterior
reproduccin, cruce y la mutacin hasta que la poblacin se rene el criterio de
convergencia necesario (generalmente la diferencia entre el valor de aptitud media
y mxima o el nmero de de las generaciones).
De esta manera, los algoritmos genticos crear mejores soluciones por
reproduccin, cruce y mutacin que tales candidatos de soluciones mejoran de
una generacin a la siguiente. El algoritmo evoluciona a lo largo de muchas
generaciones y, finalmente, converge en la cadena ms fuerte. Una bsqueda en
paralelo reduce la posibilidad de ser atrapado en un ptimo local.
Las principales fortalezas de los mtodos de bsqueda estocstica que se que
puedan hacer frente a los problemas de optimizacin ms difcil y la garanta de
encontrar una solucin ptima. Otro de la gran ventaja es que, si el espacio de
soluciones es muy irregular, pueden producir una gama de soluciones con cerca
de ptima rendimiento, ms bien un punto nico y ptimo. Esto abre una gama de
soluciones para el diseador, en lugar de tener slo una opcin. Sin embargo, hay
desventajas con mtodos estocsticos de optimizacin tambin. Pueden ser muy
lentitud en la convergencia y por lo general deben adaptarse para resolver
problemas particulares. Adaptacin de los mtodos especficos para adaptarse a
las aplicaciones las hace mucho ms eficiente.

OPTIMIZACION MULTIVARIABLE SIN RESTRICCIONES

DISEO DE PROCESOS II

Una funcin de una variable f (x) se dice que tiene un mnimo relativo o local en x
= x * si f (x *) f (x * + h) para todos los valores lo suficientemente pequeos
positivos y negativos de h. Del mismo modo, un punto x * se llama un mximo
relativo o local si f (x *) f (x * + h) para todos los valores de h suficientemente
cercanos a cero. Una funcin f (x) se dice que tiene un mnimo global o absoluto
en x * si f (x *) f (x) para todo x, y no slo para todo x cerca de x *, en el dominio
sobre el cual f (x) se define. Del mismo modo, un punto x * ser un mximo global
de f (x) si f (x *) f (x) para todo x en el dominio. Figura 4., muestra la diferencia
entre los puntos ptimos locales y globales.

Figura 4. Mnimos relativos y globales

Un problema de optimizacin de una sola variable es aquella en la cual el valor de


x = x * se encuentran en el intervalo [a, b] tal que x * minimiza f (x).
En esta seccin consideramos las condiciones necesarias y suficientes para el
mnimo o mximo de una funcin sin restricciones de varias variables. Antes de
ver estas condiciones, consideramos la expansin de la serie de Taylor de una
funcin multivariable.
Definicin. Rth diferencial de f. Si todas las derivadas parciales de la funcin f a
travs de r 1 existen y son continuas en un punto X *, el polinomio
Ec. 2

Es llamada rth diferencial de f en X*. Tenga en cuenta que hay r sumatorias y un


hi se asocia a cada suma en la ecuacin. (2).

DISEO DE PROCESOS II

Por ejemplo, cuando r=2 y n=3, tenemos

La expansin de las series de Taylor de una funcin f(x) sobre un punto X* est
dado por

Ec. 3

Donde el ltimo trmino viene dado por


Ec. 4

Donde 0 1 y h= X - X*.

Teorema 1
Condicin necesaria. Si f(x) tiene un punto extremo (mximo o mnimo) en X=X*
y si las primeras derivadas parciales de f(x) existen en X*, entonces
Ec. 5

Prueba. Supongamos que una de las primeras derivadas parciales, por ejemplo el kth, no
se anula en X *. Entonces, por el teorema de Taylor:

DISEO DE PROCESOS II

Esto es

Desde

d f ( X+ h)

es de orden

h2i , los trminos de orden h dominaran los

trminos de orden superior para pequeas h. As el signo de

decidido por el signo de

Entonces el signo de
h K <0

X/ X K
h K f . Supongamos que

X
( X+h )f

ser positivo para

h K >0

X
(
f X+h ) f

es

X/ X K
f

>0.

y negativo para

.Esto significa que X* no puede ser un punto extremo. La misma

conclusin puede ser obtenida incluso si asumimos que

f 0. Dado que esta

conclusin est en contradiccin con la declaracin original que X*


punto extremo, podemos decir que

f
=0
XK

es

un

en X=X*. Por lo tanto el teorema

est aprobado.
Teorema 2 Condicin suficiente
Una condicin suficiente para que un punto estacionario X * sea un punto
extremo es que la matriz de las segundas derivadas parciales (matriz hessiana) de
f (x) evaluada en X * es (i) definida positiva cuando X * es un punto mnimo
relativo, y (ii) es definida positiva cuando X * es un punto mximo relativo.

DISEO DE PROCESOS II

Prueba: Del teorema de Taylor, se puede escribir

Ec. 6

Puesto que X* es un punto estacionario, las condiciones necesarias se dan


(Teorema 1)

Por lo tanto la ecuacin. (2.10) se reduce a

Por lo tanto, el signo de

Ser el mismo que el de

Donde la segunda derivada parcial de

2
f (X)
,
xi x es continua en la seccin de X*,

DISEO DE PROCESOS II

Tendr el mismo signo que

As, si

X= X
2 f ( X )
(
) para todas las h suficientemente pequeas.
xi xj

X
(
f X+h ) f ser positivo, y por lo tanto X* ser un mnimo relativo, si

Ec. 7

Es positivo. Esta cantidad Q es una forma cuadrtica y se puede escribir en forma


matricial como
Ec. 8

Donde
Ec. 9

Es la matriz de las segundas derivadas parciales y es llamada la matriz Hessiana


de f(x).
Se sabe de lgebra matricial que la forma cuadrtica de las ecuaciones (7) o (8)
ser positiva para todos los h si y slo si [J] es definida positiva en X = X*. Esto
significa que una condicin suficiente para que el punto estacionario X* sea un
mnimo relativo es que la matriz hessiana evaluada en el mismo punto sea
definida positiva. Esto completa la prueba para el caso de minimizacin. Al
proceder de una manera similar, se puede demostrar que la matriz hessiana ser
definida negativa si X* es un punto mximo relativo.
Nota: Una matriz A ser definida positiva si todos sus valores propios son
positivos, es decir, que todos los valores de que satisfacen la ecuacin
determinan tal
Ec. 10

Debe ser positiva. Similarmente, la matriz [A] ser definida negativa si sus valores
propios son negativos.

DISEO DE PROCESOS II

Otra prueba que se puede utilizar para encontrar el definitud positiva de una matriz
de orden n consiste en la evaluacin de los factores determinantes.

Ec. 11

La matriz A ser definida positiva si y slo si todos los valores de A1, A2, A3,. . .,
An son positivos. La matriz A ser definida negativa si y slo si el signo de Aj es (1) j para j = 1, 2,. . ., n. Si algunos de los Aj son positivos y el resto de Aj son cero,
la matriz A ser semidefinida positiva.

DISEO DE PROCESOS II

Caso semidefinido
Teorema 2.5
Que las derivadas parciales de f de todas las ordenes hasta el orden k 2 es
continua en el entorno de un punto estacionario X*, y.

De manera que dkf | X = X * es el primer diferencial no nulo de orden superior de f


en X *. Si es aun k, (i) X* es un mnimo relativo si dkf | X = X * es definido positivo,
(ii) X* es definido un mximo relativo si dkf | X = X * es definido negativo, y (iii) si
dkf | X = X * es semidefinido (pero no definido), no hay ninguna conclusin general
que se pueda sacar. Por otro lado, si k es impar, X * no es un punto extremo de f
(X).
Punto de silla
En el caso de una funcin de dos variables, f (x, y), la matriz hessiana no podr
ser definida positiva ni negativa en un punto (x *, y *) en el que

En tal caso, el punto (x *, y *) se denomina punto de silla. La caracterstica de un


punto de silla es que corresponde a un mnimo relativo o mximo de f (x, y) con
respecto a una variable, por ejemplo, x (la otra variable que se fija en y = y *) y un
mximo o mnimo relativo de f (x, y) con respecto a la segunda variable y (la otra
variable que se fija en x *).

DISEO DE PROCESOS II

METODO LAGRANGE
METODO DE LAGRANGE

Las caractersticas del mtodo de Lagrange establecen su uso inicialmente para


un problemas de 2 variables y una constante.
Problema con 2 variables y una constante

Reducir f ( x1 , x2 )

g( x 1 , x 2)

Sujeto a

Para este problema la condicin necesaria de un punto extremo es X=X *

f f / x 2 g

x 1 g / x 2 x1 (x

,x 2 )

Ecuacin 1

Definir una cantidad llamado el mltiplo de lagrange:


=

f / x 2

g / x 2 ( x

, x2

Ecuacin 2

La ecuacin 1 puede ser expresada

f
g
+

x1
x1 x

, x1

=0

Ecuacin 3

DISEO DE PROCESOS II

Y la ecuacin 2 puede ser escrita como:

f
g
+

x2
x2 x

, x1

=0

Ecuacin 4

La ecuacin tiene que ser satisfecha en el punto extremo eso es:

g( x 1 , x 2)f (x 1 , x 2 ) =0

Ecuacin 5

Las ecuaciones 3 y 5 representan las condiciones necesarias para el punto

( x1 , x2 )

para ser un punto extremo ntese que la derivada parcial

g
( x 1 , x 2 )
x2

no debe ser cero para ser capaz de definir por medio de la

ecuacin 2. Esto es debido a la variacin


d x1

d x2

fue expresada en trminos de

en la derivacin de la ecuacin 1. De otra manera si se expresa

termino de

d x2

, se deben obtener los requerimientos que

d x1

en

g
( x 1 , x 2 )
x1

deben ser distintos a cero para definir la derivacin de las condiciones


necesarias por el mtodo de lagrange requiere que la menor de las derivadas
parciales de g( x 1 , x 2) debe ser distinta a cero en un punto extremo.
Las condiciones necesarias de las ecuaciones 3 a la 5 son constituyen
comnmente una funcin L conocida como la funcin de lagrange.

DISEO DE PROCESOS II

l ( x , y , )=f ( x 1, x 2) + g (x1, x 2 )

Por tratarse de l una funcion de 3 variables

Ecuacin 6

x 1,

x 2,

, las condiciones

necesarias son:

L
f
g
x 1 , x 2 , )=
x1 , x 2) +
(
(
( x x ) =0
x1
x1
x1 1, 2

( )

L
f
g
x 1 , x 2 , )=
x 1 , x 2) +
(
(
( x , x )=0
x2
x2
x2 1 2

l
( x , x , )=g ( x 1 , x 2 )=0
1 2

Ecuacin 7

Ecuacion 8

Ecuacin 9

DISEO DE PROCESOS II

METODO KUHN-TUCKER
OPTIMIZACION
La optimizacin puede considerarse como la bsqueda d la mejor solucin
(solucin ptima) de un problema. El termino mejor aqu depende del contexto en
el que se trabaje, podra significar solucin que minimiza los costes, o maximiza
los beneficios, o que hace que la distancia recorrida sea mnima, etc.
Esta primera reflexin sobre lo que se entiende por optimizacin refleja claramente
las importantsimas e indudables aplicaciones de esta rea de las matemticas a
un amplio espectro de problemas; aplicaciones que surgen en la prctica totalidad
de las ciencias.
El abordar un problema real de optimizacin supone bsicamente dos etapas:

Determinar el modelo matemtico que rige el problema.


Resolver dicho problema usando una serie de tcnicas matemticas.

Lgicamente, se buscan modelos sencillos que puedan resolverse con las


herramientas analticas y de clculo disponibles. El precio pagado por la
simplicidad puede ser la falta de fiabilidad de las conclusiones del modelo; por esa
razn resulta recomendable su comparacin con observaciones empricas del
problema real.

DISEO DE PROCESOS II

Los problemas que pueden ser resueltos mediante la optimizacin matemtica son
aquellos que pueden expresarse en la forma:

Terminologa:

X es un vector de n componentes reales conocido como vector de variables


de decisin.
F(x) es una funcin de n variables que se conoce como funcin objetivo.
El conjunto D se conoce como regin factible o conjunto de soluciones
factibles.
Los problemas de optimizacin tambin se conocen como programas
matemticos.

El objetivo de la optimizacin matemtica es, por tanto, encontrar mximos y


mnimos de funciones de varias variables sujetas a una serie de restricciones.
Llegar a plantear un problema de optimizacin supone:

Elegir las variables de decisin. Un excesivo nmero de variables puede


aumentar la complejidad del problema, por lo que puede prescindirse de los
factores con efectos mnimos sobre el modelo.
Determinar la funcin objetivo. En algunas situaciones varias funciones
pueden adaptarse al modelo, de la eleccin realizada puede depender la
efectividad del sistema.
Determinar las limitaciones o restricciones que han de imponerse a las
variables para de esta forma obtener el espacio de soluciones factibles.
Debe tenerse presente lo siguiente:
o Omitir restricciones puede hacer que la solucin del problema
cambie totalmente.
o Evitar imponer restricciones contradictorias, que hacen que el
problema no tenga solucin.
o Controlar las restricciones redundantes, ya que no afectan a la
solucin pero pueden aumentar la complejidad del clculo.
o Deben usarse unidades de medida consistentes. Un error que suele
ser comn es utilizar diferentes unidades de medida en distintas
restricciones.

DISEO DE PROCESOS II

Sinnimos de la optimizacin; son las expresiones economizar, distribucin de


recursos, limitacin de recursos, toma de las mejores decisiones, etc.

Teorema karush-kuhn-tucker
Desde un punto de vista prctico, los problemas con restricciones de desigualdad
pueden ajustarse mejor a situaciones reales. Puede pensarse que una restriccin
de igualdad significa agotar completamente cierto recurso: en cambio, la misma
restriccin en forma de desigualdad resulta ms realista, ya que indica la
disponibilidad del recurso pero no obliga a agotarlo completamente. El estudio de
este tipo de problemas ha sido ms reciente que el de los problemas sin
restricciones o con restricciones de igualdad. De hecho, el ms importante de los
resultados expuestos aqu, el conocido como teorema de Kuhn-Tucker, fue
publicado en 1951.
La forma estndar de los problemas con restricciones de desigualdad es la
siguiente:

Las desigualdades estrictas pueden conducir a problemas sin solucin: por esa
razn son excluidos de la formulacin de estos problemas. Esta exclusin que en
principio parece una limitacin importante, no lo es tanto desde un punto de vista
prctico ya que difcilmente se encuentran desigualdades estrictas en casos
reales. Por otra parte, se supone siempre que las desigualdades tienen el signo <=

DISEO DE PROCESOS II

y el termino de la derecha es nulo, fcilmente se puede conseguir expresar las


restricciones en esta forma si fuese necesario.

CONDICIONES NECESARIAS DE Kuhn-Tucker


Teorema de Kuhn-Tucker
Se presentan ahora las condiciones necesarias de optimizacin que constituyen la
generalizacin de las dadas por LaGrange para problemas con restricciones de
desigualdad. Para poder aplicarlas, es necesario en primer lugar que todas las
funciones que intervienen en el problema admitan derivadas parciales de primer
orden continuo.

Teorema:
Dado un problema de la forma

Que tiene un mnimo local en el punto y. si los vectores gradientes de las


restricciones saturadas en y son linealmente independientes en y entonces cada
restriccin saturada tiene asociado un nmero li>=0 (conocido como
multiplicador de Kuhn-Tucker) de tal forma que:

DISEO DE PROCESOS II

Para que en la expresin anterior intervengan todas las restricciones se asocian


multiplicadores nulos a las restricciones no saturadas, para ello se imponen las
condiciones:

Algunas observaciones sobre este resultado que conviene destacar son las
siguientes:

Para poder aplicar el resultado es importante que el problema est


planteado en la forma que aparece en el teorema; de no ser as, los signos
de los multiplicadores podran ser diferentes.
Debe tambin verificarse la hiptesis de regularidad que obliga a que los
gradientes de las restricciones saturadas sean linealmente independiente
en el ptimo. De no ser as el punto podra no verificar el teorema, como
ocurra en el caso de restricciones de igualdad.
Los multiplicadores de Kuhn-Tucker tambin se conocen como variables
duales del problema.
Para problemas de maximizacin se tendra un resultado similar, con la
nica diferencia de que los multiplicadores deben ser negativos.
El teorema sirve, igual que el teorema de Lagrange, para determinar los
posibles ptimos de un problema; para ellos, habra que resolver un
sistema de n + m incgnitas. Una vez resuelto este sistema habra que
seleccionar aquellas soluciones que verifican las desigualdades. Por
analoga con los problemas con restricciones de igualdad, a estos puntos
se les conoce como puntos estacionarios.

Con las condiciones expuestas hasta ahora no se est en disposicin de asegurar


que dicho punto corresponda realmente a un mnimo local del problema. Se hace
necesario, por tanto, el estudio de condiciones suficientes de optimizacin.

CONDICIONES SUFICIENTES DE OPTIMIZACION

DISEO DE PROCESOS II

Una vez seleccionadas las posibles soluciones de un problema de optimizacin


con restricciones de desigualdad, deben estudiarse condiciones suficientes que
permitan decidir si realmente los puntos localizados corresponden a verdaderas
soluciones

Caso convexo
Teorema:
Si el problema s convexo, entonces las condiciones necesarias de Kuhn-Tucker
son dems suficientes.
Condiciones de segundo orden
Las condiciones suficientes de segundo orden, aplicables a todos los problemas
cuyas funciones sean derivables parcialmente hasta orden 2 y con derivadas, son
las mismas que en los problemas con restricciones de igualdad considerando
solamente las restricciones que en el posible optimo tienen asociados
multiplicadores no nulos.

APLICACIONES DE LAS CONDICIONES DE Kuhn-Tucker


Interpretaciones econmicas de los multiplicadores de Kuhn-Tucker
Los multiplicadores de Kuhn-Tucker, al igual que los multiplicadores de Lagrange
en el caso de restricciones de igualdad son calculados simultneamente a los
puntos ptimos. Adems de servir para utilizar las condiciones de optimizacin de
segundo orden y para indicar las restricciones que se encuentran saturadas,
tienen una clara interpretacin econmica.
Dado el ptimo de un programa con restricciones de desigualdad, podra
plantearse un programa equivalente eliminando las restricciones no saturadas y
expresando en forma de igualdad las saturadas. De forma que la interpretacin
dada para problemas con restricciones de igualdad, sigue siendo vlidas en este
caso, lo que significa que los multiplicadores de Kuhn-Tucker miden la variacin
que sufre el valor ptimo de problema al modificar sus restricciones.
Si en una restriccin g (x) <=b se aumenta el valor del parmetro b, el espacio
de soluciones factibles aumenta. Por lo tanto, al buscar el mnimo sobre un
conjunto ms amplio, e valor ptimo de la funcin objetivo puede decrecer, pero
en ningn caso crecer. En el caso de problemas de mximos la situacin es la

DISEO DE PROCESOS II

inversa: Al aumentar las restricciones tambin puede aumentar el valor ptimo.


Estas consideraciones confirman que:

Todo mnimo debe lleva asociado multiplicadores mayores o iguales que


cero.
Todo mximo debe llevar asociado multiplicadores menores o iguales a
cero.

En trminos econmicos, pueden considerarse los multiplicadores de Kuhn-Tucker


como unos parmetros que en cierta forma miden el costo de la mejora del valor
ptimo, obtenida al modificar la correspondiente restriccin. Actan por tanto como
un sistema de precios. Una buena poltica econmica estara orientada a
obtener una mejora de optimo mayor que el costo de obtenerla.
Si se pensase en las restricciones de desigualdad como la disponibilidad en una
empresa de ciertos recursos:

Un multiplicador nulo en una de las restricciones, indicara que el


correspondiente recurso no se ha agotado (restriccin no saturada). De
forma, que no tendra ningn coste para la empresa utilizar una mayor
cantidad de ese recurso.
En cambio, si el multiplicador de una restriccin es no nulo, dicho recurso
ha sido agotado completamente (restriccin saturada), de forma que el
disponer de una cantidad adicional del recurso supone un costo para la
empresa. El multiplicador no mide el precio real del recurso, sino el
rendimiento que se puede obtener al aumentar su disponibilidad.

CASOS PRACTICOS
Southgate, 1990.
Desarrolla un modelo agrcola para la preservacin de las zonas forestales y
muestra que las condiciones de Kuhn-Tucker en el modelo sugieren que la gestin
de las tierras de labranza existentes tambin sea afectada por el desarrollo de la
infraestructura.
Gupta-Stahl, 1994.
La operacin de un sistema de cmputo de red, por ejemplo Internet, se puede ver
como problema de la asignacin de recursos, y se puede analizar usando las
tcnicas de la economa matemtica. Si definimos un sistema de cmputo en red
general y traducimos esa disposicin a un modelo de una economa. Las

DISEO DE PROCESOS II

preferencias de usuarios se toman como primitivos, y los servidores


(proporcionando a servicios de la base de datos incluyendo la hospitalidad y las
noticias o los servicios de cmputos) en la red e ven como empresas productivas
con las colas de entrada de informacin con prioridad. Cada servidor tiene un
precio de alquiler para sus servicios segn la clase de prioridad. Se caracterizan
asignaciones optimas del sistema, y derivamos las frmulas para utilizar precios
de alquiler de la superior prioridad tales que las demandas individuales agregadas
del usuario no excedan niveles ptimos y en las expectativas del tiempo de espera
este correcto. Se propone un proceso de ajuste en ejecucin descentralizado del
precio. Algunos resultados de un estudio de la simulacin se presentan y se
discuten. Las medidas del beneficio para cada servidor se pueden utilizar para
dirigir decisiones de la inversin.
Lau-Pahlke-Rutherford, 1997.
Se describen los modelos no lineales generales dinmicos de la formulacin y
solucin del equilibrio en la programacin y los formatos mezclados de la
complementariedad. Su objetivo es pedaggico. Las ecuaciones esenciales para
algunos modelos se presentan en un formato compacto y accesible, junto con los
programas de computadora que concretamente ilustran los modelos.
Presentan dos mtodos de aproximacin para los modelos infinitos del horizonte.
Las formulaciones de modelos alternativas se ilustran con un modelo simple de
Ramsey basado en formas funcionales especficas, y se compara la precisin de
cmputo de los mtodos alternativos del objetivo. Finalmente, se ilustra como el
marco dinmico del equilibrio se puede extender para tratar un problema
econmico prctico. Aqu se considera la puesta en prctica de impuestos
ambientales acelerar la transicin de convencional a las fuentes de energa no
convencionales.
McCarl- Spreen, 1997.
La validacin modelo es importante en cualquier anlisis emprico. Los modelos de
programacin son con frecuencia validados superficiales. Sin embargo, la
validacin es necesaria para pronosticar y los acercamientos a modelo
prescriptivos de la validacin varan extensamente.
El propsito es probar como es un modelo que responde a su propsito previsto.
Dos acercamientos de la validacin pueden ser utilizados: validacin por la
construccin y validacin por resultados. La validacin por la construccin afirma
el modelo fue construido correctamente y por lo tanto es vlido. La validacin por
resultados se refiere a los ejercicios donde las salidas del modelo se comparan
sistemticamente contra observaciones verdaderas del sistema.

DISEO DE PROCESOS II

El experimento dual de la viabilidad implica el probar s los precios sombra


observados son factible en las condiciones Kuhn-Tucker.

Bibliografa:
Robin Smith Chemical Process Design and Integration, edit. McGraw Hill (2005)
Singiresu S. Rao Engineering Optimization 4ta edic. John Wiley & Sons (2009)
http://www.angelfire.com/ak6/publicaciones/kuhn_tucker.pdf
http://structio.sourceforge.net/guias/proglin/proglin001.html

Das könnte Ihnen auch gefallen