Beruflich Dokumente
Kultur Dokumente
El clima en Cochabamba puede cambiar con rapidez de un día a otro. Sin embargo, las
posibilidades de tener clima seco (sin lluvia) mañana es de alguna forma mayor si hoy está seco,
es decir, si no llueve. En particular, la probabilidad de que mañana esté seco es de 0.8 si hoy está
seco, pero es de sólo 0.6 si hoy llueve. Estas probabilidades no cambian si se considera la
información acerca del clima en los días anteriores a hoy.
Estado 0 El día t es seco
Estado 1 El día t es lluvioso
Una tienda de celulares tiene el siguiente problema de inventario. El negocio tiene en almacén un
modelo especial de celular que se puede solicitar cada semana. Sean D1, D2, . . . representan las
demandas respectivas de este celular (el número de unidades que se venderían si el inventario no
se agota) durante la primera, segunda semanas, . . ., respectivamente, entonces, la variable aleatoria
Dt (para t = 1, 2, . . .) es Dt = número de celulares que se venderían en la semana t si el inventario
no se agota. (Este número incluye las ventas perdidas cuando se agota el inventario). Se supone
que las Dt son variables aleatorias independientes e idénticamente distribuidas que tienen una
distribución Poisson con media de 1. Sea X0 el número de celulares que se tiene en el momento de
iniciar el proceso, X1 el número de celulares que se tienen al final de la semana 1, X2 el número de
celulares al final de la semana 2, etc., entonces la variable aleatoria Xt (para t = 0, 1, 2, . . .) es Xt
= número de celulares disponibles al final de la semana t. Xt representa el estado del sistema en el
tiempo t (el fin de la semana t). Dado que el estado actual es Xt = i, Xt+1 depende sólo de Dt+1 (la
demanda en la semana t + 1) y Xt. Como Xt+1 es independiente de la historia del sistema de
inventarios antes del tiempo t, el proceso estocástico {Xt} (t = 0, 1, . . .) tiene la propiedad
markoviana y por lo tanto es una cadena de Markov. Suponga que X0 = 3, de manera que la semana
1𝑏 𝑒 −1
1 se inicia con tres celulares a mano y 𝑃{𝐷𝑡+1 = 𝑛} = 𝑛!
X1 X2 X3 X4
X1 0.080 0.184 0.368 0.368
P= X2 0.632 0.368 0 0
X3 0.264 0.368 0.368 0
X4 0.080 0.184 0.368 0.368
0
Dante Álvaro Gonzales Olmos
Investigación de Operaciones III
A B C
D E F
Dante Álvaro Gonzales Olmos
Investigación de Operaciones III
Los guardias en la EMI de la lanza tienen a su cargo cuidar los ambientes de la universidad, está
provisto de un puesto de centinela en cada esquina:
Para despistar al enemigo se ha dado la orden a los centinelas de hacer la ronda de la siguiente
manera aleatoria: Vigilar durante cinco minutos en uno de los cuatro puestos, designado en el
último momento por el mando; después, tirar a cara o sello. Si sale sello, ir al primer puesto que se
encuentre a su izquierda (si sale cara a su derecha) y vigilar en él otros cinco minutos; echar de
nuevo la moneda, seguir la misma regla precedente y así sucesivamente. Aquí diremos que el
sistema (fuerte-guardia) se encuentra en el estado i en la fecha n si el n-ésimo desplazamiento del
centinela le ha conducido al puesto i (i = 1, 2, 3, 4); el sistema sigue una Cadena de Markov.
Considere el siguiente modelo del valor de una acción. Al final de un día dado se registra el precio.
Si la acción subió, la probabilidad de que suba mañana es de 0.7. Si la acción bajó, la probabilidad
de que suba mañana es de sólo 0.5. (Para simplificar, cuando la acción permanezca con el mismo
precio se considerará un aumento.) Ésta es una cadena de Markov, donde los estados posibles de
cada día son los siguientes:
Estado 0: El precio de la acción subió este día.
Estado 1: El precio de la acción bajó este día.
Suponga ahora que el modelo del mercado de acciones se cambia de manera que el hecho de que
una acción suba mañana depende de que haya subido hoy y ayer. En particular, si la acción subió
los dos días, ayer y hoy, la probabilidad de que suba mañana es de 0.9. Si la acción subió hoy pero
ayer bajó, la probabilidad de que mañana suba es de 0.6. Si la acción bajó hoy pero ayer subió, la
probabilidad de que mañana suba es de 0.5. Por último, si bajó durante estos dos días, la
probabilidad de que mañana suba es de 0.3. Si se define el estado como la representación del hecho
de que la acción baje o suba hoy, el sistema ya no es una cadena de Markov. Sin embargo, se puede
transformar en una de ellas si se definen los estados como sigue:
expedientes de los mismos. Se pudo determinar que, si un proyecto en la inspección anterior quedó
en ejecución normal, tiene una probabilidad de 0.40 de permanecer en ejecución normal o de
terminarse, aunque una probabilidad de 0.20 de atrasarse. Si en la pasada inspección quedó
atrasado, tiene una probabilidad de 0.50 de seguir con atrasos, 0.40 de ser cancelado y un 0.10 de
recuperar el atraso y pasar a ejecución normal. Los proyectos que pasen a la condición de
cancelados o terminados se les cierra el expediente.
Considerando que la secuencia de estados por lo que puede transitar el proyecto, se comporta como
un proceso estocástico, especialmente como una cadena de Markov, se necesita realizar un análisis,
que permitan determinar
El número total promedio de inspecciones que tendrán lugar antes de que el proyecto se
termine o sea cancelado si se encuentra en ejecución normal o atrasado.
La probabilidad que tiene un proyecto de terminar o ser cancelado, si comienza en ejecución
normal o en estado atrasado.
Por la naturaleza del mismo, y por la solidez de los datos con que se contaba, se decidió utilizar
métodos cuantitativos para la toma de decisiones, a partir de un enfoque estocástico, especialmente
visto el proceso como una cadena de Markov, ya que se puede considerar como un sistema
constituido por una serie de eventos, en el cual la probabilidad de que ocurra un evento depende
del evento inmediato anterior. Esta dependencia las distingue de las series de eventos
independientes. De ahí que se defina como un proceso estocástico que cumple con la propiedad de
Markov, que plantea que, si se conoce la historia del sistema hasta su instante actual, su estado
presente resume toda la información relevante para describir en probabilidad su estado futuro. Para
ello se definieron los diferentes estados por lo que podían transitar los proyectos de ejecución
durante su ciclo de vida. Ellos son: E: Ejecución normal, A: Atrasado, C: Cancelado. T: Terminado.
a) Elaborar su grafo
b) Elaborar la matriz de transición
c) Cuantas inspecciones mensuales en promedio tendrá un proyecto de investigación que se
inicie en ejecución normal antes de terminar o ser cancelado.
Pregunta 13 – Cadenas de Markov
El vicepresidente de personal en la empresa BOA notificó que los cambios de personal pueden ser
modelados por un proceso de Markov. Los estados que se tienen son los siguientes, X1 = misma
posición o cargo, X2 = promoción, X3 = retiro, X4 = renuncias, X5 = despido, La matriz de transición
es:
X1 X2 X3 X4 X5
X1 0.55 0.10 005 0.10 0.10
P= X2 0.70 0.20 0 0 0
X3 0 0 1 0 0
X4 0 0 0 1 0
X5 0 0 0 0 1
Dante Álvaro Gonzales Olmos
Investigación de Operaciones III
Un juego de habilidad manual consta de tres fases (1, 2, 3) que deben realizarse sucesivamente. Se
considera que un jugador ha completado el juego, cuando realiza las tres fases en forma
satisfactoria. Cuando dada la dificultad de las fases el jugador abandona el juego sin haberlo
completado, se considera que ha perdido. En particular el 5 % abandonan en la fase 1, el 15 % en
la fase 2 y el 10 % en la fase 3. Cuando el resultado de una fase no es satisfactorio, esta debe
repetirse, pero en el caso de las fases 2 y 3, si el resultado es muy insatisfactorio el jugador debe
retroceder. En concreto 20 % de las personas deben repetir la fase 1, en la fase 2 el 30 % deben
repetirla y 5 % retroceden a la fase 1, en la fase 3 el 35 % deben repetir y 5 % deben retroceder a
la fase 2.
En base a datos históricos se espera que el 35% de los empleados de la categoría 1, el 20% de la 2
y el 5% de la 3 dejen la empresa anualmente por renuncias, despidos, jubilaciones,
fallecimientos, etc.
b)
7/8
3/4
E0
E1
0.20
1/16 1 1/8
1/16
1/8
E3 1/2
E2
1/2
1
c)
E0 E1 E2 E3
E0 0 7/8 1/16 1/16 x y z w
x y z w
E1 0 3/4 1/8 1/8
=
E2 0 0 1/2 1/2
E3 1 0 0 0
x+y+z+w=1
w=x
1/16 x + 1/8 y + ½ z – w = 0
x+ y+ z+w=1
17/16x+ 9/8 y + 3/2z = 1 17/16(2/7 y)+ 9/8 y + 3/2(2/7 y) = 1 17/56y+9/8y+3/7y=1
13/7y=1
y=7/13
= 02/13+10002/13+30002/13+(4000+2000)2/13
= 1923.0769 $us
E0 E1 E2 E3
E0 0 7/8 1/16 1/16
E1 0 3/4 1/8 1/8
P=
E2 0 0 1/2 1/2
E3 0 0 0 1
La matriz (I – Q)-1
-1
1 0 0 0 7/8 1/16
0 1 0 - 0 3/4 1/8
0 0 1 0 0 1/2
-1
1 -7/8 1/16
0 1/4 -1/8
0 0 1/2
1 7/2 1
(I – Q)-1 = 0 4 1
0 0 2
1 7/2 1 1
0 4 1 1
0 0 2 1
5,5
= 5
2