Beruflich Dokumente
Kultur Dokumente
ANLISIS Y PREDICCIN
17 de septiembre de 2015
Autor: Laura Pontn
Procesos Estocsticos
Unidad 2 Evidencia de Aprendizaje
Introduccin
El anlisis de Markov es un procedimiento normalmente utilizado para describir el comportamiento de un sistema
en una situacin dinmica, donde se describen y predicen los movimientos de un sistema entre los diferentes
estados posibles a travs del paso del tiempo.
Dentro del anlisis probabilstico, existen diversos estudios para procesos que pudiesen ser an ms complejos,
debido a su comportamiento y prediccin.
Las cadenas de Markov, como una herramienta especializada que sirve a procesos que cumplen con
requerimientos especficos, facilitan y sintetizan los estudios de los procesos en funcin de los eventos
probabilsticos para el futuro, de cada proceso y por supuesto para la efectiva toma de decisiones en cualquier
mbito empresarial y/o gubernamental
Particularmente las cadenas de Markov ayudan a describir la forma en que un determinado proceso evolucionar
en el futuro dependiendo solamente del estado actual en que se encuentra el proceso y, por lo tanto, son
independientes de los eventos que ocurrieron en el pasado, haciendo sumamente sintetizado, la aplicacin de los
estudios de anlisis y prediccin.
Existen procesos que por su naturaleza y por la necesidad de requerir ciertos resultados, se modelan segn
contextos de estudio probabilstico especializados, donde algunos procesos se ajustan a estas necesidades, como lo
es no depender de los procesos pasados, para sintetizar anlisis, por lo que las cadenas de Markov constituyen una
clase de modelo probabilstico de gran importancia para estas condiciones.
2.
Un museo consta de seis salas de tamaos iguales dispuestas en forma de una cuadrcula
con tres filas y dos columnas. Cada muro interior tiene una puerta que conecta con las salas
adyacentes. El guardia se desplaza por las salas a travs de las puertas interiores. El guardia
permanece una hora en una sala y tiene la misma probabilidad de ir a una sala con puerta
adyacente para la siguiente hora. La vigilancia inicia en la sala dos.
Sala 1
Sala 2
Sala 3
Sala 4
Sala 5
Sala6
Nota: Este esquema es el que he considerado para resolver el problema, dado que es el que va conforme a la redaccin del
problema
a. Identifique Xn, S y T Sea {Xn} una cadena de Markov con espacio de estados S = {1,2,3,4,5,6} y T =
(0,1,2,3...,n).
b. Graficar el grafo
0
0
0 1/ 2 1/ 2 0
1/ 2 0
0 1/ 2 0
0
1/ 3 0
0 1/ 3 1/ 3 0
P
0 1 / 3
0 1/ 3 1/ 3 0
0
0 1/ 2 0
0 1/ 2
0
0 1/ 2 1/ 2 0
0
= (0,1,0,0,0,0)
e. Encontrar los valores propios
f. El clculo de valores propios de la matriz estocstica es:
0
0
0 1/ 2 1/ 2 0
1/ 2 0
0 1/ 2 0
0 0
1/ 3 0
0 1/ 3 1/ 3 0 0
Det ( P I )
0
1
/
3
1
/
3
0
0
1
/
3
0
0
0 1/ 2 0
0 1/ 2 0
0
0 1/ 2 1/ 2 0 0
0
1/ 2 1/ 2
0
0
0
1/ 2
0
1/ 2
0
0
1/ 3
0
1/ 3 1/ 3
0
0
1/ 3 1/ 3
0
1/ 3
0
0
1/ 2
0
1/ 2
0
0
0
1/ 2 1/ 2
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1 = 11
2 = 1
3 1/2
4 = 1/20.346
5 = 0.166
6 = 0.166
Es un estado de tipo recurrente, porque la cadena regresa una infinidad de veces. Adems, una cadena cuyo
espacio de estados est formado por una sola clase de comunicacin, se llama irreducible, es decir, en estas
cadenas todos los estados estn comunicados entre s
i.
1/ 3 3/ 7 0
0 2 / 9
0
1/ 3 0
0 3/ 7 2 / 9
0
2/7
0
0 3/ 7 2 / 7
0
P3
0 2 / 7
0 2 / 7 3/ 7 0
0 2 / 9 3/ 7 0
0
1 / 3
0
0 3/ 7 1/ 3 0
2/9
1/ 3 3/ 7 0
0 2 / 9
0
1/ 3 0
0 3/ 7 2 / 9
0
2/7
0
0 3/ 7 2 / 7
0
P3 0,1,0,0,0,0
0 2 / 7
0 2 / 7 3/ 7 0
0 2 / 9 3/ 7 0
0
1 / 3
0
0 3/ 7 1/ 3 0
2/9
0.347, 0.000, 0.000, 0.431, 0.222, 0.000
Probabilidad de que se encuentre en la torre 1 es del 34.7%
i.
0
0
0 1/ 2 1/ 2 0
1/ 2 0
0 1/ 2 0
0
1/ 3 0
0 1/ 3 1/ 3 0
P
0 1 / 3
0 1/ 3 1/ 3 0
0
0 1/ 2 0
0 1/ 2
0
0 1/ 2 1/ 2 0
0
1
1 = 2 0 + 3 3
1
3 = + 2 1 + 3 2 + 2 5
2 = 2 0 + 3 3 + 2 4
1
4 = 3 2 + 2 5
5 = + 3 3 + 2 4
0 + 1 + 2 + 3 + 4 + 5 = 1
1
0 = + 2 1 + 3 2
1 = 2 0 + 3 3
1
3 = + 2 1 + 3 2 + 2 5
2 = 2 0 + 3 3 + 2 4
1
4 = 3 2 + 2 5
5 = + 3 3 + 2 4
0 + 1 + 2 + 3 + 4 + 5 = 1
0 = + 2 1 + 3 2
, , , )
=( , ,
v vP 0.143
j)
= (. , . , . , . , . , . ),
0
0
0 1/ 2 1/ 2 0
1/ 2 0
0 1/ 2 0
0
1/ 3 0
0 1/ 3 1/ 3 0
0.143
0.143
0 1 / 3
0 1/ 3 1/ 3 0
0
0 1/ 2 0
0 1/ 2
0
0 1/ 2 1/ 2 0
0
Vemos que de 6 salas solo hay dos de ellas que se comunican con 3 y son precisamente las salas 3 y 4, es
por ello que la probabilidad de estar en estas dos salas es mayor que las restantes (que solo se comunican
con 2 salas) aunque es un 7% aproximado mayor que las otras 4, considero que es buena la estrategia por
la forma en que se encuentran las salas. Estamos hablando de una diferencia de 4 minutos por sala
aproximadamente que es cuasi idntico
Considerando eso, qu pasara si se queda un poco menos de tiempo cuando se encuentre en ambas salas
(alrededor de 55.8 minutos)?
3.
Sea {Xn} una cadena de Markov con espacio de estados S = {0,1,2,3,4,5} y matriz
de transicin:
1
1/4
0
0
0
0
0
0
1/2
0
0
0
0
1/2
0
0
0
0
0
1/4
0
0
1
0
0
0
1/2
1
0
0
0
0
0
0
0
1
a)
Elabora el grafo
{5}
{1,2}
{3,4}
d. Determina el periodo
{1,2}
{3,4} Ambos son de perodo 2 (3-4-3 , 1-2-1)
1
0.25
0
=
0
0
( 0
0
0
0.5
0
0
0
0 0 0 0
0.5 0.25 0 0
0 0 0.5 0
0 0 1 0
0 1 0 0
0 0 0 1)
0
0
0.5
0
0
0
0
0
0.5
0
0
0
0 0 0 0
1
0.5 0.25 0 0
0
0 0 0.5 0
0
0 0 1 0
0
0 1 0 0
0
(0
0 0 0 1)
0 0 0 0
0.5 0.25 0 0
0
0 0 0.5 0
0
0 0 1 0
0
0 1 0 0
0
0 0 0 1) ( 0
0
0
0
0
0
0
0
0
0
| | = ( ) = 0
=
=
=
=
= .
= .
f)
1
0.25
0
0
0
0
0
0
0
0 0
0 0.50 0.25 0 0
0.50 0
0 0.50 0
0
0
0
1 0
0
0
1
0 0
0
0
0
0 1
0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
1
0
0
0
0
=
0
0
1)
0
0
0
0
0
0
0
0
0
0
0
0
=
0
0
)
0 = 0 + 0.251
1 = 0.52
2 = 0.52
3 = 0.251 + 4
5 = 5
1 + 2 + 3 + + 5 = 1
El sistema no tiene solucin, al menos no puede ser analizada por el teorema de la convergencia y su distribucin a
largo plazo no se puede encontrar
No llega a una estabilidad
P6
1/3
1/6
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
5/6
1
0
0
0
2/3
0
0
1
0
0
0
0
0
0
1
P7
1/3
1/6
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
2/3
0
0
1
0
0
0
5/6
1
0
0
0
0
0
0
0
1
g)
Concluir
El sistema no tiene solucin, al menos no puede ser analizada por el teorema de la convergencia y su distribucin a
largo plazo no se puede encontrar
No llega a una estabilidad.
4.
Demuestra o da un contraejemplo:
a)
b)
c)
a)
Falso: El estado i, puede ser parte de otra clase de comunicacin, entonces no es necesariamente que i
sea transitorio, pues el ciclo de la cadena puede pasar por i las veces que sean.
b) Cierto:
Los estados que le sigan en la cadena a j, al ser transitorio para i, estos que le siguen, son transitorios para i
tambin:
En este ejemplo, k,y l, no se comunican con i, entonces estos estados son transitorios.
c) Cierto:
El estado i es transitorio, entonces, solo se llega a i desde j, si y solo si j no es parte de otra clase de
comunicacin:
5.
1/ 2 0 1/ 2 0
1/ 2 0 1/ 2 0
0 2 / 3 0 1/ 3
0 2 / 3 0 1/ 3
P
P
1/ 3 0 2 / 3 0
1/ 3 0 2 / 3 0
0 1/ 2 0 1/ 2
0 1/ 2 0 1/ 2
a)
b)
Demuestra que la siguiente cadena de Markov tiene una infinidad de distribuciones
invariantes e identifica la hiptesis del Teorema fundamental de convergencia que no satisface.
c)
d)
a. (0,0,1, 0)
b. (0,1,0,0)
c. ( , , , )
Concluir utilizando los incisos anteriores.
a)
e)
10
0
23
0
12
12
0
23
0
0
13
)
0
12
12
= ( 0
13
0
11
12
0
=(
13
0
0
23
0
12
0
23
0
12
12
0
23
0
12
0
23
0
0
1
13
0
) (
0
0
12
0
0
13
0
)(
0
0
12
0
0
0
Aplicamos el determinante:
| | = ( ) = 0
3 = 4 =
1
6
0
0
0
1
0
0
0
0
1
0
0
0
)=
0
1
0
0
)=
0
Entonces:
0
23
0
12
12
=( 0
13
0
12
0
23
0
0
13
) =
0
12
0
23
0
12
0 6
0.0 0.6 0.0 0.4
13
) =
0
0.4 0.0 0.6 0.0
12
12
0
23
0
(0
1 0)
(0
1
4
1
4
1
4
0)
1
)
4
Con (0
1
1 0) el vector estacionario es: (
3
Para (0
2
3
2
3
0)
1
)
3
y por ltimo
con (
1
4
1
4
1
4
1
5
) el vector estacionario es: (
4
24
7
24
7
24
5
)
24
Tenemos
12
e)
13
0
1
2
3
3
2
0
1
0
0
1
0
3
1
3
2
1
3
1
3
2
0
0
3
1
3
1
0
0
2
2
2
----->
----->
----->
----->
0
1
2
3
2
2
2
2
2
1
3
0
1
2
1
4
3
2
1
1
2/8
2 / 7
P
2 / 7
2 / 7
0 / 7 4 / 1/ 7 2 / 7 0 4 / 7 1 / 7 0.286
0 0.571 0.143
1 / 4 1 / 4 1 / 8 3 / 8
2 / 7 1/ 7 2 / 7 2 / 7
2 / 7 3 / 7 1/ 7 1/ 7
2 / 7 0 4 / 7 1/ 7
1 =
1
1
3
0 + 1 + 2 + 03
4
7
7
1
2
1
4
2 = 0 + 1 + 2 + 3
8
7
7
7
3 =
3
2
1
1
0 + 1 + 2 + 3
8
7
7
7
0 + 1 + 2 + 3 = 1
Resolviendo el sistema de 4 ecuaciones:
3
2
2
2
0 + 1 + 2 + 3 = 0
4
7
7
7
Sustituyendo:
1
2
2
2
0 = 0 + 1 + 2 + 3
4
7
7
7
14
1
6
3
0 1 + 2 + 03 = 0
4
7
7
1
8
0 + 7 1 7 2 + 7 3 = 0
3
2
1
6
0 + 1 + 2 3 = 0
8
7
7
7
0 + 1 + 2 + 3 = 1
Entonces resolviendo esta ecuacin tenemos los valores:
0 = 0.2759
1 = 0.2158
2 = 0.2706
3 = 0.2377
= (. , . , . , . )
e) Cul es la probabilidad a largo plazo de quedarse sin libros? Si cada libro lo venden a
$100, a la editora deben darle el 40%, Cul ser la ganancia esperada para la librera?
= .
El 27.59%
Si cada libro lo venden a $100, a la editora deben darle el 40%, Cul ser la ganancia esperada para la
librera?
15
0
1
2
3
Vector de
distribucin
Tiempo
esperado del
primer retorno
( 1/ )
0.2759
0.2158
0.2706
0.2377
3.625
4.634
3.695
4.207
(. ) + (. ) + (. ) = . ()
= (. )(, . ) = ,
1 / 4 1 / 4 1 / 8 3 / 8
2 / 7 1/ 7 2 / 7 2 / 7
=
2 / 7 3 / 7 1/ 7 1/ 7
2 / 7 0 4 / 7 1/ 7
El clculo de valores propios de la matriz estocstica es:
1 / 4 1 / 4 1 / 8 3 / 8
0
2 / 7 1/ 7 2 / 7 2 / 7
0
(
=
0 0
2 / 7 3 / 7 1/ 7 1/ 7
0 0
2 / 7 0 4 / 7 1/ 7
0
0
3
1
1
1
8
8
4
4
2
2
0
2 1
0
7
7
)=
7 7
1
1
0
2
3
7
7
7
7
4 1
2/7
0
)
(
7 7
16
Un solo valor caracterstico = 1 significa que solo hay una clase final de orden 2 (perodo 2)
El nmero de valores caractersticos iguales a uno es igual alnmero de clases finales de la cadena.
Conclusin:
Los problemas que hemos realizado en esta unidad y en esta actividad, nos brindan una idea de los alcances de este
anlisis a travs de las teoras de Markov. El anlisis y la prediccin de ciertos procesos que pueden ser
prospectos para el anlisis en teoras de Markov, por lo que son de gran utilidad en el desarrollo de los negocios,
la poltica, las empresas o el desarrollo econmico de pases.
El simple hecho de conocer el comportamiento de ciertos valores burstiles, as como el comportamiento de las
especies, las necesidades de compra de inventarios, cubre las necesidades de las pretensiones y objetivos
planteados por los ejecutivos, directores, en s de aquellos que necesitan a travs de la informacin efectuar la
toma de decisiones . .
17
La aplicacin para las cadenas de Markov, comprende todos los campos de estudio y del saber humano, siendo su
objetivo principal el clculo de movimientos futuros, predicciones de probabilidades, la probabilidad de los
diferentes estados de una cadena de Markov a la larga, o sea, conocer su equilibrio.
Bibliografa
Hillier, F., & Lieberman, G. (2010). Introduccin a la investigacin de operaciones. Mxico: Mc Graw Hill.