Beruflich Dokumente
Kultur Dokumente
Cadenas de Markov
Sincrnicos o asincrnicos
Experiencia
Estudios
Estadsticas
Estado Estado
Estados Pasados
Futuro Actual
Pij Xt 1 j / X0 k0 , X1 k1 , ..., Xt 1 kt 1 , Xt i
Pij Xt 1 j / Xt i
QUE UTILIDAD TIENE LAS CADENAS DE MARKOV ?
A la probabilidad condicional
Xt+1=j , Xt=i P(Xt+1=j/Xt=i) se le llama
Probabilidad de Transicin
Estado Estado del estado i al estado j y se
Futuro Actual simboliza con pij.
Observe que al evaluar pij se analiza la transicin de un estado
a otro en perodos de tiempos consecutivos, es decir, se
estudian los instantes de tiempo t y t+1.
Por tanto, a pij suele en algunas
(1) ocasiones escribirse con uno, (1),
pij p ij
arriba indicando que entre un estado y
otro hay un solo periodo de tiempo
( un paso)
CADENAS DE MARKOV HOMOGNEAS
P Xt 1 j / Xt i P X1 j / X0 i t
En este caso se dice que la probabilidad de transicin del
estado i al j es estacionaria.
Las probabilidades de
Supuesto transicin no cambian con el
tiempo
ACIONES DEL SUPUESTO DE LAS PROBABILIDADES ESTACION
(1) (n)
Si pij , es decir pij es estacionaria, entonces, pij
tambin es estacionaria no cambia con el tiempo.
(n)
pij Probabilidad P(Xt+n=j / Xt=i) y se le conoce como
probabilidad de transicin de n pasos.
(n)
1) pij 0 i, j, n
M
2) ( n)
pij 1 i, n
j o
MATRICIALMENTE
n n
p00 ... p 0M
n
P
ij : : :
n n
pM 0 ... pMM
EJEMPLO DE MATRIZ DE TRANSICIN DE UN PASO
Estados:
Soleado y Nublado
Periodo de transicin entre estados: Un da
P(X1 = nublado/ X0 = nublado)= 0.4
P(X1 = nublado/ X0 = soleado)= 0.3
P(X1 = soleado/ X0 = nublado)= 0.6
P(X1 = soleado/ X0 = soleado)= 0.7
(0) P( X 0 soleado) 0
soleado
nublado(0) P( X 0 nublado) 1
(0) (0),
soleado (0)
nublado 0,1
Por lo tanto:
CONCLUSIN
0.7 0.3
soleado( 0 ), nublado( 0 ) * ( 1 ),
soleado (1)
nublado
0.6 0.4
Estado Inicial del Sistema Matriz de Probabilidad del Estado final
Transicin del sistema
En general, se tiene que para cualquier cadena de Markov`
(1) ( 0 )xP10
( t 1) ( t )Ptt 1
Ejercicios de construccin de
matrices de transicin
Juego de apuestas
Cada mes existe una probabilidad q que un empresario de algn sello musical
nacional los escuche y decida apoyarlos para grabar y realizar giras para cantar
de Arica a Punta Arenas. Si tal cosa ocurre pasaran a ser una banda conocida a
nivel nacional. Una banda que es conocida a nivel nacional corre el riesgo de
perder el apoyo del sello nacional que la patrocina, con lo cual volvera a ser una
banda desconocida. Cada mes, la probabilidad que esto ocurra es r.
Por otro lado, una banda conocida a nivel nacional puede llegar a llamar la
atencin del representante de un sello musical internacional, el cual podra
decidir patrocinarlos. De ser as la banda pasara a ser conocida a nivel
internacional. Cada mes existe una probabilidad s que esto ocurra (s +r < 1).
Grupo Musical
Una banda slo percibe utilidades (equivalentes a K[$]) en los meses que es
conocida internacionalmente y est de moda (parte de esas utilidades
corresponden a una satisfaccin de su ego).
Hoy y Maana
0,5 0,5
1
0,4
0,7 0 0,2 2
0,3
0,6
3
0,8
Suponga que le preguntan, cul es la probabilidad
de que llueva pasado maana dado que llovi ayer
y hoy?
Suponga que X0 = 3
El sbado en la noche la tienda hace un pedido que le entregan el lunes en el
momento de abrir la tienda.
La tienda usa la siguiente poltica (s, S) para ordenar: si el nmero de cmaras
en inventario al final de la semana es cero s = 0 (no hay cmaras en la
tienda), ordenar hasta S = 3.
De otra manera, no coloca la orden (si se cuenta con una o ms cmaras en el
almacn, no se hace el pedido).
EJEMPLO DE USOS DE LAS CADENAS DE MARKOV (2)
Max (3 - Dt 1 ), 0 si X t 1
Xt 1
Max ( X t - Dt 1 ), 0 si X t 1
EJEMPLO DE USOS DE LAS CADENAS DE MARKOV (3)
Max (3 - Dt 1 ), 0 si X t 1
Xt 1
Max ( X t - Dt 1 ), 0 si X t 1
EJEMPLO DE USOS DE LAS CADENAS DE MARKOV (4)
Si Xt-1=0 Xt={Max(3-Dt+1), 0}
P00 P Dt 3 1 P Dt 0
1 - P Dt 2 P Dt 1 P Dt 0
k
e
Dado que la demandase consideraPoisson
k!
Demanda Probabilidad
2 (1)2e(-1)/2!= 0,18394
1 (1)1e(-1)/1!= 0,18394
0 (1)0e-(1)/0!= 0.367879
EJEMPLO DE USOS DE LAS CADENAS DE MARKOV (5)
P10 P Dt 1 1 P Dt 0
1 - 0,367879
0,632
EJEMPLO DE USOS DE LAS CADENAS DE MARKOV (5)
Si Xt-1=2 Xt={Max(2-Dt), 0}
P21 P D 1 0.368
EJEMPLO DE USOS DE LAS CADENAS DE MARKOV (7)
m 1,2,...,n -1 n m 1, m 2,...
Ir del estado i al estado j en n pasos, implica que el proceso podra estar en
el estado k despus de exactamente m pasos (m < n).
Pik(m): Probabilidad de ir del estado i al estado k en m pasos
Pkj (n-m): Probabilidad de ir del estado k al estado j en (n-m) pasos
M M
(n)
Si m 1 pij ( n)
pik pkj (n 1) Si m n -1 pij pik (n 1)
pkj
k o k o
M
Si n 2 pij (2) pik pkj P (2) P * P P 2
k o
P00 P01 P02 P03 P04 P00 P01 P02 P03 P04
P10 P11 P12 P13 P14 P10 P11 P12 P13 P14
( 2)
Pij Pij Pij P20
P30
P21
P31
P22
P32
P23
P33
P24
P34
X P20
P30
P21
P31
P22
P32
P23
P33
P24
P34
P40 P41 P42 P43 P44 P40 P41 P42 P43 P44
Y generalizando a n pasos
( n) ( n) ( n) ( n) ( n) Esta probabilidad suele
P00 P01 P02 P03 P04 ser til cuando el sistema
se encuentra en estado i y
( n) ( n) ( n) ( n) ( n)
P21
( n)
P22
( n)
P23 P24
( n)
de que el sistema se
( n) ( n) ( n) ( n) ( n)
Cul es la probabilidad
0.249 0.286 0.300 0.165 que teniendo ahora una
0.283 0.252 0.233 0.233 cmara haya
P2 exactamente cero
0.351 0.319 0.233 0.097
cmaras en inventario en
0.249 0.286 0.300 0.165 dos semanas?
n P00(n) (n)
... P0M
(n) (0)P . ... .
(0) 0 (0) 1(0) .... M (0) pij( n ) . ... .
. ... .
(n) (n)
PM0 ... PMM
Si se desea la probabilidad incondicional P{Xn=j} es necesario que se
especifique la distribucin de probabilidad del estado inicial, o sea
P{X0=i} para i desde 1 hasta M, entonces:
Se debe analizar (
simular) fila por fila 1 fda (funcin de
de la matriz, segn 0.632 distribucin
la informacin 0.264 acumulada) para
requerida acerca 0.080 la Fila 1 y Fila 4
del proceso
Resultados posibles
LA EVOLUCIN DE UN PROCESO ESTOCASTICO
A B C
MATRIZ DE A 0.2 0.5 0.3
TRANSICIN P=
DE UN PASO B 0.7 0.2 0.1
C 0.3 0.6 0.1
0.2 A
0.2 0.5 B
A
0.3 C
0.7 A
0.5
0.2
B B
A 0.1 C
0.3 A
t=0 0.3
0.6
C B
0.1 C
t=1
t=2
Transicin de t = 0 a t = 1 Transicin de t = 1 a t = 2
LA MATRIZ P(n) Y LOS RBOLES DE DECISIN
A B C
( 2) ( 2) ( 2)
A p AA
p AB
p AC
P(2) = ( 2) ( 2) ( 2)
B p BA
p BB
p BC
( 2) ( 2) ( 2)
C pCA
p CB
p CC
Ejemplo
t=0
0.3
C
A
pij
f ij
p ij
0.6
0.1 B
C 0.1
C
p
(2)
f
(2)
f
(1)
* p
t=1 ij ij ij jj
t=2
(1) (1)
f ij
p
ij
p ij
(2) (2) (1)
f ij
p
ij
f ij
* p ji
(n)
si nfij 1
n 1
ij
(n) (n)
nfij si nfij 1
n 1 n 1
TIEMPOS DE PRIMERA PASADA
Ejemplo
Para calcular el tiempo
0.080 0.184 0.368 0.368 esperado hasta que ya no se
0.632 0.368 0.000 0.000 tengan cmaras en el almacn
P=
0.264 0.368 0.368 0.000 podemos usar las anteriores
0.080 0.184 0.368 0.368
ecuaciones
ij 1 pik kj
k j
qij
i j
EJEMPLO: LNEA TELEFNICA
0,9 0,1
Q
0,3 0,7 0,1
0,9 0 1 0,7
0,3
GRAFOS
Clasificacin de Estados
CLASIFICACIN DE ESTADOS DE UNA CADENA DE MARKOV
0 1 2 3
0 1 0 0 0
1 1-p 0 p 0
P=
2 0 1-p 0 p
3 0 0 0 1
Se demuestra que una Cadena Markov slo puede pasar por un estado
transitorio como mximo una cantidad finita de veces. En cambio, si visitamos
un estado recurrente, entonces lo visitaremos infinitas veces.
0 1 2 1/4
1/2
1
0 12 12 0
1/2
1/2 Slo
0 1/4 hay una
P 1 1 2 14 14 2/3
clase
2 0 1 2 2
3 3 1/3
0 1 2 3 1/2 1/2
1 1 0 1
0 2 2 0 0 Hay
1 1 1 1/2
P 2 2 0 0 1/4 1/4 tres
2 1 1 1 1 1/4 1/4 clases
4 4 4 4
3 0 0 0 1 2 3
1
Definicin
1/2 1/2 1
1 2
3
1
4 2/3
El estado 2 es un estado absorbente (por lo
tanto un estado recurrente), porque una vez que
el proceso entra al estado 2 nunca regresar
0 1 2 3 4
0 * * 0 0 0
1 * * 0 0 0
P 2 0 0 1 0 0
3 0 0 * * 0
4 1 0 0 0 0
Es intuitivamente evidente que el estar en el
estado 0 o 1 se regresar a estos mismos
Hacer en Excel
Una clase es recurrente si no se
puede salir de ella.
0 1 2 1 1 Slo hay
0 0 12 12 1/2
una clase
0 recurrente
P 1 1 0 0 1/2 con
1 2 perodo 2
2 1 0 0
Realizacin: 0 1 0 2 0 2 0 1 0 2 0
Siempre se pasa en un nmero mltiplo de 2
0 1 2 0 1 2
0 1 0 0 0 0 12 12
P 2
1 0 12 12 P3 1 1 0 0
2 0 1 1 2 1 0 0
2 2
0 1 2
El proceso
0 1 0 0
tiene perodo 2
P4 1 0 12 12 P2n+1 = P
2 0 1 1 P2n = P2
2 2
PERIODICIDAD DE LAS CLASES RECURRENTES
Ciclos de longitud 2 (3 4 3 o 5 4 5
Ciclos de longitud 3 (3 4 5 3)
MCD (2, 3) = 1, ] el periodo es 1
PERIODICIDAD DE LAS CLASES RECURRENTES
A B
En este caso pueden
observarse las siguientes
longitudes de ciclo
D C
Ciclos de longitud 2 B C B
Ciclos de longitud 4(B C D A B)
Ciclos de longitud 6(A B C D C B A)
MCD (2, 4, 6)= 2 ] Periodo p=2
PERIODICIDAD DE LAS CLASES RECURRENTES
A1 A2
A3
CADENAS ERGDICAS
a b c d e Clasificacin de estados
a 12 0 1
2 0 0 Recurrentes a, c, e
b 0 14 0 3 4 0 Transitorios b, d
Q c 0 0 13 0 2 3 Peridicos ninguno
d 14 12 0 14 0 Absorbentes ninguno
e 13 0 13 0 13
1/4 1/3
1/2
b 1/2 c
1/2 3/4 a 1/3 2/3
1/4 1/3
d
e
1/3
1/4
QUE TIPO DE CADENA ES?
1.
2.
Irreducible, aperidica,
recurrente y ergdica.
Irreducible, recurrente y
peridica de periodo 3.
No es ergdica.
3.
Irreducible, aperidica,
recurrente y ergdica
QUE TIPO DE CADENA ES?
4.
1 2
5.
4 3
f kk 1
f ik 0, si el estadoi es recurrentei k
ESTADOS ABSORBENTES Y PROBABILIDADES
DE ABSORCIN
Si se inicia en el estado 2, la probabilidad de perder todo, es decir pasar
al estado 0 viene dada por
2 2 1 1 2 1
f 00 1 f 20
3 3 3
f 20
3 3
f 20
3
(0)
2 1
f10
3
f 00
3
f 20 f 20 1 / 5
2 1
f 20 f10 f 30 0 1 2 3 4
3 3
0 1 0 0 0 0
f 30
2
f 20
1
f 40
1 2/3 0 1/3 0 0
3 3 2 0 2/3 0 1/3 0
3 0 0 2/3 0 1/3
f 40 0
4 0 0 0 0 1
ESTADOS ABSORBENTES Y PROBABILIDADES
DE ABSORCIN
Si se inicia en el estado 2, la probabilidad de ganar todo, es decir pasar
al estado 4 viene dada por
f 04 0
2 1 1 2 1
2 1 f 24 f 24 f 24
f14 f04 f 24 3 3 3 3 3
3 3
2 1
f 24
3
f14
3
f 34 f24 1 / 5
2 1
f 34 f 24 f 44
3 3
f 44 1
PROBABILIDADES DE ESTADO ESTABLE
0 = 0.286 1 = 0.285
2 = 0.264 3 = 0.166
CLCULO DE PROBABILIDADES ESTACIONARIAS
1
jj
j
El caso de la movilidad de clases sociales. Suponga
que en la sociedad slo existen los estratos
econmicos Alto, Medio y Bajo
A continuacin se muestra
la matriz de transicin de Estado 0 Clase Alta
un paso, es decir la
Estado 1 Clase Media
probabilidad de pasar en
una generacin de una Estado 2 Clase Baja
clase social a otra
Hijos
A M B
A 0.45 0.48 0.07
P M 0.05 0.7 0.25
B 0.01 0.5 0.49
A P
A AA M PMA P
B BA
M A PAM M PMM P
B BM
A M B 1