Beruflich Dokumente
Kultur Dokumente
CADENAS DE MARKOV
IO2 - 2018
Objetivo
Definir lo qué es un proceso estocástico e
introducir los conceptos de cadena de Markov
y matriz de transición y sus aplicaciones.
IO2 - 2018
Conceptos básicos
Espacio muestral:
Es el conjunto de posibles valores o resultados de un experimento
Probabilidad:
Es la posibilidad de ocurrencia de un evento
Evento:
Subconjunto del espacio muestral
Función de distribución:
Función que asigna a cada evento una probabilidad
Variable aleatoria:
Una función que asigna valores reales a los resultados de un experimento.
Antonio Hoyos
IO2 - 2018
¿Qué es un proceso estocástico?
{ ( ), ∈ }
( +1 = / = , −1 = −1,…, 1 = 1, 0 = 0) = ( +1 = / = )
Cadenas de Markov
Probabilidad de transición
• La probabilidad ( +1 = / = ) se denomina probabilidad de
transición.
Probabilidades estacionarias
• Si ( +1 = / = ) = ( = / −1 = ) = ⋯ = ( 1 = / 0 = ) se dice que
la probabilidad es estacionaria y se denota como Probabilidad de
transición en n pasos
0≤ ( )≤1 ,, = 0,1,2, …
Probabilidades de Transición
DETERMINAR:
1)MATRIZ DE TRANSICIÓN
2)DIAGRAMA DE TRANSICIÓN
Ley de Chapman-Kolmogórov
La ley de Chapman-Kolomogórov se basa en la ecuación del mismo
nombre, a la que llegaron de forma independiente el matemático
británico Sydney Chapman y el matemático ruso Andréi Kolmogórov.
Enunciada de una forma sencilla dice: "la probabilidad de que dos
hechos debidos al azar (y que cumplen unas condiciones
determinadas), pasen conjuntamente... es "pequeñísima".
Ecuaciones de Chapman-Kolmogorov
Las ecuaciones de Chapman-Kolmogorov proporcionan un método para calcular las
probabilidades de transición de “n” pasos.
Estas ecuaciones señalan que al ir del estado “i” al estado “j” en “n” pasos, el proceso
estará en algún estado “k” después de exactamente m (menor que n) pasos.
Ecuaciones de Chapman-Kolmogorov
Estas expresiones permiten que las probabilidades de transición de n
pasos se puedan obtener a partir de las probabilidades de un paso de
manera recursiva.
Ecuaciones de Chapman-Kolmogorov
Notemos que estos elementos se obtienen al multiplicar la matriz de
transición de un paso por sí mismo, esto es,
El clima en Coquimbo puede cambiar con rapidez de un día a otro. Sin
embargo, las posibilidades de tener clima seco (sin lluvia) mañana es de
alguna forma mayor si hoy está seco, es decir, no llueve. En particular, la
probabilidad de que mañana esté seco es de 0.8 si hoy está seco, pero es
de sólo 0.6 si hoy llueve.
Considere el clima de la ciudad de La Serena durante el mes de Junio, los días son
lluviosos y soleados. Si el día es soleado la probabilidad de que el siguiente sea un día
soleado es de 0.4, si el día es lluvioso la probabilidad de que el siguiente sea lluvioso es de
0.7.
1. ¿Se trata de una cadena de Markov?
2. Si lo es ¿cuál es la matriz de transición?
3. Si lo es ¿represente gráficamente la cadena de Markov?
Sea Xn el estado del clima en el día n. Este es una cadena de Markov pues el clima actual
depende del anterior. = ( , )
Gráficamente, una CMTD con espacio de estados finito se puede
representar mediante un diagrama de transición, es decir, mediante un
grafo dirigido finito, donde cada nodo representa un estado de la
cadena, los arcos representan las posibles transiciones entre estados y
sobre los arcos se indican las probabilidades de transición entre los
estados representados por los nodos unidos por cada arco.
Ejemplo (Sistema de comunicaciones) Consideremos un sistema de comunicaciones que
transmite dígitos 0 y1. Cada dígito debe pasar por varias fases, en cada una de las cuales
hay una probabilidad p de que el dígito que entra coincida con el que sale. Las fases son
independientes entre sí.
Ejemplo (Seguridad de un sistema) Se sabe que un sistema fallará o no dependiendo de si
ha fallado o no el día anterior. La probabilidad de que falle un día sabiendo que ha
fallado el día anterior es de 0.7, pero si no ha fallado el día anterior es de 0.2.
Chapman-Kolmogorov.
Problema del jardinero con fertilizante (Taha 9na edición)
Las filas de P8 y el vector de probabilidades absolutas a(8) son casi idénticos. El resultado es más
evidente para P16. Ello demuestra que, a medida que la cantidad de transiciones aumenta, las
probabilidades absolutas se vuelven independientes del a(0) inicial. Las probabilidades resultantes
se conocen como probabilidades de estado estable.
CLASIFICACIÓN DE LOS ESTADOS EN UNA CADENA DE MARKOV
A
2. Un estado j es transitorio si puede llegar a otro estado pero no puede
regresar desde otro estado. La probabilidad de regresar al estado alguna
vez es menor que 1.
b
3. Un estado j es recurrente si la probabilidad de ser revisitado desde otros
estados es 1. Esto puede suceder si, y sólo si, el estado no es transitorio.
1/3
1/2
1/2 b
a 1/3 2/3
1/3
c
1/3
Un estado es periódico con período d si sólo se puede regresar a él
después de d, 2d, ..., nd pasos.
…
• Ejemplo: En la siguiente CM todos los estados son
periódicos de periodo k=3:
Los estados 1 y 2 son transitorios porque no se puede volver a entrar a ellos una vez que el
sistema se queda “atrapado” en los estados 3 y 4. Un conjunto cerrado lo constituyen los
estados 3 y 4, que en cierta forma desempeñan el papel de un estado absorbente. Por
definición, todos los estados de un conjunto cerrado deben comunicarse, lo cual significa
que es posible ir de cualquier estado a cualquier otro estado del conjunto en una o más
transiciones.
Se dice que una cadena de Markov es ergódica si todos los
estados son recurrentes y aperiódica(no periódica). En este caso
las probabilidades absolutas después de n transiciones,
Ahora nos interesa el tiempo medio del primer paso µij, definido como el
número esperado de transiciones para llegar por primera vez al estado j
desde el estado i.
Una forma más simple de determinar el tiempo medio del primer paso
de todos los estados en una matriz de n transiciones, P, es utilizar la
siguiente fórmula basada en una matriz:
TIEMPO DEL PRIMER PASO
(TAHA 9ED)
(TAHA 9ED)
ANÁLISIS DE LOS ESTADOS ABSORBENTES
En estos tipos de cadenas, nos interesa determinar la probabilidad de
llegar a la absorción y el número esperado de transiciones para llegar a
ella.
En el problema del jardinero, sin fertilizante la matriz de transición se da
como:
En ciertos casos ( como en algunos modelos de líneas de espera) en los que se requiere un
parámetro (llamado t´) de tiempo continuo, debido a que la evolución de un proceso se
esta observando de manera continua a través del tiempo. Un proceso estocástico de
tiempo continuo {X(t´);t´≥ 0} es una cadena de Markov de tiempo continuo si tiene la
propiedad markoviana se estudiaran las cadenas de Markov de tiempo continuo con las
siguientes propiedades.
P{ ≤ }=− − para t≥ 0
CADENAS DE MARKOV EN TIEMPO CONTINUO
=0 para toda i,
Σm =0 = 1 para toda i,
i= 0, 1, …M
i≠j