Beruflich Dokumente
Kultur Dokumente
DE MARKOV
Introducción
Las cadenas de markov son modelos probabilísticos que se usan para predecir la evolución y
el comportamiento a corto y a largo plazo de determinados sistemas. Este modelo era
entendida como un tipo especial de procesos estocásticos de tiempo discreto o finito, la
característica principal es que los estados futuros son independientes de los últimos estados
y las probabilidades no son las mismas de acuerdo a la distribución.
Proceso estocástico
s
Modelo de Markov
s
Modelo de Markov
s
Modelo de Markov Planteamiento
s
Modelo de Markov Planteamiento
s
Matriz de transición
La notación utilizada en la matriz es una forma conveniente de resumir las probabilidades de
transición en un paso:
La matriz P define una cadena de Markov. Tiene la propiedad de que todas sus probabilidades
de transición pij son estacionarias e independientes a lo largo del tiempo.Aunque una cadena
de Markov puede incluir un número infinito de estados, la presentación en este capítulo se
limita a sólo cadenas finitas, ya que es el único que se necesita en el texto.
Matriz de transición
s
Ejemplo del Jardinero
Cada año, durante la temporada de siembra de marzo a septiembre, un jardinero realiza una
prueba química para verificar la condición de la tierra. Según el resultado de la prueba, la
productividad en la nueva temporada puede ser uno de tres estados: (1) buena, (2) regular y
(3) mala. A lo largo de los años, el jardinero ha observado que la condición de la tierra del año
anterior afecta la productividad del año actual y que la situación se describe mediante la
siguiente cadena de Markov:
Ejemplo del Jardinero
Sea Xi una variable aleatoria que caracteriza el estado del sistema en puntos discretos en el
tiempo t =1, 2… . La familia de variables aleatorias {Xi} forma un proceso estocástico con una
cantidad finita o infinita de estados.
Mantenimiento de una máquina
La variable aleatoria Xt es finita porque representa tres estados: malo (0), regular (1) y bueno
(2).
Proceso de Markov
Un proceso estocástico es un proceso de Markov si un estado futuro depende sólo del estado
inmediatamente anterior. Esto significa que dados los tiempos cronológicos la
familia de variables aleatorias es un proceso de Markov si
Proceso de Markov
- Tanto i como j tienen como valor final a n porque ambos son índices que conforman
una matriz cuadrática de transición.
Proceso de Markov