Beruflich Dokumente
Kultur Dokumente
DECISIONES
INTEGRANTES:
Nayely Lázaro Delgado 2017-106052
Doris Genuario Delgado 2017-106057
Maryori Paye Jiménez 2017-106065
Jesús Inga Calderón 2017-106059
Edison Condori Ranilla 2017-106023
Nosotros habíamos ponido
NUESTRO TRABAJO
AKI !!!
CADENA de MARKOV
Para
la
TOMA
Decisiones
1. ¿QUÉ ES?
¿Para que se
Proceso estocástico
discreto utiliza?
Donde la o Establecer las posibilidades de cualquier
probabilidad de evento futuro conociendo los eventos pasados.
que ocurra un
evento depende
EN LOS NEGOCIOS
de un evento
anterior
o Analizar los patrones de compra de los
deudores morosos
o Planear las necesidades del personal
La inserción de este método a las
o Analizar el reemplazo de equipo.
matemáticas se le atribuye a Andrei
Andreyevich Markov.
2. Cadenas homogéneas
y no homogéneas 3. Probabilidad y
matriz de transición
HOMOGÉNEA
La probabilidad de ir del estado i al
Si de i a j en un paso no depende del tiempo en el
estado j en n unidades de tiempo
que se encuentra la cadena. está dada por
En la probabilidad de transición, en un
NO HOMOGÉNEA paso, se omite el superíndice y de esta
forma se obtiene
Si para alguna pareja de estados y para
determinado tiempo n, la propiedad antes
mencionada no se cumple
3.1. Probabilidad de transición
3.2. Matriz de transición
En n pasos satisfacen la
ecuación de
Chapman-Kolmogorov En una C.M.de n estados en una matriz de n x n
Para cualquier k tal que 0 con todos los registros no negativos y propiedad
E denota el espacio de adicional de que la suma de los registros de cada
< k < n se cumple que: estados. columna o fila es 1.
Pij
i j
4.1. Propiedades
𝐴 = 𝜋𝑟 2
4..2. Vector de o Las probabilidades de
transición deben estar entre 0
probabilidad invariante y1
o La MT debe ser cuadrada
Distribución estacionaria o distribución de o La suma de las
equilibrio. probabilidades de los estados
debe ser igual a 1
𝑣𝑃=𝑣
P es la matriz de transición.
5. CONCEPTOS GENERALES
5.2. Recurrencia
En una cadena de Markov con espacio de estados
E, si x∈E se define:
5.3. Periodicidad
El periodo de un estado x∈E se define como:
TIPOS de CADENAS de MARKOV
Esta debe cumplir con las siguientes Todos sus estados son positivos – recurrentes. Si
condiciones: la cadena es irreductible existe un único vector
o Desde cualquier estado de E se puede acceder de probabilidad invariante y esta se halla por:
a cualquier otro.
o Todos los estados se comunican entre sí.
o C(x)=E para algún x∈E. 𝟏
o C(x)=E para todo x∈E.
o El único conjunto cerrado es el total. 𝝅𝒙 =
𝝁𝒙
TIPOS de CADENAS de MARKOV
Donde: 𝑷𝑿 𝑻𝑨 < ∞ = 𝟏
W = el vector de probabilidad invariante
Esto quiere decir que no importa donde se encuentra la cadena y
de la cadena. Para el caso de cadenas eventualmente terminará en un estado absorbente.
regulares, este vector invariante es único.
CADENAS de MARKOV en tiempo continuo
Se aplica en los casos que se requiere un parámetro de tiempo continuo. Para obtener una cadena de tiempo
continuo se consideran variables aleatorias 𝑋𝑡 con t que varía en un intervalo continuo del conjunto de
números reales:
Con un número finito de estados puede definirse una matriz estocástica dada por:
Amigos