Sie sind auf Seite 1von 18

TEORIA DE

DECISIONES
INTEGRANTES:
 Nayely Lázaro Delgado 2017-106052
 Doris Genuario Delgado 2017-106057
 Maryori Paye Jiménez 2017-106065
 Jesús Inga Calderón 2017-106059
 Edison Condori Ranilla 2017-106023
Nosotros habíamos ponido
NUESTRO TRABAJO
AKI !!!
CADENA de MARKOV
Para
la
TOMA
Decisiones
1. ¿QUÉ ES?
¿Para que se
Proceso estocástico
discreto utiliza?
Donde la o Establecer las posibilidades de cualquier
probabilidad de evento futuro conociendo los eventos pasados.
que ocurra un
evento depende
EN LOS NEGOCIOS
de un evento
anterior
o Analizar los patrones de compra de los
deudores morosos
o Planear las necesidades del personal
La inserción de este método a las
o Analizar el reemplazo de equipo.
matemáticas se le atribuye a Andrei
Andreyevich Markov.
2. Cadenas homogéneas
y no homogéneas 3. Probabilidad y
matriz de transición
HOMOGÉNEA
La probabilidad de ir del estado i al
Si de i a j en un paso no depende del tiempo en el
estado j en n unidades de tiempo
que se encuentra la cadena. está dada por

Para todo n y para cualquier i , j

En la probabilidad de transición, en un
NO HOMOGÉNEA paso, se omite el superíndice y de esta
forma se obtiene
Si para alguna pareja de estados y para
determinado tiempo n, la propiedad antes
mencionada no se cumple
3.1. Probabilidad de transición
3.2. Matriz de transición
En n pasos satisfacen la
ecuación de
Chapman-Kolmogorov En una C.M.de n estados en una matriz de n x n
Para cualquier k tal que 0 con todos los registros no negativos y propiedad
E denota el espacio de adicional de que la suma de los registros de cada
< k < n se cumple que: estados. columna o fila es 1.

Los Pij se agrupan en la matriz de transición de


Cuando la C.M. es
la C.M. , de tal forma que:
homogénea, sus
propiedades se pueden La entrada i,j es
obtener a través: probabilidad de ir del
estado i a j en un paso.

De la misma manera se puede obtener la matriz de


transición en n pasos como:
4. Representación gráfica de
una matriz de transición

Pij
i j
4.1. Propiedades
𝐴 = 𝜋𝑟 2
4..2. Vector de o Las probabilidades de
transición deben estar entre 0
probabilidad invariante y1
o La MT debe ser cuadrada
Distribución estacionaria o distribución de o La suma de las
equilibrio. probabilidades de los estados
debe ser igual a 1
𝑣𝑃=𝑣
P es la matriz de transición.
5. CONCEPTOS GENERALES

5.1. Tiempos de Entrada


Si C esta contenido en E, se define el primer tiempo de entrada a C como la variable aleatoria

Tc denota la primera vez que la cadena entra al conjunto de estados C.


CONCEPTOS GENERALES

5.2. Recurrencia
En una cadena de Markov con espacio de estados
E, si x∈E se define:
5.3. Periodicidad
El periodo de un estado x∈E se define como:
TIPOS de CADENAS de MARKOV

Cadenas irreductibles Cadenas positivos – recurrentes

Esta debe cumplir con las siguientes Todos sus estados son positivos – recurrentes. Si
condiciones: la cadena es irreductible existe un único vector
o Desde cualquier estado de E se puede acceder de probabilidad invariante y esta se halla por:
a cualquier otro.
o Todos los estados se comunican entre sí.
o C(x)=E para algún x∈E. 𝟏
o C(x)=E para todo x∈E.
o El único conjunto cerrado es el total. 𝝅𝒙 =
𝝁𝒙
TIPOS de CADENAS de MARKOV

Cadenas regulares Cadenas absorbentes


Con espacio de estados finito
o La cadena debe tener al menos un estado absorbente
Primitiva o ergódica. Si existe alguna potencia o De cualquier estado no absorbente se accede a algún estado
absorbente.
positiva de la matriz de transición cuyas estradas Donde:
sean mayores a cero. Cuando el estado de E es A es el conjunto de todos los estados absorbentes, D como su
finito, si P denota la matriz de transición de la complemento, se obtiene que su matriz de transición siempre se puede
llevar a una forma:
cadena se tiene que:
𝑸 𝑹
𝑷=
𝒍𝒊𝒎 𝑷𝒏 = 𝑾 𝟎 𝑰
𝒏→∞

Donde: 𝑷𝑿 𝑻𝑨 < ∞ = 𝟏
W = el vector de probabilidad invariante
Esto quiere decir que no importa donde se encuentra la cadena y
de la cadena. Para el caso de cadenas eventualmente terminará en un estado absorbente.
regulares, este vector invariante es único.
CADENAS de MARKOV en tiempo continuo
Se aplica en los casos que se requiere un parámetro de tiempo continuo. Para obtener una cadena de tiempo
continuo se consideran variables aleatorias 𝑋𝑡 con t que varía en un intervalo continuo del conjunto de
números reales:

Con un número finito de estados puede definirse una matriz estocástica dada por:

La cadena se denomina homogénea si 𝑷 𝒕𝟏 , 𝒕𝟐 = 𝑷 𝒕𝟐 − 𝟏


PROBABILIDADES de ESTADO estable
Para cualquier estado i, j y números no
negativos t y s (0 ≤ s ≤ 0), 𝑃𝑖𝑗 𝑡 > 0 para toda t > 0 y todos los estados i y j
𝑙𝑖𝑚𝑡→∞ 𝑃𝑖𝑗 𝑡 = 𝜋𝑗

Siempre existe y es independiente del estado inicial


de la cadena de Markov, para j=0,1,… M, estas
propiedadesprobabilidades de estado estable. La
siguiente ecuación es importante para obtener la
probabilidad del estado estable:
Un par de estados i y j se comunican si existen
tiempos 𝑡1 y 𝑡2 tales que 𝑃𝑖𝑗 𝑡1 > 0 y 𝑃𝑖𝑗 𝑡2 > 0.
Todos los estados que se comunican forman una
clase; es decir, si la cadena es irreducible
entonces.
EJERCICIO 01

El departamento de estudios de mercado de una fabrica estima que el 20% de la


gente que compra un producto un mes, no lo comprará el mes siguiente.
Además, el 30% de quienes no lo compren un mes lo adquirirá al mes siguiente.
En una población de 1000 individuos, 100 compraron el producto el primer mes.
¿Cuáles lo comprarán al mes próximo?
Solución:
Para resolver este tipo de problemas, lo primero es hacer un
esquema.
A la vista del esquema podemos pasar a construir la matriz de
probabilidades de transición:
• Calculo: con esa información construimos la matriz 2x2. P(0)
representa la situación inicial.

• El primer mes comprarán C=500 y no comprarán N=650


El segundo mes comprán C= 475 y no compraran N= 525
ESO
es
TODO

Amigos

Das könnte Ihnen auch gefallen