Beruflich Dokumente
Kultur Dokumente
DE ALVARADO
INGENIERA INDUSTRIAL
MATERIA:
INV. DE OPERACIONES II
SEMESTRE-GRUPO:
5 SEMESTRE A
PRODUCTO ACADMICO:
INVESTIGACION
TEMA:
CADENAS DE MARKOV
UNIDAD 5
PRESENTA:
YAZARETH ACOSTA HERNNDEZ (156Z0031)
DOCENTE:
ING. MIGUEL JIMENEZ DOMINGEZ
CADENAS REGULARES
Una cadena de Mrkov se dice regular (tambin primitiva o ergdica) si existe
alguna potencia positiva de la matriz de transicin cuyas entradas sean todas
estrictamente mayores que cero.
Cuando el espacio de estados E es finito, si P denota la matriz de transicin de la
cadena se tiene que:
Donde W es una matriz con todos sus renglones iguales a un mismo vector de
probabilidad w, que resulta ser el vector de probabilidad invariante de la cadena. En
el caso de cadenas regulares, ste vector invariante es nico.
CADENAS ABSORBENTES
Una cadena de Mrkov con espacio de estados finito se dice absorbente si se
cumplen las dos condiciones siguientes:
1. La cadena tiene al menos un estado absorbente.
2. De cualquier estado no absorbente se accede a algn estado absorbente.
Si denotamos como A al conjunto de todos los estados absorbentes y a su
complemento como D, tenemos los siguientes resultados:
Su matriz de transicin siempre se puede llevar a una de la forma
Para una cadena de Mrkov continua con un nmero finito de estados puede
definirse una matriz estocstica dada por:
Note que las son los elementos de la matriz P(2) , pero tambin debe de
EJEMPLOS:
1. Una tienda de cmaras tiene en almacn un modelo especial de cmara que
se puede ordenar cada semana. Sean D1, D2,... las demandas de esta
cmara durante la primera, segunda,..., semana, respectivamente. Se
supone que las Di son variables aleatorias independientes e idnticamente
distribuidas que tienen una distribucin de probabilidad conocida. Sea X 0 el
nmero de cmaras que se tiene en el momento de iniciar el proceso, X 1 el
nmero de cmaras que se tienen al final de la semana uno, X2 el nmero de
cmaras al final de la semana dos, etc. Suponga que X0 = 3 . El sbado en
la noche la tienda hace un pedido que le entregan el lunes en el momento de
abrir la tienda. La tienda hace un pedido que le entregan el lunes en el
momento de abrir la tienda. La tienda usa la siguiente poltica ( s, S) 1 para
ordenar : si el nmero de cmaras en inventario al final de la semana es
menor que s =1 (no hay cmaras en la tienda), ordenar (hasta) S=3. De otra
manera, no coloca la orden (si se cuenta con una o ms cmaras en el
almacn, no se hace el pedido). Se supone que las ventas se pierden cuando
la demanda excede el inventario. Entonces, {X1} para t = 0, 1, .. es un proceso
estocstico de la forma que se acaba de describir. Los estados posibles del
proceso son los enteros 0, 1, 2, 3 que representan el nmero posible de
cmaras en inventario al final de la semana.
As, dado que tiene una cmara al final de una semana, la probabilidad de que no
haya cmaras en inventario dos semanas despus es 0.283; es
decir, De igual manera, dado que se tienen dos cmaras al final de una
semana, la probabilidad de que haya tres cmaras en el almacn dos semanas
As, dado que queda una cmara al final de una semana, 0.282 es la probabilidad
de que no haya cmaras en inventario 4 semanas ms tarde; es
A.- Asumimos que el proceso es markoviamo y que el tiempo slo depende del da
anterior. Se tiene una cadena de Markov con dos estados: E1 Da nublado N, E2
Da soleado S. La matriz de transicin es:
Es decir:
2.- Empezando los pasos a partir del da actual, se tiene que
De este modo, si hoy est nublado, dentro de tres das, se tiene que
sea soleado es
3.-
Clculos as se facilitan bastante usando programas tipo MatLab, de modo que de este modo,
ya que
3. Una empresa est considerando utilizar Cadenas de Markov para analizar
los cambios en las preferencias de los usuarios por tres marcas distintas de
un determinado producto. El estudio ha arrojado la siguiente estimacin de
la matriz de probabilidades de cambiarse de una marca a otra cada mes:
En primer lugar definimos la variable aleatoria X_{n} que representa la marca que
adquiere un cliente cualquiera en el mes n. Dicha variable aleatoria puede adoptar
los valores 1,2,3 en el mes n=0,1,2,3,.. Adicionalmente conocemos cul es la
distribucin inicial y la matriz de probabilidades de transicin en una etapa tal
como se observa a continuacin:
Ahora sumamos las ecuaciones (3) y (4), multiplicando la ecuacin 4 por 0.2 con el
fin de eliminar z
Reemplazando x en (6)
4.8 ESTADOS ABSORBENTES.
Se dice que un estado i es absorbente si la probabilidad de transicin (de un paso) pij es
igual a 1. Una cadena de Markov es Absorbente si:
a) Tiene por lo menos un estado Absorbente.
b) Es posible ir de cada estado no absorbente hasta por lo menos un estado absorbente. No
es necesario efectuar esta transicin en un paso; ni es necesario tener la posibilidad de
alcanzar cada estado absorbente a partir de cualquier estado no absorbente.
A partir del anlisis de estas cadenas, es posible determinar los siguientes datos:
Una vez que la cadena llega al estado k permanece ah para siempre. Si k es un estado
absorbente y el proceso comienza en el estado i, la probabilidad de llegar en algn momento
a k se llama probabilidad de absorcin al estado k dado que el sistema comenz en i. Esta
probabilidad se denota por fik. Si se tienen dos o ms estados absorbentes en una cadena
de Markov y es evidente que el proceso ser absorbido en uno de estos estados, es
deseable encontrar estas probabilidades de absorcin. Dichas probabilidades pueden
obtenerse con slo resolver un sistema de ecuaciones lineales. Si el estado k es un estado
absorbente, entonces el conjunto de probabilidades de absorcin fik satisface el sistema de
ecuaciones sujeta a las condiciones
EN FORMA NO SE
ACEPTABLE VALOR
CATEGORIA PARCIAL INCLUYE
100% ALCANZADO
70% 30%
Presentacin -- 5%Contiene:Nombre de Institucin, logotipos,
nombre de ltrabajo o tema, unidad a la que corresponde el
trabajo, carrera, nombre del alumno(s), nombre del docente,
materia, semestre, fecha todos los rubros.
TOTAL %