Beruflich Dokumente
Kultur Dokumente
PROCESOS MARKOVIANOS
Realizado por:
Eliseo Parra
C.I. 19.538.478
Cumana, julio de 2013
INTRODUCCION
En las ltimas dcadas, los modelos matemticos de
toma de decisiones han experimentado una serie de
cambios y transformaciones profundas. Estos cambios han
abierto nuevos paradigmas que resaltan la exposicin de
los agentes a diferentes tipos de riesgos.
Esto, por supuesto, es una necesidad irremisible para
modelar apropiadamente la realidad contingente y no slo
una sofisticacin ms en el tratamiento matemtico. En
este sentido, los procesos markovianos permiten una mejor
comprensin de qu hacen y por qu lo hacen los agentes
al
tomar
decisiones
en
ambientes
de
riesgo
incertidumbre.
En este contexto, los procesos markovianos ocupan un
lugar privilegiado, ya sea por sus bondades tcnicas en el
modelado del proceso de toma de decisiones o bien por su
potencial riqueza en diversas aplicaciones.
(M)
con
probabilidades
de
transicin
{ X ( t)CG }
variables aleatorias
definidas en un mismo
espacio de probabilidad.
Normalmente el ndice
X (t )
representa un tiempo
y
t
una
probabilidad
condicional
depende
nicamente
del
suceso
inmediatamente
anterior,
para n estados.
se cumple:
Pi 1+ Pi 2 + ,+ P =1
para
todo i=1,2, , n3
3. Las transiciones de un perodo al siguiente se obtienen de la
t
siguiente ecuacin: S ( t )=S (t1) P por lo tanto S ( t )=S ( 0 ) P .
S=S . P
, es decir. El vector
al estado
Pij
ALGORITMOS DE MARKOV
Uno de los ms reciente procedimientos para abordar
la resolucin de problemas fue propuesto por matemtico
ruso A. A. Markov en los primeros aos de la dcada de los
50 con lo que l llamaba algoritmos normales, y que
nosotros llamaremos algoritmo de Markov. El tipo general
de problema de Markov atac es el de la transformacin de
A
, transformarla
de a
informacin
a+b
puede
El
problema
pensarse
como
de
el
adquisicin
de
problema
de
La palabra
sucesin
tat,
saber
ra*tat*attat,
rata*tat*tat,
como
determinar
la
herramienta
ocurrencia
estadstica
de
un
que
evento
permite
futuro
en
CONCLUSIN
Un proceso de decisin markoviano (MDP) es un
problema de aprendizaje de refuerzo que cumple la
propiedad markoviana, es decir, que el estado futuro del
proceso es independiente de los estados pasados y
solamente depende del estado presente. Viene definido por
un conjunto de estados, un conjunto de acciones posibles,
un modelo del entorno (opcional) y una funcin de
para
tomar
acciones,
donde
cada
accin
REFERENCIAS BIBLIOGRAFICAS
1. Procesos de Markov http://bit.ly/12HvetB
2. Belaustegui, Carlos. Cadenas de Markov y Teoria de
3.
Colas. http://bit.ly/11UmRRy
Delgado, Maira. Procesos de Decisin Markovianos
http://bit.ly/15Dfz1A