You are on page 1of 17

TEORIA DE LAS DECISIONES

Unidad 3
PROCESOS DE DECISIONES DE MARKOV

PRESENTADO POR:

DIEGO ANDRS CRISTANCHO LIBERATO


CDIGO: 1121893470

YULI ANDREA GALINDO MANJARREZ


CDIGO: 1120560831

ARLEY JAVIER MOLINA


CDIGO: 1006819985

CURSO: 17

TUTOR
ROGER RICARDO NEGRETE

UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA UNAD


TEORIA DE DECISIONES
CIUDAD

1
TABLA DE CONTENIDO

1. Problema : Cadenas de Markov (Estado estable)

2. Problema: Cadenas de Markov (Multiplicacin del estado inicial)

3. Problema: Cadenas de Markov (Multiplicacin del estado inicial)

2
INTRODUCCION

El siguiente trabajo se realiza en la fase de profundizacin de la Unidad 2 del curso de


teoras de las decisiones. De esta manera se conocer el contenido y algunas
herramientas tiles para el desarrollo de los ejercicios planteados.

Encontraremos planteamientos de los ejercicios segn la gua integrada de actividades,


mediante los cuales se analizaron y aplicaron conceptos y mtodos como los criterios de
decisin, la teora del juego y el proceso de decisin de Markov para la toma de
decisiones bajo incertidumbre.

Por lo general una cadena de Markov describe el comportamiento de transicin de un


sistema de intervalos de tiempo igualmente espaciados. Sin embargo existen situaciones
donde los espaciamientos temporales dependen de las caractersticas del sistema y por
ello, se puede no ser iguales entre s.

3
OBJETIVOS

Obtener los conocimientos amplios y suficientes a travs de la lectura de los documentos


de apoyo para el desarrollo de las actividades plasmadas en la gua integrada de
actividades.

Realizar reconocimiento de los temas correspondientes a la Unidad # 3 del curso Teora


de Decisiones a fin de dar solucin a los ejercicios de acuerdo a la temtica planteada
aplicando los algoritmos.

Desarrollar los ejercicios planteados a travs del Software o Solver de Excel utilizando el
modulo correspondiente a Markov Process.

4
Problema 1
Cadenas de Markov (Estado estable)

La compaa XYZ de seguros cobra a sus clientes de acuerdo a su historial de


accidentalidad. Si no ha tenido accidentes los ltimos dos aos se les cobrar por la
nueva pliza $480.000 (estado 0); si ha tenido un accidente en cada uno de los dos
ltimos aos se les cobrar $2.350.000 (Estado 1); Si tuvo accidentes el primero de los
dos ltimos aos se les cobrar $1.830.000 (estado 2) y si tuvo un accidente el segundo
de los dos ltimos aos se les cobrar $1.350.000 (Estado 3). El comportamiento
histrico de cada estado, se da por los siguientes casos de accidentalidad, tomados en
cuatro sucesos diferentes.

ACCIDENTES EN EL AO
Estado 1 2 3 4 Total
E0 8200 0 7700 5600 21500
E1 6500 6300 5200 1250 19250
E2 5680 6580 7200 3250 22710
E3 3000 5630 5900 7500 22030

Tabla 8. Datos histricos de accidentalidad

Resolver: Cadenas de Markov (Estado estable)


Segn la tabla 8 mediante la aplicacin de los procesos Markovianos, es decir hallando
la matriz de transicin y resolviendo las respectivas ecuaciones de p * q, donde p es la
matriz de transicin y q el vector [W X Y Z].
Responder:

Cul es la matriz de transicin resultante de proporcionalidad de acuerdo al


historial de accidentalidad?

. . .
= (. . . . )
. . . .
. . . .

Cul es la prima promedio que paga un cliente en Playoff, de acuerdo a la


accidentalidad histrica?
. . .
= [ ] = [ ] [. . . . ]
. . . .
. . . .

5
. + . + . + . =
+ . + . + . =
. + . + . + . =
. + . + . + . =
+ + + =

+ + + =
. + . + . + . =
. + . + . =
. + . . + . =

(. . . . |)
. . .
. . . .

Lo solucionamos por el mtodo de Gauss-Jordn


Primero convertimos los decimales en fracciones, para poder operar


( | ) ( )




( | ) ( )




( | ) / ( )






( | ) ( )




( | ) ( )

6


( | ) / ( )





( | ) ( )




( | ) / ( )




( | ) ( )





( | )




( | ) ( )


( | ) 1
3 1


( |)



= = .


= = .


= = .

7

= = .

La prima promedio que paga un cliente en Playoff, de acuerdo a la accidentalidad


histrica es la siguiente:
Estado Promedio pagado por cliente

E0 28%
E1 21%
E2 31%
E3 20%

O tambin la podemos resolver por mtodo de determinantes o crammer

1,05X = 0,38 0,09Y 0,125Z


1,04Y = 0,36 0,09X - 0,09Z
0,92Z = 0,26 - 0,19X - 0,12Y

1.05X + 0,09Y + 0,125Z = 0,38


0.09X + 1,04Y + 0,09Z = 0,36
0,19X + 0,12Y + 0,92Z = 0,26

Determinantes del sistema AS


X Y Z
1,05 0,09 0,125
0.09 1,04 0,09
| 0,19 0,12 0,92 | REGLA DE ZARRUS
| |
1,05 0,09 0,125
0,09 1,04 0,09
AS = 0,964057
Hallaremos el determinante AX
0,38 0,09 0,125 0,38 0,09
| 0,36 1,04 0.09 0,36 1,04 | REGLA DE ZARRUS
0,26 0,12 0,92 0,26 0,12
AX = 0,2998

8
Hallaremos la determinante AY
1,05 0,38 0,125
0,09 0,36 0,09
| 0,19 0,26 0,92 || REGLA DE ZARRUS
|
1,05 0,38 0,125
0.09 0,36 0,09
AY = 0,292599

Hallaremos la determinante AZ
1,05 0,09 0,38 1,05 0,09
|0,09 1,04 0,36 0,09 1,04| REGLA DE ZARRUS
0,19 0,12 0,26 0,19 0,12

AZ = 0,17172

X = = 0,31

Y= = 0,30


Z = = 0,17

Ahora reemplazamos los resultados en la ecuacin 10


W = 0,38 0.05X 0,15Y 0,03Z
W = 0,38 0,05(0,31) 0,15(0,30) 0,03(0,17)
W = 0,31

Respuesta B:
W = 0,31
X = 0,31
Y = 0,30
Z = 0,17

9
PANTALLAZOS DEL SOLVER DE EXCEL

10
Problema 2
Cadenas de Markov (Multiplicacin del estado inicial)

En Colombia existen 5 operadores principales de telefona mvil como lo son Tigo,


Comcel, Movistar, ETB y Uff, a los cuales llamaremos estados. El siguiente cuadro
resume las probabilidades que cada cliente tiene para permanecer en su operador actual
o hacer cambio de empresa.
Estado TIGO COMCEL MOVISTAR ETB UFF
TIGO 0,26 0,11 0,25 0,18 0,20
COMCEL 0,25 0,26 0,24 0,12 0,13
MOVISTAR 0,22 0,25 0,27 0,12 0,14,
ETB 0,11 0,21 0,22 0,28 0,18
UFF 0,10 0,20 0,21 0,26 0,23

Tabla 9. Probabilidades de cambio y permanencia en la compaa de

Telefona (Matriz de transicin)


Los porcentajes actuales que tiene cada operador en el mercado actual son para Tigo
0.2 para Comcel 0.25, para Movistar 0.3, para ETB 0,15 y 0,1 para Uff (estado inicial).

Resolver: Cadenas de Markov (Multiplicacin del estado inicial)


Segn la tabla 9 mediante la aplicacin de los criterios Markovianos, resolver la
multiplicacin del vector estado inicial (participacin en el mercado) por la matriz de de
probabilidades (matriz de transicin).
Responder:

Hallar la probabilidad que cada usuario se quede con la empresa mvil para el
siguiente periodo.

Solucin:

Se confirma que la sumatoria del vector de estado inicial sea igual a 1

0.2 + 0.25 + 0.3 + 0.15 + 0.1 = 1

Se realiza la matriz de transicin, luego se multiplica el vector de estado inicial


(E.I.) por dicha matriz

MATRIZ DE TRANSICIN
TIGO 0,26 0,11 0,25 0,18 0,2
COMCEL 0,25 0,26 0,24 0,12 0,13
MOVISTAR 0,22 0,25 0,27 0,12 0,14
ETB 0,11 0,21 0,22 0,28 0,18
UFF 0,1 0,2 0,21 0,26 0,23

11
E. I. 0,2 0,25 0,3 0,15 0,1

RESULTADO 0,207 0,2135 0,245 0,17 0,1645

La probabilidad de que cada usuario se quede con la empresa mvil para el


siguiente periodo es:
EMPRESA PROBABILIDAD
TIGO 0,207
COMCEL 0,2135
MOVISTAR 0,245
ETB 0,17
UFF 0,1645

12
Problema 3
Cadenas de Markov (Multiplicacin del estado inicial)

Suponga que en el mercado se consiguen 4 tipos de gaseosas que son: Colombiana,


Pepsi Cola, Fanta y Coca Cola cuando una persona ha comprado Colombiana existe una
probabilidad de que la siga consumiendo del 45%, un 15% de que compre Pepsi Cola,
un 10% de que compre Fanta y un 30% que consuma Coca Cola; cuando el comprador
actualmente consume Pepsi Cola existe una probabilidad de que la siga comprando de
40%, un 20% que compre Colombiana, un 10% que consuma Fanta y un 30% Coca Cola;
si en la actualidad consume Fanta la probabilidad de que la siga consumiendo es del
50%, un 20% que compre Colombiana, 20% que consuma Pepsi Cola y un 10% que se
pase a Coca Cola. Si en la actualidad consume Coca Cola la probabilidad de que la siga
consumiendo es del 60%, un 10% que compre Colombiana, 20% que consuma Pepsi
Cola y un 10% que se pase a Fanta.

En la actualidad cada marca Colombiana, Pepsi Cola, Fanta y Coca Cola tienen los
siguientes porcentajes en participacin en el mercado respectivamente (20%, 30%, 10%
y 40%) durante la semana 3.

Resolver. Cadenas de Markov (Multiplicacin del estado inicial)

Segn los datos del problema 3 mediante la aplicacin de los criterios Markovianos,
resolver la multiplicacin del vector estado inicial (participacin en el mercado) por la
matriz de de probabilidades (matriz de transicin).
Responder:

Hallar la matriz de transicin.


Hallar la probabilidad que cada usuario se quede con la marca o cambie a otra
para el periodo 4.

Solucin

En la actualidad cada marca colombiana, Pepsi Cola, Fanta y Coca Cola tienen los
siguientes porcentajes en participacin en el mercado respectivamente (20%, 30%, 10%
y 40%) durante la semana 3.

13
Matriz de PRIMER
transicin PERIODO
ESTADOS Colombiana Pepsicola Fanta Coca-cola
Colombiana 0,45 0,15 0,1 0,3
Pepsicola 0,2 0,4 0,1 0,3
Fanta 0,2 0,2 0,5 0,1
Coca-Cola 0,1 0,2 0,1 0,6

PARTICIPACION Colombiana Pepsicola Fanta Coca-cola


P= 0,2 0,3 0,1 0,4

SEGUNDO
PERIODO
ESTADOS Colombiana Pepsicola Fanta Coca-cola
Colombiana 0,2825 0,2075 0,14 0,37
Pepsicola 0,22 0,27 0,14 0,37
Fanta 0,24 0,23 0,3 0,23
Coca-Cola 0,165 0,235 0,14 0,46

PARTICIPACION Colombiana Pepsicola Fanta Coca-cola


P= 0,21 0,25 0,14 0,4

TERCER
PERIODO
ESTADOS Colombiana Pepsicola Fanta Coca-cola
Colombiana 0,233625 0,227375 0,156 0,383
Pepsicola 0,218 0,243 0,156 0,383
Fanta 0,237 0,234 0,22 0,309
Coca-Cola 0,19525 0,23875 0,156 0,41

14
PARTICIPACION Colombiana Pepsicola Fanta Coca-cola
P= 0,2125 0,2395 0,156 0,392

Despus de hallar las matrices de transicin, se determina que la probabilidad de que


los clientes se queden con la marca o cambien a otra en el cuarto periodo.

Para el cuarto periodo la probabilidad de que una persona que ha consumido


colombiana siga consumiendo es del 23,36% y tiene una posibilidad de que
cambie a Pepsi cola del 22,74%, un 15,6% que cambie a Fanta y un 38,3% de
que cambie a coca cola.
Las personas que consumen Pepsi cola tienen un 24,3% que se mantengan
consumiendo ese producto, un 21,80% que se cambie a colombiana, 15,6% que
cambie a fanta y un 38,3% que cambie a coca cola.
Cuando una persona consume Fanta tiene un 22,0% que siga consumiendo, un
23,7% que se cambie a colombiana, un 26,4% que cambie a Pepsi cola y un
30,9% que se cambie a coca cola.
Cuando la persona consume coca cola tiene un 41,0% que siga consumiendo este
producto, un 19,53% que se cambie a Colombia, un 23,88% que se cambie a
Pepsi cola, y un 15,6% que se pase a Fanta.

Para el tercer periodo tenemos que la participacin en el mercado de las marcas de


gaseosa es:

PARTICIPACION Colombiana Pepsicola Fanta Coca-cola


P= 21,25% 23,95% 15,60% 39,20%

15
CONCLUSION

En el desarrollo de esta unidad #3 de Proceso de decisiones de MARKOV (Cadenas de


MARKOV), Nos proporciona un sistema til y prctico para crear e implementar procesos
de toma de decisiones que nos aproximan a los posibles escenarios a fin de ser utilizados
para predecir con mayor exactitud la evolucin y los comportamientos futuros de
determinados sistemas de nuestro entorno (negocios, poltica, finanzas, deportes, salud,
fsica, economa, entre otros).

El desarrollo de la actividad permite reforzar los conocimientos adquiridos en el estudio


de la Unidad 2 al aplicarlos en el desarrollo de un ejercicio concreto.
En este trabajo podemos apreciar la importancia de cada uno de los temas vistos en la
unidad 2 del mdulo teora de las decisiones.
Las cadenas de markov se basan en que la probabilidad de que ocurra un evento
depende del evento inmediato anterior.
Se adquirieron conocimientos para el desempeo como Ingenieros con capacidad para
la solucin a problemticas que se presenten.
Poder tener ms herramientas y conocimientos para poder en un futuro tener poder
decisin ante problemas o situaciones complejas de los temas que se llegasen a
presentar en nuestro campo profesional.
Poder conocer a fondo la temtica que maneja la unidad n 2 del curso de teora de
decisiones.
Saber cmo involucrar metodologas nuevas para poder analizar de forma crtico una
idea o producto.
Conocer y poner en prctica conceptos y habilidades de investigacin

16
BIBLIOGRAFIA

Mosquera, W. (2010). Teora de las decisiones. (pp. 77-99), Bogot, Colombia: Editorial
Universidad Nacional Abierta y a Distancia. Recuperado de:
http://hdl.handle.net/10596/4891

Taibo, A. (2009). Investigacin de operaciones para los no matemticos (pp. 71-78),


Distrito Federal, Mxico: Editorial Instituto Politcnico Nacional. Recuperado de:
http://bibliotecavirtual.unad.edu.co:2077/lib/unadsp/detail.action?docID=10504970

Gonzlez, L. (1994). Procesos de Markov, Zulia, Venezuela: Editorial Universidad Zulia.


Recuperado de:
http://bibliotecavirtual.unad.edu.co:2077/lib/unadsp/reader.action?ppg=8&docID=10663
398&tm=1478362182636

Mosquera, W. (2010). Teora de las decisiones. (pp. 77-99), Bogot, Colombia: Editorial
Universidad Nacional Abierta y a Distancia. Recuperado de:
http://hdl.handle.net/10596/4891

Taibo, A. (2009). Investigacin de operaciones para los no matemticos (pp. 71-78),


Distrito Federal, Mxico: Editorial Instituto Politcnico Nacional. Recuperado de:
http://bibliotecavirtual.unad.edu.co:2077/lib/unadsp/detail.action?docID=10504970

Mosquera, W. (2010). Teora de las decisiones. (pp. 77-99), Bogot, Colombia: Editorial
Universidad Nacional Abierta y a Distancia. Recuperado de:
http://hdl.handle.net/10596/4891

Taibo, A. (2009). Investigacin de operaciones para los no matemticos (pp. 71-78),


Distrito Federal, Mxico: Editorial Instituto Politcnico Nacional. Recuperado de:
http://bibliotecavirtual.unad.edu.co:2077/lib/unadsp/detail.action?docID=10504970

17