Sie sind auf Seite 1von 280

Traducción del

primer libro
2007 13:10 Tamaño de ajuste de WSPC / libro para Datainning de 9 "x
6"

Capítulo 1

Introducción a los árboles de decisión

1.1 Minería de datos y descubrimiento de conocimiento

La minería de datos, la ciencia y la tecnología de explorar datos para


desintegrar
cubrir patrones previamente desconocidos, es parte del proceso general
de conocimiento
descubrimiento de bordes en bases de datos (KDD). En el mundo actual
impulsado por la computadora,

estas bases de datos contienen cantidades masivas de información. El


acceso
La facilidad y abundancia de esta información hace que la extracción de
datos sea una cuestión de

considerable importancia y necesidad.


La mayoría de las técnicas de minería de datos se basan en el
aprendizaje inductivo (ver

1
[Mitchell (1997)]), donde un modelo se construye explícita o
implícitamente
al generalizar a partir de un número suficiente de ejemplos de
entrenamiento. los

la suposición subyacente del enfoque inductivo es que el modelo


entrenado
es aplicable a ejemplos futuros, no vistos. Estrictamente hablando,
cualquier forma
de inferencia en el que las conclusiones no están deductivamente
implícitas por el
las premisas se pueden considerar como inducción.
Tradicionalmente, la recopilación de datos era considerada como una de
las más importantes
etapas en el análisis de datos. Un analista (por ejemplo, un estadístico)
usaría el
conocimiento de dominio disponible para seleccionar las variables que se
deben recopilar.
El número de variables seleccionadas era generalmente pequeño y la
colección de
sus valores se pueden hacer manualmente (por ejemplo, utilizando
registros escritos a mano o
entrevistas orales). En el caso del análisis asistido por computadora, el
analista tuvo que
ingrese los datos recopilados en un paquete estadístico de computadora
o un sistema electrónico
hoja de cálculo. Debido al alto costo de la recolección de datos, las
personas aprendieron a hacer
decisiones basadas en información limitada.
Desde los albores de la era de la información, la acumulación de datos
se ha convertido

2
más fácil y almacenarlo a bajo costo. Se ha estimado que la cantidad
de información almacenada se duplica cada veinte meses [Frawley et al.
(1991)].

Copyright © 2008. World Scientific. Todos los derechos reservados. No


puede reproducirse de ninguna forma sin el permiso del editor, excepto
en los usos legítimos permitidos en EE. UU. O
derecho de autor aplicable.

EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018


10:15 PM a través de UNIVERSIDAD NACIONAL
ABIERTA Y A DISTANCIA - UNAD
AN: 236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos con
árboles de decisión: teoría y aplicaciones
Cuenta: ns145102

7 de noviembre de 2007 13:10 Tamaño de ajuste de WSPC / libro para


Datainning de 9 "x 6"

2 Minería de datos con árboles de decisión: teoría y aplicaciones


Lamentablemente, a medida que aumenta la cantidad de información
legible por máquina,
la capacidad de comprenderlo y utilizarlo no sigue el ritmo de su
crecimiento.
La minería de datos surgió como un medio para hacer frente a este
crecimiento exponencial
de información y datos. El término describe el proceso de tamizado

3
grandes bases de datos en busca de patrones y relaciones interesantes.
En práctica
tise, la minería de datos proporciona herramientas mediante las cuales
se pueden obtener grandes cantidades de datos

analizado automáticamente Mientras que algunos investigadores


consideran el término "datos"
minería "como engañosa y prefiere el término" minería del conocimiento
"[Klosgen
y Zytkow (2002)], el primer término parece ser el más utilizado,

con 59 millones de entradas en Internet en comparación con 52 millones


para el conocimiento
minería de borde.

La minería de datos se puede considerar como un paso central en el


KDD general
proceso. De hecho, debido a la importancia de la minería de datos en el
proceso KDD,
hay algunos investigadores y profesionales que consideran "minería de
datos" y
el proceso KDD completo como sinónimo.
Hay varias definiciones de KDD. Por ejemplo [Fayyad
et al. (1996)] lo definen como "el proceso no trivial de identificar válido,
novedoso,

patrones potencialmente útiles y, en última instancia, comprensibles en


los datos ". [Frito-
man (1997a)] considera el proceso de KDD como un exploratorio
automático de datos

4
análisis de grandes bases de datos. [Hand (1998)] lo ve como un
analizador de datos secundario
ysis de grandes bases de datos. El término "secundario" enfatiza el
hecho de que

El propósito principal de la base de datos no era el análisis de datos.


Un elemento clave que caracteriza el proceso KDD es la forma en que se
divide
en fases con investigadores líderes como [Brachman y Anand (1994)],
[Fayyad et al. (1996)], [Maimon y Last (2000)] y [Reinartz (2002)]

proponiendo diferentes métodos Cada método tiene sus ventajas y


desventajas
ventajas. En este libro, adoptamos una hibridación de estas propuestas
y

romper el proceso KDD en ocho fases. Tenga en cuenta que el proceso


es iterativo
y puede ser necesario volver a las fases anteriores.
(1) Desarrollar una comprensión del dominio de aplicación, el relevante
conocimiento previo y los objetivos del usuario final.
(2) Seleccionar un conjunto de datos en el que se realizará el
descubrimiento.

(3) Preprocesamiento de datos: esta etapa incluye operaciones para el


dimensionamiento
producción (como la selección de características y el muestreo);
limpieza de datos (tal como manejo de valores faltantes, eliminación de
ruido o valores atípicos); y transmisión de datos
formación (como la discretización de atributos numéricos y
atributos)extracción)

5
(4) Elegir la tarea de minería de datos adecuada, como clasificación,
gression, agrupamiento y resumen.

(5) Elegir el algoritmo de minería de datos. Esta etapa incluye


seleccionar el
método específico que se utilizará para buscar patrones.
(6) Empleando el algoritmo de minería de datos.
(7) Evaluar e interpretar los patrones minados.
(8) La última etapa, la implementación, puede implicar el uso del
conocimiento directamente;
incorporar el conocimiento en otro sistema para una acción posterior; o
simplemente documentando el conocimiento descubierto.

1.2 Taxonomía de los métodos de minería de datos

Es útil distinguir entre dos tipos principales de datos


ing: orientado a la verificación (el sistema verifica la hipótesis del
usuario) y

orientado al descubrimiento (el sistema encuentra nuevas reglas y


patrones de forma autónoma)
[Fayyad et al. (1996)]. La Figura 1.1 ilustra esta taxonomía. Cada tipo
tiene
su propia metodología.
Métodos de descubrimiento, que identifican automáticamente los
patrones en los datos,

implica tanto métodos de predicción como de descripción. Descripción


meth-

6
ods se centran en la comprensión de la forma en que los datos
subyacentes operan mientras

los métodos orientados a la predicción apuntan a construir un modelo de


comportamiento para obtener
muestras nuevas e invisibles y para predecir valores de una o más
variables
relacionado a la muestra Algunos métodos orientados a la predicción,
sin embargo, también pueden
ayudar a proporcionar una comprensión de los datos.

La mayoría de las técnicas orientadas al descubrimiento se basan en el


aprendizaje inductivo
ing [Mitchell (1997)], donde un modelo se construye explícita o
implícitamente
al generalizar a partir de un número suficiente de ejemplos de
entrenamiento. los

la suposición subyacente del enfoque inductivo es que el modelo


entrenado

es aplicable a futuros ejemplos no vistos. Estrictamente hablando,


cualquier forma de inferir
en que las premisas no están deductivamente implícitas en las premisas

puede ser pensado como una inducción.


Los métodos de verificación, por otro lado, evalúan una hipótesis
propuesta
por una fuente externa (como un experto, etc.). Estos métodos incluyen
el más

7
métodos comunes de estadísticas tradicionales, como la prueba de
bondad de ajuste, la

t-test de medias y análisis de varianza. Estos métodos son menos


asociados
con la minería de datos que sus homólogos orientados al descubrimiento
porque

la mayoría de los problemas de minería de datos están relacionados con


la selección de una hipótesis (

de un conjunto de hipótesis) en lugar de probar uno conocido. El


enfoque de
Copyright © 2008. World Scientific. Todos los derechos reservados. No
se puede reproducir de ninguna forma sin el permiso del editor, excepto
en los usos legítimos permitidos por los EE. UU. O las leyes de propiedad
intelectual aplicables.

EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018


10:15 PM a través de UNIVERSIDAD NACIONAL
ABIERTA Y A DISTANCIA - UNAD
AN: 236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos con
árboles de decisión: teoría y aplicaciones
Cuenta: ns145102

7 de noviembre de 2007 13:10 Tamaño de ajuste de WSPC / libro para


Datainning de 9 "x 6"

8
4 Minería de
datos con árboles
de decisión:
teoría y
aplicaciones
valores (como la edad o el sexo). Los árboles de clasificación se utilizan
con frecuencia en
campos aplicados como finanzas, marketing, ingeniería y medicina. los
árbol de clasificación es útil como una técnica exploratoria. Sin embargo
lo hace
no intentar reemplazar los métodos estadísticos tradicionales existentes
y hay
muchas otras técnicas que pueden usarse clasifican o predicen la
membresía
de instancias a un conjunto predefinido de clases, como redes
neuronales artificiales
o máquinas de vectores de soporte.
La figura 1.2 presenta un clasificador de árbol de decisión típico. Este
árbol de decisión
se utiliza para facilitar el proceso de suscripción de las solicitudes de
hipoteca de un

9
cierto banco. Como parte de este proceso, el solicitante completa una
solicitud
formulario que incluya los siguientes datos: número de dependientes
(DEPEND),

relación de préstamo a valor (LTV), estado civil (MARST), raciones de


pago a ingresos
tio (PAYINC), tasa de interés (RATE), años en la dirección actual
(YRSADD),

y años en el trabajo actual (YRSJOB).

Con base en la información anterior, el asegurador decidirá si el


solicitante
catión debe ser aprobado para una hipoteca. Más específicamente, esta
decisión

Tree clasifica las solicitudes de hipoteca en una de las siguientes dos


clases:
• Aprobado (indicado como "A") La aplicación debe ser aprobada.
• Denegado (denotado como "D") La aplicación debe denegarse.

• Suscripción manual (indicada como "M") Un suscriptor debe


ual examine la aplicación y decida si debe ser aprobada (en

algunos casos después de solicitar información adicional del solicitante).


El árbol de decisiones se basa en los campos que aparecen en la
hipoteca
formularios de aplicaciones.

10
El ejemplo anterior ilustra cómo se puede usar un árbol de decisión para
representar
envió un modelo de clasificación. De hecho, se puede ver como un
sistema experto, que

automatiza parcialmente el proceso de suscripción y que fue construido


manualmente
por un ingeniero de conocimiento después de interrogar a un asegurador
con experiencia en

la compañia. Este tipo de interrogación de expertos se llama


conocimiento elicita-
a saber, obtener conocimiento de un experto humano (o expertos
humanos)

para ser utilizado por un sistema inteligente. La obtención de


conocimiento suele ser difícil
porque no es fácil encontrar un experto disponible que pueda, tiene el
tiempo
y está dispuesto a proporcionar al ingeniero del conocimiento la
información que él
necesita crear un sistema experto confiable. De hecho, la dificultad
inherente en

el proceso es una de las principales razones por las cuales las empresas
evitan los sistemas inteligentes
Tems. Este fenómeno se conoce como el cuello de botella de la
elicitación del conocimiento.

También se puede usar un árbol de decisión para analizar la ética de


pago de las
clientes que recibieron una hipoteca. En este caso, hay dos clases:

11
Copyright © 2008. World Scientific. Todos los derechos reservados. No
puede reproducirse de ninguna forma sin el permiso del editor, excepto
en los usos legítimos permitidos en EE. UU. O
derecho de autor aplicable.

EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018


10:15 PM a través de UNIVERSIDAD NACIONAL
ABIERTA Y A DISTANCIA - UNAD
AN: 236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos con
árboles de decisión: teoría y aplicaciones
Cuenta: ns145102

7 de noviembre de 2007 13:10 Tamaño de ajuste de WSPC / libro para


Datainning de 9 "x 6"

Introducción a los árboles de decisión 7

YRSJOB
<2 ≥2
LTV MARST

YRSADD DEPENDE
Soltero
Marr

Div

ied

12
orced
DA

<1.5 ≥1.5

METRO
>0=0
DAA
METRO
<75% ≥75%

Fig. 1.2 Underwriting Decision Tree.

• Pagado (indicado como "P") - el destinatario ha pagado


completamente su hipoteca
calibrar.

• No pagado (indicado como "N"): el destinatario no ha pagado


completamente su o
su hipoteca
Este nuevo árbol de decisión puede usarse para mejorar la decisión de
suscripción
modelo presentado en la Figura 9.1. Muestra que hay relativamente
muchos
los clientes pasan el proceso de suscripción, pero que aún no han
completado
devolvió el préstamo. Tenga en cuenta que, a diferencia del árbol de
decisión presentado
en la figura 9.1, este árbol de decisión se construye de acuerdo con los
datos que fueron

13
acumulado en la base de datos. Por lo tanto, no es necesario obtener
manualmente
conocimiento. De hecho, el árbol puede cultivarse automáticamente. Tal
clase de
la adquisición de conocimiento se conoce como descubrimiento de
conocimiento de las bases de datos.
El uso de un árbol de decisión es una técnica muy popular en la minería
de datos.
En la opinión de muchos investigadores, los árboles de decisión son
populares debido a su
simplicidad y transparencia. Los árboles de decisión son
autoexplicativos; Ahi esta
no es necesario ser un experto en minería de datos para seguir una
determinada decisión

árbol. Los árboles de clasificación generalmente se representan


gráficamente como jerarquías
estructuras calvas, haciéndolas más fáciles de interpretar que otras
técnicas. Si

el árbol de clasificación se vuelve


complicado (es decir, tiene muchos nodos)
y luego
su representación gráfica directa se vuelve
inútil. Para complejo
Copyright © 2008. World Scientific. Todos los derechos reservados. No
puede reproducirse de ninguna forma sin el permiso del editor, excepto
en los usos legítimos permitidos en EE. UU. O
derecho de autor aplicable.

14
. 1.3 Comportamiento real de customer.trees, se deben desarrollar otros
procedimientos gráficos para simplificar la interpretación.1.5
Características de los árboles de clasificación Un árbol de decisión es un
clasificador expresado como una partición recursiva del espacio de la
institución. El árbol de decisión consta de nodos que forman un árbol
enraizado, lo que significa que es un árbol dirigido con un nodo llamado
"raíz" que no tiene bordes entrantes. Todos los demás nodos tienen
exactamente un borde entrante. Un nodo con bordes salientes se
denomina nodo "interno" o "de prueba". Todos los otros nodos se
denominan "hojas" (también conocidos como nodos "terminales" o "de
decisión"). En el árbol de decisión, cada nodo interno divide el espacio
de la instancia en dos o más subespacios de acuerdo con una
determinada función discreta de los atributos de entrada. valores de
bute En el caso más simple y más frecuente, cada prueba considera un
solo atributo, de modo que el espacio de la instancia se particione de
acuerdo con el valor de los atributos. En el caso de los atributos
numéricos, la condición se refiere a un rango. Cada hoja se asigna a una
clase que representa el alquitrán más apropiado: Copyright © 2008.
World Scientific. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto usos
justos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/6/2018 10:15 PM a través de UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN: 236037; Rokach, Lior,
Maimon, Oded Z ...; Minería de datos con árboles de decisión: teoría y
aplicacionesCuenta: ns145102November 7, 2007 13:10 WSPC / Book
Trim Size para 9in x 6in DataMiningIntroducción a Decision Trees 9get
value. Alternativamente, la hoja puede contener un vector de
probabilidad (vector de afinidad) que indica la probabilidad de que el
atributo objetivo tenga un cierto valor. La Figura 1.4 describe otro
ejemplo de un árbol de decisión que razona si un cliente potencial
responderá o no a un envío directo. Los nodos internos se representan
como círculos, mientras que las hojas se indican como triángulos. De
cada nodo interno pueden crecer dos o más ramas (es decir, no una
hoja). Cada nodo se corresponde con una característica determinada y
las ramas responden con un rango de valores. Estos rangos de valores
deben dar una partición del conjunto de valores de la característica
dada. Las fuentes se clasifican navegándolos desde la raíz del árbol
hasta una hoja, de acuerdo con el resultado de las pruebas a lo largo de
la ruta. Específicamente, comenzamos con un raíz de un árbol;
consideramos la característica que corresponde a una raíz; y definimos a

15
qué rama corresponde el valor observado de la característica dada.
Luego consideramos el nodo en el que aparece la rama dada. Repetimos
las mismas operaciones para este nodo, etc., hasta que lleguemos a una
hoja. Nótese que este árbol de decisión incorpora atributos nominales y
numericanos. Dado este clasificador, el analista puede predecir la
respuesta del cliente potencial (clasificándolo en el árbol) y comprender
las características de comportamiento de toda la población potencial de
clientes con respecto al envío directo. Cada nodo se etiqueta con el
atributo que prueba, y sus ramas se etiquetan con sus valores
correspondientes. En el caso de los atributos numéricos, los árboles de
decisión se pueden interpretar geométricamente como una colección de
hiperplanos, cada uno ortogonal a uno de los ejes.1.5.1 Tamaño de los
árbolesNaturalmente, los responsables de la toma de decisiones
prefieren un árbol de decisiones que no sea complejo, ya que es más
comprensible. Además, de acuerdo con [Breimanet al. (1984)], la
complejidad del árbol tiene un efecto crucial en su precisión. Por lo
general, la complejidad del árbol se mide mediante una de las siguientes
métricas: el número total de nodos, el número total de hojas, la
profundidad del árbol y el número de partículas usadas. La complejidad
del árbol está explícitamente controlada por los criterios de detención y
el método de poda que se emplean.1.5.2 La naturaleza jerárquica de los
árboles de decisión Otra característica de los árboles de decisión es su
naturaleza jerárquica. Imagine que desea desarrollar un sistema médico
para diagnosticar a los pacientes según
10 Minería de datos con árboles de decisión: teoría y aplicaciones

16
Fig. 1.4 Árbol de decisiones que presenta
respuesta al correo directo.
a los resultados de varias pruebas médicas. Según
el resultado de una prueba, el
el médico puede realizar u ordenar pruebas de laboratorio adicionales.
Específicamente,
La Figura 1.5 ilustra el proceso de diagnóstico, usando árboles de
decisión, de pacientes
que sufren de un cierto problema respiratorio. El árbol de decisión
emplea
los siguientes atributos: CT encontrar (CTF); Hallazgo de rayos X (XRF);
pecho
tipo de dolor (CPT); y hallazgo de prueba de sangre (BTF). El médico
ordenará
una radiografía, si el tipo de dolor en el pecho es "1". Sin embargo, si el
tipo de dolor en el pecho es "2", entonces

17
el médico no realizará una radiografía, pero pedirá una prueba de
sangre. Por lo tanto médico
Copyright © 2008. World Scientific. Todos los derechos reservados. No
puede reproducirse de ninguna forma sin el permiso del editor, excepto
en los usos legítimos permitidos en EE. UU. O
derecho de autor aplicable.

7 de noviembre de 2007 13:10 Tamaño de ajuste de WSPC / libro para


Datainning de 9 "x 6"

Introducción a los árboles de decisión 11


las pruebas se realizan justo cuando es necesario y el costo total de las
pruebas médicas es
reducido.

Fig. 1.5 Árbol de decisiones para aplicaciones médicas.

1.6 Relación con la inducción de la regla


La inducción del árbol de decisión está estrechamente relacionada con la
inducción de la regla. Cada camino desde
la raíz de un árbol de decisión a una de sus hojas se puede transformar
en una regla
simplemente uniendo las pruebas a lo largo del camino para formar la
parte antecedente,
y tomando la predicción de clase de la hoja como el valor de clase. Por
ejemplo, uno
de las rutas en la Figura 1.4 puede transformarse en la regla: "Si el
cliente
la edad es menor o igual a 30, y el sexo del cliente es masculino:

18
entonces el cliente responderá al correo ". El conjunto de reglas
resultante puede
luego se simplificará para mejorar su comprensión para un usuario
humano, y
posiblemente su precisión [Quinlan (1987)].

Capitulo 2

Árboles de decisión creciente


2.0.1 Set de entrenamiento
En un escenario típico de aprendizaje supervisado, se proporciona un
conjunto de capacitación y el
objetivo es formar una descripción que se puede utilizar para predecir
previamente no visto
ejemplos.
El conjunto de entrenamiento se puede describir de varias formas. Más
frecuentemente
se describe como una instancia de bolsa de un cierto esquema de bolsa.
Una instancia de bolsa

19
es una colección de tuplas (también conocidas como registros, filas o
instancias) que
puede contener duplicados. Cada tupla se describe mediante un vector
de atributo
valores. El esquema de la bolsa proporciona la descripción de los
atributos y sus
dominios En este libro, un esquema de bolsa se denota como B (A∪y)
donde A indica
el conjunto de atributos de entrada que contiene n atributos: A = {a1,
..., ai, ..., an}
y y representa la variable de clase o el atributo objetivo.
Los atributos (a veces llamados campo, variable o característica) son
típicamente
uno de dos tipos: nominal (los valores son miembros de un conjunto
desordenado), o
numérico (los valores son números reales). Cuando el atributo ai, es útil
para
denotan sus valores de dominio por dom (ai) = {vi, 1, vi, 2, ..., vi, |
dom (ai) |}, donde
| dom (ai) | representa su cardinalidad finita. De manera similar, dom
(y) =
{c1, ..., c | dom (y) |} representa el dominio del atributo de destino.
Numérico
los atributos tienen cardinalidades infinitas.
El espacio de instancia (el conjunto de todos los ejemplos posibles) se
define como
Producto cartesiano de todos los dominios de atributos de entrada: X =
dom (a1) ×
dom (a2) × ... × dom (an). El espacio de instancia universal (o el
etiquetado
espacio de instancia) U se define como un producto cartesiano de todos
los atributos de entrada

20
dominios y el dominio de atributo objetivo, es decir: U = X × dom (y).

El conjunto de entrenamiento es una instancia de bolsa que consiste en


un conjunto de m tuples. Por-
El conjunto de entrenamiento se denota como S (B) = (x1, y1, ..., xm,
ym) donde

xq ∈ X e yq ∈ dom (y).

13

Copyright © 2008. World Scientific. Todos los derechos reservados. No


puede reproducirse de ninguna forma sin el permiso del editor, excepto
en los usos legítimos permitidos en EE. UU. O

7 de noviembre de 2007 13:10 Tamaño de ajuste de WSPC / libro para


Datainning de 9 "x 6"

14 Minería de datos con árboles de decisión: teoría y aplicaciones

Por lo general, se supone que las tuplas del conjunto de entrenamiento


se generan
dominado e independientemente de acuerdo con algunos problemas
conjuntos fijos y desconocidos
distribución de habilidades D sobre U. Tenga en cuenta que esto es una
generalización de la determi-
Caso mínimo cuando un supervisor clasifica una tupla usando una
función y = f (x).

Este libro usa la notación común de álgebra de bolsa para presentar

21
jection (π) y selección (σ) de tuplas ([Grumbach y Milo (1996)].

Por ejemplo, dado el conjunto de datos S presentado en la Tabla 2.1, la


expresión

πa2, a3 σa1 = "Y es" Y a4> 6S corresponde con el conjunto de datos


presentado en Ta-
ble 2.2.

Tabla 2.1 Ilustración de un conjunto de datos S


con cinco atributos
a1 a2 a3 a4 y
Sí 17 4 7 0
No 81 1 9 1
Sí 17 4 9 0
No 671 5 2 0
Sí 1 123 2 0
Sí 1 5 22 1
No 6 62 1 1
No 6 58 54 0
No 16 6 3 0

Tabla 2.2 El resultado de la expresión

πa2, a3 σa1 = "Y es" ANDa4> 6 S basado en Ta-


ble 2.1.

a2 a3

22
17 4
17 4
15

2.0.2 Definición del problema de clasificación


La comunidad de aprendizaje de máquinas fue una de las primeras en
introducir el

problema de aprendizaje conceptual. Los conceptos son categorías


mentales para ob-
proyectos, eventos o ideas que tienen un conjunto común de
características. Acco-
rden a [Mitchell (1997)]: "cada concepto puede verse como
un subconjunto de objetos o eventos definidos en un conjunto más
grande "(p. ej.,

el subconjunto de un vehículo que constituye camiones). Para aprender


un concepto es
inferir su definición general a partir de un conjunto de ejemplos. Esta
definición
Copyright © 2008. World Scientific. Todos los derechos reservados. No
puede reproducirse de ninguna forma sin el permiso del editor, excepto
en los usos legítimos permitidos en EE. UU. O
derecho de autor aplicable.

7 de noviembre de 2007 13:10 Tamaño de ajuste de WSPC / libro para


Datainning de 9 "x 6"

Árboles de decisión creciente 15

23
puede estar explícitamente formulado o dejado implícito, pero de
cualquier forma
asigna cada ejemplo posible al concepto o no. Por lo tanto, un concepto
puede ser
considerado como una función desde el espacio de instancia al conjunto
booleano, a saber:
c: X → {-1, 1}. Alternativamente, uno puede referir un concepto c como
un subconjunto de X,
a saber: {x ∈ X: c (x) = 1}. Una clase de concepto C es un conjunto de
conceptos.
Aprender un concepto es inferir su definición general a partir de un
conjunto de ejemplos.
Esta definición puede formularse explícitamente o dejarse implícita, pero
de cualquier manera asigna cada ejemplo posible al concepto o no. Por
lo tanto, un
concepto puede considerarse formalmente como una función del
conjunto o f todos los posibles ejemplos para el conjunto booleano
{Verdadero, Falso}. Otras comunidades, como la comunidad KDD,
prefieren tratar con una extensión del aprendizaje conceptual, que se
conoce como el problema de clasificación. En este caso, buscamos una
función que asigne el conjunto de todos los ejemplos posibles en un
conjunto predefinido de etiquetas de clase que no están limitadas al
conjunto booleano. Más frecuentemente, el objetivo de los inductores
clasificadores se define formalmente como: dado un conjunto de
entrenamiento S con atributos de entrada establecidos A = {a1, a2, ...,
an} y un atributo objetivo nominal y de una distribución fija desconocida
Dover el espacio de instancia etiquetado , el objetivo es inducir un
clasificador óptimo con un error de generalización mínimo. El error de
generalización se define como la tasa de clasificación errónea sobre la
distribución D. En el caso de los atributos nominales se puede expresar
como: ε (DT (S), D) = x, y∈UD (x, y) · L (y, DT (S) (x)) (2.1) donde L
(y, DT (S) (x) es la función de pérdida de cero uno definida como: L (y,
DT (S) (x)) = 0 si y = DT (S) (x) 1 si y = DT (S) (x) (2.2) En el caso de
los atributos numéricos, el operador suma se reemplaza por el operador
de integración. Considere la capacitación se establece en la Tabla 2.3
que contiene datos sobre diez clientes. Cada cliente se caracteriza por
tres atributos: Edad, Género y Última Reacción (una indicación de si el

24
cliente ha respondido positivamente a la última campaña de correo
directo anterior). El último atributo ("Comprar") describe si ese cliente
estaba dispuesto a comprar un producto en la campaña actual. El
objetivo es inducir a un clasificador que la mayoría
2.0.3 Algoritmos de inducción
Un algoritmo de inducción, o más concisamente un inductor (también
conocido como
aprendiz), es una entidad que obtiene un conjunto de entrenamiento y
forma un modelo que
generaliza la relación entre los atributos de entrada y el objetivo
atributo. Por ejemplo, un inductor puede tomar como entrenamiento
específico de entrada
tuplas con la etiqueta de clase correspondiente, y producir un
clasificador.

La notación DT representa un árbol de decisión inductor y DT (S)


representan
Encuentra un árbol de clasificación que fue inducido por la realización de
DT en un entrenamiento

establecer S. Usando DT (S) es posible predecir el valor objetivo de una


tupla xq.
Esta predicción se denota como DT (S) (xq).
Dada la larga historia y el reciente crecimiento del campo de aprendizaje
automático,
no es sorprendente que varios enfoques maduros para la inducción sean
ahora
disponible para el practicante
2.0.4 Estimación de probabilidad en árboles de decisión
El clasificador generado por el inductor se puede utilizar para clasificar
un oculto

25
tupla ya sea asignando explícitamente a una cierta clase (clasificador
nítido) o por
proporcionando un vector de probabilidades que representa la
probabilidad condicional

de la instancia dada para pertenecer a cada clase (clasificador


probabilístico). Indu
Los CERS que pueden construir clasificadores probabilísticos son
conocidos como probabilísticos

inductores. En árboles de decisión, es posible estimar el problema


condicional
habilidad P

DT (S) (y = cj | ai = xq, i; i = 1, ..., n) de una observación xq. Nota

Copyright © 2008. World Scientific. Todos los derechos reservados. No


puede reproducirse de ninguna forma sin el permiso del editor, excepto
en los usos legítimos permitidos en EE. UU. O
derecho de autor aplicable.

EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018


10:15 PM a través de UNIVERSIDAD NACIONAL
ABIERTA Y A DISTANCIA - UNAD
AN: 236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos con
árboles de decisión: teoría y aplicaciones
Cuenta: ns145102

7 de noviembre de 2007 13:10 Tamaño de ajuste de WSPC / libro para


Datainning de 9 "x 6"

26
Árboles de decisión creciente 17
la adición del "sombrero" - - a la estimación de probabilidad condicional
se usa para distinguirlo de la probabilidad condicional real.

En árboles de clasificación, la probabilidad se estima para cada hoja


separada
radamente calculando la frecuencia de la clase entre las instancias de
entrenamiento

que pertenecen a la hoja.

Usar el vector de frecuencia tal como está, típicamente sobreestimará la


probabilidad
bilidad. Esto puede ser problemático especialmente cuando una clase
dada nunca ocurre

en una cierta hoja. En tales casos, nos quedamos con una probabilidad
cero. Ahí
son dos correcciones conocidas para la estimación de probabilidad
simple que evitan
este fenómeno. Las siguientes secciones describen estas correcciones.
2.0.4.1 Corrección de Laplace
De acuerdo con la ley de sucesión de Laplace [Niblett (1987)], la
probabilidad de
el evento y = ci donde y es una variable aleatoria y ci es un posible
resultado
de y que se ha observado mi veces fuera de m observaciones es:

mi + kpa
m + k (2.3)

27
donde pa es una estimación de probabilidad a priori del evento yk es el
tamaño de muestra equivalente que determina el peso de la estimación
a priori
relativo a los datos observados. De acuerdo con [Mitchell (1997)] k se
llama
"Tamaño de muestra equivalente" porque representa un aumento de la
m
observaciones reales por k muestras virtuales adicionales distribuidas de
acuerdo
a pa. La relación anterior se puede reescribir como el promedio
ponderado de la
probabilidad a-priori y la probabilidad posterior (denotada como pp):

mi + k · pa
m+k
= mi
m·m
m + k + pa · k
m+k

= pp · m
m + k + pa · k
m+k=
= pp · w1 + pa · w2

(2.4)

En el caso discutido aquí, se usa la siguiente corrección:


PLaplace (ai = xq, i | y = cj) =

28
σy = cj AND ai = xq, i S

+k·p

σy = cjS

+ k (2.5)

Para usar la corrección anterior, los valores de p y k deben ser se-


seleccionado Es posible usar p = 1 / | dom (y) | y k = | dom (y) |. [Ali y

Pazzani (1996)] sugieren usar k = 2 y p = 1/2 en cualquier caso, incluso


si

7 de noviembre de 2007 13:10 Tamaño de ajuste de WSPC / libro para


Datainning de 9 "x 6"

18 Minería de datos con árboles de decisión: teoría y aplicaciones

| dom (y) | > 2 para enfatizar el hecho de que el evento estimado es


formas en comparación con el evento opuesto. [Kohavi et al. (1997)]
sugieren usar

k = | dom (y) | / | S | y p = 1 / | dom (y) |.


2.0.4.2 Sin concordancia
De acuerdo con [Clark y Niblett (1989)] solo se corrigieron cero
probabilidades

29
y reemplazado por el siguiente valor: pa / | S |. [Kohavi et al. (1997)]
sugieren
usando pa = 0.5. También compararon empíricamente la corrección de
Laplace y
la corrección de no coincidencia e indica que no hay una diferencia
significativa
entre ellos een ellos. Sin embargo, ambos son significativamente
mejores que no realizar ninguna corrección.2.1 Marco algorítmico para
árboles de decisión Los inductores de árbol de decisión son algoritmos
que construyen automáticamente un árbol de decisión a partir de un
conjunto de datos determinado. Normalmente, el objetivo es encontrar
el árbol de decisión óptimo minimizando el error de generalización. Sin
embargo, también se pueden definir otras funciones de destino, por
ejemplo, minimizar el número de nodos o minimizar la profundidad
promedio del árbol. La creación de un árbol de decisión óptimo a partir
de un dato dado se considera una tarea difícil. [Hancock et al. (1996)]
han demostrado que la búsqueda de un árbol de decisión mini-
consistente consistente con el conjunto de entrenamiento es NP-dura
mientras que [Hyafiland Rivest (1976)] han demostrado que construir
un árbol binario mínimo con respecto al número esperado de pruebas
requeridas para clasificar un invisible la instancia es NP-completa.
Incluso encontrar el árbol de decisión equivalente mínimo para un árbol
de decisión dado o construir el árbol de decisión óptimo a partir de
tablas de decisión es conocido como NP-duro [Naumov (1991)]. Estos
resultados indican que se utilizan algoritmos de árbol de decisión
óptimos es inviable solo en pequeños problemas. En consecuencia, se
requieren métodos heurísticos para resolver el problema. En términos
generales, estos métodos pueden dividirse en dos grupos: descendente
y ascendente con clara preferencia en la literatura para el primer grupo.
Hay varios inductores de árboles de decisión descendentes, como ID3
[Quin-lan (1986)], C4. .5 [Quinlan (1993)], CART [Breiman et al.
(1984)]. Algunos inversores constan de dos fases conceptuales:
crecimiento y poda (C4.5 y CART). Otros inductores solo realizan la fase
de crecimiento. La Figura 2.1 presenta un pseudo código típico para un
algoritmo inductor de arriba hacia abajo.
Árboles de decisión creciente 19

30
rithm de un árbol de decisión usando crecimiento y poda. Tenga en
cuenta que estos
los ritmos son codiciosos por naturaleza y construyen el árbol de
decisiones de arriba hacia abajo,

manera recursiva (también conocida como dividir y conquistar). En cada


iteración, el
Algoritmo considera la partición del conjunto de entrenamiento
utilizando el resultado de
atributos de entrada discretos. La selección del atributo más apropiado
se hace de acuerdo con algunas medidas de división. Después de la
selección de un
división adecuada, cada nodo subdivide el conjunto de entrenamiento en
más pequeño
subconjuntos, hasta que se satisfaga un criterio de detención.
2.2 Criterios de parada
La fase de crecimiento continúa hasta que se desencadena un criterio de
detención. los

las siguientes condiciones son reglas de parada


comunes:
(1) Todas las instancias en el conjunto de
entrenamiento pertenecen a un único valor de y.
(2) Se ha alcanzado la profundidad máxima del árbol.
(3) El número de casos en el nodo terminal es menor
que el mínimo
número de casos para nodos principales.
(4) Si el nodo se dividió, el número de casos en uno o
más nodos secundarios

31
sería menor que el número mínimo de casos para los
nodos secundarios.
(5) El mejor criterio de división no es mayor que un
cierto umbral.

20 Minería de datos con árboles de decisión: teoría y aplicaciones

TreeGrowing (S, A, y, SplitCriterion, StoppingCriterion)


Dónde:
S - Conjunto de entrenamiento
A - Conjunto de características de entrada
y - Función objetivo
SplitCriterion: el método para evaluar una determinada división
StoppingCriterion: los criterios para detener el proceso de crecimiento
Cree un nuevo árbol T con un único nodo raíz.
IF StoppingCriterion (S) ENTONCES
Marque T como una hoja con más
valor común de y en S como etiqueta.
MÁS
∀ai ∈ A buscar un que obtenga el mejor SplitCriterion (ai, S).
Etiqueta t con a
PARA cada resultado vi de a:
Set Subtreei = TreeGrowing (σa = viS, A, y).
Conecte el nodo raíz de tT a Subtreei con
un borde que está etiquetado como vi

32
FIN PARA
TERMINARA SI
RETURN TreePruning (S, T, y)
TreePruning (S, T, y)
Dónde:
S - Conjunto de entrenamiento
y - Función objetivo
T - El árbol a ser podado
HACER
Seleccione un nodo t en T tal que lo pode
mejorar al máximo algunos criterios de evaluación
SI t = Ø ENTONCES T = podado (T, t)
HASTA t = Ø
VOLVER T
Fig. 2.1 Marco algorítmico descendente para la inducción de árboles de
decisión.

Capítulo 3

Evaluación de los árboles de clasificación

3.1 Descripción general


Un problema importante en el proceso de KDD es el desarrollo de
indicadores para evaluar la calidad de los resultados del análisis. En este
capítulo
introducir los conceptos principales y los criterios de calidad en la
evaluación de los árboles de decisión.

33
La evaluación del desempeño de un árbol de clasificación es una
aspecto del aprendizaje automático. Como se indicó anteriormente, el
inductor del árbol de decisiones recibe

un conjunto de entrenamiento como entrada y construye un árbol de


clasificación que puede clasificar
una instancia no vista. Tanto el árbol de clasificación como el inductor
pueden ser

evaluado utilizando los criterios de evaluación. La evaluación es


importante para
de pie la calidad del árbol de clasificación y para refinar parámetros en

el proceso iterativo KDD


Si bien hay varios criterios para evaluar el rendimiento predictivo
de árboles de clasificación, otros criterios como la complejidad
computacional
o la comprensibilidad del clasificador generado puede ser importante
como
bien.

3.2 Error de generalización

Deje que DT (S) represente un árbol de clasificación entrenado en el


conjunto de datos S. La generación
error de alización de DT (S) es su probabilidad de clasificar
erróneamente una instancia seleccionada

34
de acuerdo con la distribución D del espacio de instancia etiquetado. La
clasificación
La precisión de catión de un árbol de clasificación es uno menos el error
de generalización.

El error de entrenamiento se define como el porcentaje de ejemplos en


el entrenamiento
establecido correctamente clasificado por el árbol de clasificación,
formalmente:

21

Copyright © 2008. World Scientific. Todos los derechos reservados. No


puede reproducirse de ninguna forma sin el permiso del editor, excepto
en los usos legítimos permitidos en EE. UU. O
derecho de autor aplicable.

22 Minería de datos con árboles de decisión: teoría y aplicaciones

ε (DT (S), S) =
x, y∈S
L (y, DT (S) (x)) (3.1)

donde L (y, DT (S) (x)) es la función de pérdida cero-uno definida en la


Ecuación 2.2.
En este libro, la precisión de la clasificación es el criterio de evaluación
principal
para experimentos.
Aunque el error de generalización es un criterio natural, su valor real es

35
conocido solo en casos raros (principalmente casos sintéticos). La razón
de eso es
que la distribución D del espacio de instancia etiquetado no se conoce.
Uno puede tomar el error de entrenamiento como una estimación de la
generalización
error. Sin embargo, usar el error de entrenamiento como se suele
proporcionar una
estimación optimista sesgada, especialmente si el inductor se ajusta
demasiado al entrenamiento
datos. Hay dos enfoques principales para estimar la generalización
error: teórico y empírico En este libro, utilizamos ambos enfoques.

3.2.1 Estimación teórica del error de generalización


Un error de entrenamiento bajo no garantiza un error de generalización
bajo. Ahi esta
a menudo una compensación entre el error de entrenamiento y la
confianza asignada a
el error de entrenamiento como predictor del error de generalización,
medido por
la diferencia entre la generalización y los errores de entrenamiento. La
capacidad
del inductor es un factor importante para determinar el grado de
confianza
en el error de entrenamiento En general, la capacidad de un inductor
indica la
variedad de clasificadores que puede inducir. La dimensión VC que se
presenta a continuación puede
ser utilizado como una medida de la capacidad de los inductores.
Árboles de decisión con muchos nodos, relativos al tamaño del
entrenamiento
establecer, es probable que obtenga un bajo error de entrenamiento.
Por otro lado, ellos

36
podría ser simplemente memorizar o sobreajustar los patrones y por lo
tanto exhibir
una pobre capacidad de generalización. En tales casos, es probable que
el bajo error sea
un mal predictor del mayor error de generalización. Cuando lo opuesto
ocurre, es decir, cuando la capacidad es demasiado pequeña para la
cantidad dada de
ejemplos, los inductores pueden subestimar los datos y exhibir un
entrenamiento deficiente
y error de generalización.

En "Matemáticas de generalización", [Wolpert (1995)] discuten cuatro:


marcos éticos para estimar el error de generalización: PAC, VC y

Bayesiano y física estadística. Todos estos marcos combinan la


capacitación
error (que se puede calcular fácilmente) con alguna función de
penalización que expresa
la capacidad de los inductores.
Copyright © 2008. World Scientific. Todos los derechos reservados. No
puede reproducirse de ninguna forma sin el permiso del editor, excepto
en los usos legítimos permitidos en EE. UU. O
derecho de autor aplicable.

Evaluación de los árboles de clasificación 23

3.2.2 Estimación empírica del error de generalización


Otro enfoque f o estimar el error de generalización es el método de
retención en el cual el conjunto de datos dado se divide aleatoriamente
en dos conjuntos: conjuntos de entrenamiento y prueba. Por lo general,

37
dos tercios de los datos se consideran para el conjunto de
entrenamiento y los datos restantes se asignan al conjunto de prueba.
En primer lugar, el inductor utiliza el conjunto de entrenamiento para
construir un clasificador adecuado y luego medimos la tasa de
clasificación errónea de este clasificador en el conjunto de prueba. El
error establecido en el sistema generalmente proporciona una mejor
estimación de la generalización que el error de entrenamiento. La razón
de esto es el hecho de que el genio del tren usualmente subestima el
error de generalización (debido a los fenómenos de sobreajuste). Sin
embargo, dado que solo una proporción de los datos se utiliza para
derivar el modelo, la estimación de la precisión tiende a ser pesimista.
Se puede utilizar una variación del método de retención cuando los
datos son limitados. Es una práctica común volver a muestrear los
datos, es decir, particionar los conjuntos de datos y pruebas de datos de
diferentes maneras. Un inductor se entrena y se prueba para cada
partición y se promedian las precisiones. Al hacer esto, se proporciona
un estimado más confiable del verdadero error de generalización del
inductor. El submuestreo aleatorio y la validación cruzada de n veces
son dos métodos comunes de remuestreo. En submuestreo aleatorio, los
datos se dividen aleatoriamente varias veces en conjuntos de prueba y
entrenamiento disjuntos. Los errores obtenidos de cada partición son
promediados. En la validación cruzada de n veces, los datos se dividen
aleatoriamente en n subconjuntos mutuamente excluyentes de
aproximadamente igual. Un inductor se entrena y prueba n veces; cada
vez que se prueba en uno de los k pliegues y se entrena usando los n -
1 pliegues restantes.La estimación de validación cruzada del error de
generalización es el número total de errores de clasificación dividido por
el número de ejemplos en los datos. El método de submuestreo
aleatorio tiene el ventaja de que puede repetirse una cantidad indefinida
de veces. Sin embargo, una desventaja es que los conjuntos de prueba
no se dibujan independientemente con respecto a la distribución
subyacente de los ejemplos. Debido a esto, el uso de una prueba t para
las diferencias emparejadas con randomsubsampling puede conducir a
una mayor probabilidad de error de tipo I, es decir, identificar una
diferencia significativa cuando en realidad no existe. El uso de una
prueba t en el error de generalización producido en cada pliegue reduce
las posibilidades de error de tipo I, pero puede no dar una estimación
estable del error de generalización. Es una práctica común repetir n
veces la validación cruzada n veces para proporcionar una estimación
estable. Sin embargo, esto, por supuesto, hace que la prueba no sea
independiente y aumenta las posibilidades de error de tipo I.

38
Desafortunadamente, no hay una solución satisfactoria a este problema.
Pruebas alternativas sugeridasCopyright © 2008. World Scientific. Todos
los derechos reservados. No puede ser reproducido en ninguna forma
sin el permiso del editor, excepto usos justos permitidos bajo la ley de
derecho de autor aplicable de los Estados Unidos. tienen una baja
probabilidad de error de tipo I pero una mayor posibilidad de error de
tipo II es no poder identificar una diferencia significativa cuando uno
realmente existe. La estratificación es un proceso que se aplica a
menudo durante el submuestreo aleatorio y la validación cruzada en n.
La estratificación garantiza que la distribución de clase de todo el
conjunto de datos se conserve en los conjuntos de entrenamiento y
prueba. Se ha demostrado que la estratificación ayuda a reducir la
varianza de los errores estimados, especialmente para conjuntos de
datos con muchas clases. Otra variación de validación cruzada es el
método bootstraping que es una validación cruzada n veces, con n
establecido en el número de muestras iniciales. Itsamples las instancias
de entrenamiento uniformemente con reemplazo y leave-one-out. En
cada iteración, el clasificador se entrena en el conjunto de n - 1
muestras que se selecciona al azar del conjunto de muestras iniciales, S.
La prueba se realiza utilizando el subconjunto restante.3.2.3
Alternativas a la Medida de precisión La precisión no es una medida
suficiente para evaluando un modelo con una distribución imbalizada de
la clase. Hay casos en que la estimación de la tasa de precisión puede
inducir a error sobre la calidad de un clasificador derivado. En tales
circunstancias, cuando el conjunto de datos contiene mucha más clase
importante que las instancias de clase minoritaria, siempre se puede
seleccionar la clase mayoritaria y obtener un buen rendimiento de
precisión. Por lo tanto, en estos casos, las medidas de sensibilidad y
especificidad pueden usarse como una alternativa a las medidas de
precisión [Han y Kamber (2001)]. La sensibilidad (también conocida
como recuerdo) evalúa qué tan bien el clasificador puede reconocer
muestras positivas y se define como Sensibilidad = verdadero
positivopositivo (3.2) donde verdadero positivo corresponde al número
de t Las muestras verdaderas positivas y positivas son el número de
muestras positivas. La especificidad mide qué tan bien el clasificador
puede reconocer muestras negativas. Se define como Especificidad =
verdadero negativo negativo verdadero negativo corresponde al número
del negativo verdadero examen-ples y negativa el número de muestras
eso es negativo. Otra medida de rendimiento conocida es la precisión.
La precisión mide cuántos ejemplos clasificados como clase "positiva"
son efectivamente "positivos". Esta medida es útil para evaluar los

39
clasificadores nítidos que se utilizan para clasificar un conjunto de datos
completo. Formalmente: P recision = true positivetrue positivo + f alse
positivo (3,4) Sobre la base de las definiciones anteriores la exactitud se
puede definir como una sensibilidad funciónde y especificidad: Precisión
= Sensibilidad · positivepositive + negativo iCity + Specif · negative
positive + negativo (3,5) 3,2 .4 La Medida F Por lo general, hay una
compensación entre las medidas de precisión y recuperación. Tratar de
mejorar una medida a menudo resulta en un deterioro de la segunda
medida. La Figura 3.1 ilustra un gráfico típico de recuperación de
precisión. Este gráfico bidimensional está estrechamente relacionado
con los gráficos bien conocidos de características de funcionamiento del
receptor (ROC) en los que la tasa positiva real (recall) se traza en el eje
Y y la tasa de falsos positivos se traza en el eje X [ Ferriet al. (2002)].
Sin embargo, a diferencia del gráfico de recuperación de precisión, el
diagrama ROC siempre es convexo.PrecisionRecallFig. 3.1 Un diagrama
de recuperación de precisión típico. Dado un clasificador probabilístico,
este gráfico de compensación puede obtenerse estableciendo diferentes
valores de umbral. En un problema de clasificación binaria, Minería de
datos con árboles de decisión: teoría y aplicaciones
clasificador prefiere la clase "no pasar" sobre la clase "pase" si la
probabilidad
para "no pasar" es al menos 0.5. Sin embargo, estableciendo un umbral
diferente
valor distinto de 0.5, se puede obtener el gráfico de compensación.
El problema aquí se describe como toma de decisiones multicriterio
(MCDM). El método más simple y más utilizado para resolver

MCDM es el modelo de suma ponderada. Esta técnica combina el criterio


ria en un único valor utilizando la ponderación adecuada. Los principios
básicos
detrás de esta técnica está la suposición de utilidad aditiva. El criterio

las medidas deben ser numéricas, comparables y expresarse en la


misma unidad.

40
Sin embargo, en el caso discutido aquí, la media aritmética puede
inducir a error.
En cambio, la media armónica proporciona una mejor noción de
"promedio". Más
específicamente, esta medida se define como [Van Rijsbergen (1979)]:

F=2·P·R
P + R (3.6)
La intuición detrás de la medida F se puede explicar usando la Figura
3.2.
La figura 3.2 presenta un diagrama de una situación común en la que el
derecho
elipsoide representa el conjunto de todos los lotes defectuosos y el
elipsoide izquierdo
representa el conjunto de todos los lotes que fueron clasificados como
defectuosos por un cierto
clasificador. La intersección de estos conjuntos representa el verdadero
positivo (TP),
mientras que las partes restantes representan falso negativo (FN) y
falso positivo
(FP). Una forma intuitiva de medir la adecuación de un cierto clasificador
es medir en qué medida coinciden los dos conjuntos, es decir, para
medir el
tamaño del área sin sombrear. Dado que el tamaño absoluto no es
significativo,
debe normalizarse calculando el área proporcional. Este valor es
la medida F:

Proporción de área sin sombrear =


2 · (T rue P ositivo)

41
Por favor P ositivo + F alse N egativo + 2 · (T rue P ositve) = F (3.7)
La medida F puede tener valores entre 0 y 1. Obtiene su valor más alto
valor cuando los dos conjuntos presentados en la Figura 3.2 son
idénticos y obtiene
su valor más bajo cuando los dos conjuntos son mutuamente
excluyentes. Tenga en cuenta que cada

señalar en la curva de recuperación de precisión puede tener una F-


medida diferente. Pelaje-
Además, los diferentes clasificadores tienen diferentes gráficos de
recuperación de precisión.

Evaluación de los árboles de clasificación 27

Fig. 3.2 Una explicación gráfica de la medida F.

3.2.5 Matriz de confusión

La matriz de confusión se usa como una indicación de las propiedades


de una clase
regla de ficación (discriminante). Contiene la cantidad de elementos que
tienen

ha sido clasificado correcta o incorrectamente para cada clase. Podemos


ver en su principal
diagonal el número de observaciones que se han clasificado
correctamente para
cada clase; los elementos fuera de diagonal indican el número de
observaciones
que han sido clasificados incorrectamente Un beneficio de una matriz de
confusión es

42
que es fácil ver si el sistema está confundiendo dos clases (es decir,
comúnmente
etiquetar mal uno como otro).
Para cada instancia en el conjunto de prueba, comparamos la clase real
con el
clase que fue asignada por el clasificador entrenado. Un positivo
(negativo)
ejemplo que está clasificado correctamente por el clasificador se llama
un verdadero positivo
(verdadero negativo); un ejemplo positivo (negativo) que está
incorrectamente clasificado
se llama falso negativo (falso positivo). Estos números se pueden
organizar
en una matriz de confusión que se muestra en la Tabla 3.1.
Tabla 3.1 Una matriz de confusión
Predicho
negativo

Predicho
positivo

Negativo
Ejemplos

AB

Positivo
Ejemplos

43
DISCOS COMPACTOS

Con base en los valores en la Tabla 3.1, uno puede calcular todas las
medidas

• La precisión es: (a + d) / (a + b + c + d)
• La tasa de clasificación incorrecta es: (b + c) / (a + b + c + d)
• La precisión es: d / (b + d)
• Tasa positiva real (recuperación) es: d / (c + d)
• La tasa de falsos positivos es: b / (a + b)
• Tasa negativa verdadera (especificidad) es: a / (a + b)
• La tasa negativa negativa es: c / (c + d)
3.2.6 Evaluación del clasificador bajo recursos limitados

Las medidas de evaluación mencionadas anteriormente son insuficientes


cuando
clasificadores tic se utilizan para chElegir objetos para ser incluidos en
una cuota limitada. Esta es una situación común que surge en las
aplicaciones de la vida real debido a limitaciones de recursos que
requieren consideraciones de costo-beneficio. Las limitaciones de
recursos impiden que la organización elija todas las instancias. Por
ejemplo, en las aplicaciones de marketing directo, en lugar de enviar a
todos los miembros de la lista, los esfuerzos de marketing deben
implementar una cuota limitada, es decir, dirigirse a la audiencia de
correo con la mayor probabilidad de responder positivamente a la oferta
de marketing sin exceder el presupuesto de marketing. ejemplo trata
con un oficial de seguridad en una terminal aérea. Después del 11 de
septiembre, el oficial de seguridad debe buscar a todos los pasajeros
que lleven instrumentos peligrosos (como tijeras, navajas y hojas de
afeitar). Para este propósito, el oficial está utilizando un clasificador que
es capaz de clasificar a cada pasajero como clase A, lo que significa
"llevar instrumentos peligrosos" o como clase B, "seguro". Suponer que
buscar a un pasajero es una tarea que consume mucho tiempo y que el
oficial de seguridad es capaz de verificar solo 20 pasajeros antes de

44
cada vuelo. Si el clasificador ha etiquetado exactamente 20 pasajeros
como clase A, entonces el oficial revisará a todos estos pasajeros. Sin
embargo, si el clasificador ha etiquetado a más de 20 pasajeros como
clase A, entonces el oficial debe decidir qué pasajero de clase A debe
ignorarse. Por otro lado, si menos de 20 personas fueron clasificadas
como A, el oficial, que debe trabajar constantemente, debe decidir quién
controlará a los clasificados como B después de haber terminado con los
pasajeros de clase A. También hay casos en los que una limitación de
cuota es se sabe que existe, pero su tamaño no se conoce de antemano.
Sin embargo, el responsable de la toma de decisiones desea evaluar el
rendimiento esperado del clasificador. Dichos casos ocurren, Copyright
© 2008. World Scientific. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto usos
justos permitidos bajo la ley de derecho de autor aplicable de los
Estados Unidos. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/6/2018 10:15 PM a través de UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 236037; Rokach, Lior,
Maimon, Oded Z ...; Minería de datos con árboles de decisión: teoría y
aplicacionesCuenta: ns145102November 7, 2007 13:10 WSPC / Book
Trim Size for 9in x 6in DataMiningEvaluation of Classification Trees 29
por ejemplo, en algunos países con respecto al número de estudiantes
de pregrado que pueden ser aceptados en un cierto departamento en
una universidad estatal. La cuota real para un año determinado se
establece de acuerdo con diferentes parámetros, incluido el presupuesto
gubernamental. En este caso, el responsable de la toma de decisiones
desea evaluar varios clasificadores para seleccionar a los solicitantes sin
conocer el tamaño real de la cuota. Encontrar el clasificador más
apropiado por adelantado es importante porque el clasificador elegido
puede dictar cuáles son los atributos de importación, es decir, la
información que el solicitante debe proporcionar a la unidad de admisión
y registro. En los clasificadores probabilísticos, las definiciones de
precisión y recuerdo mencionadas anteriormente pueden extenderse y
definirse como función de una probabilidad de umbral τ. Si evaluamos
un clasificador basado en un conjunto de prueba dado que consiste en n
casos denotados como (<x1, y1>, ..., <xn, yn>) tal que xi representa el
vector de características de entrada de la instancia i y yi representa su
clase verdadera ("positiva" o "negativa"), entonces: Precisión (τ) =
{<xi, yi>: PDT (pos | xi)> τ, yi = pos} {<xi, yi>: PDT ( pos | xi)> τ
(3.8) Recuperar (τ) = {<xi, yi>: PDT (pos | xi)> τ, yi = pos} | {<xi,
yi>: yi = pos} | (3.9) donde DT representa un clasificador probabilístico
que se utiliza para estimar la probabilidad condicional de una

45
observación xi a "positiva" que se denota como PDT (pos | xi). El valor
de umbral típico de 0.5 significa que la probabilidad predicha de
"positivo" debe ser mayor que 0.5 para que la instancia se predice como
"positiva". Al cambiar el valor de τ, se puede controlar el número de
instancias que se clasifican como "positivas". Por lo tanto, el valor τ
puede ajustarse al tamaño de cuota requerido. Sin embargo, debido a
que podría haber varias instancias con la misma probabilidad
condicional, el tamaño de la cuota no se incrementa necesariamente en
uno. La discusión anterior se basa en la suposición de que el problema
de clasificación es binario. En los casos en que hay más de dos clases, la
adaptación se puede hacer fácilmente comparando una clase con todas
las demás. La Figura 3.3 ilustra una curva ROC en la cual el eje X
representa una tasa de falso positivo y el eje Y representa una tasa
positiva verdadera. El punto ideal en la curva ROC sería (0,100), es
decir, todos los ejemplos positivos se clasifican correctamente y ningún
ejemplo negativo se clasifica como positivo. Verdadero positivo, tasa
positiva positiva 0,8 0,6 0,4 0,210.80.60.4Fig. 3.3 Una curva ROC típica.
El casco convexo ROC también se puede usar como un método robusto
para identificar clasificadores potencialmente óptimos [Provost y Fawcett
(2001)]. La familia Givena de curvas ROC, el casco convexo ROC puede
incluir puntos que están más hacia la frontera noroccidental del espacio
ROC. Si una línea pasa a través de un punto en el casco convexo,
entonces no hay otra línea con la pendiente samesca pasando por otro
punto con un intercepto más grande verdadero positivo (TP). Por lo
tanto, el clasificador en ese punto es óptimo bajo cualquier suposición
de distribución en conjunto con esa pendiente.3.2.6.2 Curva de tasa de
acierto La curva de acierto presenta la proporción de aciertos en función
del tamaño de la cuota [Anand Wang (2001)]. La tasa de aciertos se
calcula contando las instancias reales etiquetadas positivas dentro de
una cuota determinada. Más precisamente para una cuota de tamaño j y
un conjunto clasificado de instancias, la tasa de aciertos se define como:
30 Minería de datos con árboles de decisión: teoría y aplicaciones
3.2.6.1 Curvas ROC
Otra medida son las curvas de característica operativa del receptor
(ROC)
que ilustran la compensación entre las tasas de verdadero positivo a
falso positivo

46
[Provost y Fawcett (1998)]. La Figura 3.3 ilustra una curva ROC en la
cual
el eje X representa una tasa de falsos positivos y el eje Y representa un
verdadero
tasa positiva El punto ideal en la curva ROC sería (0,100), es decir,
todos los ejemplos positivos se clasifican correctamente y no hay
ejemplos negativos
mal clasificado como positivo.

Verdadero positivo
tarifa

Falso
positivo
tasa 1 0,8 0,6 0,4 0,2
1
0.8
0.6
0.4

Fig. 3.3 Una curva ROC típica.

El casco convexo ROC también se puede utilizar como un método


robusto de identificación
fying clasificadores potencialmente óptimos [Provost y Fawcett (2001)].
Dado

una familia de curvas ROC, el casco convexo ROC puede incluir puntos
que son

47
más hacia la frontera noroccidental del espacio ROC. Si pasa una línea
a través de un punto en el casco convexo, entonces no hay otra línea
con el mismo

pendiente pasando por otro punto con una interacción positiva


verdadera (TP) más grande
cept. Por lo tanto, el clasificador en ese punto es óptimo bajo cualquier
distribución

suposiciones en conjunto con esa pendiente.

3.2.6.2 Curva de frecuencia de aciertos


La curva de frecuencia de aciertos presenta la proporción de aciertos en
función del tamaño de la cuota [An
y Wang (2001)]. La tasa de aciertos se calcula contando los positivos
reales
instancias etiquetadas dentro de una cuota determinada. Más
precisamente para una cuota de
tamaño j y un conjunto clasificado de instancias, la tasa de aciertos se
define como:

Evaluación de los árboles de clasificación 31

HitRate (j) =

j
k=1
t
[k]
j (3.10)

48
donde T
[k] representa el resultado verdaderamente esperado de la instancia
ubicada en

la posición k cuando las instancias se ordenan de acuerdo con sus


condiciones
probabilidad regional de "positivo" por orden descendente. Tenga en
cuenta que si el k'th

posición se puede definir de forma única (es decir, hay exactamente una
instancia que puede
estar ubicado en esta posición) luego t

[k] es 0 o 1 dependiendo de la real


resultado de esta instancia específica. Sin embargo, si la posición k no
es
definido de forma única y hay mk, 1 instancias que se pueden ubicar en
este
posición, y mk, 2 de los cuales son realmente positivos, entonces:

t
[k] = mk, 2 / mk, 1 (3.11)

La suma de t

[k] en todo el conjunto de pruebas es igual al número de instancias


que están etiquetados como "positivo". Además Hit - Rate (j) ≈ P
recisión (p [j]
)

49
donde p [j] denota el j-ésimo orden de PI (pos | x1), ..., PI (pos | xm).
Los valores
son estrictamente iguales cuando el valor de j 'th está definido de
manera única.

Cabe señalar que la medida de la tasa de aciertos se definió


originalmente con:
cualquier referencia a la singularidad de una determinada posición. Sin
embargo, hay

son algunos clasificadores que tienden a proporcionar la misma


probabilidad condicional
a varias instancias diferentes. Por ejemplo, en un árbol de decisiones,
cualquier instancia

en el conjunto de prueba que pertenece a la misma hoja obtenga el


mismo problema condicional
capacidad. Por lo tanto, la corrección propuesta es necesaria en esos
casos. Figura 3.4

ilustra una curva de golpe.


Frecuencia de aciertos [%]

500 400 300 200 100 Cuota


100
80
60
40

Fig. 3.4 Una curva de golpe típica.

50
3.2.6.3 Qrecall (retiro de cuota)
La medida de éxito, presentada anteriormente, es el equivalente de
"precisión" para
problemas de cuota limitada. Del mismo modo, sugerimos el Qrecall
(para recordar cuotas)
ser el equivalente de "recuperación" para problemas de cuota limitada.
El Qrecall para
una determinada posición en una lista clasificada se calcula dividiendo el
número de
instancias positivas, desde el encabezado de la lista hasta esa posición,
por el total
instancias positivas en todo el conjunto de datos. Por lo tanto, el Qrecall
para una cuota de j
Se define como:

Qrecall (j) =

j
k=1
t [k]
n + (3.12)

El denominador representa la cantidad total de instancias clasificadas


sified como positivo en todo el conjunto de datos. Formalmente se
puede calcular como:

n + = | {<xi, yi>: yi = pos} | (3.13)

3.2.6.4 Curva de elevación

51
Un método popular para evaluar modelos probabilísticos es lift [Coppock
(2002)]. Después de que un conjunto de prueba clasificado se divide en
varias porciones (generalmente sin errores), la elevación se calcula de la
siguiente manera: la proporción de instancias realmente positivas en un
decil específico se divide por la proporción promedio de instancias
realmente positivas en la población. Independientemente de cómo se
divide el conjunto de prueba, se logra un buen modelo si el ascensor
disminuye al avanzar al final de la lista de puntaje. Un buen modelo
presentaría un levantamiento mayor a 1 en los deciles superiores y un
levantamiento menor que 1 en los últimos deciles. La Figura 3.5 ilustra
una tabla de levantamiento para una predicción típica del modelo. Se
puede hacer una comparación entre modelos mediante la comparación
del levantamiento de las partes superiores, según los recursos
disponibles y las consideraciones de costo / beneficio.3.2.6.5 Coeficiente
de correlación de Pearson. También hay algunas medidas estadísticas
que pueden usarse como evaluadores de rendimiento de los modelos.
Estas medidas son bien conocidas y se pueden encontrar en muchos
libros de estadísticas. En esta sección examinamos el coeficiente de
correlación de Pearson. Esta medida se puede utilizar para encontrar la
correlación entre la probabilidad condicional estimada ordenada (p [k])
y el autor real ordenado © 2008. World Scientific. Todos los derechos
reservados. No puede ser reproducido en ninguna forma sin el permiso
del editor, excepto usos justos permitidos bajo la ley de derecho de
autor aplicable de los Estados Unidos. Publicación de EBSCO: Colección
de libros electrónicos (EBSCOhost) - impreso el 9/6/2018 10:15 PM a
través de UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN :
236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos con árboles
de decisión: teoría y aplicacionesCuenta: ns145102November 7, 2007
13:10 WSPC / Book Trim Size for 9in x 6in DataMiningEvaluation of
Classification Trees 331086421 2 3 4 5 6 7 8 9 DecilesLiftFig. 3.5 Un
diagrama de levantamiento típico. Resultado esperado (t [k]). Un
coeficiente de correlación de Pearson puede tener cualquier valor entre -
1 y 1, donde el valor 1 representa la correlación positiva más fuerte.
Cabe señalar que esta medida tiene en cuenta no solo el lugar ordinal de
una instancia, sino también su valor (es decir, la probabilidad estimada
que se le atribuye). El coeficiente de correlación de Pearson para dos
variables de ran-dom se calcula dividiendo la co-varianza por el
producto de ambas desviaciones estándar. En este caso, las
desviaciones estándar de las dos variables suponiendo un tamaño de
cuota de j son: σp (j) = 1jji = 1p [i] - p ̄ (j); σt (j) = 1jji = 1t [i] - t ̄ (j)
(3.14) donde ̄p (j), t ̄ (j) representan el promedio de p [i] 's yt [i]' s,

52
respectivamente: p ̄ (j) = ji = 1p [i] j; t ̄ (j) = ji = 1t [i] j = HitRate (j)
(3.15) La covarianza se calcula de la siguiente manera: Covp, t (j) =
1jji-1p [i] - p ̄ (j) t [i] - t ̄ (j) (3.16) Por lo tanto, el coeficiente de
correlación de Pearson para una cuota j, es: p, t (j) = Covp, t (j) σp ( j)
· σt (j) (3.17) 3.2.6.6 Área bajo curva (AUC) Evaluar un modelo
probabilístico sin usar una cuota fija específica no es una tarea trivial. El
uso de medidas continuas como curvas de golpe, curvas ROC y gráficos
de elevación, mencionados anteriormente, es problemático. Dichas
medidas pueden dar una respuesta definitiva a la pregunta "¿Cuál es el
mejor modelo?" Solo si un modelo domina en el espacio de la curva, lo
que significa que las curvas de todos los otros modelos están debajo o
iguales a él en todo el espacio del gráfico. Si el modelo aditivo no existe,
entonces no hay respuesta a esa pregunta, utilizando solo las medidas
continuas mencionadas anteriormente. El orden completo no requiere
intersecciones de las curvas. Por supuesto, en la práctica casi nunca hay
un modelo dominante. La mejor respuesta que se puede obtener es
respecto a qué áreas un modelo supera a los demás. Como se muestra
en la Figura 3.6, cada modelo obtiene diferentes valores en diferentes
áreas. Si se necesita un orden completo del rendimiento del modelo, se
debe utilizar otra medida.Verdadero positivoFalso positivo0,2 0,4 0,8 0,8
110.80.60.40.2Fig. 3.6 Áreas de dominancia. Una curva ROC es un
ejemplo de una medida que proporciona un área de dominancia y no un
orden completo de los modelos. En este ejemplo, el modelo de línea
igualmente codificado es el mejor para f.p (falso positivo) <0.2. El
modelo de línea completa es el mejor para 0.2 <f.p <0.4. El modelo de
línea punteada es el mejor para 0.4 <fp <0.9 y de 0.9 a 1 nuevamente
el modelo de línea discontinua es el mejor. El área bajo la curva ROC
(AUC) es una medida útil para el rendimiento del clasificador ya que es
independiente de la decisión criterio seleccionado y Copyright anterior..
La comparación AUC puede establecer una relación de dominancia entre
clasificadores. Si las curvas ROC se cruzan, el AUC total es una
comparación promedio entre los modelos [Lee (2000)]. Cuanto más
grande es, mejor es el modelo. A diferencia de otras medidas, el área
bajo la curva de RRO (AUC) no depende del desequilibrio del conjunto
de entrenamiento [Kolcz (2003)]. Por lo tanto, la comparación del AUC
de dos clasificadores es más adecuada y más informativa que la
comparación de sus tasas de clasificación errónea.3.2.6.7 Tasa de
acierto promedioLa tasa de acierto promedio es un promedio ponderado
de todos los valores de aciertos. Si el modelo es óptimo, entonces todas
las instancias realmente positivas se ubican en la parte superior de la
lista clasificada, y el valor de la tasa de acierto promedio es 1. El uso de

53
esta medida se ajusta a una organización que necesita minimizar el
error estadístico tipo II (es decir, incluir un determinado objeto en la
cuota aunque, de hecho, este objeto se etiquetará como "negativo").
Formalmente, la tasa de aciertos promedio para problemas de
clasificación binaria se define como: AverageHitRate = nj = 1t [j] ·
HitRate (j) n + (3.18) donde t [j] se define como en la ecuación 4 y se
usa como un factor de ponderación. No es que la tasa de acierto
promedio ignore todos los valores de frecuencia de aciertos en
posiciones únicas que realmente están etiquetadas como clase
"negativa" (porque t [j] = 0 en estos casos) .3.2.6.8 Promedio Qrecall
Promedio Qrecall es el promedio de todos los Qrecalls que se extiende
desde laposición que es igual al número de instancias positivas en el
conjunto de pruebas al final de la lista. Qrecall promedio se ajusta a una
organización que necesita minimizar el error estadístico de tipo I (es
decir, no incluye un determinado objeto en la cuota, aunque de hecho
este objeto se etiquetará como "positivo"). Formalmente, el promedio
de Qrecall se define como: nj = n + Qrecall ( j) n - (n + - 1) (3.19)
donde n es el número total de instancias y n + se define en la ecuación
(3.13).
36 Minería de datos con árboles de decisión: teoría y aplicaciones

La Tabla 3.2 ilustra el cálculo del promedio de Qrecall y el promedio de


tasa para un conjunto de datos de diez instancias. La tabla presenta una
lista de instancias

en orden descendente según su probabilidad condicional prevista de


ser clasificado como "positivo". Debido a que todas las probabilidades
son únicas, la tercera
columna (t
[k]
) indica la clase real ("1" representa "positivo" y "0")
representa "negativo"). Los valores promedio son promedios algebraicos
simples de
las celdas resaltadas

54
Tabla 3.2 Un ejemplo para calcular Promedio de llamadas y promedio
Hit-rate
Colocar en
lista (j)

Positivo

proba-
bilidad

t [k] Qrecall Frecuencia de aciertos

1 0.45 1 0.25 1
2 0,34 0 0,25 0,5
3 0.32 1 0.5 0.667
4 0.26 1 0.75 0.75
5 0.15 0 0.75 0.6
6 0.14 0 0.75 0.5
7 0.09 1 1 0.571
8 0.07 0 1 0.5
9 0.06 0 1 0.444
10 0.03 0 1 0.4
Promedio: 0.893 0.747

Tenga en cuenta que tanto el promedio de Qrecall como la tasa de


aciertos promedio obtienen el valor 1 en
una clasificación óptima, donde todas las instancias positivas se
encuentran en

55
el jefe de la lista. Este caso se ilustra en la Tabla 3.3. Un resumen de
las diferencias clave se proporcionan en la Tabla 3.4.
3.2.6.9 Medida de extracto potencial (PEM)
Para comprender mejor el comportamiento de las curvas de Qrecall,
considere los casos de
predicción aleatoria y predicción óptima.

Supongamos que no se aplicó ningún proceso de aprendizaje sobre los


datos y que la lista
Como predicción, la prueba se estableció en su orden original
(aleatorio).

En el supuesto de que las instancias positivas se distribuyen


uniformemente en

población, entonces una cuota de tamaño aleatorio contiene una


cantidad de insti-
ances que son proporcionales a la proporción a priori de instancias
positivas

en la población Por lo tanto, una curva Qrecall que describe una


distribución uniforme

Evaluación de los árboles de clasificación 37


Tabla 3.3 Qrecall y Hit-rate en una predicción óptima
Colocar en
lista (j)

Positivo

56
proba-
bilidad

t [k] Qrecall Frecuencia de aciertos

1 0.45 1 0.25 1
2 0.34 1 0. 5 1
3 0.32 1 0.75 1
4 0.26 1 1 1
5 0.15 0 1 0.8
6 0.14 0 1 0.667
7 0.09 0 1 0.571
8 0.07 0 1 0.5
9 0.06 0 1 0.444
10 0.03 0 1 0.4
Promedio: 1 1

Tabla 3.4 Características de Qrecall y Hit-rate


Parámetro Hit-rate Qrecall

Aumento de la función
ing / decreasing

Monotónicamente no monótono
plegado

Punto final Proporción de posición

57
muestras en el

conjunto

Sensibilidad de la
mide el valor de
instancias positivas

Muy sensible a
instancias positivas
en la parte superior de la
lista. Menos sensitivo
al bajar a
el fondo del
lista.

La misma sensibilidad a
instancias positivas
en todos los lugares en el
lista.

Efecto de negativo

clase en la mea-
Por supuesto

58
Un neg-
instancia ative
Fects la medida

y causa su valor
disminuir.

Un instinto negativo
ances no
fect la medida.

Rango 0≤ tasa de golpe ≤1 0≤ Qrecall ≤1

ción (que puede considerarse como un modelo que predice, así como un
azar
adivinar, sin ningún aprendizaje) es una línea lineal (o semi-lineal
porque los valores
son discretos) que comienza en 0 (para el tamaño de cuota cero) y
termina en 1.
Supongamos ahora que un modelo dio una predicción óptima, lo que
significa que
todas las instancias positivas se encuentran al principio de la lista y
debajo de ellas, todas
las instancias negativas. En este caso, la curva Qrecall sube linealmente
hasta
se alcanza un valor de 1 en el punto n + (n + = número de muestras
positivas).
A partir de ese punto, cualquier cuota que tenga un tamaño mayor que
n +, extrae completamente

59
potencial del conjunto de prueba y el valor 1 se mantiene hasta el final
de la lista.
Tenga en cuenta que un "buen modelo", que supera la clasificación
aleatoria,
aunque no es óptimo, caerá "en promedio" entre estas dos curvas.
Puede caer a veces debajo de la curva aleatoria, pero en general, más
área es
delineado entre la curva de "buen modelo" y la curva aleatoria, arriba
el último que debajo de él. Si lo opuesto es cierto, entonces el modelo
es "malo"
modelo "que lo hace peor que una suposición al azar".
La última observación nos lleva a considerar una medida que evalúa el

perforde un modelo al sumar las áreas delineadas entre la curva Qre-call


del modelo examinado y la curva Qrecall de un modelo aleatorio (que es
lineal). Se añaden las áreas por encima de la curva lineal y las áreas por
debajo de la curva lineal se restan. Las áreas mismas se calculan
restando el Qrecall de una clasificación aleatoria del Qrecall de la
clasificación del modelo en cada punto como se muestra en la Figura
3.7. Las áreas donde el modelo se desempeñó mejor que una
estimación aleatoria aumentan el valor de la medida mientras que las
áreas donde el modelo se desempeñó peor que las predicciones
aleatorias lo disminuyen. Si el último área calculada total se divide en el
área delineada entre la curva óptima de retorno del modelo Q y la curva
de retorno de modelo aleatorio (lineal), entonces alcanza el grado en
que se extrae el potencial, independientemente del número de
instancias en el conjunto de datos. Formalmente, la medida PEM se
calcula como: PEM = S1 - S2S3 (3.20) donde S1 es el área delimitada
por la curva Qrecall del modelo examinado en la curva Qrecall de un
modelo aleatorio; S2 es el área delimitada por la curva de recuperación
del modelo examinado bajo la curva Qrecall de un modelo aleatorio; y
S3 es el área delimitada por la curva Qrecall óptima y la curva del
modelo aleatorio. La división en S3 es necesaria para tonormalizar la
medida, por lo que se pueden comparar conjuntos de datos de
diferentes tamaños. De esta forma, si el modelo es óptimo, entonces
PEM obtiene el valor 1. Si el modelo es tan bueno como una opción

60
aleatoria, entonces el PEM obtiene el valor 0. Si arroja el peor resultado
posible (es decir, coloca el resultado positivo) muestras al final de la
lista), entonces su PEM es -1. Según las anotaciones definidas
anteriormente, el PEM puede formularse como:. 3.7 Una representación
cualitativa de PEM.PEM = S1 - S2S3 = nj = 1qrecall (j) - jnn + j = 1 jn
++ n- - nj = 1 jn (3.21) = nj = 1 (qrecall (j)) - (n + 1) 2 (n ++ 1) 2 +
n- - (n + 1) 2 = nj = 1 (qrecall (j)) - (n + 1) 2n-2 (3.22) donde n-
indica el número de instancias que en realidad están clasificados como
"negativos". La Tabla 3.5 ilustra el cálculo de PEM para las instancias en
la Tabla 3.2. Tenga en cuenta que el Qrecall aleatorio no representa una
cierta realización, sino los valores esperados. El valor de respuesta
óptimo se calcula como si las instancias "positivas" se ubicaran en la
parte superior de la lista. Tenga en cuenta que el PEM se asemeja al
índice de Gini producido a partir de las curvas de Lorenz que aparecen
en economía cuando se trata de la distribución del ingreso. De hecho,
esta medida indica la diferencia entre la distribución de muestras
positivas en una predicción y la distribución uniforme. Tenga en cuenta
también que esta medida da una indicación de la elevación total de 3.5
Un ejemplo para calcular PEM para instancias de la tabla
3.2.PlaceinlistSuccessprobabilityt [ k]
ModelQrecallRandomQrecallOptimalQrecallS1 S2 S31 0.45 1 0.25 0.1
0.25 0.15 0 0.152 0.34 0 0.25 0.2 0.5 0.05 0 0.33 0.32 1 0.5 0.3 0.75
0.2 0 0.454 0.26 1 0.75 0.4 1 0.35 0 0.65 0.15 0 0.75 0.5 1 0.25 0 0.56
0.14 0 0.75 0.6 1 0.15 0 0.47 0.09 1 1 0.7 1 0.3 0 0.38 0.07 0 1 0.8 1
0.2 0 0.29 0.06 0 1 0.9 1 0.1 0 0.110 0.03 0 1 1 1 0 0 0 Total 1.75 0
3el modelo en cada punto. En cada tamaño de cuota, la diferencia entre
el llamado del modelo y el Qrecall de un modelo aleatorio expresa la
esperanza de extraer el potencial del conjunto de prueba debido al uso
en el modelo (para bien o para mal) .3.2.7 ¿Qué árbol de decisión
clasificador? es mejor? A continuación discutimos algunos de los
métodos estadísticos más comunes propuestos [Dietterich (1998)] para
responder a la siguiente pregunta: dado dos inductores A y B y un
conjunto de datos S, que inductor producirá clasificadores más precisos
cuando se entrene en conjuntos de datos de del mismo tamaño? 3.2.7.1
TestLet S de McNemar es el conjunto de datos disponible, que se divide
en un conjunto de entrenamiento Rand y un conjunto de prueba T.
Luego consideramos dos inductores A y B capacitados en el
entrenamiento establecer y el resultado es dos clasificadores. Estos
clasificadores se prueban en T y para cada ejemplo x ∈ T registramos
cómo se clasificó. Así, se construye el cuadro de contingencia
presentado en el Cuadro 3.6.Tabla 3.6 Prueba de McNemar: tabla de

61
contingenciaNúmero de ejemplos mal clasificados Número de ejemplos
mal clasificados por ambos clasificadores (n00) fA pero no por fB (n01)
Número de ejemplos clasificados erróneamente Número de ejemplos
clasificados incorrectamente por fB pero no por fA (n10) ni por fA ni por
fB (n11)
Cantidad de ejemplos mal clasificados Número de ejemplos mal
clasificados
por f
1.
B pero no por f
1.
A (n10) ni por f
1.
A ni por f
1.
B (n11)

Copyright © 2008. World Scientific. Todos los derechos reservados. No


puede reproducirse de ninguna forma sin el permiso del editor, excepto
en los usos legítimos permitidos en EE. UU. O
derecho de autor aplicable.

EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018


10:15 PM a través de UNIVERSIDAD NACIONAL
ABIERTA Y A DISTANCIA - UNAD
AN: 236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos con
árboles de decisión: teoría y aplicaciones
Cuenta: ns145102

7 de noviembre de 2007 13:10 Tamaño de ajuste de WSPC / libro para


Datainning de 9 "x 6"

62
Evaluación de los árboles de clasificación 41

Los dos inductores deberían tener la misma tasa de error bajo el nulo
la poesía H0. La prueba de McNemar se basa en una prueba de for2
para la bondad de ajuste que

compara la distribución de recuentos esperados bajo hipótesis nula con


el
conteos observados. Los recuentos esperados bajo Ho se presentan en
la Tabla 3.7.

Tabla 3.7 Recuentos previstos en Ho


n00 (n01 + n10) / 2)
(n01 + n10) / 2) n11)

La siguiente estadística, s, se distribuye como χ2 con 1 grado de


libertad.
Incorpora un término de "corrección de continuidad" (de -1 en el
numerador) para
cuenta por el hecho de que la estadística es discreta, mientras que la
distribución χ2
es continuo:

s = (| n10 - n01 | - 1) 2
n10 + n01

(3.23)
De acuerdo con la teoría probabilística [Athanasopoulos, 1991], si el
nulo

63
la hipótesis es correcta, la probabilidad de que el valor de la estadística,
s, sea
mayor que χ2

1,0.95 es menor que 0,05, es decir, P (| s |> χ2

1,0.95) <0.05. Entonces, para


comparar los inductores A y B, los clasificadores inducidos fA y fB son
probados
en T y el valor de s se estima como se describió anteriormente.
Entonces, si | s | > χ2
1,0.95,
la hipótesis nula podría rechazarse a favor de la hipótesis de que los dos
los inductores tienen un rendimiento diferente cuando se los entrena en
el entrenamiento particular
establecer R.
Las deficiencias de esta prueba son:

(1) No mide directamente la variabilidad debido a la elección del tren-


conjunto de ing o la aleatoriedad interna del inductor. Los inductores
son

comparado usando un solo conjunto de entrenamiento R. Por lo tanto, la


prueba de McNemar debería
solo se aplicará si consideramos que las fuentes de variabilidad son
pequeñas.
(2) Compara el rendimiento de los inductores en los conjuntos de
entrenamiento, que
son sustancialmente más pequeños que el tamaño de todo el conjunto
de datos. Por lo tanto,

64
debe asumir que la diferencia relativa observada en los conjuntos de
entrenamiento
todavía se mantienen para entrenar conjuntos de tamaño igual a todo el
conjunto de datos.
3.2.7.2 Una prueba para la diferencia de dos proporciones
Esta prueba estadística se basa en medir la diferencia entre el error

tasas de algoritmos A y B [Snedecor y Cochran (1989)]. Más específico


Datainning de 9 "x 6"

Por lo tanto, deje que pA = (n00 + n01) / n sea la proporción de


ejemplos de prueba incorrectamente
clasificado por algoritmo A y let pB = (n00 + n10) / n sea la proporción

de ejemplos de prueba clasificados incorrectamente por el algoritmo B.


El supuesto
Derivar esta prueba estadística es que cuando el algoritmo A clasifica un
ejemplo

x del conjunto de pruebas T, la probabilidad de clasificación errónea es


pA. Entonces el

número de clasificaciones erróneas de n ejemplos de prueba es una


variante aleatoria binomial
capaz con npA media y varianza pA (1 - pA) n.

La distribución binomial se puede aproximar bien por una distribución


normal
por valores razonables de n. La diferencia entre dos independientes

65
las variables aleatorias normalmente distribuidas se distribuyen
normalmente. Así,
la cantidad pA - pB se puede ver como distribuida normalmente si
asumimos
que las tasas de error medidas pA y pB son independientes. Bajo el nulo
hipótesis, Ho, la cantidad pA - pB tiene una media de cero y un estándar
error de desviación de

se =
2p ·
1 - pA + pB
2

/ n (3.24)

donde n es el número de ejemplos de prueba.


Con base en el análisis anterior, obtenemos la estadística:

z = pA - pB
2p (1 - p) / n (3.25)
que tiene una distribución normal estándar. De acuerdo con el
probabilistic
teoría, si el valor de z es mayor que Z0.975, la probabilidad de
incorrectamente
rechazando la hipótesis nula es menor que 0.05. Por lo tanto, si | z | >
Z0.975 = 1.96,
la hipótesis nula podría rechazarse a favor de la hipótesis de que el
dos algoritmos tienen diferentes actuaciones. Dos de los más
importantes

66
los problemas con esta estadística son:
(1) Las probabilidades pA y pB se miden en el mismo conjunto de
prueba y
por lo tanto, no son independientes.
(2) La prueba no mide la variación debido a la elección del
entrenamiento
establecer o la variación interna del algoritmo de aprendizaje. También
mide el rendimiento de los algoritmos en conjuntos de entrenamiento de
un tamaño significativamente más pequeño que el conjunto de datos
completo. 433.2.7.3 La prueba emparejada re-muestreada La prueba t
pareada re-muestreada es la más popular en machine learning. Por lo
general, hay una serie de 30 ensayos en la prueba. En cada prueba, la
muestra disponible S se divide aleatoriamente en un conjunto de
entrenamiento R (típicamente es dos tercios de los datos) y un conjunto
de prueba T. Los algoritmos A y B están entrenados en R y los
clasificadores resultantes se prueban en T. Sea p (i) A yp (i) B las
proporciones observadas de ejemplos de prueba clasificadas
erróneamente por el algoritmo A y B, respectivamente, durante la i-
ésima prueba. Si suponemos que las 30 diferenciasp (i) = p (i) A -p (i) B
se obtuvieron independientemente de una distribución normal, entonces
podemos aplicar la prueba t de Student calculando la estadística: t = p ̄
· √nni = 1 (p (i) -p ̄) 2n-1 (3.26) donde ̄p = 1n · ni = 1 p (i). Bajo la
hipótesis nula, esta estadística tiene una distribución con n - 1 grados
de libertad. Luego, para 30 ensayos, la hipótesis nula podría rechazarse
si | t | > t29,0,975 = 2,045. Los principales inconvenientes de este
enfoque son: (1) Dado que p (i) A y p (i) B no son independientes, la
diferencia p (i) no tendrá una distribución normal. (2) Los p (i) 's no son
independiente, porque los conjuntos de prueba y entrenamiento en los
ensayos se superponen.3.2.7.4 El ensayo k apareado cruzado validado k
Este enfoque es similar a la prueba t emparejada re-muestreada
excepto que en lugar de construir cada par de entrenamientos y
conjuntos de pruebas al dividir al azar S, thedataset se divide
aleatoriamente en k conjuntos disjuntos de igual tamaño, T1, T2, ...,
Tk.Luego se realizan k ensayos. En cada prueba, el conjunto de prueba
es Ti y el conjunto de entrenamiento es la unión de todos los demás Tj, j
= i. La estadística t se calcula como se describe en la Sección 3.2.7.3.
La ventaja de este enfoque es que cada conjunto de prueba es
independiente de los demás. Sin embargo, existe el problema de que los
conjuntos de entrenamiento se superponen. Esta superposición puede

67
evitar que esta prueba estadística obtenga una buena estimación de la
cantidad de variación que se observaría si cada conjunto de
entrenamiento fuera completamente independiente de los otros
conjuntos de entrenamiento..3 Complejidad computacional Otro criterio
útil para comparar inductores y clasificadores es su com complejidad
computacional Estrictamente hablando, la complejidad computacional es
la cantidad de CPU consumida por cada inductor. Es conveniente
diferenciar entre tres métricas de complejidad computacional: •
Complejidad computacional para generar un nuevo clasificador: esta es
la métrica más importante, especialmente cuando existe la necesidad de
escalar el algoritmo de minería de datos a conjuntos de datos masivos.
Debido a que la mayoría de los algoritmos tienen complejidad
computacional, que es peor que lineal en el número de tuplas, la
extracción de conjuntos de datos masivos puede ser prohibitivamente
costosa. • Complejidad computacional para actualizar un clasificador:
dada la información nueva, ¿cuál es la complejidad computacional
requerida para actualizar el clasificador actual? de modo que el nuevo
clasificador refleje los nuevos datos? • Complejidad computacional para
clasificar una nueva instancia: Generalmente este tipo de métrica se
descuida porque es relativamente pequeña. Sin embargo, en ciertos
métodos (como k-vecindario más cercano) o en ciertas aplicaciones en
tiempo real (como aplicaciones antimisiles), este tipo puede ser
crítico.3.4 Comprensibilidad El criterio de comprensión (también
conocido como interpretabilidad) se refiere a cómo los humanos captan
el clasificador inducido. Mientras que el error de generalización mide
cómo el clasificador se ajusta a los datos, la comprensibilidad mide el
"ajuste mental" de ese clasificador. Muchas técnicas, como redes
neuronales o máquinas de vectores de soporte (SVM), están diseñadas
únicamente para lograr precisión. Sin embargo, como sus clasificadores
se representan utilizando grandes conjuntos de parámetros de valor
real, también son difíciles de entender y se conocen como modelos de
caja negra. Sin embargo, a menudo es importante para el investigador
para poder inspector inducido clasificador. Para dominios tales como el
diagnóstico médico, los usuarios deben comprender cómo el sistema
toma sus decisiones para estar seguros del resultado. Dado que la
minería de datos también puede desempeñar un papel importante en el
proceso de descubrimiento científico, un sistema puede descubrir
características sobresalientes en los datos de entrada cuya importancia
no se reconoció previamente. Si las representaciones formadas por el
inductor son comprensibles, entonces estos descubrimientos pueden
hacerse accesibles a la revisión humana [Hunter y Klein (1993)] Trees

68
45 La compatibilidad puede variar entre los diferentes clasificadores
creados por el mismo inductor. Por ejemplo, en el caso de los árboles de
decisión, el tamaño (número de nodos) de los árboles inducidos también
es importante. Los árboles más pequeños son preferidos porque son
más fáciles de interpretar. También hay otras razones para preferir
árboles de decisión más pequeños. De acuerdo con un principio
fundamental en la ciencia, conocido como la navaja de Occam, cuando
se busca la explicación de cualquier fenómeno, uno debe hacer la menor
cantidad de suposiciones posible y eliminar aquellas que no hacen
ninguna diferencia en las predicciones observables de la hipótesis
explicativa. La implicación con respecto a los árboles de decisión es que
el árbol que se puede definir como el árbol de decisión más pequeño que
es consistente con el conjunto de entrenamiento es el que tiene más
probabilidades de clasificar correctamente las insti- tuciones no vistas.
Sin embargo, esta es solo una regla de oro; en algunos casos
patológicos, un árbol grande y desequilibrado aún se puede interpretar
fácilmente [Buja y Lee (2001)]. Además, el problema de encontrar el
árbol consistente más pequeño que se sabe que es NP-completo
[Murphy y McCraw (1991)]. Como puede ver el lector, la precisión y los
factores de complejidad se pueden estimar cuantitativamente; la
comprensibilidad es más subjetiva.3.5 Escalabilidad a grandes conjuntos
de datos La escalabilidad se refiere a la capacidad del método para
construir el modelo de clasificación de manera eficiente dada una gran
cantidad de datos. Los algoritmos de inducción clásica se han aplicado
con éxito práctico en muchos problemas relativamente simples y de
pequeña escala. Sin embargo, tratar de descubrir el conocimiento en la
vida real y en grandes bases de datos introduce problemas de tiempo y
memoria. Debido a que las grandes bases de datos se han convertido en
la norma en muchos campos (incluyendo astronomía, biología
molecular, finanzas, mercadeo, cuidado de la salud y muchos otros), el
uso de descubrir patrones en ellos se ha convertido en una empresa
potencialmente muy productiva. Muchas empresas apuestan gran parte
de su futuro en estas aplicaciones de "minería de datos" y buscan en la
comunidad de investigación soluciones a los problemas fundamentales
que encuentran. Si bien una gran cantidad de datos disponibles solía ser
un sueño de cualquier analista de datos, hoy en día el sinónimo porque
"muy grande" se ha convertido en "ter-abyte", un volumen de
información difícilmente imaginable. Se supone que las organizaciones
de información intensiva (como las compañías de telecomunicaciones y
los bancos) acumulan varios terabytes de datos en bruto cada uno o dos
años. Sin embargo, la disponibilidad de un repositorio de datos

69
electrónicos (en su 6 Minería de datos con árboles de decisión: teoría y
aplicaciones

forma conocida como "almacén de datos") ha causado una serie de


problemas muy desconocidos, que, de ignorarse, pueden convertir la
tarea de eficacia
la minería de datos en la misión imposible. Administrando y analizando
enormes

almacenes de datos requiere hardware especial y muy caro y soft-


ware, que a menudo hace que una empresa explote solo una pequeña
parte del

datos almacenados.
De acuerdo con [Fayyad et al. (1996)] los desafíos explícitos para los
datos
comunidad de investigación minera es desarrollar métodos que faciliten
el uso de
algoritmos de minería de datos para bases de datos del mundo real. Una
de las características
de una base de datos del mundo real es de alto volumen de datos.
Las enormes bases de datos presentan varios desafíos:

• Complejidad de la informática: dado que la mayoría de los algoritmos


de inducción tienen una
complejidad putacional que es mayor que lineal en el número de
atributos
butes o tuples, el tiempo de ejecución necesario para procesar dichas
bases de datos

podría convertirse en un problema importante.

70
• Mala precisión de clasificación debido a las dificultades para encontrar
el correcto
clasificador. Las grandes bases de datos aumentan el tamaño del
espacio de búsqueda, y
por lo tanto, aumenta la posibilidad de que el inductor seleccione una
sobreajustada
clasificador que no es válido en general.
• Problemas de almacenamiento: en la mayoría de los algoritmos de
aprendizaje automático, la totalidad

El conjunto de entrenamiento debe leerse desde el almacenamiento


secundario (como
netic storage) en el almacenamiento primario (memoria principal) de la
computadora
antes de que comience el proceso de inducción Esto causa problemas ya
que el principal

la capacidad de memoria es mucho menor que la capacidad de


discos.

Las dificultades para implementar algoritmos de clasificación tal como


están en alto volumen
las bases de datos ume derivan del aumento en el número de registros /
instancias

en la base de datos y del aumento en el número de atributos /


características
en cada caso (alta dimensionalidad).
Los enfoques para lidiar con una gran cantidad de registros incluyen:

71
• Métodos de muestreo: los estadísticos están seleccionando registros
de una población
ción mediante diferentes técnicas de muestreo.

• Agregación: reduce la cantidad de registros al tratar un grupo


de registros como uno, o ignorando subconjuntos de registros "no
importantes".
• Procesamiento paralelo masivo - explotación de tecnología paralela -
para
resolver simultáneamente varios aspectos del problema.

Evaluación de los árboles de clasificación 47


• Métodos de almacenamiento eficientes: lo que permite que el
algoritmo maneje muchos
archivos. Por ejemplo [Shafer et al. (1996)] presentaron el SPRINT que
construye una estructura de datos de lista de atributos.
• Reducir el espacio de búsqueda del algoritmo - Por ejemplo, el
PÚBLICO

algoritmo [Rastogi y Shim (2000)] integra el crecimiento y


ing de árboles de decisión utilizando MDL (longitud mínima de
descripción)

enfoque para reducir la complejidad computacional.


3.6 Robustez
La capacidad del modelo para manejar ruido o datos con valores
perdidos y

72
hacer predicciones correctas se llama robustez. Árboles de decisión
diferentes
los ritmos tienen diferentes niveles de robustez. Para estimar la
robustez

de un árbol de clasificación, es común entrenar al árbol en un conjunto


de entrenamiento limpio
y luego entrena un árbol diferente en un conjunto de entrenamiento
ruidoso. El entrenamiento ruidoso
establecer es generalmente el conjunto de entrenamiento limpio a la
que algunas instancias ruidosas artificiales
Ha sido agregado. El nivel de robustez se mide como la diferencia en el
precisión de estas dos situaciones
3.7 Estabilidad
Formalmente, la estabilidad de un algoritmo de clasificación se define
como el grado de
que un algoritmo genera resultados repetibles, dados diferentes lotes
de datos del mismo proceso. En términos matemáticos, la estabilidad es
la

acuerdo esperado entre dos modelos en una muestra aleatoria del


origen
datos finales, donde el acuerdo sobre un ejemplo específico significa que
ambos modelos

asignarlo a la misma clase. El problema de inestabilidad plantea


preguntas sobre
la validez de un árbol particular proporcionado como salida de un árbol
de decisión
algoritmo. Los usuarios ven el algoritmo de aprendizaje como un
oráculo. Obviamente,

73
es difícil confiar en un oráculo que dice algo radicalmente diferente
vez que realiza un ligero cambio en los datos.
Los métodos existentes para construir árboles de decisión a partir de
datos sufren

un gran problema de inestabilidad. Los síntomas de inestabilidad


incluyen varia-
en la precisión predictiva del modelo y en la topología del modelo.

La inestabilidad puede revelarse no solo mediante el uso de conjuntos


de datos disjuntos, sino incluso
reemplazando una pequeña porción de casos de entrenamiento, como
en el valo cruzado idationprocedure. Si un algoritmo es inestable, los
resultados de la validación cruzada son estimadores con alta varianza, lo
que significa que un algoritmo no puede realizar una distinción clara
entre patrones persistentes y aleatorios en los datos. Como veremos a
continuación, se puede usar cierto tipo de árboles de decisión para
resolver el problema de la inestabilidad [Last et al. (2002)]. 3.8 Medidas
de interés El número de patrones de clasificación generados podría ser
muy grande y es posible que diferentes enfoques den como resultado
diferentes conjuntos de patrones. Los patrones extraídos durante el
proceso de clasificación podrían representarse en forma de reglas,
conocidas como reglas de clasificación. Es importante evaluar los
patrones descubiertos que identifiquen los que son válidos y
proporcionen nuevos conocimientos. Las técnicas que apuntan a este
objetivo se denominan ampliamente como medidas de interés y el
interés de los patrones que se descubren por un enfoque de clasificación
también se puede considerar como otro criterio de calidad. Algunas
medidas representativas [Hilderman y Hamilton, 1999] para clasificar la
utilidad y la utilidad de patrones de clasificación descubiertos (cada ruta
desde la raíz a la hoja representa un patrón diferente) son: • Función de
interés de regla. Piatetsky-Shapiro introdujo el interés de la regla
[Piatetsky-Shapiro, (1991)] que se utiliza para cuantificar la correlación
entre los atributos en una regla de clasificación. Solo es adecuado para
las reglas de clasificación individuales, es decir, reglas en las que los
lados izquierdo y derecho corresponden a un solo atributo. • Medida J de
Smyth y Goodman. La medida J [Smyth y Good-man (1991)] es una

74
medida para las reglas de clasificación probabilísticas y se usa para
encontrar las mejores reglas que relacionan atributos de valores
discretos. Una regla de clasificación probabilística es una implicación
lógica, X → Y, satisfecha con cierta probabilidad p. Los lados izquierdo y
derecho de esta implicación corresponden a un solo atributo. El lado
derecho está restringido a expresiones simples de asignación de un solo
valor, mientras que el lado izquierdo puede ser una conjunción de
expresiones simples. • Impresiones generales. En [Liu et al., 1997] se
propone una impresión general como un enfoque para evaluar la
importancia de las reglas de clasificación. Itcompares descubrió reglas
para una descripción aproximada o vaga de lo que se considera
interesante. 49utilizado para determinar las reglas que proporcionan la
mayor cobertura para los datos proporcionados. Las reglas con la
distancia promedio más alta a las otras reglas se consideran más
interesantes.3.9 Sobreajuste y ajuste insuficiente El concepto de
sobreajuste es muy importante en la extracción de datos. Se refiere a la
situación en la cual el algoritmo de inducción genera un clasificador que
se ajusta perfectamente a los datos de entrenamiento, pero que ha
perdido la capacidad de generalizar a instancias no presentadas durante
el entrenamiento. En otras palabras, en lugar de aprender, el
clasificador simplemente memoriza las instancias de entrenamiento. En
general, se reconoce que el sobreajuste es una violación del principio de
la navaja de afeitar Occams presentada en la Sección 3.4.En árboles de
decisión, el sobreajuste generalmente ocurre cuando el árbol tiene
demasiados nodos en relación con la cantidad de datos de
entrenamiento disponibles. Al aumentar el número de nodos, el error de
entrenamiento generalmente disminuye mientras que en algún punto el
error de generalización empeora. La Figura 3.8 ilustra el proceso de
sobreajuste. La figura presenta el error de entrenamiento y el error de
generalización de un árbol de decisión como una función de la cantidad
de nodos para un conjunto de entrenamiento fijo. El error de
entrenamiento continúa disminuyendo a medida que el árbol crece. Por
otro lado, el error de generalización declina al principio y luego, en algún
punto, comienza a aumentar debido al sobreajuste. El punto óptimo
para la generalización se obtiene un error para un árbol con 130 nodos.
En árboles más grandes, el clasificador está sobreajustado. En árboles
más pequeños, el clasificador no está bien equipado. Otro aspecto del
sobreajuste se presenta en la Figura 3.9. Este gráfico representa el error
de generalización para aumentar los tamaños del conjunto de
entrenamiento. El error de generalización disminuye con el tamaño del
conjunto de entrenamiento. Esto puede explicarse por el hecho de que

75
para un pequeño grupo de entrenamiento, es relativamente difícil
generalizar, y el clasificador memoriza todas las instancias. Se encontró
que el sobreajuste disminuye la precisión de predicción en los árboles de
decisión ya sea en presencia de ruido significativo o cuando los atributos
de entrada son irrelevantes al problema de clasificación [Schaffer
(1991)]. Para evitar el sobreajuste, es necesario estimar cuándo el
entrenamiento complementario no dará como resultado una mejor
generalización. En los árboles de decisión hay dos mecanismos que
ayudan a evitar el sobreajuste. El primero es evitar dividir el árbol si la
división no es útil (por ejemplo, aprobando solamente divisiones
estadísticamente significativas). El segundo enfoque es usar poda; 3.8
Sobreajuste en árboles de decisión. Al cultivar el árbol, podamos nodos
innecesarios.3.10 Teorema "sin almuerzo gratis" La comparación
empírica del rendimiento de diferentes enfoques y susvariantes en una
amplia gama de dominios de aplicación ha demostrado que cada uno de
ellos funciona mejor en algunos, pero no todos, dominios Esto se ha
denominado el problema de la superioridad selectiva [Brodley (1995)].
Es bien sabido que ningún algoritmo de inducción puede ser el mejor en
todos los dominios posibles; cada algoritmo contiene un sesgo explícito
o implícito [Mitchell (1980)] que lo lleva a preferir ciertas
generalizaciones sobre otras. El algoritmo tendrá éxito solo en la medida
en que este sesgo coincida con las características del dominio de
aplicación [Brazdil et al. (1994)]. Además, otros resultados han
demostrado la existencia y corrección de la "ley de conservación"
[Schaffer (1994)] o "sin teorema del almuerzo gratis" [Wolpert (1996)]:
si un inductor es mejor que otro en algunos dominios, entonces hay
necesariamente otros dominios en los que se invierte esta relación. El
teorema de "no almuerzo gratis" implica que, para un problema
determinado, un cer puede producir más información de los mismos
datos que otros enfoques. Se debe hacer una distinción entre todos los
dominios matemáticamente posibles, que son simplemente un producto
de los lenguajes de representación utilizados, y los dominios que
ocurren en el mundo real , y por lo tanto son los de mayor interés [Rao
et al. (1995)]. Sin duda, hay muchos dominios en el primer conjunto
que no están en el segundo, y la precisión promedio en los dominios del
mundo real se puede aumentar a expensas de la precisión en los
dominios que nunca ocurren en la práctica. De hecho, lograr esto es el
objetivo de la investigación del aprendizaje inductivo. Todavía es cierto
que algunos algoritmos encontrarán ciertas clases de dominios de
ocurrencia natural mejor que otros algoritmos y, por lo tanto, logran
una mayor precisión que estos algoritmos. Si bien esto puede invertirse

76
en otros dominios del mundo real, no impide que un algoritmo de
mejora sea tan preciso como el mejor en cada una de las clases de
dominio. De hecho, en muchos dominios de aplicación, el error de
generalización de los mejores métodos está muy por encima del 0% y la
cuestión de si puede mejorarse, y si es así, es una cuestión abierta e
importante. Una de las características al responder esta pregunta es
determinar el error mínimo que puede alcanzar cualquier clasificador en
el dominio de la aplicación (conocido como el Bayes óptimo).
52 Minería de datos con árboles de decisión: teoría y aplicaciones
error). Si los clasificadores existentes no alcanzan este nivel, los nuevos
enfoques son
necesario. Aunque este problema ha recibido considerable atención (ver
para
ejemplo [Tumer y Ghosh (1996)]), ningún método generalmente
confiable tiene tan
hasta ahora ha sido demostrado.

El concepto de "no almuerzo gratis" presenta un dilema para el analista.


haciendo una nueva tarea: ¿Qué inductor debería usarse?

Si el analista solo busca precisión, una solución es probar cada uno


a su vez, y al estimar el error de generalización, para elegir el que
parece funcionar mejor [Schaffer (1994)]. Otro enfoque, conocido como
el aprendizaje multiestratégico [Michalski y Tecuci (1994)], intenta
combinar
dos o más paradigmas diferentes en un solo algoritmo. La mayoría de la
investigación en
esta área se ha preocupado por combinar enfoques empíricos con
métodos analíticos (véase, por ejemplo, [Towell y Shavlik (1994)].
Idealmente, una
algoritmo de aprendizaje de multiestrategia siempre funcionaría tan bien
como el mejor

77
de sus "padres" obviando la necesidad de probar cada uno y
simplificando
tarea de adquisición de conocimiento. Aún más ambiciosamente, hay
esperanza de que esto
combinación de paradigmas podría producir efectos sinérgicos (por
ejemplo
permitiendo diferentes tipos de fronteras entre clases en diferentes
regiones
del espacio de ejemplo), lo que lleva a niveles de precisión que ni
atómica
enfoque por sí mismo sería capaz de lograr.
Desafortunadamente, este enfoque a menudo se ha utilizado con
moderación
éxito. Si bien es cierto que en algunas aplicaciones industriales (como
en

el caso de la planificación de la demanda) esta estrategia demostró


aumentar el error por
En muchos otros casos, los algoritmos resultantes son propensos a

engorroso, y a menudo lograr un error que se encuentra entre los de su


padres, en lugar de igualar el más bajo.
El dilema de qué método elegir se vuelve aún mayor, si otro
factores como la comprensibilidad son tomados en consideración. Por
ejemplo,
para un dominio específico, una red neuronal puede superar a los
árboles de decisión en
exactitud. Sin embargo, desde el aspecto de comprensión, los árboles
de decisión son
considerado mejor. En otras palabras, incluso si el investigador sabe que
los nervios

78
la red es más precisa, todavía tiene un dilema sobre qué método usar.

Capítulo 4
Criterios de división

4.1 Criterios de división univariada


4.1.1 Descripción general
En la mayoría de los árboles de decisión, los inductores de las funciones
de división discretas son univariables,
es decir, un nodo interno se divide según el valor de un único atributo.
En consecuencia, el inductor busca el mejor atributo sobre el cual

realizar la división. Hay varios criterios univariables que pueden ser


acterizado de diferentes maneras, tales como:

• de acuerdo con el origen de la medida: Teoría de la Información,


Depen-
dencia y Distancia.

• de acuerdo con la estructura de la medida: Criterios basados en


impurezas, Normal-
criterios basados en impurezas y criterios binarios.

La siguiente sección describe los criterios más comunes que aparecen en


la literatura.
4.1.2 Criterios basados en impurezas
Dada una variable aleatoria x con k valores discretos, distribuidos de
acuerdo con

79
P = (p1, p2, ..., pk), una medida de impureza es una función φ: [0, 1] k
→ R que
cumple las siguientes condiciones:
• φ (P) ≥0
• φ (P) es mínimo si ∃i es tal que el componente pi = 1.
• φ (P) es máximo si ∀i, 1 ≤ i ≤ k, pi = 1 / k.
• φ (P) es simétrico con respecto a los componentes de P.
• φ (P) es suave (diferenciable en todas partes) en su rango.

53

Cabe señalar que si el vector de probabilidad tiene un componente de 1


(la variable x obtiene solo un valor), entonces la variable se define como
pura.
Por otro lado, si todos los componentes son iguales, el nivel de impureza
alcanza
máximo.
Dado un conjunto de entrenamiento S el vector de probabilidad del
atributo objetivo y
Se define como:

Py (S) =
| σy = c1 S |
| S | , ...,

σy = c | dom (y) | S

|S|

80
(4.1)
La bondad de división debido al atributo discreto ai se define como
reducción
en impurity del atributo target después de la partición S de acuerdo con
los valores vi, j ∈ dom (ai): ΔΦ (ai, S) = φ (Py (S)) - | dom (ai) | j = 1 |
σai = vi, jS || S | · Φ (Py (σai = vi, jS)) (4.2) 4.1.3 Information
GainInformation Gain es un criterio basado en impurezas que utiliza la
medida de entropía (que se origina en la teoría de la información) como
medida de impureza [Quin-lan (1987) )]. InformationGain (ai, S) =
Entropía (y, S) - vi, j∈dom (ai) | σai = vi, j S || S | · Entropía (y, σai =
vi, jS) (4.3) donde: Entropía (y, S) = cj∈dom (y) -σy = cjS | S | ·
Log2σy = cjS | S | (4.4) La ganancia de información está estrechamente
relacionada con la estimación de máxima verosimilitud (MLE), que es un
método estadístico popular utilizado para hacer inferencias sobre los
parámetros de la distribución de probabilidad subyacente a partir de un
conjunto de datos dado. Copyright © 2008. World Scientific. Todos los
derechos reservados. No puede ser reproducido en ninguna forma sin el
permiso del editor, excepto usos justos permitidos bajo la ley de
derecho de autor aplicable de los Estados Unidos. Publicación de EBSCO:
Colección de libros electrónicos (EBSCOhost) - impreso el 9/6/2018
10:15 PM a través de UNIVERSIDAD NACIONALABIERTA YA DISTANCIA
- UNADAN : 236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos
con árboles de decisión: teoría y aplicacionesCuenta:
ns145102November 7, 2007 13:10 WSPC / Book Trim Size para 9in x
6in DataMiningSplitting Criteria 554.1.4 Índice de GiniEl índice de Gini
es un criterio basado en impurezas que mide las divergencias entre las
distribuciones de probabilidad del valores de atributos de destino. El
índice de Gini se ha utilizado en varios trabajos como [Breiman et al.
(1984)] y [Gelfand et al. (1991)] y se define como: Gini (y, S) = 1 -
cj∈dom (y) σy = cjS | S | 2 (4.5) En consecuencia, el criterio de
evaluación para seleccionar el atributo ai se define como: GiniGain (ai ,
S) = Gini (y, S) - vi, j∈dom (ai) | σai = vi, j S || S | · Gini (y, σai = vi,
jS) (4.6) 4.1.5 Ratio de verosimilitud Chi-squared StatisticsEl cociente
de verosimilitud se define como [Attneave (1959)] G2 (ai, S) = 2 · ln
(2) · | S | · InformationGain (ai, S) (4.7) Esta relación es útil para medir
la significación estadística del criterio de ganancia de información. La
hipótesis cero (H0) es que los atributos tanto de entrada como de

81
destino son condicionalmente independientes. Si H0 se cumple, el
estadístico de prueba se distribuye como χ2 con grados de libertad igual
a: (dom (ai) - 1) · (dom (y) - 1) .4.1.6 Criterio DKM El criterio DKM es
un criterio de división basado en impurezas diseñado para atributos de
clase binarios [Dietterich et al. (1996)] y [Kearns y Man-sour (1999)].
La función basada en impurezas se define como: DKM (y, S) = 2 · | σy
= c1 S || S | · | σy = c2 S || S | (4.8) criterio basado en impurezas
descrito anteriormente está sesgado hacia atributos con valores de
dominio más grandes. A saber, prefiere atributos de entrada con
muchos valores sobre aquellos con menos valores [Quinlan (1986)]. Por
ejemplo, un atributo inputa que representa el número de seguridad
nacional probablemente obtendrá la mayor ganancia de información. Sin
embargo, agregar este atributo a un árbol de decisiones dará como
resultado una precisión generalizada pobre. Por esa razón, es útil para
"normalizar" las medidas basadas en impurezas, como se describe en
las siguientes secciones.4.1.8 Ratio de gananciaLa relación de ganancia
normaliza la ganancia de información de la siguiente manera [Quinlan
(1993)]: GainRatio (ai, S) = InformationGain (ai, S) Entropía (ai, S)
(4.9) Tenga en cuenta que esta relación no se define cuando el
denominador es cero. Además, la relación puede tender a favorecer
atributos para los cuales el denominador es muy pequeño. En
consecuencia, se sugiere que la relación se lleve a cabo en dos etapas.
Primero, la ganancia de información se calcula para todos los atributos.
Como consecuencia de considerar solo los atributos que se han
desempeñado al menos así como la ganancia de información promedio,
se selecciona el atributo que ha obtenido la ganancia de la relación más
alta. [Quinlan (1988)] ha demostrado que los ratiots de ganancia
superan los simples criterios de ganancia de información, tanto en
precisión como en términos de complejidad de clasificación. Se evalúa
una penalización para la información de un atributo continuo con
muchas divisiones potenciales.4.1.9 Medida de distancia La Medida de
distancia, como la Proporción de ganancia, normaliza la medida de
impureza. Sin embargo, sugiere normalizarlo de una manera diferente
57ΔΦ (ai, S) - vi, j∈dom (ai) ck∈dom (y ) | σai = vi, j AND y = ck S || S
| · Log2 | σai = vi, j AND y = ck S || S | (4.10) 4.1.10 Criterios binarios
Los criterios binarios se utilizan para crear árboles de decisión binarios.
Estas medidas se basan en la división del dominio de atributo de
entrada en dos subdominios principales. Deja que β (ai, dom1 (ai),
dom2 (ai), S) denoten el valor del criterio binario para el atributo ai
sobre la muestra S cuando dom1 (ai ) y dom2 (ai) son sus subdominios
correspondientes. El valor obtenido para la división óptima del dominio

82
atribuido en dos subdominios mutuamente excluyentes y exhaustivos se
utiliza para comparar atributos, a saber: β * (ai, S) = max∀dom1 (ai);
dom2 (ai) β (ai, dom1 (ai), dom2 (ai), S) (4.11) 4.1.11 Criterio de
dosificación El índice de Gini puede encontrar problemas cuando el
dominio del atributo de orientación es relativamente amplio [Breiman et
al. (1984)]. En tales casos, es posible emplear un criterio binario
llamado criterio de dosing. Este criterio se define como: twoing (ai,
dom1 (ai), dom2 (ai), S) = 0.25 · | σai∈dom1 (ai) S || S | · | Σai∈dom2
(ai) S || S | · Ci∈dom (y) | σai∈dom1 (ai) AND y = ci S || σai∈dom1 (ai)
S | - | σai∈dom2 (ai) AND y = ci S || σai∈dom2 (ai) S | 2 (4.12) Cuando
el atributo objetivo es binario, el Gini y los dos criterios son
equivalentes. Para problemas de clase múltiple, los dos criterios
prefieren los atributos con divisiones divididas en partes iguales. Este
criterio binario se define como: ORT (ai, dom1 (ai), dom2 (ai), S) = 1 -
cosθ (Py, 1, Py, 2) (4.13) donde θ (Py, 1, Py, 2) es el ángulo entre dos
vectores Py, 1 y Py, 2. Estosvectores representan la distribución de
probabilidad del atributo objetivo en laspartes σai∈dom1 (ai) S y
σai∈dom2 (ai) S respectivamente. Se ha demostrado que este criterio
funciona mejor que la ganancia de información y el índice de Gini para
constelaciones específicas de los problemas.4.1.13 Criterio de
Kolmogorov-Smirnov Un criterio binario que utiliza la distancia de
Kolmogorov-Smirnov ha sido propuesto por [Friedman (1977)] y
[Rounds (1980)]. Suponiendo un atributo de atributo binario binario, a
saber, dom (y) = {c1, c2}, el criterio se define como: KS (ai, dom1 (ai),
dom2 (ai), S) = | σai∈dom1 (ai) AND y = c1 S || σy = c1 S | - |
σai∈dom1 (ai) AND y = c2 S || σy = c2 S | (4.14) Esta medida fue
extendida por [Utgoff y Clouse (1996)] al atributo handletarget con
múltiples clases y valores de datos faltantes. Sus resultados indican que
el método sugerido supera los criterios de proporción de
ganancia.4.1.14 Criterios de división AUC La idea de utilizar la medida
AUC como un criterio de división fue propuesta recientemente por [Ferri
et al. (2002)]. Se selecciona el atributo que obtiene la maximalarea bajo
el casco convexo de la curva ROC. Se ha demostrado que el criterio de
división basado en AUC supera otros criterios de división, tanto con
respecto a la precisión de la clasificación como al área bajo la curva
ROC. Es importante observar que a diferencia de los criterios de
impureza, este criterio no produce una comparación entre la impureza
del nodo padre impureza ponderada de los niños después de la división.
y la medida de distribución hipergeométrica [Martin (1997)]. 4.1.16
Comparación de los criterios de división univariante Durante los últimos
30 años, varios investigadores han llevado a cabo estudios comparados

83
de los criterios de división, tanto los descritos anteriormente como
otros. Entre estos investigadores están: [Breiman (1996)]; [Baker y Jain
(1976)]; [Ben-Bassat (1978)]; [Mingers (1989)]; [Fayyad e Irani
(1992)]; [Buntine y Niblett (1992)]; [Loh y Shih (1997)]; [Loh y Shih
(1999)]; y [Limet al. (2000)]. La mayoría de las comparaciones se
basan en resultados empíricos, aunque hay algunas conclusiones
teóricas. La mayoría de los investigadores señalan que, en casi todos los
casos, la elección de criterios de división no hará mucha diferencia en el
rendimiento del árbol. Como el almuerzo no gratuito el teorema sugiere
que cada criterio es superior en algunos casos e inferior en otros.4.2
Manejo de valores perdidos Los valores erróneos son una experiencia
común en conjuntos de datos del mundo real. Esta situación puede
complicar tanto la inducción (un conjunto de entrenamiento donde faltan
algunos de sus valores) como la clasificación de una nueva instancia que
carece de ciertos valores. El problema de los valores perdidos ha sido
abordado por varios investigadores como [Friedman (1977)]. , [Breiman
et al. (1984)] y [Quinlan (1989)]. [Friedman (1977)] sugiere manejar
los valores faltantes en el conjunto de entrenamiento de la siguiente
manera. Deje σai =? S indicar el subconjunto de instancias en S cuyas
aivalues faltan. Al calcular los criterios de división usando atributeai,
simplemente ignore todas las instancias cuyos valores en el atributo ai
sean desconocidos. En lugar de usar los criterios de división ΔΦ (ai, S)
usamos ΔΦ (ai, S -σai =? S) .En el Por otro lado, [Quinlan (1989)]
argumenta que, en el caso de valores faltantes, los criterios de división
deberían reducirse proporcionalmente, ya que nada se ha aprendido de
estas instancias. En otras palabras, en lugar de utilizar los criterios de
división ΔΦ (ai, S), utilizamos la siguiente corrección: Copyright ©
2008. World Scientific. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto usos
justos permitidos bajo la ley de derecho de autor aplicable de los
Estados Unidos. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/6/2018 10:15 PM a través de UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 236037; Rokach, Lior,
Maimon, Oded Z ...; Minería de datos con árboles de decisión: teoría y
aplicacionesCuenta: ns145102November 7, 2007 13:10 WSPC / Book
Trim Size para 9in x 6in DataMining60 Minería de datos con árboles de
decisión: teoría y aplicaciones | S - σai =? S || S | ΔΦ (ai, S - σai =? S).
(4.15) En los casos en que el valor de criterio está normalizado (como
en el caso de gainratio), el denominador debe calcularse como si los
valores perdidos representaran un valor adicional en el dominio de
atributo. Por ejemplo, la ganancia con valores perdidos debe calcularse

84
de la siguiente manera: GainRatio (ai, S) = | S-σai =? S || S | Inf
ormationGain (ai, S-σai =? S) - | σai =? S || S | log (| σai =? S || S |) -
vi, j ∈dom (ai) | σai = vi, j S || S | log (| σai = vi, j S || S |) (4.16) Una
vez que un nodo se divide, [Quinlan (1989)] sugiere agregar σai =? S a
cada uno de los bordes salientes con el siguiente peso correspondiente:
σai = vi , jS | S - σai =? S |. La misma idea se usa para clasificar una
nueva instancia con valores attri-bute faltantes. Cuando una instancia
encuentra un nodo donde se pueden evaluar sus criterios de división
debido a un valor perdido, se pasa a todos los outgoingedges. La clase
predicha será la clase con la probabilidad más alta en la unión
ponderada de todos los nodos de hoja a los que termina esta instancia.
Otro enfoque conocido como divisiones subrogadas fue presentado por
[Breimanet al. (1984)] y se implementa en el algoritmo CART. La idea
es encontrar para cada división en el árbol una división sustituta que
utilice un atributo inputattribute diferente y que se parezca más a la
división original. Si falta el valor del atributo de entrada utilizado en la
división original, entonces es posible usar la división sustituta. La
semejanza entre dos muestras binarias sobremuestra S se define
formalmente como: res (ai, dom1 (ai), dom2 (ai), aj, dom1 (aj), dom2
(aj), S) = σai∈dom1 (ai) Y aj ∈dom1 (aj) S | S | + σai∈dom2 (ai) Y aj
∈dom2 (aj) S | S | (4.17) donde la primera división se refiere al atributo
ai y divide dom (ai) en dom1 (ai) y dom2 (ai). La división alternativa se
refiere al atributo aj y divide itsdomain a dom1 (aj) y dom2 (aj). El valor
faltante se puede estimar basándose en otras instancias [Loh y Shih
(1997)]. En la fase de aprendizaje, si el valor de un atributo nominal
Criterios de división 61
ai en la tupla q falta, luego se estima por su modo en todas las
instancias
teniendo el mismo valor de atributo objetivo Formalmente,
estimar (ai, yq, S) = argmax vi, j∈dom (ai)

σai = vi, j AND y = yq S

(4.18)
donde yq denota el valor del atributo objetivo en la tupla q. Si el

85
el atributo que falta ai es numérico, entonces, en lugar de usar el modo
de ai, es
más apropiado para usar su media.
Copyright © 2008. World Scientific. Todos los derechos reservados. No
puede reproducirse de ninguna forma sin el permiso del editor, excepto
en los usos legítimos permitidos en EE. UU. O
derecho de autor aplicable.

EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018


10:15 PM a través de UNIVERSIDAD NACIONAL
ABIERTA Y A DISTANCIA - UNAD
AN: 236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos con
árboles de decisión: teoría y aplicaciones
Cuenta: ns145102

7 de noviembre de 2007 13:10 Tamaño de ajuste de WSPC / libro para


Datainning de 9 "x 6"

Esta página se dejó en blanco intencionalmente

Copyright © 2008. World Scientific. Todos los derechos reservados. No


puede reproducirse de ninguna forma sin el permiso del editor, excepto
en los usos legítimos permitidos en EE. UU. O
derecho de autor aplicable.

EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018


10:15 PM a través de UNIVERSIDAD NACIONAL
ABIERTA Y A DISTANCIA - UNAD
AN: 236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos con
árboles de decisión: teoría y aplicaciones
Cuenta: ns145102

86
7 de noviembre de 2007 13:10 Tamaño de ajuste de WSPC / libro para
Datainning de 9 "x 6"

Capítulo 5
Árboles de poda

5.1 Criterios de parada


La fase de crecimiento continúa hasta que se desencadena un criterio de
detención. los
las siguientes condiciones son reglas de parada comunes:
(1) Todas las instancias en el conjunto de entrenamiento pertenecen a
un único valor de y.
(2) Se ha alcanzado la profundidad máxima del árbol.
(3) El número de casos en el nodo terminal es menor que el mínimo
número de casos para nodos principales.
(4) Si el nodo se dividió, el número de casos en uno o más nodos
secundarios
sería menor que el número mínimo de casos para los nodos secundarios.
(5) El mejor criterio de división no es mayor que un cierto umbral.
5.2 Poda heurística
5.2.1 Descripción general
El empleo de criterios estrictos de detención tiende a crear pequeños y
poco adecuados
árboles de decisión. Por otro lado, el uso de criterios de parada suelta
tiende a
generar grandes árboles de decisión que están sobreajustados para el
conjunto de entrenamiento. Resolver
este dilema, [Breiman et al. (1984)] desarrollaron una metodología de
poda

87
basado en un criterio de parada libre y permitiendo que el árbol de
decisión se sobreajuste
el conjunto de entrenamiento. Luego, el árbol sobreequipado se corta en
un árbol más pequeño
eliminando sub-ramas que no están contribuyendo a la generalización
exactitud. Se ha demostrado en diversos estudios que los métodos de
poda pueden
mejorar el rendimiento de generalización de un árbol de decisión,
especialmente en
dominios ruidosos.
Otra motivación clave de la poda es "precisión comercial para
simplificar"

63

Copyright © 2008. World Scientific. Todos los derechos reservados. No


puede reproducirse de ninguna forma sin el permiso del editor, excepto
en los usos legítimos permitidos en EE. UU. O
derecho de autor aplicable.

EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018


10:15 PM a través de UNIVERSIDAD NACIONAL
ABIERTA Y A DISTANCIA - UNAD
AN: 236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos con
árboles de decisión: teoría y aplicaciones
Cuenta: ns145102

7 de noviembre de 2007 13:10 Tamaño de ajuste de WSPC / libro para


Datainning de 9 "x 6"

64 Minería de datos con árboles de decisión: teoría y aplicaciones

88
como fue presentado por [Bratko y Bohanec (1994)]. Cuando el objetivo
es producir un
descripción del concepto suficientemente precisa y compacta, la poda es
muy útil.
Dado que dentro de este proceso, el árbol de decisión inicial se
considera completamente
preciso, la precisión de un árbol de decisión borrado indica qué tan cerca
está
es al árbol inicial.
Hay varias técnicas para podar los árboles de decisión. La mayoría
realiza
de arriba hacia abajo o de abajo hacia arriba a través de los nodos. Un
nodo se poda si esto
la operación mejora ciertos criterios. Las siguientes subsecciones
describen
las técnicas más populares.

5.2.2 Poda de Complejidad de Costos

Poda de complejidad de costos (también conocida como poda de enlaces


o errores más débiles)
poda de la plexidad) procede en dos etapas [Breiman et al. (1984)]. En
el primero

etapa, una secuencia de árboles T0, T1, ..., Tk se basa en los datos de
entrenamiento donde
T0 es el árbol original antes de podar y Tk es el árbol de raíz.
En la segunda etapa, uno de estos árboles se elige como el árbol
podado,
basado en su estimación de error de generalización.
El árbol Ti + 1 se obtiene al reemplazar uno o más de los subárboles en

89
el árbol predecesor Ti con hojas adecuadas. Los subárboles que están
podados
son aquellos que obtienen el menor aumento en la tasa de error
aparente por podado
hoja:

α = ε (podado (T, t), S) - ε (T, S)


| hojas (T) | - | hojas (podadas (T, t)) | (5.1)

donde ε (T, S) indica la tasa de error del árbol T sobre la muestra S y


| hojas (T) | denota el número de hojas en T. podado (T, t) denota el
árbol obtenido reemplazando el nodo t en T con una hoja adecuada.
En el segundo fase, se estima el error de generalización de cada árbol
podado T0, T1, ..., Tk. El mejor árbol podado es luego seleccionado. Si
el conjunto de datos dado es lo suficientemente grande, los autores
sugieren dividirlo en un conjunto de entrenamiento y un conjunto de
poda. Los árboles se construyen usando el conjunto de entrenamiento y
se evalúan en el conjunto de poda. Por otro lado, si el conjunto de datos
dado no es lo suficientemente grande, proponen el uso de una
metodología de validación cruzada, a pesar de las implicaciones de
complejidad computacional. Copyright © 2008. World Scientific. Todos
los derechos reservados. No puede ser reproducido en ninguna forma
sin el permiso del editor, excepto usos justos permitidos bajo la ley de
derecho de autor aplicable de los Estados Unidos. Publicación de EBSCO:
Colección de libros electrónicos (EBSCOhost) - impreso el 9/6/2018
10:15 PM a través de UNIVERSIDAD NACIONALABIERTA YA DISTANCIA
- UNADAN : 236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos
con árboles de decisión: teoría y aplicacionesCuenta:
ns145102November 7, 2007 13:10 WSPC / Book Trim Size para 9in x
6in DataMiningPruning Trees 655.2.3 Reducción de errores de podaUn
procedimiento simple para podar los árboles de decisión, conocido como
Reduced ErrorTuning, ha sido sugerido por [Quinlan (1987)]. Al
atravesar los nodos internos desde abajo hacia arriba, el procedimiento
verifica cada nodo interno para determinar si reemplazarlo con la clase
más frecuente no reduce la precisión de los árboles. El nodo se poda si
la precisión no se reduce. El procedimiento continúa hasta que cualquier

90
poda adicional disminuya la precisión. Para estimar la precisión [Quinlan
(1987)] propone el uso del conjunto desencadenante. Se puede
demostrar que este procedimiento finaliza con el subárbol más pequeño
y preciso con respecto a un determinado conjunto de poda.5.2.4 Poda
mínima de errores (MEP) La poda mínima de errores, propuesta por
[Niblett y Bratko (1986)], implica un recorrido de abajo hacia arriba de
los nodos internos Esta técnica compara, en cada nodo, la estimación de
la tasa de error de probabilidad l con y sin poda. La estimación de la
tasa de error de probabilidad l es una corrección de la estimación de
probabilidad simple utilizando frecuencias. Si St denota las instancias
que han alcanzado una hoja t, entonces la tasa de error esperada en
esta hoja es: ε (t) = 1 - max ci∈dom (y) | σy = ciSt | + l · papr (y = ci)
| St | + l (5.2) donde papr (y = ci) es la probabilidad a-priori de y
obtener el valor ci, yl denota el peso dado a la probabilidad a priori. La
tasa de error de un nodo interno es el promedio ponderado de la
errorrate de sus ramas. El peso se determina de acuerdo con la
proporción de instancias a lo largo de cada rama. El cálculo se realiza
recursivamente hasta las hojas. Si un nodo interno se poda, se convierte
en una hoja y su tasa de error se calcula directamente utilizando la
última ecuación. En consecuencia, podemos comparar la tasa de error
antes y después de podar un determinado nodo interno. Si podando este
nodo no aumenta la tasa de error, la poda debe ser aceptada.5.2.5 Poda
pesimista La poda pesimista evita la necesidad de un conjunto de poda
o validación cruzada y utiliza en su lugar la prueba de correlación
estadística pesimista [Quinlan (1993)]. Copyright © 2008. Mundo
Científico. Todos los derechos reservados. No puede ser reproducido en
ninguna forma sin el permiso del editor, excepto usos justos permitidos
bajo la ley de derecho de autor aplicable de los Estados Unidos.
Publicación de EBSCO: Colección de libros electrónicos (EBSCOhost) -
impreso el 9/6/2018 10:15 PM a través de UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 236037; Rokach, Lior,
Maimon, Oded Z ...; Minería de datos con árboles de decisión: teoría y
aplicacionesCuenta: ns145102November 7, 2007 13:10 WSPC / Book
Trim Size para 9in x 6in DataMining66 Minería de datos con árboles de
decisión: teoría y aplicacionesLa idea básica es que la proporción de
errores que se estimó utilizando el conjunto de capacitación es no es lo
suficientemente confiable En su lugar, se debe utilizar una medida más
realista, conocida como la corrección de continuidad para la distribución
binomial: ε (T, S) = ε (T, S) + | hojas (T) | 2 · | S | (5.3) Sin embargo,
esta corrección todavía produce una tasa de error optimista. En
consecuencia, [Quinlan (1993)] sugiere podar un nodo interno t si su

91
error está dentro de un error estándar de un árbol de referencia, a
saber: ε (podado (T, t), S) ≤ ε (T, S) + ε (T, S) · (1 - ε (T, S)) | S |
(5.4) La última condición se basa en el intervalo de confianza estadística
para las proporciones. Por lo general, la última condición se usa de
modo que T se refiere a un subárbol cuya raíz es el nodo interno t y S
denota la porción del conjunto de entrenamiento que se refiere al nodo
t.El procedimiento de poda pesimista realiza un recorrido descendente
sobre los nodos internos. Si se poda un nodo interno, entonces todos
sus descendientes se eliminan del proceso de poda, lo que resulta en
una poda relativamente rápida.5.2.6 Poda basada en errores (EBP) La
poda basada en errores es una evolución de la poda pesimista. Se
implementa en el conocido algoritmo C4.5. Como en la poda pesimista,
la tasa de error se estima utilizando el límite superior del intervalo de
confianza estadística para las proporciones.ESUB (T, S) = ε (T, S) + Zα ·
ε (T, S) · (1 - ε (T, S)) | S | (5.5) donde ε (T, S) denota la tasa de
clasificación errónea del árbol T en el tren ngset S; Z es el inverso de la
distribución acumulativa normal estándar; y α es el nivel de significancia
deseado. El subárbol (T, t) denota el subárbol enraizado por el nodo t.
Letmaxchild (T, t) denota el nodo hijo más frecuente de t (es decir, la
mayoría de las instancias en S llegan a este niño en particular) y
permite que St denote todas las instanciasCopyright © 2008. World
Scientific. Todos los derechos reservados. No puede ser reproducido en
ninguna forma sin el permiso del editor, excepto usos justos permitidos
bajo la ley de derecho de autor aplicable de los Estados Unidos.
Publicación de EBSCO: Colección de libros electrónicos (EBSCOhost) -
impreso el 9/6/2018 10:15 PM a través de UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 236037; Rokach, Lior,
Maimon, Oded Z ...; Minería de datos con árboles de decisión: teoría y
aplicacionesCuenta: ns145102November 7, 2007 13:10 WSPC / Book
Trim Size para 9in x 6in DataMiningPruning Trees 67in S que llegan al
nodo t. El procedimiento atraviesa todos los nodos de abajo arriba y
compara los siguientes valores: (1) εUB (subárbol (T, t), St) (2) εUB
(podado (subárbol (T, t), t), St) (3) εUB (subárbol (T, maxchild (T, t)),
Smaxchild (T, t)) Según el valor más bajo, el procedimiento deja el
árbol asis; podar el nodo t; o reemplaza el nodo t con el subárbol
enraizado pormaxchild (T, t) .5.2.7 Longitud mínima de la descripción
(MDL) Poda La longitud mínima de la descripción se puede utilizar para
evaluar la precisión generalizada de un nodo [Rissanen (1989)], [
Quinlan y Rivest (1989)] y [Mehta et al. (1995)]. Este método mide el
tamaño de un árbol de decisión por medio de la cantidad de bits
necesarios para codificar el árbol. El MDLmethod prefiere árboles de

92
decisión que se pueden codificar con menos bits. [Mehtaet al. (1995)]
indican que el costo de una división en una hoja t puede estimarse
como: Costo (t) = ci∈dom (y) | σy = ciSt | · Ln | St || σy = ci St | + |
dom (y) | -12 ln | St | 2 + ln π | dom (y) | 2Γ (| dom (y) | 2) (5.6)
donde St denota las instancias que han llegado al nodo t. El costo de
división de un nodo interno se calcula en función de la agregación de
costos de sus hijos.5.2.8 Otros métodos de poda Hay otros métodos de
poda informados en la literatura. [Wallace y Patrick (1993)] propusieron
un método de poda de longitud mínima de mensaje (MML), mientras
que [Kearns y Mansour (1998)] proporcionan un algoritmo de punteo
teóricamente justificado. [Mingers (1989)] propuso la Poda de valor
crítico (CVP). Este método, que poda un nodo interno si su criterio de
división no es mayor que un cierto umbral, es similar a un criterio de
detención. Sin embargo, al contrario de un criterio de detención, un
nodo no se poda si al menos uno de sus hijos no cumple con la poda
Criterion.Copyright © 2008. World Scientific. Todos los derechos
reservados. No puede ser reproducido en ninguna forma sin el permiso
del editor, excepto usos justos permitidos bajo la ley de derecho de
autor aplicable de los Estados Unidos. Publicación de EBSCO: Colección
de libros electrónicos (EBSCOhost) - impreso el 9/6/2018 10:15 PM a
través de UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN :
236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos con árboles
de decisión: teoría y aplicacionesCuenta: ns145102November 7, 2007
13:10 WSPC / Book Trim Size para 9in x 6in DataMining68 Minería de
datos con árboles de decisión: teoría y aplicaciones5.2.9 Comparación
de los métodos de poda Varios estudios comparan el rendimiento de
diferentes técnicas de poda : ([Quinlan (1987)], [Mingers (1989)] y
[Esposito et al. (1997)]). Los resultados indican que algunos métodos
(como Poda de Complejidad de Costos, Poda de Bordes Reducidos)
tienden a podar en exceso, es decir, crear árboles de precisión más
pequeños pero menos precisos. Otros métodos (como la poda basada en
errores, la eliminación de errores pesimista y la poda mínima de
errores) tienen tendencia a la poda insuficiente. La mayoría de las
comparaciones concluyen que el teorema del almuerzo gratuito también
se aplica a la poda, es decir, no existe un método de poda que supere a
otros métodos de poda.5.3 Poda óptimaEl tema de encontrar el método
de poda óptimo ha sido estudiado por [Bratko y Bohanec (1994)] y [
Almuallim (1996)]. [Bratko y Bo-hanec (1994)] introducen un algoritmo
que garantiza la optimalidad, se conoce como OPT. Este algoritmo
encuentra la técnica de poda óptima basada en la programación
dynámica, con la complejidad de Θ (| leaves (T) | 2), donde T es el

93
árbol de decisión inicial. [Almuallim (1996)] introdujo una mejora de
OPT llamada OPT-2, que también realiza una poda óptima usando la
programación dinámica. Sin embargo, las complejidades de tiempo y
espacio de OPT-2 son ambasΘ (| hojas (T *) | · | internas (T) |), donde
T * es el árbol de decisiones objetivo (podado) y T es el árbol de
decisión inicial. Desde el El árbol podado es habitualmente mucho más
pequeño que el árbol inicial y el número de nodos internos es más
pequeño que el número de hojas. OPT-2 suele ser más eficiente que
OPT en términos de complejidad computacional. Según Almuallim, al
podar un árbol de decisión determinado (DT) Con las hojas, es común
reemplazar progresivamente varios subárboles de hojas DTby, lo que
lleva a una secuencia de árboles de decisión podados, DTs-1, DTs-2, ...,
DTi, ..., DT1, de modo que cada DTi tiene como mucho me voy. Cuando
se ve el error como la diferencia con el árbol original (DT), los árboles
en la secuencia tienen un error creciente. El objetivo de elegir el mejor
árbol de la secuencia anterior de árboles podados, de acuerdo con
algunos criterios apropiados, es lograr un buen equilibrio entre el
tamaño de los árboles y la precisión. En su artículo, [Bratko y Bohanec
(1994)] abordan el siguiente problema : "Dada una definición
completamente precisa pero compleja de un concepto, simplifique la
definición, posiblemente en la extensión de la precisión, de modo que la
definición simplificada todavía corresponda al concepto 'suficientemente'
bien". InCopyright © 2008. World Scientific. Todos los derechos
reservados. No puede ser reproducido en ninguna forma sin el permiso
del editor, excepto usos justos permitidos bajo la ley de derecho de
autor aplicable de los Estados Unidos. Publicación de EBSCO: Colección
de libros electrónicos (EBSCOhost) - impreso el 9/6/2018 10:15 PM a
través de UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN :
236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos con árboles
de decisión: teoría y aplicacionesCuenta: ns145102November 7, 2007
13:10 WSPC / Book Trim Size for 9in x 6in DataMiningPruning Trees
69estos "conceptos" de contexto están representados por árboles de
decisión y el método de simplificación es la poda de árboles. Por lo
tanto, el problema puede expresarse así: "Dado un árbol de decisión
que especifica con precisión un concepto, el problema es encontrar el
árbol podado más pequeño que todavía represente el concepto dentro
de una exactitud especificada". En (Almuallim, 1996) un nuevo
algoritmo, OPT- 2, que también realiza la poda óptima, se introduce. El
problema de la poda óptima se presenta formalmente en este
documento de la siguiente manera: "Dado un árbol de decisión DT y un
enterrador positivo C, encuentre un árbol de decisión podado DT 'de DT

94
tal que s (DT) ≤ Cand error (DT) se minimiza". s (DT ') es el tamaño de
DT (número de hojas en DT) y error (DT) es la proporción de casos que
son manejados incorrectamente por DT'. El algoritmo OPT-2 se basa en
la programación dinámica. En su forma más básica, las complejidades
de tiempo y espacio de OPT-2 son ambas Θ (nC), donde n es el número
de nodos internos en el árbol de decisión inicial y C es el número de
hojas en el árbol de decisión de destino (podado). Esta es una mejora
del algoritmo OPT presentado por Bohanec y Bratko (1994). Una
característica importante del algoritmo OPT-2 es su gran flexibilidad. El
OPT-2 funciona de forma secuencial, generando los árboles de la
secuencia una después de la otra en orden creciente del número de
hojas (es decir, en el orden DT1, DT2, DT3, ...). Esto difiere de OPT, que
genera simultáneamente toda la secuencia de árboles podados. La
generación de secuencia en OPT-2 puede terminarse una vez que se
encuentre un árbol con los criterios predeterminados adecuados. Dados
los árboles DT1, DT2 ,. . . , DTi-1 ya se ha generado, OPT-2 encuentra
DTi en el tiempo Θ (n), donde n es el número de nodos internos del
árbol de decisión inicial. Por lo tanto, si el número de hojas del árbol de
destino es C, el tiempo total de funcionamiento de OPT-2 será Θ (nC).
Dado que el objetivo es podar el árbol, C es habitualmente mucho más
pequeño que s. Además, es más pequeño que s, específicamente en el
caso de atributos con muchos valores. Por lo tanto, OPT-2 suele ser más
eficiente que OPT en términos de tiempo de ejecución. Aunque tanto
OPT como OPT-2 se basan en programación dinámica, los dos
algoritmos difieren sustancialmente en la forma en que el problema se
divide en sub-problemas. El enfoque adoptado en OPT generalmente se
ve como un enfoque "ascendente", donde la idea es calcular soluciones
para los subárboles enraizados en el nivel más bajo del árbol. Estas
soluciones se utilizan para calcular los nodos del siguiente nivel superior.
Este proceso se repiteCopyright © 2008. World Scientific. Todos los
derechos reservados. No puede ser reproducido en ninguna forma sin el
permiso del editor, excepto usos justos permitidos bajo la ley de
derecho de autor aplicable de los Estados Unidos. Publicación de EBSCO:
Colección de libros electrónicos (EBSCOhost) - impreso el 9/6/2018
10:15 PM a través de UNIVERSIDAD NACIONALABIERTA YA DISTANCIA
- UNADAN : 236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos
con árboles de decisión: teoría y aplicacionesCuenta:
ns145102November 7, 2007 13:10 WSPC / Book Trim Size para 9in x
6in DataMining70 Minería de datos con árboles de decisión: teoría y
aplicacioneshasta que se alcanza la raíz del árbol inicial. Una
característica básica de este enfoque de "abajo hacia arriba" es que los

95
árboles DTi de la secuencia de poda se computan simultáneamente a
medida que avanzamos hacia la raíz. Estos podadores no son definitivos
a menos que lleguemos a la raíz. Sin embargo, una vez que se alcanza,
la secuencia completa se vuelve disponible de una vez. El OPT-2
produce los árboles podados uno después del otro usando un derivado
de un método de programación dinámico dado por Johnson & Niemi
(1983). A diferencia del enfoque ascendente de OPT, el procesamiento
en OPT-2 se realiza de izquierda a derecha: dado que ya tenemos
árboles compilados DT1, DT2,. . . , DTi-1 y los resultados intermedios
necesarios para estos cálculos se guardan en la memoria, el algoritmo
OPT-2 encuentra DT de estos mediante un pase lineal de "izquierda a
derecha" sobre el árbol. En la poda óptima, el error de cada DTi en la
secuencia debe ser mínimo sobre todos los árboles podados de i (o
menos) hojas. Hasta la fecha, los únicos dos enfoques que abordan la
poda óptima son el trabajo de Bohanec y Bratko (1994) y el trabajo de
Almuallim (1996).

Capítulo 6

Árboles de decisión avanzada

6.1 Encuesta de Algoritmos Comunes para el Árbol de Decisión In-


ducción

6.1.1 ID3
El algoritmo ID3 se considera un algoritmo de árbol de decisión muy
simple
[Quinlan (1986)]. Usando la ganancia de información como criterio de
división, el ID3 cesa
para crecer cuando todas las instancias pertenecen a un solo valor de
una característica de destino o
cuando la mejor ganancia de información no es mayor que cero. ID3 no
aplica ninguna

96
procedimiento de poda no maneja atributos numéricos o valores
faltantes.
6.1.2 C4.5
C4.5, una evolución de ID3, presentada por el mismo autor [Quinlan
(1993)],
utiliza la relación de ganancia como criterio de división. La división cesa
cuando el número
de instancias a dividir está por debajo de un cierto umbral. Poda basada
en errores
se realiza después de la fase de crecimiento. C4.5 puede manejar
atributos numéricos.
También puede inducir a partir de un conjunto de entrenamiento que
incorpora valores perdidos por
utilizando los criterios de relación de ganancia corregida como se
presentó anteriormente.
6.1.3 CARRO
CART significa Árboles de Regresión y Clasificación. Fue desarrollado por
[Breiman et al. (1984)] y se caracteriza por el hecho de que construye
árboles binarios, es decir, cada nodo interno tiene exactamente dos
bordes salientes.
Las divisiones se seleccionan usando los criterios de Twoing y el árbol
obtenido es
podado por la poda de Complejidad de Costos. Cuando se proporciona,
CART puede considerar
costos de clasificación errónea en la inducción de árboles. También
permite a los usuarios proporcionar

71

Copyright © 2008. World Scientific. Todos los derechos reservados. No


puede reproducirse de ninguna forma sin el permiso del editor, excepto
en los usos legítimos permitidos en EE. UU. O

97
derecho de autor aplicable.

EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018


10:15 PM a través de UNIVERSIDAD NACIONAL
ABIERTA Y A DISTANCIA - UNAD
AN: 236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos con
árboles de decisión: teoría y aplicaciones
Cuenta: ns145102

7 de noviembre de 2007 13:10 Tamaño de ajuste de WSPC / libro para


Datainning de 9 "x 6"

72 Minería de datos con árboles de decisión: teoría y aplicaciones


distribución de probabilidad previa.
Una característica importante de CART es su capacidad para generar
árboles de regresión.
En los árboles de regresión, las hojas predicen un número real y no una
clase. En caso
de regresión, CART busca divisiones que minimicen la predicción al
cuadrado
error (la desviación mínima al cuadrado). La predicción en cada hoja se
basa en
la media ponderada para el nodo.

6.1.4 CHAID

A partir de principios de los años setenta, los investigadores en


estadística aplicada desarrollaron
procedimientos rigurosos para generar árboles de decisión, tales como:
AID [Sonquist

98
et al. (1971)]; MAID [Gillo (1972)]; THAID [Morgan y Messenger
(1973)];

y CHAID [Kass (1980)]. CHIAD (Chi-cuadrado-automático-interacción-


Detección) fue diseñado originalmente para manejar solo atributos
nominales. por

cada atributo de entrada ai, CHAID encuentra el par de valores en Vi


que es menos
significativamente diferente con respecto al atributo de destino. El
significativo
la diferencia se mide por el valor p obtenido de una prueba estadística.
los
la prueba estadística utilizada depende del tipo de atributo objetivo. Una
prueba F es
utilizado si el atributo objetivo es continuo; una prueba de chi-cuadrado
de Pearson si es
nominal; y una prueba de razón de verosimilitud si es ordinal.
Para cada par de valores seleccionados, CHAID verifica si el valor p
obtenido es
mayor que un cierto umbral de fusión. Si la respuesta es positiva, se
fusiona
los valores y busca un par potencial adicional para fusionar. los
el proceso se repite hasta que no se encuentran pares significativos.
El mejor atributo de entrada que se utilizará para dividir el nodo actual
es
luego se seleccionó, de modo que cada nodo hijo está hecho de un
grupo homogéneo
valores del atributo seleccionado. Tenga en cuenta que no se realiza
ninguna división si

99
el valor de p ajustado del mejor atributo de entrada no es menor que
una cierta división
límite. Este procedimiento también se detiene cuando una de las
siguientes condiciones
se ha completado:
(1) Se alcanza la profundidad máxima del árbol.
(2) Se alcanza el número mínimo de casos en un nodo por ser padre,
por lo que
no se puede dividir más.
(3) Se alcanza el número mínimo de casos en un nodo para ser un nodo
secundario.

CHAID maneja los valores perdidos tratándolos a todos como una única
categoría válida
sangriento. CHAID no realiza la poda.

Copyright © 2008. World Scientific. Todos los derechos reservados. No


puede reproducirse de ninguna forma sin el permiso del editor, excepto
en los usos legítimos permitidos en EE. UU. O
derecho de autor aplicable.

EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018


10:15 PM a través de UNIVERSIDAD NACIONAL
ABIERTA Y A DISTANCIA - UNAD
AN: 236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos con
árboles de decisión: teoría y aplicaciones
Cuenta: ns145102

7 de noviembre de 2007 13:10 Tamaño de ajuste de WSPC / libro para


Datainning de 9 "x 6"

10
Árboles de decisión avanzados 73

6.1.5 BÚSQUEDA

El algoritmo QUEST (árbol estadístico rápido, imparcial, eficiente)


puertos univariados y combinaciones lineales splits [Loh y Shih (1997)].
por

cada división, la asociación entre cada atributo de entrada y el atributo


bute se calcula utilizando la prueba ANOVA F o la prueba de Levene
(para atributos inal y finales) o chi-cuadrado de Pearson (para atributos
nominales). La estadística F de ANANOVA se calcula para cada atributo.
Si la estadística F más grande supera un valor umbral predefinido, se
selecciona el atributo con el valor F más grande para dividir el nodo. De
lo contrario, la prueba de Levene para varianzas desiguales se calcula
para cada atributo. Si el Levene más grande es mayor que el valor
umbral predefinido, el atributo con el mayor valor de Levene se usa para
dividir el nodo. Si ningún atributo excedió ninguno de los umbrales, el
nodo se divide utilizando el atributo con el valor F de ANOVA más
grande. Si el atributo de destino es multinomial, se usa el agrupamiento
de dos medios para crear dos superclases. El atributo que obtiene la
mayor asociación con el atributo de destino se selecciona para la
división. El análisis discriminante cuadrático (QDA) se aplica para
encontrar el punto de división óptimo para el atributo inputattribute.
QUEST tiene un sesgo insignificante y produce un árbol de decisión
binario. Se usa la validación cruzada de tres veces para podar los
árboles.6.1.6 Referencia a otros algoritmos La Tabla 6.1 describe otros
algoritmos de árbol de decisión disponibles en la literatura. Aunque hay
muchos otros algoritmos que son no incluidos en esta tabla, sin
embargo, la mayoría son una variación del marco algorítmico
presentado anteriormente. Una comparación profunda de los algoritmos
anteriores y muchos otros se ha llevado a cabo en [Lim et al. (2000)].
6.1.7 Ventajas y desventajas de los árboles de decisión En la literatura
aparecen varias ventajas del árbol de decisión como una herramienta de
clasificación: (1) Los árboles de decisión se explican por sí mismos y
cuando se compactan también son fáciles de seguir. Es decir, si el árbol
de decisión tiene un número razonable de permisos, puede ser captado

10
por usuarios no profesionales. Además, dado que los árboles de decisión
se pueden convertir en un conjunto de reglas, este tipo de
representación se considera comprensible. (2) Los árboles de decisión
pueden manejar atributos de entrada nominales y numéricos.Copyright
© 2008. World Scientific. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto usos
justos permitidos bajo la ley de derecho de autor aplicable de los
Estados Unidos. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/6/2018 10:15 PM a través de UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 236037; Rokach, Lior,
Maimon, Oded Z ...; Minería de datos con árboles de decisión: teoría y
aplicacionesCuenta: ns145102November 7, 2007 13:10 WSPC / Book
Trim Size para 9in x 6in DataMining74 Minería de datos con árboles de
decisión: Theory y ApplicationsTable 6.1 Inductores adicionales para
árbol de decisión. Algoritmo Descripción ReferenceCAL5 Diseñado
específicamente para numéricos- atributos valorados [Muller y Wysotzki
(1994)] HECHO Una versión anterior de QUEST. Utiliza pruebas
estadísticas para seleccionar un atributo para dividir cada nodo y luego
utiliza un análisis discriminante para encontrar el punto de división. [Loh
y Vanichsetakul (1988)] LMDT Construye un árbol de decisión basado en
pruebas multivariadas que son combinaciones lineales de los atributos.
[Brodley y Utgoff (1995) )] T1 Árbol de decisión de un nivel que clasifica
las instancias usando solo un atributo. Los valores molestos se tratan
como un "valor especial". Admita ambos atributos nominales continuos.
[Holte (1993)] PUBLIC Integra el crecimiento y la poda utilizando el
costo de MDL para reducir la complejidad de la computación. [Rastogi y
Shim (2000)] MARS Una función de regresión múltiple se aproxima
utilizando splines lineales y su tensor productos. [Friedman (1991)] (3)
La representación del árbol de decisión es lo suficientemente rica como
para representar cualquier clasificador de valores discretos. (4) Los
árboles de decisión pueden manejar conjuntos de datos que pueden
tener errores. tienen valores faltantes. (6) Los árboles de decisión se
consideran un método no paramétrico, es decir, las decisiones no
incluyen ninguna suposición sobre la distribución del espacio y sobre la
estructura del clasificador. (7) Cuando el costo de clasificación es alto,
los árboles de decisión pueden ser atractivos en que solo piden los
valores de las características a lo largo de una ruta única desde raíz raíz
a hoja. Entre las desventajas de los árboles de decisión se encuentran:
(1) La mayoría de los algoritmos (como ID3 y C4.5) requieren que el
solo tendrá valores discretos. Copyright © 2008. World Scientific. Todos
los derechos reservados. No puede ser reproducido en ninguna forma

10
sin el permiso del editor, excepto usos justos permitidos bajo la ley de
derecho de autor aplicable de los Estados Unidos. Publicación de EBSCO:
Colección de libros electrónicos (EBSCOhost) - impreso el 9/6/2018
10:15 PM a través de UNIVERSIDAD NACIONALABIERTA YA DISTANCIA
- UNADAN : 236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos
con árboles de decisión: teoría y aplicacionesCuenta:
ns145102November 7, 2007 13:10 WSPC / Book Trim Size for 9in x 6in
DataMiningAdvanced Decision Trees 75 (2) Como árboles de decisión
utilizan el método "divide y vencerás", tienden a funcionar bien si
existen algunos atributos muy relevantes, pero menos si existen muchas
interacciones complejas. Una de las razones de esto es que otros
clasificadores pueden describir de manera compacta una clasificación
que sería muy difícil ging para representar usando un árbol de decisión.
Una simple ilustración de este fenómeno es el problema de replicación
de los árboles de precisión [Pagallo y Huassler (1990)]. Como la
mayoría de los árboles de decisión dividen el espacio de la instancia en
regiones mutuamente excluyentes para representar el concepto, en
algunos casos el árbol debe contener varias duplicaciones del mismo
subárbol para representar el clasificador. El problema de replicación
fuerza la duplicación de subárboles en conceptos disyuntivos. Por
ejemplo, si el concepto sigue la siguiente función binaria: y = (A1∩A2) ∪
(A3∩A4) entonces el árbol de decisión univariante mínimo que
representa esta función se ilustra en la Figura 6.1. Tenga en cuenta que
el árbol contiene dos copias del mismo subárbol. (3) La característica
codiciosa de los árboles de decisión conduce a otra desventaja que
debería señalarse. La hipersensibilidad al conjunto de entrenamiento, a
los atributos irrelevantes y al ruido [Quinlan (1993)] hace que los
árboles de decisión sean especialmente inestables: un cambio menor en
una división cercana a la raíz cambiará todo el subárbol siguiente.
Debido a pequeñas variaciones en el trainingset, el algoritmo puede
elegir un atributo que no sea realmente el mejor. (4) El problema de
fragmentación causa la partición de los datos en fragmentos más
pequeños. Esto generalmente sucede si se prueban muchas
características a lo largo del camino. Si los datos se dividen
aproximadamente por igual en cada división, entonces un árbol de
decisión uni-variable no puede probar más que las características O
(logn). Esto pone los árboles de decisión en desventaja para las tareas
con muchas características relevantes. Tenga en cuenta que la
replicación siempre implica fragmentación, pero la fragmentación puede
ocurrir sin ninguna replicación. (5) Otro problema se refiere al esfuerzo
necesario para tratar los valores faltantes [Friedman et al. (1996)]. Si

10
bien la capacidad de manejar valores perdidos se considera una ventaja,
el esfuerzo extremo que se requiere para lograrlo se considera un
inconveniente. La rama correcta a tomar es desconocida si falta una
característica probada, y el algoritmo debe emplear mecanismos
especiales para manejar los valores perdidos. Con el fin de reducir las
coincidencias de las pruebas en los valores perdidos, C4.5 penaliza la
ganancia de información por la proporción de instancias desconocidas y
luego divide estas instancias en subárboles. CART utiliza un esquema
mucho más complejo de funciones sustitutas. Copyright © 2008. World
Scientific. Todos los derechos reservados. No puede ser reproducido en
ninguna forma sin el permiso del editor, excepto usos justos permitidos
bajo la ley de derecho de autor aplicable de los Estados Unidos.
Publicación de EBSCO: Colección de libros electrónicos (EBSCOhost) -
impreso el 9/6/2018 10:15 PM a través de UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 236037; Rokach, Lior,
Maimon, Oded Z ...; Minería de datos con árboles de decisión: teoría y
aplicacionesCuenta: ns145102November 7, 2007 13:10 WSPC / Book
Trim Size para 9in x 6in DataMining76 Minería de datos con árboles de
decisión: teoría y aplicaciones (6) La naturaleza miope de la mayoría de
los algoritmos de inducción del árbol de decisión Esto se refleja en el
hecho de que los inductores se ven solo un nivel más adelante.
Específicamente, el criterio de división clasifica los atributos posibles en
función de sus descendientes inmediatos. Tal estrategia prefiere pruebas
que puntúan alto aislamiento y pueden pasar por alto combinaciones de
atributos. El uso de estrategias de visión más profunda se considera
costoso desde el punto de vista computacional y no ha demostrado ser
útil.Fig. 6.1 Ilustración del Árbol de Decisión con Replicación.6.1.8
Árboles de Decisión Olvidados Los árboles de decisión difusa son
aquellos en los que todos los nodos en el mismo nivel prueban la misma
característica. A pesar de su restricción, los árboles de decisión ajenos
son eficaces para la selección de características. [Almuallim y Dietterich
(1994)] así como [Schlimmer (1993)] han propuesto un procedimiento
de selección de características avanzadas mediante la construcción de
árboles de decisión ajenos, mientras que [Langley y Sage (1994)]
sugirieron una selección retrospectiva usando los mismos medios.
[Kohavi y Sommerfield (1998)] han demostrado que los árboles de
decisión ajenos se pueden convertir en una tabla de precisión.
Recientemente [Maimon y Last (2000)] sugirieron un nuevo algoritmo
IFN (Information Fuzzy Network) para la construcción de árboles de
decisión ajenos. Con base en la teoría de la información, la principal
ventaja de IFN es su compatibilidad. En árboles de decisión regulares,

10
como CART la altura de un árbol de decisión puede exceder el número
de atributos de entrada. En IFN, la altura de un árbol de decisiones
nunca excederá el número de atributos de entrada. Copyright © 2008.
World Scientific. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto usos
justos permitidos bajo la ley de derecho de autor aplicable de los
Estados Unidos. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/6/2018 10:15 PM a través de UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 236037; Rokach, Lior,
Maimon, Oded Z ...; Minería de datos con árboles de decisión: teoría y
aplicacionesCuenta: ns145102November 7, 2007 13:10 WSPC / Book
Trim Size for 9in x 6in DataMiningAdvanced Decision Trees 77Figura 6.2
ilustra un típico árbol de decisión ajeno con cuatro variables de entrada:
nivel de glucosa (G), edad (A ), Hipertensión (H) y Embarazada (P) y la
función de objetivo Boole representando g si ese paciente sufre de
diabetes. Cada capa está asociada de forma única con una función de
entrada al representar la interacción de esa característica y las
características de entrada de las capas anteriores. El número que
aparece en los nodos de terminal indica el número de instancias que se
ajustan a esta ruta. Por ejemplo, con respecto a los pacientes cuyo nivel
de glucosa es inferior a 107 y cuya edad es superior a 50, se diagnostica
positivamente con diabetes y no se diagnostica la diabetes. La principal
diferencia entre el árbol de decisión inconsciente y la estructura del
árbol de decisión regular es la constante ordenamiento de atributos de
entrada para cada nodo terminal del árbol de decisión ajeno. Esta última
propiedad es necesaria para minimizar el subconjunto total de atributos
de entrada (reducción resultante de la indimensionalidad). Los arcos que
conectan los nodos terminales y los nodos de la capa objetivo están
etiquetados con el número de registros que conforman esta ruta. Un
árbol de decisiones ajeno generalmente se construye con un algoritmo
codicioso, que maximiza la medida de información mutua en cada capa.
La búsqueda interactiva para explicar los atributos finaliza cuando no
hay ningún atributo que explique el objetivo con significación
estadística.Fig. 6.2 Ilustración del Árbol de Decisión Olvidado. Copyright
© 2008. World Scientific. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto usos
justos permitidos bajo la ley de derecho de autor aplicable de los
Estados Unidos. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/6/2018 10:15 PM a través de UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 236037; Rokach, Lior,
Maimon, Oded Z ...; Minería de datos con árboles de decisión: teoría y

10
aplicacionesCuenta: ns145102November 7, 2007 13:10 WSPC / Book
Trim Size para 9in x 6in DataMining78 Minería de datos con árboles de
decisión: teoría y aplicaciones6.1.9 Inductores de árboles de decisión
para grandes conjuntos de datos con el crecimiento reciente en la
cantidad de datos recopilados por sistemas de información existe la
necesidad de árboles de decisión que puedan manejar grandes
conjuntos de datos [Catlett (1991)] ha examinado dos métodos para
cultivar árboles de decición de una base de datos grande de manera
eficiente al reducir la complejidad de cómputo requerida para la
inducción. Sin embargo, el método Catlett requiere que alldata se
cargue en la memoria principal antes de la inducción. A saber, el
conjunto de datos más grande que se puede inducir está limitado por el
tamaño de la memoria. [Fi-field (1992)] sugiere la implementación
paralela del algoritmo ID3. Sin embargo, como Catlett, asume que todo
el conjunto de datos puede caber en la memoria principal. [Chan y
Stolfo (1997)] sugieren dividir los conjuntos de datos en varios
conjuntos de datos desarticulados para que cada conjunto de datos se
cargue por separado en la memoria y se use para inducir un árbol de
decisión. Los árboles de decisión se combinan para crear un único
clasificador. Sin embargo, los resultados experimentales indican que la
partición puede reducir el rendimiento de la clasificación. Esto significa
que la precisión de clasificación de los árboles de decisión combinados
no es tan buena como la precisión de un solo árbol de decisión inducido
a partir de todo el conjunto de datos. El algoritmo SLIQ [Mehta et al.
(1996)] no requiere cargar todo el conjunto de datos en la memoria
principal. En su lugar, utiliza una memoria secundaria (disco). En otras
palabras, una determinada instancia no necesariamente reside en la
memoria principal todo el tiempo. Si bien SLIQ crea un árbol de decisión
único a partir de todo el conjunto de datos, este método también tiene
un límite superior para el conjunto de datos más grande que se puede
procesar. Debido a que utiliza una estructura de datos que se escala con
el tamaño del conjunto de datos, esta estructura de datos debe residir
en la memoria principal todo el tiempo. El algoritmo SPRINT utiliza un
enfoque similar [Shafer et al. (1996)]. Este algoritmo induce árboles de
decisión relativamente rápido y elimina todas las restricciones de
memoria de la inducción del árbol de decisión. SPRINT escala cualquier
criterio de división basado en la imposición para grandes conjuntos de
datos. Gehrke y otros (2000) [Gehrke et al. (2000)] introdujo
RainForest; un marco unificador para los clasificadores de árboles de
decisiones que son capaces de escalar algoritmos específicos de la
literatura (incluyendo C4.5, CART y CHAID). Además de su generalidad,

10
RainForest mejora SPRINT por un factor de tres. Sin embargo, a
diferencia de SPRINT, RainForest requiere una cierta cantidad mínima de
memoria principal proporcional al conjunto de valores distintos en una
columna de la relación de entrada. Sin embargo, este requisito es
considerado como el más estricto y razonable. Otros inductores del árbol
de decisiones para grandes conjuntos de datos se pueden encontrar en
CopyrightCopyright 2008. World Scientific. Todos los derechos
reservados. No puede ser reproducido en ninguna forma sin el permiso
del editor, excepto usos justos permitidos bajo la ley de derecho de
autor aplicable de los Estados Unidos. Publicación de EBSCO: Colección
de libros electrónicos (EBSCOhost) - impreso el 9/6/2018 10:15 PM a
través de UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN :
236037; Rokach, Lior, Maimon, Oded Z ...; Minería de datos con árboles
de decisión: teoría y aplicacionesCuenta: ns145102November 7, 2007
13:10 WSPC / Book Trim Size for 9in x 6in DataMiningAdvanced
Decision Trees 79works of [Alsabti et al. (1998)], [Freitas y Lavington
(1998)] y [Gehrkeet al. (1999)]. 6.1.10 Árboles de decisión adaptativos
en línea Un esquema de clasificación llamado árboles adaptativos en
línea de decisión (OADT) fue propuesto por [Basak (2004)]. Al igual que
con los árboles de decisión, OADT es una red estructurada en árbol que
es capaz de aprendizaje en línea como redes neuronales. Esto conduce a
mejores puntajes de generalización. El hecho de que OADT solo puede
manejar tareas de clasificación de dos clases con una estructura dada es
un gran inconveniente. El algoritmo ExOADT [Basak (2006)] puede
manejar tareas de clasificación multiclase y puede realizar
aproximaciones de función por formulario. ExOADT es estructuralmente
similar a OADT ampliado con una capa de regresión.6.1.11 Lazy TreeIn
algoritmos de árbol perezoso aprendizaje se retrasa hasta que se
observa el punto de consulta [Friedman et al. (1996)]. Un árbol de
decisión ad hoc (en realidad una regla) se construye solo para clasificar
una determinada instancia. El algoritmo LazyDT construye el mejor árbol
de decisión para cada instancia de prueba. En la práctica, solo se debe
construir apath. Un esquema de almacenamiento en caché hace que el
algoritmo sea rápido. Con el algoritmo LazyDT, un solo árbol de decisión
creado a partir del conjunto de entrenamiento ofrece un compromiso: la
prueba en la raíz de cada subárbol se elige como la mejor división en
promedio. Este enfoque "promedio" puede conducir a muchas divisiones
irrelevantes para una instancia de prueba dada, fragmentando así los
datos innecesariamente. Tal fragmentación reduce la importancia de las
pruebas a niveles más bajos ya que se basan en menos instancias. Las
rutas de clasificación, construidas para una instancia específica, pueden

10
ser mucho más cortas y, por lo tanto, pueden proporcionar una mejor
descripción. En la figura 6.3 se describe un pseudocódigo genérico del
algoritmo LazyDT. El algoritmo perezoso del árbol de decisión, que
obtiene la instancia de prueba como parte de la entrada, sigue una
metodología separada y clasificada: se selecciona una prueba y el sub-
problema que contiene las instancias con los mismos resultados de la
prueba, luego la instancia dada se resuelve recursivamente. © 2008.
World Scientific. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto usos
justos permitidos bajo la ley de derecho de autor aplicable de los
Estados Unidos. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/6/2018 10:15 PM a través de UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 236037; Rokach, Lior,
Maimon, Oded Z ...; Minería de datos con árboles de decisión: teoría y
aplicacionesCuenta: ns145102November 7, 2007 13:10 WSPC / Book
Trim Size para 9in x 6in DataMining80 Minería de datos con árboles de
decisión: teoría y aplicacionesRequire: x (una instancia no etiquetada I
para clasificar), S (formación establecer) Asegúrese: una etiqueta para
la instancia x1: si todas las instancias en S tienen la etiqueta l, devuelva
l.2: si todas las instancias en S tienen los mismos valores de
característica, devuelva la clase mayoritaria en S .3: seleccione una
prueba A y deje v sea el valor de la prueba en la instancia
x.recursivamente aplique el algoritmo al conjunto de instancias en S con
A = v.Fig. 6.3 El algoritmo LazyDT.6.1.12 Árbol de decisión de opción
Los árboles de decisión realizan una única prueba en cada nodo y
rastrean una única ruta que corresponde a los resultados de la prueba
hasta que se alcanza una hoja y se realiza una predicción. Los árboles
de decisión de opciones (también conocidos como and-or trees),
introducidos por primera vez por [Buntine (1992)], generalizan árboles
de decisión regulares al permitir nodos de opción además de nodos de
decisión; tales nodos hacen posible llevar a cabo varias pruebas posibles
en lugar de la única prueba comúnmente utilizada. La clasificación es
similar a los árboles de decisión regulares, excepto que se aplica una
regla a los nodos de opción para combinar las predicciones de los nodos
hijos. Existen varias razones para usar árboles de opciones. Los árboles
de decisión de opciones pueden reducir el error de los árboles de
decisión en el manejo de problemas del mundo real combinando
múltiples opciones. Esto es similar a lo que encontramos al implementar
métodos de conjunto que aprenden múltiples modelos y combinan las
predicciones. Sin embargo, a diferencia de los métodos de conjunto, una
decisión de decisión treeyields un solo árbol, que es una representación

10
compacta de muchos árboles posibles y que pueden ser fácilmente
interpretados por humanos. La naturaleza miope de los inductores de
árbol de clasificación descendente y la estabilidad de los clasificadores
son los motivos de la decisión de opción árboles mejorados en
comparación con los árboles de decisión regulares. La Figura 6.4 ilustra
un árbol de opciones. Recuerde que la tarea es clasificar las solicitudes
de hipoteca en: aprobado ("A"), denegado ("D") o manual ("M"). El
árbol se parece a cualquier otro árbol de decisión con un complemento
de un nodo de opción, que se denota como un rectángulo. Si el trabajo
actual en años (YRSJOB) es mayor o igual a dos años, entonces hay dos
opciones para elegir. Cada opción conduce a un subárbol diferente que
resuelve el problema por separado y hace una clasificación. Para
clasificar una nueva instancia con un árbol de opciones, se requiere para
ponderar las etiquetas predichas por todos los elementos secundarios
del nodo de opción. Por ejemplo, Copyright © 2008. World Scientific.
Todos los derechos reservados. No puede reproducirse de ninguna
forma sin el permiso del editor, excepto los usos legítimos permitidos
bajo los derechos de autor de los EE. UU. aw.EBSCO Publishing: eBook
Collection (EBSCOhost) - impreso el 9/6/2018 10:15 PM a través de
UNIVERSIDAD NACIONALABIERTA Y A DISTANCIA - UNADAN: 236037;
Rokach, Lior, Maimon, Oded Z ...; Minería de datos con árboles de
decisión: teoría y aplicacionesCuenta: ns145102November 7, 2007
13:10 WSPC / Book Trim Size for 9in x 6in DataMiningAdvanced
Decision Trees 81YRSJOB <2
≥2LTVMARSTDEPENDSingleMarriedDivorcedD A M> 0 = 0A <75%
≥75% OptionNodeDA MFig. 6.4 Ilustración del árbol de opciones. Para
clasificar una instancia con YRSJOB = 3, MARST = "Married" y DEPEND
= 3, necesitamos combinar la quinta hoja y la sexta hoja (de izquierda a
derecha), lo que da como resultado la clase "A" (dado que ambos están
asociados con la clase "A"). Por otro lado, para clasificar una instancia
con YRSJOB = 3, MARST = "Single" y DEPEND = 3, entonces
necesitamos combinar la hoja cuarta y sexta, resultando en la clase "A"
o "D". Como en la votación por mayoría simple, la clase final se
selecciona arbitrariamente, nunca tiene sentido crear un nodo de opción
con dos hijos; En consecuencia, el número mínimo de opciones para un
nodo de opción es tres. Sin embargo, suponiendo que un vector de
probabilidad esté asociado con cada hoja, es posible usar una
combinación bayesiana para obtener una selección no arbitraria. De
hecho, el modelo presentado en la figura 6.4 se puede ver como la
combinación de los dos árboles de precisión regulares presentados en la
figura 6.5. TDDTOP es un inductor de árbol de decisión descendente

10
(TDDT) que es similar a C4.5 pero con la capacidad adicional de crear
nodos de opción [Ko-havi y Kunz (1997)]. La principal modificación del
algoritmo TDDT básico es que, en lugar de seleccionar siempre una sola
prueba, cuando se evalúan varias pruebas cerca de la mejor, el
algoritmo TDDTOP crea un nodenode. Todos los datos se envían a cada
hijo de un nodo de opción, que luego divide los datos de acuerdo con su
prueba predeterminada. En cuanto a la fase de poda,

OTRO LIBRO
CAPÍTULO 1

PRÓLOGO

11
MODELOS DE
DECISIÓN
1 El alcance de este libro

El enfoque de este libro es modelar formalmente la decisión


haciendo por una sola persona que es consciente de la incertidumbre
ella está enfrentando. Algunos de los modelos y resultados que
proponemos
puede ser aplicable a otras situaciones. Por ejemplo, el

el tomador de decisiones puede ser una organización o una


computadora
gramo. Alternativamente, el tomador de decisiones puede no estar al
tanto

de la incertidumbre involucrada o del hecho de que una decisión


esta siendo hecho. Sin embargo, nuestro interés principal es el
descriptivo y
modelos normativos de decisiones conscientes hechas por humanos.
Hay dos paradigmas principales para el modelado formal de

razonamiento humano, que también se han aplicado para


sion haciendo bajo incertidumbre. Uno involucra probabilistic

y razonamiento estadístico. En particular, el modelo bayesiano


junto con la maximización de la utilidad esperada es la mas

11
paradigma prominente para modelos formales de toma de decisiones

bajo incertidumbre El otro emplea deducciones basadas en reglas


sistemas interactivos. Cada uno de estos paradigmas proporciona un

marco y un conjunto de directrices para la construcción de


modelos para una amplia gama de problemas de decisión.
Estos dos paradigmas no son las únicas formas en que

el razonamiento de las personas puede ser, o ha sido, descrito. En par-


En particular, la afirmación de que las personas razonan por analogías

al menos a Hume. Sin embargo, el razonamiento por analogías tiene


no ha sido objeto de análisis formal en el mismo grado

que los otros paradigmas tienen. Además, no hay gen-


teoría de propósito general que conocemos vincula el razonamiento por

analogías para la toma de decisiones bajo incertidumbre.

Copyright © 2001. Cambridge University Press. Todos los derechos


reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto usos justos
permitido bajo los EE. UU. o la ley de propiedad intelectual aplicable.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM vía

11
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA - UNAD
AN: 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las
decisiones basadas en casos
Cuenta: ns145102

Una teoría de las decisiones basadas en casos

Nuestro objetivo es llenar este vacío. Es decir, buscamos un objetivo


general
plantear modelo formal, comparable al modelo esperado

maximización de la utilidad, que (i) proporcionará un marco

dentro de la cual se puede modificar una gran clase de problemas


específicos
eled; (ii) se basará en datos que son, al menos en principio,

observable; (iii) permitir el análisis matemático de


problemas, como el comportamiento asintótico; y (iv) basarse en
razonamiento por analogías.
Creemos que el razonamiento humano generalmente implica un

combinación de las tres técnicas básicas, a saber,


deducción basada, inferencia probabilística y analogías.

El modelado formal tiende a optar por la elegancia y enfocarse


en ciertos aspectos de un problema a expensas de otros.

11
De hecho, nuestro objetivo es proporcionar un modelo de caso o
analogía
toma de decisiones basada en que será lo suficientemente simple como
para

resaltar los principales puntos de vista. Discutimos las diversas formas


de

que nuestro modelo puede capturar deductivo y probabilis-


el razonamiento tic, pero no modelamos formalmente el último. Eso

debe darse por hecho que un modelo realista de


la mente humana debería incluir ingredientes de los tres
paradigmas, y tal vez varios otros también. En este punto
simplemente intentamos sentar las bases de un paradigma
cuya ausencia de la discusión teórica encontramos
preocupante
La teoría que presentamos aquí no pretende ser más
realista que otras teorías del razonamiento humano o de
elección. En particular, nuestro objetivo no es ajustar con precisión
la teoría de la utilidad como una teoría descriptiva de la toma de
decisiones en
situaciones descritas por probabilidades o estados del mundo.
Más bien, deseamos sugerir un marco dentro del cual
puede analizar la elección en situaciones que no se ajustan a las
existentes
modelos formales muy naturalmente. Nuestra teoría es tan idealizada
como teorías existentes. Solo afirmamos que en muchas situaciones
es una conceptualización más natural de la realidad que lo que son

11
estas otras teorías
Este libro no intenta proporcionar ni siquiera un resumen
encuestas de los paradigmas establecidos para el modelado formal
de razonamiento, o de la literatura existente sobre casos

Copyright © 2001. Cambridge University Press. Todos los derechos


reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto usos justos
permitido bajo los EE. UU. o la ley de propiedad intelectual aplicable.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM vía
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA - UNAD
AN: 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las
decisiones basadas en casos
Cuenta: ns145102

Prólogo

razonamiento. El lector interesado se refiere a textos estándar


para las definiciones básicas y antecedentes.
Muchas de las ideas y resultados matemáticos en este libro
han aparecido en artículos de revistas y documentos de trabajo (Gilboa
y Schmeidler 1995, 1996, 1997a, b, 1999, 2000a, b, 2001).

Este material ha sido integrado, organizado e inter-


hecho de nuevas maneras. Además, aparecen varias secciones

11
aquí por primera vez. Al escribir este libro, hicimos un esfuerzo para
dirigirnos a los lectores de diferentes disciplinas académicas. Mientras
que varios capítulos son de interés común, otros pueden abordar
audiencias más específicas. La siguiente es una breve guía del libro.
Comenzamos con dos secciones metateóricas, una dedicada a las
definiciones de términos filosóficos, y la otra a los puntos de vista sobre
la forma en que se deben llevar a cabo la teoría de la decisión y la teoría
económica. Estas dos secciones pueden omitirse sin grandes pérdidas
para la sustancia principal del libro. Sin embargo, la Sección 2 puede
ayudar a aclarar la forma en que usamos ciertos términos (como
"racionalidad", "ciencia normativa" y similares), y la Sección 3 explica
parte de nuestra motivación en el desarrollo de la teoría descrita en este
libro.Capítulo 2 el libro presenta las ideas principales de la teoría de
decisión basada en casos (CBDT), así como su modelo formal. Ofrece
varias reglas de decisión, una interpretación conductista de CBDT y una
especificación de la teoría para problemas de predicción. El Capítulo 3
proporciona los fundamentos axiomáticos para las reglas de decisión en
el Capítulo 2. En línea con la teoría de la indecisión de la tradición y la
economía, busca relacionar los conceptos teóricos con los observables y
especificar las condiciones bajo las cuales la teoría puede ser refutada.
El Capítulo 4, por otro lado, se centra en el epistemo -fundamentos
lógicos de CBDT. Lo compara con los otros dos paradigmas del
razonamiento humano y sostiene que, desde un punto de vista
conceptual, el razonamiento analógico es primordial, mientras que tanto
la inferencia deductiva como el razonamiento probabilístico se derivan
de él. Mientras que el Capítulo 3 proporciona los fundamentos
matemáticos de nuestra teoría, el presente3Copyright © 2001.
Cambridge University Press. Todos los derechos reservados. No puede
ser reproducido en ninguna forma sin el permiso del editor, excepto los
usos justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de decisiones basadas en casos. Cuenta: ns145102 Una teoría de
decisiones basadas en casos ofrece los fundamentos conceptuales de la
teoría y del lenguaje dentro del cual se formula el modelo matemático.
El capítulo 5 trata de la planificación. Generaliza el modelo CBDT de una
decisión de una sola etapa a una etapa múltiple, y ofrece una base
axiomática para esta generalización. El capítulo 6 se centra en un caso
especial de nuestro modelo general, en el que el mismo problema se
repite una y otra vez. se relaciona con los problemas de la elección

11
discreta en la teoría de la decisión y en el mercadeo, y toca los temas de
consumrtheory. También contiene algunos resultados que se usan más
adelante en el libro. El capítulo 7 trata sobre cuestiones de aprendizaje,
dinámica evolutiva e inducción en nuestro modelo. Comenzamos con un
resultado óptimo para el caso de un problema repetido, que se basa en
una forma bastante rudimentaria de aprendizaje. Continuamos
discutiendo formas de aprendizaje más interesantes, así como la
inferencia inductiva. Lamentablemente, no ofrecemos ningún resultado
excelente sobre los problemas más interesantes. Sin embargo,
esperamos que el modelo formal que proponemos pueda facilitar la
discusión de estos temas.2 Vocabulario metateórico Dedicamos esta
sección a definir la forma en que usamos ciertos términos tomados de la
filosofía. Las definiciones de los términos y las distinciones entre los
conceptos tienden a ser difusas y subjetivas. Los siguientes no son una
excepción. Estas son simplemente las definiciones que hemos
encontrado que son las más útiles para discutir las teorías de la toma de
decisiones con poca seguridad en el estado actual. Si bien nuestras
definiciones se orientan hacia un objetivo específico, varias de ellas
pueden facilitar también la discusión de otros temas.2.1 Teorías y
marcos conceptuales Una teoría de las ciencias sociales puede verse
como una estructura matemática formal unida a una interpretación
informal. Considere, por ejemplo, la teoría económica que 4Copyright ©
2001. Cambridge University Press. Todos los derechos reservados. No
puede ser reproducido en ninguna forma sin el permiso del editor,
excepto los usos justos permitidos por los EE. UU. O las leyes de
derechos de autor aplicables. EBSCO Publishing: eBook Collection
(EBSCOhost) - impreso el 9/6/2018 10:23 PM porUNIVERSIDAD
NACIONAL ABIERTA YA DISTANCIA - UNADAN : 72982; Gilboa, Itzhak,
Schmeidler, David .; Una teoría de decisiones basadas en casos Cuenta:
ns145102 La demanda del consumidor de prólogo se deriva de
maximizar una función de utilidad bajo una restricción presupuestaria.
Una posible representación formal de esta teoría consiste en dos
componentes, que describen dos conjuntos, C y P. El primer conjunto,
C, consiste en todas las funciones de demanda concebibles. Una función
de demanda mapsa un vector de precios positivos p ∈ Rn ++ y un nivel
de ingresosI ∈ R + a un vector de cantidades d (p, I) ∈ Rn +,
interpretado como las cantidades de consumo deseadas por el
consumidor bajo la restricción presupuestaria que el gasto total d (p, I) ·
P no excede el ingreso I. El segundo conjunto, P, es el subconjunto de C
que es consistente con la teoría. Específicamente, P consiste en las
funciones de demanda que pueden ser se describe como la

11
maximización de una función de utilidad.1 Cuando la teoría es
descriptiva, el conjunto P se interpreta como todos los fenómenos (en C)
que en realidad podrían observarse. Cuando la teoría es normativa, P se
interpreta como todos los fenómenos (en C) que recomienda la teoría.
Por lo tanto, si la teoría es descriptiva o normativa es parte de la
interpretación informal. La interpretación informal también debe
especificar las aplicaciones previstas de la teoría. Esto se hace a dos
niveles. Primero, hay "apodos" adjuntos a mathematicalobjects. Así, Rn
+ se conoce como un conjunto de "paquetes", Rn ++ - como un
conjunto de "vectores de precios" positivos, mientras que se supone que
represento "ingresos" yd - "demanda". En segundo lugar, hay
descripciones más detalladas que especifican si, por ejemplo, el
conjunto Rn + debe considerarse como la representación de bienes
físicos en un modelo atemporal, planes de consumo a lo largo del
tiempo o activos financieros, incluidos los reclamos contingentes, ya sea
que deniegue la demanda de un individuo o un hogar En términos
generales, la estructura formal de una teoría consiste en una descripción
de un conjunto C y una descripción de un subconjunto de los mismos, P.
Se entiende que el conjunto C consiste en concebiblemente observable1.
La teoría del consumidor estándar (neoclásica) impone una estafa
adicional -tracciones. Por ejemplo, la homogeneidad y la continuidad a
menudo forman parte de la definición de funciones de demanda, y las
funciones de utilidad son obligatorias para que sean continuas,
monótonas y estrictamente cuasiconocuas. Omitimos estos detalles para
la claridad de la exposición. Copyright © 2001. Cambridge University
Press. Todos los derechos reservados. No puede ser reproducido en
ninguna forma sin el permiso del editor, excepto los usos justos
permitidos por los EE. UU. O las leyes de derechos de autor aplicables.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA -
UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las
decisiones basadas en casos. Cuenta: ns145102A teoría de los casos
basados en los fenómenos de las decisiones. Puede ser referido como el
alcance de la teoría. Una teoría así selecciona un conjunto de fenómenos
P del conjunto de fenómenos concebibles C, y excluye su complemento
C \ P. Lo que se dice sobre este conjunto P, sin embargo, está
especificado por la interpretación informal: puede ser la predicción o la
recomendación de la teoría. Obsérvese que la estructura formal de la
teoría no consiste en los conjuntos C y P mismos. Más bien, consiste en
descripciones formales de estos conjuntos, DC y DP, respectivamente.
Estas descripciones formales son cadenas de caracteres que definen los

11
conjuntos en notación matemática estándar. Por lo tanto, las teorías no
son extensionales. En particular, dos descripciones matemáticas
diferentes DP y DP del mismo conjunto P darán lugar a dos teorías
diferentes. Puede ser una tarea matemática no trivial descubrir
relaciones entre conjuntos descritos por diferentes teorías. Es posible
que dos teorías que difieren no solo en la estructura formal (DC, DP)
sino también en los conjuntos (C, P) puedan coincidir en el fenómenos
del mundo real que describen. Por ejemplo, considere nuevamente el
paradigma de la maximización de la utilidad en la teoría del consumidor.
Hemos explicado por encima de una manifestación de este paradigma
en el lenguaje de las funciones de demanda. Pero la literatura también
ofrece otras teorías dentro del mismo paradigma. Por ejemplo, uno
puede definir el conjunto de fenómenos concebibles como todas las
relaciones binarias sobre Rn +, con una definición correspondiente del
subconjunto de estas relaciones que se ajusta a la maximización de una
función con valores reales. La interpretación informal de una teoría
también puede definirse formalmente. Por ejemplo, la asignación de
apodos a objetos matemáticos se puede ver como un mapeo de las
descripciones formales de estos objetos, que aparecen en DC y en DP,
en un lenguaje natural, siempre que el último sea un objeto matemático
formal. De manera similar, uno puede definir formalmente "fenómenos
del mundo real" y representar las aplicaciones (previstas) de la teoría
como una colección de representaciones cartográficas de las entidades
matemáticas para este conjunto. Finalmente, el tipo de interpretación de
la teoría, es decir, si es 6Copyright © 2001. Cambridge University Press.
Todos los derechos reservados. No puede ser reproducido en ninguna
forma sin el permiso del editor, excepto los usos justos permitidos por
los EE. UU. O las leyes de derechos de autor aplicables. EBSCO
Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018 10:23
PM porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA - UNADAN :
72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las decisiones
basadas en casos: ns145102Prologuedescriptive o normativo, puede
formalizarse fácilmente.2 La teoría de Thusa puede describirse como un
quíntuple que consiste en DC, DP, la asignación de apodos, las
aplicaciones y el tipo de interpretación. Nos referimos a los tres
primeros componentes de este quintuplete, es decir, DC, DP, y la
asignación de apodos, como marco conceptual (o marco para abreviar).
Un marco conceptual describe así un alcance y una descripción de una
predicción o recomendación, y apunta a un tipo de aplicaciones
mediante la asignación de apodos El framework Buta no especifica
completamente las aplicaciones. Por lo tanto, los marcos no llegan a

11
calificarse como teorías, incluso si se da el tipo de interpretación. Por
ejemplo, el modelo de la teoría de la utilidad esperada de Savage
(1954) implica relaciones binarias sobre funciones definidas en un
espacio medible. El modelo matemático es coherente con las
interpretaciones del mundo real que no tienen nada que ver con la
elección bajo incertidumbre, como la elección de las corrientes de
consumo en el tiempo o los perfiles de ingresos en una sociedad. El
apodo "espacio de estados del mundo", que está unido al espacio
medible en el modelo de Savage, define un marco que trata la decisión
bajo incertidumbre. Pero el marco conceptual de la teoría de la utilidad
esperada no especifica exactamente cuáles son los estados del mundo, o
cómo deben ser construidos. De manera similar, el marco conceptual del
equilibrio de Nash (Nash 1951) en la teoría de juegos se refiere a
"jugadores" y a "estrategias", pero no especifica si los jugadores son
individuos, organizaciones o estados, si la teoría debe aplicarse a orto
repetida o situaciones únicas, a situaciones que involucran a pocos o
muchos jugadores, y así sucesivamente. Por el contrario, la teoría de la
maximización de la utilidad esperada bajo riesgo (von-Neumann y
Morgenstern, 1944), as2. Nuestro modelo formal también permite otras
interpretaciones. Por ejemplo, puede representar una teoría formal de la
estética, donde el conjunto P se interpreta como la definición de lo bello.
Se puede argumentar que tal teoría todavía se puede interpretar como
una teoría normativa, que prescribe cómo se debe llevar a cabo el juicio
estético.7Copyright © 2001. Cambridge University Press. Todos los
derechos reservados. No puede ser reproducido en ninguna forma sin el
permiso del editor, excepto los usos justos permitidos por los EE. UU. O
las leyes de derechos de autor aplicables. EBSCO Publishing: eBook
Collection (EBSCOhost) - impreso el 9/6/2018 10:23 PM
porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA - UNADAN :
72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las decisiones
basadas en casos: ns145102 Una teoría de las decisiones basadas en
casos, así como la teoría de las perspectivas (Kahneman y Tversky,
1979) son marcos conceptuales de acuerdo con nuestra definición. Aún
así, pueden clasificarse también como teorías, porque el alcance y los
apodos que emplean definen casi por completo las aplicaciones.
Comentario terminológico: La discusión anterior implica que la teoría de
la utilidad esperada debería denominarse un marco más que una teoría.
De manera similar, los juegos no cooperativos combinados con el
equilibrio de Nash constituyen un marco. Aún así, seguimos el uso
estándar en la mayor parte del libro y usamos a menudo la "teoría"
donde nuestro vocabulario sugiere "marco de trabajo" .3 Sin embargo,

12
el término "marco" se usará solo para marcos conceptuales que tienen
varias aplicaciones sustancialmente diferentes.2.2 Descriptivo y
normativo Teorías Hay muchos significados posibles para una selección
de un conjunto P de un conjunto de fenómenos concebibles C. Entre
ellos, encontramos que es crucial enfocarse y distinguir entre dos que
son relevantes para las teorías en las ciencias sociales: descriptivo y
normativo. . Una teoría descriptiva intenta describir, explicar o predecir
observaciones. A pesar de los diferentes significados intuitivos, uno
puede encontrar difícil proporcionar una distinción cualitativa formal
entre la descripción y la explicación. Además, la distinción entre estos y
la predicción puede no ser muy fundamental tampoco. Por lo tanto, no
nos detenemos en las distinciones entre estos objetivos. Una teoría
normativa intenta proporcionar recomendaciones sobre qué hacer. Se
deduce que las teorías normativas están dirigidas a una audiencia de
personas que enfrentan decisiones que son capaces de entender sus
recomendaciones. Sin embargo, no todas las recomendaciones califican
como ciencia normativa. Hay recomendaciones que tal vez se clasifiquen
como predicación moral, religiosa o política.3 También aplicamos el uso
estándar al título de este libro.8Copyright © 2001. Cambridge University
Press. Todos los derechos reservados. No puede ser reproducido en
ninguna forma sin el permiso del editor, excepto los usos justos
permitidos por los EE. UU. O las leyes de derechos de autor aplicables.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA -
UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las
decisiones basadas en casos. Cuenta: ns145102Prólogo. Se caracterizan
por sugerir objetivos a los que toman decisiones y, como tales, están
fuera del ámbito de la actividad académica. Existe un tipo adicional de
recomendación que no consideramos como teorías normativas. Estas
son recomendaciones que pertenecen al dominio de la planificación
social o la ingeniería. Se caracterizan por recomendar herramientas para
lograr objetivos preespecificados. Por ejemplo, el diseño de los
mecanismos de asignación que producen óptimas salidas de Pareto
acepta el objetivo dado de la optimalidad de Pareto y resuelve un
problema similar a la ingeniería para obtenerlo. Nuestro uso de la
"ciencia normativa" difiere de estos dos tipos de recomendaciones. Una
científica normativa la afirmación puede verse como una declaración
descriptiva explícita sobre las preferencias de los responsables de la
toma de decisiones. Estas últimas son acerca de realidades imaginables
que son el tema de las teorías descriptivas. Por ejemplo, mientras que
una teoría descriptiva de la elección investiga las preferencias reales,

12
una teoría normativa de la elección analiza el tipo de preferencias que le
gustaría tener al decisor, es decir, las preferencias sobre las
preferencias. Un axioma como la transitividad de las preferencias,
cuando se interpreta normativamente, trata de describir la forma en que
el que toma las decisiones preferiría tomar decisiones. De manera
similar, Harsanyi (1953, 1955) y Rawls (1971) pueden interpretarse
como teorías normativas de la elección social en el sentido de que
intentan describir a qué sociedad le gustaría pertenecer. Según esta
definición, las teorías normativas también son descriptivas. Intentan
describir una cierta realidad, a saber, las preferencias que tiene un
individuo sobre la realidad que encuentra. Para evitar confusiones,
reservaremos el término "teoría descriptiva" para las teorías que no son
normativas. Es decir, las teorías descriptivas tratarían, por definición,
con la realidad de "primer orden", mientras que las teorías normativas
tratarían con la realidad de "segundo orden", es decir, con las
preferencias sobre la realidad de primer orden. La realidad de primer
orden puede ser externa u objetiva, mientras que la realidad de
segundo orden siempre tiene que ver con preferencias subjetivas que se
encuentran dentro de la mente de un individuo. Sin embargo, la realidad
de primer orden podría 9Copyright © 2001. Cambridge University Press.
Todos los derechos reservados. No puede ser reproducido en ninguna
forma sin el permiso del editor, excepto los usos justos permitidos por
los EE. UU. O las leyes de derechos de autor aplicables. EBSCO
Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018 10:23
PM porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA - UNADAN :
72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las decisiones
basadas en casos cuenta: ns145102 Una teoría de las decisiones
basadas en casos incluye preferencias reales, en cuyo caso la distinción
entre la realidad de primer orden y la de segundo orden puede volverse
materia relativa.5 Sin necesidad de decirlo, estas distinciones a veces
son confusas y subjetivas. Un ensayo científico puede pertenecer a
varias categorías diferentes, y puede ser interpretado de manera
diferente por diferentes lectores, quienes también pueden estar en
desacuerdo con la interpretación del autor. Por ejemplo, el axioma de
independencia de la teoría de la esperada agilidad de von-Neumann y
Morgenstern puede interpretarse como un componente de una teoría
descriptiva. De hecho, probarlo experimentalmente presupone que tiene
un derecho a describir la realidad. Pero también puede ser interpretado
normativamente, como una recomendación para la toma de decisiones
bajo riesgo. Para citar un famoso ejemplo, Maurice Allais presentó su
paradoja (véase Allais 1953) a varios investigadores, incluido el difunto

12
Leonard Savage. Este último expresó sus preferencias en violación de la
teoría de la previsibilidad. Allais argumentó que la maximización de la
utilidad esperada no es una teoría descriptiva exitosa. La respuesta de
Savage era que su teoría debería interpretarse normativamente, y que
podría ayudar a un tomador de decisiones a evitar tales errores.
Además, incluso cuando una teoría se interpreta como una
recomendación, puede implicar diferentes tipos de recomendaciones.
Por ejemplo, Shapley axiomatizó su valor para los juegos de utilidad
transferibles cooperativos (Shapley 1953). Cuando se interpretan
normativamente, los axiomas intentan capturar las preferencias de los
encargados de la toma de decisiones sobre la forma en que, por
ejemplo, el costo se asigna en diferentes problemas. Un resultado
relacionado por4 Existe la tentación de considerar una jerarquía de
preferencias y preguntar cuáles están en el ámbito de las teorías
descriptivas. Resistimos esta tentación. 5 En muchos casos las
preferencias de primer orden serían reveladas por las elecciones reales,
mientras que las preferencias de segundo orden solo se reportarían
verbalmente. Sin embargo, esta distinción no es clara. En primer lugar,
puede haber preferencias de primer orden que no se pueden observar
en la elección real. En segundo lugar, se puede imaginar situaciones de
elección elaboradas en las que se puedan observar preferencias de
segundo orden, como en los casos en que se decide sobre un
procedimiento de toma de decisiones o sobre un dispositivo de
compromiso.10 Copyright © 2001. Cambridge University Press. Todos
los derechos reservados. No puede ser reproducido en ninguna forma
sin el permiso del editor, excepto los usos justos permitidos por los EE.
UU. O las leyes de derechos de autor aplicables. EBSCO Publishing:
eBook Collection (EBSCOhost) - impreso el 9/6/2018 10:23 PM
porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA - UNADAN :
72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de decisiones
basadas en casos: ns145102PrologueShapley muestra que el valor de
un jugador se puede calcular como un promedio ponderado de sus
contribuciones marginales. Este resultado puede ser interpretado de dos
maneras. Primero, uno puede verlo como una recomendación de
ingeniería: dado el objetivo de computar el valor de un jugador, sugiere
una fórmula para su cálculo. Segundo, también se puede argumentar
que compensar a un jugador en la medida de su contribución marginal
promedio es éticamente atractivo, y por lo tanto la fórmula , como los
axiomas, tiene un sabor anormal. Para concluir, las distinciones entre
desc Las teorías riptive andnormative, así como entre las últimas y la
ingeniería, por una parte, y la predicación, por otra, no se basan en

12
criterios matemáticos. El mismo resultado matemático puede ser parte
de cualquiera de estos tipos de actividades científicas o no científicas.
Estas distinciones se basan en la intención del autor o en su intención
percibida. Es precisamente la naturaleza intrínsecamente subjetiva de
estas distinciones lo que exige que uno sea explícito sobre la
interpretación sugerida de una teoría. También se deduce que uno debe
tener en mente una interpretación sugerida al intentar evaluar una
teoría. Como una teoría descriptiva se evalúa por su conformidad con la
realidad objetiva, una teoría normativa no lo es. Por el contrario, una
teoría normativa que sugiere a la gente que deben hacer algo que de
todos modos tiene un valor cuestionable. ¿Cómo deberíamos evaluar
una teoría normativa, entonces? Ya que definimos las teorías normativas
como teorías descriptivas que tratan con la realidad de segundo orden,
una teoría normativa también debe probarse de acuerdo con su
conformidad con la realidad. Pero es una realidad de segundo orden con
la que debe compararse una teoría normativa. Por ejemplo, una prueba
razonable de una teoría normativa podría ser si sus sujetos aceptan sus
recomendaciones. Sin embargo, es innegable que la evaluación de las
teorías normativas es inherentemente más problemática que la de las
teorías descriptivas. La evidencia de las teorías normativas tendría que
basarse en la introspección y en los datos de autoinforme mucho más de
lo que lo haría la evidencia. Copyright © 2001. Cambridge University
Press. Todos los derechos reservados. No puede ser reproducido en
ninguna forma sin el permiso del editor, excepto los usos justos
permitidos por los EE. UU. O las leyes de derechos de autor aplicables.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA -
UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de
decisiones basadas en casos. Cuenta: ns145102A teoría de decisiones
basadas en casos teorías descriptivas. Además, estos datos pueden
estar sujetos a manipulación. Para considerar un ejemplo simple,
supongamos que estamos tratando de probar la afirmación normativa
de que los ingresos deben distribuirse de manera uniforme. Se supone
que debemos averiguar si a la gente le gustaría vivir en una sociedad
igualitaria. Simplemente preguntar a las personas puede confundir sus
preferencias éticas con su propio interés. De hecho, una persona puede
no estar segura de si está suscrita a una tesis filosófica o política por
convicción pura o por egoísmos. Un experimento gedanken como
situarse detrás del "velo de la ignorancia" (Harsanyi, 1953, 1955, Rawls,
1971) puede ayudar a uno a encontrar sus propias preferencias, pero
aún puede ser de poca ayuda en un contexto social. Además, la realidad

12
que uno intenta modelar, a saber, las preferencias de una persona sobre
las reglas que gobiernan la sociedad, o sus preferencias lógico-estéticas
sobre sus propias preferencias, son un objetivo móvil que cambia
constantemente con el comportamiento real y la realidad social. Sin
embargo, la forma en que las teorías obligatorias o normativas admiten
una cierta noción de evaluación empírica.2.3 Axiomatizaciones En el uso
común, el término "axiomatización" se refiere a la teoría. Sin embargo,
la mayoría de las axiomatizaciones en la literatura se aplican a marcos
conceptuales de acuerdo con nuestras definiciones. De hecho, la
siguiente definición de axiomatización se refiere únicamente a una
estructura formal (DC, DP). Una axiomatización de T = (DC, DP) es un
modelo matemático que consiste en: (i) una estructura formal T = (DC,
DP), que comparte la descripción del conjunto C con T, pero lo que P se
describe solo en el lenguaje de los fenómenos que se consideran
observables; (ii) resultados matemáticos que relacionan el conjunto P de
T con el conjunto P de T. Idealmente, a uno le gustaría tener
condiciones sobre fenómenos observables que sean necesarios y
suficientes para que P se mantenga, es decir, tener una estructura T tal
que P = P En este caso, se considera que T es Copyright © 2001.
Cambridge University Press. Todos los derechos reservados. No puede
ser reproducido en ninguna forma sin el permiso del editor, excepto los
usos justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de decisiones basadas en casos Cuenta: ns145102Prologuea
axiomatización "completa" de T. Las condiciones que describen P se
conocen como "axiomas" .6 Observe que si T = (DC, DP) se considera
anaxiomatización de T depende de la cuestión de observabilidad de los
términos en DP. En consecuencia, la definición anterior solo se
completará con una definición formal de "observabilidad". No intentamos
proporcionar tal definición aquí, y usamos el término "axiomatización"
como si la observabilidad estuviera bien definida.7 A lo largo del resto
de esta subsección asumiremos que las aplicaciones de los marcos
conceptuales están acordadas. Por lo tanto, nos apegaremos al uso
estándar y nos referiremos a las axiomatizaciones de teorías (en lugar
de a las estructuras formales). Debido a las decisiones involucran
fenómenos intrínsecamente subjetivos, a menudo ocurre que la
formulación de la teoría contiene cuantificadores existenciales. En este
caso, una axiomatización completa también incluiría un resultado con
respecto a la singularidad. Por ejemplo, considere de nuevo la teoría

12
afirmando que "existe una función [llamada de utilidad] tal que, en
cualquier decisión entre dos elecciones, el consumidor adoptaría para
aquella a la cual la función [de utilidad] adhiere un mayor valor". Una
axiomatización de esta teoría debería proporcionar condiciones bajo las
cuales el consumidor pueda considerarse que maximiza una función de
utilidad en decisiones binarias. Además, debería abordar la cuestión de
la singularidad de esta función: ¿hasta qué punto podemos argumentar
que la función de utilidad está definida por los datos observables de las
opciones binarias? Hay tres razones por las que uno podría estar
interesado en las axiomatizaciones de una teoría. Primero, la razón
metacientífica mencionada anteriormente: una axiomatización
proporciona un vínculo entre los términos teóricos y el (supuestamente)
observable6. A diferencia del significado original de la palabra, un
"axioma" no necesita ser indiscutible o evidente por sí mismo. Sin
embargo, la evaluación de los sistemas axiomáticos generalmente
prefiere axiomas que sean simples en términos de formulación
matemática y transparentes en términos de contenido empírico. 7 De
hecho, las personas que no están de acuerdo con la definición de
observabilidad pueden estar en desacuerdo si un determinado resultado
matemático califica como una axiomatización.13 Copyright © 2001.
Cambridge University Press. Todos los derechos reservados. No puede
ser reproducido en ninguna forma sin el permiso del editor, excepto los
usos justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de las decisiones basadas en casos. Cuenta: ns145102A teoría de
los términos de las decisiones basadas en casos utilizados por la teoría.
Fieles a las enseñanzas del positivismo lógico (Carnap 1923, véase
también Suppe 1974), a uno le gustaría tener definiciones observables
de términos teóricos, para hacer que el último tenga sentido. Las
axiomataciones ayudan a identificar las diferencias teóricas que tienen
implicaciones observables, y evitan los debates entre teorías que son
observacionalmente equivalentes. Uno podría desear tener una
axiomatización de una teoría por razones descriptivas. Dado que una
axiomatización traduce la teoría a afirmaciones directamente
observables, prescribe un camino para la validez empírica de la teoría.
En la medida en que los axiomas excluyen ciertas observaciones
imaginables, también determinan que la teoría es no vacua, es decir,
falsable, como lo predicó Popper (1934). Nótese también que hay
muchas situaciones, especialmente en las ciencias sociales, donde no es

12
práctico someter una teoría a pruebas empíricas directas. En esos casos,
una axiomatización puede ayudarnos a juzgar la plausibilidad de la
teoría. En este sentido, las axiomatizaciones pueden tener un propósito
retórico. Por último, a menudo uno está interesado en axiomatizaciones
por razones normativas. Una teoría normativa es exitosa en la medida
en que convence a los tomadores de decisiones de cambiar la forma en
que toman sus decisiones.8 Un conjunto de axiomas, formulados en el
lenguaje de la elección observable, a menudo puede convencer a los
creadores de la decisión de que cierta teoría tiene más mérito que su
formulación matemática poder. Por lo tanto, el papel normativo de las
axiomatizaciones es intrínsecamente retórico. A menudo sucede que una
axiomatización sirve a tres propósitos. Por ejemplo, una axiomatización
de la utilidad8 Cambiar la toma de decisiones real es el objetivo final de
una teoría normativa. Tales cambios son a menudo graduales e
indirectos. Por ejemplo, las teorías normativas pueden convencer
primero a los científicos antes de que pasen a los practicantes y al
público en general. Además, una teoría normativa puede cambiar la
forma en que las personas desearían comportarse, incluso si no
implementan sus políticas establecidas, por ejemplo, por razones de
autodisciplina. Por último, una teoría normativa puede convencer a
muchas personas de que les gustaría que la sociedad tome ciertas
decisiones, pero es posible que no puedan motivarlas por razones
políticas. En todos estos casos, las teorías normativas definitivamente
tienen algún éxito.14 Copyright © 2001. Cambridge University Press.
Todos los derechos reservados. No puede ser reproducido en ninguna
forma sin el permiso del editor, excepto los usos justos permitidos por
los EE. UU. O las leyes de derechos de autor aplicables. EBSCO
Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018 10:23
PM porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA - UNADAN :
72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las decisiones
basadas en casos. Cuenta: ns145102 La maximización del protocolo en
la teoría del consumidor proporciona una definición del término
"utilidad" y muestra que las opciones binarias solo pueden definir tal
función de utilidad hasta una transformación arbitraria mono-tono. Este
ejercicio metacientífico salva los debates inútiles sobre la elección entre
funciones de utilidad equivalentes de observación.9 En un nivel
descriptivo, tal axiomatiz ación muestra lo que implica la maximización
de la utilidad. Esto permite probar la teoría de que los consumidores son
de hecho maximizadores de utilidad. Además, hace que la teoría de la
maximización de la utilidad sea mucho más plausible, porque muestra
que las suposiciones de consistencia relativamente suaves son

12
suficientes para tratar a los consumidores como si fueran
maximizadores de utilidad, incluso si no son conscientes de ninguna
función de utilidad, de maximización o incluso del acto Por último, en un
nivel normativo, una axiomatización de la maximización de la utilidad
puede convencer a una persona o a una organización de que, de
acuerdo con su propio criterio, deben apostar por una función de utilidad
y actuar para maximizarla. De forma similar, la axiomatización de
Savage (1954) la maximización de utilidad subjetiva esperada
proporciona definiciones observables de los términos "utilidad" y
"probabilidad (subjetiva)". Descriptivamente, nos proporciona razones
para creer que hay tomadores de decisiones que pueden describirse
como maximizadores de la utilidad esperada, incluso si no son
conscientes de ello , lo que hace que la maximización de la utilidad
esperada sea una teoría más plausible. Finalmente, desde un punto de
vista normativo, los tomadores de decisiones que encogen los hombros
cuando se enfrentan con la teoría de la maximización esperada de la
utilidad pueden encontrarlo más convincente si están expuestos a los
axiomas de Savage. Mientras nuestro uso del término "axiomatización"
resalta el papel de proporcionar un vínculo entre conceptos teóricos y
datos observables, este término se usa a menudo en otros sentidos.
Tanto en matemáticas como en ciencias, una "axiomatización" a veces
se refiere a una caracterización de una certeza por algunas de sus
propiedades. Uno a menudo está interesado en 9 Esto, al menos, es la
vista de libro de texto microeconómico estándar. Para una vista anónima
ver Beja y Gilboa (1992) y Gilboa y Lapson (1995) .15Copyright ©
2001. Cambridge University Press. Todos los derechos reservados. No
puede ser reproducido en ninguna forma sin el permiso del editor,
excepto los usos justos permitidos por los EE. UU. O las leyes de
derechos de autor aplicables. EBSCO Publishing: eBook Collection
(EBSCOhost) - impreso el 9/6/2018 10:23 PM porUNIVERSIDAD
NACIONAL ABIERTA YA DISTANCIA - UNADAN : 72982; Gilboa, Itzhak,
Schmeidler, David .; Una teoría de las decisiones basadas en casos.
Cuenta: ns145102A teoría de decisiones basadas en casos tales
axiomatizaciones como descomposiciones del concepto que se
axiomatiza. El estudio de los "pilares" del concepto que se hace
típicamente mejora nuestra comprensión de los mismos y permite el
estudio de conceptos relacionados. Las axiomaciones en el sentido
utilizado en este libro también tendrán típicamente el sabor de la
descomposición de una construcción. Por lo tanto, además de las
razones mencionadas anteriormente, uno también puede estar
interesado en axiomatizaciones simplemente como una forma de

12
comprender mejor lo que caracteriza a un determinado concepto y cuál
es la fuerza impulsora detrás de ciertos resultados. Por ejemplo, la
anaxomatización de la maximización de la utilidad en la teoría del
consumidor a menudo reducirá la teoría de la utilidad a "ingredientes"
más primitivos, y también sugerirá teorías alternativas que compartan
algunos de estos ingredientes, como las preferencias que son transitivas
pero no necesariamente completas.2.4 Conductista, conductual y las
teorías cognitivas. Distinguimos entre dos tipos de datos. Los datos de
comportamiento son observaciones de acciones tomadas por los
tomadores de decisiones. Por contraste, los datos cognitivos son
observaciones relacionadas con la elección que se derivan de la
introspección, autoinformes, etc. Nos interesan las acciones que están
abiertas a la introspección, incluso si no van necesariamente precedidas
por un proceso deliberado de toma de decisiones. Por lo tanto, lo que las
personas dicen sobre cuáles podrían ser sus elecciones, las razones que
dan para las elecciones hipotéticas reales, su recuerdo y motivación
para tales elecciones están todas dentro de la categoría de datos
cognitivos. En contraste con el uso psicológico común, no distinguimos
entre cognición y emoción. Los emocionalmotivos, en la medida en que
pueden recuperarse mediante la introspección y la memoria, son datos
cognitivos. Otros datos relevantes, como ciertas actividades fisiológicas
o neurológicas, no se considerarán conductuales ni cognitivos. Las
teorías de elección se pueden clasificar según los tipos de datos que
reconocen como válidos, así como por los tipos de conceptos teóricos a
los que recurren. Una teoría es conductista, si solo admite datos de
comportamiento, y si tampoco utiliza16Copyright © 2001. Cambridge
University Press. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto los usos
justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de las decisiones basadas en casos. Cuenta: ns145102Conceptos
teóricos cognitivos y cognitivos. (Véase Watson, 1913, 1930, y Skinner,
1938). Reservamos el término "conductual" para los teóricos que solo
reconocen datos de comportamiento, pero que utilizan metáforas
cognitivas. La economía neoclásica y la teoría de la utilidad esperada de
Savage (1954) son conductuales en s sentido: solo reconocen las
preferencias reveladas como datos legítimos, pero recurren a metáforas
como "utilidad" y "creencia". Por último, las teorías cognitivas utilizan
datos cognitivos, así como datos de comportamiento. Por lo general,

12
también usan metástasis cognitivas. Las teorías cognitivas y
conductuales a menudo tienen implicaciones conductuales. Es decir,
pueden decir algo sobre el comportamiento que será consistente con
algunas teorías conductistas pero no con otras. En este caso, nos
referimos a la teoría cognitiva o conductual como una especificación
cognitiva de las teorías conductistas a las que corresponde. Uno puede
ver una especificación cognitiva de una teoría conductista como una
descripción de un proceso mental que implementa la teoría.2.5
Racionalidad. Encontramos que las definiciones puramente
comportamentales de racionalidad omiten invariablemente un
ingrediente importante del significado intuitivo del término. De hecho, si
uno se adhiere a la definición conductual de racionalidad incorporada en,
digamos, Savage'saxioms, uno tiene un método infalible para tomar
decisiones racionales: elegir cualquier función de utilidad anterior y
cualquier otra, y maximizar la utilidad esperada correspondiente.
Adoptando este método, uno nunca será sorprendido violando los
axiomas de Savage. Sin embargo, pocos aceptarían una elección
arbitraria de una asracional previa. De ahí se sigue que la racionalidad
tiene que ver tanto con el razonamiento como con el comportamiento.
Como primera aproximación sugerimos la siguiente definición. Una
acción, o una secuencia de acciones, es racional para un tomador de
decisiones si, cuando el creador de decisiones se enfrenta con un
análisis de las decisiones involucradas, pero sin información adicional, lo
hace17. Copyright © 2001. Cambridge University Press. Todos los
derechos reservados. No puede ser reproducido en ninguna forma sin el
permiso del editor, excepto los usos justos permitidos por los EE. UU. O
las leyes de derechos de autor aplicables. EBSCO Publishing: eBook
Collection (EBSCOhost) - impreso el 9/6/2018 10:23 PM
porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA - UNADAN :
72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las decisiones
basadas en casos. Cuenta: ns145102Una teoría de las decisiones
basadas en casos no lamenta sus elecciones.10 Esta definición de
racionalidad puede aplicarse no solo a la conducta, sino también a los
procesos de decisión que conducen a la conducta. Observe que nuestra
definición presupone una entidad de toma de decisiones capaz de
comprender el análisis de los problemas encontrados. Considere el
ejemplo de la transitividad de las preferencias binarias. Muchas
personas, que exhiben preferencias cíclicas, se arrepienten de sus
elecciones cuando se exponen a este hecho. Para estos tomadores de
decisiones, violar la transitividad se consideraría irracional. La
observación casual muestra que la mayoría peoplefeel vergüenza

13
cuando se les muestra que havefallen presa de los efectos de encuadre
(Tversky y Kahneman, 1981) .Hence diremos que, para la mayoría de la
gente, la racionalidad Dic-os Estados que sean inmunes a los efectos
enmarcar. Obsérvese, sin embargo, que el arrepentimiento que se
deriva de la resolución desfavorable de la incertidumbre no puede
calificarse como una prueba de racionalidad. Como otro ejemplo,
considérese la toma de decisiones de la autoridad. Supongamos que un
tomador de decisiones decide sobre anact, a, y termina eligiendo otro
acto, b, porque, por ejemplo, ella es emocionalmente incapaz de
renunciar b. Si ella se sorprende avergonzada por su acto, puede
considerarse irracional. Pero la irracionalidad en este ejemplo puede
deberse a la intención de elegir a, o a la predicción implícita de que ella
implementaría esta decisión. De hecho, si el responsable de la toma de
decisiones sabe que ella es incapaz de renunciar al acto b, sería racional
que ajuste sus decisiones y predicciones al conjunto factible real. Es
decir, si ella acepta el hecho de que está tecnológicamente limitada a
elegir b, y si ella planea hacerlo, no habrá nada irracional en esta
decisión, y no habrá motivo para que lamente no hacer la elección , que
nunca fue realmente factible. De manera similar, un tomador de
decisiones que tenga limitaciones en términos de errores simples,
memoria insuficiente, capacidad computacional limitada, etc., tal vez
sea racional siempre que su decisión tome en cuenta estas limitaciones,
en la medida en que puedan predecirse.10 Alternativamente, se puede
sustituir "No se siente avergonzado por" por "no se arrepiente"
.18Copyright © 2001. Cambridge University Press. Todos los derechos
reservados. No puede ser reproducido en ninguna forma sin el permiso
del editor, excepto los usos justos permitidos por los EE. UU. O las leyes
de derechos de autor aplicables. EBSCO Publishing: eBook Collection
(EBSCOhost) - impreso el 9/6/2018 10:23 PM porUNIVERSIDAD
NACIONAL ABIERTA YA DISTANCIA - UNADAN : 72982; Gilboa, Itzhak,
Schmeidler, David .; Una teoría de decisiones basadas en casos.
Cuenta: ns145102Prólogo Nuestra definición tiene dos propiedades que
consideramos necesarias para cualquier definición de racionalidad y una
que consideramos útil para nuestros propósitos. En primer lugar, como
se mencionó anteriormente, se basa en datos cognitivos o
introspectivos, así como en datos de comportamiento, y no se puede
aplicar a los responsables de la toma de decisiones que no pueden
entender el análisis de sus decisiones. De acuerdo con esta definición,
no tiene sentido preguntar si r, por ejemplo, abejas, arerational. En
segundo lugar, es de naturaleza subjetiva. Un tomador de decisiones
que, a pesar de toda nuestra predicación, insiste en tomar decisiones

13
dependientes del marco, tendrá que ser admitido en la sala de la
racionalidad. De hecho, hay muy poco acuerdo entre los investigadores
en el campo para justificar la esperanza de una definición unificada y
objetiva de racionalidad. Finalmente, nuestra definición de racionalidad
está estrechamente relacionada con la pregunta práctica de qué se debe
hacer sobre las violaciones observadas de las teorías clasicistas de
elección, como explicamos en la continuación. Assuch, esperamos que
esta definición vaya más allá de capturar la intuición para simplificar la
discusión que sigue.112.6 Desviaciones de la racionalidad Existe un gran
cuerpo de evidencia de que las personas no siempre se comportan como
lo predice la teoría de decisión clásica. ¿Qué debemos hacer con
respecto a las desviaciones observadas de la noción clásica de elección
racional? ¿Deberíamos refinar nuestras teorías descriptivas o descartar
los datos contradictorios como excepciones que pueden ensuciar las
reglas básicas? ¿Deberíamos enseñar nuestras teorías normativas o
modificarlas? Encontramos útil la definición de racionalidad dada
anteriormente para tomar estas decisiones. Si un modo observado de
comportamiento es irracional para la mayoría de las personas, uno
puede sugerir una recomendación normativa para evitar ese modo de
comportamiento. Por definición de irracionalidad, la mayoría de la gente
aceptaría esta recomendación, convirtiéndola en una teoría normativa
exitosa. En contraste, hay un incentivo más débil para incorporar
esto11. Para otros puntos de vista de la racionalidad, ver Arrow (1986),
Etzioni (1986) y Simon (1986) .19Copyright © 2001. Cambridge
University Press. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto los usos
justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de decisiones basadas en casos Cuenta: ns145102 Una teoría del
modo de decisiones basado en casos de comportamiento en teorías
descriptivas: si estas teorías fueran conocidas por los responsables de la
toma de decisiones que describen, los que toman las decisiones
desearían cambiar su conducta. En términos diferentes, una descriptiva
la teoría de la elección irracional es una profecía de auto refutación. Sin
embargo, si un modo de comportamiento observado es racional para la
mayoría de la gente, se mantendrá igual a los once, si los teóricos
predican lo contrario. Por lo tanto, recomendar evitar para hacerlo sería
una teoría normativa pobre. Pero entonces los teóricos deberían incluir
este modo de comportamiento en sus teorías descriptivas. Esto

13
mejoraría la precisión de estas teorías, incluso si las teorías son
conocidas por sus sujetos.2.7 Términos subjetivos y objetivos Ciertos
términos, como la "probabilidad", a veces se clasifican como subjetivos
u objetivos. Algunos autores argumentan que todos estos términos son
intrínsecamente subjetivos, y que el término "objetivo" no es más que
un apodo para términos subjetivos sobre los cuales se llega a un
acuerdo. (Véase Anscombe y Amannmann, 1963). El siguiente ejemplo
plantea una posible objeción. Cinco personas están paradas alrededor
de un pozo que acaban de encontrar en el campo. Todos estiman que su
profundidad debe ser más de 100 pies. Esta es la estimación subjetiva
de cada una de las cinco personas. Sin embargo, aunque todos
coinciden en la estimación, también todos coinciden en que hay una
forma más objetiva de medir la profundidad del pozo. Específicamente,
supongamos que Judy es una de las cinco personas que han descubierto
el pozo y que ella relata la historia de su amigo Jerry. Compara dos
escenarios. En el primer escenario, Judy dice: "Miré dentro, y vi que
tenía más de 100 pies de profundidad". En el segundo escenario, dice:
"Caí una piedra en el pozo y pasé tres segundos antes de escuchar el
chapoteo". Es más probable que Jerry acepte la estimación de Judy en el
segundo escenario que en el primero. También nos gustaría argumentar
que la estimación de Judy de la profundidad del pozo en el segundo
escenario es más objetiva que en el primero. Esto sugiere una definición
de objetividad Prólogo

que requiere más que acuerdo entre juicios subjetivos


mentos: una evaluación es objetiva si es probable que alguien más

para estar de acuerdo con eso Generalmente, uno puede discutir ese
objetivo
juicios requieren alguna justificación más allá de la tal vez
acuerdo coincidente entre los subjetivos.
Puede ser útil conceptualizar la distinción entre
juicios subjetivos y objetivos como cuantitativos, más bien

que cualitativo Como tal, la primera definición de objetividad

13
sugiere la siguiente medida: una evaluación es más

objetivo, cuantas más personas lo comparten como su


evaluación objetiva. La definición que proponemos aquí ofrece

una medida diferente: una evaluación es más objetiva, la


es más probable que las personas que no han pensado en ello
y que no tienen información relevante adicional, para acordar
con eso.
Para considerar otro ejemplo, contrastemos el clásico
con estadísticas bayesianas. Si un estadístico clásico rechaza una
hipótesis, la creencia de que debería ser rechazada es relativamente
objetivo. Por el contrario, un prior de un estadístico bayesiano es
más subjetivo. De hecho, otro estadístico clásico es

más probabilidades de estar de acuerdo con la decisión de rechazar la


hipótesis
esis que es otro estadístico bayesiano que probablemente adoptará un

antes si difiere de la suya. Dos estadísticos bayesianos


puede tener el mismo previo subjetivo, pero si están a punto de
conocer a un tercero, no tienen forma de convencerla de que acepte
con sus anteriores. No hay un método acordado para adoptar
a prior, mientras que existen métodos acordados para probar ciertos
hipótesis.12
Uno puede argumentar que nuestra definición de objetividad otra vez
recurre a un acuerdo entre juicios subjetivos, solo que
este último debería incluir todos los juicios hipotéticos realizados

13
por varios individuos en diversos momentos y en varios estados
del mundo. Pero para propósitos prácticos de lo siguiente
12 Dos bayesianos acordarán un prior, es decir, tendrán un previo
común, en
práctica, si este previo transmite información mínima (por ejemplo, un
uniforme antes
cuando está bien definido). Este es esencialmente el dictamen de
Laplace para el caso
de completa ignorancia, lo que indica un fracaso del reclamo bayesiano
que cualquier información previa puede ser expresada por una función
de probabilidad.

21

Copyright © 2001. Cambridge University Press. Todos los derechos


reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto usos justos
permitido bajo los EE. UU. o la ley de propiedad intelectual aplicable.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM vía
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA - UNAD
AN: 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las
decisiones basadas en casos
Cuenta: ns145102

Una teoría de las decisiones basadas en casos

discusión, encontramos la distinción entre términos objetivos


y coincidencia de términos subjetivos bastante útil.
3 Prejuicios meta-teóricos

13
Esta sección expresa nuestros puntos de vista sobre ciertos temas
relacionados
al estado del arte en la teoría de la decisión, así como a

sus aplicaciones a la economía y a otras ciencias sociales.


Estas vistas indudablemente se correlacionan con nuestra motivación
para
desarrollando la teoría de decisión basada en casos. Sin embargo, como
explicamos

a continuación, la teoría puede ser sugerida y evaluada de forma


independiente
dente de nuestros prejuicios.

3.1 Observación preliminar sobre la filosofía de la ciencia


La filosofía analítica es una ciencia, en el sentido de que
las ciencias sociales son A saber, usa formal o formalizable
modelos analíticos para describir, explicar y predecir

fenómenos (como ciencia descriptiva), o para producir


recomendaciones y prescripciones (como ciencia normativa).

En general, la filosofía se ocupa de los fenómenos que


se concentran principalmente en la mente humana, como
lenguaje, religión, ética, estética, ciencia y otros.
Por lo tanto, la filosofía está más cerca de las ciencias sociales o
humanas
de lo que es a los naturales.

13
Muchos científicos sociales estarían de acuerdo en que sus teorías son
no más que sugerentes ilustraciones o bocetos ásperos.13
Se supone que estas teorías proporcionan información sin
necesariamente siendo literalmente cierto. Por ejemplo, el económico
modelo de competencia perfecta ofrece información importante
con respecto a la forma en que funcionan los mercados. Obviamente,
describe una
realidad altamente idealizada. Es decir, es falso. Pero no es ni
inútil o inútil. Naturalmente, uno tiene que estudiar otro
modelos que son más realistas en ciertos aspectos, como
modelos de competencia imperfecta, información asimétrica,
13 Un término extremo, que fue sugerido por Gibbard y Varian (1978),
es "caricaturas".

22

Copyright © 2001. Cambridge University Press. Todos los derechos


reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto usos justos
permitido bajo los EE. UU. o la ley de propiedad intelectual aplicable.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM vía
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA - UNAD
AN: 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las
decisiones basadas en casos
Cuenta: ns145102

Prólogo

13
Etcétera. El análisis de th Estos modelos califican y redefinen las
percepciones del modelo de competencia perfecto, pero no los anula.
Viendo la filosofía como una ciencia social, no hay ninguna razón para
esperar que sus teorías y modelos sean más precisos o completos que
los de la economía o la psicología. Por ejemplo, la visión recibida de los
positivistas lógicos ofrece pautas útiles para desarrollar teorías
científicas. También es muy insensible cuando se interpreta
descriptivamente, como un modelo de cómo se hace la ciencia. Pero uno
espera que la Vista Recibida no sea una descripción perfecta de, ni una
receta infalible para la actividad científica. La teoría de Hanson de que
las observaciones están cargadas de teoría (Hanson, 1958), por
ejemplo, también proporciona una comprensión profunda y mejora
nuestra comprensión del proceso científico. Califica, pero no anula los
insights obtenidos de la Vista Recibida. Permitiéndonos una leve
exageración, defendemos la humildad al evaluar las teorías de las
ciencias sociales, incluida la filosofía: no pregunten si hay un
contraejemplo para una teoría; pregunte, ¿hay algún ejemplo de esto?
14.153.2 Utilidad y "teorías" de utilidad esperadas como marcos
conceptuales y como teorías. Como se menciona en la subsección 2.1,
en el uso común el término "teoría" a menudo define solo un marco
conceptual. Considere, por ejemplo, la teoría de la utilidad, sugiriendo
que, dado un conjunto de alternativas factibles, los tomadores de
decisiones maximizan la función de la autolleidad. Cuando se da
explícita o implícitamente una aplicación prevista, esta es una teoría
descriptiva en la tradición del positivismo lógico, que también pasaría la
prueba de falsabilidad de Popper. El término teórico "utilidad" se deriva
axiomáticamente de las observaciones. Los axiomas definen bastante14
En este sentido, nuestra visión es una reminiscencia del
verificacionismo. Para una revisión, ver, por ejemplo, Lewin (1996). 15
Es inevitable que calificaciones similares se apliquen a este mismo
párrafo.23 Copyright © 2001. Cambridge University Press. Todos los
derechos reservados. No puede ser reproducido en ninguna forma sin el
permiso del editor, excepto los usos justos permitidos por los EE. UU. O
las leyes de derechos de autor aplicables. EBSCO Publishing: eBook
Collection (EBSCOhost) - impreso el 9/6/2018 10:23 PM
porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA - UNADAN :
72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de decisiones
basadas en casos: ns145102A teoría de las decisiones basadas en
casos, precisamente las condiciones bajo las cuales se falsifica la teoría.
Por lo tanto, puede probarse experimentalmente. Sin embargo, cuando
la aplicación no es obvia ni está de acuerdo, no está claro qué

13
constituye una violación de los axiomas, o una falificación de la teoría.
De hecho, casi cualquier caso en el que la teoría parece refutada puede
ser reinterpretada de manera continua que se ajuste a la teoría. Uno
siempre puede enriquecer el modelo, redefiniendo las alternativas
involucradas, de tal manera que se reconcilien las refutaciones
aparentes. La teoría de la utilidad es un marco conceptual en el lenguaje
de la subsección 2.1 anterior. No existe un canon de aplicación que
establezca con precisión cuáles son los fenómenos del mundo real a los
que se puede aplicar la teoría de la utilidad. En ciertas situaciones, como
los experimentos de laboratorio cuidadosamente diseñados, solo hay un
mapeo razonable desde la estructura formal hasta los fenómenos
observados. Pero en muchas situaciones de vida real, uno tiene un
cierto grado de libertad para elegir este mapeo. Entonces no es obvio lo
que cuenta como una refutación de la teoría. Por lo tanto, la
maximización de la utilidad puede no ser una teoría en el sentido
popperiano. Más bien, es un marco conceptual, que ofrece una cierta
forma de conceptualizar y organizar los datos. Trabajando dentro de
este marco conceptual conceptual, uno puede sugerir teorías específicas
que también definen el conjunto de alternativas entre las cuales se hace
la elección. De forma similar, la teoría de la utilidad esperada parece
estar bien definida y claramente falsable cuando uno acepta una
aplicación determinada. De hecho, en ciertos experimentos de
laboratorio puede ser probado directamente. Pero la mayoría de los
datos empíricos no se presentan con una definición clara de los estados
del mundo o de los resultados. Por lo tanto, las aparentes violaciones de
la teoría pueden justificarse al volver a interpretar estos términos. Por lo
tanto, las "teorías" de la maximización de la utilidad y de la
maximización de la expectativa tienen un doble propósito: se formulan
como teorías comprobables, pero también se usan como marcos
conceptuales para la generación de teorías más específicas. Creemos
que este doble estado es útil. Por un lado, tratar estos marcos
conceptuales como teorías infalsificables con fundamentos axiomáticos
facilita24Copyright © 2001. Cambridge University Press. Todos los
derechos reservados. No puede ser reproducido en ninguna forma sin el
permiso del editor, excepto los usos justos permitidos por los EE. UU. O
las leyes de derechos de autor aplicables. EBSCO Publishing: eBook
Collection (EBSCOhost) - impreso el 9/6/2018 10:23 PM
porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA - UNADAN :
72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de decisiones
basadas en casos Cuenta: ns145102Prologue la discusión científica y se
asegura de que no participemos en debates entre teorías

13
observacionalmente equivalentes. Por otro lado, la teoría de la decisión
sería muy limitada en sus aplicaciones si uno insistiera en que estos
marcos conceptuales se utilicen solo cuando no haya ambigüedad con
respecto a su interpretación. Por lo tanto, es útil insistir en que todo
marco conceptual debe fundarse en una axiomación falsable, como si se
tratara de una teoría específica, para utilizar el marco también más allá
del ámbito en el que la falsación está inequívocamente definida.16
Además, muchos de los éxitos teóricos de la teoría de la utilidad y de la
teoría de la utilidad esperada implica situaciones en las que no se puede
razonablemente esperar probar los axiomas. Por ejemplo, el Primer
teorema del bienestar (Arrow y Debreu, 1954) proporciona una idea
fundamental sobre la optimalidad de los equilibrios competitivos,
aunque no podemos medir las funciones de utilidad de todos los
individuos implicados. De forma similar, el análisis económico y teórico
de juegos que se basa en la maximización esperada de la utilidad ofrece
importantes ideas y recomendaciones sobre mercados financieros,
mercados con información incompleta, y demás, mientras que ni las
probabilidades subjetivas ni las funciones de utilidad pueden medirse
prácticamente. Nuevamente, creemos que debemos asegurarnos de que
todos los términos teóricos son en principio observables, pero nos
permitimos cierta libertad al usar estos términos aun cuando las
observaciones reales sean imposibles.3.3 Sobre la validez de la teoría
económica puramente conductual La posición oficial de la teoría
económica, como se refleja en muchos graduados ( y cursos de nivel
universitario y libros de texto, es que la economía es y debe ser
puramente conductual. A los economistas no les importa lo que las
personas digan, solo lo hacen16. Históricamente, los marcos
conceptuales a menudo se originan a partir de teorías. Puede sugerirse
una teoría formal con una comprensión implícita de sus aplicaciones
previstas, pero luego podría generalizarse y evolucionar hacia un marco
conceptual.25 Copyright © 2001. Cambridge University Press. Todos los
derechos reservados. No puede ser reproducido en ninguna forma sin el
permiso del editor, excepto los usos justos permitidos por los EE. UU. O
las leyes de derechos de autor aplicables. EBSCO Publishing: eBook
Collection (EBSCOhost) - impreso el 9/6/2018 10:23 PM
porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA - UNADAN :
72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las decisiones
basadas en casos. Cuenta: ns145102Una teoría de las decisiones
basadas en casos se preocupa por lo que hacen. Además, se argumenta,
las personas a menudo no son conscientes de la forma en que toman
decisiones, y su explicación verbal e introspectiva del proceso de

14
decisión puede ser más confusa que útil. Mientras se comporten como si
siguieran la teoría, deberíamos estar satisfechos. Uno apenas puede
discrepar con este enfoque si los axiomas subyacentes son probados y
demostrados como verdaderos, o si la teoría genera predicciones
cuantitativas precisas que se ajustan a la realidad. Pero la economía a
menudo usa una teoría tal como la maximización de la capacidad
esperada en los casos en que sus axiomas no pueden ser probados
directamente, y sus predicciones son en el mejor de los casos
cualitativas. Es decir, las teorías se usan a menudo como dispositivos
retóricos. En estos casos, uno no puede permitirse el lujo de ignorar la
apariencia intuitiva y la plausibilidad cognitiva de las teorías del
comportamiento. Cuanto más cognitiva sea una teoría plausible, más
eficaz será el dispositivo arcóntico. Muchos economistas argumentarían
que la plausibilidad cognitiva de una teoría se deriva de la de sus
axiomas. Por ejemplo, los axiomas de comportamiento de Savage son
muy razonables, por lo tanto, es muy razonable que la gente debería y
debería comportarse como si se esperaran maximizadores de la utilidad.
Sin embargo, afirmamos que los axiomas conductuales que parecen
plausibles cuando se formulan en un idioma dado pueden no ser tan
convincentes cuando este lenguaje no es natural. Por ejemplo,
Savage'saxiom P2 (a menudo referido como el "principio de las cosas
seguras") es muy convincente cuando los actos se dan como funciones
desde los estados hasta los resultados. Pero en ejemplos en los que los
resultados y los estados no se dan naturalmente en la descripción del
problema, no está claro cuáles son todas las implicaciones del principio
de la cosa segura, a saber, cómo las preferencias entre los actos están
restringidas por el principio de la cosa segura. Por lo tanto, no es nada
obvio que el comportamiento real seguiría este principio aparentemente
muy convincente. En términos más generales, la validez predictiva de
los axiomas conductuales no está divorciada de la verosimilitud
cognitiva del lenguaje en el que están formulados. Además, cuando no
existe un mapeo obvio entre la realidad modelada y el modelo
matemático, no es válido. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto los usos
justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de las decisiones basadas en casos. Cuenta:
ns145102Prologuelonger claro que la teoría es de hecho conductual. Por
ejemplo, el modelo de Savage asume que las opciones son los actos de

14
tween son observables. Esta suposición es válida cuando se elige entre
apuestas sobre, por ejemplo, el color de una bola extraída de una urna.
En este caso, está bastante claro que los estados del mundo
corresponden a las bolas en la urna, y estos estados son observables
por el modelador. Pero en muchos problemas a los que se aplica la
teoría, los estados del mundo deben definirse, y hay más de una forma
de definirlos. En estos casos, uno no puede estar seguro de que los
estados supuestamente concebidos por el que toma las decisiones son
aquellos a los que se refiere el modelo formal. La necesidad de referirse
a los estados que existen en la mente del creador de decisiones hace
que los datos de la teoría sean más cognitivos que conductuales. Como
cuestión de principio, una teoría del comportamiento debe basarse en
datos observables por un observador externo sin ambigüedad. En
conclusión, la posición de que la plausibilidad cognitiva de las teorías
económicas o de elección es inmaterial parece insostenible. Una teoría
conductista que trata a un tomador de decisiones como una "caja
negra", tiene que ser respaldada por una especificación cognitiva
convincente. Por otro lado, una cuenta mental aparentemente
convincente de un proceso de toma de decisiones también es
insatisfactoria siempre que no sepamos qué tipos de conducta induce.
Por lo tanto, una teoría de elección satisfactoria debería contar una
historia convincente sobre el proceso cognitivo. y sobre el
comportamiento resultante.3.4 ¿Qué tiene que ver todo esto con CBDT?
La motivación para el desarrollo de la teoría de la decisión basada en
casos tiene que ver con nuestra insatisfacción con la teoría de la
decisión clásica. Específicamente, encontramos que la teoría de la
utilidad esperada no siempre es cognitivamente plausible, y que el
enfoque conductual, a menudo citado como su fundamento teórico, es
insostenible. Además, creemos que la teoría de la utilidad esperada no
siempre es exitosa como teoría normativa, porque a menudo no es
práctica. Y en aquellos casos en los que no se puede seguir la teoría de
la utilidad esperada, tampoco es una realidad. 27Copyright © 2001.
Cambridge University Press. Todos los derechos reservados. No puede
ser reproducido en ninguna forma sin el permiso del editor, excepto los
usos justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de decisiones basadas en casos: ns145102Una teoría de
decisiones basadas en casos, racionales, ni siquiera limitados, para
desviarse de los postulados de Salvaje. Sin embargo, la teoría que

14
presentamos en esta publicación es independiente de estos prejuicios.
En particular, los siguientes capítulos también pueden ser leídos por
personas que solo creen en teorías puramente conductuales o que solo
desean considerar CBDT como una teoría descriptiva de la racionalidad
limitada.28 Copyright © 2001. Cambridge University Press. Todos los
derechos reservados. No puede ser reproducido en ninguna forma sin el
permiso del editor, excepto los usos justos permitidos por los EE. UU. O
las leyes de derechos de autor aplicables. EBSCO Publishing: eBook
Collection (EBSCOhost) - impreso el 9/6/2018 10:23 PM
porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA - UNADAN :
72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las decisiones
basadas en casos. Cuenta: ns145102CAPÍTULO 2 REGLAS DE LA
DECISIÓN4 Fórmula e interpretaciones elementalesLa teoría de la
utilidad esperada goza del estado de un paradigma casi inigualable para
la toma de decisiones frente a la incertidumbre. Basándose en tales
bases de sonido como los classicalworks de Ramsey (1931), de Finetti
(1937), von-Neumannand Morgenstern (1944), y Savage (1954), el
poder hasformidable teoría y la elegancia, ya sea interpretada posi-
tivamente o normativamente, para situaciones de probabilidades dadas
("riesgo") y desconocidas ("incertidumbre") por igual. Mientras que la
evidencia ha estado acumulando que la teoría es demasiado restrictiva
(al menos desde un punto de vista descriptivo), sus diversas
generalizaciones solo atestiguan la fuerza y el atractivo de el paradigma
de utilidad esperado. Con pocas excepciones, todas las alternativas
sugeridas retienen el marco del modelo, relajando algunos de los
axiomas más exigentes mientras se adhieren a los más básicos. (Ver
Machina 1987, Karni andSchmeidler 1991, Camerer y Weber 1992 y
1994 Harless andCamerer para los estudios extensos.) Sin embargo,
parece que en muchas situaciones de underuncertainty elección, el
lenguaje mismo de los modelos de utilidad esperada isinappropriate. Por
ejemplo, los estados del mundo no se dan naturalmente, ni se pueden
formular simplemente. Además, a veces incluso una lista completa de
todas las salidas posibles no está disponible o no se puede imaginar
fácilmente. Los siguientes ejemplos ilustran estos puntos.4.1 Ejemplos
de motivación Ejemplo 2.1 Como punto de referencia, primero
consideramos el famoso problema de tortilla de Savage (Savage 1954,
pp. 13-15): Leonard29Copyright © 2001. Cambridge University Press.
Todos los derechos reservados. No puede ser reproducido de ninguna
forma sin el permiso del editor, excepto los usos legítimos permitidos
bajo los EE. UU. O la ley de derechos de autor aplicable. Publicación de
EBSCO: Colección de libros electrónicos (EBSCOhost) - impreso el

14
9/6/2018 10:23 PM víaUNIVERSIDAD NACIONAL ABIERTA Y A
DISTANCIA - UNADAN: 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de decisiones basadas en casos Cuenta: ns145102A teoría de
decisiones basadas en casos Salvaje es hacer una tortilla usando seis
huevos. Cinco de ellos ya están rotos en un tazón. Él está sosteniendo el
sexto, y tiene que decidir si lo rompe directamente en el recipiente, o en
un plato separado y limpio para examinar su frescura. Este es un
problema de decisión bajo incertidumbre, porque LeonardSavage no
sabe si el huevo está fresco o no. Además, la incertidumbre es
importante: si él sabía que el huevo estaba fresco, sería mejor que lo
partiera directamente en el cuenco, ahorrándose la necesidad de lavar
otro plato. Por otro lado, un huevo podrido daría como resultado la
pérdida de los cinco huevos que ya estaban en el cuenco; por lo tanto,
si sabía que el huevo no estaba fresco, preferiría romperlo en el plato
limpio. En este ejemplo, la incertidumbre puede describirse
completamente por dos puntos del mundo: "el huevo está fresco" y "el
huevo no está fresco". ". Cada uno de estos estados "resuelve toda
incertidumbre" como fue descrito previamente por Savage (1954). No
solo existen relativamente pocos estados relevantes del mundo en este
ejemplo, sino que se dan de manera alográfica en la descripción del
problema. En particular, se pueden definir independientemente de los
actos disponibles para el responsable de la toma de decisiones. Además,
los posibles resultados se pueden definir fácilmente. Por lo tanto, este
ejemplo cae claramente en la toma de decisiones bajo incertidumbre en
el modelo de Savage. Ejemplo 2.2 Una pareja tiene que contratar una
niñera para su hijo. Los actos disponibles son los diversos candidatos
para el puesto. Los que toman las decisiones no saben cómo se
desempeñaría cada candidato si fuera contratado. Por ejemplo, cada
candidato puede ser negligente o deshonesto. Al pensar en ello, se dan
cuenta de que también pueden ocurrir otros problemas. Algunas niñeras
tratan bien a los niños, pero no se les puede confiar en mantener la casa
en orden. Otros parecen ser perfectos en el trabajo, pero no son muy
leales y pueden presentar el trabajo con poca antelación. La pareja
enfrenta incertidumbres con respecto al desempeño de las candidaturas
en varias medidas. Sin embargo, existen varias dificultades para adaptar
este problema a los derechos de autor. 30Copyright © 2001. Cambridge
University Press. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto los usos
justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA

14
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de decisiones basadas en casos. Cuenta: ns145102 Marco de
reglas de decisión de la teoría de utilidad esperada (EUT). Primero,
imaginando todos los resultados posibles no es una tarea trivial.
Segundo, los estados del mundo no se sugieren naturalmente a sí
mismos en este problema. Además, si la toma de decisiones construyera
analíticamente, su número y complejidad sería desalentador: cada
estado del mundo debería especificar el desempeño exacto de cada
candidato en cada medida.1 Ejemplo 2.3 El presidente Clinton tiene que
decidir sobre la intervención militar en Bosnia-Herzegovina. 2 Los actos
alternativos son relativamente claros: uno no puede hacer nada,
imponer sanciones económicas, usar fuerza militar limitada (por
ejemplo, solo ataques aéreos) u optar por una intervención militar en
toda regla. El principal problema es decidir cuáles son los posibles
resultados a corto y largo plazo de cada acto. Por ejemplo, no es
exactamente claro cuán fuertes son las fuerzas militares de las facciones
beligerantes en Bosnia; es difícil juzgar cuántos lazos casuales implicaría
cada opción militar, y cuál sería la respuesta de la opinión pública;
existe cierta incertidumbre acerca de la reacción de Rusia,
especialmente si pasa por un golpe militar. En resumen, el problema es
definitivamente una falta de seguridad en la decisión. Pero,
nuevamente, ni todas las posibles eventualidades, ni todos los
escenarios posibles están disponibles. Cualquier lista de resultados o de
estados está destinada a ser incompleta. Además, cada estado del
mundo debería especificar el resultado de1. Puede ser más fácil evaluar
distribuciones de utilidad para cada candidato y luego aplicar EUT a
estas distribuciones que deletrear todos los estados del mundo. Esto
prueba nuestro punto, a saber, que el modelo de estado no es natural
en este ejemplo. De esto se desprende que no se pueden usar las
derivaciones axiomáticas de probabilidad de Finetti o de Salvaje como
fundamentos para la evaluación de distribuciones en tales ejemplos. 2
La participación militar de EE. UU. En partes de lo que era Yugoslavia
está en la agenda política en los EE. UU. Desde que escribimos la
primera versión de nuestro primer documento sobre CBDT (marzo de
1992) hasta ahora (septiembre de 2000) .31 Copyright © 2001.
Cambridge University Press. Todos los derechos reservados. No puede
ser reproducido en ninguna forma sin el permiso del editor, excepto los
usos justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una

14
teoría basada en casos DecisionsAccount: ns145102A teoría del acto de
toma de decisiones basado en casos en cada punto del tiempo. Por lo
tanto, un conjunto exhaustivo de los estados del mundo ciertamente no
surge naturalmente. En el ejemplo 2.1, la teoría de la utilidad esperada
parece una descripción razonable de cómo piensan las personas sobre el
problema de decisión. Por el contrario, argumentamos que en ejemplos
tales como 2.2 y 2.3, EUT no describe un proceso cognitivo plausible. Si
el responsable de la toma de decisiones intenta pensar en el lenguaje de
EUT, debería imaginar todas las salidas posibles y todos los estados
relevantes. A menudo, la definición de estados del mundo involucraría
declaraciones condicionales, vinculando resultados a actos. No solo el
número de estados sería enorme, sino que los estados mismos no se
definirían de manera intuitiva. Además, incluso si el agente lograra
imaginar todos los resultados y estados, su tarea no se haría de ninguna
manera. Luego tendría que evaluar la utilidad de cada resultado y
formar un espacio previo sobre el estado. No está claro cómo se deben
definir la utilidad y los antecedentes, especialmente dado que la
experiencia pasada parece ser de ayuda limitada en estos ejemplos. Por
ejemplo, ¿cuál es la probabilidad de que un candidato en particular para
el trabajo en el ejemplo 2.2 termine siendo desafortunado? ¿O ser
negligente y deshonesto? O, teniendo en cuenta el ejemplo 2.3, ¿cuáles
son las posibilidades de que una intervención militar se convierta en una
guerra en toda regla, mientras que los ataques aéreos no lo harán?
¿Cuál es la probabilidad de que un escenario que ningún experto predijo
eventualmente se materialice? Parece poco probable que los
responsables de la toma de decisiones puedan responder a estas
preguntas. La teoría de la utilidad esperada no describe la forma en que
las personas realmente piensan sobre tales problemas. En consecuencia,
es dudoso que EUT sea la herramienta más útil para predecir el
comportamiento en problemas de decisión de esta naturaleza. Una
teoría que proporcionará una descripción más fiel de cómo piensan las
personas tendría una mejor oportunidad de predecir lo que harán.
¿Cómo, entonces, piensa la gente sobre tales problemas de decisión?
Recurrimos a Hume (1748), quien argumentó que "por causas que
parecen similares, esperamos efectos similares". Esta es la suma de
todas nuestras conclusiones experimentales ". Es decir, la principal
técnica de razonamiento que utilizan las personas. Copyright © 2001.
Cambridge University Press. Todos los derechos reservados. No puede
ser reproducido en ninguna forma sin el permiso del editor, excepto los
usos justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso

14
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de decisiones basadas en casos. Cuenta: ns145102Las reglas de
decisión usan analogías entre casos pasados y la mano única.3 Al aplicar
esta idea a la toma de decisiones, sugerimos que las personas elijan
actos basados en su desempeño en problemas similares en el pasado.
Por ejemplo, en el ejemplo 2.2, una cosa común, y de hecho muy
razonable de hacer es pedir referencias a cada candidato. Cada carta de
recomendación provista por un candidato da fe de su desempeño (como
ananny) en una situación diferente o "problema". En este ejemplo, los
agentes no dependen de su propia memoria; más bien, se basan en la
experiencia de otros empleadores. Cada "caso" pasado sería juzgado por
su similitud; por ejemplo, servir como niñera a un bebé de un mes es
algo diferente del mismo trabajo cuando se trata de un niño de dos
años. De manera similar, la casa, el vecindario y otros factores pueden
afectar la relevancia de los casos pasados al problema en mano. Por lo
tanto, esperamos que los tomadores de decisiones pongan más peso en
la experiencia de las personas cuyo problema de decisión es más similar
al suyo. Además, pueden confiar más en la experiencia de las personas
que conocen o juzgan que tienen gustos similares a los suyos. Luego,
considere el ejemplo 2.3. Si bien los expertos militares y políticos
ciertamente intentan escribir posibles escenarios y asignarles
verosimilitud, esta no es la única técnica de razonamiento utilizada.
(Tampoco es necesariamente el más convincente a priori o el más
exitoso de un posteri-ori). Muy a menudo el razonamiento de las
personas emplea analogías con los pasados. Por ejemplo, los defensores
de la intervención militar tienden a citar la Guerra del Golfo como un
caso "exitoso". Destacan3 Primero nos expusieron a esta idea como una
"teoría" explícita en la forma de "razonamiento basado en casos"
(Schank 1986, Riesbeck y Schank 1989), a lo que debemos el epíteto
"basado en casos". (Ver también Kolodner y Ries-beck 1986 y Kolodner
1988.) No hace falta decir que nuestro pensamiento sobre el problema
fue inspirado en parte por el razonamiento basado en casos. En esta
etapa, sin embargo, no parece haber mucho en común entre nuestra
teoría y el razonamiento basado en casos, más allá de la idea básica de
Hume. Debe mencionarse que ideas similares también fueron
expresadas en la literatura económica por Keynes (1921), Selten (1978)
y Cross (1983). 33 Copyright © 2001. Cambridge University Press.
Todos los derechos reservados. No puede ser reproducido en ninguna
forma sin el permiso del editor, excepto los usos justos permitidos bajo
EE. UU. O la ley de derechos de autor aplicable.EBSCO Publishing:

14
eBook Collection (EBSCOhost) - impreso el 9/6/2018 10:23 PM
víaUNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA - UNADAN:
72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las decisiones
basadas en casos. Cuenta: ns145102 Una teoría de decisiones basadas
en casos, la similitud de los dos problemas, por ejemplo, como conflictos
locales en un mundo posterior a la Guerra Fría. Los opositores aducen la
guerra de Vietnam como un caso en el que generalmente se considera
que la intervención militar fue un error. También apuntan a la similitud
de los casos, por ejemplo, a la "conservación de la paz" mencionada en
ambos. La teoría de la decisión basada en el caso (CBDT) intenta
capturar formalmente este modo de razonamiento tal como se aplica a
la toma de decisiones. En la subsección siguiente comenzamos
describiendo la versión más simple de CBDT. Esta versión es
ciertamente bastante restrictiva. Se generalizará más adelante para
abarcar una clase más amplia de fenómenos. En este punto, solo
deseamos resaltar algunas características de la teoría general, que se
ilustran mejor con la versión más simple que se presenta a
continuación.4.2 Modelo Supongamos que se da un conjunto de
problemas como primitivos, y que existe cierta medida de similitud en
él. Los problemas deben considerarse como descripciones de situaciones
de elección, historias que implican problemas de decisión. En general,
un responsable de la toma de decisiones recordaría algunos de los
problemas que ella y otros encargados de tomar decisiones encontraron
en el pasado. Cuando se enfrentan a un nuevo problema, la similitud de
la situación trae a la memoria su recuerdo, y con ello el recuerdo de la
elección realizada y el resultado que resultó. Nos referimos a la
combinación de estos tres, el problema, el acto y el resultado, como un
"caso". Por lo tanto, se recuerdan casos similares y, a partir de ellos, se
evalúa cada posible decisión. El modelo específico que proponemos aquí
evalúa cada acto por la suma, casos generales en que se eligió, del
producto de la similitud del problema con el que tenemos entre manos y
lautilidad resultante. Formalmente, comenzamos con tres conjuntos:
dejemos que P ser un conjunto de problemas de decisión, A - un
conjunto de actos que pueden elegirse en el problema actual, y R - un
conjunto de resultados posibles. Un caso es atriple (q, a, r) donde q es
un problema, a es un acto, y r - anoutcome. Por lo tanto, el conjunto de
casos concebibles es el conjunto de todos los derechos reservados.
Copyright © 2001. Cambridge University Press. Todos los derechos
reservados. No puede ser reproducido en ninguna forma sin el permiso
del editor, excepto los usos justos permitidos por los EE. UU. O las leyes
de derechos de autor aplicables. EBSCO Publishing: eBook Collection

14
(EBSCOhost) - impreso el 9/6/2018 10:23 PM porUNIVERSIDAD
NACIONAL ABIERTA YA DISTANCIA - UNADAN : 72982; Gilboa, Itzhak,
Schmeidler, David .; Una teoría de las decisiones basadas en casos
Cuenta: ns145102Decision rulessuch triples: C ≡ P × A × R. Observe
que C no es el conjunto de casos que realmente han ocurrido. Además,
típicamente será imposible que todos los casos en C coincidan, porque
diferentes casos en C pueden unir un acto diferente o un resultado
diferente a un problema de decisión determinado. El conjunto de casos
que se sabe que han ocurrido será, por lo tanto, un subconjunto de C.
Los siguientes dos componentes del modelo formal son la similitud y las
funciones de utilidad. Se supone que las funciones de similitud: P × P →
[0,1] proporcionan una cuantificación de los juicios de similitud entre los
problemas de decisión. El concepto de similaridad es el motor principal
de los modelos de decisión presentados en este libro. La realización de
juicios de similitud es la tarea principal del decisor que tenemos en
mente. Hum (1748) ya ha sugerido la similitud como una base para el
razonamiento inductivo. Los modelos formales de similitud datan menos
de Quine (1969b) y Tversky (1977), 4 y se ha prestado mucha atención
al razonamiento analógico. (Véase, por ejemplo, Gick y Holyoak 1980,
1983, y Falkenheiner, Forbus y Gentner 1989). Sin embargo,
desconocemos una teoría formal de la toma de decisiones que se basa
explícitamente en juicios de similitud. Como suele ser el caso con los
conceptos teóricos, el acto el significado de la función de similitud
vendrá dado por la forma en que se emplea. La forma en que usamos la
similitud entre problemas, que se especificará en breve, implica la
unicidad sólo hasta la multiplicación por un número positivo.4 La noción
clásica de similitud, como se emplea en geometría euclidiana, sugiere
que la similitud se modele como una relación de equivalencia.
Obviamente, una función de similitud de valor real puede capturar tal
noción de similitud. Pero permite relaciones de similitud intransitiva o
asimétrica, y, lo que es más importante, también puede capturar
gradaciones de similitud.35 Copyright © 2001. Cambridge University
Press. Todos los derechos reservados. No puede ser reproducido en
ninguna forma sin el permiso del editor, excepto los usos justos
permitidos por los EE. UU. O las leyes de derechos de autor aplicables.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA -
UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de
decisiones basadas en casos Cuenta: ns145102A teoría de decisiones
basadas en casos El término sho de "similitud" No se debe tomar
demasiado literalmente. Los problemas de decisión extremos afectan la

14
decisión del que toma la decisión solo si son retirados del mercado. Por
ejemplo, suponga que se le pide a un votante llamado Juan que exprese
su opinión sobre la intervención militar en Bosnia. Es posible que, si se
le preguntara, John juzgara que la Guerra de Corea es similar a la
situación en Bosnia. Pero también es posible que John no se acuerde de
la Guerra de Corea por su cuenta. Para nuestros propósitos, John puede
describirse como si atribuyera un valor de similitud cero a los dos
problemas de decisión. Por lo tanto, si bien usamos el término sugerente
"similitud", pensamos que esta función representa la conciencia y la
probabilidad de recordar, así como las evaluaciones de similitud
consciente. Nuestra formulación supone que los juicios de similitud no
pueden ser negativos. Esto a veces puede ser demasiado restrictivo. Por
ejemplo, Sarah puede saber que ella y Jim siempre no están de acuerdo
con las películas. Si Sarah sabe que a Jim le gustó una película, ella lo
tomará como evidencia contra el hecho de ver esta película. Esto se
puede pensar como si el problema de Sarah tiene una similitud negativa
con un problema de decisión en el que Jim estuvo involucrado. Sin
embargo, para ser concretos, elegimos restringir la discusión a valores
de similitud no negativos en este punto.5 Esta sección restringe los
juicios de similitud a los problemas de decisión. Más adelante ampliamos
el modelo formal para incluir juicios de similitud entre pares de
problemas y actos, incluso entre casos enteros. El que toma decisiones
también se caracteriza por una función de utilidad: u: R → R.La función
de utilidad mide la conveniencia de los resultados. . Cuanto mayor es el
valor de esta función, más deseable es el resultado que se considera.
Además, 5 Esta restricción puede plantear un problema en nuestro
ejemplo. Se puede resolver presuponiendo que Sarah asigna valores de
utilidad negativos a los resultados que le gustan a Jim. La función de
utilidad se presenta a continuación.36Copyright © 2001. Cambridge
University Press. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto los usos
justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de decisiones basadas en casos: ns145102Las reglas de decisión,
valores-positivos pueden asociarse con experiencias positivas, que el
responsable de la toma de decisiones quisiera repetir, mientras que los
valores-u negativos corresponden a experiencias negativas, que el
responsable de la toma de decisiones preferiría evitar . Como en el caso
de la función de similitud, la medición exacta de la deseabilidad de los

15
resultados positivos y de la indeseableidad de los negativos se vinculará
a la fórmula particular en la que se emplea esta función. Ahora
procedemos a especificar el modelo de decisión. Un responsable de la
toma de decisiones enfrenta un problema p ∈ P. Suponemos que ella
conoce los posibles cursos de acción que podría tomar. Estos son
mencionados por A. No abordamos la cuestión de la especificación de los
actos que, de hecho, están disponibles en un determinado problema de
decisión, o de la identificación del problema de decisión en el primer
lugar.6 El que toma las decisiones puede basar su decisión en el caso
sabe de. Nos referimos al conjunto que consiste en estas casos como la
memoria del que toma las decisiones. Formalmente, la memoria es un
conjunto de casos: M ⊂ C.Como C es el conjunto de todos los casos
imaginables, M representa el que realmente ocurrió y el responsable de
la toma de decisiones fue informado. Los casos en los que el que toma
las decisiones era el protagonista pertenecerían, naturalmente, a M.
Pero también lo harán los casos en los que otras personas fueron los
protagonistas, si estaban relacionados con nuestro responsable de la
toma de decisiones, informados en los medios, y así sucesivamente.
Suponemos que cada problema de decisión q ∈ P puede aparecer en M a
lo sumo una vez. Naturalmente, este será el caso si la descripción de un
problema de decisión es lo suficientemente detallada. Por ejemplo, si la
identidad del que toma las decisiones y el tiempo de decisión exacto son
parte de la descripción del problema, ningún problema se repetiría con
precisión. La adopción de esta suposición nos permite usar la notación
establecida y obviar el 6 En el Capítulo 5, sin embargo, discutimos la
forma en que un responsable de la toma de decisiones desarrolla. Como
tal, puede verse como un intento de modelar el proceso mediante el
cual los responsables de la toma de decisiones generan el conjunto de
actos disponibles para ellos.37 Copyright © 2001. Cambridge University
Press. Todos los derechos reservados. No puede ser reproducido en
ninguna forma sin el permiso del editor, excepto los usos justos
permitidos por los EE. UU. O las leyes de derechos de autor aplicables.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA -
UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las
decisiones basadas en casos. Cuenta: ns145102Una teoría de las
decisiones basadas en casos necesitadas para los índices. Esta notación
no implica pérdida de generalidad, porque un problema que se repite de
manera idéntica puede representarse como varios problemas que tienen
las mismas características, aunque no la misma descripción formal. La
versión más elemental de CBDT ofrece el el responsable de la toma de

15
decisiones clasificaría los actos disponibles de acuerdo con la suma
ponderada de las utilidades que han resultado en el pasado.
Formalmente, un tomador de decisiones con memoria M, función de
similitud s y función de utilidad u, que ahora enfrenta un nuevo
problema de decisión p, clasificará cada acto a ∈Asegún U (a) = Arriba,
M (a) = (q, a, r) ∈Ms (p, q) u (r), (*) (donde la suma sobre el conjunto
vacío se toma a yieldzero), y elegirá un acto que maximice esta suma.
Observe que, dada la memoria M, la función U solo usa los valores-u de
los resultados r que han aparecido en M.Para cada acto a ∈ A y cada
caso c = (q, a, r) ∈ M en el cual el acto a fue efectivamente elegido, uno
puede ver los productos (p, q) u (r) como el efecto que el caso c tiene
sobre la evaluación de la acción a en el presente problema p. Si el acto
a dio como resultado un caso en un resultado deseable r, es decir, un
resultado tal que u (r)> 0, tener el caso c en la memoria también haría
que el acto fuera más atractivo en el nuevo problema. Del mismo modo,
al recordar el caso c en el que el acto a dio como resultado un resultado
no deseado, es decir, un resultado para el cual u (r) <0, haría que el
acta fuera menos atractivo en el problema de decisión actual. En ambos
casos, el impacto que el caso c tendría en el modo en que se considera
una acción depende de la similitud del problema en cuestión con el
problema en el caso c. Finalmente, la evaluación general de acta se
obtiene sumando los productos s (p, q) u (r) sobre todos los casos de la
forma (q, a, r), es decir, sobre todos los casos en los que se eligió a en
el pasado. Consideremos el ejemplo 2.3 nuevamente. El presidente
Clinton tiene que elegir entre varios actos, como "enviar tropas", "usar
ataques aéreos", "no hacer nada", y así sucesivamente. El acto "envíe
in38Copyright © 2001. Cambridge University Press. Todos los derechos
reservados. No puede ser reproducido en ninguna forma sin el permiso
del editor, excepto los usos justos permitidos por los EE. UU. O las leyes
de derechos de autor aplicables. EBSCO Publishing: eBook Collection
(EBSCOhost) - impreso el 9/6/2018 10:23 PM porUNIVERSIDAD
NACIONAL ABIERTA YA DISTANCIA - UNADAN : 72982; Gilboa, Itzhak,
Schmeidler, David .; Una teoría de decisiones basadas en casos:
ns145102Las reglas de decisión "se evaluarán según su rendimiento en
el pasado. La guerra de Vietnam probablemente sería un caso en el que
este acto arrojó un resultado indeseable. La Guerra del Golfo es otro
caso relevante, en el cual el mismo acto resultó en un resultado
deseado. Uno tiene que evaluar el grado de deseabilidad o indeseable de
cada resultado, así como el grado en que cada problema pasado es
similar al problema en cuestión. Uno luego multiplica los valores de
deseabilidad por los valores de similitud correspondientes. La suma de

15
estos productos constituirá la evaluación general del acto, que puede ser
positiva o negativa. El acto alternativo, "no hacer nada", se puede
juzgar en función de su rendimiento en varios casos en los que no se
seleccionó ninguna intervención, y así sucesivamente. La fórmula (*) se
puede considerar como aprendizaje de modelado. Itatte busca capturar
la forma en que la experiencia afecta la toma de decisiones, y sugiere
una interpretación dinámica: con la adición de nuevos casos, la memoria
crece. Como veremos en el Capítulo 7, agregar casos a la memoria no
es más que la forma más simple de aprender. Sin embargo, parece ser
también la base de otras formas de aprendizaje.4.3 Aspiraciones y
satisfacción La presentación de la fórmula elemental anterior resalta la
distinción entre los resultados deseables, cuyos valores de productividad
son positivos y no deseables, a los que se añaden valores de utilidad
negativos. Si bien esta distinción es bastante intuitiva, la teoría clásica
de la decisión la encuentra, por lo general, redundante: los valores de
utilidad más altos se consideran más deseables o, de manera
equivalente, menos indeseables. Todos los ítems de utilidad se usan solo
en el contexto de comparaciones por pares, y sus valores no tienen
significado en ninguna escala absoluta. De hecho, la mayoría de las
teorías clásicas de decisión permiten que la función de utilidad sea
"desplazada" añadiendo una constante a todos los valores, sin cambiar
las implicaciones observables de la teoría.39 Copyright © 2001.
Cambridge University Press. Todos los derechos reservados. No puede
ser reproducido en ninguna forma sin el permiso del editor, excepto los
usos justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de decisiones basadas en casos Cuenta: ns145102A teoría de
decisiones basadas en casos Este no es el caso con la fórmula elemental
(*). Uno puede fácilmente observar que el cambio de la función de
utilidad por una constante generalmente dará como resultado una
predicción diferente de la elección. De hecho, al cambiar la función u por
una constante c cambiaría U (a) por c · (q, a, r) ∈M s (p, q). Como no
hay ninguna razón para que (q, a, r) ∈M s (p, q) sea el mismo para
diferentes actos a, tal cambio no garantiza la preservación de la
clasificación en U de los actos. Específicamente, si c> 0, tal cambio
favorecería actos que fueron elegidos en el pasado en problemas
similares, mientras que un cambio en c <0 favorecería actos que no han
sido elegidos en pro similar De ello se desprende que la elección del
punto de referencia cero en la escala de la utilidad no puede ser

15
arbitraria. Esto sugiere que nuestra distinción intuitiva entre los
resultados deseables e indeseables también podría tener un significado
conductual. De hecho, considere un caso simple en el que no haya
incertidumbre. Es decir, siempre que se elija un acto a ∈ A, se obtendrá
un resultado particular ra ∈ R. No se supone que el que toma la decisión
sepa este hecho. Además, ciertamente no sabe qué valor de utilidad
corresponde a qué acto. Todos los sheknows son los casos que ha
experimentado, y sigue la maximización de U como en (*). Comenzando
con una memoria vacía, todos los actos son asignados con un valor de U
cero. En este punto, la elección del responsable de la toma de decisiones
es arbitraria. Supongamos que eligió un acto que dio como resultado un
resultado no deseable ra, es decir, un resultado con u (ra) <0. Ahora
consideremos al mismo responsable de la toma de decisiones frente al
siguiente problema. Supongamos que este problema tiene alguna
similitud con el primero. En este caso, actuar a tendrá un valor U
negativo (u (ra) multiplicado por la similitud de los dos problemas),
mientras que todos los demás actos, que tienen historias vacías, todavía
tienen un valor U de cero. Por lo tanto, el único acto que se ha
intentado, y que ha resultado en un resultado indeseable, es el único
sobre el cual el responsable de la toma de decisiones tiene alguna
información e intenta desviarse de este acto. Herchoice entre los demás
será arbitraria nuevamente. Suponer que ella elige acto b. Si u (rb) <0,
entonces, en el próximo problema similar, ella encontrará que tanto a
como b son poco atractivos
Reglas de decisión

actúa, y elegirá (de forma arbitraria) entre los


otros, que aún no han sido probados.
Este proceso puede continuar hasta que el que toma las decisiones
tenga un
experiencia negativa con todos y cada uno de los actos posibles. En esto
situación que tendría que elegir el menor de estos males
y optar por un acto cuyo valor U es más alto, es decir, menos
negativo. Asuma, sin embargo, que la persona que toma las decisiones
encuentra
un acto, digamos, d, que conduce a un resultado deseable, es decir,

15
un acto tal que u (rd)> 0. En este caso, en el próximo similar
problema acto d tendría un valor U positivo, mientras que todos
otros actos tendrían valores U no positivos. Por lo tanto d
llegar a ser elegido de nuevo. Dado que el acto d siempre conduce a lo
mismo

resultado deseable rd, su valor U siempre permanecerá posi-


tivo, y d siempre será elegido. El que toma las decisiones

nunca intente ningún acto que no sea d, a pesar del hecho de que
muchos otros actos podrían no haberse intentado ni siquiera una vez.
Uno podría ver este modo de comportamiento como satisfactorio en
el sentido de Simon (1957) y March y Simon (1958).

Tomando el valor cero en la escala de utilidad para ser la decisión


nivel de aspiración del fabricante de Sion, el que toma las decisiones

aferrarse a un acto que logra este valor sin intentar


otros actos y sin experimentación. Solo cuando
la elección actual del tomador de decisiones se evalúa debajo del
nivel de aspiración que el que toma las decisiones es "insatisfecho"
y es estimulado para experimentar con otras opciones.
Los niveles de aspiración probablemente cambien como resultado del
pasado

experiencias.7 Por lo tanto, uno podría desear explícitamente


notación duce que realiza un seguimiento de estos cambios. Déjame

15
denotar la función de utilidad dada la memoria M, restringida a
resultados que han aparecido en M. Supongamos que (para todos
myM
) uM y uM difieren en una constante aditiva en
la intersección de sus dominios. Entonces podemos elegir
una función de utilidad u y define el nivel de aspiración dado
memoria M, HM, tal que uM = u - HM. En este caso,

7 De hecho, la experiencia puede y en general da forma a ambos juicios


de similitud
evaluaciones de apetencia y deseabilidad de formas más generales. En
este punto

nos enfocamos solo en los cambios de la función de utilidad.


41

Copyright © 2001. Cambridge University Press. Todos los derechos


reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto usos justos
permitido bajo los EE. UU. o la ley de propiedad intelectual aplicable.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM vía
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA - UNAD
AN: 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las
decisiones basadas en casos
Cuenta: ns145102

Una teoría de las decisiones basadas en casos

15
podemos reformular (*) de la siguiente manera. El que toma las
decisiones es
maximizando
U (a) = Arriba, M (a) =
(q, a, r) ∈M
s (p, q)

u (r) - HM

. (*
)

Para ver el papel del nivel de aspiración, considere los siguientes


lowing ejemplo. Supongamos que el acto a fue elegido 10 veces,

rindiendo un pago (u) de 1 cada vez. La ley b, por el contrario, era


solo lo intenté dos veces, obteniendo un pago de 4 cada vez. Asumir
que todos los problemas pasados son igualmente similares a los que
tenemos entre manos.
Si el nivel de aspiración es cero, uno puede igualar la utilidad que
con el pago u, y por lo tanto el valor U de a excede el de
segundo. Luego, suponga que, con la misma función de pago, el

nivel de aspiración es 2 en lugar de 0. Esto hace que todos los


viene de actuar un indeseable, mientras que los correspondientes a

b todavía son deseables. Por lo tanto, b será preferido a a.


Considere ahora un proceso dinámico de nivel de aspiración

15
ajuste. Supongamos, como se indica arriba, que comienza un tomador
de decisiones
con un nivel de aspiración de 0, y considera todos los resultados
de los actos a y b para ser deseable. Habiendo observado dos veces

que 4 es una posible recompensa, sin embargo, el tomador de


decisiones
considera que el pago 1 es menos satisfactorio de lo que solía hacerlo.

En otras palabras, su nivel de aspiración aumenta. Como vimos arriba,


un aumento lo suficientemente grande en el nivel de aspiración rendiría
b más deseable que a según (*
)

En general, la función U, siendo de naturaleza acumulativa,


puede dar preferencia a elecciones pasadas que produjeron deseable
resultados simplemente porque fueron elegidos muchas veces.
Entre esos actos que, en general, arrojaron resultados deseables,

La maximización de U no opta por el promedio más alto


rendimiento. Incluso puede exhibir formación de hábito. Pero esto

la naturaleza conservadora de la U-maximización es mitigada por

el proceso de ajuste del nivel de aspiración. Dedicamos Sec-


18 a este tema, y muestran que las suposiciones razonables

en el proceso de ajuste del nivel de aspiración conducen a óptimo

15
elecciones en situaciones donde el mismo problema es repetidamente
encontrado exactamente de la misma manera.
42

Copyright © 2001. Cambridge University Press. Todos los derechos


reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto usos justos
permitido bajo los EE. UU. o la ley de propiedad intelectual aplicable.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM vía
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA - UNAD
AN: 72982; Gilboa, Itzhak, Schmeidler, David. Una teoría de decisiones
basadas en casos Cuenta: ns145102Decision rules4.4 Comparación con
EUTIn CBDT, como en EUT, los actos se clasifican por sumas ponderadas
de utilidades. De hecho, la fórmula (*) se parece tanto a la teoría de
utilidad esperada que uno puede sospechar que CBDT es beno más que
EUT en una apariencia diferente. Sin embargo, a pesar de las
apariencias, las dos teorías tienen poco en común. Primero, note
algunas diferencias matemáticas entre la fórmula. En (*) no hay
ninguna razón para que los coeficientes s (p, ·) sumen a1 o a cualquier
otra constante. Más importante aún, mientras que en EUT cada acto se
evalúa en cada estado, en U-maximización cada acto se evalúa en un
conjunto diferente de casos. Para ser preciso, si a = b, el conjunto de
elementos de M sumados en U (a) es disjunto del correspondiente a U
(b). En particular, este conjunto puede estar vacío para algunos a's.On
un nivel más conceptual, en la teoría de la utilidad esperada, se asume
que el conjunto de estados es una lista exhaustiva de todos los
escenarios posibles. Cada estado "resuelve toda incertidumbre" y, en
particular, agrega un resultado a cada acto disponible. Por contraste, en
la teoría de decisión basada en casos, la memoria contiene solo aquellos
casos que realmente sucedieron. En consecuencia, los valores de
utilidad que se usan en (*) son solo aquellos que experimentamos en
realidad. Para aplicar el EUT uno necesita involucrarse en el
razonamiento hipotético, es decir, considerar todos los posibles estados
y el resultado que resultaría de cada acto en cada estado. Para aplicar
CBDT, no se requiere razonamiento hipotético. A diferencia de la teoría
de utilidad esperada, CBDT no distingue entre actos ciertos e inciertos.

15
En retrospectiva, un responsable de la toma de decisiones puede
observar que un acto particular siempre dio como resultado el mismo
resultado (es decir, que parece no implicar incertidumbre), o que es
"incierto" en el sentido de que dio lugar a diferentes resultados en
problemas similares. Pero no se supone que el creador de decisiones
sepa a priori qué actos implican incertidumbre y cuáles no. De hecho, no
se supone que sepa nada sobre el mundo exterior, aparte de los casos
anteriores.43 Copyright © 2001. Cambridge University Press. Todos los
derechos reservados. No puede ser reproducido en ninguna forma sin el
permiso del editor, excepto los usos justos permitidos por los EE. UU. O
las leyes de derechos de autor aplicables. EBSCO Publishing: eBook
Collection (EBSCOhost) - impreso el 9/6/2018 10:23 PM
porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA - UNADAN :
72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de decisiones
basadas en casos Cuenta: ns145102A teoría de decisiones basadas en
casosCBDT y EUT también difieren en la forma en que tratan la nueva
información y evolucionan con el tiempo. En EUT, la información nueva
se modela como un evento (un subconjunto de estados) que se ha
obtenido. El modelo está restringido a este evento y la probabilidad se
actualiza de acuerdo con la regla de Bayes. Por el contrario, en CBDT, la
nueva información se modela principalmente mediante la adición de
casos a la memoria. En el modelo básico, la función de similitud requiere
noupdate frente a nueva información. Por lo tanto, EUT presupone que
la persona que tomó la decisión nació con conocimiento y creencias
sobre todos los escenarios posibles, y su aprendizaje consiste en
descartar escenarios que ya no son posibles. Por otro lado, de acuerdo
con CBDT, la persona que tomó la decisión nació completamente
ignorante y aprende expandiendo su memoria.8 Aproximadamente, un
agente de EUT aprende observando lo que no puede suceder, mientras
que un agente de CBDT aprende observando lo que puede. No
consideramos que la teoría de decisión basada en casos sea mejor que
un sustituto de la teoría de utilidad esperada. Por el contrario,
consideramos que las dos teorías son complementarias. Si bien estas
teorías están justificadas por axiomatizaciones supuestamente
conductuales, creemos que su alcance de aplicabilidad puede ser
delineado de manera más precisa si intentamos juzgar la verosimilitud
psicológica de los diversos constructos. Dos criterios relacionados para
la clasificación de problemas de decisión pueden ser relevantes. Una es
la descripción del problema, la segunda es su novedad relativa. Si un
problema se formula en términos de probabilidades, EUT es sin duda
una elección natural para el análisis y la predicción. De forma similar,

16
cuando los estados del mundo se definen naturalmente, es probable que
sean utilizado en el proceso de razonamiento del responsable de la toma
de decisiones, incluso si un previo (único, aditivo) no puede formarse
con anterioridad. Sin embargo, cuando ni las probabilidades ni los
estados del mundo son características sobresalientes (o de fácil acceso)
del problema, CBDT puede ser más plausible que EUT.8 En el Capítulo 7
analizamos otras formas de aprendizaje, incluidos los cambios de los
juicios de similitud.44 Copyright © 2001. Cambridge University Press.
Todos los derechos reservados. No puede ser reproducido en ninguna
forma sin el permiso del editor, excepto los usos justos permitidos por
los EE. UU. O las leyes de derechos de autor aplicables. EBSCO
Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018 10:23
PM porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA - UNADAN :
72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las decisiones
basadas en casos. Cuenta: ns145102. Reglas de decisión. Podemos así
refinar la distinción dicotómica de Knight entre el riesgo y la
incertidumbre (Knight 1921) al introducir una tercera categoría de
ignorancia estructural: "riesgo" se refiere a situaciones donde se dan
probabilidades; "Incertidumbre" - a situaciones en las que los estados se
definen naturalmente, o simplemente se pueden construir, pero las
probabilidades no lo son. Finalmente, la decisión bajo "ignorancia
estructural" se refiere a los problemas de decisión para los cuales los
estados no están (i) naturalmente dados en el problema; ni (ii) pueden
ser fácilmente construidos por el tomador de decisiones. El EUT es
apropiado para la toma de decisiones bajo riesgo. Frente a la
incertidumbre (y en ausencia de un previo subjetivo) todavía se pueden
usar las generalizaciones de la EEE que se desarrollaron para tratar este
problema de manera específica, como las probabilidades no aditivas
(Schmeidler, 19899) y los antecedentes múltiples (Bewley 1986,10).
Gilboa y Schmeidler1989). Sin embargo, en casos de ignorancia
estructural, el CBDT es una alternativa viable al paradigma del EUT. Al
clasificar los problemas según su novedad, se pueden considerar tres
categorías. Cuando un problema se repite con suficiente frecuencia,
como si se detiene en un semáforo en rojo, la decisión se vuelve casi
automática. La toma de esa decisión es muy poco precisa, y se puede
describir mejor como basada en reglas. Cuando se requiere deliberación,
pero el problema es suficientemente familiar, como comprar un seguro,
se puede analizar de forma aislada. En estas situaciones, la historia del
mismo problema es suficiente para la formulación de estados del mundo
y quizás incluso de un EUT anterior ( o alguna generalización del mismo)
puede ser verosímilmente plausible. Finalmente, si el problema no es

16
familiar, como casarse o invertir en un país políticamente inestable,
debe analizarse de manera dependiente del contexto o de la memoria, y
CBDT es una descripción más precisa de la forma en que se toman las
decisiones. , los sistemas basados en reglas son la descripción más
simple de la toma de decisiones cuando el que toma las decisiones no
está consciente9. Ver también Gilboa (1987) y Wakker (1989). 10 Véase
también Aumann (1962) .45Copyright © 2001. Cambridge University
Press. Todos los derechos reservados. No puede ser reproducido en
ninguna forma sin el permiso del editor, excepto los usos justos
permitidos por los EE. UU. O las leyes de derechos de autor aplicables.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA -
UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de
decisiones basadas en casos Cuenta: ns145102A teoría de decisiones
basadas en casos de incertidumbre o incluso del hecho de que ella está
haciendo una adecisión.11 La teoría de utilidad esperada ofrece la mejor
descripción de las decisiones en las que la incertidumbre está presente y
el creador de decisiones tiene suficientes datos para analizarlo En
contraste, la teoría de decisión basada en casos es probablemente la
descripción más natural de la toma de decisiones cuando la decisión es
amorfa y no hay datos suficientes para analizarla adecuadamente.
Diferimos una discusión más detallada de CBDT y EUT hasta el Capítulo
4, siguiendo la derivación axiomática de CCDT en el Capítulo 3.4.5
Comentarios Similitud sujetiva Como se mostrará en el Capítulo 3, la
función de similitud en nuestro modelo puede derivarse de las
preferencias observadas. Dado que diferentes personas pueden tener
diferentes preferencias, deberíamos esperar que las funciones de
similitud derivadas también difieran entre los individuos. La función de
similitud es, por lo tanto, subjetiva, como lo es la probabilidad en las
obras de de Finetti (1937) y Savage (1954). Sin embargo, para algunas
aplicaciones uno puede encontrar que los datos sugieren una forma
acordada de medir la similitud, que se puede considerar como objetivo.
Utilidad acumulativa En la descripción de CBDT anterior, se avanza una
cierta interpretación cognitiva de la función. Suponemos que representa
preferencias fijas, y que la memoria puede afectar las elecciones solo al
proporcionar información sobre el valor u de los resultados que los actos
arrojaron en el pasado. Sin embargo, uno puede sugerir que la memoria
tiene un efecto directo sobre las preferencias. De acuerdo con esta
interpretación, la función de utilidad es el U agregado, mientras que la
función describe la forma en que U cambia con la experiencia. Por
ejemplo, si el que toma las decisiones tiene un alto nivel de aspiración,

16
11 Dichas decisiones también se pueden ver como un tipo especial de
decisiones basadas en casos. Específicamente, una regla puede
considerarse como un resumen de muchos casos, de los cuales
probablemente se derivó en primer lugar. Consulte la Sección 13 para
una discusión más detallada.46 Copyright © 2001. Cambridge
University Press. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto los usos
justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de las decisiones basadas en casos. Cuenta: ns145102Las reglas
de decisión corresponden a los valores negativos de u, le gustará una
opción, más la usó en el pasado y exhibirá un comportamiento de
búsqueda de cambios. Por otro lado, un bajo nivel de aspiración, que
corresponde a los valores positivos de u, la haría ev Alu-ate una opción
más alta, más ella está familiarizada con ella, y daría lugar a la
formación de hábito. El Capítulo 6 está dedicado a esta interpretación.
Casos hipotéticos Considere el siguiente ejemplo. Jane tiene que ir al
aeropuerto y puede elegir entre la carretera A y la carretera B. Elige la
carretera A y llega al aeropuerto a tiempo. En el camino al aeropuerto,
sin embargo, se entera de que el camino B estaba cerrado para la
construcción. Una semana más tarde Janeis se enfrentó con el mismo
problema. Independientemente de su nivel de aspiración, parece obvio
que volverá a elegir el camino A. (Las construcciones de carreteras, al
menos en modelos psicológicamente plausibles, nunca terminan). Este
ejemplo muestra que los casos relevantes también pueden ser
hipotéticos o contrafácticos. Más explícitamente, el razonamiento de
Jane probablemente involucra una proposición contrafactual como "Si
hubiera tomado el camino B, nunca lo habría hecho". Esto puede ser
modelado como un caso hipotético en el que tomó el camino B y llegó al
aeropuerto con un retraso considerable. Los casos hipotéticos pueden
dotar a un tomador de decisiones basado en casos con habilidades de
razonamiento de las que de otro modo carecería. Además, parece que
cualquier conocimiento que el agente posea y cualquier conclusión que
deduzca de él puede, en la medida en que sean relevantes para la
decisión en cuestión, ser reflejado por casos hipotéticos.5 Variaciones y
generalizaciones5.1 Similitud media El capítulo anterior introdujo el
criterio de decisión básico de CBDT, es decir, maximización de la
funciónU (a) = Arriba, M (a) = (q, a, r) ∈Ms (p, q) u (r). (*) 47Copyright
© 2001. Cambridge University Press. Todos los derechos reservados. No

16
puede ser reproducido en ninguna forma sin el permiso del editor,
excepto los usos justos permitidos por los EE. UU. O las leyes de
derechos de autor aplicables. EBSCO Publishing: eBook Collection
(EBSCOhost) - impreso el 9/6/2018 10:23 PM porUNIVERSIDAD
NACIONAL ABIERTA YA DISTANCIA - UNADAN : 72982; Gilboa, Itzhak,
Schmeidler, David .; Una teoría de decisiones basadas en casos.
Cuenta: ns145102A teoría de decisiones basadas en casos Esta función
es acumulativa y resume el impacto de los casos anteriores. En
consecuencia, la cantidad de veces que un acto determinado fue elegido
en el pasado afecta su deseabilidad percibida. Como se mencionó
anteriormente, de acuerdo con la función U, una acción que se eligió
relativamente muchas veces, produciendo pagos bajos pero positivos,
puede preferirse a una acción b que se eligió con menos frecuencia,
produciendo pagos constantemente altos. Además, esto es cierto incluso
si ambos actos fueron elegidos con la suficiente frecuencia como para
permitir la estimación estadística de sus pagos, o incluso si no hay
incertidumbre presente. Hemos argumentado que en presencia de pagos
altos y bajos, el nivel de aspiración es probable que tome un valor
intermedio, haciendo que los bajos pagos aparezcan negativos. Si bien
esto puede hacer que un U-maximizer prefiera b sobre a en el ejemplo
anterior, uno todavía puede preguntarse si la función U es la forma más
razonable de evaluar alternativas. Una variante obvia sería usar una
función de utilidad "promedio" basada en similitud, es decir, V (a) = (q,
a, r) ∈Ms (p, q) u (r) wheres (p, q) = s ( p, q) (q, a, r) ∈M s (p, q) .Si
(q, a, r) ∈M s (p, q)> 0 y 0 otherwise.V de maximización puede ser vista
como una forma de formalizar la idea de formación frecuentista de
creencias (en la medida en que se refleja en el comportamiento).
Aunque las creencias y las probabilidades no existen explícitamente en
este modelo, en algunos casos pueden deducirse implícitamente de los
pesos s. Es decir, si el creador de decisiones elige el mismo acto en
casos similares, la función de evaluación V puede interpretarse como la
recopilación de datos estadísticos, o como la formación de un previo
"frecuenteista". Observe que CBDT no presupone ningún a prioribeliefs.
Los casos reales generan estadísticas, pero no se crean áreas de
creencias en ausencia de datos.48Copyright © 2001. Cambridge
University Press. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto los usos
justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una

16
teoría de decisiones basadas en casos. Cuenta: ns145102. Reglas de
decisión. La maximización de V es más plausible que la maximización de
U si se encuentran problemas muy similares por encima y por encima de
los demás. Pero cuando la memoria consiste solo en problemas
relacionados remotamente, la maximización de V puede no ser tan
convincente. En particular, implica discontinuidad cuando la similitud
agregada se aproxima a cero. Por ejemplo, si solo hay una memoria de
caseína, (q, a, r), con similitud de problemas s (p, q) = ε, entonces V
(a) = u (r) para cada ε> 0, pero V ( a) = 0 para ε = 0.Uno puede ver
tanto la U-maximización como la V-maximización como aproximaciones
aproximadas, cuya adecuación depende del rango de la función de
similitud. En la Sección 18 suponemos que el nivel de aspiración cambia
el tiempo, principalmente como resultado de experiencias anteriores.
Mostramos que, bajo ciertas suposiciones, la maximización de U, pero
no la maximización de V, conduce a la elección asintóticamente óptima
en un problema de decisión repetido estocásticamente. En vista de este
resultado, tendemos a ver la U-maximización como el fórmula pri-maria,
a pesar de que parece inapropiada para problemas repetidos con un
nivel de aspiración constante.5.2 Similitud con el acto Si bien es lógico
que la actuación pasada de un acto afecte la evaluación del acto en
problemas actuales, no es necesariamente el caso de que el rendimiento
pasado sea el único factor relevante en el proceso de evaluación.
Específicamente, la deseabilidad de anact puede verse afectada por el
desempeño de otros actos similares. Por ejemplo, supongamos que Ann
está buscando un apartamento para alquilar. Una de sus opciones es
rentapartment A. Ann no ha vivido en el apartamento A antes. Por lo
tanto, ella nunca ha elegido el acto particular ahora disponible para él.
Pero Ann ha vivido en el pasado en el departamento B, que está ubicado
en el mismo vecindario que A. El acto "alquilar el departamento A" es
similar al acto "alquilar el departamento B" al menos porque los dos
apartamentos están en el mismo vecindario . Parece inevitable que la
experiencia de Ann con un acto similar afecte su evaluación del acto que
ahora está considerando.49 Copyright © 2001. Cambridge University
Press. Todos los derechos reservados. No puede ser reproducido en
ninguna forma sin el permiso del editor, excepto los usos justos
permitidos por los EE. UU. O las leyes de derechos de autor aplicables.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA -
UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las
decisiones basadas en casos Cuenta: ns145102A teoría de las decisiones
basadas en casos Igualmente, supongamos que Bob trata de decidir si

16
comprar o no un nuevo producto en el supermercado. Nunca ha
comprado este producto en el pasado, pero ha consumido productos
similares del mismo productor. Por lo tanto, el acto particular que Bob
está evaluando ahora no tiene historia. Pero la memoria de Bob contiene
casos en los que eligió otros actos similares a los que ahora considera.
De nuevo, esperaríamos que la decisión de Bob dependiera de su
experiencia con actos similares. Un tomador de decisiones a menudo se
enfrenta a actos nuevos, es decir, actos en los que su memoria no
contiene información sobre su desempeño anterior. De acuerdo con la
fórmula (*), el índice de evaluación adjunto a estos actos es el valor
predeterminado cero. Como en los ejemplos anteriores, esta aplicación
de CBDT no es muy plausible. En consecuencia, puede conducir a
predicciones de comportamiento contraintuitivas. Por ejemplo, sugeriría
que Ann será tan propenso a alquilar el apartamento en el vecindario
que ella conoce como un departamento en un vecindario que no conoce.
De manera similar, se predice que Bob comprará el nuevo producto
basándose únicamente en su nivel de aspiración, sin distinguir entre
productos según el registro de sus productores. En realidad, sin
embargo, se recuerda a los responsables de casos que involucran actos
similares, y esperan actos similares, elegidos problemas similares, para
dar como resultado resultados similares. Por lo tanto, necesitamos
extender el modelo para reflejar la similitud del acto y no solo la
similitud del problema. Los efectos de similitud son especialmente
pronunciados en los problemas económicos que involucran un parámetro
continuo. Por ejemplo, la decisión de si se debe o no "Ofrecer vender al
precio p" para un valor específico p, probablemente se verá afectada por
los resultados de ofertas de venta anteriores a valores diferentes pero
cercanos de p. En general, si hay infinitos actos disponibles para el que
toma las decisiones, siempre sucede que la mayoría de ellos son nuevos
para ella. Sin embargo, típicamente inferirá algo acerca de estos nuevos
actos a partir del desempeño de otros actos que haya intentado
realmente. Si bien una aplicación directa de la maximización de U a
modelos económicos con un infiniteset de actos puede resultar
contradictorio e irrealista. Copyright © 2001. Cambridge University
Press. Todos los derechos reservados. No puede ser reproducido en
ninguna forma sin el permiso del editor, excepto los usos justos
permitidos por los EE. UU. O las leyes de derechos de autor aplicables.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA -
UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las
decisiones basadas en casos: ns145102Decisiones de las reglas de

16
precisión, la introducción de la similitud entre los actos puede mejorar
estas predicciones. Observe que los efectos de similitud no están
restringidos a la evaluación de actos nuevos. Incluso si se eligió un acto
en el pasado en un problema similar, es probable que su evaluación esté
influida por la realización de actos similares. La necesidad de modelar la
similitud del acto a veces puede ser obviada mediante la redefinición de
"actos" y "problemas". Por ejemplo, los actos de Bob pueden ser
simplemente "Comprar" y "No comprar", mientras que cada posible
compra se modela como un problema de decisión por separado. Sin
embargo, tal modelo es difícilmente intuitivo, especialmente cuando se
consideran muchos actos simultáneamente. Es más natural modelar
explícitamente una función de similitud entre actos. Además, en muchos
casos, la función de similitud se define de manera más natural en los
pares problema-acto. Por ejemplo, "Manejar a la izquierda en Nueva
York" puede ser más parecido a "Manejar a la derecha en Londres" que
a "Manejar a la izquierda en Londres", "Comprar n el precio es bajo
"puede ser más similar a" vender cuando el precio es alto "que a"
vender cuando el precio es bajo ", y así sucesivamente. En resumen,
nos gustaría tener un modelo en el que la función de similitud es
definido en pares de problema-acto, y, dada una memoria M y un
problema de decisión p, cada acto a se evalúa de acuerdo con la suma
ponderada (a) = Arriba, M (a) = (q, b, r) ∈Ms (( p, a), (q, b)) u (r). (•)
Observe que un caso (q, b, r) en la memoria se puede ver como un par
((q, b), r), donde el par problema-acto (q, b) es una entidad única, que
describe las circunstancias de que resultó el resultado. Es decir, cuando
se consideran casos pasados, la distinción entre problemas y actos es
inmaterial. De hecho, también puede ser difusa en la memoria del
responsable de la toma de decisiones. Por el contrario, cuando se
evalúan los actos actualmente disponibles, esta distinción es más clara y
más importante: el problema se refiere a las circunstancias dadas, que
no están bajo el control del tomador de decisiones, mientras que los
diversos actos describen elecciones alternativas.51 Copyright © 2001.
Cambridge University Press. Todos los derechos reservados. No puede
ser reproducido en ninguna forma sin el permiso del editor, excepto los
usos justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de decisiones basadas en casos Cuenta: ns145102A teoría de
decisiones basadas en casos5.3 Similitud de caso A veces es
conveniente pensar en una generalización adicional, en la que la función

16
de similitud se defina sobre los casos completos, en lugar de sobre los
pares problema-acto solos. De acuerdo con esta visión, el que toma las
decisiones puede darse cuenta de que un acto similar en un problema
similar puede conducir a un resultado similar (más que idéntico). Por
ejemplo, suponga que John ha utilizado máquinas expendedoras
automáticas para bebidas sofás en el pasado, y que ahora se enfrenta a
una máquina expendedora de sándwiches por primera vez. Hay una
similitud evidente entre presionar un botón en esta máquina y apretar
botones en las máquinas de bebidas gaseosas que ha usado. En esta
similitud, John espera que presionar un botón resultará en recibir el
producto que se muestra en la imagen adyacente al botón. Es decir,
espera que se le caiga una arena de la máquina de emparedado a pesar
del hecho de que nunca antes ha visto un sándwich que se caiga de
alguna máquina. De hecho, él nunca ha visto una máquina así. Dada la
similitud del problema y los pares de acciones problemáticas principales
del acto, John espera que se produzca un resultado similar similar.
Probablemente considere que tales resultados son más probables que
cualquiera de los resultados que ha experimentado. Aunque uno puede
intentar encajar este tipo de razonamiento en el marco de la U-
maximización mediante una redefinición de los resultados,
probablemente sea más natural asumir una función similar. eso se
define sobre casos completos. Por lo tanto, el caso (máquina de bebidas
gaseosas, botón A, obtener bebida A) es similar a la caja (máquina
sándwich, botón B, obtener arena B) más que a (máquina sándwich,
botón B, beber A) . Si suponemos que el responsable de la toma de
decisiones puede imaginar la utilidad de cada resultado (incluso si no se
ha experimentado en el pasado), estamos naturalmente dirigidos a la
siguiente generalización de CBDT: U (a) = Arriba, M (a) = r∈R (q, b, t)
∈Ms ((p, a, r), (q, b, t)) u (r). (••) 52Copyright © 2001. Cambridge
University Press. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto los usos
justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de la DecisionsAccount basado en casos: ns145102Decision
rulesIn esta fórmula cada resultado r es considerado como un
possibleresult de acto una en el problema p, y el peso del resultado
utilityof r es la suma de valores de similitud de la presentcase, debe
actuar un ser elegido y el resultado r, en los casos anteriores. Observe
que la similitud de casos también puede capturar inferencias

16
asimétricas.12 Por ejemplo, considere un vendedor de un producto, que
publica un precio y observa un resultado de {venta, no-venta} .
Considere dos actos, ofrezca vender a $ 10 y ofrezca sellar $ 12. Si el
vendedor no vende a $ 10, puede asumir que pedir $ 12 también
resultaría en no-venta. Por el contrario, vender a $ 10 proporciona
evidencia indirecta sobre el resultado de la oferta de venta a $ 12.
Denotando dos problemas genéricos de decisión (por ejemplo, días) por
p y q, la similitud entre (p, oferta para vender a $ 10, no-venta) y (q,
oferta para vender a $ 12, no-venta) es más alta que que entre (q,
oferta para vender a $ 12, no-venta) y (p, oferta para vender a $ 10,
no-venta) .6 CBDT como una teoría conductista6.1 W-maximización
Nuestro enfoque hasta ahora ha sido en CBDT como un teoría que
intenta describir un proceso mental real. Hace referencias explícitas a
términos cognitivos como "utilidad" y "simi". laridad ", y tiene un
reclamo de plausibilidad cognitiva. Pero la referencia a los casos, que
representa el conocimiento factual por un lado, y las elecciones por el
otro también permite una versión conductista del CBDT. Tal teoría
trataría los casos que realmente ocurrieron como estímulos, o insumos,
y decisiones como respuestas, o resultados, sin especificar el proceso
mental por el cual los casos afectan las decisiones. La teoría de decisión
basada en casos conductistas que sugerimos aquí retiene la aditividad
de las teorías presentadas anteriormente. pero se abstrae de la
estructura de los casos y la similitud y funciones de utilidad.
Específicamente, we12 Este punto se debe a Ilan Eshel.53Copyright ©
2001. Cambridge University Press. Todos los derechos reservados. No
puede ser reproducido en ninguna forma sin el permiso del editor,
excepto los usos justos permitidos por los EE. UU. O las leyes de
derechos de autor aplicables. EBSCO Publishing: eBook Collection
(EBSCOhost) - impreso el 9/6/2018 10:23 PM porUNIVERSIDAD
NACIONAL ABIERTA YA DISTANCIA - UNADAN : 72982; Gilboa, Itzhak,
Schmeidler, David .; Una teoría de las decisiones basadas en casos.
Cuenta: ns145102 Una teoría de las decisiones basadas en casos asume
que los casos son entidades abstractas. Para cada caso c y cada acto a
suponemos que hay un número wp (a, c) que resume el grado en que el
caso c apoya la elección de a en el problema p dado. Además, asumimos
que estos índices de soporte se acumulan aditivamente, es decir, que
dados un conjunto de casos M, el responsable de la toma de decisiones
elegirá un efecto que maximice W (a) = Wp, M (a) = c∈Mwp (a, c). (◦)
sobre un ∈ A. En la interpretación conductista, M es el conjunto de casos
a los que el que toma las decisiones está expuesto cuando se enfrenta al
problema de la precisión p. Por ejemplo, puede representar la

16
recopilación de historias que se publicaron en los medios disponibles
para ella. La memoria, el conjunto de casos, es la entrada, o el
estímulo. El acto elegido es la salida o la respuesta. La teoría de la
maximización W no hace referencia a constructos cognitivos como la
probabilidad, la similitud o la utilidad. No trata de captar deseos o
necesidades, creencias o evaluaciones. Simplemente agrupa el impacto
del estímulo c en respuesta potencial a por un número wp (a, c), y
argumenta que el impacto de varios estímulos es aditivo. A diferencia de
las teorías descritas en secciones anteriores, esta teoría permite que los
casos sean completamente abstractos , en el sentido de que no tienen
que consistir en un problema de decisión, un acto y un resultado. Los
casos aquí no necesitan tener ninguna relación formal con los actos
entre los que el decisor tiene que elegir. Por lo tanto, la interpretación
de un "caso" puede ir más allá de una historia explícita de una decisión
previa. Por ejemplo, supongamos que Jane tiene que decidir si ir a un
viaje al país. Un caso relevante podría ser el hecho de que llovió el día
anterior. Este caso no especifica ni un acto elegido ni un resultado
experimentado. Todavía es posible, y de hecho probable, que influya en
la elección de Jane de un acto en el problema de decisión actual. Del
mismo modo, un colapso del mercado de valores en 1929 puede ser un
caso que afecta a los derechos de autor. Copyright © 2001. Cambridge
University Press. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto los usos
justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de las decisiones basadas en casos. Cuenta: ns145102Decisiones
sobre la decisión de inversión de una persona que nació después de que
ocurriera este caso.13 Será conveniente (y esencial para la derivación
axiomática) permitir que los casos en la memoria aparezcan más de una
vez.14 Entonces es natural definir una memoria para ser una función I:
M → Z + (donde Z + representa los enteros no negativos) que cuenta
las ocurrencias de casos en M. En esta formulación, CBDT ofrece que el
que toma las decisiones escogerá un acto que sea más grande que W
(a) = Wp, I (a) = c∈MI (c) wp (a, c). () sobre una ∈ A.6.2 Especificación
cognitiva: EUTIn el siguiente capítulo axiomatizamos la teoría
conductista de W-maximización. Si bien creemos que los axiomas
sugeridos en este documento pueden convencer al lector de que nuestra
teoría es plausible, tanto descriptiva como normativamente, deseamos
apoyarla también mediante una explicación cognitiva. Descriptivamente,

17
nuestra creencia en la teoría como una descripción válida de la toma de
decisiones real se verá mejorada si podemos describir un proceso
mental que la implemente. Desde un punto de vista normativo, dicho
proceso es esencial para hacer de la teoría una recomendación práctica
para la toma de decisiones. En la Sección 2, nos referimos a tal proceso
mental como una "especificación cognitiva" de la teoría. Una teoría
conductista puede tener más de una especificación cognoscitiva.
Mientras vemos W-maximization as13 Como se argumentó
anteriormente, todos los casos abstractos discutidos aquí, en la medida
en que podrían afectar las decisiones, pueden traducirse en el lenguaje
de problemas, actos y resultados como casos hipotéticos. Tal traducción,
sin embargo, constituye una tarea cognitiva. El presente formulario
ación es consecuente con un enfoque puramente conductista. 14
Alternativamente, se puede suponer que cada caso es único, pero que
dos casos pueden ser equivalentes a los ojos del responsable de la toma
de decisiones, en lo que respecta al problema p. Entonces se puede
requerir que en cada caso haya infinitos otros casos que sean
equivalentes en este sentido.55 Copyright © 2001. Cambridge
University Press. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto los usos
justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de decisiones basadas en casos: ns145102 Una teoría de
decisiones basadas en casos sobre la manifestación conductista de
procesos mentales que involucran similitudes y juicios de utilidad,
también es cierto que la teoría de utilidad prevista es una especificación
cognitiva de la maximización de W. Para ver esto, suponga que el
responsable de la toma de decisiones concibe un conjunto de estados
del mundo. Supongamos además que ella forma creencias μ de la
siguiente manera. Cada caso cinduces una medida de probabilidad μc
sobre, de modo que, dada la memoria I, la persona que toma las
decisiones cree15μ = c∈MI (c) μc. Si este tomador de decisiones
maximiza el valor esperado de una función de utilidad u: A × → R con
respecto a μ , se puede ver que maximiza W en () conwp (a, c) = u (a,
ω) dμc (ω) .6.3 Especificación cognitiva: CBDT Hemos visto que la teoría
de utilidad esperada con las probabilidades basadas en casos es una
posible especificación cognitiva de W -maximización. Naturalmente, las
reglas de decisión basadas en casos de U, U y U-maximización
analizadas anteriormente son también especificaciones cognitivas de la

17
misma teoría. Específicamente, asuma, como en las secciones
anteriores, que todos los casos c son discípulos de la forma (q, b, r), a
saber, que cada caso describe un acto elegido en un problema de
decisión y un resultado que se deriva de él. La teoría de la U-
maximización se corresponde con la siguiente definición de los pesos de
soporte (a, c): wp (a, c) = wp (a, (q, b, r)) = s (q, p) u (r) si a = b0 en
caso contrario. 15 Observe que, para ser una medida de probabilidad, μ
puede tener que ser benormalizado (por separado para cada memoria
I). El proceso de generación de creencias subjetivas de esta manera se
axiomatiza en Gilboa y Schmeidler (2000b) .56 Copyright © 2001.
Cambridge University Press. Todos los derechos reservados. No puede
ser reproducido en ninguna forma sin el permiso del editor, excepto los
usos justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de las decisiones basadas en casos Cuenta: ns145102Reglas de
decisión Es decir, U-maximization cuenta una historia sobre un proceso
mental en el que cada acto se evalúa basándose solo en aquellos casos
en los que fue elegido, y para tal caso c = (q, a, r), wp (a, c) = wp (a,
(q, a, r)) es el producto de la similitud de los problemas por la utilidad
del resultado. De manera similar, la maximización de U resultaría de la
definición de wp (a, c) = wp (a, (q, b, r)) = s ((p, a), (q, b)) u (r). En
otras palabras , el recuento cognitivo de wp (a, c) sugerido por U-
maximization implica la separación de similitud y utilidad, donde la
similitud se define para los pares problema-acto. Finalmente, la
maximización de U puede verse como maximización-W donde uno
definewp (a, c) = wp (a, (q, b, r)) = t∈Rs ((p, a, t), (q, b, r)) u (t)
.Tenga en cuenta que la maximización de V no es un caso especial de
W-maximización. Para ajustar la función W, uno puede definirwMp (a, c)
= wMp (a, (q, b, r)) = s (p, q) (q, a, r) ∈M s (p, q) u (r) si a = b y si el
denominador es positivo, y wMp (a, c) = 0 de otra manera. Pero en este
caso, wMp (a, c) depende de la memoria completa M, y no solo del caso
c en ella. Formalmente, la memoria de maximización en V cambia la
función de similitud. Esto se hace de manera proporcional: la función de
similitud se normaliza para sumar 1. Generalmente, la memoria puede
afectar los juicios de similitud de maneras más sutiles, como se discutirá
en la Sección 19. Siempre que la función de similitud dependa de la
memoria, no se debe esperar que la regla de decisión resultante sea un
caso especial de W-maximización.6.4 Comparación de las
especificaciones cognitivas La visualización de EUT y diversas variantes

17
de CBDT como casos especiales de W-maximización facilita la
comparación entre ellas. Mientras que ambas teorías se pueden describir
como57Copyright © 2001. Cambridge University Press. Todos los
derechos reservados. No puede ser reproducido en ninguna forma sin el
permiso del editor, excepto los usos justos permitidos por los EE. UU. O
las leyes de derechos de autor aplicables. EBSCO Publishing: eBook
Collection (EBSCOhost) - impreso el 9/6/2018 10:23 PM
porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA - UNADAN :
72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de decisiones
basadas en casos Cuenta: ns145102Una teoría de decisiones basadas en
casos que recopila evidencia de casos pasados, en EUT el creador de
decisiones es capaz de pensar hipotéticamente, ya que usa un caso que
ocurrió en el pasado, tanto para la evaluación del trabajo que
efectivamente ha elegido en este caso (si lo había), como para la
evaluación de los actos que no ha elegido. Además, las mismas
probabilidades de los estados del mundo se utilizan para todos los actos.
Por lo tanto, un maximizador de utilidad esperado confía en su
pensamiento hipotético tanto como confía en su experiencia real. En
contraste, un tomador de decisiones basado en casos que maximiza Uor
U evalúa los actos basados solo en los resultados que en realidad se han
experimentado en el pasado. Ella no intenta imaginar qué resultados
podrían haber resultado de los otheracts en las mismas situaciones.
Visto así, ambas teorías parecen extremas. La maximización de U (y,
forzosamente, la maximización de U) no permite que el creador de
decisiones participe en el pensamiento hipotético, a menos que los casos
hipotéticos se introduzcan explícitamente en la memoria. Por el
contrario, EUT insiste en que el pensamiento hipotético es posible y,
además, que es tan influyente como la experiencia real. Sin embargo, la
teoría conductista de la W-maximización permite muchos grados
intermedios de pensamiento hipotético. De hecho, la maximización U es
una especificación cognitiva de la W-maximización que abarca este
rango. En un extremo, podemos definir s ((p, a, t), (q, b, r)) en (••) ass
((p, a, t), (q, b, r)) = s ( (p, a), (q, b)) si t = r0 de lo contrario,
rindiendo U-maximización como un caso especial, y excluyendo el
pensamiento hipotético sobre el resultado que podría haber dado lugar
en el caso (q, b, r) había sido elegido que b. En el otro extremo,
podemos establecer ((p, a, t), (q, b, r)) = μc ({ω ∈ | a (ω) = r}),
produciendo EUT (con respecto a las creencias μ = c ∈MI (c) μc) como
caso especial. Pero s ((p, a, t), (q, b, r)) puede, en general, ser
diferente de cero para t = r (como en EUT), lo que permite al tomador
de decisiones imaginar que un acto diferente en un entorno diferente

17
problema might58Copyright © 2001. Cambridge University Press. Todos
los derechos reservados. No puede ser reproducido en ninguna forma
sin el permiso del editor, excepto los usos justos permitidos por los EE.
UU. O las leyes de derechos de autor aplicables. EBSCO Publishing:
eBook Collection (EBSCOhost) - impreso el 9/6/2018 10:23 PM
porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA - UNADAN :
72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de decisiones
basadas en casos. Cuenta: ns145102Las reglas de decisión tienen un
resultado diferente, mientras que todavía depende de t, lo que permite
una distinción entre los resultados reales e hipotéticos. Por lo tanto, la
teoría conductista de W-maximización ofrece una amplia gama de
patrones de toma de decisiones, tal como lo describe su especificación
cognitiva de maximización de U. La teoría de la maximización de W
también tiene interpretaciones no conductistas. En primer lugar, las
ponderaciones wp (a, c), que miden el soporte que un caso c
proporciona para actuar a, pueden ser directamente accesibles mediante
la introspección, incluso si no toman una de las formas sugeridas por las
especificaciones cognitivas anteriores. En segundo lugar, se puede
aplicar W-maximización a la memoria de un tomador de decisiones que
el modelizador no puede observar directamente, siempre que esta
memoria esté disponible para el decisor mediante introspección. Por lo
tanto, la maximización W puede ser conductual o incluso una teoría
cognitiva. En el siguiente capítulo axiomatizamos CBDT en la forma
general de W-maximización.16 Pero la mayor parte de la discusión que
sigue se refiere al modelo más simple, a saber, la U-maximización. Si
bien este modelo es bastante restrictivo, resalta la forma en que CBDT
difiere de EUT. Por lo tanto, nos enfocamos en el modelo que es más
probable que sea incorrecto, pero con mayor probabilidad de ser
perspicaz.177 Predicción basada en casos En un problema de predicción,
un predictor se enfrenta a ciertas circunstancias y se le pide que nombre
una de las posibles evenualidades que puedan surgir. La predicción
puede considerarse como un tipo especial de toma de decisiones bajo
incertidumbre: los actos disponibles para el predictor son las
predicciones posibles, y los posibles resultados son el éxito (para una
predicción correcta) y el fracaso (para uno incorrecto). En un modelo
más general, uno también puede clasificar predicciones en una escala
continua, midiendo16 Como se mencionó anteriormente, la
maximización de W no generaliza la maximización de V. Para una
axiomatización de V-maximización, ver Gilboaand Schmeidler (1995). 17
Una excepción es la discusión de la planificación en el Capítulo 5, que
requiere el uso de U-maximization.59Copyright © 2001. Cambridge

17
University Press. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto los usos
justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de decisiones basadas en casos. Cuenta: ns145102 Una teoría de
decisiones basadas en casos, la proximidad de la predicción a la
eventualidad que de hecho sucede, permite predicciones de conjuntos
de valores, predicciones probabilísticas, y así sucesivamente. Como
cualquier otro tipo de decisión bajo incertidumbre, predicción -tion se
basa en el conocimiento pasado. De hecho, la estructura formal de un
problema de predicción incluiría típicamente también una historia o
memoria, a saber, un conjunto de ejemplos, que consisten en
circuncisión ances que se encontraron en el pasado, junto con las
eventualidades que se sabe que han resultado de ellos. Esta estructura
también abarca problemas referidos en la literatura como clasificación,
categorización o aprendizaje. Considerado como un caso especial de
problemas de decisión, los problemas de predicción se caracterizan por
la siguiente característica: se supone que los resultados son
independientes de los actos. El predictor, visto como un tomador de
decisiones, cree que ella es una observadora externa que puede adivinar
la eventualidad que resultaría de las circunstancias, pero que no puede
afectarlo de ninguna manera. Ella afecta el resultado de su propia
decisión, el problema de adivinar la eventualidad correcta o
incorrectamente, pero no a través de la eventualidad misma. De esto se
deduce que, al considerar un caso pasado de predicción, el responsable
de la toma de decisiones sabe que la eventualidad que realmente
ocurrió habría sido la misma si hubiera predicho de manera diferente.
De este modo, ella canestima el éxito de cada posible predicción que
podría haber hecho con la misma facilidad de imaginación y la misma
certeza que la predicción que realmente hizo. De hecho, al describir
formalmente un caso pasado de predicción, uno puede suprimir por
completo la elección del predictor y centrarse únicamente en las
circunstancias, es decir, el problema de decisión y la eventualidad.
Consideremos un modelo formal simple en el que la memoria contiene
ejemplos de la forma (q , r) ∈ P × R, es decir, pares de problemas, o
circunstancias, q y eventualidades r. Supongamos que una función de
similitud s: P × P → [0, 1] se da como se indicó anteriormente. Dado un
problema p ∈ P, es natural sugerir que es posible Reglas de decisión

17
eventualidades se clasifican de acuerdo a

W
(r) = W
p, M (r) =
(q, r) ∈M
s (p, q).

Es decir, a una eventualidad r se le asigna un valor numérico correlativo


que corresponde a la suma, sobre todos los ejemplos en los que r en
realidad

Transpired, de los valores de similitud de los problemas en el


pasado a la que está a mano. Se ve fácilmente que W es un especial

caso de W definido anteriormente. De hecho, considere un problema de


decisión
lem en el que A = R. Es decir, el conjunto de predicciones posibles

coincide con el conjunto de eventualidades. Deje que los casos sean


pares
(q, t) ∈ P × R y defina los pesos de soporte wp (r, c) de la siguiente
manera:
wp (r, c) = wp (r, (q, t)) =

s (p, q) si r = t
0 de lo contrario.
Con estas definiciones, W-maximización en la decisión
problema coincide con W

17
-maximización en la predicción

problema. Por otra parte, W-maximization también permite más gen-


formas de predicción general. Es decir, sabiendo que la eventualidad t

Transpiró en un caso pasado puede hacer otra eventualidad r = t


más o menos plausible
El siguiente capítulo proporciona una derivación axiomática

de la maximización de W en el contexto de una decisión bajo


tainty. También se puede interpretar como una axiomatización de

una regla de predicción general basada en casos abstractos. Con

teniendo en cuenta la estructura especial anterior, uno puede


fácilmente:
mular las condiciones adicionales que caracterizarían a W

-
maximización. (Ver Gilboa y Schmeidler 1999, 2000b, en
que seguimos este camino.) Observe que W

-maximización
generaliza los métodos de clasificación del kernel, derivados de
estimaciones del núcleo de las funciones de densidad. (Véase Akaike
1954,
Rosenblatt 1956 y Parzen 1962.)

17
CAPÍTULO 3

DERIVACIÓN AXIOMATICA

8 destacados

Dedicamos este capítulo a la axiomatización de W-maxi-


mización. En esta sección describimos el modelo y nuestra

supuestos clave. La discusión formal se presenta en los siguientes


bajando la sección.

Se le pide al responsable de la toma de decisiones que clasifique los


actos en un conjunto A
por una relación de preferencia binaria, basada en su memoria M.

Además, asumimos que el tomador de decisiones tiene un pozo


relación de preferencia definida en A no solo para el real

memoria M, pero también para otros recuerdos hipotéticos que


puede generarse a partir de M mediante la replicación de casos en él.
Mientras
la representación () en la subsección 6.1 permite repeticiones
en la memoria, ahora requerimos que las preferencias se definan para

17
cualquier vector de repeticiones.
En muchas situaciones, no es difícil imaginar casos

apareciendo en la memoria repetidamente. Por ejemplo, en la


recomendación
ejemplo de cartas ommendation uno puede imaginar varios

cartas que relatan historias prácticamente idénticas sobre un candidato


fecha. Los casos que están disponibles para un médico en el tratamiento
de un

paciente específico a menudo será idéntico a lo mejor de la


conocimiento del médico. Por otra parte, los casos que son conocidos
por
ser diferente aún puede considerarse equivalente en cuanto a la
la decisión actual se refiere. Patrones en la historia de
el clima o el mercado de valores también se pueden imaginar
haber ocurrido en la historia más o menos veces de lo que
de hecho tiene.

Sin embargo, la suposición de que los casos pueden repetirse es una


restricción
tivo. Considera el ejemplo de la guerra en Bosnia nuevamente. Nosotros

citó la Guerra de Vietnam como un caso relevante. Pero no lo es

62

17
Copyright © 2001. Cambridge University Press. Todos los derechos
reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto usos justos
permitido bajo los EE. UU. o la ley de propiedad intelectual aplicable.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM vía
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA - UNAD
AN: 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las
decisiones basadas en casos
Cuenta: ns145102

Derivación axiomática

completamente claro lo que se entiende por asumir que el Vietnam


La guerra ocurrió, digamos, cinco veces. En qué orden son estos
se suceden guerras repetidas? ¿Fue la decisión relevante?
fabricantes conscientes de las ocurrencias previas? Y, en una
nivel más filosófico, cualquier cosa puede repetirse en
exactamente de la misma manera? ¿La repetición en sí misma no hará
es diferente?
De hecho, no hay dos casos son idénticos. Pero muchos casos pueden
ser
idéntico al mejor conocimiento del tomador de decisiones, o
a lo mejor de su juicio, al menos en cuanto al presente
problema de decisión. Como se explica a continuación, uno

podría derivar la noción de identidad de casos de preferencia


relaciones con la realidad también. En este enfoque, el filosófico

18
el problema se resuelve, porque la identidad no se asume
primitivo. Se supone que el que toma las decisiones no debe creer

que los casos son idénticos. Más bien, si la persona que toma la decisión
prefiere
Erences revelan que dos casos son equivalentes en sus ojos para

el problema en cuestión, podemos tratarlos como si fueran


idéntico. Aún así, uno debería asumir que para cada caso
hay infinidad de otros casos que son equivalentes a
en este sentido.
Otro enfoque para la derivación axiomática de CBDT
implica un tipo diferente de clasificaciones hipotéticas: más bien
que suponer que casos enteros se repiten en
exactamente de la misma manera, uno puede suponer que cada caso
ocurrido solo una vez, pero que ha resultado en una diferencia
resultado que el que realmente experimentó. Seguimos esto
viraje en la axiomatización de U y de la V-maximización
con una función de utilidad dada en Gilboa y Schmeidler
(1995), en la axiomatización de U

-maximización en Gilboa

y Schmeidler (1997a), y en el de U

-maximización
con una función de utilidad derivada endógena en Gilboa,
Schmeidler y Wakker (1999). Hay situaciones donde

18
es más fácil imaginar un caso completo repitiéndose con
el mismo resultado, que imaginar el mismo caso resultante
en un resultado diferente, y hay situaciones donde

Converse se mantiene. Observe, sin embargo, que ambos tipos de hipo-


clasificaciones teóricas son necesarias solo para la axiomatización,

63

Copyright © 2001. Cambridge University Press. Todos los derechos


reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto usos justos
permitido bajo los EE. UU. o la ley de propiedad intelectual aplicable.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM vía
UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA - UNAD
AN: 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las
decisiones basadas en casos
Cuenta: ns145102

Una teoría de las decisiones basadas en casos

no para la formulación, de la teoría misma. Ellos estarán

requerido para la obtención de parámetros, pero no para aplicaciones


ción de la teoría por un tomador de decisiones que puede estimar

estos parámetros directamente.


El modelo de repeticiones hace que otro implícito

18
supuesto: no solo las repeticiones tienen sentido, son
también se supone que contiene toda la información relevante para el n
de preferencias. Específicamente, el orden en el que supuestamente se
han producido no se refleja en la memoria. Esta suposición no es
demasiado restrictiva, ya que la descripción de un caso puede incluir un
parámetro de tiempo o ciertas características relevantes del historial.
Sin embargo, tiene un sabor de la condición de cambio de Finetti.
Nuestra suposición principal dentro de esta configuración es un axioma
de combinación. Aproximadamente, establece que, si el acto a se
prefiere actuar dado dos bases de datos disjuntas de casos, entonces a
debe preferirse b también dada su unión. Para ver la lógica básica de
esta condición, imagine que la ciencia de la medicina equipa a los
médicos con un algoritmo para proporcionar recomendaciones a los
pacientes dada su experiencia personal. Imagine que un paciente
consulta a dos médicos que trabajan en diferentes hospitales y que, por
lo tanto, han estado expuestos a bases de datos disjuntas de pacientes.
Imagine además que ambos médicos recomiendan el tratamiento a por
sobre el tratamiento b. ¿Debería el paciente insistir en que se reúnan
para consultar su caso? La respuesta negativa suscita una creencia
implícita en el axioma de combinación: aplicar el mismo algoritmo de
toma de decisiones a la unión de las dos bases de datos debería dar
como resultado la misma conclusión que aplicarlo a cada base de datos
por separado (si obtuvieron un resultado idéntico). Sin embargo, la
combinación axioma puede parecer bastante inverosímil en varios casos.
Presentamos primero el modelo formal y el análisis de este y otros
axiomas con más detalle.9 Modelo y resultado El modelo formal y los
resultados en esta sección aparecen en Gilboa y Schmeidler (1999,
2000b). En estos documentos, 64Copyright © 2001. Cambridge
University Press. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto los usos
justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de las decisiones basadas en casos. Cuenta: ns145102.
Derivación axiomática: discutimos las predicciones y la inferencia
inductiva, donde se asume que las clasificaciones de las eventualidades
por su plausibilidad se dan como datos. Aquí interpretamos los rankings
como preferencias sobre posibles actos. Sea M un conjunto finito no
vacío de casos y A - un conjunto de actos disponibles en el problema de

18
decisión p bajo discusión. Suponemos que A contiene al menos dos
actos. Forsimplicidad de notación suprimimos p a lo largo. DenoteJ = ZM
+ = {I | I: M → Z +} donde Z + representa los enteros no negativos. J
es el conjunto de recuerdos hipotéticos, o simplemente recuerdos.
Suponemos que por cada I ∈ J el fabricante de decisiones tiene una
relación binaria "al menos tan deseable como" en A denotada por I (es
decir, I ⊂ A × A) .1 En otras palabras, estamos formalizando aquí una
regla, a diferencia de un acto, de toma de decisiones. La regla genera
decisiones no solo para el conjunto de casos disponibles, sino también
para los hipotéticos. Algunas de las colecciones hipotéticas de casos, es
decir, vectores en J, pueden ser reales cuando el responsable de la toma
de decisiones adquiere información adicional. (Véase también la
subsección 9.3.) En conclusión, nuestro supuesto estructural (axioma 0)
es la existencia de una relación binaria I sobre A para todos los ∈ J.9.1
Axiomas. Utilizaremos los cuatro axiomas que se indican a continuación.
En su formalización, letI y ≈I denotan las partes asimétricas y
simétricas de I, como de costumbre. La relación I está completa si x I
yor y I x para todo x, y ∈ A. Finalmente, las operaciones algebraicas en
Jare se realizan puntualmente.1 Esta estructura matemática es similar
a, y en parte inspirada por Young (1975) y Myerson (1995) , que
derivan reglas de puntuación en la teoría del voto. En lugar de una
relación binaria I en A, suponen una función que selecciona un
subconjunto de A por cada I ∈ J, que debe interpretarse como el
conjunto de candidatos ganadores que reciben una distribución de votos
I. Nuestro modelo supone más información , ya que requerimos un
ranking completo de alternativas en A para cada I. A cambio,
obtenemos una representación casi única, y no necesitamos asumir la
simetría entre las alternativas.65 Copyright © 2001. Cambridge
University Press. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto los usos
justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de decisiones basadas en casos Cuenta: ns145102A teoría de
decisiones basadas en casos Clasificación A1: para cada I ∈ J, I es
completa y transitiva A.A2 Combinación: para cada I, J ∈ J y cada a, b ∈
A, si I b (aI b) y a J b, luego a I + J b (aI + J b) .A3 Axioma de
Archimedean: Para cada I, J ∈ J y everya, b ∈ A, si aI b, entonces existe
l ∈ N tal que alI + J b.Observe que, en presencia de Axiom 2, Axiom 3
también indica que para cada I, J ∈ J y cada a, b ∈ A, si existe aI b,

18
entonces existe l ∈ N tal que para todos k ≥ l, akI + J b.Axiom 1
simplemente requiere que, dada cualquier memoria concebible, la
relación de preferencia del tomador de decisiones e invocado. Es cierto
que uno puede3 Un teorema en Ashkenazi y Lehrer (2000) sugiere una
condición en {I} I∈J que es necesaria y suficiente para una
representación como en (**). Esta condición es menos intuitiva que los
axiomas que usamos y es por lo tanto, omitido.68Copyright © 2001.
Cambridge University Press. Todos los derechos reservados. No puede
ser reproducido en ninguna forma sin el permiso del editor, excepto los
usos justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de decisiones basadas en casos. Cuenta: ns145102. La derivación
axiomática aplica el teorema por separado a ZM + y a ZM +, pero luego
el teorema arrojaría una matriz w para la memoria M que quizás no esté
relacionada con la matriz w de la memoria M. Específicamente, incluso si
el caso c pertenece tanto para M como para M, el grado de apoyo que
presta a un acto a en memoria M no necesita ser el mismo que en la
memoria M. Esto implicaría que el apoyo que un caso presta a un acto
puede depender no solo de sus características intrínsecas, sino también
de otros casos en la memoria. Si uno quisiera descartar esta
dependencia, uno debería pedir un axioma adicional. Antes de
presentarlo, una pieza de notación será útil: para dos memorias M y M
sat-isfying M ⊂ M, y para cada I ∈ ZM +, permita que ∈ ZM + sea la
extensión de I a M definida por I (c) = 0 para c ∈ M \ M. Ahora podemos
indicar la condición que garantiza que la función de similitud sea
independiente de la memoria: Independencia de caso A5: Si M ⊂ M,
entonces I = I para todosI ∈ ZM +. Ahora indicamos el resultado
buscado. Su demostración es simple y, por lo tanto, se omite.
Proposición 3.3 Supongamos que se da un conjunto de casos C, un
conjunto de alternativas A y una familia M de subconjuntos finitos de C.
Supongamos que por cada M ∈ M, {I} I∈ZM +, satisface A1-A4, eso | A
| ≥ 4, y que M está cerrado bajo unión. Entonces los siguientes dos
enunciados son equivalentes: (i) A5 se mantiene en M; (ii) Por cada c ∈
C y cada a ∈ A existe un númerow (a, c) tal que (**) del Teorema 3.1
(ii) contiene para cada M ∈ M.9.4 Casos equivalentes El axioma 5 y la
proposición 3.3 nos permiten resolver una dificultad de modelado
adicional dentro de nuestro marco. A partir de la descripción de nuestro
modelo, parece que el texto inicial69Copyright © 2001. Cambridge
University Press. Todos los derechos reservados. No puede ser

18
reproducido en ninguna forma sin el permiso del editor, excepto los usos
justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de decisiones basadas en casos Cuenta: ns145102A teoría de
decisiones basadas en casos información del responsable de la toma de
decisiones es M o, equivalentemente, 1M ∈ ZM + .4 Suponga, por
ejemplo, que los casos observados son 5 vueltas de una moneda, por
ejemplo HTHHT. ¿Son estos cinco casos separados, con M = {ci | i = 1,
..., 5} e I = (1, 1, 1, 1, 1)? ¿O es el modelo correcto uno donde M = {H,
T} e I = (3, 2) ∈ ZM +? ¿O deberíamos optar por una tercera alternativa
donde el conocimiento del creador de la decisión es J = (3, 2, 0, 0, 0 ) ∈
ZM +? Sería bueno saber que estas opciones de modelado no afectan al
resultado. Primero notamos que, de hecho, bajo Axiom 5 y la
proposición, los rankings de A para (3, 2) y para (3, 2, 0, 0 , 0) debe
ser idéntico. En segundo lugar, si el responsable de la toma de
decisiones cree que c1, c3, c4 ∈ M son el "mismo" caso, y también lo
son c2, c5 ∈ M, también deberíamos esperar los rankings para (1, 1, 1,
1, 1) y para (3, 2, 0, 0, 0) para ser idéntico. Además, si este es el caso,
siempre que "reemplacemos" las ocurrencias de c1 por ocurrencias de,
digamos, c3, podemos tomar esto como una definición de "igualdad" de
casos. Formalmente, para dos casos c1, c2 ∈ M, defina c1 c2 si lo
siguiente se cumple: para cada I, J ∈ J tal que I (c) = J (c) para allc =
c1, c2, y I (c1) + I (c2) = J (c1) + J (c2), tenemos I = J. En conclusión,
afirmamos lo obvio: la Proposición 3.4 (i) es una relación de
equivalencia en M. (ii) Si (**) se cumple entonces: c1 c2 ⇔ ∃ β ∈ R st, ∀
a ∈ A, w (a, c1) = w (a, c2) + βSe sigue que uno puede comenzar con
un gran conjunto de casos diferentes, y permitir que las preferencias
subjetivas del responsable de la toma de decisiones revelen posibles
relaciones de equivalencia entre ellos. Entonces es posible tener una
representación equivalente del conocimiento del tomador de decisiones,
basada en el conjunto más pequeño de casos diferentes. Por lo tanto,
para la matriz mínima representativa w, no solo todas las columnas son
diferentes, sino que se obtiene una columna de otra mediante la adición
de una constante.4 1E representa el vector idicador de un conjunto E en
el espacio apropiado. En nuestro modelo identificamos M con 1M ∈ ZM +
.70Copyright © 2001. Cambridge University Press. Todos los derechos
reservados. No puede ser reproducido en ninguna forma sin el permiso
del editor, excepto los usos justos permitidos por los EE. UU. O las leyes
de derechos de autor aplicables. EBSCO Publishing: eBook Collection

18
(EBSCOhost) - impreso el 9/6/2018 10:23 PM porUNIVERSIDAD
NACIONAL ABIERTA YA DISTANCIA - UNADAN : 72982; Gilboa, Itzhak,
Schmeidler, David. Una teoría de las decisiones basadas en casos.
Cuenta: ns145102. Derivación axiomática. Esta derivación de una
relación de equivalencia entre casos, sin embargo, aún asume que los
casos pueden repetirse de manera idéntica. Como se mencionó
anteriormente, uno puede encontrar esto objetable por motivos
filosóficos. En este caso, uno puede preferir un modelo que no suponga
que la identificación de casos es primitiva. Tal modelo puede ser
adaptado del presentado anteriormente de la siguiente manera.
Supongamos que para cada M finito existe una relación M sobre A.
Defina los casos i, j ∈ C que sean equivalentes si M∪ {i} = M∪ {j} para
todos los M finitos ⊂ Cwith M ∩ {i, j} = ∅. Es fácil verificar que esta es
una relación de equivalencia indeedan. El supuesto estructural es que
cada clase de equivalencia de esta relación es infinita.9.5 U-
maximización. Considere nuevamente el modelo descrito en la Sección
4, donde el caso consiste en un problema, un acto y un resultado. Con
esta estructura adicional, se puede distinguir U-maximización de U y U-
maximización por el hecho de que en U-maximización se evalúa un acto
basado solo en su propia historia. Esto puede ser formulado por el
siguiente axioma.A6 Especificidad: para todo I, J ∈ J, y todos a, b ∈ A, si
I (c) = J (c) siempre c = (q, a, r) o c = (q, b, r), entonces a I b iffa J
b.A6 requiere que si dos memorias coinciden en el número de
ocurrencias de todos los casos que involucran los actos a y b, los dos
recuerdos inducen la misma orden de preferencia entre estos dos actos.
Observe que este axioma debe mantenerse si la historia de cada acto
dado a afecta solo la evaluación de este mismo acto. En otras palabras,
si supiéramos que el impacto de la historia de act a era específico para
la evaluación del acto en sí mismo, esperaríamos que A6 se mantenga.
Los siguientes resultados muestran que este axioma también es
suficiente para obtener el tipo de representación que buscamos. Es
decir, bajo este adicional71Copyright © 2001. Cambridge University
Press. Todos los derechos reservados. No puede ser reproducido en
ninguna forma sin el permiso del editor, excepto los usos justos
permitidos por los EE. UU. O las leyes de derechos de autor aplicables.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA -
UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de
decisiones basadas en casos. Cuenta: ns145102Una teoría del estado de
decisión basado en casos, la evaluación de cada acto no depende de la
actuación pasada de otros actos.Proposición 3.5 Suponga que {I} I∈J

18
satisface A1-A4 y A6. Entonces existe una matriz w: A × M → R tal que
(***) por cada I ∈ J y cada a, b ∈ A, b I b
iffc∈ MI (c) w (a, c) ≥ c∈MI (c) w (b, c) iffc = (q, a, r) ∈MI (c) w (a, c) ≥
c = (q, b , r) ∈MI (c) w (b, c) Además, esta matriz w es única hasta la
multiplicación por un número apositivo y satisface w (a, (q, b, r)) = 0
whenevera = b.A6 implica que la matriz w del teorema 3.1 tiene la
propiedad siguiente: si los actos b, d no se eligieron en el caso c,
entonces w (b, c) = w (d, c). Dado que cada columna en la matriz
puede ser desplazada por una constante, se puede configurar w (b, c)
para zer siempre que el acto b no se haya elegido en el caso c. Dada
esta elección de w, las últimas dos líneas de (***) son obviamente
equivalentes. Además, esta elección hace que w sea único hasta la
multiplicación por un número positivo. Omitimos la prueba formal de la
proposición, que sigue este razonamiento. Observe que la matriz
resultante w consta principalmente de ceros: en cada columna existe
como máximo una entrada que difiere de cero. En caso de que se
proporcione una función de utilidad u: R → R, uno puede escribir w (a,
(q, a, r)) = s (q) u (r) (a menos que u (r) desaparezca yw (a, (q, a, r))
no lo haga) .5 Interpretando s (q) como la similitud del problema
pasado q con el problema en cuestión p produce U-maximización. De
hecho, con una función de utilidad dada, uno puede descomponer la
función w incluso sin A6 y writew (a, (q, b, r)) = s ((p, a), (q, b)) u (r)
para obtener U -maximización.5 Hay muchas situaciones en las que se
puede asumir una función de utilidad dada. En particular, uno puede
tener una medida cognitiva de utilidad que es independiente de la teoría
del comportamiento en discusión. Véase, por ejemplo, Alt (1936) para
dicha derivación.72 Copyright © 2001. Cambridge University Press.
Todos los derechos reservados. No puede ser reproducido en ninguna
forma sin el permiso del editor, excepto los usos justos permitidos por
los EE. UU. O las leyes de derechos de autor aplicables. EBSCO
Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018 10:23
PM porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA - UNADAN :
72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de las decisiones
basadas en casos Cuenta: ns145102 Derivación axiomática (De nuevo,
tal descomposición asume que u (r) = 0 implicaw (a, (q, b, r)) = 0.)
Observe, sin embargo, que en ausencia de un dada la función de
utilidad, no existe una descomposición única de w (a, (q, b, r)) (o de w
(a, (q, a, r))) en un producto de una función de similitud y función de
autilidad. De hecho, si los casos solo pueden repetirse en la memoria en
su totalidad, no se puede esperar observar estos impactos separados del
juicio de similitud y de la evaluación de la deseabilidad en el

18
comportamiento.6 Si se puede escribir una función w A pesar de ser un
producto de similitud y utilidad, es también el producto de -s y -u. Así,
incluso la clasificación ordinal de resultados pasados no puede deducirse
de la función w sola. Por ejemplo, si Jane tiende a elegir actuar a en el
problema p después de haber elegido a en caso (q, a, r), es posible que
a ella le haya gustado que ella considera que el problema p es similar al
problema q (es decir, u (r), s (p, q)> 0), pero también es posible que no
le haya gustado el resultado r, y que ella considere que los problemas p
y q son disímiles (es decir, u (r), s (p, q) <0). Para obtener una
descomposición de la función w en un producto de utilidad y similitud
basada únicamente en los datos de comportamiento, uno debería
considerar no solo las repeticiones de casos, pero también casos
hipotéticos en los que los diferentes resultados surgieron de los mismos
pares de problema-acto. Tal enfoque es utilizado por Gilboa y
Schmeidler (1995, 1997a) y Gilboa, Schmeidler y Wakker (1999) .10
Discusión de los axiomas El axioma 1 establece que el que toma las
decisiones tiene una preferencia débil sobre el conjunto de actos dados
cualquier recuerdo. Este axioma es estándar en la teoría de la decisión,
y es tan plausible aquí como la mayoría de los modelos. Una vez que
uno acepta los supuestos estructurales, es decir, que el que toma las
decisiones tiene preferencias otorgadas a alguien6. Este problema es
una reminiscencia de la axiomatización de la dependencia dependiente
del estado con la probabilidad subjetiva. Ver Karni, Schmeidler y Vind
(1983) y Karni y Mongin (2000) .73Copyright © 2001. Cambridge
University Press. Todos los derechos reservados. No puede ser
reproducido en ninguna forma sin el permiso del editor, excepto los usos
justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de las decisiones basadas en casos Cuenta: ns145102A teoría de
las decisiones basadas en casos memoria concebible y que solo el
número, y no el orden de los casos importa, A1 no es demasiado
objetable.7 Como se mencionó anteriormente, el axioma de
combinación (A2) es el más fundamental de nuestra suposiciones.
Mientras que su lógica básica parece sólida, de ninguna manera es
universalmente aplicable. En particular, la regla CBDT de V-
maximization no la satisface. Para ver esto, considere la siguiente
versión de "La paradoja de Simpson" (ver, por ejemplo, DeGroot 1975)
.8Uno tiene que elegir entre apostar en una moneda que viene por
arriba o en una moneda por subir en la cabeza. En la base de datos,

18
acuñé una moneda en la cabeza 110 de 1,000 lanzamientos, mientras
que la moneda b -10 en 100 lanzamientos. Por lo tanto, la maximización
de V, que es una regla de decisión razonable en este contexto, prefera
(con una tasa de éxito del 11%) a b (con 10%). En la base de datos J,
se cerró en la Cabeza 90 de 100 lanzamientos, mientras que b - en 800
de 1,000. Nuevamente, la maximización de V preferiría a a b. Pero en la
base de datos combinada a resultó en Jefe 200 veces de 1.100,
mientras que b - 810 de 1.100, y V-maximización preferiría b a a. La
suposición implícita de que la maximización de V es una regla de
decisión razonable en esta situación es que los coprocesos para ambos
coin a y coin b resultan de muestreo independiente de distribuciones
fijas. Pero esta suposición también hace improbable el escenario
anterior. Observar datos como I y J probablemente indica que esta
suposición es falsa, y que no todos los lanzamientos de monedas son
similares. En particular, en la base de datos I, el porcentaje de cabezas
es mucho menor que en la base de datos J, para ambas monedas. Es
posible, por ejemplo, que la máquina de lanzamiento en la base de
datos J tenga un Headbias. La introducción de la máquina de
lanzamiento como parte de la descripción de un caso resolvería la
incoherencia. Específicamente, 7 Debe mencionarse que tanto la
integridad como la transitividad de las preferencias y, en particular, la
transitividad de la indiferencia, han sido cuestionadas en la teoría de la
decisión. (Véase Luce 1956 y Fishburn 1970, 1985.) La crítica de estos
axiomas se aplica aquí como en cualquier otro contexto en el que se
planteó. 8 La paradoja de Simpson nos fue sugerida como un
contraejemplo del axioma de combinación de Bernard Walliser.74
Copyright © 2001. Cambridge University Press. Todos los derechos
reservados. No puede ser reproducido en ninguna forma sin el permiso
del editor, excepto los usos justos permitidos por los EE. UU. O las leyes
de derechos de autor aplicables. EBSCO Publishing: eBook Collection
(EBSCOhost) - impreso el 9/6/2018 10:23 PM porUNIVERSIDAD
NACIONAL ABIERTA YA DISTANCIA - UNADAN : 72982; Gilboa, Itzhak,
Schmeidler, David .; Una teoría de las decisiones basadas en casos.
Cuenta: ns145102. La axioma axioma combinada puede ser diferente de
los lanzamientos de las mismas monedas de la base de datos J, y no
sería necesario aplicar la maximización de V a la unión de las dos bases
de datos. cuando se consideran pequeñas bases de datos Por ejemplo,
considere un estadístico que tiene que decidir si acepta o rechaza una
hipótesis nula. Suponga que el estadístico utiliza una técnica estándar
de prueba de hipótesis. Normalmente, uno puede encontrar dos
muestras, cada una de las cuales es demasiado pequeña para alcanzar

19
la estadística. l significado, y cuya unión es lo suficientemente grande
para este propósito. Por lo tanto, la decisión dada a cada base de datos
sería "aceptar", mientras que en su unión sería "rechazar". Cabe
señalar, sin embargo, que esto se debe a la asimetría inherente entre la
aceptación y el rechazo de una hipótesis nula, que a menudo se deriva
del hecho de que la hipótesis nula goza del estado de "visión aceptada"
o "sabiduría en común". Esto, a su vez, probablemente se basa en
casest anteriores que preceden a las muestras en discusión. Si
tuviéramos que considerar toda la base de datos en la que se
encuentran los estadísticos, incluiríamos estos casos pasados así como
las nuevas muestras. En este caso, las dos bases de datos definidas por
los casos anteriores combinadas con cada una de las nuevas muestras
no son disjuntas. Para considerar otro ejemplo, supongamos que un
inspector debe decidir si una ruleta es justa. Observando un centenar de
casos en los que la rueda aparece en rojo, puede concluir que la ruleta
es parcial y que se requiere acción legal. Obviamente, ella debería
tomar la misma decisión si observa un centenar de casos, todos los
cuales implican resultados negros. Sin embargo, la combinación de las
dos bases de datos no garantiza ninguna acción.9 Observe, sin
embargo, que este ejemplo depende del hecho de que los hechos no se
describen con suficiente detalle. Si uno fuera a elegir entre "no actuar",
"demandar por un sesgo rojo" y "demandar por a9" Este ejemplo se
basa en un ejemplo de Daniel Lehmann.75 Copyright © 2001.
Cambridge University Press. Todos los derechos reservados. No puede
ser reproducido en ninguna forma sin el permiso del editor, excepto los
usos justos permitidos por los EE. UU. O las leyes de derechos de autor
aplicables. EBSCO Publishing: eBook Collection (EBSCOhost) - impreso
el 9/6/2018 10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA
DISTANCIA - UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una
teoría de las decisiones basadas en casos: ns145102A teoría de
decisiones basadas en casos sesgo negro ", la violación del axioma
combinado desaparecería.10 Tal vez la violación más importante del
axioma de combinación ocurra cuando la función w (a, c) misma se
aprenda de experiencia. Nos referimos a este proceso como "inducción
de segundo orden", ya que describe cómo uno aprende cómo aprender
de la experiencia. El capítulo 7 discute este tema en detalle. El axioma
de Arquímedes establece que las memorias concebibles son
comparables, o que ninguna memoria concebible puede ser
infinitamente más pesada que otra. Se viola, por ejemplo, mediante
sistemas de decisión que se basan en las clasificaciones de vecinos más
cercanos. Para considerar un ejemplo concreto, imagine que un médico

19
tiene que decidir si realizar una cirugía en un paciente. Un posible
algoritmo para tomar esta decisión es considerar al paciente más similar
que se haya sometido al procedimiento quirúrgico y realizar la cirugía en
el paciente actual si y solo si el caso de cirugía más similar tuvo éxito.
Para esta regla de decisión, un solo caso más similar de, por ejemplo,
una operación exitosa superará cualquier número de casos menos
similares de operaciones sin éxito. Vemos este ejemplo como una crítica
del vecino más cercano se acerca más que el Archimedeanaxiom. En
cualquier caso, se puede abandonar el Archimedeanxioma y desarrollar
una versión de análisis no estándar de nuestro teorema. En Gilboa y
Schmeidler (1999, 2000b) utilizamos la combinación y los axiomas de
Arquímedes aplicados a la predicción, e identificamos varios clases de
ejemplos en los que es poco probable que se mantengan. Dado que
cada problema de predicción puede integrarse en un problema de
decisión, estas clases de ejemplos también se aplican aquí. Sin
embargo, parece que estos axiomas son bastante plausibles en una
amplia gama de aplicaciones.10 Como en el ejemplo de la paradoja de
Simpson, el escenario descrito en este ejemplo es muy poco probable
bajo el supuesto de dependencia estocástica (o intercambiabilidad) .76
Copyright © 2001. Cambridge University Press . Todos los derechos
reservados. No puede ser reproducido en ninguna forma sin el permiso
del editor, excepto los usos justos permitidos por los EE. UU. O las leyes
de derechos de autor aplicables. EBSCO Publishing: eBook Collection
(EBSCOhost) - impreso el 9/6/2018 10:23 PM porUNIVERSIDAD
NACIONAL ABIERTA YA DISTANCIA - UNADAN : 72982; Gilboa, Itzhak,
Schmeidler, David .; Una teoría de las decisiones basadas en casos.
Cuenta: ns145102. Derivación axiomática. Pasamos ahora al axioma de
la diversidad. Su principal justificación es la necesidad: sin ella no se
puede derivar la representación de las preferencias por la maximización
de la W. Admitimos fácilmente que es demasiado restrictivo para
muchos propósitos. Por ejemplo, considerar tres actos, a = "vender 100
acciones", b = "vender 200 acciones" yd = "vender 300 acciones". Se
puede argumentar que el acto b siempre se clasificará entre los actos ay
d. Pero esto contradice el axioma de la diversidad. Sin embargo, con un
conjunto lo suficientemente grande de casos concebibles M, el axioma
de la diversidad no es demasiado objecionable. Por ejemplo, puede
haber circunstancias bajo las cuales obtener la cartera óptima requeriría
vender exactamente 200 acciones. Teniendo pruebas suficientemente
sólidas a partir de los primeros casos de que el problema actual
pertenece a esta categoría, uno puede clasificar, digamos, b sobre un y
a más de d. A pesar de lo anterior, sería útil tener otro axioma que, en

19
presencia de A1-A3, produzca la maximización de W. De la prueba
quedará claro que uno no necesita toda la fuerza de A4 para obtener el
resultado deseado. Basta con que haya suficientes cuadruples de actos
para los cuales se cumple la conclusión del axioma, en lugar de eso para
todos los cuádruples. Tal debilitamiento permitiría que actb en el
ejemplo anterior siempre se clasifique entre un andd, siempre que
existan otros actos, por ejemplo e y f, tales que para cada par de actos
distintos {x, y} ⊂ {a, b, d} , cada strictranking de {x, y, e, f} se
obtiene para algunos I. Para simplificar la exposición formulamos A4 en
toda su intensidad, en lugar de adaptarlo a su uso exacto en la prueba.
En la actualidad no conocemos ninguna alternativa elegante a A4.11
Prueba del teorema 3.1: el teorema 3.1 es una reminiscencia del
resultado principal en Gilboa y Schmeidler (1997a). En ese trabajo, se
supone que los casos implican pagos numéricos, y los axiomas
algebraicos y topológicos se formulan en el espacio de pago. Aquí, en
contraste, no se supone que los casos tengan ninguna estructura, y las
estructuras algebraicas y topológicas están dadas por 77Copyright ©
2001. Cambridge University Press. Todos los derechos reservados. No
puede ser reproducido en ninguna forma sin el permiso del editor,
excepto los usos justos permitidos por los EE. UU. O las leyes de
derechos de autor aplicables. EBSCO Publishing: eBook Collection
(EBSCOhost) - impreso el 9/6/2018 10:23 PM porUNIVERSIDAD
NACIONAL ABIERTA YA DISTANCIA - UNADAN : 72982; Gilboa, Itzhak,
Schmeidler, David .; Una teoría de las decisiones basadas en casos.
Cuenta: ns145102A teoría de decisiones basadas en casos, el número
de repeticiones. Este hecho introduce dos dificultades. En primer lugar,
el espacio de "contextos" para los que se definen las preferencias no es
un espacio euclidiano, sino solo puntos enteros del mismo. Esto requiere
cierto cuidado con la aplicación de teoremas de separación. En segundo
lugar, las repeticiones solo pueden ser benon-negativas. Este hecho
introduce varias complicaciones y, en particular, cambia la implicación
algebraica de la condición de diversidad. Presentamos la prueba del caso
| A | ≥ 4. Las pruebas para los casos | A | = 2 y | A | = 3 se describirán
como subproductos en el camino. Comenzamos probando que (i) implica
(ii). Primero notamos que la siguiente propiedad de homogeneidad es
válida: Reclamo 3.1 Para cada I ∈ ZM + y cada k ∈ N, I = kI.Proof:
Sigue de la aplicación consecutiva del axioma de combinación. A la vista
de esta afirmación, ampliamos la definición de Ito funciona I cuyos
valores son racionales no negativos (denotados Q +). Dado I ∈ QM +,
sea k ∈ N tal que kI ∈ ZM + y defina I = kI. Estoy bien definido en vista
de la Reclamación3.1. Por definición y la Reivindicación 3.1 también

19
tenemos: Reivindicación 3.2 (Homogeneidad) Por cada I ∈ QM + y cada
q ∈Q, q> 0: qI = I .Reclamo 3.2, A1 y A2 implican: Reclamo 3.3 (El
axioma de clasificación) Para cada I ∈ QM +, I es completo y transitivo
en A, y (el axioma de combinación) para cada I, J ∈ QM + y cada a, b ∈
A y p, q ∈ Q, p, q> 0: si a I b ( aI b) y a J b, luego a pI + qJ b (apI + qJ
b). Dos casos especiales de la combinación axioma son de interés: (i) p
= q = 1, y (ii) p + q = 1. Reclamaciones 3.2 y 3.3, y78Copyright ©
2001. Cambridge University Press. Todos los derechos reservados. No
puede ser reproducido en ninguna forma sin el permiso del editor,
excepto los usos justos permitidos por los EE. UU. O las leyes de
derechos de autor aplicables. EBSCO Publishing: eBook Collection
(EBSCOhost) - impreso el 9/6/2018 10:23 PM porUNIVERSIDAD
NACIONAL ABIERTA YA DISTANCIA - UNADAN : 72982; Gilboa, Itzhak,
Schmeidler, David .; Una teoría de decisiones basadas en casos Cuenta:
ns145102 La derivación axiomática del axioma de Archimedean, A3,
implica la siguiente versión del axioma para el caso QM +:
Reivindicación 3.4 (El axioma de Archimedean) Para cada I, J ∈ QM + y
cada a, b ∈ A, si aI b, entonces existe r ∈ [0, 1) ∩ Q tal que arI + (1-r) J
b.Es fácil concluir de la Reivindicación 3.4 (y 3.3), que para todos I, J ∈
QM + y cada a, b ∈ A, si aI b, entonces los heterólogos r ∈ [0, 1) ∩ Q tal
que apI + (1-p) J b para cada p ∈ (r, 1) ∩ Q.La siguiente notación será
conveniente para establecer el primer lema . Para cada a, b ∈ A letYab ≡
{I ∈ QM + | aI b} y Wab ≡ {I ∈ QM + | a I b} .Observe eso por
definición y A1: Yab ⊂ Wab, Wab ∩Yba = ∅, y Wab ∪ Yba = QM +. El
primer paso principal en la prueba del teorema es: Lema 3.5 Para cada
a, a b diferente, hay una vectorwab ∈ RM tal que, (i) Wab = {I ∈ QM + |
wab · I ≥ 0}; (ii) Yab = {I ∈ QM + | wab · I> 0}; (iii) Wba = {I ∈ QM +
| wab · I ≤ 0}; (iv) Yba = {I ∈ QM + | wab · I <0}; (v) Ni wab ≤ 0 ni
wab ≥ 0; (vi) -wab = wba.Por otra parte, el vector wab que satisface (i)
- (iv), es único hasta la multiplicación por un número positivo. El lema
dice que podemos asociarnos con cada par de actos distintos a, b ∈ A,
un hiperplano de separación definido por wab · x = 0 (x ∈ RM), de modo
que a I b iff I esté en un lado específico del plano (es decir, iff wab · I ≥
0). Observe que si solo hay dos actos, el Lema 3.5 completa la prueba
de suficiencia: por ejemplo, uno puede establecer wa = wab y wb =
0.79Copyright © 2001. Cambridge University Press. Todos los derechos
reservados. No puede ser reproducido en ninguna forma sin el permiso
del editor, excepto los usos justos permitidos por los EE. UU. O las leyes
de derechos de autor aplicables. EBSCO Publishing: eBook Collection
(EBSCOhost) - impreso el 9/6/2018 10:23 PM porUNIVERSIDAD
NACIONAL ABIERTA YA DISTANCIA - UNADAN : 72982; Gilboa, Itzhak,

19
Schmeidler, David .; Una teoría de las decisiones basadas en casos
Cuenta: ns145102A teoría de las decisiones basadas en casos Luego se
deduce que a I b iff wab · I ≥ 0, es decir, iff wa · I ≥ wb · I. De manera
más general, mostraremos en el siguiente anexo aquella puede
encontrar un vector wa para cada alternativea, de modo que, para cada
a, b ∈ A, wab sea un múltiplo positivo de (wa - wb). Antes de comenzar
la prueba, introducimos notación adicional: dejemos que W ab y Yab
denoten el cascos convexos (en RM) de Wab y Yab, respectivamente.
Para un subconjunto B de RM, int (B) denota el conjunto de puntos
interiores de B. Prueba de Lema 3.5: dividimos la prueba en varias
reivindicaciones. Reclamo 3.6 Para cada a, a, b ∈ A, Yab ∩ int (Yab) =
∅.Proof: por el axioma de diversidad Yab = ∅ para todos a, b ∈ A, b = b.
Deje que ∈ Yab ∩ZM + y deje J ∈ ZM + con J (m)> 1 para allm ∈ M. Por
el axioma de Arquímedes hay un l ∈ N tal que K = lI + J ∈ Yab. Deje (xj)
2 | M | j = 1 ser el 2 | M | Veteranos distintos en RM con coordenadas 1
y -1. Para j, (j = 1, ..., 2 | M |), defina yj = K + xj. Obviamente, yj ∈
QM + para todos j. Por la reivindicación 3.4, hay un rj ∈ [0, 1) ∩Q tal
que zj = rjK + (1-rj) yj ∈ Yab (para todos j). Claramente, el casco
convexo de {zj | j = 1, ..., 2 | M |}, que se incluye en Yab, contiene un
vecindario abierto de K.Claim 3.7 Para cada a, a b ∈ A, W ba ∩ int (Yab)
= ∅.Proof: Supongamos , a modo de negación, que para algunos x ∈int
(Yab) hay (yi) ki = 1 y (λi) ki = 1, k ∈ N tal que para todos i, yi ∈ Wba,
λi ∈ [0, 1] , ki = 1λi = 1, yx = ki = 1λiyi.Desde x ∈ int (Yab), hay una
bola de radio ε> 0 aroundx incluida en Yab. Deje δ = ε / (2ki = 1 || yi
||) y para cada i letqi ∈ Q ∩ [0, 1] tal que | qi - λi | <δ, y ki = 1qi =
1.Hence, y = ki = 1qiyi ∈ QM + y || y - x || <ε, que, inturn, implica y ∈
Yab ∩ QM +. Como para todo i: yi ∈ Wba, la aplicación consecutiva del
axioma combinado (Reivindicación 3.3) produce y = ki = 1qiyi ∈ Wba.
Por otro lado, y es un convex80Copyright © 2001. Cambridge University
Press. Todos los derechos reservados. No puede ser reproducido en
ninguna forma sin el permiso del editor, excepto los usos justos
permitidos por los EE. UU. O las leyes de derechos de autor aplicables.
EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/6/2018
10:23 PM porUNIVERSIDAD NACIONAL ABIERTA YA DISTANCIA -
UNADAN : 72982; Gilboa, Itzhak, Schmeidler, David .; Una teoría de
decisiones basadas en casos. Cuenta: ns145102 Combinación
axiomática de derivación de puntos en Yab ⊂ QM + y por lo tanto tiene
una representación con coeficientes racionales (porque los racionales
son un campo algebraico). Aplicando la Reivindicación 3.3
consecutivamente como arriba, concluimos que y ∈ Yab - una
contradicción. El paso principal en la demostración del Lema 3.5: Las

19
últimas dos reivindicaciones implican que (para todo a, b ∈ A, a = b) W
ab e Yatisface las condiciones de un teorema de hiperplano de
separación. Así que hay un vector wab = 0 y un número c de modo que
Wab · I ≥ c por cada I ∈ W abwab · I ≤ c por cada I ∈ Yba.Por otra
parte, wab · I> c para cada I ∈ int (W ab) wab · I <c por cada I ∈ int
(Yba). Por homogeneidad (Reclamo 3.2), c = 0. Las partes (i) - (iv) de
thelemma se actualizan como un reclamo y se prueban a continuación.
Reclamo 3.8 Para todo a, b ∈ A, b = Wab = {I ∈ QM + | wab · I ≥0};
Yab = {I ∈ QM + | wab · I> 0}; Wba = {I ∈ QM + | wab · I ≤ 0}; y Yba
= {I ∈ QM + | wab · I <0} .Proof: (a) Wab ⊂ {I ∈ QM + | wab · I ≥ 0}
sigue de este resultado deparación y del hecho de que c = 0. (b) Yab ⊂
{I ∈ QM + | wab · I> 0}: suponga que aI b, y, a modo de negación,
wab · I ≤ 0. Elija una J ∈ Yba ∩int (Yba). Tal J existe por la
Reivindicación 3.6. Como c = 0, J satisface a wab J <0. Por la
Reivindicación 3.4 existe r ∈ [0, 1) tal thatrI + (1 - r) J ∈ Yab ⊂ Wab.
Por (a), wab · (rI + (1 - r) J) ≥ 0.But wab · I ≤ 0 y wab · J <0, una
contradicción. Por lo tanto, Yab ⊂ {I ∈ QM + | wab · I> 0}. (c) Yba ⊂ {I
∈ QM + | wab · I <0}: supongamos que bI a y, por camino de negación,
wab · I ≥ 0. Por la reivindicación 3.6 hay un J ∈ Yabwith J ∈ int (Yab) ⊂
int (W ab). La inclusión J ∈ int (W ab) implica wab · J> 0. Usando el
axioma de Arquímedes, hay

19
TERCER LIBRO
Models and decision
making in health care
Modelos y decisión
haciendo en la asistencia sanitaria
libro aprenderá sobre una gama de enfoques para la construcción de
modelos y
apoyo a las decisiones. El objetivo de este capítulo es presentar el
principal subyacente

conceptos. Comienzas leyendo acerca de los tipos de racionalidad y lo


que hace que
toma de decisiones en la asistencia médica difícil. Luego se le presenta a
algunos de

los diferentes tipos de modelos que se pueden usar para apoyar e


informar la decisión
hacer procesos y leer sobre un ejemplo particular de construcción de
modelos en salud
servicios. Después de esto, aprenderá sobre algunos de los
componentes de un soporte de decisión
modelo, y lo que hace un buen modelo.

Objetivos de aprendizaje

Al final de este capítulo, podrá mejor:

19
• describir algunas de las características de la toma de decisiones en el
cuidado de la salud
sistemas
• explicar qué se entiende por 'modelo' en el contexto de la toma de
decisiones, y
identificar las características comunes de tales modelos
• describir algunos de los tipos de problemas que los modelos de
servicios de salud pueden
Ayuda con
• comprender el proceso básico de creación de modelos, lo que hace que
un buen
modelo, y algunas de las críticas de su uso para informar la decisión
fabricación

Términos clave
Modelos Maneras de representar procesos, relaciones y sistemas
simplificados, comunicables
formar. Los modelos icónicos son representaciones de cómo se ve el
sistema. Los modelos gráficos son
esencialmente diagramas, que a menudo consisten en cuadros y flechas
que muestran diferentes tipos de
relaciones. Los modelos simbólicos implican conjuntos de fórmulas, que
representan las relaciones
entre variables en términos cuantitativos.
Investigación operativa (OR) La aplicación de métodos científicos a la
decisión de gestión
fabricación. El desarrollo y uso de modelos simbólicos y, más
recientemente, cualitativos son
posiblemente las características distintivas de la contribución OR.
Estructuración de problemas Métodos para aclarar problemas mediante
el desarrollo de una comprensión compartida de

19
entre los responsables de la toma de decisiones o las partes interesadas,
y aclarar los objetivos y las opciones. Dibujan
en ideas sobre racionalidad procesal así como sustantiva.
1

Copyright © 2006. McGraw-Hill Education. Todos los derechos


reservados. No puede reproducirse de ninguna forma sin el permiso del
editor, salvo que se permitan usos justos
bajo los EE. UU. o la ley de derechos de autor aplicable.

EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/8/2018


8:35 PM a través de UNIVERSIDAD NACIONAL
ABIERTA Y A DISTANCIA - UNAD
AN: 234098; Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos
para la toma de decisiones
Cuenta: ns145102

Racionalidad procesal Un enfoque para la toma de decisiones que


enfatiza los procesos de razonamiento y
procedimientos para tomar decisiones cuando las capacidades para
procesar información, y para pronosticar y
los resultados de comparación son limitados.
Análisis de sensibilidad Exploración sistemática de cómo cambian los
resultados o resultados de un modelo
cuando las entradas, tales como datos y suposiciones, se cambian.
Racionalidad Sustantiva Un enfoque para la toma de decisiones
representado por: reconocer la necesidad
para una decisión; aclarar los objetivos para un "buen" resultado;
identificando posibles cursos de
acción; evaluar estos cursos de acción; y elegir el "mejor" curso de
acción.

19
'¿Qué pasa si?' Análisis Un proceso en el que interactúan el responsable
de la toma de decisiones, el analista y el modelo.
explorando las implicaciones de diferentes decisiones bajo diferentes
escenarios.

Introducción

¿Por qué es difícil tomar decisiones de administración en el cuidado de la


salud? Para responder esto
pregunta, debe pensar en una pregunta más fundamental: qué hace que
la decisión de gestión es 'buena'? En términos más generales, ¿cómo
puedes saber si
la decisión tomada en nombre de una organización o grupo es 'buena'?
Una obvia
La prueba es si la decisión puede estar justificada: si hay buenas
razones para ello.
Esto ha llevado a la aceptación generalizada de la idea de que las
decisiones deberían tomarse
'racionalmente'. Pero, ¿qué significa esto realmente? Hay grandes y
controversiales
Escrituras económicas, gerenciales, filosóficas y psicológicas sobre esto
que
solo se puede tocar aquí.
Una versión clara pero exigente de la racionalidad requiere:
1 un conjunto explícito de opciones, o posibles cursos de acción;
2 información que permite predecir los resultados de elegir cada opción;
y
3 un criterio explícito para elegir el conjunto preferido de resultados,
que es
determinado por las metas y objetivos del tomador de decisiones.

20
La elección racional es la opción que la lógica y las leyes de la
probabilidad sugieren
conducir al mejor o más preferido conjunto de resultados. Esto, que
Herbert Simon
(1976) describieron como racionalidad sustantiva, es la base de mucha
teoría económica
(que asume que el "hombre económico" en realidad es racional en este
sentido) y el análisis
(que asume que los que toman las decisiones deberían ser). De hecho,
la racionalidad sustantiva
se encuentra detrás de muchos de los métodos descritos en este libro,
particularmente la Decisión
Análisis en el Capítulo 6, donde el objetivo es maximizar la 'utilidad
esperada subjetiva'.
Sin embargo, Simon argumentó que en muchas situaciones prácticas los
responsables de la toma de decisiones no pueden
asegúrese de identificar la mejor opción. La obtención de la información
necesaria puede ser
imposible o demasiado costoso consume mucho tiempo, es arriesgado o
poco ético. Incluso si los responsables de la toma de decisiones tienen la
información, es posible que no tengan la capacidad de procesarla, e
incluso si tienen la capacidad, sus preferencias pueden cambiar con el
tiempo. Aunque este enfoque, si es factible, conduce a resultados
"óptimos" para las personas en un contexto competitivo, no es obvio
qué hacer en un mundo más colaborativo o si hay varios tomadores de
decisiones con diferentes preferencias. Por lo tanto, lo mejor que la
mayoría de los responsables de la toma de decisiones puede hacer es
trabajar con una racionalidad "limitada", limitada a los modelos y la
toma de decisiones en la atención médica. Copyright 2006. Educación
de McGraw-Hill. Todos los derechos reservados. No puede ser
reproducido de ninguna forma sin el permiso del editor, excepto los usos
legítimos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/8/2018 8:35 PM por UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 234098; Sanderson,
Colin J., Gruen, Reinhold .; Modelos analíticos para la toma de

20
decisiones. Cuenta: ns145102 es por la complejidad del mundo en que
viven y sus capacidades limitadas para analizarlo. Una objeción a
cualquier versión de racionalidad que se base únicamente en buscar
buenos resultados es que los medios por los cuales se logran los
resultados también pueden ser importantes. . Hay muchas versiones de
la historia sobre el sheriff que podría prevenir un disturbio, en el cual
miles seguramente serían asesinados, al encuadrar y ejecutar a un
hombre inocente (por ejemplo, Smart 1973). En este caso, un enfoque
exclusivo en los resultados requeriría un comportamiento que no es
ético, por decir lo menos. Hay formas de hacerlo, por ejemplo, limitando
la gama de opciones a las éticas, o ampliando los resultados para incluir
la buena reputación del sistema de aplicación de la ley, pero el punto
permanece. Una posible alternativa a la racionalidad sustantiva es la
racionalidad del procedimiento. Aquí la prueba no es si se logra el mejor
resultado, sino cuán cerca el proceso de toma de decisiones sigue reglas
o procedimientos particulares. Estos procedimientos pueden ser parte de
la cultura institucional, como las reglas generales que han producido
'buenas' decisiones en el pasado. Por otro lado, la justificación de estos
procedimientos tal vez se base en un llamado a principios sociales
aceptados como la transparencia, los derechos y la participación. La
mayoría de los escritores sobre el tema han evitado ser preceptivos
sobre lo que hace un "buen" procedimiento, argumentando que esto
depende del contexto. Pero para el establecimiento de prioridades en el
cuidado de la salud, por ejemplo, Martin et al. (2003) describen un
procedimiento que se justifica en términos de: (1) hasta qué punto es
impulsado por factores que las personas imparciales creen que son
relevantes; (2) su accesibilidad pública; (3) si hay un mecanismo para
apelar; y (4) si el cumplimiento de los primeros tres puntos es auditado.
Esto se basa en un marco de Daniels (2000). En el Capítulo 3, volverá a
abordar un proceso diseñado para explorar las implicaciones para la
acción estratégica si los interesados tienen diferentes puntos de vista. El
punto es que en la racionalidad procedimental, la opción elegida es la
que surge de un procedimiento justificable. En contraste con la
racionalidad sustantiva, calcular o estimar los resultados esperados no
es un paso esencial. "La racionalidad sustantiva enfatiza la elección
racional, y la racionalidad procesal enfatiza la elección racional" (Pidd
2004). La opinión de Simón era que la racionalidad sustantiva seguía
siendo el ideal, pero sugería que donde sea imposible, los responsables
de la toma de decisiones pueden satisfacerla. En lugar de establecer y
evaluar cada opción, los responsables de la toma de decisiones pueden
identificar y evaluar las operaciones sucesivas hasta que encuentren una

20
que cumpla con un conjunto de estándares preespecificados. Esta opción
se elige porque es "suficientemente buena", a pesar de que no se ha
demostrado que sea la mejor. Podría decirse que esto tiene elementos
de racionalidad sustantiva y de procedimiento, y Amartya Sen (1995) ha
demostrado que es imposible mantener un límite estricto entre los dos.
¿Cómo se relacionan estos conceptos de racionalidad con el mundo de la
gestión? Mintzberg (1974) estudió el trabajo gerencial y extrajo una
serie de conclusiones que Pidd (2004) resumió de la siguiente manera:
1 Muchos altos directivos trabajan muchas horas a un ritmo constante2.
Su actividad se caracteriza por la brevedad, la variedad y la
fragmentación con el cambio constante entre tareas .3 Los gerentes de
la muestra parecían preferir los elementos más activos de su carga de
trabajo y no les gustaban las tareas, como leer el correo y los informes,
aunque podían contener datos "duros". El papel de los modelos
9Copyright © 2006. McGraw-Hill Education. Todos los derechos
reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto los usos legítimos permitidos por los EE. UU. O la ley
de derechos de autor aplicable. Publicación de EBSCO: Colección de
libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos par con
personas. Las comunicaciones verbales se basaban casi por completo en
obtener y proporcionar información, a menudo información delicada. La
imagen es de actividad continua, de decisiones rápidas y consultas con
individuos, junto con reuniones programadas más largas que involucran
a muchas personas. A lo largo de esta actividad, el gerente
continuamente recibe y filtra información, buscando lo que es relevante
ahora o lo que podría ser útil en el futuro. No es una imagen de una
vida de razón separada y contemplativa. Es este medio de actividad
continua, de decisiones rápidas y consultas con individuos, lo que define
la racionalidad limitada empleada al hacer la estrategia y desarrollar la
política. Esto ilustra algunas de las limitaciones y presiones encontrado
en los ambientes de trabajo de los gerentes. ¿Qué pasa con la
naturaleza de los problemas que tienen que abordar? En 1979, Ackoff
argumentó que: Los gerentes no se enfrentan con problemas que son
independientes entre sí, sino con situaciones dinámicas que consisten en
sistemas complejos de cambios en los problemas que interactúan entre
sí. Llamo a tales situaciones desordenados. Los problemas son
abstracciones extraídas de las maravillas del análisis; son para ensuciar
los asátomos para mesas y sillas. Los gerentes no resuelven problemas;
Ellos administran las campañas. Más recientemente, Pidd (2004) expuso

20
algunos de los desafíos más específicos para la toma de decisiones de
bienes estratégicos en las siguientes líneas: 1 En lugar de un ciclo de
planificación anual sin problemas, pueden surgir amenazas y
oportunidades que requieren una respuesta rápida bajo presión2. puede
haber confusión y desacuerdo sobre los objetivos. Entender cómo hacer
algo puede ser lo suficientemente difícil, pero en la toma de decisiones
estratégicas las preguntas son más a menudo lo que se debe hacer y
por qué.3 Los líderes de cualquier organización generalmente han
surgido como líderes porque son buenos para obtener lo que quieren. El
debate estratégico puede implicar luchas entre personas poderosas.4 La
mayoría de las organizaciones tiene una gran cantidad de datos
operativos, que le permiten operar más o menos eficientemente en su
forma y contexto actuales. Sin embargo, el desafío en gran parte de la
toma de decisiones estratégicas es encontrar formas de lidiar con lo
nuevo y lo desconocido5. Las decisiones estratégicas a menudo son
complejas y muy importantes. Pueden implicar muchos factores e
interacciones diferentes entre factores, de modo que hacer un cambio
en uno tendrá consecuencias en otros lugares. Estas decisiones
involucran seres humanos que pueden interpretar la misma situación de
manera muy diferente a la de otros.6 Los planificadores rara vez tienen
el control total de la situación. Otros actores, como los competidores, los
legisladores y los clientes también afectarán lo que sucede. La
organización debe encontrar formas de avanzar con ese futuro para
lograr algún objetivo. Para completar esta sección introductoria sobre la
racionalidad en la toma de decisiones, aquí hay unos breves extractos
de un artículo del sociólogo Amitai Etizioni (1986) en el que propone una
alternativa a la noción del 'económico' siempre racional. 10 Modelos y
toma de decisiones en la atención médica Copyright © 2006. McGraw-
Hill Education. Todos los derechos reservados. No puede ser reproducido
de ninguna forma sin el permiso del editor, excepto los usos legítimos
permitidos por los EE. UU. O la ley de derechos de autor aplicable.
Publicación de EBSCO: Colección de libros electrónicos (EBSCOhost) -
impreso el 9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA
DISTANCIA - UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .;
Modelos analíticos para la toma de decisiones. Cuenta: ns145102. Este
artículo examina los méritos de la noción de que. . . la racionalidad es
antientrópica. Es decir, se supone que el estado "normal" del
comportamiento humano no es racional; para que el comportamiento
sea racional, incluso en parte, las fuerzas deben activarse para tirar de
él en la dirección racional. Más aún, después de tal activización, el
comportamiento "se esfuerza" por regresar al estado entrópico ... El

20
estado "normal" es aquel en que el comportamiento no es intencional,
no calculador, se rige por emociones y valores, potencialmente
inconsistente y conflictivo, indiferentes a la evidencia y bajo la influencia
del "pensamiento grupal" (es decir, los individuos deducen en su
pensamiento a hechos, interpretaciones y conclusiones definidos por el
grupo, incluso si divergen significativamente de la realidad objetiva) ...
Será evidente que, debido a la racionalidad, artificial, es decir,
fabricado, tiene un costo.Actividad 1.1 A la luz de lo que acaba de leer y
de su propia experiencia, ¿en qué circunstancias puede la racionalidad
sustantiva ser una base práctica para la toma de decisiones? La
racionalidad sustantiva se vuelve más práctica: • la más clara y menos
controvertida el conjunto de prioridades y objetivos • mejor definido el
conjunto de opciones o acciones • las relaciones mejor entendidas o
más predecibles entre acciones y resultados • cuanto menos extensas
sean las compensaciones entre objetivos opuestos. Actividad 1.2 En su
opinión, ¿en qué medida prevalecen estas condiciones en la atención de
la salud? En resumen, ¿qué evidencia tiene para apoyar su punto de
vista? Las organizaciones de atención de salud consisten en muchos
grupos de interés diferentes (por ejemplo, diferentes tipos de salud
profesionales del cuidado, legisladores, gerentes) y se componen de
muchas pequeñas unidades organizativas. Cada grupo y unidad puede
tener sus propias aspiraciones y objetivos, y con tantos grupos de
interés diferentes a menudo es difícil establecer un conjunto claro de
prioridades y objetivos generales. También puede ser difícil definir un
conjunto de opciones de decisión cuando la decisión ment 'es
turbulento. En el cuidado de la salud, los gerentes deben lidiar con los
continuos cambios en la tecnología médica, en los métodos de
prestación de servicios, en los arreglos de gestión, en la política de
salud, en las políticas de recursos humanos, en los fondos disponibles,
en los patrones de enfermedad, en las expectativas del paciente, etc.
modelos 11Copyright © 2006. McGraw-Hill Education. Todos los
derechos reservados. No puede ser reproducido de ninguna forma sin el
permiso del editor, excepto los usos legítimos permitidos por los EE. UU.
O la ley de derechos de autor aplicable. Publicación de EBSCO: Colección
de libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisiones. Cuenta: ns145102. Evaluar las opciones de decisión en
términos de su capacidad para lograr objetivos organizacionales es
también difícil en el cuidado de la salud. Las relaciones entre la actividad
de atención médica y la mejora de la salud, por ejemplo, a menudo son

20
oscuras. Con una inversión creciente en sistemas de investigación e
información, esta situación ha ido mejorando, pero siempre habrá un
elemento de incertidumbre. En resumen, la atención de la salud es un
entorno difícil para la racionalidad sustantiva. No es nada sencillo para la
racionalidad procesal. Por otro lado, es ampliamente aceptado que la
salud es importante, como un fin en sí mismo y como un medio para
otros fines; que la atención médica es importante para la salud; y que
hay margen de mejora en la toma de decisiones sobre el cuidado de la
salud. Esto hace que la cuestión de cómo mejorar las decisiones de
atención médica sea difícil pero importante. La contribución de la OR y
la ciencia de la administración El problema de cómo tomar decisiones de
gestión en el contexto de incertidumbre, controversia y turbulencia
claramente no es exclusivo de la atención médica. Las contribuciones
provienen de personas con una amplia variedad de antecedentes
profesionales y académicos: gerentes de ciencias sociales, matemáticos,
investigadores operativos, economistas, que trabajan en la industria, el
comercio, la defensa y el gobierno. La corriente principal del trabajo
teórico anterior en investigación operacional y ciencia administrativa
(OR / MS ) estaba muy dentro del "paradigma de la racionalidad
sustantiva". Se dedicó a métodos de análisis y optimización: formas de
describir el sistema en cuestión, prediciendo el impacto probable de
elegir especificaciones y elegir las "mejores" soluciones. Sin embargo,
entre los practicantes se hizo poco hincapié en los métodos matemáticos
sofisticados y más en desarrollar una buena comprensión del problema
con los tomadores de decisiones y análisis ¿qué pasaría si? En el que los
analistas y tomadores de decisiones interactúan, explorando las
implicaciones de decisiones diferentes en una amplia variedad de
escenarios Más recientemente, los dominios tanto de la teoría como de
la práctica se han acercado y la importancia de la racionalidad
procedimental ha sido reconocida más explícitamente. El resultado ha
sido el desarrollo de varios enfoques para lo siguiente: • estructuración
de problemas: formas de aclarar problemas desarrollando una
comprensión compartida de ellos entre los tomadores de decisión o
partes interesadas y clarificando objetivos y opciones; • apoyo a la
decisión: formas de identificar la información necesaria sobre opciones y
efectos sobre los resultados, y organizarla y procesarla de manera que
conduzca a decisiones apropiadas, extendiendo así a los tomadores de
decisiones capacidades para procesar la información. El concepto en
ambos es el modelo, y el resto de este capítulo se dedicará a explorar
algunas de las ideas que sustentan la evaluación y el desarrollo de
modelos.12 Modelos y toma de decisiones en la atención médica

20
Copyright © 2006. McGraw-Hill Education. Todos los derechos
reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto los usos legítimos permitidos por los EE. UU. O la ley
de derechos de autor aplicable. Publicación de EBSCO: Colección de
libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisionesCuenta: ns145102Tipos de modelo para el apoyo de
decisiones Una definición típica de un modelo podría estar en la línea
de: un modelo es una representación simplificada o descripción de un
sistema o situación, utilizado para mejorar la comprensión o la toma de
decisiones. Esta definición es bastante diferente del uso común de la
palabra. Un diccionario también puede sugerir algo como: • un ideal o
un estándar para ser imitado (por ejemplo, un estudiante modelo) • una
representación física en una escala diferente (por ejemplo, un avión
modelo). Se podría argumentar que las dos últimas definiciones son
casos especiales de la primera. Los directivos pueden desear desarrollar
un servicio "modelo" en papel como una expresión simplificada de
visión, a los fines de la comunicación y el liderazgo. La reducción de la
escala implicará una pérdida de detalle o función y, por lo tanto, una
simplificación, pero una aeronave de modelado puede ser útil para, por
ejemplo, probar el túnel de viento y mejorar el diseño. Sin embargo, a
los fines de la estructuración y análisis de problemas, le interesará
comprender y describir cómo funciona realmente un sistema,
identificando correctamente los factores que determinan si sus objetivos
se logran y cómo funcionan estos factores, como base para las
decisiones sobre qué hacer. Por supuesto, los modelos de este tipo no
solo se utilizan en el soporte de decisiones. Los científicos de muchos
tipos usan modelos para explicar y predecir fenómenos aunque no
tengan la intención de intentar cambiarlos. La Tabla 1.1 resume algunas
de las diferencias entre el modelado basado en decisiones y el
conocimiento o conducido por evidencia. A continuación, examinará, en
términos muy amplios, algunas de las características comunes de tales
modelos y algunos de los principales tipos de modelos utilizados en la
gestión de servicios de salud .Los modelos para la toma de decisiones
son principalmente de tres tipos: • icónicos • gráficos • simbólicos o
matemáticos. Modelos icónicos Los modelos icónicos muestran las
relaciones físicas o espaciales entre los objetos. En general se parecen a
lo que deben representar, pero son diferentes en escala. TheTable 1.1
Construcción de modelos impulsados por la evidencia y orientados por la
decisiónIndicados por la toma de decisiones Punto de inicio ¿Qué

20
podemos averiguar sobre X? ¿Qué se debe hacer con X? Tarea Aprender
de la síntesis de datos Explorar opciones de políticas y futurosInputs
Evidencia científica Ciencia + opinión experta si es necesarioOpciones
Comprensión de las cadenas causales Ventajas e inconvenientes de las
opcionesInconsistencias / implicaciones de los datos Robustez de los
resultados en los escenariosIncreíbles vacíos en el conocimiento Brechas
importantes en el conocimiento El papel de los modelos 13Copyright ©
2006. McGraw-Hill Education. Todos los derechos reservados. No puede
ser reproducido de ninguna forma sin el permiso del editor, excepto los
usos legítimos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/8/2018 8:35 PM por UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 234098; Sanderson,
Colin J., Gruen, Reinhold .; Modelos analíticos para la toma de
decisiones. Cuenta: el modelo ns145102model es un ejemplo. La
mayoría de estos modelos se utilizan para la comunicación de ideas,
pero los mapas son ejemplos de modelos emblemáticos utilizados en la
toma de decisiones. Por ejemplo, un plan de un sistema ferroviario
muestra las interconexiones físicas entre estaciones. Su propósito es
ayudar a los pasajeros a decidir qué líneas usar y dónde intercambiar
trenes para llegar de una estación a otra. Sin embargo, es un modelo en
el sentido de que es una representación muy simplificada del sistema,
diseñado para un propósito específico. Normalmente no muestra otra
información que pueda ser útil, como los costos y los tiempos de viaje,
la longitud de las pasarelas de conexión entre las plataformas, las
distancias a un aparcamiento o centro de la ciudad, etc. Modelos
gráficos Los modelos gráficos o conceptuales son esencialmente
diagramas que muestran las relaciones (generalmente representados
como flechas) de tipo no espacial entre un conjunto de elementos
(generalmente representados como cuadros). Es útil distinguir entre
representaciones de lo siguiente: • secuencias lógicas de actividades •
influencias o efectos (interrelaciones entre variables) • flujos de objetos
entre elementos de un sistema • sistemas (flujos + efectos) Secuencias
lógicas de actividades Lógica (o planificación) los modelos muestran los
vínculos entre las diversas actividades que tal vez participan en el logro
de un objetivo. El objetivo de dicho modelo suele ser desarrollar y
comunicar un plan o cronograma. La Figura 1.1 es un ejemplo muy
básico. La tarea general se divide en una serie de actividades más
específicas representadas por cuadros o 'nodos'. Las flechas entre los
nodos indican el orden en que las actividades deben llevarse a cabo. Sin
embargo, no hay convenciones estrictas. En una variante ampliamente

20
utilizada para la gestión de proyectos y conocida como el Método de ruta
crítica, las flechas representan actividades y los nodos representan
eventos. Los diagramas lógicos de este tipo también se utilizan en el
diseño de sistemas y programas informáticos. Aquí la secuencia de
enlaces es esencialmente preceptiva ("cómo para hacerlo '), aunque
también podría haber evidencia que sugiera que este enfoque es
efectivo. En la práctica, los modelos de este tipo abarcan desde
conceptos muy generales, como la Figura 1.1, hasta gráficos de redes
extraordinariamente detallados utilizados en la industria de la
construcción. Figura 1.1 Un modelo lógico para la planificación14
Modelos y toma de decisiones en la atención de la salud Copyright ©
2006. McGraw-Hill Education . Todos los derechos reservados. No puede
ser reproducido de ninguna forma sin el permiso del editor, excepto los
usos legítimos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/8/2018 8:35 PM por UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 234098; Sanderson,
Colin J., Gruen, Reinhold .; Modelos analíticos para la toma de
decisionesCuenta: ns145102 Influencias o efectosNo hay La tarea es
capturar y transmitir una comprensión de cómo funciona un sistema y
por qué. Los diagramas de influencia muestran cadenas de causa y
efecto, con el objetivo de informar las decisiones sobre cómo cambiar o
influir en una variable de "resultado". Las cajas representan variables y
las flechas muestran qué variables afectan, o afectan a la zona, cuál. La
figura 1.2 muestra un ejemplo muy simple de una influencia moderada
para la promoción de la salud. Algunas de las relaciones de causa y
efecto involucradas pueden estar basadas en evidencias empíricas,
mientras que otras pueden ser cuestiones de teoría o creencias. Sin
embargo, la intención es generalmente ser descriptivo, por lo que es
importante tener claro qué enlaces en thechain son especulativos o
controvertidos, y puede ser necesario investigarlos más a fondo antes
de decidir qué acción tomar. Los modelos de flujo de FloSin representan
típicamente las cajas y las flechas muestran cómo las entidades
procesadas (como los pacientes tratados) fluyen de un proceso a otro.
La figura 1.3 proporciona un ejemplo simple. El interés aquí es
generalmente en entender cómo los diferentes elementos en un sistema
contribuyen al desempeño del todo y en la gestión de la capacidad del
sistema. Nuevamente, la intención es generalmente ser
descriptivo.Figura 1.2 Un modelo de influencia para la promoción de la
saludFigura 1.3 Un modelo de flujo de pacientes El papel de los modelos
15Copyright © 2006. McGraw-Hill Education. Todos los derechos

20
reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto los usos legítimos permitidos por los EE. UU. O la ley
de derechos de autor aplicable. Publicación de EBSCO: Colección de
libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisiones. Cuenta: ns145102Sistemas Los modelos de sistemas son
esencialmente combinaciones de modelos de flujo e influencia. Para
evitar la confusión entre flechas que representan flujos y flechas que
representan influencias, se necesita algún tipo de convención. En los
diagramas de dinámica de sistemas, por ejemplo, los flujos están
representados por líneas rectas de doble cara que evocan las cañerías
de agua e influencias por líneas de curva individuales. La Figura 1.4
muestra el modelo de dinámica de sistema de Lane and colleges (2000)
de un departamento de accidentes y emergencias y cómo se relaciona
con el sistema más grande, incluidas las admisiones programadas y las
salas del hospital. Aprenderá más sobre los modelos de este tipo en el
capítulo 10. Modelos simbólicos o matemáticos. El principal valor de los
modelos gráficos es desarrollar y comunicar una comprensión cualitativa
de un sistema o situación. Algunas veces esto permitirá una evaluación
de las opciones de decisión que sea lo suficientemente buena como para
determinar un curso de acción apropiado. Muchos modelos de apoyo a la
decisión comienzan su vida en forma gráfica. Pero si se necesitan
respuestas cuantitativas para las preguntas 'qué pasaría si', es necesario
ir más allá y construir un modelo simbólico o matemático. Figura 1.4 Un
modelo de sistema Fuente: Lane et al. (2000) .16 Modelos y toma de
decisiones en el cuidado de la salud Copyright © 2006. McGraw-Hill
Education. Todos los derechos reservados. No puede ser reproducido de
ninguna forma sin el permiso del editor, excepto los usos legítimos
permitidos por los EE. UU. O la ley de derechos de autor aplicable.
Publicación de EBSCO: Colección de libros electrónicos (EBSCOhost) -
impreso el 9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA
DISTANCIA - UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .;
Modelos analíticos para la toma de decisiones. Cuenta: ns145102. En
lugar de cuadros y flechas, estos consisten en conjuntos de expresiones
matemáticas, con símbolos que representan variables. Por ejemplo,
Clarke y Clarke (1997) y otros han utilizado modelos de "gravedad" en
la planificación de sistemas de salud para estimar los efectos de los
cambios en la capacidad hospitalaria sobre los flujos de pacientes hacia
él y hacia otros hospitales cercanos. Una forma de modelo de gravedad
es la siguiente: Tij = Mi * Cj * Bj * e-ßjdijforTij = flujo estimado del

21
paciente de la zona i al hospital jMi = morbilidad relativa de la población
en la zona iCj = capacidad del hospital jBi = factor de escala para unir
los flujos totales de la zona i con la 'necesidad' inzone idij = distancia
del hospital j de la población en la zona ißj = parámetro de disuasión
que representa cómo los flujos hacia el hospital j disminuyen la retirada
Esta expresión cuantifica el grado en que las personas tienden a usar
hospitales cercanos y distantes. Para convertir un modelo gráfico en uno
matemático, normalmente necesitará una de esas expresiones para
cada flecha que sale de una caja. Para un diagrama de influencia, estas
expresiones indican la intensidad de los efectos que las variables de
"entrada" (flechas en el cuadro) tienen en las variables de "salida"
(flechas hacia afuera). Para un diagrama de flujo, estos podrían indicar
cómo los volúmenes de flujos de cada punto de servicio dependen de los
flujos en él, y un modelo de sistemas involucrará expresiones que
representen cómo estos volúmenes de flujo dependen de las
combinaciones de flujos e influencias. La Figura 1.5 muestra una 'senda'
diagrama de "cuidado" utilizado para modelar el impacto del programa
de prevención de enfermedades cardíacas. Aquí un modelo gráfico
(cuadros y flechas) ha sido complementado por información numérica
sobre la naturaleza y cale de los flujos. Siempre que los porcentajes
involucrados permanezcan constantes, esta información proporciona la
base para un tipo simple de modelo matemático; le puede decir a usted
algo acerca de lo que es probable que suceda con los flujos de
tratamiento médico especializado, por ejemplo, si aumenta el número
anual de nuevos casos de angina. Este modelo se ha utilizado como un
medio de comunicar a pacientes no clínicos el flujo de pacientes entre
diferentes condiciones de salud estados y tratamientos, y también por
autoridades de salud para evaluar diferentes opciones de compra en una
serie de cálculos 'qué pasaría si'. Un modelo de gestión de servicios de
salud El siguiente extracto de Luckman y Stringer (1974) describe cómo
un modelo de gestión ayudó a resolver un problema en el cuidado de la
salud En esta etapa, todo lo que necesita totake de este extracto es una
idea amplia de lo que estaban tratando de hacer. El papel de las
modelos 17Copyright © 2006. McGraw-Hill Education. Todos los
derechos reservados. No puede ser reproducido de ninguna forma sin el
permiso del editor, excepto los usos legítimos permitidos por los EE. UU.
O la ley de derechos de autor aplicable. Publicación de EBSCO: Colección
de libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisionesCuenta: ns145102 Un simple ejemplo del proceso de

21
investigación operacional La naturaleza de la OR se explica primero por
referencia a uno de los casos más sencillos, a saber, el de un solo grupo
de decisión que intenta lograr resultados de cierto tipo, pero enfrentado
con alternativas cursos de acción que podrían emplear para lograr su
propósito. También está implícito que las alternativas son demasiado
numerosas o que la relación entre la acción y el efecto es demasiado
complicada para que la elección sea obvia. Los pasos que se pueden dar
para tomar una decisión racional podrían establecerse de la siguiente
manera: 1 reconocimiento de la necesidad de hacer una elección; 2
identificación de los cursos de acción disponibles; 3 definición del
objetivo deseado; 4 consideración del grado en que el objetivo deseado
se alcanzaría mediante un curso de acción disponible; 5 la elección del
curso de acción que parece mejor; 6 la implementación de la acción
elegida.Figura 1.5 Las vías del cuidado coronarioFuente: Bensley et al.
(1995) .18 Modelos y toma de decisiones en el cuidado de la salud
Copyright © 2006. McGraw-Hill Education. Todos los derechos
reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto los usos legítimos permitidos por los EE. UU. O la ley
de derechos de autor aplicable. Publicación de EBSCO: Colección de
libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisiones. Cuenta: ns145102. Aunque OR podría estar interesado en
ayudar en cualquiera de estas etapas, es en los pasos (4) y (5) que
ocurre la característica más característica de O, la creación y el uso de
un modelo. ejemplo, que se ha discutido más ampliamente en otros
lugares, se repite aquí en línea para demostrar el uso de un modelo. El
grupo de toma de decisiones estaba formado por un administrador
superior, una matrona y un miembro de alto rango del personal médico
de un gran hospital general para enfermedades agudas. Su problema en
esencia se refería a la provisión de una Unidad de Terapia Intensiva
dentro del hospital, aunque como el grupo ya estaba comprometido con
la idea, el problema de decisión era más en términos de qué tan grande
debía proporcionarse una unidad. Los cursos de acción abiertos a el
grupo era numeroso, ya que la elección del tamaño de la unidad
mencionada en el debate anterior había oscilado entre dos camas y 24
camas. El enfoque OR en este caso fue estimar la demanda probable de
atención en dicha unidad y, para finalizar, se montó una encuesta de
pacientes en todo el hospital. El grupo de toma de decisiones estuvo
involucrado desde el inicio, primero, en aclarar los criterios por los
cuales los pacientes que requieren terapia intensiva podían ser

21
identificados y, segundo, formulando, con la ayuda del equipo de
investigación, las formas más útiles de expresar los objetivos. Este
último problema se redujo a una discusión del compromiso que sería
necesario entre tener camas -con la consiguiente falta de tratamiento
especializado en varias ocasiones -o tener demasiadas camas- con un
alto nivel de cuidado, pero con algunos recursos costosos que se usan
eficientemente. . Al final, se acordó que las posibles soluciones al
problema deberían juzgarse sobre la base del nivel de servicio, es decir,
la proporción de días requeridos de cuidado que podría ofrecer la
unidad. El grupo de toma de decisiones eligió un nivel tal que más de
uno de cada 500 pacientes que necesitan atención debería encontrar la
unidad llena. El modelo, basado en los datos recopilados en la encuesta,
era simplemente una representación matemática del flujo de pacientes
hacia y desde una unidad hipotética durante un período razonable de
tiempo. Los resultados del modelo coincidieron con la incidencia real de
la atención requerida por los pacientes en la encuesta, y luego fue
posible proceder a postular diferentes cou medidas de acción y medir la
medida en que se lograría el objetivo deseado. Por ejemplo, con el nivel
de atención requerido por los pacientes en la encuesta, se encontraron
siete camas para cumplir con el objetivo de que no más de uno de cada
500 pacientes encontrara la unidad completa. En esta etapa, sin
embargo, un elemento adicional debe ingresar La discusión. El proceso
de introducción de cambios en un sistema complejo debido a la
participación del comportamiento humano y también por cuestiones
puramente técnicas puede alterar algunos de los factores que afectan el
comportamiento del sistema. Aunque tenemos poco conocimiento
preciso de cómo puede cambiar el comportamiento, a menudo es
necesario considerar, como lo hicimos con el grupo de toma de
decisiones, algunas de las posibles respuestas al cambio que pueden
resultar. Asuntos tales como la respuesta de enfermería a la presencia
de la unidad (tal vez una tendencia a mantener a los pacientes en la
unidad por más tiempo que estrictamente necesario), los posibles
cambios en la demanda (la atracción de la unidad sobre un área de
captura más grande una vez que la unidad ha sido establecida). y los
cambios en factores tales como la duración de la estancia y la tasa de
mortalidad fueron discutidos, y los estimados fueron presentados por los
miembros del grupo. Se hizo una nueva mirada al modelo con las
estimaciones revisadas y se demostró que la provisión de ocho camas
cumpliría el objetivo deseado . Además, se exploró la sensibilidad de
esta solución a los cambios más burdos en los factores mediante el uso
del modelo. Por ejemplo, si la demanda o la duración media de la

21
estadía se duplicaron, se necesitarían 10 camas para proporcionar el
mismo nivel de servicio. Por lo tanto, el resultado es relativamente
insensible a cambios bastante grandes en estos factores. Tenga en
cuenta también que debido al cambio no proporcional en la necesidad
con la demanda, el método más habitual para evaluar el papel de los
modelos. Copyright © 2006. McGraw-Hill Education. Todos los derechos
reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto los usos legítimos permitidos por los EE. UU. O la ley
de derechos de autor aplicable. Publicación de EBSCO: Colección de
libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisiones: el número de camas, basado en una proporción fija del
número total de camas de hospital, sería un error. El grupo eligió la
solución de ocho camas como la mejor para su propósito y esta fue la
acción que luego se implementó .Actividad 1.3Ahora responda las
siguientes preguntas. (Es probable que necesite volver atrás y leer
partes del texto con más cuidado). 1 El grupo de toma de decisiones usó
un modelo para pronosticar el número de camas requeridas en una
Unidad de Terapia Intensiva (ITU). ¿Hay algún otro aspecto del proceso
de toma de decisiones para el cual el modelo fue o pudo haber sido útil?
2 ¿Por qué el tomador de decisiones favoreció el uso de una serie de
cálculos "para qué" para obtener una estimación más sólida del
comportamiento del sistema en lugar de encontrar ¿La solución óptima?
3 Hay una serie de características que los modelos de apoyo a la toma
de decisiones, icónicos o simbólicos, tienen en común: (a) Variables de
resultado: las variables que representan hasta qué punto los que toman
las decisiones lograron sus objetivos. (b) Variables exógenas: variables
que puede afectar los resultados directa o indirectamente, pero que no
se ven afectados por otras variables dentro del modelo. En los modelos
simbólicos, sus valores se basan directamente en datos, suposiciones o
escenarios predefinidos. (C) Variables intermedias o endógenas:
variables en el modelo que vinculan las variables exógenas con las
variables de resultado. En los modelos simbólicos, sus valores se
calculan a partir de valores de variables exógenas u otras variables
endógenas. (D) Variables de control: variables que pueden afectar los
resultados y están bajo el control o influencia de los responsables de la
toma de decisiones (e) Estructura: los elementos del modelo que
pueden se supone que no variará a lo largo del horizonte de interés,
como las variables en el modelo, qué variables están relacionadas y, en
los modelos simbólicos, las fórmulas que las relacionan. ¿Se pueden

21
identificar en el modelo de UIT? Comentarios1 El modelo de lecho de la
UIT también fue útil de las siguientes maneras: (a) al establecer una
comprensión compartida del problema entre los miembros del grupo de
toma de decisiones (b) al comunicar ideas sobre el problema de la toma
de decisiones: aclarar los objetivos y las posibles opciones de acción (c)
identificar al datos de entrada necesarios (d) al explorar el número de
camas requeridas, asumiendo diferentes escenarios de "qué pasaría si"
.2 Las complejidades de los sistemas en la atención médica significan
que los constructores de modelos son a menudo inútiles sobre h. bueno,
su modelo representa el mundo real. Es posible que no tengan20
Modelos y toma de decisiones en la atención de la saludCopyright ©
2006. McGraw-Hill Education. Todos los derechos reservados. No puede
ser reproducido de ninguna forma sin el permiso del editor, excepto los
usos legítimos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/8/2018 8:35 PM por UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 234098; Sanderson,
Colin J., Grue n, Reinhold .; Modelos analíticos para la toma de
decisiones. Cuenta: ns145102 identificó o incluyó todos los factores
importantes. Puede haber datos insuficientes sobre los factores que han
identificado y sobre cómo una parte del sistema afecta a otra. Estos
problemas hacen que sea difícil estar seguro de que la mejor decisión de
acuerdo con el modelo será la mejor en el mundo real. En lugar de
elegir la decisión que mejor se adapte al modelo, a menudo será más
seguro identificar una decisión sólida que sea satisfactoria sobre una
amplia gama de escenarios.3 (a) Variables de resultado: están implícitas
en los objetivos de evitar "demasiado pocas camas" con la la
consiguiente falta de tratamiento especializado en varias ocasiones -o
tener demasiadas camas- con un alto nivel de cuidado pero con algunos
recursos costosos que se usan de manera ineficiente ". Los responsables
de la toma de decisiones desean maximizar "la proporción de los días
requeridos de atención que podría ofrecer la unidad" pero, por
simplificación, también quieren tener en cuenta la ocupación de la
unidad. Estos objetivos están en conflicto y la tarea es encontrarlos. un
buen equilibrio entre ellos. (b) Variables exógenas: una es "la necesidad
de cuidado en una unidad así". Otra posible variable exógena es la
duración de la estancia en la unidad. Esto es ciertamente parte del
modelo, aunque debes ser agudo para detectarlo; solo aparece de
pasada en el último párrafo ("si la duración media de la estadía se
duplicó"). En este caso parece haber sido tratada como una variable
exógena (las enfermeras pueden tener "una tendencia a mantener a los

21
pacientes en la unidad por más tiempo de lo estrictamente necesario")
pero si las enfermeras se hubieran involucrado en el análisis, podría
haberse convertido en una variable de control. c) Variables intermedias
o endógenas: este es un modelo simple que no implica variables
intermedias. En un modelo más grande, con 'supervivencia de pacientes
gravemente enfermos' como variable de resultado, 'porcentaje admitido
en cuidados intensivos' podría haber sido una variable intermedia. (D)
Variable de control - 'elección del tamaño de la unidad' (e) Estructura -
Aquí los elementos esenciales de la estructura son una corriente de
pacientes que llegan a necesitar cuidados; una unidad con un número
fijo de camas; y se mantiene en la unidad de longitud y variabilidad
determinables. Tipos de modelo. Acaba de leer sobre un modelo de una
Unidad de Terapia Intensiva. Cuando miraba la página de contenido de
este libro, puede haber notado que los diferentes capítulos no se
caracterizaban por el campo de actividad involucrado (servicios de
maternidad, detección de población, etc.) sino por características más
abstractas de la situación. Esto es porque allí son "familias" de modelos
que se pueden aplicar en una variedad de circunstancias diferentes. Un
factor crítico para el uso exitoso de los modelos en la toma de
decisiones es elegir la forma de modelo adecuada. Por ejemplo,
aprenderá acerca de las aplicaciones de los siguientes tipos de modelos
más adelante en este libro: • Modelos de teoría de juegos para la toma
de decisiones bajo "incertidumbre", es decir, cuando los futuros valores
de las variables exógenas relevantes o "estados de la naturaleza" no
pueden ser estimados. incluso en términos probabilísticos (Capítulo 5). •
Modelos de análisis de decisión para cuando se pueden asociar
probabilidades a cada valor futuro potencial de las variables exógenas
relevantes o "estado de la naturaleza" (Capítulo 6). El papel de los
modelos 21Copyright © 2006. McGraw-Hill Educación. Todos los
derechos reservados. No puede ser reproducido de ninguna forma sin el
permiso del editor, excepto los usos legítimos permitidos por los EE. UU.
O la ley de derechos de autor aplicable. Publicación de EBSCO: Colección
de libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisionesCuenta: ns145102 • Los modelos de programación para
estimar los efectos en la eficiencia de los cambios en la mezcla de
recursos se asignan a las tareas (Capítulo 8) • Modelos de costos para
predecir el efecto sobre los costos y el rendimiento de factores
cambiantes como la combinación de casos y capacidad de servicio
(Capítulo 9) • Modelos de dinámica de sistema para predecir cómo los

21
efectos de las decisiones desdoblarán el tiempo, particularmente cuando
puede haber círculos viciosos o virtuosos de causa y efecto, que
conducen a un comportamiento estable o inestable del sistema en su
conjunto - o partes de (Capítulo 10) • Modelos de colas para donde las
tasas de llegada a un sistema interconectado de servicios, o los tiempos
de servicio, son irregulares. Estos modelos proporcionan estimaciones
del efecto sobre las medidas de rendimiento (tiempos de espera,
ocupación) de los cambios en la capacidad del servicio o los arreglos de
programación (Capítulo 11). La unidad de terapia intensiva que acabas
de leer habría sido una de estas. Construir "buenos" modelos. Si ellos
[los modelos] fueran tan complejos y difíciles de controlar como la
realidad, habría una ventaja en su uso. Afortunadamente, generalmente
podemos construir modelos que son mucho más simples que la realidad
y aún así poder usarlos para predecir y explicar fenómenos con un alto
grado de precisión. La razón es que, aunque puede ser necesario un
gran número de variables para predecir un fenómeno con tolerancia En
general, el truco consiste en encontrar las variables correctas y las
relaciones correctas entre ellas (Ackoff y Sasieni, 1968). ¿Cómo se
puede saber si un modelo puede predecir y cuándo? explicar fenómenos
con suficiente precisión para su propósito? Por supuesto, esto dependerá
del propósito. En el ejercicio de estructuración de problemas, el énfasis
puede estar en la explicación y la clarificación en lugar de la predicción.
Sin embargo, los modelos se utilizan a menudo para explorar los
resultados de la búsqueda de diferentes opciones y en estos casos es
importante algún tipo de validez predictiva. Un modelo es, en cierto
sentido, la encarnación de un conjunto de teorías, e idealmente los
modelos deben ser probados o validados de acuerdo con principios
similares. De esto se sigue que los esti-mates o las predicciones hechas
usando el modelo deben ser probados contra la realidad observada. Los
ajustes deficientes indican problemas con el modelo, que deben
investigarse y corregirse. A medida que el número de predicciones "lo
suficientemente buenas" comienza a crecer, también lo hace la
confianza en el modelo, aunque estrictamente cualquier modelo solo
puede ser provisional. Predicciones intuitivas cruzadas que resultan ser
correctas pueden ser particularmente persuasivas. Es posible que se
requieran varios ciclos de recopilación, cálculo, validación y modificación
de datos. Una vez que hay suficiente confianza en el modelo, se puede
utilizar para explorar los posibles resultados de diferentes
combinaciones de decisiones de gestión y escenarios. Esto, a su vez, se
puede utilizar para informar la toma de decisiones, aunque
generalmente habrá factores que están fuera del modelo que se tendrán

21
en cuenta. La Figura 1.6 es una representación de este proceso.
Desafortunadamente para muchos modelos de soporte de decisión, la
validación predictiva de este tipo de datos puede no ser posible porque,
por una razón u otra, no es posible recopilar datos de prueba adecuados
antes de tomar la decisión. Para los tipos de 22 Modelos y toma de
decisiones en el cuidado de la salud Copyright © 2006. McGraw-Hill
Education. Todos los derechos reservados. No puede ser reproducido de
ninguna forma sin el permiso del editor, excepto los usos legítimos
permitidos por los EE. UU. O la ley de derechos de autor aplicable.
Publicación de EBSCO: Colección de libros electrónicos (EBSCOhost) -
impreso el 9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA
DISTANCIA - UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .;
Modelos analíticos para la toma de decisiones: ns145102decisiones que
deben repetirse, podría valer la pena invertir en desarrollar y probar un
modelo en una serie de ciclos de decisión. Pero incluso entonces,
todavía existe el problema del "contrafactual": ¿cómo sabes lo que
hubiera sucedido si se hubiera tomado una decisión diferente? Hodges y
Dewar (1992) toman una fuerte posición al respecto: pocos modelos
militares o modelos de toma de decisiones humanas pueden ser
validados, y es contraproducente exigir como una cuestión de política
que los usuarios y los padres institucionales intenten validarlos. . . [Un]
modelo que no puede ser validado en el sentido [predictivo] no es
necesariamente inútil; simplemente no se puede usar para hacer
oraciones como 'el modelo dice X'. Este es un problema que no se puede
ignorar. Weinstein et al. (2001) sugieren cinco criterios de evaluación
que pueden aplicarse cuando las pruebas de validez predictiva son
imposibles: • Transparencia: ¿son los supuestos, los parámetros de
entrada y la lógica que los une a los resultados, establecidos con total
claridad y están abiertos a la revisión por pares? resultados del modelo
consistentes con datos observados? ¿Se ha depurado el modelo y se ha
probado su consistencia interna? • Corroboración: ¿han producido otros
modelos del mismo problema resultados similares que continúan con
suposiciones y parámetros de entrada similares? • Validez aparente:
¿los resultados del modelo tienen sentido en relación con
consideraciones teóricas? • Acreditación: ¿Ha sido el modelo sometido a
revisión por pares por un evaluador desapasionado y resultó ser lo que
dice ser? Hay otras consideraciones que vale la pena mencionar aquí. •
Parsimonia: se atribuye a Einstein decir que 'Un modelo debe ser tan
simple como sea posible, y no más simple. "Una vez más, hay una
implicación de idoneidad para el propósito, por ejemplo, las decisiones
que involucran una perspectiva a largo plazo pueden requerir modelos

21
más complejos que las decisiones a corto plazo. • Robustez: las
conclusiones no deben depender de datos o supuestos no
confiables.Figura 1.6 Un modelo gráfico del proceso de creación de
modelos El papel de los modelos 23Copyright © 2006. McGraw-Hill
Education. Todos los derechos reservados. No puede ser reproducido de
ninguna forma sin el permiso del editor, excepto los usos legítimos
permitidos por los EE. UU. O la ley de derechos de autor aplicable.
Publicación de EBSCO: Colección de libros electrónicos (EBSCOhost) -
impreso el 9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA
DISTANCIA - UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .;
Modelos analíticos para la toma de decisiones. Cuenta: ns145102 Se
debe haber llevado a cabo un análisis de sensibilidad para evaluar la
solidez de las predicciones del modelo a los cambios en los parámetros
sospechosos. • Accesibilidad / flexibilidad: el modelo debe tener una
interfaz "amigable", lo que hace para que el usuario comprenda la
naturaleza del modelo, realice cambios en los parámetros y obtenga
diferentes tipos de análisis. • Relevancia: el modelo debería ser capaz
de abordar las preguntas importantes. Esto puede parecer un punto
obvio, pero hay muchos tipos diferentes de modelo y muchos
modeladores que se especializan en un tipo particular; puede haber
softwares especializados involucrados, por ejemplo. Naturalmente, si un
tomador de decisiones le pide que modele una situación particular, los
especialistas tenderán a usar su propio tipo de modelo. Este puede no
ser el enfoque más relevante. Se pueden obtener más ideas sobre lo
que hace que un buen modelo y un buen proceso de toma de decisiones
se basen en algunas de las críticas a la construcción de modelos. Hay
dos hilos principales. El primero se relaciona con la practicidad y el
costo. • Los modelos pueden ser demasiado ambiciosos. Esto, de nuevo,
es tal vez más una crítica de los modelos que los modelos. Es tentador
tratar de construir un modelo general que pueda usarse para abordar
una gran variedad de circunstancias y preguntas. Sin embargo, esto
puede llevar a perder el foco en cualquier tema en particular, requisitos
poco realistas para los datos y una extensión de la fase de desarrollo
hasta el punto de que el modelo ya no está listo o desactualizado tan
pronto como esté listo. Los modelos requieren demasiado datos. Esta
crítica es una variante de la primera. Sin embargo, los modelos pueden
ser útiles para identificar qué elementos de datos valen la pena o se
recopilan. • Los modelos cuestan demasiado para desarrollarse. La
construcción de modelos puede verse como parte del costo del proceso
de toma de decisiones, y el costo de tomar una decisión debe
relacionarse con lo que está en juego. El esfuerzo involucrado debe ser

21
proporcional a la cantidad ganada al tomar decisiones buenas frente a
malas. Esto puede verse afectado por la medida en que las decisiones
en cuestión son irreversibles o costosas de revertir. El segundo tipo de
crítica es que los modelos colocan demasiado poder en manos de
expertos y tecnócratas, marginando a los interesados legítimos y
agregando seguridad en lugar de transparencia a la toma de decisiones.
Es cierto que, como muchas herramientas potencialmente poderosas,
los modelos pueden ser abusados. Por otro lado, son, por definición,
explícitos y, por lo tanto, en principio están disponibles para el
escrutinio, la crítica y la mejora. Su naturaleza explícita también ofrece
una base para la rendición de cuentas que, aunque no siempre es
cómoda para los tomadores de decisiones, es una característica
deseable cuando un grupo de gerentes toma decisiones en nombre de
otros, como una comunidad de contribuyentes o pagadores de seguros.
Para contrarrestar este tipo de críticas, los modelos deben estar
completamente documentados y abiertos al escrutinio. Sin embargo, la
situación puede complicarse por consideraciones comerciales y
problemas relacionados con la protección de la propiedad intelectual.
Este capítulo terminará en una nota provocativa y prescriptiva, con un
extracto de John Sterman (2000). Dinámica empresarial: pensamiento y
modelado de sistemas para un mundo complejo. La palabra validación
debe incluirse en el vocabulario de los modeladores. Todos los modelos
son incorrectos, por lo que ningún modelo es válido o verificable en el
sentido de establecer su verdad. The24 Modelos y toma de decisiones
en el cuidado de la saludCopyright © 2006. McGraw-Hill Education.
Todos los derechos reservados. No puede ser reproducido de ninguna
forma sin el permiso del editor, excepto los usos legítimos permitidos
por los EE. UU. O la ley de derechos de autor aplicable. Publicación de
EBSCO: Colección de libros electrónicos (EBSCOhost) - impreso el
9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA DISTANCIA
- UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .; Modelos
analíticos para la toma de decisiones: la pregunta ns145102 que
enfrentan los clientes y los modeladores nunca es si un modelo es
verdadero sino si es útil. La elección nunca es si usar un modelo. La
única opción es qué modelo usar. Seleccionar el modelo más apropiado
siempre es un juicio de valor que se hará por referencia al propósito. Sin
una comprensión clara del propósito por el cual se utilizará el modelo, es
imposible determinar si se debe usar como base para la acción. Los
modelos raramente fallan porque los modeladores usaron la técnica de
regresión incorrecta o porque el modelo no se ajustaba a la datos
históricos lo suficientemente bien. Los modelos fallan porque no se

22
hacen preguntas más básicas sobre la idoneidad del modelo para el
propósito, porque el modelo viola las leyes físicas básicas, como la
conservación de la materia, porque una retroalimentación crítica de
corte estrecho, porque los modeladores mantienen las suposiciones
ocultas para los clientes o porque los modeladores no pudieron incluir
partes interesadas importantes en el proceso de modelado. Para evitar
tales problemas, ya sea como modelador o consumidor modelo, debe
insistir en los más altos estándares de documentación. Sus modelos
deben ser completamente replicables y estar disponibles para su
revisión crítica. Utilice la documentación para evaluar la idoneidad del
modelo límite y la idoneidad de sus suposiciones subyacentes sobre la
estructura física del sistema y el comportamiento de toma de decisiones
de las personas que actúan dentro de él. Considere las pruebas de
estado extremo y la sensibilidad a suposiciones alternativas, incluido el
aumento ciones sobre el límite y la estructura del modelo, no solo la
sensibilidad a las variaciones en los valores de los parámetros. La
prueba del modelo es iterativa y multidimensional y comienza al
comienzo del proyecto. Incluya los recursos suficientes en el
presupuesto y la línea de tiempo para evaluar el impacto del trabajo y
documentarlo completamente para que otros puedan ayudarlo a
mejorarlo. Ninguna prueba es adecuada. Una amplia gama de pruebas
lo ayuda a comprender la solidez y las limitaciones de sus modelos.
Estas pruebas incluyen la inspección directa de ecuaciones y
simulaciones de todo el modelo, la evaluación del ajuste histórico y el
comportamiento en condiciones extremas. Utilice todos los tipos de
datos, tanto numéricos como cualitativos. Múltiples fuentes de datos
brindan oportunidades para la triangulación y la verificación cruzada.
Pruebe la solidez de sus conclusiones a la incertidumbre en sus
suposiciones. Si bien las pruebas de sensibilidad paramétricas son
importantes, los resultados del modelo suelen ser mucho más sensibles
a los supuestos sobre el límite del modelo, el nivel de agregación y la
representación de la toma de decisiones. Prueba sobre la marcha. Las
pruebas son una parte integral del proceso iterativo de modelado. Al
probar continuamente tus suposiciones y la sensibilidad de los
resultados a medida que desarrollas el modelo, descubres errores
importantes al principio, evitas costosas repeticiones y generas ideas a
lo largo del proyecto, involucrando a tus clientes más profundamente y
construyendo su -y-su-comprensión del problema y la naturaleza de las
políticas de alto apalancamiento. Abra el proceso de modelado a la más
amplia gama de personas que pueda. El éxito de la implementación
requiere cambiar los modelos mentales de los clientes. Para hacerlo, los

22
clientes deben convertirse en socios con usted en el proceso de
modelado. En última instancia, sus posibilidades de éxito son mayores
cuando trabaja con sus clientes para encontrar las limitaciones de sus
modelos, mentales y formales, y luego trabajan juntos para corregirlos.
De esta manera, usted y sus clientes desarrollarán gradualmente una
comprensión profunda del sistema y la confianza para usar esa
comprensión para tomar una decisión. Diseñe la evaluación en su
trabajo desde el principio para que pueda determinar tanto la medida en
que cumple sus metas y cómo puede mejorar la proceso en el futuro.
Trabajar con El rol de los modelos 25Copyright © 2006. McGraw-Hill
Education. Todos los derechos reservados. No puede ser reproducido de
ninguna forma sin el permiso del editor, excepto los usos legítimos
permitidos por los EE. UU. O la ley de derechos de autor aplicable.
Publicación de EBSCO: Colección de libros electrónicos (EBSCOhost) -
impreso el 9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA
DISTANCIA - UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .;
Modelos analíticos para la toma de decisiones: ns145102sus clientes
recopilan datos que pueden revelar cómo su trabajo afectó las
creencias, las actitudes y el comportamiento de las personas en el
sistema, junto con los cambios en el rendimiento del sistema. Haga un
seguimiento del impacto de su trabajo con los estudios de seguimiento a
largo plazo. Un proceso cuidadoso de evaluación y evaluación le ayuda a
usted y a sus clientes a mejorar su capacidad de pensar sistémicamente
en cada aspecto de sus vidas, no solo en un solo proyecto. Conclusión
Ha notado que la toma de decisiones en el cuidado de la salud es
compleja. Habrá incertidumbre sobre el entorno y sobre la actividad de
otras organizaciones, la controversia sobre los objetivos y la
incertidumbre sobre las relaciones entre el control, las variables
exógenas y de resultado. Ha visto que hay muchos tipos diferentes de
modelos en la gestión de servicios de salud y que los modelos pueden
ser utilizado no solo para informar la toma de decisiones sino también
para aclarar y llegar a una comprensión compartida de un problema.
Debe reconocer algunas de las características comunes de los modelos y
tener algunas ideas preliminares sobre qué es lo que hace a un buen
modelo. Este capítulo ha sido una introducción más bien abstracta a
algunos de los modelos de apoyo a la decisión subyacentes. En el
siguiente capítulo, usted pasará por el proceso de construir su propio
modelo. ReferencesAckoff RL (1979) El futuro de la investigación
operacional es anterior. Journal of the Operational ResearchSociety 30:
93-104.Ackoff RL y Sasieni MW (1968) Fundamentals of Operations
Research. Nueva York: WileyInternational.Bensley DC, Watson PS y

22
Morrison GW (1995) Rutas de la atención coronaria: un modelo de
simulación por computadora del potencial de ganancia de salud. IMA
Journal of Mathematics Applied inMedicine and Biology 12: 315-
28.Clarke G y Clarke M (1997) Sistemas de apoyo a la toma de
decisiones espaciales para la planificación de la atención médica, inS
Cropper y P Forte (eds) Mejora de la gestión de los servicios de salud.
Buckingham: OpenUniversity Press.Daniels N (2000) Responsabilidad
por razonabilidad. British Medical Journal 321: 1300-1.Etzioni A (1986)
La racionalidad es antientrópica. Journal of Economic Psychology 7: 17-
36.Hodges JS y Dewar JA (1992) ¿Habla usted o su modelo hablando?
Un marco para la validación de modelos.RAND, R-4114-AF / A /
OSD.Lane D, Monefeldt C y Rosenhead J (2000) Buscando en el lugar
equivocado para las mejoras de salud: un estudio de dinámica de
sistema de un departamento de accidentes y emergencias. Revista de
the Operational Research Society 51: 518-31.Luckman J y Stringer J
(1974) La investigación operacional ap enfoque a la resolución de
problemas. BritishMedical Bulletin 30: 257-61.Martin D, Shulman K,
Santiago-Sorrell P y Singer P (2003) Establecimiento de prioridades y
planificación estratégica de hospitales: un estudio de caso cualitativo.
Journal of Health Services Research and Policy 8: 197-201.Mintzberg H
(1974) The Nature of Managerial Work. Nueva York: HarperCollins.Pidd
M (2004) O / EM contemporáneo en el desarrollo de estrategias y
formulación de políticas: algunas reflexiones. Journal of the Operational
Research Society 55: 791-800.Sen A (1995) Racionalidad y elección
social. American Economic Review 85: 1-24.26 Modelos y toma de
decisiones en el cuidado de la salud Copyright © 2006. McGraw-Hill
Education. Todos los derechos reservados. No puede ser reproducido de
ninguna forma sin el permiso del editor, excepto los usos legítimos
permitidos por los EE. UU. O la ley de derechos de autor aplicable.
Publicación de EBSCO: Colección de libros electrónicos (EBSCOhost) -
impreso el 9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA
DISTANCIA - UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .;
Modelos analíticos para la toma de decisiones. Cuenta: ns145102Simon
HA (1976) De la racionalidad sustantiva a la racionalidad procedimental,
en HA Simon (ed.) Modelos de racionalidad limitada: economía del
comportamiento y organización empresarial. Cambridge, MA:
MITPress.Smart J (1973) Un esquema de un sistema de ética utilitaria.
En J Smart y B. Williams Utilitarianismo: a favor y en contra.
Cambridge: Cambridge University Press.Sterman JD (2000) Dinámica
empresarial: Pensamiento sistémico y modelización para un mundo
complejo. Boston: Irwin McGraw-Hill. Weinstein MC, Toy EL, Sandberg

22
EA y otros. (2001) Modelado para el cuidado de la salud y otras
decisiones de política: usos, roles y validez. Value in Health 4: 348-61.
El papel de los modelos 27Copyright © 2006. McGraw-Hill Education.
Todos los derechos reservados. No puede ser reproducido de ninguna
forma sin el permiso del editor, excepto los usos legítimos permitidos
por los EE. UU. O la ley de derechos de autor aplicable. Publicación de
EBSCO: Colección de libros electrónicos (EBSCOhost) - impreso el
9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA DISTANCIA
- UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .; Modelos
analíticos para la toma de decisiones. Cuenta: ns145102. Construir un
modelo de soporte de decisiones. Visión general En este capítulo
trabajará en el diseño y análisis de un modelo de un programa de
atención de la salud altamente simplificado que cubre tres
enfermedades. Comenzarás por desarrollar un modelo gráfico de los
enlaces causales que permitan al programa alcanzar sus objetivos. A
continuación, utilizará esto para desarrollar un modelo simbólico y
calcular el número de vidas salvadas para diferentes balances de gastos
entre las tres enfermedades, para ayudar a los responsables de la toma
de decisiones a elegir el mejor equilibrio. Este capítulo reúne todas las
etapas del ciclo de creación de modelos que aprendió en el Capítulo 1.
Objetivos de aprendizaje. Al final de este capítulo, podrá: • formular y
construir un modelo cualitativo para abordar un problema de toma de
decisiones al administrar una comunidad programa de atención médica •
simplificar y refinar la estructura del modelo • identificar y recopilar
datos relevantes • crear un modelo de hoja de cálculo • utilizar el
modelo para predecir el impacto de diferentes opciones en términos del
número de vidas salvadas • llevar a cabo análisis de sensibilidad •
evaluar el modeloTérmino claveRendimiento marginal El beneficio
adicional asegurado por una cantidad adicional de gasto. En general, el
rendimiento marginal disminuye al aumentar el gasto. Introducción Los
modelos son abstracciones y el Capítulo 1, que trataba de modelos en
general, era muy abstracto. Ahora vas a construir tu propio modelo.
Este capítulo se basa libremente en un juego de administración de la
atención médica desarrollado originalmente por Creeseand Gentle
(1974). Un equipo de gerentes locales de atención médica tiene un
presupuesto para cubrir los costos de tratamiento en 2.Copyright ©
2006. McGraw-Hill Education. Todos los derechos reservados. No puede
ser reproducido de ninguna forma sin el permiso del editor, excepto los
usos legítimos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/8/2018 8:35 PM por UNIVERSIDAD

22
NACIONALABIERTA YA DISTANCIA - UNADAN : 234098; Sanderson,
Colin J., Gruen, Reinhold .; Modelos analíticos para la toma de
decisiones. Cuenta: ns145102su población. Su principal preocupación es
prevenir tantas muertes prematuras como sea posible. La prevención
del inicio de la enfermedad está fuera de su alcance: en otras palabras,
no pueden influir en la incidencia de la enfermedad en la población. Lo
que pueden hacer es tratar a personas con enfermedades existentes.
Este es un escenario muy simplificado que le presenta el proceso de
desarrollo y uso de un modelo para el soporte de decisiones. Sus tareas
serán: • representar el programa con un modelo gráfico o diagrama de
influencia • simplificar el modelo gráfico para proporcionar la base para
un modelo simbólico • buscar datos relevantes • construir un modelo
simbólico utilizando una hoja de cálculo y los datos disponibles para
usted • estimar los costos y números de vidas salvadas para diferentes
patrones de actividad • llevar a cabo un análisis de sensibilidad para
datos dudosos o suposiciones • evaluar su modelo. 'lives saved / £' se
usará como un shor Y para "muertes prematuras evitadas por unidad de
gasto en tratamiento". Paso 1: Elabore un modelo gráfico inicial En
primer lugar, piense en lo que los gerentes están tratando de lograr.
Quieren salvar la cantidad máxima de vidas con su presupuesto dado (o
de manera equivalente, minimizar los costos por vida salvada). Esto
sugiere que sería útil contar con un modelo que pudiera predecir las
vidas salvadas por diferentes patrones de actividad de atención médica.
Entonces livessaved / £ es su variable de resultado. Actividad 2.1 Su
primera tarea es identificar los factores que pueden influir en su variable
de resultado. Diagrama de influencia de Drawan que muestra los
factores relevantes para una enfermedad. Puede resultarle útil comenzar
con su variable de resultado a la derecha de una hoja de papel y
work'upstream 'a la izquierda, primero, identificar las influencias
directas o' proximales '(variables intermedias como los números
tratados y la efectividad del tratamiento) y luego pasando a los factores
indirectos o más "distales", como la severidad de la mezcla de casos en
la población, que a su vez afecta sus influencias proximales. (Cuanto
mayor sea la proporción de personas con la enfermedad en la población
que tienen síntomas graves, más grave es el caso y mayor es el riesgo
de muerte.) En esta etapa, incluya los factores que considere más
influyentes. La simplificación viene después. Al mismo tiempo, quédate
con la agenda. Su preocupación inmediata es salvar el máximo número
de vidas con un presupuesto de atención de salud determinado, no con
prevenir la morbilidad, promover equidad o beneficio comunitario. Una
vez que haya formulado su modelo, identifique las variables de control,

22
los factores que los administradores pueden decidir o influenciar de
manera relativamente directa , e indíquelas en su diagrama. A los
gerentes les preocupa salvar vidas, por lo que puede definir un "factor
de impacto del tratamiento" como la diferencia en la letalidad entre los
casos tratados y los no tratados. Por supuesto, no todos los pacientes
con una enfermedad en particular tienen el mismo potencial de
beneficio. Construir un modelo de apoyo a la decisión 29Copyright ©
2006. McGraw-Hill Education. Todos los derechos reservados. No puede
ser reproducido de ninguna forma sin el permiso del editor, excepto los
usos legítimos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/8/2018 8:35 PM por UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 234098; Sanderson,
Colin J., Gruen, Reinhold .; Modelos analíticos para la toma de
decisiones. Cuenta: ns145102. En casos leves, la letalidad no tratada
puede ser muy baja. Supongamos que es 5 por ciento. Si el tratamiento
reduce la mortalidad a cero, el factor de impacto del tratamiento en este
grupo sería 5-0 = 5 por ciento. Para casos más graves, la tasa de
letalidad no tratada podría ser de alrededor del 50 por ciento. Si la
mortalidad entre los casos tratados fuera del 30%, el factor de impacto
del tratamiento sería del 50 al 30% = 20%. Puede suponer que cuanto
más grave es la enfermedad, mayor es el factor de impacto del
tratamiento. Esto es solo una aproximación a la realidad, como lo
implica la práctica del 'triage'. Algunas de las relaciones que podría
incluir en su modelo en esta etapa son: • 'Número de vidas salvadas'
depende de los números tratados y sus factores de impacto del
tratamiento. Los factores de impacto del tratamiento dependen de la
gravedad de la combinación de casos y la calidad de la atención. • La
calidad de la atención depende de factores como la capacitación del
personal y los sistemas de auditoría clínica. • Los costos de los casos
tratados dependen de los costos fijos y variables. • Los costos fijos y
variables dependen en el número de pacientes tratados y la eficiencia de
los proveedores de cuidado. La eficiencia está relacionada con la calidad
de la atención. • La gravedad de la combinación de casos está
relacionada con el número de pacientes tratados. Se da la primera
prioridad a los casos más severos, así que a medida que aumenta la
proporción de casos prevalentes que son tratados, se tratan más casos
leves y la combinación de casos se vuelve menos grave. • El número de
casos de cada enfermedad tratada depende de las directrices y
indicaciones .FeedbackFigure 2.1 muestra una versión de dicho modelo.
Puede parecer complicado, pero no hay nada muy profundo al respecto

22
y aún le faltan detalles. Es posible que haya ingresado en más detalle en
algunas áreas y menos en otras, o haya incluido diferentes factores por
completo, o haya mostrado diferentes tipos de relaciones entre ellas.
Hay muchas maneras válidas de representar la misma situación.
Comparar y discutir las diferencias entre los diferentes modelos gráficos
de las personas puede ser muy instructivo. Para comprender la Figura
2.1, intente comenzar por la derecha y trabaje hacia atrás, o 'avance' a
través de ella. Por ejemplo, implica que el costo de los casos tratados
depende de los costos fijos y variables del tratamiento, y el número de
vidas salvadas depende del número de pacientes tratados y sus factores
de impacto del tratamiento. (Nota: en la Figura 2.1, los "servicios
complementarios" son otros servicios que no forman parte formal de la
atención médica, pero que, al igual que los servicios comunitarios para
personas mayores o discapacitadas, desempeñan funciones
complementarias y de apoyo, y pueden afectar el alcance de lo que se
debe hacer dentro de el sistema de salud). En principio, t Los factores
que los gerentes de salud pueden influir pueden incluir políticas de salud
(que influyen en las indicaciones del tratamiento y, por lo tanto,
números tratados) y calidad de la atención (que influye en los costos y
la efectividad). En la Figura 2.1 se muestran como cuadros de doble
filo.30 Modelos y toma de decisiones en el cuidado de la saludCopyright
© 2006. McGraw-Hill Education. Todos los derechos reservados. No
puede ser reproducido de ninguna forma sin el permiso del editor,
excepto los usos legítimos permitidos por los EE. UU. O la ley de
derechos de autor aplicable. Publicación de EBSCO: Colección de libros
electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisionesCuenta: ns145102Figura 2.1 Modelo gráfico: factores que
influyen en el número de vidas salvadas por tratamientoCopyright ©
2006. McGraw-Hill Education. Todos los derechos reservados. No puede
ser reproducido de ninguna forma sin el permiso del editor, excepto los
usos legítimos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/8/2018 8:35 PM por UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 234098; Sanderson,
Colin J., Gruen, Reinhold .; Modelos analíticos para la toma de
decisiones. Cuenta: ns145102Paso 2: Refinar el modelo gráfico. El
siguiente paso es refinar su modelo a la luz de lo que se ha aprendido
sobre el sistema y las preocupaciones de los gerentes hasta el
momento. Después de una discusión, los gerentes deciden que no

22
podrán cambiar los factores de impacto del tratamiento y los costos del
tratamiento a corto plazo, y que las mejores perspectivas para mejorar
la producción son cambiando la combinación de actividades, es decir,
tratar a más personas que se beneficiaría más, y menos personas que
se beneficiarían menos. En esta población, solo hay tres enfermedades
(A, B y C) y la pregunta es cuántas personas deben tratar con cada
enfermedad. Las decisiones sobre qué pacientes individuales tratar son
realizadas por una gran variedad de personas e implican muchas
consideraciones, por lo que esta será una cuestión de dirección
estratégica más que de microgestión. Es posible que pueda dejar de
lado los factores si se espera que no cambien a lo largo del tiempo.
escala para la cual el modelo debe ser válido. Recuerde que si se espera
que las variables exógenas varíen, habrá que hacer algún intento para
pronosticar cómo podrían variar. Sin embargo, es posible que también
necesite agregar más detalles. Ahora que la atención se centra más
claramente en el manejo estratégico del saldo de números tratados para
cada enfermedad, debe asegurarse de que se incluyan todos los efectos
relevantes de cambiar este equilibrio. Actividad 2.2 Su tarea ahora es
refinar su modelo gráfico para una enfermedad y usarla como base para
diseñar un modelo simbólico que pueda predecir el número de vidas
salvadas por diferentes números tratados. Debe introducir notación o
símbolos apropiados para sus variables. Luego debe derivar fórmulas
que muestren cómo se puede calcular la variable de resultado a partir
de las variables de control y exógenas. No dedique demasiado tiempo a
esto y continúe con los comentarios si se queda atascado. El punto
importante aquí es atravesar los diversos pasos involucrados en la
construcción del modelo. Retroalimentación La Figura 2.2 muestra una
versión revisada del modelo que se muestra en la Figura 2.1. Recuerde
que esto es solo para una enfermedad. La variable de control es n (el
número de casos de la enfermedad en cuestión que se tratan) y las
variables totalmente exógenas son p (prevalencia) ymu (letalidad en
pacientes no tratados). Una cantidad de factores han abandonado. No
espera cambios en la calidad de la atención, por ejemplo; La letalidad de
los pacientes tratados se determinará únicamente por la combinación de
casos, y todos los factores que influyen en la calidad de la atención
pueden desaparecer. Además, no espera cambios en la prevalencia de
enfermedad o factor de riesgo, ni en la demanda de atención. Sin
embargo, se han agregado dos nuevas relaciones, indicadas por líneas
de puntos. Al reflexionar, se observó que cambiar el número de
pacientes tratados probablemente tendría efectos sobre: • costos
variables: el aumento de los volúmenes de tratamiento podría conducir

22
a menores costos por paciente, en parte a través de economías de
escala y en parte porque conduciría a tratar a pacientes menos graves
como sugerido arriba; Collection (EBSCOhost) - impreso el 9/8/2018 a
las 8:35 p.m. a través de UNIVERSIDAD NACIONAL
ABIERTA Y A DISTANCIA - UNAD
AN: 234098; Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos
para la toma de decisiones
Cuenta: ns145102

• costos fijos: dependiendo de los niveles actuales de capacidad no


utilizada, podría ser que para aumentar
volúmenes de pacientes, las inversiones tendrían que hacerse en
equipos nuevos o
remodelación
La Figura 2.2 muestra las fórmulas para variables intermedias, como los
costos de tratamiento,
de acuerdo con el uso de un modelo gráfico para proporcionar un medio
de comunicación
ideas y métodos subyacentes.
Algunos puntos a tener en cuenta:
• Los costos variables se muestran como v (n) porque dependen de n (el
número tratado), pero
en esta etapa no está seguro de cómo se ve esta relación.
• La gravedad de la mezcla de casos depende de la proporción de casos
prevalentes tratados, n / p donde
p es el número de casos prevalentes en la población, ya que se da
prioridad a la
casos más graves, y se supone que la distribución de la gravedad no se
ve afectada por
cambios en la prevalencia
• Las vidas guardadas se calculan usando la diferencia entre el caso
tratado y el no tratado

22
tasas de mortalidad, mu (c) - mt
(do).

Con la notación de la Figura 2.2, el modelo simbólico se convierte en:


número de vidas / £ ahorrado tratando a n pacientes = n * [(mu (c) -
mt

(c)] / [f (n) + v (n)]

Paso 3: identificar y recopilar datos relevantes

Se encarga a una organización de investigación que reúna información


relevante
y produce la Tabla 2.1. Esto proporciona datos sobre la mortalidad
tratada y no tratada, y en
costos variables y fijos, para diferentes niveles de actividad para cada
enfermedad. Tener un cierre
mira estos datos. Recuerde que el beneficio esperado del tratamiento
por paciente es
diferencia entre las tasas de mortalidad para los grupos tratados y no
tratados:
Tabla 2.1 Datos para las enfermedades A, B y C
Pacientes Mortalidad adicional de £ 000
Enfermedad por año para establecer por caso no tratado (%) tratado
(%)
A 1-100 20 2.2 11 4
101-200 0 2.1 9 2
201-300 0 2.0 7 2
301-400 0 2.0 6 2
401-500 0 2.0 2 1

23
B 1-100 0 1.0 5 0
101-200 0 1.0 4 0
201-300 5 1.0 3 0
301-400 0 0.8 1.5 0
401-500 0 0.8 1.0 0
C 1-100 10 0.40 3.0 1
101-200 0 0.40 2.5 1
201-300 0 0.35 2.0 1
301-400 9 0.30 1.7 1
401-500 0 0.30 1.5 1
34 Modelos y toma de decisiones en el cuidado de la salud
Copyright © 2006. McGraw-Hill Education. Todos los derechos
reservados. No puede reproducirse de ninguna forma sin el permiso del
editor, salvo que se permitan usos justos
bajo los EE. UU. o la ley de derechos de autor aplicable.

EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/8/2018


8:35 PM a través de UNIVERSIDAD NACIONAL
ABIERTA Y A DISTANCIA - UNAD
AN: 234098; Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos
para la toma de decisiones
Cuenta: ns145102

• Se espera que la mortalidad y el beneficio del tratamiento por paciente


disminuyan a medida
El número de pacientes tratados aumenta. Eso es porque la primera
prioridad se le da a
los casos más severos, quienes por estas enfermedades son también los
que tienen la mayor
potencial de beneficiarse

23
• Para la enfermedad A, se espera que el costo por caso disminuya al
aumentar el volumen.
No hay costos de preparación para la enfermedad B a tasas de
tratamiento más bajas, pero un bulto adicional
de gastos si los volúmenes aumentan por encima de 200 por año, por
algún tiempo adicional
artículo de equipo. Lo mismo se aplica a la enfermedad C en niveles
superiores a 300.
Observe que no hay datos relacionados con la gravedad de la mezcla de
casos; La Tabla 2.1 muestra cómo
la letalidad depende directamente de los números tratados. La severidad
tendrá que ser eliminada
como una variable intermedia explícita y el modelo simplificó
ligeramente para que
efectividad = mu (n) - mt

(n) en lugar de mu (c) - mt


(do).

Esto significa que tendrá que eliminar la prevalencia del modelo como
exógena

variable. ¿En qué circunstancias podría esto crear problemas?


Supongamos que la dis-
tributación de la gravedad de la enfermedad A en los cambios de
población y la media disminuye.

Entonces, la gravedad de los casos tratados también podría disminuir y


el modelo pasará por alto
estimar el número de vidas salvadas tratando un número dado de casos.
Sin embargo,

23
a menos que exista algún nuevo método espectacular de prevención
primaria, tales cambios
será bastante lento y esto no debería ser una omisión grave.

¿Qué tan confiables son los datos en la Tabla 2.1? Las estimaciones de
costos se basan en información local
mación y pensamiento para ser generalmente confiable. Pero hay
algunas dudas sobre el

los datos de casos mortales, ya que se basan en estudios en la literatura


en lugar de en estudios locales
datos. Las cifras para los casos menos graves son particularmente
sospechosas, ya que se basan

en pequeños números de muertes. Usted nota que necesitará hacer un


poco de
análisis de productividad, probando diferentes valores para estos
parámetros para ver cuánto

alterar las conclusiones.


Sobre esta base, puede estar satisfecho con su modelo tal como está.
Pero si no, tú
debe dar otro giro al ciclo de desarrollo del modelo, volver a examinar
su
teoría y / o recopilación de nuevos datos, en un esfuerzo por mejorar su
modelo.

Paso 4: crea un modelo de hoja de cálculo

23
Ahora creará un modelo usando Excel. Si aún no eres un usuario de
Excel seguro, no te preocupes Siga las instrucciones lo mejor que pueda
y si se queda atrapado mirando cuidadosamente el modelo provisto y
descrito en los comentarios que siguen. Este es un programa estratégico
y los gerentes deciden que será suficiente para determinar la estrategia
del programa de cuidado una vez al año, en múltiplos de 100 pacientes.
Actividad 2.3 Ingrese los datos de la Tabla 2.1 en una hoja de cálculo
usando las columnas C (p. ej. C6: C20) y la configuración de Dfor y los
costos variables, respectivamente. Listarlos por enfermedad y números
tratados, como en esta tabla, y usar las columnas E y F para la
mortalidad no tratada y tratada. Calcule, para cada enfermedad: • el
número marginal (es decir, adicional) de vidas salvadas por cada 100
pacientes adicionales tratados (en columna J) Construyendo un modelo
de apoyo a la decisión 35 Copyright 2006. 2006. McGraw-Hill Education.
Todos los derechos reservados. No puede ser reproducido de ninguna
forma sin el permiso del editor, excepto los usos legítimos permitidos
por los EE. UU. O la ley de derechos de autor aplicable. Publicación de
EBSCO: Colección de libros electrónicos (EBSCOhost) - impreso el
9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA DISTANCIA
- UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .; Modelos
analíticos para la toma de decisiones Cuenta: ns145102 • el costo
marginal de cada 100 pacientes adicionales (en la columna K) • las
vidas salvadas / £ 100,000 por cada bloque de pacientes tratados (en la
columna M). Asegúrese de ordenar poniendo una columna informativa
antes de seguir adelante.Si sabe cómo crear un gráfico de Excel, haga
uno que muestre las tasas marginales de vidas guardadas / £ para cada
enfermedad, para cada bloque de 100 pacientes. RetroinformaciónEl
libro de trabajo de Excel 'Ch2TreatProg' contiene una hoja de trabajo
completa para esta actividad llamada 'Cálculos'. Las figuras en las áreas
amarillas son los datos de entrada y las figuras en el área azul claro se
derivan de éstas, usando la fórmula. La fórmula en la celda J6 dada por
= I6 * (E6-F6) * viene de n * (mu - mt) en su modelo simbólico. Las
fórmulas correspondientes a J7 = (I7-l6) * (E7-F7) se colocaron en el
rango de celdas J7: J20 utilizando Copiar y Pegar. (Puede rastrear las
cifras que se introducen en las fórmulas utilizando el recurso de
Auditoría de Excel. Pruebe esto haciendo clic en 'Herramientas' en el
menú principal en la parte superior de la pantalla, luego haga clic en
'Auditoría de Fórmulas' y luego en 'Rastrear precedentes'. Para ocultar
las flechas que esto produce, haga clic en 'Herramientas / Fórmula de
auditoría / Eliminar allarrows'.) La fórmula para el costo marginal en la
celda K6 es = C6 + D6 * I6, en K7 es = C7 + D * (I7-I6 ) y esto se

23
copió en el rango de celdas K7: K20.La fórmula para vidas marginales
guardadas por £ 100,000 en la celda L6 es = (J6 * 100) / K6, copiada al
rango de celdas L7: L20.Si hiciste una tabla, debería parecerse a la
Figura 2.3, con datos de vidas salvadas por £ 100,000 de la columna
L.Figura 2.3 Vidas ahorradas / £ en cada programa de tratamiento36
Modelos y toma de decisiones en cuidado de la saludCopyright © 2006.
McGraw-Hill Education. Todos los derechos reservados. No puede ser
reproducido de ninguna forma sin el permiso del editor, excepto los usos
legítimos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/8/2018 8:35 PM por UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 234098; Sanderson,
Colin J., Gruen, Reinhold .; Modelos analíticos para la toma de
decisiones. Cuenta: ns145102Paso 5: usar el modelo para decidir sobre
el equilibrio estratégico. El próximo paso es decidir cuántos de cada tipo
de paciente tratar. Usted tiene un presupuesto total para estas
enfermedades de £ 1,000,000. Actividad 2.4 Primero, observe la Figura
2.3. ¿Qué mensajes generales le proporciona esto? Comentarios En la
Figura 2.3, debe tener en cuenta los siguientes puntos: • Para todas
estas enfermedades, las ganancias en vidas salvadas / £ generalmente
disminuyen con el aumento de la actividad. Por lo tanto, aunque puede
haber ahorros en el aumento de actividad, estos se ven contrarrestados
por la naturaleza menos severa de los pacientes tratados, que tienen
una menor capacidad para beneficiarse. • Para la enfermedad A, los
ahorros en costos al aumentar la actividad están más equilibrados con
los beneficios decrecientes que para otras enfermedades , por lo que los
rendimientos son relativamente consistentes en el rango de hasta 400
pacientes tratados por año. Este nivel de actividad parece suficiente
para proporcionar tratamiento a la mayoría de los pacientes que podrían
beneficiarse significativamente. • El programa de tratamiento para la
enfermedad B es eficaz para los casos más graves, pero con números
crecientes (y gravedad decreciente) los rendimientos marginales
disminuyen más rápidamente que para A. • En volúmenes más bajos, el
programa para la enfermedad C es costoso debido a los costos fijos
anuales, pero es más rentable que la enfermedad A. Estos hallazgos
pueden ayudar a la toma de decisiones en términos cualitativos, pero
hay un poco más por hacer si desea calcular el mejor
asignación.Actividad 2.5Ahora use su hoja de cálculo para calcular la
mejor asignación. RetroalimentaciónSi su presupuesto fue de solo £
100,000, usted salvaría la mayoría de las vidas al tratar 100 pacientes
con la enfermedad B, la columna más alta en la Figura 2.3. Si tuviera

23
otras £ 100,000 en su presupuesto, agregaría la segunda columna más
alta, etc. Por lo tanto, sería útil clasificar los valores en la columna L en
orden. Excel puede hacer esto para ti. Pero recuerde que la columna L
contiene fórmulas y que tratar de ordenar las fórmulas no funciona. Una
forma es la siguiente: • Resalte las celdas H4: L20 para que incluya
etiquetas de fila y columna. Haga clic en 'Copiar'. Construir un modelo
de apoyo a la decisión. Copyright © 2006. McGraw-Hill Education. Todos
los derechos reservados. No puede ser reproducido de ninguna forma
sin el permiso del editor, excepto los usos legítimos permitidos por los
EE. UU. O la ley de derechos de autor aplicable. Publicación de EBSCO:
Colección de libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35
PM por UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN :
234098; Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para
la toma de decisiones. Cuenta: ns145102. Celda destacada N4. Haga
clic con el botón derecho del mouse y elija 'Pegar especial'. En el
menuclick en el cuadro 'Valores' y luego 'Aceptar'. • Ahora tiene una
copia de H4: L20, pero con valores en lugar de fórmulas. (Compare los
contenidos de las celdas L6 y R6). • Ahora resalte N6: S20 y use Datos /
Ordenar. Esto abre una página de menú. Asegúrese de que haga clic en
"sin fila de encabezado" y luego ordene en la columna R "descendente".
Ahora tiene los retornos para cada bloque de actividad en orden
descendente de beneficio / £. Finalmente, escriba "gastar" en S4 y
coloque la fórmula '= S5 + Q6' en S6. Luego copie S6 en el rango S7:
S20. Los resultados deben verse como la tabla en el área de color óxido
de 'Cálculos' en el archivo 'Ch2TreatProg'. Esto le proporciona el gasto
acumulado involucrado, de modo que si lleva a cabo toda laactividad
hasta la fila 16, su gasto será dado por la celda S16. Ahora puede ver
que si tuviera un presupuesto de £ 1,000,000 y tratara en bloques de
100, salvaría la mayoría de las vidas tratando 200 casos de la
enfermedad A, 300 de B y 300 de C. El costo estimado de esto sería de
solo £ 880,000, por lo que también podría tratar a un número de
pacientes del siguiente bloque de gastos, lo que sería una advertencia
de AA: este enfoque de "incrementos calificados" solo funciona si hay
rendimientos consistentemente decrecientes (o más estrictamente, no
crecientes) a aumentar la actividad. Si la tasa de letalidad no tratada
para los primeros 100 casos de enfermedad A fue del 4% en
comparación con el 3%, las vidas salvadas / £ 100k serían 2.9, menos
que el rendimiento para los casos 101 a 200 de A (que es 3.3). El
método de clasificación sugiere que elijas el bloque de mayúsculas de A
de 101 a 200 antes del bloque de 1 a 100, pero esto es imposible. En
esta situación, debe fusionar bloques hasta obtener rendimientos

23
decrecientes. Tomar los casos 1 a 200 de la enfermedad A juntos da una
cifra global de 3.1, que luego puede tomar su lugar en la clasificación.
Un enfoque alternativo sería usar algún tipo de procedimiento
oralgoritmo para buscar a través de las posibles combinaciones de
gasto, pero esto va más allá del alcance de este capítulo. Paso 6:
realizar análisis de sensibilidad Algunas personas en el hospital pueden
no estar contentas con estas respuestas. ¿Cómo robustare ellos? La
inspección de la columna R muestra que las clasificaciones,
especialmente en el marco de la orden, podrían cambiarse fácilmente
como resultado de cambios bastante pequeños en los costos estimados
por caso y las tasas de letalidad. Debe investigar los efectos en los
resultados de los errores en sus datos y los cambios en los supuestos
subyacentes. Recuerde que los investigadores están bastante seguros
de las cifras de costos, ya que se basan en datos locales. Están menos
seguros acerca de los datos de mortalidad, ya que se basan en estudios
publicados realizados en otros hospitales. En este modelo, la efectividad
del tratamiento es (mu - mt), la diferencia entre la mortalidad de casos
tratados y no tratados. Los investigadores han proporcionado
estimaciones de rango para esta diferencia, ya que este es el único
factor exógeno en vidas salvadas. Estos se presentan en la Tabla 2.2,
que muestra estimaciones medias, superiores e inferiores para (mu -
mt) .38 Modelos y toma de decisiones en la atención de la salud
Copyright © 2006. McGraw-Hill Education. Todos los derechos
reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto los usos legítimos permitidos por los EE. UU. O la ley
de derechos de autor aplicable. Publicación de EBSCO: Colección de
libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisiones. Cuenta: ns145102. Actividad 2.6. Suponer que las
estimaciones superiores en la Tabla 2.2 se usaron para la enfermedad A,
por lo que el tratamiento para la enfermedad A fue más efectivo de lo
que se pensó inicialmente, y la baja para las enfermedades B y C, ¿para
que el tratamiento de estas dos enfermedades fuera menos efectivo?
¿Cómo afectaría esto a la mejor combinación de actividad?
(Nuevamente, si no está familiarizado con Excel, piense cómo puede
resolver esto y luego eche un vistazo a la hoja de trabajo llamada
"Sensibilidad 1"). RetroalimentaciónEsta es una forma bastante extrema
de análisis de sensibilidad. La hoja de trabajo llamada 'Sensibilidad 1' da
los resultados. Esto se parece a la hoja 'Cálculos', excepto que se ha
agregado otra columna a la tabla en el área amarilla 'Datos' y que se ha

23
copiado la Tabla 2.2. También, en lugar de una versión de las tablas en
azul El área "Cálculos" y el área "Resultados rojos", hay tres, basadas en
diferentes combinaciones de cifras de la Tabla 2.2, y etiquetados en la
columna I. Los resultados son los siguientes: Las mejores asignaciones
son: Con estimaciones superiores para A, inferior para B y C: 300+ A,
200 B, 200 C con estimaciones superiores para B, menor para A y C:
200+ A, 400 B, 200 C con estimaciones superiores para C, menor para
A y B: 200 A, 400 B , 400+ Con esta base, no parece haber duda de que
deberían estar haciendo al menos 200 A, 200 B y 200 C. Más allá de
esto, dos de los escenarios favorecen a 400 B. Tabla 2.2 Diferentes
estimaciones del impacto del tratamiento en la letalidad Pacientes
Adicional £ 000s Diferencia de casos fatales (%) Enfermedad por año
para establecer por caso mitad superior inferior A 1-100 20 2.5 8.0 9.0
7.0101-200 0 2.4 7.0 8.0 6.0201-300 0 2.0 5.0 6.0 4.0301-400 0 2.0
4.0 4.5 3.0401-500 0 2.0 1.0 3.0 0.0B 1-100 0 1.0 5.0 6.0 4.0101-200
0 1.0 4.0 5.0 3.0201-300 5 1.0 3.0 4.0 2.0301-400 0 0.8 1.5 2.5
1.0401-500 0 0.8 1.0 2.0 0.0 C 1-100 15 0.3 1.5 2.5 1.1101-200 0 0.3
1.0 1.7 0.7201-300 0 0.3 1.0 1.7 0.5301-400 9 0.3 1.0 1.7 0.5401-500
0 0.25 0.5 1.0 0.3 Construir un modelo de apoyo a la decisión
39Copyright © 2006. McGraw-Hill Education . Todos los derechos
reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto los usos legítimos permitidos por los EE. UU. O la ley
de derechos de autor aplicable. Publicación de EBSCO: Colección de
libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisiones. Cuenta: ns145102.Múltiples criterios y juicio de valor.
Este modelo asume que hay un solo objetivo simple: maximizar el
número de vidas salvadas para un presupuesto dado. Con un solo
objetivo, es posible calcular una "mejor solución". No hay juicios
involucrados. En realidad, sin embargo, habrá otros objetivos. El
tratamiento puede estar diseñado para prevenir el dolor o la
discapacidad, así como la muerte. También puede haber problemas de
equidad; puede que no sea aceptable enfocarse en B y C y tratar muy
pocos casos de A, incluso si esto salvó la mayoría de las vidas. Una
pregunta que podría hacerse es si cambiar la combinación de
actividades realmente tiene una gran diferencia en la cantidad de vidas
salvadas. Si lo hace, usar vidas guardadas para decidir sobre la mejor
combinación de actividad podría ser un enfoque razonable. Pero si
cambiar la combinación realmente hace muy poca diferencia en las vidas
salvadas, pero hace una gran diferencia para la prevención de la

23
discapacidad o incluso para los números tratados, es posible que pueda
obtener muchos más beneficios de otros tipos si estuviera dispuesto a
aceptar una reducción leve en vidas salvadas . Esta pregunta se
examina en la hoja de trabajo llamada "Sensibilidad 2". Los cálculos
hasta ahora se han realizado sobre la base de que las asignaciones son
'grumosas'; solo pueden hacerse en bloques de 100 pacientes. Aquí,
este enfoque crudo se refina al: • asignar tantos bloques como sea
posible dentro del presupuesto; • luego asignar cualquier fracción del
siguiente bloque dentro del presupuesto, suponiendo que cada paciente
dentro de un bloque tenga el mismo costo variable de tratamiento y
riesgo de Mortalidad. Si le interesa cómo se hizo esto, mire la tabla en el
área de herrumbre de Sensibilidad 2 llamada 'Asignación
presupuestaria'. El número de 100s de casos de enfermedades A, Banda
C a tratar se colocan en las celdas E24: E26. La enfermedad que desea
usar sin presupuesto se coloca en B30. El número resultante de
pacientes tratados y vidas salvadas están en E32 y F32, y se copian por
valor en la tabla titulada "Resumen de resultados". Diferentes
combinaciones de números para A, B y C proporcionan las diferentes
filas en la tabla. Esta tabla explota dos útiles funciones de Excel: MATCH
(valor, rango) que escanea el rango para la mejor coincidencia con el
valor (como se usa en la celda C30); y OFFSET (referencia, filas,
columnas) que devuelve el valor en una fila y columna particular en una
tabla (como se usa, por ejemplo, en las celdas F24: F26). Por lo tanto,
OFFSET (A1, 3, 5) devolvería el contenido de la celda F4, porque la
compensación de tres filas de la fila 1 da la fila 4, y la compensación de
cinco columnas de la columna A da la columna F. Use la Ayuda de Excel
si quiere saber qué hacen. .La Tabla 2.3 brinda algunos resultados para
diferentes maneras de usar el presupuesto de £ 1,000,000. (El número
de combinaciones posibles es muy grande, estas son solo algunas de las
mejores). Resulta que con este presupuesto, el número de vidas
salvadas es bastante insensible a la mezcla de actividad. Las seis
opciones principales difieren en aproximadamente una vida salvada en
33. Por otro lado, existen grandes variaciones en el número de
pacientes tratados, de modo que en comparación con la mejor opción en
términos de vidas salvadas, otra opción ahorraría una o dos vidas
menos pero proporcionaría 226 pacientes más tratados. Parece que los
resultados del modelo están en desacuerdo con la percepción de los
gerentes de que podrían mejorar las vidas salvadas / £ al cambiar la
combinación de actividades. En esta situación, la mejor opción será
necesariamente una cuestión de opinión, dependiendo40 Modelos y
toma de decisiones en cuidado de la saludCopyright © 2006. McGraw-

23
Hill Educación. Todos los derechos reservados. No puede ser
reproducido de ninguna forma sin el permiso del editor, excepto los usos
legítimos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/8/2018 8:35 PM por UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 234098; Sanderson,
Colin J., Gruen, Reinhold .; Modelos analíticos para la toma de
decisiones. Cuenta: ns145102 sobre los pesos relativos dados para
evitar la muerte frente a otros beneficios del tratamiento de pacientes.
Cualquier decisión puede basarse en un consenso, pero es posible que
haya personas que no estén de acuerdo. El punto clave es que una vez
que participa más de un criterio, no hay una mejor opción objetiva a
menos que una opción sea igual o mejor que todas las demás en todos
los criterios. .Paso 7: Evaluar el modelo Actividad 2.7 Con los criterios
de evaluación establecidos en el Capítulo 1 en mente, ¿qué puede decir
sobre el alcance para evaluar este modelo? (Recuerde que en este caso
el objetivo de construirlo fue llevarlo a través de los pasos en la
construcción del modelo, en lugar de desarrollar un modelo que
resistiría el escrutinio como base para la toma real de decisiones).
Comentarios En términos de transparencia, los modelos simples de
hojas de cálculo tienen ventaja de que muchos administradores están
familiarizados con Excel, por lo que pueden examinar las fórmulas y
probar el modelo por sí mismos. Esto les dará la oportunidad de evaluar
la validez nominal al menos. Las hojas de cálculo complejas, o modelos
basados en lenguajes de programación de uso general como Delphi o C
++, deben estar muy bien documentados, y aun así son difíciles de
entender para nadie más que para el creador de modelos. El uso de
software escrito para propósitos especiales, como el análisis de
decisiones o la dinámica del sistema, puede ayudar a evitar errores de
programación y proporcionar una interfaz amigable, pero puede imponer
limitaciones sobre los tipos de preguntas que pueden abordarse. En
términos de validación predictiva, los resultados de este modelo pueden
ser evaluados por verosimilitud, si están en el rango correcto, pero no
por correcto. El principal problema con las tasas de letalidad.
Supongamos que decidiera llevar a cabo un estudio de seguimiento para
verificar las estimaciones de la mortalidad en los pacientes tratados.
Supongamos además que tiene índices de pronóstico lo suficientemente
buenos para clasificar a los pacientes en bloques de 100 en términos de
la Tabla 2.3. Sensibilidad de vidas salvadas y número de pacientes
tratados con la mezcla de actividad Asignación (100s tratadas) Número
de vidas Una BC guardada tratada2.6 3 3 33.5 8602.41 3 4 33.2

24
9413.13 2 3 33.1 8132.26 3 5 33.0 10262.93 2 4 32.9 8932.78 2 5 32.6
9781.86 4 5 32.2 10863.23 3 0 32.0 6231.48 5 5 30.6 11484 1 1 30.5
600Construir un modelo de apoyo a la decisión 41Copyright © 2006.
McGraw-Hill Education. Todos los derechos reservados. No puede ser
reproducido de ninguna forma sin el permiso del editor, excepto los usos
legítimos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/8/2018 8:35 PM por UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 234098; Sanderson,
Colin J., Gruen, Reinhold .; Modelos analíticos para la toma de
decisiones. Cuenta: ns145102 factor de impacto esperado del
tratamiento. Incluso entonces, con tasas de letalidad de menos del 10
por ciento, habrá muy pocas muertes en un año para permitir
estimaciones precisas. Los valores del modelo podrían estar dentro de
los intervalos de confianza derivados de los datos observados, pero esta
no sería una prueba muy discriminatoria. En términos de acreditación,
los modelos publicados en la literatura científica deberían haber sido
sometidos a una evaluación imparcial por pares. La publicación también
permite la corroboración entre diferentes modelos en la literatura.
Algunos especialistas y consultores tienen modelos que han sido
utilizados en una variedad de entornos. La publicación y el uso repetido
con diferentes responsables de la toma de decisiones en diferentes
situaciones pueden ayudar a generar confianza en la estructura del
modelo, pero ambos dejan abierta la cuestión de la calibración a las
circunstancias locales. En resumen, en el primero de una serie de ciclos
de toma de decisiones puede no ser posible modelo que ha sido validado
contra datos empíricos en el contexto local. Quizás sea necesario confiar
en el consenso, la lógica interna y los datos de otros lugares. Resumen
En este capítulo, ha desarrollado una especie de teoría sobre los
factores que determinan el número de vidas salvadas (su modelo gráfico
inicial), revisada y seleccionada a partir de los datos relevantes que
están disponibles localmente y diseñaron un modelo inicial simplificado
basado en estos datos. Pasó a soltar algunas variables porque, al
reflexionar, carecían de importancia en el contexto de este problema.
Incluirlos en el modelo inicial no fue un esfuerzo desperdiciado de su
parte, sino una parte necesaria del proceso de comprensión del sistema.
También descartó algunas variables porque no había datos disponibles.
Es una buena práctica pensar en las posibles implicaciones de esto.
Puede ser necesario tomar medidas (y el tiempo y los recursos) para
obtener nuevos datos, o incluir las variables en cuestión y usar
estimaciones. Luego usó su modelo para predecir el número de vidas

24
salvadas con diferentes patrones de actividad y para exp Conozca la
sensibilidad de sus resultados a los cambios en su modelo. Podría haber
comparado las predicciones de su modelo con la realidad, pero en este
caso no habría sido concluyente porque el número de muertes fue
pequeño y volátil. Usted discutió sus resultados con expertos locales y
partes interesadas, y la conclusión fue que su modelo era lo
suficientemente plausible como para ser útil. Descubrió que la
suposición inicial de que cambiar la combinación de actividad podría ser
una buena forma de aumentar el número de vidas salvadas no fue
respaldada por el modelo. Muchas combinaciones de mezcla de
actividades guardan aproximadamente el mismo número de vidas. Sin
embargo, las cifras totales tratadas podrían cambiarse sustancialmente
cambiando la combinación de actividad. La pregunta entonces era si era
correcto optar por muchos pacientes más tratados si esto significaba
renunciar a ahorrar incluso un pequeño número de vidas extra. Esta es
una pregunta para quienes toman las decisiones, no para el generador
de modelos.ReferenceCreese AL y Gentle PH (1974) Planificación en la
administración del distrito: uso de un juego de enseñanza. Lancet 2:
337-40.42 Modelos y toma de decisiones en la atención de la salud
Copyright © 2006. McGraw-Hill Education. Todos los derechos
reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto los usos legítimos permitidos por los EE. UU. O la ley
de derechos de autor aplicable. Publicación de EBSCO: Colección de
libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisionesCuenta: ns145102Opciones estratégicasDesarrollo y
análisisDescripción generalEn el Capítulo 1, se le presentó la
racionalidad de los procedimientos y, brevemente, a los métodos de
estructuración de problemas (PSM). Existen varios de estos métodos y
en este capítulo aprenderá sobre uno de ellos, Strategic Options
Development and Analysis (SODA). Este es un proceso a través del cual
las personas pueden lograr un consenso y un compromiso con la acción
estratégica. Considerará las bases teóricas de este enfoque, así como su
técnica clave, el mapeo cognitivo y el estudio de una aplicación en la
gestión de servicios de salud. Objetivos de aprendizajePara el final de
este capítulo, podrá: • resumir el desarrollo de opciones estratégicas y
Enfoque de análisis y describir su uso como un sistema de apoyo a la
toma de decisiones grupales • dibujar un mapa cognitivoMotones
clavesMapeo cognitivo Un término de la investigación psicológica sobre
la percepción que describe la tarea general de mapear el pensamiento

24
de una persona. Un mapa cognitivo no es simplemente un diagrama de
"palabra y flecha" o un diagrama de influencia; es el producto de una
técnica de modelado formal con reglas para su desarrollo. Desarrollo y
Análisis de Opciones Estratégicas (SODA) Un enfoque de estructuración
de problemas diseñado para trabajar con problemas complicados. El
objetivo es facilitar el proceso mediante el cual un teamarrive en
consenso y compromiso con la acción. Los mapas cognitivos de cada
miembro de un equipo cliente se fusionan para formar un mapa
agregado denominado 'mapa estratégico'. Talleres estratégicos Parte de
SODA, estos implican dos 'pases'. El objetivo del primer pase es
comenzar el proceso de los participantes tomando en cuenta "puntos de
vista alternativos" y en el segundo pase, centrándose en cuestiones
específicas, las "reglas" cambian, se alienta la discusión y se busca el
compromiso.3 Copyright © 2006. McGraw -Hill Education. Todos los
derechos reservados. No puede ser reproducido de ninguna forma sin el
permiso del editor, excepto los usos legítimos permitidos por los EE. UU.
O la ley de derechos de autor aplicable. Publicación de EBSCO: Colección
de libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisionesCuenta: ns145102IntroducciónEn el capítulo 1, aprendió
cómo la corriente principal del trabajo teórico anterior sobre modelos
para el apoyo a la toma de decisiones estaba muy dentro del paradigma
de "racionalidad sustantiva", dedicado a predecir el impacto probable de
elegir opciones específicas y elegir las mejores soluciones. Sin embargo,
entre los profesionales se hizo menos hincapié en los métodos
matemáticos sofisticados y más en desarrollar una buena comprensión
del problema y explorar una amplia variedad de escenarios. Los últimos
20 años o más han visto la aparición de métodos de estructuración de
problemas. Más en sintonía con la idea de la racionalidad procedimental,
estos ayudan a la toma de decisiones grupales mediante la estructura
de los procesos involucrados para que 'aquellos que deben asumir la
responsabilidad por las consecuencias de las elecciones lo hagan de
forma coherente' (Rosenhead y Mingers2001). El libro que es La fuente
de esta cita ha tenido un papel importante al indisponer los métodos de
estructuración de problemas y las ideas detrás de ellos. Los principales
métodos incluyen Opciones Estratégicas y Análisis de Desarrollo
(SODA), Métodos de SoftSystems (SSM), el enfoque de Elección
Estratégica, Análisis de Robustez y Teoría delDrama. Tocará en Análisis
de robustez y en un aspecto del enfoque de Elección Estratégica en el
Capítulo 5. En este capítulo aprenderá sobre SODA.SODA el siguiente

24
extracto editado por Eden y Ackermann (2001) da una int roductionto el
enfoque SODA y explica sus técnicas básicas de mapeo cognitivo, fusión
de mapas y talleres estratégicos. Desarrollo y Análisis de Opciones
Estratégicas (SODA) - los principios con los que SODA está
acostumbrado el desarrollo de modelos tradicionales y las habilidades de
análisis de la investigación operativa. . . facilitar la mejor gestión del
proceso por el cual el equipo se mueve en algo que se acerca al
consenso y el compromiso emocional y cognitivo a la acción. Detrás de
esta noción de éxito se encuentra una visión de la resolución de
problemas que se centra en el punto en el que las personas se sienten
seguras de tomar medidas que consideran apropiadas. Esto está en
contraste con la idea de luchar por la "respuesta correcta". El enfoque
de SODA tiene su base en el "subjetivismo". Cada miembro de un grupo
de clientes tiene su propia visión subjetiva del problema "real". La
sabiduría y la experiencia de los miembros del equipo son un elemento
clave en el desarrollo de decisiones con las que los participantes se
sienten seguros. Debido a la complejidad y la riqueza que surge de la
atención a la subjetividad, un enfoque para el trabajo de SODA es la
gestión del proceso y del contenido. Esta visión del comportamiento, el
juicio y la toma de decisiones en las organizaciones considera la
recolección de experiencias como un acto de esfuerzo "científico", donde
los gerentes experimentan con su mundo organizacional, aprenden
sobre él, desarrollan teorías sobre cómo funciona y buscan intervenir en
él. el individuo, o en la psicología y la psicología social de la resolución
de problemas, está guiado por la "Teoría de las construcciones
personales" (Kelly 1955). Este cuerpo particular de la teoría psicológica
es una teoría cognitiva. Sostiene que los seres humanos se esfuerzan
continuamente por "dar sentido" a su mundo para "administrar y
controlar" ese mundo, y se adapta a los modelos y la toma de
decisiones en materia de salud. Copyright 2006. Educación de McGraw-
Hill. Todos los derechos reservados. No puede ser reproducido de
ninguna forma sin el permiso del editor, excepto los usos legítimos
permitidos por los EE. UU. O la ley de derechos de autor aplicable.
Publicación de EBSCO: Colección de libros electrónicos (EBSCOhost) -
impreso el 9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA
DISTANCIA - UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .;
Modelos analíticos para la toma de decisiones. Cuenta: ns145102un
propósito particular de trabajar con individuos que están limitados por la
necesidad de explicar sus acciones dentro de su mundo
organizacional.Mapeo cognitivo para SODA "Mapeo cognitivo" es la
etiqueta para la tarea general de mapear el pensamiento de una

24
persona dentro del campo de la psicología investigación sobre la
percepción. Es importante señalar que el mapeo cognitivo no es
simplemente un diagrama de "palabra y flecha", o un diagrama de
influencia. . . o un 'mapa mental' / 'mapa del cerebro' (Buzan y Buzan
1993). Es una técnica de modelado formal con reglas para su desarrollo;
sin tales reglas no sería susceptible del tipo de análisis esperado de un
modelo formal. El término mapa cognitivo fue utilizado por primera vez
por Tolman en 1948, y desde entonces ha sido utilizado ampliamente
por investigadores en una amplia variedad de disciplinas. En este
capítulo, presentamos una aversión al mapeo cognitivo que se ha
desarrollado específicamente para ayudar a los consultores /
facilitadores internos y externos a tratar algunos aspectos importantes
de su trabajo. [Esto] está fundado en la creencia. . . ese lenguaje es
una moneda básica para la resolución de problemas de la organización.
Cuando los gerentes hablan sobre un tema y lo que se debe hacer,
utilizan un lenguaje que está diseñado para argumentar por qué el
mundo es "como es y cómo podría cambiarse". Tome un simple ejemplo
de una persona que expresa una opinión sobre el reparto de utilidades:
El último Partido Laborista, con el objetivo de atraer al mercado, está en
una posición más ambivalente. En un momento en que buscan un
concordato con los sindicatos, la oposición sindical del miedo a la
negociación colectiva, es difícil de evitar. La experiencia de Estados
Unidos con los Planes de Propiedad de Acciones de los Empleados desde
principios de los años ochenta ha llevado a una membresía sindical en
firmas con estos esquemas de participación en los beneficios.
(McLoughlin 1986) La Figura 3.1 muestra cómo este argumento escrito
en vez de verbal puede convertirse en mapa cognitivo. Las frases
importantes se seleccionan para capturar los aspectos esenciales de los
argumentos. Se intenta capturar el significado de cada frase al intentar
identificar la idea que contrasta. Por lo tanto, el "apoyo laboral para el
reparto de utilidades" se contradice con la "ambivalencia hacia el reparto
de utilidades", y el "atractivo de mercado" se contrasta con el "atractivo
de la clase trabajadora". Este último contraste es un intento
posiblemente incorrecto por parte del codificador de entender el
significado de 'alto nivel' al hacer una suposición. . . El significado de un
concepto es dado por el polo opuesto así como por los conceptos
explicativos y consecuentes; no por definición de diccionario. Las frases
y las flechas de enlace no son precisamente una réplica del lenguaje
utilizado por la persona que habla: se han modificado para reflejar la
necesidad de una acción, o resolución de problemas, orientación. Cada
uno de los conceptos en la Figura 3.1 está escrito como 'c todo para la

24
acción "e intenta sugerir una opción para cambiar la naturaleza de la
situación de manera positiva. Del mismo modo, la argumentación
(dirección de las flechas) es tal que una opción siempre conduce a un
resultado deseado, con el resultado más importante jerárquicamente
superior para otros. Los medios para un fin siempre son el concepto
subordinado, y se colocan al final de la flecha enlazando dos conceptos.
En la Figura 3.1, se considera que el objetivo de mayor orden es el
"Partido del Trabajo que busca un llamamiento de lujo", junto con el
otro objetivo presunto de "mantener el acuerdo de Labour con los
sindicatos". Se considera que todas las opciones tienen implicaciones
para estos objetivos. Además, el mapa indica la naturaleza de la
argumentación añadiendo un signo negativo al final de una flecha si la
primera frase de un concepto se relaciona con la segunda frase del otro
concepto. Antes de un proyecto, es importante construir un mapa que
refleje la la orientación del cliente, y nadie más, al problema (y
particularmente no la del consultor). Desarrollo y Análisis de Opciones
Estratégicas 45 Copyright © 2006. McGraw-Hill Education. Todos los
derechos reservados. No puede ser reproducido de ninguna forma sin el
permiso del editor, excepto los usos legítimos permitidos por los EE. UU.
O la ley de derechos de autor aplicable. Publicación de EBSCO: Colección
de libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisiones. Cuenta: ns145102. Cambiar el idioma utilizado por el
cliente para que esté orientado a la acción en lugar de la descripción del
problema, sin que el cliente pierda la "propiedad" del modelo, no es un
ejercicio trivial. Del mismo modo, decidir qué concepto es el objetivo /
resultado / fin y cuál es la acción / opción / medio de un par de
conceptos vinculados es una parte importante de la construcción del
modelo. Por ejemplo, "buscar un concordato con los sindicatos" suena
como un objetivo (particularmente dado el uso de la frase "buscar"), y
así se ha codificado como un objetivo en la Figura 3.1. Sin embargo, si
pudiéramos conversar con Jane McLoughlin. . . quisiéramos establecer si
un 'concordato' se considera como un objetivo (un buen resultado en sí
mismo), o como una opción que contribuye a la 'ambivalencia hacia el
reparto de utilidades'. El sentido general del texto en sí mismo nos hace
sentir inciertos sobre nuestra codificación. Trabajar con mapas
cognitivos Hay dos maneras principales de trabajar en un mapa con el
cliente. El primero es explorar más el sistema de objetivos, y luego
trabajar gradualmente en el mapa hacia opciones cada vez más
detalladas para alcanzar los objetivos. Alternativamente, se puede partir

24
de las opciones detalladas y trabajar gradualmente en el mapa hacia los
objetivos, explorando cada concepto a su vez como una opción
potencial. Cuál de estos dos enfoques se elige depende del juicio
profesional del consultor sobre los problemas del proceso relacionados
con las actitudes del cliente. Uno de los poderosos atributos del mapeo
como método de construcción del modelo proviene de la capacidad de
crear el modelo a medida que el cliente habla. Esto permite explorar las
implicaciones del modelo, con el cliente, durante la entrevista. El
consultor comprueba posibles malentendidos a medida que se desarrolla
la entrevista. Esta forma de trabajar también asegura que el consultor
desarrolle las preguntas formuladas durante la entrevista a partir de los
datos de la entrevista.Figura 3.1 Un ejemplo de un pequeño mapa
cognitivoNota:. . . se lee como "en lugar de" y separa el primer polo del
concepto del polo opuesto Fuente: Eden y Ackerman (2001) .46 Modelos
y toma de decisiones en el cuidado de la salud Copyright © 2006.
McGraw-Hill Education. Todos los derechos reservados. No puede ser
reproducido de ninguna forma sin el permiso del editor, excepto los usos
legítimos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/8/2018 8:35 PM por UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 234098; Sanderson,
Colin J., Gruen, Reinhold .; Modelos analíticos para la toma de
decisiones. Cuenta: ns145102 mismo, en lugar de una apretada agenda
de preguntas preparadas. Esto permite que crezca una relación entre
cliente y consultor más cálida y más confiable y, lo que es más
importante, le da al cliente el control de la entrevista. Este estilo de
funcionamiento permite que el consultor se mueva gentilmente de un
"empatético" a un paradigma "negociador" de la relación consultor-
cliente (Eden y Sims, 1979). Antes del proyecto, el consultor debe
atender la comprensión del mundo del cliente desde la perspectiva del
cliente; más tarde, y después de que la confianza ha crecido, el
consultor puede sugerir puntos de vista alternativos. Estos puntos de
vista alternativos pueden basarse en los de la experiencia sustantiva y
sustantiva del consultor al trabajar en otros proyectos similares, o
pueden basarse en la inyección de puntos de vista de otros en el grupo
de resolución de problemas (pero sin identificar las fuentes). Trabajando
en el primer modo, con el sistema de objetivos, implica concentrarse en
los conceptos en la parte "superior" del mapa. En nuestro ejemplo, esto
significa concentrarse en q ¿Por qué es importante para el Partido
Laborista el atractivo del mercado? El cliente está invitado a expandir la
cadena de objetivos moviéndose a niveles sucesivamente más altos en

24
la jerarquía. En este caso, podemos suponer que algo así como un
"atractivo electoral más amplio". . . [a los partidarios tradicionales]
'podría ser una elaboración adicional. Tanto el cliente como el asesor
pueden encontrar esclarecedor seguir adelante con tales preguntas
hasta que sea "obvio" para ambos que el concepto en la parte superior
del modelo, sin más consecuencias, es "evidentemente" una "cosa
buena". Una vez que se ha alcanzado esta etapa, se puede invitar al
cliente a retroceder gradualmente en la jerarquía respondiendo la
pregunta "¿qué opciones vienen a la mente para cambiar esta situación,
otras que ya se mencionaron?" Por ejemplo, "¿qué otras formas vienen
a la mente para cambiar?" ambivalencia hacia la participación en los
beneficios "para" apoyar ", que no sea" reducir el temor de un papel
reducido en la negociación colectiva "? 'El segundo modo de trabajar con
el cliente se centra en la acción identificando cada' cola '(el concepto en
la parte inferior de una cadena de la argumentación, es decir, sin más
explicaciones) y probarlo como un posible punto de intervención. Por lo
tanto, el 'conocimiento sobre la propiedad compartida en los Estados
Unidos' se prueba como una opción posible: ¿hay alguna forma en que
este 'primer paso' del concepto sugiera creativamente un 'polo opuesto'?
Puede parecer más natural considerar este concepto particular en el
ejemplo como simplemente una parte del contexto dentro de la
declaración original, más que como un medio para el fin de "reducir el
miedo a una caída en la membresía sindical". Sin embargo, la
consideración de tales conceptos como opciones potenciales a menudo
conduce a sugerencias creativas para la acción. En este caso, "descartar
el conocimiento de los Estados Unidos" podría ser una opción. La
siguiente parte del proceso de resolución de problemas es considerar
otros medios por los cuales sería posible reducir el "miedo a una caída
en la membresía sindical". Entonces, procedemos a elaborar el mapa
insertando nuevos conceptos de opciones / colas y subordinadas a lo
que se considera. Una exploración más profunda de las opciones se
mueve hacia arriba en la jerarquía del concepto, al considerar formas de
hacer del "papel debilitado" una opción. Esto se hace de la misma
manera que en el ejemplo anterior: en este caso, habíamos supuesto
que había una acción que podría tomarse para "reducir el temor de un
papel debilitado para la negociación colectiva", y se había insertado
"???" en la figura 3.1. Esto fue para servir como un aviso para guiar al
cliente a considerar posibles polos opuestos. Además, invitaríamos al
cliente a considerar otras formas de "reducir el miedo", preguntando
"¿hay alguna otra razón por la que los sindicatos teman debilitar el
papel de la negociación colectiva?". Después de trabajar con el cliente

24
en otras formas de contrarrestar el papel debilitado por desarrollando
otras "colas" nuevas, luego pasaríamos al concepto siguiente en la
jerarquía y consideraríamos otras formas de contrarrestar la oposición
sindical. Y así sucesivamente, elaborando el mapa buscando descubrir
más explicaciones de por qué la situación es así. Copyright © 2006.
McGraw-Hill Education. Todos los derechos reservados. No puede ser
reproducido de ninguna forma sin el permiso del editor, excepto los usos
legítimos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/8/2018 8:35 PM por UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 234098; Sanderson,
Colin J., Gruen, Reinhold .; Modelos analíticos para la toma de
decisiones. Cuenta: ns145102 Al buscar opciones de esta manera, se
revela la importancia de tratar de identificar los polos opuestos de los
conceptos, ya que el contraste es la esencia de la acción. Cada contraste
tiene implicaciones significativamente diferentes para identificar posibles
intervenciones y explicaciones adicionales. Eachexplanation, a su
manera, se convierte en una nueva opción para ser considerada.
Actividad 3.1 El mapeo cognitivo es una técnica para visualizar la forma
en que alguien está pensando sobre un tema específico en la forma de
un mapa. El mapa es, por lo tanto, una especie de modelo explícito de la
conceptualización de alguien. ¿Cuáles son las reglas dadas por Eden y
Ackerman para dibujar mapas de este tipo? Comentarios Las cinco
reglas para elaborar un mapa cognitivo son: 1 Los mapas comienzan por
convención en el borde inferior del documento y funcionan hacia
arriba.2 Los conceptos deben escribirse como llamadas a acción,
tomando los conceptos de los clientes como el líder.3 Los conceptos
frente a los opuestos se representan con líneas punteadas (...) y deben
leerse 'en lugar de' 4. Las relaciones causa-efecto están representadas
por una flecha: (opción → resultado). 5 Un interruptor lógico se indica
mediante un signo menos contra una punta de flecha (por ejemplo,
unionopposition al esquema de participación en los beneficios → Soporte
laboral para compartir ganancias). El siguiente extracto de Eden y
Ackermann explica la creación de un mapa estratégico. El mapa
estratégico La figura 3.1 es un mapa "cognitivo" porque se supone que
es un modelo del pensamiento de una persona. En un proyecto SODA, el
mapa cognitivo de cada miembro del equipo del cliente se fusionará
para formar un mapa agregado denominado "mapa estratégico". El
objetivo i s producir un "dispositivo de facilitación" para promover la
negociación psicológica entre los miembros del equipo para que, en
primera instancia, se pueda establecer una definición del problema.

24
Durante la construcción del modelo inicial con clientes individuales, el
objetivo fue ayudarlos a "cambiar de opinión" sobre la naturaleza del
problema a través de una combinación de autorreflexión con respecto al
mapa, y una suave negociación con el consultor. El mapa se usa como el
dispositivo para facilitar la negociación. De manera similar, el objetivo
inicial del mapa fusionado es cambiar las mentes de cada miembro del
grupo de clientes, sin que se sientan comprometidos. El objetivo es
asegurar un acuerdo suficiente sobre la naturaleza del problema que
cada miembro del equipo se compromete a gastar energía para
encontrar una cartera de acciones, donde esa cartera es la estrategia
para abordar el problema. El enfoque de negociación grupal se basa en
algunos enfoques de conciliación internacional, donde la intención es
lograr un acuerdo sobre la apropiación del grupo de la definición del
problema (el mapa grupal) y luego avanzar hacia el uso del mapa como
una forma de fomentar el desarrollo de nuevas opciones (o portafolios /
sistemas de opciones) on48 Modelos y toma de decisiones en la atención
médicaCopyright © 2006. McGraw-Hill Education. Todos los derechos
reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto los usos legítimos permitidos por los EE. UU. O la ley
de derechos de autor aplicable. Publicación de EBSCO: Colección de
libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisiones: ns145102que se puede llegar a un acuerdo políticamente
factible, en lugar de luchar por las "viejas opciones" (Fisher y Brown
1988). Debido a que el objetivo es facilitar la negociación, los mapas
individuales se fusionan con un significado significativo para el dinámica
anticipada de la negociación. Esto significa que cuando un mapa de
concepton one se superpone sobre un concepto similar en otro mapa, es
motivo de preocupación, ya que la redacción de esa persona se
conserva en el mapa estratégico. Del mismo modo, como el mapa
estratégico se analiza antes de crear una agenda para un taller de
SODA, para ser atendido por todos o la mayoría de los miembros del
equipo, los extractos del mapa estratégico que se utilizarán en la tienda
se supervisan cuidadosamente para garantizar una representación
equilibrada de los miembros clave del equipo .Considere la (improbable)
posibilidad de que Jane McLoughlin sea miembro de un equipo de
resolución de problemas y que uno de sus colegas haya dicho: es
posible que el Partido Laborista apoye los planes de participación en los
beneficios si las encuestas de opinión demuestran el apoyo de los
miembros del Sindicato. . . sin embargo, los periódicos sensacionalistas

25
tendrían que dar alguna educación sobre el reparto de ganancias en
lugar de seguir ignorando la idea. . . Con el apoyo de estos periódicos,
es probable que se genere algún tipo de apoyo popular, por el momento
solo hay apoyo de las clases medias. . . también es importante que el
'hombre en la calle' conozca los beneficios que los trabajadores
estadounidenses han tenido de los planes de participación en los
beneficios en los Estados Unidos. . . el problema para el Partido
Laborista es que si hubiera apoyo popular, entonces otros partidos de la
oposición también podrían apoyar la participación de los beneficios. . .
sin embargo, creo que la pregunta crucial para el Partido Laborista es si
su apoyo podría disminuir el antagonismo de los principales [líderes de
la comunidad empresarial]. . . Sospecho que si hubiera mecanismos
para aplicar la distribución de ganancias a los trabajadores del sector
público, entonces este sería un argumento poderoso para el partido que
apoya algo que en este momento solo parece aplicarse al sector privado.
Estas vistas podrían mostrarse como el mapa a la derecha de la figura.
3.2, y las dos mapas se mezclaron a lo largo de las siguientes líneas.
Podríamos superponer los dos conceptos que se relacionan con la
participación en los beneficios (conceptos 1 y 5 en la Figura 3.2) y luego
vincular conceptos en otro lugar dentro de los twomaps (4 conduce a 2,
6 lleva a 9 y 14 a 12 y 13). A menos que haya una razón de proceso
para hacerlo de otra manera (por ejemplo, si el concepto que se va a
superponer pertenece al jefe, entonces podría valer la pena considerar
retenerlo deliberadamente independientemente de otras
consideraciones), entonces el concepto que se pierde es que que es
menos rico Por lo tanto, en este ejemplo, el concepto5 se perderá a
favor del concepto 1 que tiene un polo opuesto. Al vincular otros
conceptos, el consultor utiliza su juicio para mantener las relaciones
jerárquicas dentro del mapa fusionado final. Este juicio no se debe tratar
a la ligera, ya que el consultor comenzará un proceso de negociación de
su propia visión del problema sobre el modelo insertando nuevos
enlaces entre los mapas "de propiedad". Por ejemplo, en el modelo
fusionado, hemos decidido sugerir que una disminución en el
antagonismo de los líderes clave [de la comunidad empresarial] tendrá
la probable consecuencia de crear un atractivo de alto nivel. Al hacerlo,
estamos implícitamente (y más tarde durante un taller explícitamente)
invitando a considerar opciones para disminuir el antagonismo que no
sea el de brindar apoyo f o participación en los beneficios. La Figura 3.2
muestra instancias de dos caminos de argumentación de un concepto a
otro. Por ejemplo, en el concepto de mapa fusionado 1 conduce
directamente al concepto 2 e indirectamente a través del concepto 4. En

25
estas circunstancias, es útil preguntar si hay genuinamente dos caminos
- a menudo es posible que la ruta directa sea la misma que la ruta
indirecta, siendo la ruta indirecta una elaboración útil de la ruta directa.
Si las dos rutas indicaron una argumentación diferente, como parece ser
el caso en el siguiente mapa, entonces será útil Desarrollo y Análisis de
Opciones Estratégicas. Copyright © 2006. McGraw-Hill Education. Todos
los derechos reservados. No puede ser reproducido de ninguna forma
sin el permiso del editor, excepto los usos legítimos permitidos por los
EE. UU. O la ley de derechos de autor aplicable. Publicación de EBSCO:
Colección de libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35
PM por UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN :
234098; Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para
la toma de decisiones. Cuenta: ns145102para agregar al menos otro
concepto para explicar los diferentes medios con el mismo fin. En este
ejemplo, podríamos pedirles a los clientes que elaboren, y esto podría
dar como resultado un concepto adicional como "trabajo visto para
apoyar nuevas ideas de moda". También podemos observar que hay
ahora diez (!) Caminos de argumentación del concepto 14 al concepto 2
(un camino es cualquier secuencia única de conceptos, por ejemplo, el
camino 14, 13, 12, 8, 6, 1, 2 es diferente de 14 , 12, 8, 6, 1, 2). La
opción representada por el concepto 14 de conocimiento de la basura es
un dilema en el sentido de que conduce a un resultado deseable
siguiendo algunos caminos y un resultado indeseable siguiendo a otros.
También es tentador para el consultor insertar un vínculo negativo
provisional del resultado negativo indeseable actual de "otros partidos
de la oposición respaldan la participación en los beneficios" con el
objetivo de "apelación de alto nivel". Después de combinar los mapas, el
consultor debe analizar el contenido y estructura del modelo para
generar una agenda para el taller. . . La tarea inicial es analizar los
datos para identificar 'temas emergentes' (paquetes o clústeres de
material que son nodos fuertemente enlazados) y 'conceptos centrales'
(esos nodos, que si se eliminan, cambiarían fundamentalmente la
estructura del modelo) .Figura 3.2 Fusión dos mapas cognitivosNotas: 1.
Las líneas dobles conectan conceptos similares2. Las líneas punteadas
muestran nuevas relaciones entre los conceptos de diferentes mapas
originales Fuente: Eden y Ackerman (2001) .50 Modelos y toma de
decisiones en la atención médica Copyright © 2006. McGraw-Hill
Education. Todos los derechos reservados. No puede ser reproducido de
ninguna forma sin el permiso del editor, excepto los usos legítimos
permitidos por los EE. UU. O la ley de derechos de autor aplicable.
Publicación de EBSCO: Colección de libros electrónicos (EBSCOhost) -

25
impreso el 9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA
DISTANCIA - UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .;
Modelos analíticos para la toma de decisionesCuenta: ns145102El
tallerPor lo general, se organizará un taller para tomar de dos horas a
dos días, dependiendo de la disponibilidad de los miembros del equipo y
la importancia percibida del problema. El esquema del taller es, en
principio, similar a eso para la interacción entre el consultor y el cliente
único. El consultor puede elegir comenzar desde una orientación de
objetivo o una orientación de acción. Una consideración importante es
diseñar una agenda que permita que se desarrolle el proceso acíclico. El
objetivo de trabajar con un proceso cíclico es garantizar que los
participantes en un taller reciban ayuda con el proceso de absorción
gradual de los problemas de sobrealimentación global, pero que se
familiaricen con los detalles y pasen a la acción. El objetivo del primer
pase es comenzar el proceso de los participantes que toman en cuenta
las 'vistas alternativas': la negociación psicológica gradual de una nueva
construcción del problema y la propiedad de una visión lo
suficientemente amplia como para que se produzca la negociación. El
primer paso contribuye a obtener esta propiedad mediante un
"recorrido" controlado a través del modelo para demostrar que los
conceptos que pertenecen a cada participante se han incluido en el
modelo. El potencial foreach de que los participantes cambien de idea
depende en gran medida de la ayuda que proporciona el modelo para
extender la propiedad más allá de los conceptos que pertenecen a un
solo participante. La extensión de la propiedad ocurre cuando un
participante ve sus propios conceptos, ahora establecidos dentro del
contexto de conceptos que se sabe que pertenecen a otros
participantes. El primer pase crea un "telón de fondo" contra el cual se
puede desarrollar el segundo pase, centrándose en asuntos individuales
/ clusters. El consultor debe decidir si trabajar en un clúster desplegable
(modo de sistema de objetivos) o de abajo hacia arriba (modo de
opción). En este segundo paso, se fomenta el intercambio y la discusión
de las reglas. Actividad 3.2SODA utiliza un formato de taller para la
estructuración de problemas y la formación de estrategias.1 ¿Cómo
podría implicar un taller típico al facilitador y a los participantes? 2 ¿Qué
agregaría a su lista de reglas? para el mapeo cognitivo a fin de cubrir el
mapeo estratégico también ? Comentarios1 Un taller típico implicaría: •
reclutar participantes y tener una primera discusión del problema /
situación • una entrevista con cada participante para identificar sus
conceptos e ideas sobre el problema. Esto puede implicar el uso de una
grabadora • transcribir las cintas en un mapa cognitivo provisional para

25
cada individuo • realizar una segunda entrevista para enmendar y
confirmar el mapa • fusionar mapas cognitivos individuales en un mapa
estratégico y ejecutar un taller grupal que utiliza la estrategia el mapa
como una agenda.2 Una regla adicional podría ser 'Los mapas
individuales se combinan para formar un mapa estratégico al elegir la
más rica de dos formulaciones similares. A veces será necesario
mantener ambos (por ejemplo, donde los polos opuestos representan
diferentes opuestos), en cuyo caso una línea indirecta entre los dos
puede indicar la conexión.'Desarrollo y desarrollo de opciones
estratégicas 51Copyright © 2006. McGraw-Hill Education. Todos los
derechos reservados. No puede ser reproducido de ninguna forma sin el
permiso del editor, excepto los usos legítimos permitidos por los EE. UU.
O la ley de derechos de autor aplicable. Publicación de EBSCO: Colección
de libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisiones. Cuenta: ns145102SODA en acción. La SODA se ha
utilizado en una variedad de áreas, incluidos los servicios de salud.
Como verá en el siguiente estudio de caso, puede haber algunas
variaciones en el formato estándar del enfoque. El siguiente extracto de
un documento de trabajo de Gains y Rosenhead (1993) es acerca de
cómo usaron SODA durante la introducción de un programa de
aseguramiento de la calidad del hospital. Esto le dará una mejor
comprensión de cómo se puede usar SODA en la formación de la
estrategia. Mapeo cognitivo en un hospital de distrito inglés En el
momento del proyecto, la auditoría era un tema delicado, y se consideró
deseable comenzar reuniéndose con los miembros clave del grupo
individualmente para explicar la naturaleza del proyecto y responder a
cualquier duda o duda. (Esta etapa adicional probablemente sería
innecesaria cuando la iniciativa de un proyecto se originó con el grupo
de clientes.) Se obtuvo el acuerdo y el compromiso del grupo, y todos
los miembros acordaron participar en el proceso de mapeo. Incluyeron
[diez] individuos en las categorías de consultor, registrador, médico
subalterno, enfermera y gerente. La generación de diez mapas
cognitivos individuales es una tarea considerable. En un momento dado,
se consideró el mapeo conjunto de tres médicos jóvenes como grupo,
como un medio de reducir esta carga. Al final, se decidió proceder de
forma individual, y de hecho demostró que tenían contribuciones
distintivamente diferentes para hacer. Evidentemente, este tipo de
opciones presenta una tensión entre economía e integralidad que debe
considerarse a la luz de circunstancias específicas. Como el equipo del

25
proyecto carecía de experiencia en el contenido sustantivo de la
auditoría, se decidió realizar todas las entrevistas con dos miembros del
equipo, en lugar de un único entrevistador como es normal. Usar solo un
entrevistador tiene la ventaja de economizar en el uso de los recursos
humanos, y corre menos riesgo de intimidar al entrevistado. Sin
embargo, la ventaja de involucrar a dos miembros del equipo es la
reducción del riesgo de conceptos faltantes, enlaces o puntos para
explorar más durante la entrevista.Después de cada entrevista, el
equipo del proyecto incorporó cualquier revisión en el mapa del
individuo. Esto se preparó de una manera bien estructurada. y un
formulario fácil de leer, tanto para el individuo a retener, como para
ayudar en el proceso de fusión de varios mapas. El taller estratégico El
taller estratégico se llevó a cabo en una de las reuniones mensuales de
auditoría pediátrica. Solo seis de los diez miembros que contribuyeron
con mapas estaban presentes; otros tenían compromisos conflictivos o
habían cambiado de puesto. Tres nuevos miembros del grupo pediátrico
también asistieron, y el Coordinador Regional de Auditoría estuvo
presente durante parte del proceso. Necesariamente, la discusión que
tuvo lugar, como el mapa que la estimuló, fue específica para el grupo
particular cuyas opiniones representaba. No obstante, esa discusión se
resumirá aquí como parte de la evidencia sobre la cual se puede basar
cualquier evaluación provisional de la utilidad más general del método.
La reunión fue abierta por el miembro principal del equipo del proyecto
que actuó como facilitador, quien condujo al grupo a través de la
estructura del mapa fusionado Esto se hizo al principio en términos
generales solamente, indicando los principales sectores de actividad de
auditoría que parecían surgir de los conceptos obtenidos y las relaciones
de vinculación.52 Modelos y toma de decisiones en la atención médica
Copyright © 2006. McGraw-Hill Education. Todos los derechos
reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto los usos legítimos permitidos por los EE. UU. O la ley
de derechos de autor aplicable. Publicación de EBSCO: Colección de
libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, R einhold .; Modelos analíticos para la toma
de decisiones. Cuenta: ns145102 En la discusión, un miembro del grupo
observó que esta estructura era incompleta y que, además, se requería
una actividad de monitoreo. Esto fue generalmente aceptado por los
participantes en la reunión, quienes consideraron que la Oficina de
Auditoría podría tener un papel valioso en el monitoreo de los efectos de
los cambios en la práctica, una vez acordado. Debe notarse que la

25
actividad de monitoreo no había estado presente en ninguno de los
mapas cognitivos individuales, sino que fue provocada por la tentativa
indiscutible de estructurar y dar sentido a sus percepciones conjuntas
como se representa en el mapa modificado. El resultado parecía ser la
generación del grupo "apropiación" de la necesidad del monitoreo, que
se consideraba una parte inherente de la actividad en la que estaban
involucrados, más que una imposición burocrática. Y, de hecho, esta
aceptación condujo a un acuerdo "en principio" sobre lo que la Oficina
de Auditoría consideró una actividad consecuente apropiada. El mapa en
más detalle La atención se dirigió luego a la estructura más detallada
del mapa fusionado. Dada la limitación de tiempo, el facilitador alentó la
discusión para que abarcara libremente el mapa, con el objetivo de
identificar áreas de interés para el grupo; no se intentó lograr una
cobertura sistemática de todas las áreas, lo que solo habría asegurado
un tratamiento superficial uniforme. Un tema discutido con cierto detalle
fue el de las derivaciones inapropiadas del departamento de accidentes.
Se pensó que la alta tasa de derivación se debía a una combinación de
dos factores: la falta de retroalimentación a Casualty sobre lo que los
pediatras sentían como referencias inapropiadas, y el hecho de que los
médicos novatos en Casualty (debido a la dinámica del sistema de
carrera médica) ) a menudo los más inexpertos en el hospital. El
enfoque de la discusión se desplazó a las razones comprensibles por las
que en ocasiones pueden ocurrir referencias inapropiadas, debido, por
ejemplo, a presiones mediáticas y de tiempo. Se acordó que si el
problema persistía, los representantes de Casualty deberían ser
invitados a discutirlo en una reunión de auditoría. Una de las ideas que
se analizaron fue que un grupo más pequeño podría hacer un progreso
utilizando la técnica de mapeo para explorar ese camino en más detalle,
para su posterior consideración en la reunión de auditoría completa. Se
pensó que este enfoque más específico también podría aplicarse en
otras áreas de interés. Práctica de auditoría futura Esta reunión de
auditoría fue considerada por todos los participantes como una de las
principales para evaluar el resultado del proceso de mapeo. Por lo tanto,
la mayoría de las discusiones se llevaron a cabo en un modo
exploratorio, sin suposición previa de que debían tomarse decisiones.
Sin embargo, se llegaron a algunos compromisos más firmes sobre la
práctica futura de la auditoría. Una era que las cartas de queja recibidas
debían tratarse como de alta prioridad para el debate de auditoría. , un
método para incluir temas en la agenda de auditoría que ninguno de los
diez mapas individuales había incorporado. Fue propuesto por un médico
junior durante el período de "toma de inventario" hacia el final de la

25
reunión, y fue recibido positivamente. Otra decisión fue que la reunión
de auditoría del siguiente mes debería ser sobre un tema seleccionado
por, y dirigido por, médicos junior. Hubo un entusiasmo considerable
para continuar con la práctica concreta de la auditoría. El grupo de
auditoría propuso que la resistencia del equipo del proyecto (si estuviera
disponible) se posponga durante al menos unos pocos meses. Se pensó
que esto sería más útil después de que algunas auditorías "normales"
identificaran una o más áreas prioritarias que podrían beneficiarse de
una atención más detallada. Desarrollo y Análisis de Opciones
Estratégicas 53 Copyright © 2006. McGraw-Hill Education. Todos los
derechos reservados. No puede ser reproducido de ninguna forma sin el
permiso del editor, excepto los usos legítimos permitidos por los EE. UU.
O la ley de derechos de autor aplicable. Publicación de EBSCO: Colección
de libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisiones. Cuenta: ns145102 Tomando una perspectiva más larga,
se propuso que debería haber un plan anual de auditoría, que debería
asegurar al menos una pizca de temas "difíciles" o "incómodos",
incluyendo aquellos que el mapeo cognitivo había ayudado a identificar.
Lo que distinguía tales temas no fue articulado. La Oficina de Auditoría
como una unidad identificable para el futuro previsible se consideró
preferible a la absorción de los aspectos administrativos de la auditoría
en los diversos departamentos clínicos. De hecho, se consideró deseable
una expansión de su papel. Una propuesta particularmente interesante
fue utilizar el mapa a medida que se desarrollaba como una "memoria
de organización". El grupo pediátrico, en común con otras
especialidades, tiene una alta rotación, particularmente de miembros
más jóvenes. Se sugirió que el mapa, si se actualizase continuamente,
haría que el pensamiento actual del grupo sobre la auditoría sea
fácilmente accesible para los nuevos miembros. Esta propuesta,
generada espontáneamente por el grupo de auditoría, de hecho refleja
la discusión porpractica Iniciadores del mapeo cognitivo.
Retroalimentación Inmediatamente después de la reunión del mapa
estratégico, se solicitó a los participantes que rellenaran un breve
cuestionario abierto. Aunque las respuestas (anónimas) son específicas
para cada grupo y proyecto, sí indican ciertas dimensiones de reacción.
Las principales características de esta retroalimentación se presentan y
discuten a continuación. Tres de los ocho participantes asistentes
encontraron inicialmente que la notación de mapeo era fácil de
entender, pero a los otros les resultó difícil. Esto bien pudo deberse a

25
que la técnica basada en palabras era "extraña" para ellos, la mayoría
de los cuales tenía una formación científica, más que administrativa. Un
enfoque de modelado no cuantitativo destinado a facilitar la interacción
grupal está lejos del paradigma médico-científico de la investigación. Sin
embargo, después del choque cultural inicial, seis de los ocho dijeron
que encontraron que el proceso de desarrollo de sus mapas era positivo.
Las razones específicas que se ofrecieron para esto fueron que el mapa
fue un enfoque útil y agradable, y que era valioso tener ideas
desafiadas. En el lado negativo, un participante encontró que el
propósito del mapa no era claro y que otro no tenía ningún uso. Un
posible factor contribuyente fue que ambos participantes consideraron
que la comprensión era difícil de comprender. Todos menos uno de los
participantes consideraron que la sesión grupal era beneficiosa como
una experiencia de formación de equipos, una ayuda para la toma de
decisiones y un enfoque para planes futuros. Los aspectos positivos que
se mencionaron incluyeron el valor de ver las diferencias y similitudes
en las ideas de los demás, y la provisión de una visión general de los
objetivos finales. Se recibió retroalimentación adicional del Dr. S como
miembro del grupo que no había podido asistir a la sesión del taller.
Antes de ser nombrada directora interina de Salud Pública para el área,
tenía la responsabilidad directa de promover la auditoría en toda la
autoridad de salud. En comparación con otros grupos de auditoría en el
Distrito, encontró que el grupo pediátrico tenía una curva de aprendizaje
claramente más pronunciada. Desde una situación inicial de indecisión e
incluso inquietud, se habían movido hacia el compromiso y la actividad
intencionada en un momento marcadamente más corto. Fue
particularmente notable que el personal subalterno, al principio casi sin
voz, se volvió mucho más activo en sus contribuciones. En cualquier
proceso de este tipo, tanto las características grupales como la
metodología desempeñan un papel. Sin embargo, el punto de vista del
Dr. S. era que la metodología empleada había sido un factor importante
en el progreso logrado.54 Modelos y toma de decisiones en la atención
médica Copyright © 2006. McGraw-Hill Education. Todos los derechos
reservados. No puede ser reproducido de ninguna forma sin el permiso
del editor, excepto los usos legítimos permitidos por los EE. UU. O la ley
de derechos de autor aplicable. Publicación de EBSCO: Colección de
libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisiones. Cuenta: ns145102. Actividad 3.3. Imagine que participó
en este estudio. Las transcripciones de tres de las entrevistas,

25
elaboradas por Rosenhead, se proporcionan a continuación: • una
entrevista con un médico junior. (Entre las preocupaciones del médico
júnior está la carga de trabajo adicional que surge de la auditoría). •
Entrevista de un consultor (médico senior). (Este médico espera lograr
mejores protocolos de atención basados en la auditoría). • una
entrevista con el gerente. (El gerente espera obtener mejores contratos
si se implementa la auditoría). Elija una de las transcripciones, examine
su contenido y dibuje un mapa cognitivo para usar las cinco reglas
enumeradas en los comentarios a la Actividad 3.1. TranscripcionesLa
entrevista con el médico junior Uno de los problemas de la auditoría
desde mi punto de vista es que es otro trabajo más que debemos hacer.
Es muy importante que haya un buen apoyo de la Oficina de Auditoría,
por lo que no se debe a los médicos subalternos que realicen el trabajo
canino, como de costumbre. Si tenemos que gastar aún más tiempo,
extrayendo material de notas de casos, por ejemplo, terminaremos
haciendo aún más horas extras. Tal como están las cosas, la mayoría de
las veces estamos demasiado cansados para aprender, entonces, ¿cómo
vamos a obtener una educación de posgrado adecuada? Pero si la
auditoría no es educativa, no veo cómo se puede juzgar un éxito.
Supongo que una cosa buena de la auditoría es que, si las reuniones de
auditoría funcionan correctamente, nos exponemos a más de un punto
de vista, y esa es una buena característica para una educación
posgraduada. La reunión de auditoría puede evaluar críticamente
nuestra práctica, pero solo si la gente puede hablar libremente. Eso es
ciertamente mucho más fácil si los casos se consideran confidenciales,
es decir, sin que todo se remonta a quien no haya hecho las cosas bien.
Una cosa que puede dificultar hablar es si algunas personas en la
reunión tienen personalidades que no se prestan para trabajar en grupo.
Y, por supuesto, si hay competencia entre los consultores, para que
comiencen a estar en desacuerdo entre ellos, entonces hay poca o
ninguna ventaja de que la reunión de auditoría sea constructiva. ¿Qué
he olvidado mencionar? Oh, sí, en algunas áreas nuestras notas de
casos realmente no están para arriba. Consiguiendo ese derecho
ciertamente ayudaría a auditar juntas las reuniones. Y si hubiéramos
mejorado las notas de los casos, ese sería un buen paso para mejorar
nuestra práctica. Algo que nuestros consultores podrían hacer es
abordar los problemas que surgen en las reuniones de auditoría con
otros departamentos. A menudo, las mejoras que se necesitan están
afuera, no en el departamento original. Por ejemplo, tenemos que
reducir la incidencia de derivaciones inapropiadas de Accidentes. Mejorar
nuestra práctica ciertamente mejoraría la moral en el grupo, y eso en sí

25
mismo ayudaría a hacer que la auditoría sea un éxito. La entrevista del
gerente Como yo lo veo, la auditoría (siempre que se lleve a cabo de
forma adecuada y exhaustiva) tiene mucho que ofrecer a la práctica de
atención médica en este hospital. Por un lado, puede permitirnos
establecer normas razonables de atención que pueden ser la base de los
contratos con los compradores. Si tenemos números y protocolos
abundantes para más de las condiciones estándar, entonces mi trabajo
en la fijación de Opciones Estratégicas Desarrollo y Análisis 55 Copyright
© 2006. McGraw-Hill Education. Todos los derechos reservados. No
puede ser reproducido de ninguna forma sin el permiso del editor,
excepto los usos legítimos permitidos por los EE. UU. O la ley de
derechos de autor aplicable. Publicación de EBSCO: Colección de libros
electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisiones. Cuenta: ns145102los estándares de calidad que podemos
unir a los contratos con cierta confianza serían más fáciles. No todos los
compradores están interesados en la calidad, pero algunos sí exigen
calidad, y si no tenemos estándares cuantitativos, puede ser un negocio
complicado. Entonces, podría decir que si nos ayuda a obtener
contratos, entonces la auditoría es un éxito para nosotros. Si podemos
obtener suficientes buenos contratos, podemos utilizar los recursos para
proporcionar una mejor calidad de atención. Por supuesto, esa no es la
única ventaja. Por un lado, la reunión de auditoría es un lugar donde los
médicos junior pueden desafiar a los consultores. Las creencias se
pueden desafiar, y evita la visión del túnel. Entonces, eso hace que la
auditoría sea un proceso educativo general, y eso solo puede ser
beneficioso. Lo que tenemos que hacer es asegurarnos de que se
asignen suficientes recursos a la función de auditoría. El apoyo
administrativo de la oficina de auditoría es crucial: preparar agendas,
hacer seguro que todos recuerdan el horario de la reunión, ese tipo de
cosas. Sin eso, muchos miembros del personal simplemente no
aparecerían, ¡especialmente los consultores! Y sin suficiente personal
allí, no hay forma de que tenga una reunión de auditoría productiva.
Una consecuencia de la auditoría es que cuando el grupo encuentra algo
que podría hacerse mejor, o al menos de manera más consistente,
entonces es un beneficio real en lo que respecta al entrenamiento. Nos
da una solución real a las necesidades de capacitación, y podemos
asegurarnos de que la brecha esté conectada. Eso es cierto tanto para
enfermeras como para médicos jóvenes. ¡Nunca es demasiado tarde
para aprender! La entrevista con el médico sénior El único criterio de si

26
la auditoría es exitosa es si se brinda una mejor atención, es decir, si los
pacientes realmente obtienen mejores resultados. Huelga decir que solo
podemos hacer eso si también nos proporcionan los recursos, lo cual
depende de obtener contratos decentes. No debemos olvidar, tampoco,
que muchos miembros del personal del departamento están pasando
por su camino a otros trabajos en el servicio de salud. Necesitamos
asegurarnos de que auditan una experiencia de aprendizaje. Y no solo
me refiero a doctores, sino a enfermeras también. Un buen resultado de
nuestras reuniones de auditoría será si podemos hacer que los planes de
atención sean más efectivos. Esa es una de las mejores maneras para
que aprendan. Ciertamente, una reunión de auditoría bien preparada y
bien administrada puede mejorar en gran medida la comunicación entre
el personal, y así conducir a una mayor apertura. Eso sería una ventaja
para groupmorale. Una de mis mayores esperanzas de la auditoría es
que podremos establecer más y mejores protocolos. Eso realmente
necesita el ímpetu de una discusión en una reunión de auditoría detrás
de él, para que la gente entienda la prioridad. Los protocolos bien
pensados pueden incluirse de manera útil en los contratos, y nos
ayudarán a obtenerlos. Una consecuencia de la auditoría es que
debemos obtener mejores medidas de resultado. Descubrir qué tan bien
estamos haciendo debería ayudarnos a hacerlo mejor. Debemos tener
cuidado, por supuesto. Si la auditoría se va a utilizar para establecer
estándares, debemos asegurarnos de que sean realistas. Deben tener
en cuenta todas las circunstancias.56 Modelos y toma de decisiones en
la atención médica Copyright © 2006. McGraw-Hill Education. Todos los
derechos reservados. No puede ser reproducido de ninguna forma sin el
permiso del editor, excepto los usos legítimos permitidos por los EE. UU.
O la ley de derechos de autor aplicable. Publicación de EBSCO: Colección
de libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35 PM por
UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN : 234098;
Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para la toma
de decisiones. Cuenta: ns145102. Retroalimentación. Debe comparar su
mapa con el correspondiente de las Figuras 3.3 a 3.5. Tenga en cuenta
que cada mapa cognitivo es un intento de capturar el lenguaje utilizado
por el cl El mapa estratégico que combina todos los mapas individuales
se muestra en la Figura 3.6, proporcionando un marco conceptual para
estructurar la auditoría como un proceso autogestionado en un
establecimiento hospitalario. Se puede ver que en este caso el mapa
estratégico ha involucrado la simplificación. Algunos de los enlaces
intermedios (como "médicos junior hacen más horas extras") se han
descartado. Algunos conceptos similares de diferentes mapas se han

26
tomado como equivalentes. Los ejemplos son "mejorar la práctica" con
"dar mejor cuidado" y "exponer a los médicos subalternos". se desafía a
más de una vista "con" creencias. Figura 3.3 Mapa cognitivo del doctor
junior Fuente: Adaptado de Rosenhead y Mingers (2001). Desarrollo y
análisis de opciones estratégicas 57 Copyright © 2006. McGraw-Hill
Education. Todos los derechos reservados. No puede ser reproducido de
ninguna forma sin el permiso del editor, excepto los usos legítimos
permitidos por los EE. UU. O la ley de derechos de autor aplicable.
Publicación de EBSCO: Colección de libros electrónicos (EBSCOhost) -
impreso el 9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA
DISTANCIA - UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .;
Modelos analíticos para la toma de decisiones. Cuenta: ns145102 Sobre
esta base se hicieron una serie de compromisos "más firmes", que
incluyen formas de elegir los elementos para la agenda de auditoría;
confirmar y ampliar el papel de la oficina de auditoría en lugar de
absorber sus funciones en diferentes departamentos clínicos; y usar el
mapa para explicar el enfoque de la auditoría al nuevo personal del
hospital.Figura 3.4 El mapa cognitivo del administrador Fuente:
Adaptado de Rosenhead y Mingers (2001) .58 Modelos y toma de
decisiones en la atención médica Copyright © 2006. McGraw-Hill
Education. Todos los derechos reservados. No puede ser reproducido de
ninguna forma sin el permiso del editor, excepto los usos legítimos
permitidos por los EE. UU. O la ley de derechos de autor aplicable.
Publicación de EBSCO: Colección de libros electrónicos (EBSCOhost) -
impreso el 9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA
DISTANCIA - UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .;
Modelos analíticos para la toma de decisionesCuenta: ns145102Figura
3.5 El mapa cognitivo del médico sénior Fuente: Adaptado de
Rosenhead y Mingers (2001) .Figura 3.6 Mapa estratégico que combina
mapas individuales Fuente: Adaptado de Rosenhead y Mingers (2001).
Desarrollo y análisis de opciones estratégicas 59 Copyright 2006 2006.
McGraw-Hill Education. Todos los derechos reservados. No puede ser
reproducido de ninguna forma sin el permiso del editor, excepto los usos
legítimos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/8/2018 8:35 PM por UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 234098; Sanderson,
Colin J., Gruen, Reinhold .; Modelos analíticos para la toma de
decisionesCuenta: ns145102 Fortalezas y debilidades potenciales del
enfoque En resumen: • SODA aporta una variedad de perspectivas y
conocimientos para comprender el problema. • La comprensión

26
compartida ayuda a construir el compromiso. • La comprensión puede
ayudar con conflictos de interés reales y disolver las evidencias. puede
ayudar a comunicar ideas a otros fuera del proceso original.
Probablemente, los posibles problemas con el uso de SODA en un
contexto de atención médica son: • Requiere tiempo y dinero, por lo que
es mejor para problemas grandes / puntuales. • Necesita un facilitador
competente y estos son escasos. • Es difícil seleccionar un número
manejable (alrededor de 10) cuando hay muchos interesados directos. •
Depende de la voluntad de participar y la preocupación por objetivos
más amplios para un interés personal estricto. • Puede exponer
conflictos latentes y puede no ayudar para resolverlos. • Las jerarquías
profesionales y organizacionales, comunes en el cuidado de la salud,
pueden obstaculizar el proceso. • Puede ser manipulado por p • El paso
de la comprensión compartida al compromiso compartido para la acción
es una gran cosa. • Es una técnica cualitativa y por lo tanto no puede
ayudar directamente con las preguntas de "cuánto". En el contexto de
este libro, es importante concluir esta lista de pros y contras con el
argumento de que la estructuración de problemas, además de ser
valiosa en sí misma, puede proporcionar una base relativamente segura
sobre la cual comenzar a construir modelos más cuantitativos de los
tipos descritos en capítulos posteriores. ResumenSODA se basa en una
teoría psicológica que esforzarse por hacer realidad su mundo a través
del ensayo y error. Sus percepciones influyen en sus expectativas y sus
expectativas influyen en sus percepciones. El medio por el cual esto
sucede es el sistema de construcción. Los constructos de las personas se
usan para concebir, administrar y controlar el mundo exterior. Los
sistemas de construcciones individuales pueden adaptarse y cambiar con
el tiempo. De acuerdo con esta teoría, una organización es vista como
un escenario de coaliciones cambiantes de individuos que negocian sus
puntos de vista. La política y el poder juegan un papel importante en la
toma de decisiones. El enfoque de SODA se basa explícitamente en la
negociación para resolver problemas complejos. SODA reconoce el valor
del trabajo en equipo en la formación de estrategias. Las organizaciones
construyen equipos porque las sinergias agregan valor por encima de la
suma de las contribuciones de cada individuo. Las experiencias de indivi
los miembros del equipo dual pueden hacer una valiosa contribución a la
toma de decisiones.
La técnica clave de SODA es el mapeo cognitivo. Un mapa cognitivo
proporciona

26
representación visual (un modelo gráfico) de los conceptos de un
individuo o grupo. Esta

el modelo es susceptible de análisis formal. SODA necesita un facilitador


para gestionar
sensus. Mucho depende de la capacidad y la experiencia del facilitador
para lograr

compromiso con el enfoque.

Métodos para aclarar


decisiones complejas
Muchos criterios
Este capítulo y los próximos dos presentan algunos de los métodos que
pueden ayudar a
estructurar y aclarar decisiones complejas. Hay pocas circunstancias que
es
es posible identificar una solución como inequívocamente la mejor. En
este capítulo

aprenderá sobre métodos que pueden ayudar cuando hay muchos,


generalmente conflictivos
ing, criterios. Darás los primeros pasos para estructurar un problema de
decisión

desarrollar conjuntos de criterios y opciones. A continuación, se le dará


el rendimiento
clasificaciones de un conjunto de opciones y probará una variedad de
métodos de preselección, clasificación
y elegir 'buenas' opciones.

26
A menudo es imposible estar seguro, en el momento en que se debe
tomar la decisión, que
el curso de acción conducirá a un resultado deseado. En el Capítulo 5
verás más
estrechamente en formas de lidiar con la incertidumbre sobre el futuro,
sobre los valores y
sobre los límites del problema de decisión. En el Capítulo 6 considerarás
una
Enfoque basado en el "riesgo", que depende de las estimaciones de las
probabilidades de diferentes
hipotéticos 'futuros' que se hacen realidad.

Objetivos de aprendizaje

Al final de este capítulo, podrá mejor:


• identificar y aclarar las opciones de decisión y los criterios en la toma
de decisiones
problema
• describir tres enfoques (ponderación, satisfacción y secuenciales)
eliminación) a la toma de decisiones con múltiples criterios
• entender un enfoque para calcular ponderaciones para los criterios
basados en
preferencias pairwise

Términos clave
Criterios de decisión Características utilizadas en los juicios sobre
preferencias o medidas de
rendimiento, contra el cual se evalúan las opciones de decisión. Por lo
general, se refieren a los beneficios o
logro de objetivos; costo o riesgos; y a la viabilidad.

26
Opción dominada Una opción de decisión que puede ser similar a otra
opción en términos de algunos
criterios, pero es inferior a él en otros.
4

Copyright © 2006. McGraw-Hill Education. Todos los derechos


reservados. No puede reproducirse de ninguna forma sin el permiso del
editor, salvo que se permitan usos justos
bajo los EE. UU. o la ley de derechos de autor aplicable.

EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el 9/8/2018


8:35 PM a través de UNIVERSIDAD NACIONAL
ABIERTA Y A DISTANCIA - UNAD
AN: 234098; Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos
para la toma de decisiones
Cuenta: ns145102

Por qué la toma de decisiones racionales es difícil

En el Capítulo 1 aprendiste que la racionalidad "sustantiva" era difícil en


el cuidado de la salud
Toma de decisiones.

Actividad 4.1

¿Cuáles fueron algunas de las dificultades identificadas?

Realimentación
• Puede haber muchos criterios porque los que toman decisiones
generalmente tienen muchos objetivos.

26
• Diferentes tomadores de decisiones y partes interesadas pueden estar
inciertos o en desacuerdo sobre la
calificaciones de opciones particulares, o la importancia o el peso que
asignan a cada
criterio.
• Factores que van más allá del conocimiento o control de quienes
toman las decisiones pueden influir en cómo
bueno, un curso de acción particular realmente 'realiza', de modo que el
resultado de un
una decisión particular será difícil de predecir.
• Puede haber tantas opciones y criterios potenciales que los que toman
las decisiones sufren
de una sobrecarga de información y necesita ayuda para tener en
cuenta tantos factores.
Ahora aprenderá sobre algunos métodos que pueden ayudar con estos
tipos de dificultad.
En este capítulo, el enfoque será tratar con múltiples criterios.

Un criterio frente a muchos

En el Capítulo 2 diseñó y analizó un programa simple de atención


médica. Aparte
de solo involucrar tres enfermedades, como un problema de decisión se
simplificó
estructuralmente en tres formas importantes:
• Para todos, excepto para la tarea final, solo había un criterio:
maximizar el número
de muertes prematuras evitadas para un presupuesto dado.
• La cantidad de muertes prematuras evitadas depende principalmente
de su decisión;

26
Se asumió que otros factores eran constantes durante el período de
tiempo de interés.
• Si bien hubo cierta incertidumbre sobre el impacto de los diferentes
niveles de
gastos debido a las preocupaciones sobre la exactitud de la información
proporcionada,
se esperaba que los valores inciertos cayeran dentro de un rango dado,
y entonces el
las implicaciones de la incertidumbre podrían explorarse utilizando el
análisis de sensibilidad.
Los analistas de decisión describen este tipo de decisión como un
problema de criterio único. La clave
El punto fue hecho al final del Capítulo 2: este es el único tipo de
problema para el cual
puede estar seguro de que hay una solución mejor u óptima inequívoca.
Donde hay
es más de un criterio, la decisión que es mejor en términos de un
criterio puede
no ser el mejor en términos de otros, y diferentes tomadores de
decisiones y partes interesadas
pueden estar en desacuerdo sobre lo que es importante.

Es bastante común ver artículos de revistas destinados a ayudar a las


personas a elegir
cosa como un auto o una lavadora. Si estos artículos están bien
investigados, pueden

66 Métodos para aclarar decisiones complejas


Copyright © 2006. McGraw-Hill Education. Todos los derechos
reservados. No puede reproducirse de ninguna forma sin el permiso del
editor, salvo que se permitan usos justos
bajo los EE. UU. o la ley de derechos de autor aplicable.

26
EBSCO Publishing: eBook Co llection (EBSCOhost) - impreso el 9/8/2018
8:35 PM a través de UNIVERSIDAD NACIONALABIERTA Y A DISTANCIA -
UNADAN: 234098; Sanderson, Colin J., Gruen, Reinhold .; Modelos
analíticos para la toma de decisiones. Cuenta: ns145102 incluye una
tabla. Por lo general, esto tendrá las opciones posibles enumeradas
abajo y los criterios como el costo, el rendimiento, la confiabilidad, el
estilo y la seguridad en la parte superior. En cada "celda" en la tabla,
habrá una indicación de cómo funciona una de las opciones (filas en la
tabla) en términos de uno de los criterios (columnas). Esto puede tomar
la forma de un número, o una categoría en una escala de muy buena a
muy mala, o posiblemente una referencia al texto en una nota al pie.
Este tipo de intento de establecer los pros y los contras de cada opción
de una manera sistemática tiene una larga historia. Aquí hay una
célebre carta de Benjamín Franklin a Joseph Priestley: Carta a Joseph
Priestley London, 19 de septiembre de 1772. Te ruego que en el asunto
de tanta importancia para ti, donde pidas mi Consejo, no pueda, a falta
de suficientes locales, aconsejarte qué determinar, pero si le place, le
diré cómo. Cuando ocurren estos Casos difíciles, son difíciles,
principalmente porque mientras tenemos la Consideración más
importante, todas las Razones pro y contra no están presentes en la
Mente al mismo tiempo; pero a veces un Conjunto se presenta a sí
mismo, y en otros momentos, el primero está fuera de la vista. De ahí
los diversos Propósitos o Inclinaciones que prevalecen alternativamente,
y la Conflictiva que nos deja perplejos. Para superar esto, mi Forma es
dividir la mitad de una Hoja de Papel por una Línea en dos Columnas;
escribiendo sobre el Pro, y sobre el otro Con. Luego, durante una
consideración de tres o cuatro días, pongo bajo las diferentes Cabezas
breves Indicaciones de los diferentes motivos, que en diferentes tiempos
me ocurren, a favor o en contra de la Medida. Cuando los tengo todos
juntos en una vista, me esfuerzo por estimar sus pesos respectivos; y
donde encuentro dos, uno a cada lado, que parecen iguales, los golpeo a
los dos. Si encuentro un Reason pro igual a dos Razones con, elimino los
tres. Si juzgo algunas Razones con, que equivalen a tres Razones pro,
pongo las cinco; y así prosiguiendo, encuentro en detalle dónde yace el
Equilibrio; y si, después de uno o dos días de mayor consideración, no
ocurre nada nuevo que sea importante en ninguno de los lados, llego a
una determinación de acuerdo. Y, aunque el peso de las razones no
puede tomarse con la precisión de las cantidades algebraicas, sin
embargo, cuando se considera cada una de ellas, por separado y

26
comparativamente, y todas las mentiras que tengo ante mí, creo que
puedo juzgar mejor y soy menos propenso a dar un paso precipitado. , y
de hecho, he encontrado una gran ventaja de este tipo de ecuación, en
lo que se puede llamar Álgebra Moral o Prudencial. Deseando
sinceramente que puedas determinar lo mejor, siempre lo soy, mi
querido amigo. Eres muy cariñoso. Franklin Esta carta captura ambos la
motivación y algunos de los elementos del análisis de decisión
multiplecriteria. La idea es proporcionar ayuda en forma de cómo, en
lugar de qué, decidir; y esto implica la identificación de las opciones (en
este caso, dadas); reflexión sobre lo que debe tenerse en cuenta en la
comparación, el montaje de la información necesaria y su presentación
en forma digerible; y un proceso para llegar a una elección. En muchos
casos, la contribución metodológica del analista se detiene una vez que
se ha identificado, ensamblado y presentado la información pertinente.
La figura 4.1 es un ejemplo de una tabla de ventajas comparativas para
dos enfoques del desarrollo. Muchos criterios 67 Copyright © 2006.
McGraw-Hill Education. Todos los derechos reservados. No puede ser
reproducido de ninguna forma sin el permiso del editor, excepto los usos
legítimos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/8/2018 8:35 PM por UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 234098; Sanderson,
Colin J., Gruen, Reinhold .; Modelos analíticos para la toma de
decisiones. Cuenta: ns145102servicios de salud para niños. La Opción 1
involucraba una sola unidad de pacientes internos y un gran aumento en
la provisión de la comunidad, y la Opción 2 involucraba dos unidades de
pacientes internos y un aumento moderado en la provisión de la
comunidad. Para cada opción y criterio, muestra un rango de valores
posibles, que indica un elemento de incertidumbre en la evaluación. Esta
forma particular de capturar y presentar los datos es parte de un
enfoque más abrumador de la planificación estratégica llamado Strategic
Choice (Friend and Hickling2004) al que regresarás en el Capítulo 5. Hay
muchas variaciones en el diseño de tales ayudas visuales. En este caso,
la producción de el gráfico fue una base suficiente para que las partes
interesadas aceptaran la Opción 1. (¡El tema más políticamente cargado
de dónde ubicar la unidad única se consideró por separado!) En otras
situaciones, donde hay muchas más opciones, es posible que se
requiera un análisis adicional. La matriz de rendimiento o tabla de
consecuencias Para la mayoría de los problemas de criterios múltiples, la
construcción del marco de opciones y criterios, en forma de una
cuadrícula o tabla, es una utilidad. El primer paso para identificar la

27
información necesaria para tomar una decisión. Completar la tabla
proporciona una forma de organizar y presentar la información.Figura
4.1 Gráfico de ventajas comparativas para dos esquemas de servicios
para niños Fuente: Cushman y Rosenhead (2004) .68 Métodos para
aclarar decisiones complejas Copyright © 2006. McGraw-Hill Education.
Todos los derechos reservados. No puede ser reproducido de ninguna
forma sin el permiso del editor, excepto los usos legítimos permitidos
por los EE. UU. O la ley de derechos de autor aplicable. Publicación de
EBSCO: Colección de libros electrónicos (EBSCOhost) - impreso el
9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA DISTANCIA
- UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .; Modelos
analíticos para la toma de decisiones. Cuenta: ns145102 Las actividades
esenciales son las siguientes: 1 Identificar el contexto de decisión. ¿Cuál
es el objetivo general de la organización? ¿Y quién está involucrado o
afectado? Roy (1996) distingue entre las partes interesadas que tienen
'un interés importante en la decisión e intervendrán para afectarlo
directamente a través de [sus] sistemas de valores' y de terceros 'que
no participan activamente en la decisión, pero que se ven afectados por
sus consecuencias y cuyas preferencias deben ser considerado al llegar
a la decisión'.2 Desarrollar un conjunto de criterios. Los criterios y
objetivos están estrechamente relacionados, por lo que un buen punto
de partida es enumerar sus objetivos y ver cómo se pueden convertir en
criterios. Por ejemplo, un objetivo puede ser de composición abierta
(reducir una readmisión) o específico (reducir la tasa de readmisión en
un 10%). En ambos casos, el criterio es la tasa de readmisión. Si no
está seguro de sus objetivos, una tormenta de ideas puede ayudar; esto
implica discusiones intensivas, más o menos estructuradas, entre los
tomadores de decisiones para generar ideas, tal vez explorando qué
distinguiría una buena opción de una mala.3 Identifique las opciones de
decisión. Esto también puede ser una cuestión de lluvia de ideas, pero
los métodos de estructuración de problemas pueden ser útiles.4 Diseñe
escalas de medición o sistemas de puntuación para cada criterio. Estas
escalas dependerán de los datos disponibles, la importancia de la
decisión y el tiempo y los recursos disponibles para la recopilación de
datos. Las calificaciones pueden basarse en juicios subjetivos, en
observación directa y análisis de datos, o en estimaciones derivadas
mediante el uso de un modelo.5 Califique las opciones de acuerdo con
las escalas de medición. Es posible que deba repetir estos pasos hasta
que se logre un marco satisfactorio. Sin embargo, el orden de las tareas
2 y 3 se invierte en algunos casos. Por ejemplo, las opciones pueden ser
determinadas por usted. En este caso, un enfoque posible para generar

27
criterios es el siguiente: 1 Enumere las ventajas y desventajas de la
Opción 1 en comparación con la existente. Para cada ventaja o
desventaja, identifique un criterio correspondiente (avariable, no un
atributo, por ejemplo, "costo", no 'barato'). 3 Enumere las ventajas y
desventajas de la Opción 2 en comparación con el acuerdo existente y la
Opción 1.4 Agregue a la lista de criterios si es necesario.5 Continúe con
las otras opciones hasta que no surjan nuevos criterios.6 Finalmente,
acorte la lista de criterios eliminando cualquiera que mida esencialmente
lo mismo (es importante evitar el doble conteo) o que no discriminen
(es decir, según el cual todas las opciones son similares). Cualquier
análisis formal de la matriz de rendimiento que pueda seguir será un
gran dealeasier si los criterios son "independientes de las preferencias",
es decir, no debería haber ventaja adicional o desventaja en
combinaciones particulares de calificaciones. Por ejemplo, si una comida
compuesta de sus platos favoritos no es su comida favorita, su
evaluación gastronómica implica dependencia de preferencia. Una
dificultad común es que los objetivos y / o criterios pueden ser
abstracciones, por lo que no pueden medirse directamente. Los
ejemplos incluyen "la salud de la población", "la calidad de la atención"
o la "perspectiva de supervivencia de la organización". En esta situación,
el enfoque simple consiste en calificar las opciones emitiendo juicios
explícitos (por ejemplo, muchos criterios). No se puede reproducir de
ninguna forma sin el permiso del editor, excepto los usos legítimos
permitidos por los Estados Unidos o Estados Unidos. derecho de autor
aplicable.EBSCO Publishing: eBook Collection (EBSCOhost) - impreso el
9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA DISTANCIA
- UNADAN: 234098; Sanderson, Colin J., Gruen, Reinhold .; Modelos
analíticos para la toma de decisionesCuenta : ns145102reflexionando el
impacto de la opción como buena, regular o deficiente). De lo contrario,
debe operacionalizar la abstracción eligiendo uno o más indicadores. Las
tasas de mortalidad a menudo se toman como indicadores de la salud
de una población, por ejemplo, y los índices de mortalidad como
indicadores de la calidad de la atención. El uso de la palabra "indicador"
implica un reconocimiento de que su medición y su criterio no son los
mismos, y generalmente cuanto más amplia es la abstracción, mayor es
el número de indicadores necesarios para capturarla adecuadamente. En
esta situación, puede ser útil formar un jerarquía o 'árbol de valores'
que muestra th relaciones entre las diversas dimensiones del problema.
La salud se ha dividido en sus aspectos físicos, mentales y sociales. En
las personas mayores, la dimensión física se puede dividir en puntajes
para el dolor y la discapacidad, la discapacidad se puede dividir en

27
movilidad, vista y oído, y así sucesivamente. Sin embargo, esto crea un
nuevo problema: cómo presentar grandes cantidades de datos de
manera que sean digeribles, pero evite suposiciones controvertidas
sobre los valores relativos de diferentes tipos de beneficios. Este tipo de
problema ocurre principalmente cuando se califican los beneficios. Los
costos también pueden organizarse en una jerarquía; los costos de
alojamiento se pueden dividir en gastos únicos y recurrentes; los costos
recurrentes se dividen en renta, mantenimiento y servicios públicos;
utilidades en agua, electricidad, etc. Aquí, sin embargo, no habrá
problema con la agregación (agregando los diferentes componentes
juntos) si todo se mide en términos de dinero en primer lugar. La
cuestión es si tendrá que mantener algunos costos en categorías
separadas si, por ejemplo, el gasto bajo diferentes rubros
presupuestarios tiene implicaciones diferentes. Actividad 4.2 Se debe
tomar una decisión sobre la ampliación del bloque principal de quirófano
de un hospital de agudos. Actualmente, el hospital cuenta con seis
teatros para cirugía ambulatoria, con capacidad para realizar 12,000
operaciones por año. Los administradores del hospital creen que existe
una demanda no satisfecha de este servicio y el potencial de expandir
hasta 16,000 operaciones por año. Están considerando construir otros
dos teatros, cada uno con la capacidad de realizar 2.000 operaciones
por año. En términos de las definiciones de Roy, ¿quiénes podrían ser
los interesados y quiénes son los terceros en esta decisión? Comentarios
Al igual que los gerentes de hospitales, los interesados probablemente
incluyan un hospital de alto nivel personal y representantes de las
organizaciones de financiación. También pueden incluir representantes
de: • grupos profesionales o de personal • pacientes • proveedores de
atención médica vecinos. También podría incluir profesionales de salud
pública con un resumen para representar las necesidades de atención
médica de la población en general. La extensión de la red será una
cuestión de estilo de gestión y personalizado.70 Métodos para aclarar
decisiones complejas Copyright © 2006. McGraw-Hill Education. Todos
los derechos reservados. No puede ser reproducido de ninguna forma
sin el permiso del editor, excepto los usos legítimos permitidos por los
EE. UU. O la ley de derechos de autor aplicable. Publicación de EBSCO:
Colección de libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35
PM por UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN :
234098; Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para
la toma de decisiones. Cuenta: ns145102. Actividad 4.3. ¿Cuáles son las
opciones de decisión? Debería pensar más allá de los obvios implicados
en la pregunta. La generación de Recetas Opcionales podría ser el tema

27
de una lluvia de ideas. Una ventaja de esto es que otros responsables
de la toma de decisiones pueden sugerir opciones que podrían no
haberle ocurrido a usted. Las opciones obvias son: • construir 0, 1 o 2
teatros. Sin embargo, hay otros como: • aumentar el rendimiento en el
bloque de teatro actual mejorando la eficiencia, poniendo en turnos
adicionales, etc. • subcontratar algunas de las operaciones a otros
hospitales • adoptar diferentes combinaciones de estas dos opciones.
Vale la pena enfatizar este último punto. En algunos problemas de
decisión (como la elección de un sitio para un centro de salud), las
diferentes opciones son esencialmente sustitutos entre sí. Solo puedes
construir el centro de salud en un solo lugar. En otras situaciones,
generalmente más complejas, las opciones pueden ser complementarias
y el problema se convierte en cuál es la mejor combinación de
diferentes tipos de opciones. Este tipo de pregunta se aborda con más
detalle en el Capítulo 8. Actividad 4.4 ¿Qué criterio utilizaría para decidir
qué opción seguir? RetroalimentaciónUn posible marco para desarrollar
un conjunto de criterios se presenta en la Tabla 4.1.Tabla 4.1 Criterios
para seleccionar una opciónventajas / desventajas / beneficios / costos
para • afectar la salud / calidad de vida / pacientes satisfechos /
cuidadores • efecto sobre la distancia recorrida al servicio • efecto sobre
el tiempo de espera para el servicio • efecto sobre los costos asumidos
por los pacientes / cuidadores, etc. ventajas / desventajas / costos /
ahorros / otros beneficios para los contribuyentes / sistema de salud •
costos únicos: edificios, equipos, capacitación • costos recurrentes /
ingresos: personal, bienes fungibles, depreciación / mantenimiento, etc.
• generación de ingresosContinuaciónMuchos criterios 71Copyright ©
2006. McGraw-Hill Education. Todos los derechos reservados. No puede
ser reproducido de ninguna forma sin el permiso del editor, excepto los
usos legítimos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/8/2018 8:35 PM por UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 234098; Sanderson,
Colin J., Gruen, Reinhold .; Modelos analíticos para la toma de
decisiones. Cuenta: ns145102 Analizar la matriz de rendimiento A
menudo, el proceso de desarrollar y completar la matriz de desempeño
es suficiente para tomar decisiones, pero cuando existen muchas
opciones y criterios, puede ser difícil ver qué hacer. La siguiente
actividad proporciona un ejemplo de esto. La Tabla 4.2 es una matriz de
rendimiento destinada a ayudar a elegir la ubicación de un centro de
salud. Los que toman las decisiones han identificado 20 sitios posibles y
cinco criterios. A través de los criterios, las opciones se califican

27
cualitativamente como pobres; justo o bueno. Para el Cuadro 4.1
continuado • cubrir brechas entre la demanda y el proveedor otros
objetivos de política • flexibilidad en respuesta a la incertidumbre en el
ambiente • costos de oportunidad de uso de espacio / finanzas, etc.
ventajas / desventajas / beneficios / costos para los empleados •
efectos sobre la salud / calidad de vida / insatisfacción laboral • efecto
en las horas de trabajo / condiciones de servicio • efecto en las
ganancias / desarrollo profesional, etc. Tabla 4.2 ¿Qué sitio para un
centro de salud? Staffacceptability del sitio Accesibilidad para pacientes
Calidad del medioambiente Costos de ejecución £ k Costo de hospital £
k1 bueno justo pobre 1700 30002 justo justo bueno 2300 38003 feria
justa pobre 2100 42004 feria buena feria 1200 52005 feria feria pobre
2100 14006 buena buena buena 1800 38007 buena pobre buena 800
42008 feria justa pobre 700 50009 feria feria justa 1800 400010 buena
buena buena 1000 480011 buena feria buena 2100 370012 feria feria
buena 1100 540013 feria feria pobre 1700 200014 justo bueno bueno
2500 400015 pobre buena feria 1800 240016 pobre feria pobre 2100
200017 pobre buena buena 1600 140018 feria p o bien 600 190019
feria justo pobre 700 340020 feria justa buena 1200 500072 Métodos
para aclarar decisiones complejas Copyright © 2006. McGraw-Hill
Education. Todos los derechos reservados. No puede ser reproducido de
ninguna forma sin el permiso del editor, excepto los usos legítimos
permitidos por los EE. UU. O la ley de derechos de autor aplicable.
Publicación de EBSCO: Colección de libros electrónicos (EBSCOhost) -
impreso el 9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA
DISTANCIA - UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .;
Modelos analíticos para la toma de decisiones. Cuenta:
ns145102régimen de costos de capital y de capital, las estimaciones se
proporcionan en unidades de £ 1000. Dando esta información, ¿cómo se
prepararía para hacer una lista de opciones para una investigación más
detallada? Hay muchos enfoques para esto, pero las tres categorías
principales de enfoque son: 1 Satisfactorio. Puede ser que haya una
serie de características que cada opción debe tener si va a merecer una
mayor consideración. Por ejemplo, algunas opciones, como la discusión
o la investigación preliminar, pueden ser inaceptables, inseguras o muy
por encima del presupuesto. Satisfacer implica establecer estándares
para lo que es "lo suficientemente bueno" para cada criterio y luego
eliminar cualquier opción que no cumpla con estos estándares. Este
método se usa comúnmente en la selección de candidaturas para un
trabajo. Esto puede eliminar muy pocos candidatos, o todos ellos. En la
Tabla 4.2, si un "pobre" en cualquiera de los tres primeros criterios

27
hacía inaceptable una opción, las 11opciones se eliminarían.2
Ponderación. Primero, transforme las calificaciones en puntajes, de
modo que una puntuación más alta significa "más preferido" para cada
criterio. Por ejemplo, los criterios de costo en la Tabla 4.2 tendrían que
invertirse, de modo que los puntajes más altos sean mejores. Luego,
asigna la importancia 'peso' a cada criterio. Multiplique cada puntaje por
el peso relevante, y agregue todos los puntajes ponderados para cada
opción juntos (o en promedio) para dar un puntaje general para cada
opción. Esto se llama aditivación lineal, la forma más sencilla de
combinar puntuaciones y ponderaciones, y la que mucha gente piensa
primero, aunque hay otras. En teoría, esto tiene ventajas en términos
de consistencia en la toma de decisiones (si se prefiere B y B a C, A
debe preferirse a C). Sin embargo, por varias razones, es difícil utilizar
los métodos de ponderación de manera apropiada: (a) Los puntajes
deben estar en escalas de fuerza de preferencia de intervalos iguales;
ranking no son lo suficientemente buenos. Lo que esto significa es que si
las clasificaciones de pobres, justas y buenas se van a transformar en
puntajes de 0, 1 y 2, el monto por el cual se prefiere la preferencia a
pobre debe ser igual al monto por el cual el bien se prefiere a lo justo. )
Si se califican diferentes criterios en diferentes escalas (vidas salvadas,
costo financiero, etc.), esto deberá tenerse en cuenta, ya sea en los
puntajes o en los pesos de "importancia" del criterio. En este ejemplo,
los 'costos de capital' comienzan con un peso más implícito que las otras
escalas porque el rango de valores en la Tabla 4.2 es mayor. (C) Las
clasificaciones de preferencia en cada criterio deben ser mutuamente
independientes, sin ventaja o desventaja adicional en combinaciones
particulares de ritmos. con todos estos requisitos, ¿cómo eliges los
pesos? ¿Y qué haces si los que toman las decisiones no están de
acuerdo sobre lo que deberían ser? Los argumentos entre los tomadores
de decisiones acerca de qué opción es mejor pueden convertirse
fácilmente en argumentos menos fundamentados sobre la elección de
los pesos que producen la respuesta que desean. La ponderación es un
método engañosamente simple que puede ser engañoso y hay un caso
fuerte para probar primero métodos menos exigentes.3 Eliminación
secuencial. Se dice que la Opción A domina la Opción B si puntúa mejor
que, o bien, con la Opción B en todos los criterios. Si este es el caso,
debe poder e limite la Opción B sin haber hecho ningún juicio de valor.
Esto tiene la atracción de ser un método relativamente transparente y
poco exigente. Solo requiere un acuerdo sobre la clasificación amplia de
cada opción en cada criterio. Muchos criterios. Copyright © 2006.
McGraw-Hill Education. Todos los derechos reservados. No puede ser

27
reproducido de ninguna forma sin el permiso del editor, excepto los usos
legítimos permitidos por los EE. UU. O la ley de derechos de autor
aplicable. Publicación de EBSCO: Colección de libros electrónicos
(EBSCOhost) - impreso el 9/8/2018 8:35 PM por UNIVERSIDAD
NACIONALABIERTA YA DISTANCIA - UNADAN : 234098; Sanderson,
Colin J., Gruen, Reinhold .; Modelos analíticos para la toma de
decisiones. Cuenta: ns145102criterio. La importancia relativa de cada
criterio no entra en ella, por lo que puede permitir la simplificación
incontrovertible de un problema. Sin embargo, tiene sus limitaciones:
(a) Los resultados pueden ser muy sensibles a las calificaciones de
desempeño y, por lo tanto, a las diferencias en los puntajes basados en
juicios o errores en los datos. (B) La lista final resultante incluirá la
mejor opción pero una lista corta de cinco, por ejemplo, no
necesariamente consistirá en las mejores cinco opciones. Al igual que
una competencia no eliminada, un buen candidato puede ser eliminado
al principio del proceso por uno ligeramente mejor. (C) En general habrá
muy pocas opciones dominadas a menos que haya una gran cantidad de
puntajes empatados. Esto puede no ocurrir a menos que los sistemas de
puntuación sean justamente insensibles. Sin embargo, puede ser un
primer paso muy útil, y puede ser posible eliminar más opciones
examinando pares específicos y debatiendo las concesiones necesarias.
Si la Opción A tiene grandes ventajas en términos de los criterios 1, 2 y
3, y la opción B tiene solo ventajas menores en términos del criterio 4,
el criterio 4 tendría que ser muy importante para que B valga la pena
considerarlo más. Este es un ejemplo de lo que Hammond y sus colegas
(1999) llaman "dominio práctico" de B por A. Los métodos de pesaje
habrían eliminado 11 de las opciones en la Tabla 4.2 y la izquierda 9.
Podría haber tomado esto como punto de partida para usar ponderación
o Eliminación, pero su grupo de toma de decisiones ha decidido que un
"pobre" en un criterio no sería suficiente para rechazar una opción si
funciona bien en otros aspectos. Ahora va a intentar usar pesos en el
conjunto completo de 20. Recuerde eso El primer paso en un análisis
basado en ponderaciones es la conversión de las calificaciones de
desempeño en puntajes de intervalo. Parte del trabajo se ha realizado
para usted en la preparación de la Tabla 4.3. Esto se ha derivado de la
Tabla 4.2 codificando bueno = 2, regular = 1 y pobre = 0. También se
han restado los costos de funcionamiento de la Tabla 4.2 de un valor
teórico de £ 3m y los costos de capital restados de £ 6m para que las
cifras de costo en la Tabla 4.3 puedan ser visto como ahorro contra
sumas nocionales. Conversión de calificaciones de desempeño a
puntajes de preferencia. Como ya ha aprendido, el conjunto de

27
calificaciones de desempeño para cada criterio (por ejemplo, todas las
calificaciones de aceptabilidad del personal) deben convertirse a
puntajes de preferencia de "intervalos iguales". Ahora aprenderá cómo
hacer esto. El primer paso es anclar la escala eligiendo puntos de
referencia. En la Tabla 4.3, la peor opción se califica en el extremo
inferior del rango (en cero, por ejemplo) y la mejor opción se obtiene en
la parte superior. Esto se llama escalamiento local. Para los primeros
tres criterios en la tabla, esto es fácil. Las opciones clasificadas como
pobres y cero de puntuación se encuentran en la parte inferior de la
escala, y las que tienen una calificación buena y puntaje 2 están en la
parte superior. Una vez que haya anclado su escala, la posición de cada
opción intermedia debe resolverse. Para los primeros tres criterios, esta
tarea es relativamente fácil de describir, si74 Métodos para aclarar
decisiones complejas Copyright © 2006. McGraw-Hill Education. Todos
los derechos reservados. No puede ser reproducido de ninguna forma
sin el permiso del editor, excepto los usos legítimos permitidos por los
EE. UU. O la ley de derechos de autor aplicable. Publicación de EBSCO:
Colección de libros electrónicos (EBSCOhost) - impreso el 9/8/2018 8:35
PM por UNIVERSIDAD NACIONALABIERTA YA DISTANCIA - UNADAN :
234098; Sanderson, Colin J., Gruen, Reinhold .; Modelos analíticos para
la toma de decisiones. Cuenta: ns145102no se puede lograr. Todo se
reduce a la cuestión de si las opciones calificadas para faire y la
puntuación se encuentran en el medio de la escala en términos de
preferencia. ¿O están por encima o por debajo del medio? Y si es así,
¿en cuánto? Los criterios de costo son más difíciles, en parte porque son
más parecidos en un rango, pero principalmente porque el rango de
calificaciones es mucho más amplio. A menos que tenga esto en cuenta,
los costos abrumarán por completo a todo lo demás en un análisis de
peso porque, por ejemplo, los costos de capital difieren entre el mejor y
el puntapié desde 4600 a 600 = 4000, en comparación con 2 - 0 = 2
para los demás. El enfoque es reescalar las clasificaciones para que los
puntajes de la calificación en cada criterio sean todos iguales y los
puntajes para las peores opciones en general sean los mismos. En la
Tabla 4.4, todos los puntajes para todos los criterios han sido
reescalados para que caigan en el rango de 0 a 2, pero un rango de 0 a
100 es más común. Esto deja con la pregunta de si los puntajes de
costo realmente miden las preferencias. La opción 19 puntaje 1 en
costos de capital porque su calificación de 2600 está en el medio entre
la mejor (Opción 5) y la peor (Opción 12). Pero, ¿se prefiere la Opción 5
a la Opción 19 en la misma cantidad que la Opción 19 a la Opción 12?
De ser así, puede usar las calificaciones reescaladas en la Tabla 4.4

27
como puntuaciones de preferencia en un análisis ponderado. Si no, se
necesitarán juicios de consenso para hacer ajustes. Una variación de
este enfoque implica fijar la parte inferior de la escala como la opción
peor posible que se pueda considerar y la superior como la mejor
posible. Esto se denomina escalamiento global (en lugar de local). Su
ventaja es que permite opciones que son mejores o peores en algunos
aspectos que cualquiera del conjunto actual que se agregará al análisis
más adelante. Su desventaja es que para fijar los puntos de referencia,
tiene la Tabla 4.3 Puntuaciones derivadas de las calificaciones como
base para el análisis ponderado. Staffaceptabilidad del sitio Accesibilidad
para pacientes Calidad del ambiente Costos de ejecución £ Capitalcost £
1 2 1 0 1300 30002 1 1 2 700 22003 0 1 1 900 18004 1 2 1 1800 8005
0 1 1 900 46006 2 2 2 1200 22007 2 0 2 2200 18008 1 0 1 2300 10009
1 1 1 1200 200010 2 2 2 2000 120011 2 1 2 900 230012 1 2 1 1900
60013 0 1 1 1300 400014 1 2 2 500 200015 0 2 1 1200 360016 0 1 0
900 400017 0 2 2 1400 460018 1 0 2 2400 410019 1 0 1 2300 260020
2 1 1 1800 1000Muchos criterios 75Copyright © 2006. McGraw-Hill
Education. Todos los derechos reservados. No puede ser reproducido de
ninguna forma sin el permiso del editor, excepto los usos legítimos
permitidos por los EE. UU. O la ley de derechos de autor aplicable.
Publicación de EBSCO: Colección de libros electrónicos (EBSCOhost) -
impreso el 9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA
DISTANCIA - UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .;
Modelos analíticos para la toma de decisiones: ns145102problema
adicional de decidir cómo podrían ser las hipotéticas peores y las
mejores opciones posibles. Pueden ser difíciles de imaginar y aún más
difíciles de acordar. Un enfoque para derivar 'importancia' pondera los
criterios: 'ponderación de swing' Ahora estás listo para pensar en
maneras de derivar pesos de 'importancia' para tus criterios. Primero,
determine el criterio con la mayor diferencia de preferencia entre la
parte superior e inferior de la escala. A este criterio se le asigna un peso
de 100 y se convierte en el estándar. Supongamos que la mayor
diferencia de preferencia se encuentra entre las mejores y peores
opciones en términos de costo de ejecución. Las oscilaciones de
preferencia entre los extremos de las escalas para los demás criterios se
evalúan en comparación con este estándar y los valores asignados entre
0 y 100. Para la aceptabilidad del personal, puede haber una diferencia
relativamente pequeña entre las peores y las peores opciones, por lo
que a este criterio se le puede asignar un peso de 35. Las mejores
opciones para la aceptación del paciente podrían estar un poco más
alejadas, lo que sugiere un peso de 45. Y así sucesivamente. Esto se

27
puede hacer como un ejercicio de grupo nominal, con cada participante
haciendo sus propias clasificaciones privadas y luego participando en
una discusión sobre áreas de desacuerdo. Si el acuerdo razonable es
inalcanzable, pueden intentarse diferentes puntos de ponderación en un
análisis de sensibilidad. Tabla 4.4 Clasificaciones reescaladas: un paso
hacia los puntajes de preferencia como base para el análisis ponderado.
Staffaceptabilidad del sitio Accesibilidad para pacientes Calidad del
entorno Costes de ejecución £ Capitalcost £ 1 2 1 0 0.8 1.22 1 1 2 0.2
0.83 0 1 1 0.4 0.64 1 2 1 1.4 0.15 0 1 1 0.4 26 2 2 2 0.7 0.87 2 0 2 1.8
0.68 1 0 1 1.9 0.29 1 1 1 0.7 0.710 2 2 2 1.6 0.311 2 1 2 0.4 0.912 1 2
1 1.5 013 0 1 1 0.8 1.714 1220 0.715 0 2 1 0.7 1.516 0 1 0 0.4 1.717 0
2 2 0.9 218 1022 1.819 1 0 1 1.9 1.020 2 1 1 1.4 0.276 Métodos para
aclarar decisiones complejasCopyright © 2006. McGraw-Hill Education.
Todos los derechos reservados. No puede ser reproducido de ninguna
forma sin el permiso del editor, excepto los usos legítimos permitidos
por los EE. UU. O la ley de derechos de autor aplicable. Publicación de
EBSCO: Colección de libros electrónicos (EBSCOhost) - impreso el
9/8/2018 8:35 PM por UNIVERSIDAD NACIONALABIERTA YA DISTANCIA
- UNADAN : 234098; Sanderson, Colin J., Gruen, Reinhold .; Modelos
analíticos para la toma de decisiones. Cuenta: ns145102. Actividad
4.5Una vez que tiene un conjunto de pesos, generalmente se vuelven a
escalar para agregar hasta uno. Supongamos que después de recalcular
su importancia, las ponderaciones son las siguientes: Aceptabilidad para
el personal 0.15 Accesibilidad para los pacientes 0.25 Calidad ambiental
0.05 Costos de funcionamiento 0.45 Gastos de capital 0.10 ¿Cuáles
opciones son las mejores? ¿Y cuáles salen peor? Comentarios Los
resultados del proceso de ponderación se pueden ver en la Tabla 4.5. La
opción 10 es razonablemente la mejor. Su costo de capital es alto, pero
a este se le da relativamente poco peso. Las opciones 12 y 4 son
segunda y tercera, sin mucho entre ellas; nuevamente, ambos tienen
altos costos de capital. La opción 3 es la peor.Tabla 4.5 Sitios para el
centro de salud con sumas ponderadas de puntajes y rangosPeso de
pesoStaffacceptabilityAccesibilidad para los pacientesQualidad del medio
ambienteCostos de ejecuciónCapitalcost WeightedRank ofweighted0.150
0.250 0.050 0.450 0.100 sum sum1 2 1 0 0.8 1

28

Das könnte Ihnen auch gefallen