Beruflich Dokumente
Kultur Dokumente
requiere suposciones.
- Es rápido de calcular.
A. Árboles de decisión
Desventajas:
Esta técnica predictiva de clasificación consiste en una
división jerárquica y secuencial del problema en el que - El proceso de selección de variables es sesgado hacia
cada una de estas divisiones o nodos describen las variables con más valores diferentes.
gráficamente las decisiones posibles y por lo tanto los - Dificultad para elegir el árbol óptimo.
resultados de las distintas combinaciones de decisiones y - La superficie de predicción no es muy suave, ya que
eventos. A cada evento se le asignan probabilidades y a son conjuntos de planos.
cada una de las ramas se le determina un resultado [1]. - Requiere un gran número de datos para asegurarse que
la cantidad de observaciones en los nodos terminales
Los árboles de decisión integran cuatro componentes es significativa.
básicos: - Ausencia de una función global de las variables y
como consecuencia pérdida de la representación
- Nodos de decisión: indica una decisión que se tomará, geométrica.
se representa con un cuadrado. - No toma en cuenta las interacciones que puede existir
- Nodos probabilísticos: muestra múltiples resultados entre las variables predictoras.
inciertos, se grafica mediante un círculo.
- Las ramas: cada rama indica un posible resultado o B. Algoritmo CART
acción, se las puede representar mediante líneas.
- Los nodos terminales: indica un resultado definitivo, Árbol de clasificación y regresión (CART) propuesto por
se utiliza un triángulo para este tipo de nodo. Breiman et al [1]. CART es una técnica de aprendizaje
de árbol de decisión no paramétrica que produce árboles
Cabe recalcar que un nodo es aquel punto donde surgen de clasificación o regresión, dependiendo de si la
divisiones y muestra las probabilidades de ciertos variable dependiente es categórica o numérica,
resultados [2]. respectivamente. La palabra binario implica que un nodo
en un árbol de decisión solo puede dividirse en dos
grupos. CART utiliza el índice de Gini como medida de
impureza para seleccionar el atributo. El atributo con la
mayor reducción de impurezas se utiliza para dividir los
registros del nodo. CART acepta datos con valores
numéricos o categóricos y también maneja valores de
atributos faltantes. Utiliza la poda de complejidad de
costos y también genera árboles de regresión [2].
- Puede ser aplicado a cualquier tipo de variables - Finalmente, una predicción para la variable
predictoras: continuas y categóricas. objetivo en cada nodo terminal.
- Los resultados son fáciles de entender e interpretar.
- No tiene problema de trabajar con datos perdidos.
Caracteristicas de CART
- Hace automáticamente selección de variables. - CART no es paramétrico y, por lo tanto, no depende
- Es invariante a transformaciones de las variables de datos que pertenezcan a un tipo particular de
predictoras. distribución.
- Es robusto a la presencia de "outliers". - CART no se ve significativamente afectado por los
- Es un clasificador noparamétrico, es decir que no valores atípicos en las variables de entrada [3].
- Puede relajarse deteniendo las reglas para valores posibles de la variable que se utilizará para
"sobrecrecer" los árboles de decisión y luego podar dividir el nodo.
el árbol al tamaño óptimo. Este enfoque minimiza la
probabilidad de que una estructura importante en el Stopping
conjunto de datos se pase por alto deteniéndose
demasiado pronto. El proceso se detiene cuando:
- CART incorpora ambas pruebas con un conjunto de - Solo hay una observación en cada uno de los
datos de prueba y validación cruzada para evaluar la nodos secundarios.
bondad del ajuste con mayor precisión.
- CART puede usar las mismas variables más de una - Todas las observaciones dentro de cada nodo
vez en diferentes partes del árbol. Esta capacidad secundario tienen la distribución idéntica de las
puede descubrir interdependencias complejas entre variables predictoras, lo que hace imposible la
conjuntos de variables. división.
- CART puede usarse junto con otros métodos de
predicción para seleccionar el conjunto de variables - El usuario ha establecido un límite externo en el
de entrada.[3]. número de niveles en el árbol máximo (opción
Ventajas "profundidad").
Building BIBLIOGRAFÍA
[1] D. & T. Kotsiantis, Sotiris & Koumanakos, E &
La construcción de árboles comienza en el nodo raíz, que Tzelepis, “Forecasting Fraudulent Financial
incluye a toda la población en el conjunto de datos de Statements using Data Mining,” vol. 1, no. 12, pp.
aprendizaje. 844–849, 2007.
[2] N. B. Review, A. Elizabeth, and P. Varas, “Árboles
Comenzando con este nodo, el algoritmo CART De Decisión: Decisiones Empresariales Bajo La
encuentra la mejor variable posible para dividir el nodo Sombra De Un Buen Árbol Decision Trees:
en dos nodos secundarios. Para encontrar la mejor Business Decisions Under the Shade of a Good
variable, el software verifica todas las posibles variables Tree,” vol. 01, pp. 87–92, 2015.
de división (llamadas divisores), así como todos los
BIBLIOGRAFÍA
Lior Rokach, O. M. (s.f.). DATA MINING WITH
DECISION TREES (2nd Edition ed.). Israel:
University of the Negev. doi:ISBN 978-
9814590082