Sie sind auf Seite 1von 3

Algoritmo CART

requiere suposciones.
- Es rápido de calcular.
A. Árboles de decisión
Desventajas:
Esta técnica predictiva de clasificación consiste en una
división jerárquica y secuencial del problema en el que - El proceso de selección de variables es sesgado hacia
cada una de estas divisiones o nodos describen las variables con más valores diferentes.
gráficamente las decisiones posibles y por lo tanto los - Dificultad para elegir el árbol óptimo.
resultados de las distintas combinaciones de decisiones y - La superficie de predicción no es muy suave, ya que
eventos. A cada evento se le asignan probabilidades y a son conjuntos de planos.
cada una de las ramas se le determina un resultado [1]. - Requiere un gran número de datos para asegurarse que
la cantidad de observaciones en los nodos terminales
Los árboles de decisión integran cuatro componentes es significativa.
básicos: - Ausencia de una función global de las variables y
como consecuencia pérdida de la representación
- Nodos de decisión: indica una decisión que se tomará, geométrica.
se representa con un cuadrado. - No toma en cuenta las interacciones que puede existir
- Nodos probabilísticos: muestra múltiples resultados entre las variables predictoras.
inciertos, se grafica mediante un círculo.
- Las ramas: cada rama indica un posible resultado o B. Algoritmo CART
acción, se las puede representar mediante líneas.
- Los nodos terminales: indica un resultado definitivo, Árbol de clasificación y regresión (CART) propuesto por
se utiliza un triángulo para este tipo de nodo. Breiman et al [1]. CART es una técnica de aprendizaje
de árbol de decisión no paramétrica que produce árboles
Cabe recalcar que un nodo es aquel punto donde surgen de clasificación o regresión, dependiendo de si la
divisiones y muestra las probabilidades de ciertos variable dependiente es categórica o numérica,
resultados [2]. respectivamente. La palabra binario implica que un nodo
en un árbol de decisión solo puede dividirse en dos
grupos. CART utiliza el índice de Gini como medida de
impureza para seleccionar el atributo. El atributo con la
mayor reducción de impurezas se utiliza para dividir los
registros del nodo. CART acepta datos con valores
numéricos o categóricos y también maneja valores de
atributos faltantes. Utiliza la poda de complejidad de
costos y también genera árboles de regresión [2].

Los elementos de CART


- Posee reglas para dividir datos en un nodo en
función del valor de una variable;
Figura 1. Ejemplo de árbol de decisión
- Permite detener las reglas para decidir cuándo
Ventajas: una rama es terminal y ya no se puede dividir; y

- Puede ser aplicado a cualquier tipo de variables - Finalmente, una predicción para la variable
predictoras: continuas y categóricas. objetivo en cada nodo terminal.
- Los resultados son fáciles de entender e interpretar.
- No tiene problema de trabajar con datos perdidos.
Caracteristicas de CART
- Hace automáticamente selección de variables. - CART no es paramétrico y, por lo tanto, no depende
- Es invariante a transformaciones de las variables de datos que pertenezcan a un tipo particular de
predictoras. distribución.
- Es robusto a la presencia de "outliers". - CART no se ve significativamente afectado por los
- Es un clasificador noparamétrico, es decir que no valores atípicos en las variables de entrada [3].
- Puede relajarse deteniendo las reglas para valores posibles de la variable que se utilizará para
"sobrecrecer" los árboles de decisión y luego podar dividir el nodo.
el árbol al tamaño óptimo. Este enfoque minimiza la
probabilidad de que una estructura importante en el Stopping
conjunto de datos se pase por alto deteniéndose
demasiado pronto. El proceso se detiene cuando:
- CART incorpora ambas pruebas con un conjunto de - Solo hay una observación en cada uno de los
datos de prueba y validación cruzada para evaluar la nodos secundarios.
bondad del ajuste con mayor precisión.
- CART puede usar las mismas variables más de una - Todas las observaciones dentro de cada nodo
vez en diferentes partes del árbol. Esta capacidad secundario tienen la distribución idéntica de las
puede descubrir interdependencias complejas entre variables predictoras, lo que hace imposible la
conjuntos de variables. división.
- CART puede usarse junto con otros métodos de
predicción para seleccionar el conjunto de variables - El usuario ha establecido un límite externo en el
de entrada.[3]. número de niveles en el árbol máximo (opción
Ventajas "profundidad").

- Fácil de entender Pruning


- Menos limpieza de datos: outliers y valores
faltantes no influencian el modelo (A un cierto Para generar una secuencia de árboles más y más
grado) simples, cada uno de los cuales es candidato para el árbol
- El tipo de datos no es una restricción final que se ajusta adecuadamente, se utiliza el método
de poda de "complejidad de costos". Este método se basa
Desventajas en un parámetro de complejidad, denominado a, que se
incrementa gradualmente durante el proceso de poda.
- Sobreajuste - Una rama del nodo t de un árbol T está formada
- Pérdida de información al categorizar variables por él y todos sus descendientes.
continuas - Podar la rama en t consiste en eliminar todos los
- Precisión: Los métodos como SVM y clasificadores
descendientes del nodo t.
tipo ensamblador a menudo tienen tasas de error
- Se eliminan las ramas más débiles con criterio
30% más bajas que CART.
- Inestabilidad: SI se realiza un pequeño cambio en de error y complejidad del árbol
los datos puede modificar ampliamente la estructura Selecction
del árbol. Por lo tanto, la interpretación que se da a
los resultados no es tan precisa. El árbol máximo siempre se ajustará al conjunto de datos
de aprendizaje con mayor precisión que cualquier otro
Pasos del algoritmo CART árbol. El rendimiento del árbol máximo en el conjunto de
datos de aprendizaje original, denominado "costo de
- Building (construcción del árbol. restitución", generalmente sobreestima en gran medida el
- Stopping (parada). rendimiento del árbol en un conjunto independiente de
- Pruning (podado). datos obtenidos de una población similar [5].
- Selection(Seleccion).

Building BIBLIOGRAFÍA
[1] D. & T. Kotsiantis, Sotiris & Koumanakos, E &
La construcción de árboles comienza en el nodo raíz, que Tzelepis, “Forecasting Fraudulent Financial
incluye a toda la población en el conjunto de datos de Statements using Data Mining,” vol. 1, no. 12, pp.
aprendizaje. 844–849, 2007.
[2] N. B. Review, A. Elizabeth, and P. Varas, “Árboles
Comenzando con este nodo, el algoritmo CART De Decisión: Decisiones Empresariales Bajo La
encuentra la mejor variable posible para dividir el nodo Sombra De Un Buen Árbol Decision Trees:
en dos nodos secundarios. Para encontrar la mejor Business Decisions Under the Shade of a Good
variable, el software verifica todas las posibles variables Tree,” vol. 01, pp. 87–92, 2015.
de división (llamadas divisores), así como todos los
BIBLIOGRAFÍA
Lior Rokach, O. M. (s.f.). DATA MINING WITH
DECISION TREES (2nd Edition ed.). Israel:
University of the Negev. doi:ISBN 978-
9814590082

Roger J. Lewis, M. P. (2000). An Introduction to


Classification and Regression Tree (CART)
Analysis. San Francisco,California.

Roman Timofeev, D. W. (2004). Classification and


Regression Trees (CART) Theory and
Applications. Berlin: Humboldt University,
Berlin.

Sonia Singh, P. G. (2014). COMPARATIVE STUDY ID3,


CART AND C4.5 DECISION TREE ALGORITHM:
A SURVEY. India: University of Delh.

Timofee, R. (205). Classification and Regression


Trees(CART)Theory and Applications.
Obtenido de
https://www.academia.edu/13700196/Classif
ication_and_Regression_Trees_CART_Theory
_and_Applications

Das könnte Ihnen auch gefallen