Sie sind auf Seite 1von 25

Mquinas con Vectores

de Soporte - SVM
Equipo:
Jos Alberto Alvares Prez
Venancio JR Celis Catarino
Jorge Luis Lpez cruz
Jos Gpe. Montero Jimnez

Introduccin

La forma ms sencilla de definir una SVM es como un


algoritmo que aprende mediante ejemplos a asignar
etiquetas a objetos.

Por ejemplo:
Se puede aprender a reconocer la actividad fraudulenta de una
tarjeta de crdito examinando cientos o miles de informes de
actividades para determinar si existe un fraude o no.

Jos Alberto

Un SVM puede prender a reconocer dgitos manuscritas


examinando una gran coleccin de imgenes digitalizadas
de manuscritos, y as sucesivamente. Las SVM se han
aplicado con xito a una cada vez mas amplia variedad de
aplicaciones biolgicas.

Una Mquina de Soporte Vectorial (SVM) aprende la superficie decisin de dos


clases distintas de los puntos de entrada.
Como un clasificador de una sola clase, la descripcin dada por los datos de
los vectores de soporte es capaz de formar una frontera de decisin alrededor
del dominio de los datos de aprendizaje con muy poco o ningn conocimiento
de los datos fuera de esta frontera.

+1
-1

Kernel

Las funciones Kernel son funciones matemticas que se emplean en las


Mquinas de Soporte Vectorial. Estas funciones son las que le permiten
convertir lo que sera un problema de clasificacin no-lineal en el espacio
dimensional original, a un sencillo problema de clasificacin lineal en un
espacio dimensional mayor.

Los datos son mapeados por medio de un kernel Gaussiano u otro tipo de
kernel a un espacio de caractersticas en un espacio dimensional ms alto,
donde se busca la mxima separacin entre clases.

Esta funcin de frontera, cuando es trada de regreso al espacio de entrada,


puede separar los datos en todas las clases distintas, cada una formando un
agrupamiento. El concepto de "Machine Learning" se refiere al aprendizaje de
una estructura proporcionada por un conjunto de datos.

Conceptos matemticos
Cuando los datos no se pueden separar linealmente se
hace un cambio de espacio mediante una funcin que
transforme los datos de manera que se puedan separar
linealmente. Tal funcin se llama Kernel.
Tambin hay mtodos para separar los datos (xi,yi)
directamente an no siendo separables linealmente,
mediante funciones polinmicas y otro tipo de
funciones, las Funciones de Base Radial (RBF).
7

Venancio

Conceptos matemticos

r ne
e
K

RBF

+1
-1

Conceptos matemticos
Algunos problemas con las SVM:
Overtraining:se han aprendido muy bien los datos de
entrenamiento pero no se pueden clasificar bien ejemplos
no vistos antes. Ej.: un botnico que conoce mucho.
La porcin n de los datos no conocidos que ser mal
calificada, est limitada por:
No. vectores de soporte
n
No. de ejemplos de entrenamie nto

Se aplica el principio de Ockham.

Conceptos matemticos
Algunos problemas con las SVM:
Overfitting: no se ha aprendido muy bien la
caracterstica de los datos de entrenamiento, por lo que se
hace una mala clasificacin. Ej.: el hermano del botnico.

el sobreajuste (overfitting) es el efecto de


sobreentrenar un algoritmo de aprendizaje con unos
ciertos datos para los que se conoce el resultado
deseado.

Interpretacin geomtrica
+1
-1

cmo clasificar estos


datos?

Interpretacin geomtrica
+1
-1

cmo clasificar estos


datos?

Jorge Luis

Interpretacin geomtrica
+1
-1

cmo clasificar estos


datos?

Interpretacin geomtrica
+1
-1

cmo clasificar estos


datos?

Interpretacin geomtrica
+1
-1

Cualquiera puede ser


buena, pero cul es la
mejor?

Interpretacin geomtrica
+1

wx+b=0

-1

Definimos el hiperplano

Interpretacin geomtrica
+1
-1

Definimos el margen

Jos Montero

Interpretacin geomtrica
+1
-1

La idea es maximizar el
margen.

Interpretacin geomtrica
+1
-1

El hiperplano que tenga


el mayor margen es el
mejor clasificador de los
datos.
Esta es la clase ms
simple de SVM, la
LSVM.

Interpretacin geomtrica
+1
-1

Los vectores de soporte


son los puntos que tocan
el lmite del margen.

Interpretacin geomtrica
+1
-1

Veamos los hiperplanos


positivo y negativo

Interpretacin geomtrica
+1
=
+b
-1
x

=
w
+b
x

+1
-1

hiperplano positivo: wx+b = +1


hiperplano negativo: wx+b = -1

d+

ma
rge
n

d-

Separacin polinmica y con RBF

23

Aplicaciones

24

Referencias:
http://svm.cs.rhul.ac.uk/pagesnew/GPat.shtml
http://svm.cs.rhul.ac.uk/pagesnew/1D-Reg.shtml
http://es.wikipedia.org/wiki/Sobreajuste
http://www.ecured.cu/index.php/M%C3%A1quinas_de_Sop
orte_Vectorial
http://ccc.inaoep.mx/~emorales/Cursos/Aprendizaje2/node
29.html
http://prezi.com/7pfsk8ns_l1j/maquinas-de-soporte-vectoria
l/
http://www.infor.uva.es/~isaac/doctorado/Cap07_SVM.pdf

Das könnte Ihnen auch gefallen