Sie sind auf Seite 1von 11

MAPAS AUTOORGANIZATIVOS Y Esquema.

Mapas autoorganizativos.

MODELOS SIMILARES Learning Vector . . .

Radial Basis Function


José D. Martı́n Guerrero, Emilio Soria, Antonio J. Serrano

PROCESADO Y ANÁLISIS DE DATOS AMBIENTALES


Home Page

Curso 2009-2010
Title Page

JJ II

J I

Page 1 of 11

Go Back

Full Screen

Close

Quit
1. Esquema.

• Mapas autoorganizativos.
Esquema.

• Learning Vector Quantization. Mapas autoorganizativos.

• Radial Basis Function Neural Network. Learning Vector . . .

Radial Basis Function

Home Page

Title Page

JJ II

J I

Page 2 of 11

Go Back

Full Screen

Close

Quit
2. Mapas autoorganizativos.
Arquitectura: Mapa de neuronas.
Idea: Patrones de entrada similares quedan asociados a neuronas Esquema.

cercanas en el mapa mediante un proceso de autoorganización Mapas autoorganizativos.

(Self-Organizing Map: SOM) ⇒ Preserva las relaciones topológicas Learning Vector . . .

con los patrones de entrada. Radial Basis Function

Home Page

Title Page

JJ II

J I
Actualización de los pesos de la neurona ij:
Page 3 of 11

wij (t + 1) = wij (t) + α(t)ht (wij ) (x(t) − wij (t))


Go Back
• x(t) es el patrón de entrada correspondiente.
Full Screen
• α(t) determina el ritmo del aprendizaje (decreciente por razones de es-
tabilidad). Close

• ht (wij ) es la función de vecindad: establece el radio de neuronas vecinas Quit


de la neurona ganadora que se actualizan y el grado en el que lo hacen.
Variantes del SOM:
• Estructuras toroidales para vencer el problema de actualización de las
neuronas situadas en los bordes del mapa.
• Neural Gas. Esquema.

• Algoritmo de consciencia. Mapas autoorganizativos.

Learning Vector . . .
• Growing Grid Algorithm.
Radial Basis Function
Extracción de grupos:
• Tratamiento digital de imágenes: distancias entre neuronas, binarización,
erosión y dilatación.
Home Page

Title Page

JJ II

J I

Page 4 of 11

Go Back

Full Screen

Close

• Método basado en agrupamiento jerárquico: unión de neuronas próximas


Quit
en el mapa + algoritmo de agrupamiento jerárquico de enlace completo.
3. Learning Vector Quantization
Arquitectura y funcionamiento: SOM
Tipo de aprendizaje: supervisado.
Esquema.

Algoritmo clásico ⇒ LVQ1: Mapas autoorganizativos.

Learning Vector . . .
1. Se inicializan prototipos.
Radial Basis Function
2. ∀ patrón de entrada se encuentra el prototipo más cercano:
(a) Si las clases del vector de entrada y del vencedor son iguales, se
acerca el vector ganador al de entrada:
Home Page
w? = w? + α(x − w? ) si clase(x) = clase(w? )
Title Page
(b) En caso contrario, se alejan:
w? = w? − α(x − w? ) si clase(x) = clase(w? ) JJ II

3. Existe un vector de pesos asociado a cada cluster. J I

4. Una vez entrenado puede funcionar como un clasificador. Page 5 of 11

5. Habitualmente α es inversamente proporcional al número de iteraciones, Go Back


pero existe una variante (Optimum LVQ1) en el que viene definida por
la siguiente expresión: Full Screen

αl (n − 1)
αl (n) = Close
1 + (−1)β αl (n − 1)
Quit
donde β = 0 si se clasifica correctamente el patrón y 1 en caso contrario.
Algoritmo LVQ2.1: Tiene en cuenta tanto el peso (pro-
totipo) vencedor como el 2o clasificado. La adaptación de estos
pesos depende de varios factores: Esquema.

• Los dos pesos corresponden a clases diferentes. Mapas autoorganizativos.

Learning Vector . . .
• El vector de entrada pertence a la misma clase que uno de
Radial Basis Function
ellos.
• El vector de entrada está en una ventana definida sobre el
punto medio de estos dos vectores: Home Page

 
d1 d2 1−ω Title Page

min , >
d2 d1 1+ω JJ II

siendo d1 y d2 las distancias de los dos vectores más próximos J I

al vector de entrada y ω la anchura de la ventana. Actuali- Page 6 of 11


zación de los pesos:
Go Back

wk = wk + α(x − wk ) Full Screen

wj = wj − α(x − wj )
Close

donde los pesos k y j son los más cercanos, y x ∈ Ck Quit


Algoritmo LVQ3: Se preocupa de donde acaban los pesos al
final del proceso de aprendizaje. Si los dos pesos más cercanos
representan a la misma clase, ambos se actualizan: Esquema.

wk = wk + βα(x − wk ) Mapas autoorganizativos.

Learning Vector . . .
donde β < 1. Los pesos no solamente respetan las fronteras de
Radial Basis Function
decisión sino también la distribución de los datos de entrada.

CONSEJOS PRÁCTICOS: Home Page

Title Page
• Utilizar OLVQ1 hasta la convergencia.
JJ II
• Realizar ajuste fino con LVQ1 o LVQ3.
J I
• No utilizar durante muchas iteraciones LVQ2.1.
Page 7 of 11

Go Back

Full Screen

Close

Quit
4. Radial Basis Function
Arquitectura: una capa de entrada, una capa de neuronas que realizan un
procesado no lineal de las entradas y una capa de salida.
Salida i-ésima: Esquema.

Mapas autoorganizativos.
N
X N
X
Learning Vector . . .
yi = fi (x) = wik φk (x, ck ) = wik φk (kx − ck k2 ) , i = 1, 2, . . . , m
Radial Basis Function
k=1 k=1

donde x ∈ <n×1 es el vector de entrada, φk (·) : <+ → <, wik los pesos de la
capa de salida, N el número de neuronas de la capa oculta y ck ∈ <n×1 los
centros RBF de los vectores de entrada. Home Page

Title Page

JJ II

J I

Page 8 of 11

Go Back

Full Screen

Close

Quit
Tı́picas funciones φ(·):
1. Función lineal: φ(x) = x
Esquema.
3
2. Aproximación cúbica: φ(x) = x Mapas autoorganizativos.

3. Función “thin-plate-spline”: φ(x) = x2 ln x Learning Vector . . .


 2 Radial Basis Function
4. Función Gaussiana: φ(x) = exp −x σ2

5. Función multicuadrática: φ(x) = x2 + σ 2 Home Page

6. Función multicuadrática inversa: φ(x) = √ 1 Title Page


x2 +σ 2

JJ II
En estas funciones x se refiere a kx − ck. En la capa oculta de
J I
la RBF, se calculan las distancias respecto a los centros (entrada
y centro asociado). Page 9 of 11

Go Back

Full Screen

Close

Quit
Aprendizaje de las RBF
• 1a fase: Cálculo de los centros y de los parámetros de la
función base de manera no supervisada (minimización de la Esquema.

dispersión inter-grupo). Mapas autoorganizativos.

• 2a fase: Cálculo de los pesos wik minimizando: Learning Vector . . .

" #2 Radial Basis Function


N
1 1 X
J(n) = |e(n)|2 = yd (n) − wk (n)φ {x(n), ck (n)}
2 2
k=1 Home Page

Si la RBF es gaussiana: Title Page


" N  2
# 2
1 X kx(n) − ck (n)k2 JJ II
J(n) = yd (n) − wk (n) exp −
2 σk2 (n) J I
k=1

Ecuaciones de actualización: Page 10 of 11

∂J(n) Go Back
w(n + 1) = w(n) − µw
∂w
Full Screen

Los parámetros calculados en la primera fase también se Close

pueden calcular por descenso de gradiente. Quit


RBF comparado con (MLP):
• Activación igual en hiperelipsoides (hiperplanos).
Esquema.
• Información localizada (distribuida). Mapas autoorganizativos.

• Estructura fija de dos capas diferenciadas (múltiples capas). Learning Vector . . .

Radial Basis Function


• Aprendizaje rápido (no lineal).
• Aprendizaje en dos etapas: supervisada y no supervisada
(una etapa supervisada). Home Page

Title Page

Consejos: JJ II

• Se debe usar RBF en sistemas adaptativos de aprendizaje J I

rápido, cuando haya fuertes no linealidades presentes o cuando Page 11 of 11

la función de distribución dé idea de la importancia de los


Go Back
datos.
Full Screen
• Se debe usar MLP cuando haya escasez de muestras o se
necesite extrapolación de datos. Close

Quit

Das könnte Ihnen auch gefallen