Sie sind auf Seite 1von 6

1

Overview of Redes de base radial, Redes


neuronales autoorganizadas : Mapas de
Kohonen y La Red de Hopfield (2009).

Roberto Carlos Guevara Calume Ingeniero Sistemas, Esp. Redes Corporativas integración de
tecnologías, Msc Automatización y control industrial

 matriz de varianzas y covarianzas relacionada a la función


Abstract— This paper reviews the antecedent, structure, Normal multivariada que se utiliza en estadística
learning rules and main applications of radial basis networks,
self-organizing neural networks: Maps of Kohonen and Hopfield
Network, also makes a parallel between Kohonen maps and
Hopfield Network to basic level..

Index Terms— radial basis networks, self-organizing neural


networks: Maps of Kohonen and Hopfield Network

I. FUNCIONES DE BASE RADIAL

U na función de base radial es una función cuya


característica principal es que su respuesta disminuye (o
aumenta) monótonamente con la distancia a un punto fijo Ilustración 1
llamado centro (o centroide). Éste centro, la métrica utilizada
y la forma precisa de la función son parámetros de ésta. Una propiedad de estas funciones es que forman una base para
el espacio de funciones, es decir, cualquier función puede ser
Es decir Funciones de Base Radial Son funciones cuya salida aproximada por medio de una combinación lineal de funciones
depende de la distancia a un punto denominado Centro[1]. de base radial (i.e.). Entonces, para un grupo de datos dado,
podemos intentar construir una combinación lineal de este tipo
Características que aproxime la función que generó estos datos.

 Simétricas respecto de x = 0 f ( x)   wi ·hi ( x)


(2)
 Se definen con al menos dos parámetros.

 El Centro: Punto donde la función posee un extremo. Para lograr esta aproximación de (2), realizaremos una
regresión, con la peculiaridad de que en lugar de usar como
 El Ancho: Magnitud de la variación de la función
base a los monomios de distintos grados, utilizaremos
según se aleja del centro.
funciones de base radial.
Su forma generalizada es:
A. Tipos de funciones de base radial.
 1 
h( x)  exp  ( x  c)T · 1·( x  c) (1) Básicamente se encontró que las funciones se pueden
 2  catalogar dentro de dos tipos que son:

De (1)  1 es la matriz de ―radios‖ de la función, ésta es la Redes de Funciones de Base Radial Simples:
2

Las redes de funciones de base radial simples tienen la Selección Fija de Centros, Pesos y Varianzas
arquitectura de un perceptrón de tres capas donde la capa
oculta tiene tantas neuronas como datos hay en nuestra
muestra (conjunto de entrenamiento). Las funciones de base
radial corresponderán a cada una de las neuronas de la capa Centros
escondida.

Debemos considerar dos casos:

 1 2 
hc ( x)  exp   2 x  c  (2)
  
1) Si se trata de una red simple FBR:

 El número de neuronas escondidas es el


mismo que el número de muestras que
tenemos en el conjunto de entrenamiento.
 Los Centros se fijan en los puntos de las
Ilustración 2
muestra.
2) Si se trata de una red generalizada FBR:
Redes de Funciones de Base Radial Generalizadas:  El número de neuronas escondidas m, se
escoge tal que sea menor que el número de
Las redes generalizadas son prácticamente idénticas a las muestras del conjunto de entrenamiento.
simples, con la diferencia de que se utilizan menos neuronas (Mientras más pequeña sea la m menor será
en la capa oculta, así, tenemos menos funciones de base radial la calidad de la aproximación).
y menos pesos, provocando con esto un aumento en la  Se toman, aleatoriamente, m puntos del
eficiencia de la red, pero disminuyendo su precisión. El conjunto de entrenamiento que
número de neuronas en la capa oculta dependerá del problema, corresponderán a los centros. (Esto
y se irá calculando intentando minimizar el error, así, existen considerando que los datos del conjunto de
distintos métodos para encontrar cuántas y cuáles funciones de entrenamiento están distribuidos en una
base radial serán suficientes para tener un error forma representativa del problema).
razonablemente pequeño[1]. Varianzas
La varianza de todas las funciones de base radial se fija en:

B. Aprendizaje de las Redes de Funciones de Base Radial


d max
En el aprendizaje se deben determinar:  (3)
2m
 los centros (diferente para cada gaussiana)
 la varianza (común entre las gaussianas) Esto garantiza que las funciones no sean demasiado chatas ni
 los pesos que van de la capa escondida a la capa de demasiadas puntas.
salida
Como una alternativa, se pueden utilizar varianzas específicas
Existen tres enfoques para el aprendizaje de las redes: para cada una de las gaussianas, con  mayor (una mayor
anchura) en regiones hay menor densidad de datos.
1)Selección Fija de Centros, Pesos y Varianzas.
2)Aprendizaje Auto-organizado de los Centros Pesos
3)Aprendizaje Supervisado Se calculan por la regla ya mencionada:

Los dos primeros suponen funciones gaussianas normalizadas: w = (H T H)−1 H T d (4)


donde c es el centro,  es la varianza (lo que regula la
anchura). C. Aprendizaje Auto-organizado de los Centros
El tercer caso, para más versatilidad considera el caso general
de las gaussianas La varianza y los pesos se calculan de la misma forma que en
la selección fija.
3

Se escoge un valor m para el número de neuronas escondidas. estimar m en base al conjunto de entrenamiento del que se
Los m centros se determinan por un algoritmo de ―clusters‖. dispone, y al problema particular. En general el tamaño de m
Lo que hace este algoritmo es colocar los centros en donde se óptimo para un tamaño N dado de conjunto de entrenamiento
encuentran los datos significantes del conjunto de es proporcional a N 1/3.
entrenamiento.
II. REDES NEURONALES AUTOORGANIZADAS : MAPAS DE
A grandes rasgos: KOHONEN
Podríamos referirnos a los mapas autoorganizados de
1.- Se inicializan los m centros al azar. _oñeen [2], como la técnica de clausterización más
2.- Se elige un punto del conjunto de entrenamiento con usada. Esta red se compone de dos capas de neuronas
cierta probabilidad. una lineal y otra matricial, figura 1, la primera de ellas
3.- Se determina qué centro es el que se encuentra más (capa de entrada), tiene tantas neuronas como dimisiones
cercano a este punto. tenga el espacio de entrada, y la segunda, que se ajusta
4.- El ganador se acercará al punto en cuestión en una después del entrenamiento a los patrones de entrada,
proporción (tasa de aprendizaje) a la distancia que hay tiene tantas neuronas como deseemos, tal que, la
entre ellos. adaptación sea total o por lo menos abarquemos la mayor
El resto de los centros permanecen igual. parte del espacio de entrada (cantidad de patrones de
5.- Se sigue este proceso hasta que no haya cambios entrenamiento). El proceso de entrenamiento de esta red
relevantes en los centros. es competitivo [1], pero no es preciso detallarlo en este
momento, en verdad es más importante revisar de que
D. Aprendizaje Supervisado manera puede resolver nuestro problema.

III. LA RED DE HOPFIELD


El primer paso es definir la función de error:
1 N 2
E  ej
2 j 1
IV. PARALELO MAPAS DE KOHONEN Y HOPFIELD

donde N es el tamaño del conjunto de entrenamiento, y ejes

Pesos
Pesos
Pesos E (n)
wi (n  1)  wi (n)  1 E (n)
wwi ((nn11))wwi ((nn))1 wEi ((nn))
1w ( n)
wi i (n)
i i
Centros
Centros
Centros E (n)
ci (n  1)  ci (n)   2 E (n)
cci ((nn11))cci ((nn))2 cEi ((nn))
2 c ( n)
ci i (n)
i i
Varianza
Varianza
Varianza E (n)
 i11 (n  1)   i11 (n)  3 E1(n)
i 1((nn11))i 1((nn))3 E i1
( n)
3  1( n)
 (n)
i i
i
i

la diferencia entre lo que produce la red con la j-esima muestra


y el valor deseado.
El resto del aprendizaje es tratar de minimizar esta función
usando el máximo descenso dado por el gradiente. A

Continuación se muestra un resumen de los cambios que hay


que hacer en cada iteración, hasta que el error caiga debajo de
cierta tolerancia.

Un punto importante a considerar es la elección del valor de


m. Se puede empezar con un número bajo de neuronas
escondidas e ir aumentando una a una hasta llegar al nivel de
precisión deseado. Existen otras técnicas estadísticas para
4
5

[12] R. W. Lucky, ―Automatic equalization for digital communication,‖ Bell


Syst. Tech. J., vol. 44, no. 4, pp. 547–588, Apr. 1965.
. [13] S. P. Bingulac, ―On the compatibility of adaptive controllers (Published
Conference Proceedings style),‖ in Proc. 4th Annu. Allerton Conf.
Circuits and Systems Theory, New York, 1994, pp. 8–16.
[14] G. R. Faulhaber, ―Design of service systems with priority reservation,‖
―preliminary‖ data or results. The submitting author is in Conf. Rec. 1995 IEEE Int. Conf. Communications, pp. 3–8.
responsible for obtaining agreement of all coauthors and any [15] W. D. Doyle, ―Magnetization reversal in films with biaxial anisotropy,‖
consent required from sponsors before submitting a paper. in 1987 Proc. INTERMAG Conf., pp. 2.2-1–2.2-6.
IEEE TRANSACTIONS and JOURNALS strongly discourage [16] G. W. Juette and L. E. Zeffanella, ―Radio noise currents n short sections
on bundle conductors (Presented Conference Paper style),‖ presented at
courtesy authorship. It is the obligation of the authors to cite the IEEE Summer power Meeting, Dallas, TX, Jun. 22–27, 1990, Paper
relevant prior work. 90 SM 690-0 PWRS.
[17] J. G. Kreifeldt, ―An analysis of surface-detected EMG as an amplitude-
modulated noise,‖ presented at the 1989 Int. Conf. Medicine and
Biological Engineering, Chicago, IL.
[18] J. Williams, ―Narrow-band analyzer (Thesis or Dissertation style),‖
V. CONCLUSION Ph.D. dissertation, Dept. Elect. Eng., Harvard Univ., Cambridge, MA,
1993.
A conclusion section is not required. Although a conclusion [19] N. Kawasaki, ―Parametric study of thermal and chemical nonequilibrium
may review the main points of the paper, do not replicate the nozzle flow,‖ M.S. thesis, Dept. Electron. Eng., Osaka Univ., Osaka,
abstract as the conclusion. A conclusion might elaborate on Japan, 1993.
[20] J. P. Wilkinson, ―Nonlinear resonant circuit devices (Patent style),‖ U.S.
the importance of the work or suggest applications and Patent 3 624 12, July 16, 1990.
extensions. [21] IEEE Criteria for Class IE Electric Systems (Standards style), IEEE
Standard 308, 1969.
[22] Letter Symbols for Quantities, ANSI Standard Y10.5-1968.
APPENDIX [23] R. E. Haskell and C. T. Case, ―Transient signal propagation in lossless
Appendixes, if needed, appear before the acknowledgment. isotropic plasmas (Report style),‖ USAF Cambridge Res. Lab.,
Cambridge, MA Rep. ARCRL-66-234 (II), 1994, vol. 2.
[24] E. E. Reber, R. L. Michell, and C. J. Carter, ―Oxygen absorption in the
ACKNOWLEDGMENT Earth’s atmosphere,‖ Aerospace Corp., Los Angeles, CA, Tech. Rep.
TR-0200 (420-46)-3, Nov. 1988.
The preferred spelling of the word ―acknowledgment‖ in [25] (Handbook style) Transmission Systems for Communications, 3rd ed.,
American English is without an ―e‖ after the ―g.‖ Use the Western Electric Co., Winston-Salem, NC, 1985, pp. 44–60.
singular heading even if you have many acknowledgments. [26] Motorola Semiconductor Data Manual, Motorola Semiconductor
Products Inc., Phoenix, AZ, 1989.
Avoid expressions such as ―One of us (S.B.A.) would like to [27] (Basic Book/Monograph Online Sources) J. K. Author. (year, month,
thank ... .‖ Instead, write ―F. A. Author thanks ... .‖ Sponsor day). Title (edition) [Type of medium]. Volume (issue). Available:
and financial support acknowledgments are placed in the http://www.(URL)
[28] J. Jones. (1991, May 10). Networks (2nd ed.) [Online]. Available:
unnumbered footnote on the first page, not here. http://www.atm.com
[29] (Journal Online Sources style) K. Author. (year, month). Title. Journal
REFERENCES [Type of medium]. Volume(issue), paging if given. Available:
http://www.(URL)
[1] Bonifacio M. del Brio., S. M. Alfredo ―Redes neuronales y sistemas [30] R. J. Vidmar. (1992, August). On the use of atmospheric plasmas as
difusos,‖ 2nd ed. vol. 1, RA-MA, Ed. Alfaomega, , pp. 152–158. electromagnetic reflectors. IEEE Trans. Plasma Sci. [Online]. 21(3). pp.
876–880. Available: http://www.halcyon.com/pub/journals/21ps03-
[2] W.-K. Chen, Linear Networks and Systems (Book style). Belmont, CA: vidmar
Wadsworth, 1993, pp. 123–135.
[3] H. Poor, An Introduction to Signal Detection and Estimation. New
York: Springer-Verlag, 1985, ch. 4.
[4] B. Smith, ―An approach to graphs of linear forms (Unpublished work
style),‖ unpublished.
[5] E. H. Miller, ―A note on reflector arrays (Periodical style—Accepted for First A. Author (M’76–SM’81–F’87) and the other authors may include
publication),‖ IEEE Trans. Antennas Propagat., to be published. biographies at the end of regular papers. Biographies are often not included in
[6] J. Wang, ―Fundamentals of erbium-doped fiber amplifiers arrays conference-related papers. This author became a Member (M) of IEEE in
(Periodical style—Submitted for publication),‖ IEEE J. Quantum 1976, a Senior Member (SM) in 1981, and a Fellow (F) in 1987. The first
Electron., submitted for publication. paragraph may contain a place and/or date of birth (list place, then date). Next,
[7] C. J. Kaufman, Rocky Mountain Research Lab., Boulder, CO, private the author’s educational background is listed. The degrees should be listed
communication, May 1995. with type of degree in what field, which institution, city, state, and country,
[8] Y. Yorozu, M. Hirano, K. Oka, and Y. Tagawa, ―Electron spectroscopy and year degree was earned. The author’s major field of study should be
studies on magneto-optical media and plastic substrate interfaces lower-cased.
(Translation Journals style),‖ IEEE Transl. J. Magn.Jpn., vol. 2, Aug. The second paragraph uses the pronoun of the person (he or she) and not
1987, pp. 740–741 [Dig. 9th Annu. Conf. Magnetics Japan, 1982, p. 301]. the author’s last name. It lists military and work experience, including
[9] M. Young, The Techincal Writers Handbook. Mill Valley, CA: summer and fellowship jobs. Job titles are capitalized. The current job must
University Science, 1989. have a location; previous positions may be listed without one. Information
[10] J. U. Duncombe, ―Infrared navigation—Part I: An assessment of concerning previous publications may be included. Try not to list more than
feasibility (Periodical style),‖ IEEE Trans. Electron Devices, vol. ED- three books or published articles. The format for listing publishers of a book
11, pp. 34–39, Jan. 1959. within the biography is: title of book (city, state: publisher name, year) similar
[11] S. Chen, B. Mulgrew, and P. M. Grant, ―A clustering technique for to a reference. Current and previous research interests end the paragraph.
digital communications channel equalization using radial basis function The third paragraph begins with the author’s title and last name (e.g., Dr.
networks,‖ IEEE Trans. Neural Networks, vol. 4, pp. 570–578, Jul. Smith, Prof. Jones, Mr. Kajor, Ms. Hunter). List any memberships in
1993. professional societies other than the IEEE. Finally, list any awards and work
6

for IEEE committees and publications. If a photograph is provided, the


biography will be indented around it. The photograph is placed at the top left
of the biography. Personal hobbies will be deleted from the biography.

Das könnte Ihnen auch gefallen