Beruflich Dokumente
Kultur Dokumente
De manera que en un instante k, la red calcula una Hay varias maneras de solucionar este problema
prediccin del vector de salida de esta forma: (Panchapakesan y Palaniswami, 2002; Peng et al,
2004; Zemouri et al, 2003). Una de las ms
& &
y n (k ) G ( s ( k ), I ) (8) interesantes es la ubicacin dinmica de los centros
de los nodos de la red RBF como se describe en
(Obradovic 1996).
La arquitectura neuronal se utiliza para copiar el
comportamiento dinmico del sistema que est
siendo identificado. Para esto el vector de entrada a la
&
red neuronal en el instante k, s ( k ) , consiste de las
seales de entrada al sistema y los valores retardados
&
tanto de la entrada como de la salida u ( k ) ,
& & &
u ( k 1) , ... , u ( k n) , y ( k 1) , ... ,
&
y ( k m) (memoria Tapped Delay) (Goodwin y
Sin, 1984; Widrow y Stearns, 1985).
&n
El vector de salida y ( k ) reemplaza la salida del
Figura 3. Esquema de Identificacin Paralelo
sistema cuando la red neuronal est ya entrenada.
Esto se muestra en las figuras 2 y 3 y se explica con La solucin que aqu se propone est basada en un
ms detalle en la seccin siguiente. ) es el vector de algoritmo que trabaja on-line. Se ubican
parmetros modificables de nuestro modelo neuronal. dinmicamente los nodos en el lugar donde son
En general ) est formado por los centros de los necesarios en el espacio de entrada. Los valores del
nodos ocultos, el ancho de la funcin gausiana de ancho Vj de las funciones de activacin son diferentes
cada nodo oculto y los pesos de la capa de salida. para cada nodo y se modifican (reducen) en las reas
I [cij ,V j , wij ] (9) en las que la identificacin del sistema es ms difcil
(error de prediccin alto).
Con el fin de identificar el sistema de forma
adecuada debemos encontrar el conjunto de Por lo tanto la estructura de la red se forma
dinmicamente y los nodos se ubican solamente all
parmetros )
que produce la mejor estimacin de la
donde se necesitan de forma que se cumplan las
respuesta del sistema para el subconjunto de valores
especificaciones de rendimiento requeridas,
de entrada-salida usado para la validacin. En la
manteniendo la estructura de la red lo ms pequea
literatura se encuentran algunos ejemplos de
posible.
utilizacin de redes de tipo RBF para la
identificacin de sistemas dinmicos (Sanner y
Slotine, 1991; Sjber et al, 1995). La mayora de
3. ALGORITMO DE
de ENTRENAMIENTO
ellos ubican a priori los centros de los nodos de la
capa oculta formando una malla que cubre el espacio
El algoritmo de entrenamiento que presentamos tiene
de entrada. Adems fijan un valor adecuado para el
la ventaja de poder ser utilizado on-line. Podra
ancho V que es el mismo para todos los nodos. De igualmente ser utilizado off-line, pero se
esta forma el vector de parmetros que debe ser desperdiciara una de sus principales virtudes.
optimizado mediante aprendizaje consiste solo en los
pesos asociados a la capa de salida )=[wij @. Se De los dos esquemas posibles de identificacin
consiguen buenos resultados utilizando este enfoque, descritos en (Narendra y Parthasarathy, 1989) y
pero existe un gran inconveniente: el nmero de representados en las figuras 2 y 3, hemos escogido el
nodos en la capa oculta crece de manera exponencial Serie-Paralelo para entrenar la red. Es decir, tenemos
al aumentar la dimensin del espacio de entrada. en cuenta los valores previos del sistema en lugar de
los valores estimados dados por la red neuronal.
Como hemos mencionado, en nuestra red neuronal Con amin fijado a priori, la densidad de los nodos en
los nodos se ubican dinmicamente donde se el espacio de entrada se controla con el ancho de la
necesitan. Cada vez que se recibe un vector de funcin de activacin Vj.
entrada se calcula el valor de activacin para cada
nodo Cuanto ms alto el valor de Vj, menor el nmero de
& &
s c j
2 nodos que se necesitan para cubrir el espacio de
entrada, pero tambin se tiene menos capacidad de
V 2j
a j ( s) e (11) almacenamiento de informacin en esa zona.
&
J V j h 2j if e ! 1 con A1=2.627771, A2=-2.333261, A3=0.697676,
& & B1=0.017203, B2=-0.030862, B3=0.014086.
'V j J e V j h j
2
if Eth e 1 (14)
&
0 if e Eth En este caso utilizamos un modelo neuronal con 4
entradas u(k), y(k-1), y(k-2), y(k-3), 1 salida, y(k), y
una capa oculta cuyo nmero de nodos se incrementa
Este procedimiento de actualizacin mantiene valores durante el aprendizaje. No se han utilizado todas las
pequeos de Vj en zonas donde el error es grande. entradas que se obtendran del conocimiento de la
Cuando el error de prediccin cae por debajo de un ecuacin en tiempo discreto (u(k-1), u(k-2) no se
umbral, Eth, que se escoge teniendo en cuenta la utilizan). Puesto que la ecuacin del sistema a
precisin requerida para el modelo (rango 0.1-0.3), identificar normalmente no es conocida quisimos
entonces Vj no se actualiza. J es un factor de observar el resultado cuando las entradas a la red no
decrecimiento en el intervalo [0,1@. Utilizamos encajan exactamente con la ecuacin discreta del
valores en el rango 0.1-0.4. Este valor no debe ser sistema.
demasiado alto. La velocidad de aprendizaje de los
nodos de salida (wij) debe ser mucho ms alta que la La red se entren on-line siguiendo el esquema serie-
velocidad de creacin de nuevos nodos para que se paralelo y utilizando como seal externa de entrada
mantenga la estabilidad de la estructura de la red una secuencia de pulsos de frecuencia y amplitud
(D>>J). aleatorias.
Cuando se crea un nodo, se le asigna un nuevo A fin de demostrar la habilidad de la red para
V nH 1 que es la media de la V de los nodos cercanos. adaptarse on-line a los cambios en la dinmica del
sistema los parmetros del mismo se modificaron una
vez que la red estaba entrenada. Los nuevos
nH
h
parmetros de la funcin de transferencia fueron
V nH 1 j V j (15)
2S
j 1 a=0.75, w , mientras que b, c y v
35
.
Al primer nodo se le asigna un valor V muy alto y permanecieron inalterados. Estos nuevos valores dan
paulatinamente se reduce. como resultado una sistema ms lento.
4. RESULTADOS EXPERIMENTALES
N
1
N
(y
i 1
i
s
yin ) 2
rRMS error (19)
N
1
N
y
i 1
s2
i
&
y s o Salida del Sistema
&
y n o Salida del modelo Neuronal
Figura 11. Evolucin de los errores Figura 14. Ciclo lmite generado por el sistema
R. Valverde, D. Gachet 39
Como hemos explicado anteriormente, nuestro Este sistema fue utilizado en (Narendra y
algoritmo ajusta el valor de V para cada nodo de Parthasarathy, 1989). El modelo neuronal tiene en
acuerdo a la dificultad de la zona del espacio de este caso cuatro entradas, dos salidas, y la capa
entrada donde es ubicado. oculta. La red fue entrenada on-line siguiendo el
esquema serie-paralelo. Las seales de entrada u1 y
En este caso podemos ver como existen ms nodos u2 fueron dos secuencias diferentes de pulsos de
con pequeo Vj en las zonas superior derecha e magnitud y frecuencia aleatorias. La Figura 17
inferior izquierda, donde los cambios son ms muestra la evolucin de los errores RMS y rRMS
bruscos (ms difcil). durante la fase de aprendizaje, mientras que la figura
18 presenta la evolucin en tamao de la capa oculta.
La Figura 16 muestra la respuesta temporal del
sistema y de la red neuronal en esas circunstancias.
Como se puede ver el modelo neuronal aproxima
bien la dinmica del sistema.
y1 ( k 1) 1 y 2 ( k ) u1 ( k )
2
u1 --u2
y ( k 1) y 2 ( k ) u2 ( k )
(21)
2 y
1 ( k )
1 y 22 ( k ) Figura 19. Seales de entrada para entrenamiento
40 Identificacin de Sistemas Dinmicos Utilizando Redes Neuronales RBF
iteraciones iteraciones
i i
salida del sistema --salida de la red
respuesta del sistema --respuesta de la red
Figura 20. Primera salida (y1) del tercer sistema de Figura 23. Primera salida (y1)
prueba
iteraciones
iteraciones
salida del sistema --nn salida de la red respuesta del sistema -- respuesta de la red
Figura 21. Segunda salida (y2) del tercer sistema de Figura 24. Segunda salida (y2)
prueba
R. Valverde, D. Gachet 41
5. CONCLUSIONES Y
y TRABAJO FUTURO
Goodwin G.C. y K.S. Sin (1984) Adaptive filtering
Estos primeros resultados obtenidos con nuestra red prediction and control. Prentice-Hall, Englewood
dinmica RBF son muy prometedores. El anlisis de Cliffs, NJ.
las grficas de error demuestra un buen
comportamiento general, con alta capacidad de Kuschewski G.J, S. Hui y S.H. Zak (1993).
aprendizaje de dinmicas complejas y adaptabilidad a Application of feedforward neural networks to
cambios en el sistema identificado. dynamical system identification and control.
IEEE Trans. Control Systems Technology 1(1),
La aplicacin de la arquitectura propuesta como 37-49.
identificador en un lazo de control avanzado
(esquema serie-paralelo) permite trabajar con Le Cun, Y. (1985) Une procedure daprentissage
sistemas que varen en el tiempo. Una gran ventaja pour reseau a sequil assymetrique. Proceedings of
sobre otros tipos de arquitecturas. Cognitiva 85, 599-604.
Hay que tener en cuenta que el artculo describe los Li, Y., N. Sundararajan, y P. Saratchandran (2000)
primeros pasos en la validacin de la nueva Analysis of Minimal Radial Basis Function
arquitectura. Los resultados obtenidos son buenos, Network Algorithm for Real-Time Identification
pero queda mucho trabajo por hacer. of Nonlinear Dynamic Systems. IEE Proc. on
Control Theory and Applications 147(4), 476-
Nuestro prximo paso en el desarrollo del esquema 484.
propuesto es un estudio de sensibilidad a los
parmetros de entrenamiento. En las pruebas Narendra, K.S. y K. Parthasarathy (1989).
realizadas hasta ahora se han utilizado valores de D, Backpropagation in dynamical systems
amin, Et, y J en los rangos citados anteriormente. Es containing neural networks. Technical Report
necesario saber de qu manera la seleccin de esos 8905, Centre for Systems Science, Department of
valores afecta a la capacidad de aprendizaje, Electrical Engineering, Yale University, New
velocidad de entrenamiento y adaptacin, estabilidad Haven, CT.
en la topologa de la red, e inmunidad al ruido.
Narendra K.S. y K. Parthasaraty (1990).
A partir de ese anlisis se decidir sobre la Identification and Control of Dynamical Systems
implementacin de mecanismos de seguridad que using Neural Networks. IEEE Transactions on
garanticen la estabilidad de la red y limiten su Neural Networks 1(1), 4-27.
tamao.
Obradovic, D. (1996). On-Line Training of Recurrent
Otro aspecto que necesita ms trabajo es la Neural Networks with Continuous Topology
utilizacin de la arquitectura con sistemas realmente Adaptation. IEEE Trans. on Neural Networks
desconocidos. En los ejemplos presentados el nmero 7(1), 222-228.
de entradas de la red neuronal se ha seleccionado a
partir del conocimiento del sistema a identificar, Panchapakesan, C., y M. Palaniswami (2002). Effects
aunque no siempre se ha utilizado exactamente of Moving the Centres in an RBF Network. IEEE
(primer ejemplo, sistema SISO). La cuestin a Transactions on Neural Networks 13(6), 1299-
abordar es cmo seleccionar el nmero de retardos de 1307.
las seales de entrada y salida a utilizar cuando no se
conoce el sistema a identificar. Parker, D. B. Learning logic (1985). En: Technical
Report TR-47, Massachusetts Institute of
Technology, Cambridge, MA.
REFERENCIAS
Peng, H. et al (2004) RBF-ARX model-based
Chen S., S.A. Billings y P.M. Grant (1990). nonlinear system modeling and predictive control
Nonlinear system identification using neural with application to a NOx decomposition process.
networks. International Journal of Control, vol. Control Engineering Practice 12 (2), 191-203.
51(6), 1191-1214.
Poggio T. y F. Girosi. (1989). A Theory of Networks
Chen, S. y S.A. Billings (1994). Neural Networks for for Approximation and Learning. En: A.I. Memo
Nonlinear Dynamic System Modelling and No. 1140. Artificial Intelligence Laboratory,
Identification. En: Advances in Intelligent Control M.I.T.
( C.J. Harris (ed.)) 85-112. Taylor & Francis,
London. Rumelhart, D.E., G.E. Hinton, y R.J. Williams
(1986). Learning internal representations by error
Chi S.R., R. Shoureshi y M. Tenorio (1990). Neural propagation. En: ., Parallel Distributed
networks for system identification. IEEE Control Processing: Explorations in the microstructure of
Systems Magazine 10, 31-34. cognition. D.E. Rumelhart and J.L. McClelland,
42 Identificacin de Sistemas Dinmicos Utilizando Redes Neuronales RBF