Beruflich Dokumente
Kultur Dokumente
Ttulo de la Tesis:
Doctor en Ciencias
En la Especialidad de Control Automtico
Directores de Tesis:
0.1. Notacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1. Introduccin 3
1.1. Motivacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2. Objetivo de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1. Objetivos particulares . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Estructura de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4. Publicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.1. Revista . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4.2. Congresos internacionales . . . . . . . . . . . . . . . . . . . . . . . . 11
5. Conclusiones 113
5.1. Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6. Apndices 119
6.1. A. Preliminares Matemticos . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
NDICE GENERAL iii
0.1. Notacin
Introduccin
Los sistemas actuales a controlar se han vuelto muy complejos, la mayora de ellos presen-
tan algn grado de no linealidad, pueden ser variantes e invariantes en el tiempo, presentan
incertidumbres en sus entradas y en su estructura. Las incertidumbres en su entrada son
causadas por la imprecisin al medir el valor de sus parmetros desconocimiento de los
mismos, mientras que las incertidumbres en su estructura se reeren a las dinmicas no
modeladas, como friccin no lineal, acoplamiento de engranes, ruido en los sensores, pertur-
baciones externas, etc., este tipo de fenmenos no pueden ser tratados por las tcnicas de
control clsico [18]. Las consideraciones sobre sensibilidad son importantes en el diseo de
sistemas de control, ya que todos los elementos fsicos tienen la propiedad de cambiar con el
ambiente y con el tiempo, no se pueden considerar los parmetros de un sistema de control
completamente estacionarios durante toda su vida de operacin, todos los sistemas fsicos
estn sujetos a seales externas ruido durante su funcionamiento. Una perturbacin es una
seal que tiende a afectar negativamente el comportamiento de la salida de un sistema. Si
la perturbacin se genera dentro del sistema se denomina interna, en tanto que una pertur-
bacin externa se produce fuera del sistema, es decir, es una seal de entrada. En general,
un buen sistema de control debe ser insensible a la variacin de los parmetros pero capaz
de responder a los comandos datos de entrada. El efecto de la retroalimentacin sobre el
ruido y la perturbacin depende en mayor medida en que parte del sistema se presentan las
4 Introduccin
seales externas, en la mayoria de las ocasiones la realimentacin puede reducir los efectos
del ruido y las perturbaciones en el desempeo del sistema.
Uno de los mtodos que ms interes a despertado en la teora de control de sistemas
no lineales que pueden resolver los problemas mencionados anteriormente es el control in-
teligente, el cul incorpora tcnicas como las redes neuronales articiales y los sistemas
difusos. Las redes neuronales articiales son un tipo especial de estructura matemtica las
cules se basan en el modelo biolgico de las neuronas del cerebro. Una red neuronal tiene la
propiedad de ajustar automticamente sus parmetros mediante una regla llamada algoritmo
de aprendizaje, generalmente este algoritmo se basa en la retropropagacin del error, as la
red puede aproximar una funcin no lineal con una gran exactitud. Esta notable caracters-
tica permite que la red sea utilizada para identicar y controlar procesos complejos que son
completamente parcialmente desconocidos, adems puede compensar incertidumbres en
las entradas del sistema. Una nueva topologa de red neuronal propuesta por James Albus
en 1976 llamada Cerebellar Model Articulatin Controller, cuya traduccin es: modelo del
cerebelo para el control de la articulacin CMAC por su acrnimo en ingls [1], [2]. El
modelo biolgico de la neurona se encuentra en el cerebelo, el cul se encarga de contro-
lar y coordinar todos los movimientos de las articulaciones en el ser humano, es capaz de
controlar millares de msculos para producir un movimiento coordinado. La red CMAC es
la representacin articial de este modelo y ha sido utilizado ampliamente para control de
sistemas en lazo cerrado de sistemas dinmicos complejos principalmente en aplicaciones en
tiempo real debido a su rpido proceso de aprendizaje, la red CMAC es una alternativa a
las clsicas redes como el perceptrn multicapa (Multi Layer Perceptron, MLP).
Otra herramienta del control inteligente son los sistemas difusos, los cules tienen la par-
ticularidad de agregar conocimiento apriori y la experiencia de un experto acerca del sistema
y de la estrategia de control. Una limitacin importante que presentan los controladores
difusos convencionales es que el nmero de reglas se incrementa exponencialmente al incre-
mentarse el nmero de variables involucradas, por lo que se generan reglas redundantes y el
diseo se complica, a esta limitante se le conoce como .el problema de la dimensionalidad ",
de tal forma que con n variables de entradas y m funciones de pertenencia para cada variable,
5
se necesitan mn reglas para construir la base de reglas del sistema difuso completo. Cuando
las variables de entrada n se incrementan, la base de reglas aumenta rpidamente, esto hace
que el controlador difuso sea difcil de implementar ya que el espacio de memoria requerido
crece exponencialmente. Uno de los mtodos desarrollados para resolver este problema fue
propuesto por Raju, Zhou and Kisner [24], que consiste en disear una estructura jerrquica
con un nmero de sistemas de baja dimensionalidad conectados en niveles jerrquicos como
se observa en la gura 1.1. La estructura jerrquica tiene la propiedad de que el nmero
total de reglas para los sistemas difusos se incrementa linealmente con respecto al nmero
de variables de entrada. Por ejemplo si se denen m conjuntos difusos para cada variable
de entrada, cada subsistema difuso requiere solo de m2 reglas y el nmero total de reglas es
(n 1)m2 , el cul tiene un crecimiento lineal con respecto al nmero de variables de entrada
n, esto representa una gran ventaja con respecto a los sistemas difusos convencionales.
s
1 y
1
s
2 Sistema 1
y( )s
s
3 Sistema 3
y
2
s
4
Sistema 2
1.1. Motivacin
Las redes neuronales articiales presentan la propiedad de ajustar sus pesos para ten-
er un comportamiento similar a un sistema no lineal desconocido a ser aproximado, esta
caracterstica es utilizada para identicar y controlar procesos complejos y compensar las in-
certidumbres presentes en las entradas del sistema, esta herramienta matemtica puede ser
combinada con otra tcnica de control inteligente que son los sistemas difusos que agregan
conocimiento humano y experiencia apriori acerca del comportamiento del sistema y de la
estrategia de control, dadas por un experto en forma de reglas de inferencia con estructura si
antecedente entonces consecuente, el objetivo de combinar ambas tcnicas es aprovechar las
ventajas que presenta cada uno de ellos. Algunos de los casos en donde es necesario utilizar
sistemas neuro-difusos ya sea para la identicacin o control de sistemas no lineales son los
siguientes:
Cuando se desea identicar y controlar plantas cuyos parmetros presentan algn grado
de imprecisin e incertidumbre, en donde se desconoce parcial o completemente el
modelo matemtico del sistema por ser demasiado complejo.
la red FCMAC sea fcil de realizar principalmente en aplicaciones de tiempo real, adems
que el ajuste de los peso slo se realiza en algunas neuronas activadas por las entradas, esto
ocasiona que el algoritmo de aprendizaje para la actualizacin de los pesos de la red sea
mucho mas rpido.
error.
El captulo cuatro estudia la capacidad de las redes neuronales CMAC para controlar
sistemas, en este captulo se trabaja con sistemas en tiempo continuo. Se desarrolla un control
adaptable indirecto mediante la estructura de la red jerrquica FCMAC, se realiza el anlisis
de estabilidad mediante el segundo mtodo de Lyapunov para demostrar la convergencia de
los pesos en el algoritmo de aprendizaje de la red.
El captulo cinco presenta las conclusiones del trabajo y se propone el estudio de otros
tpicos de inters relacionados con los sistemas neuro-difusos CMAC. En este capitulo se
mencionan las diferentes aplicaciones de la red CMAC, principalmente en sistemas electro-
mecnicos subactuados y aplicaciones en tiempo real.
1.4. Publicaciones
1.4.1. Revista
1. Wen Yu, Marco A. Moreno-Armendariz, Floriberto Ortiz Rodriguez, System identica-
tion using hierarchical fuzzy neural networks with stable learning algorithm, Journal
of Intelligent & Fuzzy Systems, Vol.18, No.2, 171-183, 2007.
3. Floriberto Ortiz, Wen Yu, Marco Moreno-Armendariz, Xiaoou Li, Recurrent Fuzzy
CMAC for Nonlinear System Modeling, Advances in Neural Networks -ISNN 2007,
Srpinger-Verlgag, Lecture Notes in Computer Science, LNCS 4491, 487-495, 2007.
El cerebro contiene muchos subsistemas especializados para realizar diferentes tareas que
el cuerpo humano le exiga, las interacciones entre estos sistemas determinan su compor-
tamiento, un esquema general de la anatomia del cerebro se muestra en la gura 2.1.
La gura 2.2 muestra las principales estructuras involucradas en el control motriz del
cuerpo y sus conexiones internas, el sistema motriz funciona de una manera jerrquica,
los niveles ms altos de la jerrquia transmiten seales a los niveles bajos que procesan la
informacin captada por los sensores y transmiten dicha informacion sobre su estado a los
niveles altos.
La espina dorsal es la principal interfaz entre el cerebro y el resto del cuerpo, contiene mu-
chos grupos de nervios sensoriales, motores (de ejecucin) y muchos subsistemas neuronales
que proporcionan los diferentes reejos del cuerpo.
La base del cerebro esta compuesta de mdula y la parte media del cerebro, contiene
distintos grupos de neuronas especializadas para realizar diferentes tareas como pueden ser:
mantenerse erguido, control del balance y transformacin de la informacin sensorial, etc.
14 Red neuronal FCMAC
La corteza cerebral, es un conjunto de neuronas nas que cubren al cerebro, el cul pre-
senta dos hemisferios: izquierdo y derecho, la corteza cerebral realiza funciones perceptivas,
cognoscitivas, y las de ms alto nivel motriz, as como la emocin y la memoria. Las respues-
tas de complejas comportamientos se originan aqu. Tiene muchas reas que se especializan
en diversas funciones cognoscitivas, tales como la visin, lengua, y planeamiento [32].
2.1 Sistema biolgico del cerebro 15
Base del
Cerebelo
Cerebro
Espina
Dorsal
Nivel Comandos de Sensores
bajo movimiento
Musculos
Una neurona biolgica es una clula especializada que se encarga de transmitir informa-
cin a otras clulas neuronas a partir de seales electro-qumicas, como se observa en la
gura 2.3, las seales elctricas se presentan como diferencias de voltajes que atraviesan la
membrana celular. Las neuronas presentan muchas ramicaciones que le permiten conectarse
a otras neuronas, las cules se conocen con el nombre de dendritas, las dendritas (entradas)
obtienen informacin de neuronas vecinas mientras que los axones transmiten (salidas) dicha
informacin. Para distancias cortas entre neuronas la informacin es intercambiada a travs
de voltaje esttico, para distancias grandes las seales son transmitidas a travs de las den-
dritas y los axnes como una cadena de pulsos de voltaje, la informacin es codicada en
una taza de pulso o de disparo.
Cada pulso transmitido a una neurona es integrado al cuerpo de la clula hasta alcanzar
un umbral, con lo cual la neurona emite su propio pulso y la integracin se reinicializa. La
interfaz entre cualesquiera dos neuronas se conoce como sinapsis, la cul se realiza entre
un axn y una dendrita. La terminal del axn puede ser excitada o inhibida dependiendo
del umbral, lo que signica que la sinapsis modula el pulso entrante de modo que tenga un
16 Red neuronal FCMAC
mayor o menor efecto de integracin sobre la neurona nal, este incremento o decremento es
la taza de disparo.
Existen diferentes tipos de neuronas en el cerebro que presentan distintas formas y
tamaos, por ejemplo las clulas granulares que estn presentes en la corteza del cerebro
son pequeas con forma de estrella y solamente presentan en promedio cuatro dendritas
(entradas), en contraste con las clulas Purkinje que son mucho ms grandes, tienen una
estructura en forma de arbol con muchas ramicaciones y pueden llegar a presentar cerca de
200,000 dendritas, como se observan en las guras 2.4 y 2.5.
2.1.3. Aprendizaje
El aprendizaje se puede entender como un proceso neuronal en el cul se realiza una
interpretacin interna del mundo externo, las diferentes estructuras del cerebro presentan
diferentes comportamientos de aprendizaje utilizando varios mecanismos, en muchos casos
el aprendizaje se da en los niveles de las neuronas individuales al ajustar su sinapsis
alteraciones en su dinmica en respuesta a diferentes seales de entrada.
2.1 Sistema biolgico del cerebro 17
B C
del encfalo. Recibe continuamente informacin actual de las partes perifricas del cuerpo,
para determinar el estado instantneo de cada uno de sus reas - su posicin, su ritmo de
movimiento, las fuerzas que actan sobre l, etc. El cerebelo compara el estado fsico actual
de cada parte del cuerpo segn indica la informacin sensorial, con el estado que intenta
producir el sistema motor. Si los dos no se comparan favorablemente, de manera instantnea
se trasmiten seales correctoras adecuadas hacia el sistema motriz, para aumentar o disminuir
la actividad de msculos especcos. Los impulsos motores del cerebelo son transmitidos hacia
los centros motores del cerebro y de la mdula con destino a los msculos.
La corteza del cerebelo presenta tres capas de neuronas como se observa en la gura 2.8,
las cules presentan diferentes tipos de clulas como son: clulas grnulosas, clulas purkin-
je, capa molecular, materia blanca (slo axones). La corteza motora transmite seales a la
periferia para causar una funcin motriz, pero al mismo tiempo transmite esta informacin
al cerebelo, entonces el cerebelo compara las "intenciones"de la corteza con la .actuacin"de
las partes corporales, en caso que sta no corresponda con aqullas, calcula el .error.entre
20 Red neuronal FCMAC
ambas para poder llevar a cabo las correcciones apropiadas de inmediato. Un efecto secun-
dario del mecanismo del cerebelo de retroalimentacin es su capacidad de .amortiguar"los
movimientos musculares. Para explicar el trmino .amortiguador", debemos sealar primero
que prcticamente todos los movimientos del cuerpo "son pendulares". Debido a la inercia,
todos los movimientos pendulares tienen tendencia a pasar a su estado inicial, si el cerebelo
est intacto, seales subconscientes apropiadas detienen el movimiento exactamente en el
sitio requerido, evitando as que se pase de l y suprimiendo el temblor de amortiguacin
esta es la caracterstica bsica de un sistema de amortiguamiento [31].
encuentran: sistemas adaptables, difusos, genticos y todos aquellos que tratan de modelar
el conocimiento y el aprendizaje. La calicacin de inteligentes se debe a que los sistemas
mencionados anteriormente tienen la capacidad de adaptarse a su medio aprender de l
de forma autnoma. Las redes neuronales articiales pueden denirse como un arreglo de
elementos bsicos de procesamiento con capacidad de entrenamiento. Este entrenamiento
consiste en el ajuste de algunos parmetros con el n de que la red asimile, con algn grado
de precisin, la relacin causa-efecto deseada entre las variables de entrada y de salida de la
red neuronal. Las redes neuronales articiales se han utilizado principalmente en dos grandes
reas:
Aproximacin de funciones
En el campo del control automtico, las redes neuronales articiales se utilizan princi-
palmente como modelos para la identicacin y el control de sistemas. La identicacin de
sistemas consiste en ajustar los parmetros de un modelo propuesto, de tal forma que su
comportamiento se aproxime al sistema o planta a ser estudiado. La tarea de la identicacin
de sistemas es obtener modelos matemticos que reproduzcan la relacin entre las variables
que intervienen en el sistema estudiado, las redes neuronales articiales tienen una aplicacin
directa en el campo de identicacin de sistemas debido a su capacidad de generalizacin a
partir de la relacin entrada-salida del sistema. La generalizacin de la red neuronal se efec-
ta aplicando un conjunto de entradas diferentes a las usadas en la etapa de aprendizaje y
se observa su respuesta, esperando que reproduzca con cierto grado de precisin la respuesta
del sistema identicado. Por otro lado, el problema de control busca disear un sistema que
genere la seal de entrada a la planta necesaria para modicar su comportamiento con el n
de que se comporte de la forma deseada.
Dos tipos de redes neuronales han recibido mucha atencin en trabajos recientes: Las redes
neuronales multicapa y las redes neuronales recurrentes. Las redes multicapa han resultado
una herramienta muy poderosa en problemas de reconocimiento de patrones (sistemas estti-
cos), mientras que las redes recurrentes han sido utilizadas para la identicacin y control de
22 Red neuronal FCMAC
Un conjunto de sinapsis, que son las entradas de la neurona ponderadas por un peso.
Se identica al peso que conecta la entrada sj de la neurona i por el smbolo wij . Se
incluye un peso independiente wi0 mejor conocido como bias, donde se considera una
entrada constante para la neurona i.
Compensacin
Pesos
wi1 wi 0
s1
yi
wi 2
s2 ()
M M
sn win Funcin de
activacin
donde s = [ 1; s1 ; s2 ; :::; sn ]T ; wi = [wi0 ; wi1 ; :::; win ]T . La neurona articial descrita anteri-
ormente est formado por un grupo de constantes que ponderan la entrada a un sumador y
la salida es acotada por la funcin de activacin. Las funciones de activacin ms utilizadas
estn denidas por las siguientes expresiones:
a) Escaln:
( b) Si gmoide
1, si s 0 1
'( ) = (s) = ' ( ) = sigm (s) = 1+e s
0, si s < 0
d) Saturacin
8 (2.3)
c) Tangente >
>
< 1, si s < 1
1 e 2s
' ( ) = tanh (s) = 2s ' ( ) = sat (s) = x, si jsj 1
1+e >
>
: 1, si s > 1
Una propiedad de las funciones sigmoide y tangente hiperblica es que su derivada existe
y es una funcin continua. Esto es necesario ya que en el algoritmo de aprendizaje el clculo
del gradiente local para cada neurona del perceptrn multicapa requiere del conocimiento
de la derivada de la funcin de activacin ' ( ) asociada con la neurona en cuestin. Para
que esa derivada exista es necesario que ' ( ) sea diferenciable. Las funcines de activacin
24 Red neuronal FCMAC
s
1
y
1
s
1
y
1
M M M M
s
n s
n
y
i y
i
s
1 y
1
M M
s
n
y
i
Malla
Paralelismo
Algoritmo de aprendizaje
2.2 Redes neuronales articiales 25
Tolerancia a fallas
Otra clasicacin que presentan las redes neuronales se base en la manera en que la
informacin se transmite en la red. Se dividen en dos grupos: redes con conexiones hacia
adelante (estticas) y redes con conexiones hacia atrs recurrentes (dinmicas).
Redes Neuronales
Estticas Dinmicas
Perceptron Redes de
mlticapa Kohonen
entrada al espacio de salida de las variables involucradas. Una red neuronal con conexiones
hacia adelante con una capa oculta no lineal y una capa de salida lineal puede aproximar
cualquier funcin con el grado de precisin que se desee, como se demostr en: [14], [18], [17].
Estas redes neuronales estn construidas por neuronas organizadas en capas. Cada nivel
intermedio de la red tiene como entrada a todas a un conjunto de las salidas de la capa
anterior. Un ejemplo de una red neuronal con mltiples capas se presenta en la gura 2.10.
La primer capa es la entrada a la red, su funcin es la distribuir las entradas de la red en
la primer capa oculta, la capa dos est localizada entre la primer capa y la ltima capa, se
denomina capa oculta, la ltima capa genera las salidas de la red neuronal. El ujo de la
informacin se transmite en un slo sentido, de manera que una red neuronal mlticapa es
un mapeo no lineal del espacio de entrada s, al espacio de salida y, es decir: s ! y.
La capa oculta de neuronas que proveen una transformacin no lineal activada por las
funciones de base radial.
La construccin de una red RBF requiere de una mayor cantidad de neuronas en los
nodos ocultos que en las redes MLP. Aunque las redes RBF no son comnmente utilizadas
en aplicaciones que impliquen un alto volumen de patrones de entrenamiento, se le reconoce
como una red con una alta eciencia en la fase de entrenamiento. El entrenamiento a difer-
encia de la red MLP usando el algoritmo de aprendizaje de retro-propagacin, es solamente
hacia adelante, de este modo la salida de una red RBF en general, est inuenciada por una
transformacin no lineal originada en la capa oculta a travs de la funcin de base radial y
una lineal en la capa de salida a travs de la funcin lineal contina.
En la gura 2.12 se presenta una red RBF, donde si , son las entradas a la red i = 1; 2; :::; n;
la salida est dada por y = w (s) ; en donde las i son las funciones de base radial, para
este caso son funciones gaussianas. Si la red neuronal presenta v neuronas en la capa oculta,
entonces la salida de la red neuronal de base radial se expresa de la forma:
X
v
y= wi i (s) (2.4)
i=1
28 Red neuronal FCMAC
1 (s )
s1
w1
2 (s )
w2 y
s2
M M wn
sn
n (s )
En general una red RBF tiene un mejor desempeo con un mayor volumen de datos de
entrenamiento que su contraparte la red MLP, presentan una arquitectura simplicada con
una capa oculta, su entrenamiento es rpido y se puede realizar una combinacin de diferentes
paradigmas de aprendizaje.
Las principales aplicaciones de las redes neuronales estticas son aquellas en donde es
necesario construir una relacin entre la entrada y la salida, como por ejemplo:
f :d!c (2.5)
C = fd 2 D j f : d ! cg
2.2 Redes neuronales articiales 29
Hay problemas que necesitan de un sistema que tenga una respuesta dependiente de
su estado anterior, por lo que requieren de una estructura que tenga una dinmica interna
propia. Si la respuesta de una red neuronal depende de su pasado, se dice que es una red
neuronal dinmica. Algunas de las tareas para este tipo de redes son: La prediccin de series,
la identicacin y el control de sistemas dinmicos.
La gura 2.13 muestra las diferentes arquitecturas de las redes dinmicas. Las guras (a)
y (b) muestran redes con recurrencia local, la primera una recurrencia en la misma capa y
la segunda muestra una recurrencia entre las capas ocultas. Las guras (c) y (d) muestran
una recurrencia global, donde la retroalimentacin va de la salida de la red a la entrada y en
el segundo caso la retroalimentacin solo llega a la segunda capa de la red. En el desarrollo
de este trabajo de tesis, las arquitecturas (a) y (c) fueron empleadas.
30 Red neuronal FCMAC
s
1 s
1
y
1 y
1
M M
s
n s
n
a) b)
s
1
s
1
y
1 y
1
M
M
s
n
s
n
c) d)
El aprendizaje en el contexto de las redes neuronales es un proceso por el cul los pesos
de la red neuronal son adaptados a travs de un proceso de entrenamiento con datos del
ambiente en el cul la red se desea utilizar, el tipo de aprendizaje est determinado por
la regla que se emplea para ajustar el valor de los pesos. Esta denicin del proceso de
aprendizaje implica la siguiente secuencia de pasos:
2. Las redes neuronales sufren cambios en sus pesos como resultado de esta estimulacin.
3. Las redes neuronales responden de una nueva forma al ambiente por que los cambios
han ocurrido en su estructura interna.
2.2 Redes neuronales articiales 31
La seal de salida de la neurona i es denotada por yi (k), esta seal de salida representa
solamente la salida de la red neuronal, la cul es comparada con la respuesta deseada,
denotada por di (k), consecuentemente se produce una seal de error denotada por ei (k), de
esta denicin se tiene:
1
(k) = e2i (k) (2.7)
2
Esto es, (k) es el valor instantneo del error, el ajuste paso a paso de los pesos sinp-
ticos de la neurona i son continuos hasta que el sistema alcance el estado estacionario (i.e.,
cuando los pesos no cambien), en este punto el proceso de aprendizaje trmina. El proceso
de aprendizaje descrito anteriormente se reere obviamente al aprendizaje por correccin del
error, en particular la minimizacin de la funcin de costo (k) nos lleva a que la regla de
aprendizaje comnmente llamada la regla delta regla W idrow Hof f .
Sea wi;j (k) denota el valor del peso sinptico wi;j de la neurona i excitada por el elemento
sj (k) por un vector de seales de entrada s (k) en el tiempo k. De acuerdo a la regla delta,
el ajuste wi;j (k) aplicado a los pesos sinpticos wi;j en el tiempo k est denido como:
32 Red neuronal FCMAC
Donde es una constante positiva que determina la tasa de aprendizaje de un paso del
proceso de aprendizaje al siguiente. Nos referiremos a como el parmetro de la tasa de
aprendizaje. Se asume que la seal de error se puede medir.
()is n ()iy n ()id n
Red neuronal
artif icial - +
()ie n
Regla de
Aprendizaje
De la gura (2.14) se observa que el aprendizaje por correccin del error es de natu-
raleza local, esto es, que los justes de los pesos sinpticos realizados por la regla delta estn
localizadas alrededor de la neurona i. Al calcular el ajuste sinptico wi;j (k) ; los valores
actualizados de los pesos sinpticos wi;j estn determinados por:
wi;j (k) y wi;j (k) pueden ser vistos como el anterior y el nuevo valor de los pesos
sinpticos wi;j :
los conjuntos difusos [19], Un conjunto difuso A en S, est caracterizada por una funcin
de pertenencia A (s) ; el cul asocia un nmero real con cada elemento en S en el intervalo
[0; 1] ; con el valor de A (s) se representa el grado de pertenencia de s en A. Esto es, el
conjunto difuso A sobre el universo S se dene como:
A = f(s; A (s)) j s 2 Sg
Base de
reglas
Inferencia
Fuzzyficacin Defuzzyficacin
difusa
SI s es A, EN T ON CES y es B (2.9)
Donde A y B son los valores lingsticos de entrada y salida denidos por los conjuntos
difusos sobre el universo S y Y respectivamente. La parte SI s es A, es llamada la parte
antecedente de la regla, la parte EN T ON CES y es B, es llamada la parte consecuente. La
regla puede ser representada como una relacin de implicacin como:
R:A!B
SI s1 es A y s2 es B, EN T ON CES y es C (2.10)
SI s1 es A y s2 es B, EN T ON CES y = ps + qy + r (2.12)
2.4 Red neuronal CMAC 35
Los modelos difusos pueden ser desarrollados empleando el mtodo directo, donde se extrae
directamente el conocimiento del experto y es expresado en la forma de reglas lgicas.
Red
CMAC
FCMAC
HFCMAC RFCMAC
L2 Hipercubos h
activados
4
d
l 3
h
c
W W
s
2 k
2
g W
y(s)
b
Elementos de
asociacin j
an 1
f
a L3
i
e
0 r
s
Resolucin
L1 0 1 2 3 4
A B C D
1
E F G H Hipercubos s1
2
Asociados a
I J K L
s
1
3
Elementos de an
asociacin
1
A B
2
C D
3
E F
s=
12.35
s
2
1
A B
s=
12.35
Un ejemplo de la red CMAC con dos entradas-una salida se observa en la gura 2.18.
En la capa L1 se encuentran las variables de entrada s1 = 2;35 y s2 = 2;36;. Los elementos
de resolucin son rs = 3, el rango de valores permitidos es de 0 a 3 por cada entrada si ,
2.4 Red neuronal CMAC 39
2
C D
s=
12.35
Como se observa en la gura 2.19, los primeros elementos de asociacin que corresponden
a la direccin (2; 2) son las localidades: (0; 0) ; (0; 1) ; (0; 2) ; (1; 0) ; (1; 1) ; (1; 2) ; (2; 1) ; (2; 2) :
Todos estos elementos de memoria forman el primer hipercubo h1 .
s
2
3
E F
s=
12.35
1
A B 2
C D 3
E F
s=
12.35
Por ltimo, el hipercubo h3 consta de los elementos de memoria: (2; 2) ; (2; 3) ; (3; 2) ; (3; 3),
como se muestra en la gura 2.21. El total de elementos de memoria activados que se muestran
en la gura 2.22, son (0; 0) ; (0; 1) ; (0; 2) ; (1; 0) ; (1; 1) ; (1; 2) ; (2; 1) ; (2; 2) ; (2; 3) ; (3; 1) ; (3; 2) ; (3; 3) :
Al nmero total de combinaciones de memoria tambin se puede realizar mediante todas
las combinaciones de hipercubos como se muestra en la gura 2.23, a todos los hipercubos
activados por las entradas se les asigna el valor de uno, a las bloques de asociacin no activa-
dos se les asigna el valor de cero, los hipercubos activados estn compuestos de elementos de
memoria neuronas, estos sern los nicos que podrn actualizar sus pesos mediante algn
algoritmo de aprendizaje. El total de hipercubos combinaciones que se pueden formar son:
[Aa; Ab; Ba; Bb; Cc; Cd; Dc; Dd; Ee; Ef; F e; F f ] (2.13)
La tercera capa de la red, presenta la sumatoria de todos los pesos de las neuronas
activadas en la capa L2, del total de neuronas presentes en la red, solo una pequea cantidad
2.4 Red neuronal CMAC 41
0,0
0,1 0,0
0,2 0,1 0,0
0,3 0,2 0,1
Aa
1,0 0,3 0,2
Ab
1,1 1,0 0,3
Ba
1,2 1,1 1,0 Salida
s=
12.35
Bb
1,3 1,2 1,1
s=
22.36
Cc
Cd
2,0 1,3 1,2 + y
2,1 2,0 1,3
Dc
2,2 2,1 2,0
Dd
2,3 2,2 2,1
Ee
3,0 2,3 2,2 Ajuste de pesos
Vector de Ef
3,1 3,0 2,3 Para las memorias
entrada
Fe activas
3,2 3,1 3,0
Ff
3,3 3,2 3,1
Hipercubos h
1 h
2 3,3 h
3 3,2 y
*
3,3
Salida
deseada
Memoria
de ellas son utilizadas. La salida de la red CMAC como se observa en la gura 2.23, es el
valor numrico contenido en cada direccin de memoria fsica activada por los hipercubos,
son sumadas para seleccionar un nico conjunto de pesos, estos denen el valor de la funcin
de control almacenada en esa direccin y se encuentra dada por:
2 3
w (Aa) + w (Ab) + w (Ba) + w (Bb) +
6 7
y = 6
4 w (Cc) + w (Cd) + w (Dc) + w (Dd) + 7
5 (2.14)
w (Ee) + w (Ef ) + w (F e) + w (F f )
y = [w (Aa) + w (Dd) + w (F f )]
Nh
X
yi = ai w = aij wj
j=1
i 7
f
c 6 Estado (3,3)
h 5 Ee
e 4 Bb
b 3 Gg
g 2
d
a 1
1 2 3 4 5 6 7 s1
A B C Nivel 1
D E F Nivel 2
G H I Nivel 3
La red CMAC generalizada est compuesta por cinco capas, la propagacin de los datos
de entrada y las funciones bsicas en cada etapa se explican a continuacin:
cada bloque hb est en funcin de los campos receptivos, que es la diferencia principal
con la red CMAC original, para una red neuronal CMAC generalizada los campos
receptivos pueden ser generalmente funciones triangulares gaussianas. En este trabajo
se utiliza la funcin gaussiana representada como:
" #
(si cij )2
Aij (si ) = exp 2
; j = 1; :::; nA (2.15)
ij
Donde Aij (si ) representa la funcion gaussiana asociadas a cada campo receptivo j: El
superndice i representa la i esima entrada si , con el promedio cij y la varianza ij
3. Espacio del campo receptivo T : Las reas formadas por los bloques como en el vector
(2.13), son llamados campos receptivos asociados a una funcin gaussiana, el nmero de
campos receptivos es igual a nb (bloque de asociacin). Cada localidad de A corresponde
a un campo receptivo. El campo receptivo multidimensional se dene como:
Y
n
bj (s; cj ; vj ) = Aij (si ) (2.16)
i=1
" #
X
n
(si cij )2
= exp 2
; j = 1; :::; nr
i=1 ij
Donde bj est asociado con el j esimo campo receptivo, cj = [c1j ; c2j ; :::; cnj ]T 2 Rn y
T
vj = [ 1j ; 2j ; :::; nj ] 2 Rn : i = 1; ; n: El campo receptivo multidimensional puede
ser representado en una notacin vectorial como:
donde wo = [w1o ; w2o ; :::; wjo ; :::; wnr o ]T 2 Rnr ; wjo denota el valor de los pesos de la
o esima salida asociada con el j esimo campo receptivo. Los pesos de wko son
inicializadoas en cero y se ajustan automticamente durante la operacin en lnea.
1. La capa L1 est dada por s = [s1 ; s2 ; :::; sn ]T 2 Rn ; la cual transere las entradas de la
red a la siguiente capa dada por la variable mfi = si ; i = 1; :::n; donde n es el nmero
de las variables de entrada.
L1 L2 L3 L4 L5
SI Entonces
N1
Z1 Espacio
s1 de salida
P1 y (x )
M N2
Z2 M M
sn
P2
M M
SI Entonces
p = p Aij (2.18)
i=1
Q
2
Donde: v1 = Aij (si ) ; la ecuacin anterior puede ser escrita en forma compacta como:
i=1
OR en todos los vectores de asociacin de la red CMAC. Por ejemplo si [s1 ; s2 ] est en el
caso (P; P ) existen nueve elementos en la regin y al realizar la operacin OR sobre los
correspondientes nueve vectores de asociacin se obtiene a1 = [1; 1; 1; 1; 0; 0; 0; 1; 1; 1; 1; 1].
N P
-2 0 2 s1
s2
s2
4
(-4,4) (-2,4) (2,4) (4,4)
b
2
f
2
(-4,2) (-2,2) (2,2) (4,2)
d
0
(-4,-2) (-2,-2) (2,-2) (4,-2) s1
a
-2
e
-2
(-4,-4) (-2,-4) (2,-4) (4,-4)
c
N
-4
-4 -2 2 4
A B
C D
E F
R1 : SI s1 = P y s2 = P; EN T ON CES y = wT '1
R2 : SI s1 = P y s2 = N; EN T ON CES y = wT '2
R3 : SI s1 = N y s2 = P; EN T ON CES y = wT '3
R4 : SI s1 = N y s2 = N; EN T ON CES y = wT '2
La parte antecedente de las reglas difusas corresponden al vector de seleccin de los
elementos de memoria, para el ejemplo de la clula (4; 4) ; en el primer nivel de quantizacin,
dispara el hipercubo Bb = 1, en el segundo nivel dispara Dd = 1 y en el tercero F f = 1, Estos
son los elementos de memoria activados, se realiza el mismo procedimiento para cada una de
48 Red neuronal FCMAC
las clulas. La parte ENTONCES es la suma de todos los elementos de memoria activados
en las diferentes combinaciones ((P; P ) ; (P; N ) ; (N; P ) ; (N; N )) : Los elementos de memoria
se reeren a los hipercubos: M emoria = [Aa; Ab; Ba; Bb; Cc; Cd; Dc; Dd; Ee; Ef; F e; F f ]:
Como se ha visto en esta seccin la red neuronal CMAC presenta una estructura similar
a la red con funciones de base radial (FBR), ya que ambos pueden usar la funcin gaus-
siana como funcin de activacin en su capa oculta, presentan una rpida convergencia del
algoritmo de aprendizaje en relacin al MLP. La red FBR es de naturaleza local por lo que
computacionalmente consumen menos recursos y menos tiempo, son ms fciles de imple-
2.4 Red neuronal CMAC 49
mentar por software y hardware, sin embargo existen algunas modicaciones a la red CMAC
que la han hecho ms poderosa.
Las redes FBR solo estn diseados para abordar problemas estticos ya que presenta
una estructura rgida hacia adelante de tres capas, por otra parte las redes CMAC pueden
presentar una recurrencia local, global una combinacin de ambas lo que permite su uso
en la identicacin y control de sistemas dinmicos. Al combinar la herramienta de los
sistemas difusos y las redes CMAC, se obtiene una red CMAC difusa, este esquema presenta
la capacidad de aprendizaje de la red junto con el conocimiento a priori del sistema y una
estrategia de control difusa. El problema de la dimensionalidad de la explosin de las reglas
se resuelve usando una estructura jerrquica. Estas son algunas de las ventajas de las redes
CMAC con respecto a las redes con funciones de base radial.
50 Red neuronal FCMAC
Captulo 3
3.1. Preliminares
En 1892 A. M. Lyapunov desarroll dos mtodos en su famosa monografa: Problema
general de la estabilidad del movimiento, present dos mtodos para determinar la estabilidad
de los sistemas dinmicos descritos mediante ecuaciones diferenciales ordinarias. El primer
mtodo se compone de todos los procedimientos en los cuales se usa la forma explcita de
la solucin de las ecuaciones diferenciales para el anlisis. En cambio, el segundo mtodo no
requiere de las soluciones de las ecuaciones diferenciales, es decir, mediante el segundo mtodo
de Lyapunov se determina la estabilidad de un sistema sin resolver las ecuaciones de estado,
lo cul resulta en un mtodo ms sencillo, de manera general el mtodo de Lyapunov es para
sistemas autnomos y no autnomos sin perturbaciones del tipo x (k + 1) = f [k; x (k) ; 0].
Los teoremas de estabilidad de Lyapunov dan condiciones sucientes para la estabilidad y
estabilidad asinttica, tambien pueden ser usados para mostrar acotamiento de la solucin.
La nocin de estabilidad entrada-estado (iss por sus siglas en ingles) es una extensin
natural de la estabilidad de Lyapunov para sistemas con entradas. La iss es una de las
herramientas ms importantes para estudiar la dependencia de la trayectoria de los estados
de los sistemas no lineales en tiempo contino y discreto sobre la magnitud de las entradas,
las cules pueden representar entradas de control perturbaciones con estructura x (k + 1) =
52 Identicacin mediante redes FCMAC
f [k; x (k) ; u (k)], es decir, un sistema es iss si cada trayectoria de los estados que corresponde
a un control acotado permenece acotado y la trayectoria eventualmente llega a ser pequea
si la seal de entrada es pequea independientemente del estado inicial. Para estudiar las
propiedades de la estabilidad entrada-estado se considera el siguiente sistema no lineal en
tiempo discreto en su representacin de espacio de estados:
Denicin 3.1 Funcin clase K. Si una funcin continua ( ) : [0; a) ! [0; 1) es estricta-
mente creciente con (0) = 0: ( ) es llamada una funcin clase K: Si (s) es una funcin
clase K, y adems no est acotado, i.e. lim (s) = 1 se dice que (s) pertenece a la clase
s!1
K1 .
Denicin 3.2 Funcin clase KL. Una funcin contina (s; t) : [0; a) [0; 1) ! [0; 1)
es llamada una funcin clase KL si el primer argumento de la funcin (s; ) es clase K, y
el segundo argumento de la funcin ( ; t) es estrictamente decreciente y lim ( ; t) = 0 .
t!1
3.1 Preliminares 53
1.6 1.3
1.5 1.2
1.4 1.1
1.3 1
1.2 0.9
1.1 0.8
1 0.7
0.9 0.6
0.8 0.5
0.7 0.4
0 5 10 15 20 25 30 0 5 10 15 20 25 30
900 0.4
800 0.35
700
0.3
600
0.25
500
0.2
400
0.15
300
200 0.1
100 0.05
0 0
0 5 10 15 20 25 30 0 5 10 15 20 25 30
Figura 3.1: Tipos de funciones: a) clase k, b) clase -k, c) clase k-innito, d) clase kl
1
1 est denido sobre [0; 1 (a)) y pertenece a una clase K.
1
2 se dene sobre [0; 1) y pertenece a la clase K1 :
Denicin 3.3 Un sistema representado como (3.1), se dice ser entrada-estado estable si
existe una funcin ( ) de clase K; y una funcin ( ) de clase KL, tal que u 2 L1 ; i.e.,
n
sup ku (k)k < 1: y cada estado inicial x0 2 R presenta:
Para cada k 2 Z+ : Hay que notar que por causalidad, la denicin (3.2) puede ser reem-
plazada por:
kx (k; x0 ; u (k))k (kx0 k ; k) + (ku (k 1)k) (3.3)
Se puede observar en la ecuacin (3.3) que la propiedad iss implica que el sistema con
entrada 0; x (k + 1) = f [x (k) ; 0] es globalmente asintticamente estable (GAS) y que (3.1)
es .entrada convergente, estado convergente ", i.e., cada trayectoria del estado x (k; x0 ; u (k))
va a 0 si u (k) va a 0 cuando k ! 1; sin embargo lo contrario no es cierto.
b).- Existe una funcin 3 ( ) de clase K1 y una funcin 4 ( ) de clase K tal que 8x0 2 Rn ;
cada x (k) 2 Rn ; u (k) 2 Rm :
Una funcin suave de Lyapunov iss es una funcin suave. Es claro que si V es una funcin de
Lyapunov iss para el sistema (3.1), entonces V es una funcin de Lyapunov para el sistema
3.1 Preliminares 55
Para cada " > 0; existe algn > 0; tal que jx (k; x0 ; u)j < " para todo k 0; para todo
u 2 M ; y para todo jx0 j < :
La propiedad cuando limk!1 jx (k; x0 ; u)j = 0 permanece para todo x0 2 Rn , 8u 2 M .
Estas deniciones implican que para el sistema no lineal (3.1), los siguientes trminos son
equivalentes: a) Entrada-estado estable, b) robusto estable, c) funcin suave de Lyapunov
iss como se demuestra en [30].
donde x (k) = [x1 (k) ; x2 (k) ; : : : ; xn (k)]T son los n componentes del vector de estado del
sistema, u (k) = [u1 (k) ; u2 (k) ; : : : ; ur (k)]T es el vector de entradas al sistema y y (k) =
[y1 (k) ; y2 (k) ; : : : ; ym (k)]T ; es el vector de salida, f; g son los mapeos no lineales estticos.
Si el sistema es lineal, la ecuacin (3.4) se convierte en:
u (k )
x (k + 1) x (k )
Planta z 11
e (k + 1) +
Red
Neuronal
Las redes neuronales hacia delante han demostrado que presentan resultados aceptables
en la identicacin y control de sistemas, en donde hay un desconocimiento parcial total de
la planta y nicamente se dispone de los datos de entrada y salida, esta topologa de red en
particular realiza un mapeo esttico de entrada-salida aproximando funciones continas no
lineales. Sin embargo una desventaja que presentan estas redes es que su aplicacin estn lim-
itados a problemas estticos por la misma estructura de la red hacia adelante (feedforward).
Para sistemas dinmicos las redes con estructura hacia adelante no son adecuados. Las redes
neuronales recurrentes no presentan las desventajas de las redes estticas y se ha demostrado
que son buenos aproximadores de sistemas dinmicos contnuos. Es tambin conocido, que
los sistemas difusos y las redes neuronales estn dirigidos a procesar el conocimiento humano,
la combinacin de ambas tcnicas ha presentado una gran diversidad de aplicaciones. En la
siguiente seccin se disea una topologa de red con recurrencia local y recurrencia global
neuro-difusa CMAC analizando las nuevas ventajas que presenta.
3.2 Identicacin mediante redes neuronales CMAC 57
Unidad de recurrencia
sik N
N1
SI Entonces
Z1
s1
P1 y (x )
M N2
Z2 M M
sn
P2
M M
SI Entonces
2. La capa dos presenta una recurrencia local en cada una de las neuronas, donde la
funcin de pertenencia es gaussiana y se representa por:
donde i;j denota los pesos de cada nodo retroalimentado, Ai;j (k) es el trmino memo-
ria, el cul almacena informacin pasada de la red y se encuentra denido como:
" #
2
(mfi (k 1) ci;j )
Aij (k) = exp 2
(3.7)
i;j
58 Identicacin mediante redes FCMAC
La expresin 3.6, es la principal diferencia entre la red FCMAC dada por 2.21, y la red
con recurrencia local FCMAC (RFCMAC) donde se incluye el elemento de recurrencia.
Cada nodo en esta capa presenta tres parmetros a ser ajustados i;j ; ci;j ; i;j :
3. La capa tres realiza el clculo de la parte antecedente de la regla difusa. Cada nodo
en esta capa realiza la operacin de implicacin, se utiliza en este trabajo el producto,
por lo que se escribe como:
Y
n
Se considera una red CMAC, la cul esta representada por (3.12). El sistema no lineal a
ser identicado est representado como (3.1). como se menciono anteriormente, la estabilidad
entrada-estado es una extensin de la estabilidad asinttica global para sistemas no lineales,
en donde u (k) son entradas de control perturbaciones y las salidas son los estados y(k) =
x (k + 1). i.e.,
y(k) = g [x (k)] (3.13)
Se disea un algoritmo de aprendizaje estable tal que la salida yb (k) con retroalimentacin
local de la red FCMAC (3.12) pueda aproximar la salida y (k) de una planta no lineal (3.1).
Se dene el error de identicacin e (k) como:
donde W (k) son los pesos desconocidos del algoritmo de aprendizaje de la red FCMAC que
pueden minimizar el error de modelado (k) : De 3.15 y 3.12 se obtiene:
e (k) = W T (k) ' [mfi (k)] [W (k) ' [mfi (k)] (k)] (3.16)
e (k) = W T (k) W (k) ' [mfi (k)] + (k)
f (k) ' [mfi (k)] + (k)
e (k) = W
f (k) = W (k) W (k) : La planta con la estructura (3.1) es BIBO estable (entradas
donde W
acotadas-salidas acotadas), i.e:, y(k) y u(k) en (3.1) son acotados. Las funciones '; (k)
en (3.15) son acotados. El siguiente teorema desarrollado en el trabajo de tesis presenta
el algoritmo del gradiente descendente estable para la identicacin no lineal de sistemas
mediante redes recurrentes locales FCMAC.
60 Identicacin mediante redes FCMAC
Teorema 3.1 Se utiliza una red neuronal recurrente FCMAC como el de la gura 3.3 para
identicar una planta no lineal (3.1), el algoritmo del gradiente descendente (3.17) presenta
una tasa de aprendizaje variante en el tiempo, esto puede hacer el error de identicacin
e (k) acotado.
h i
W (k + 1) = W (k) (k) e (k) 'T si (k) + Aij (k 1) i;j (3.17)
e (k)
eN (k) = h i 2
(3.19)
1 + max ' si (k) + Aij (k 1) i;j
k
1 X
K
l m sup keN (k)k2 (3.20)
K!1 K k=1
2
f (k + 1)
Por lo que L (k + 1) = W ; mediante la ley de actualizacin (3.17), se tiene:
h i
f (k + 1) = W
W f (k) (k) e (k) 'T si (k) + Aij (k 1) i;j
3.2 Identicacin mediante redes neuronales CMAC 61
L (k) = L (k + 1) L (k)
h i 2 2
f
L (k) = W (k) T
(k) e (k) ' si (k) + Aij (k 1) i;j Wf (k)
2 h i
= W f (k) 2 (k) e (k) W f (k) 'T si (k) + Ai (k 1) i;j
h i 2 j 2
2 T
+ (k) e (k) ' si (k) + Aij (k 1) i;j f (k)
W
h i 2 (3.21)
= 2 (k) e (k) 'T si (k) + Aij (k 1) i;j
h i
f T
2 $ (k) e (k) W (k) ' si (k) + Aij (k 1) i;j
h i 2
= 2 (k) e (k) 'T si (k) + Aij (k 1) i;j
h i
2 (k) ke (k)k W f (k) 'T si (k) + Ai (k 1) i;j
j
Por la desigualdad 2 kabk a2 +b2 ; se tiene 2 (k) ke (k) (k)k (k) ke (k)k2 + (k) k (k)k2 ;
por lo que:
L (k) = L (k + 1) L (k)
2
2
(k) ke (k)k2 ' si (k) + Aij (k 1) i;j (k) ke (k)k2 + (k) k (k)k2
2
(k) ke (k)k2 + 2
(k) ke (k)k2 'T si (k) + Aij (k 1) i;j + (k) k (k)k2
2
(k) ke (k)k2 1 k 'T si (k) + Aij (k 1) i;j + (k) k (k)k2
(3.22)
62 Identicacin mediante redes FCMAC
0 0 1 1
B 1 B C C
B @ h i 2A C
L (k) (k) ke (k)k B
B
2
1 + ' si (k) + Aij (k 1) i;j
C + (k) k (k)k2
C
@ 2 A
'T si (k) + Aij (k 1) i;j
0 0 2
11
T
B B ' si (k) + Aij (k 1) i;j
CC
L (k) (k) ke (k)k2 @1 @ h i 2 AA + (k) k (k)k2
1 + ' si (k) + Aij (k 1) i;j
0 1
B C
L (k) ke (k)k2 @ h i 2A
1 + ' si (k) + Aij (k 1) i;j
0 0 2
11
T
B B ' si (k) + Aij (k 1) i;j
CC
@1 @ h i 2 AA + (k) k (k)k2
1 + ' si (k) + Aij (k 1) i;j
3.2 Identicacin mediante redes neuronales CMAC 63
0 1
h i 2
B C
B 1 + ' si (k) + Aij (k 1)C i;j
B C
B C
B h i 2 C
B C
L (k) ke (k)k2 B 1 + ' si (k) + Aij (k 1) i;j C + (k) k (k)k
2
B 0 1 C
B 2 C
B 'T si (k) + i (k 1) i;j C
B B Aj C C
@ @ h i 2A A
1 + ' si (k) + Aij (k 1) i;j
2 3
h i 2
6 7
6 1 + ' si (k) + Aij (k 1) i;j 7
6 0 1 7
6
26
7
ke (k)k 6 2 7 2
L (k) B 2
'T si (k) + Aij (k 1) i;j C 7 + (k) k (k)k
6 B C 7
6 B h i 2 2C 7
4 @ A 5
1 + ' si (k) + Aij (k 1) i;j
20 13
2
6B 'T si (k) + Aij (k 1) i;j
2 C7
6B 2 C7 2
L (k) ke (k)k 6B h i 2 2 C7 + (k) k (k)k
4@ A5
1 + ' si (k) + Aij (k 1) i;j
20 13
2
6B 1 'T si (k) + Aij (k 1) i;j C7
6B
2 C7 2
L (k) ke (k)k 6B h i C7 + (k) k (k)k
4@ 2 2 A5
1 + ' si (k) + Aij (k 1) i;j
(3.23)
se dene (k) como:
0 1
2
B 1 ' si (k) + Aij (k 1) i;j C
B C
(k) = B h i C (3.24)
@ 2 2 A
1 + ' si (k) + Aij (k 1) i;j
2 2
se conoce que 0 ' si (k) + Aij (k 1) i;j max ' si (k) + Aij (k 1) i;j ;
y adems (k) ; se tiene:
h i 2
(k) 1 ' si (k) + Aij (k 1) i;j h i 2
2
1 + max ' si (k) + Aij (k 1) i;j
= h i 2
2
1 + max ' si (k) + Aij (k 1) i;j
fi2
Porque n m n W L (k) fi2 ; donde n m n W
n max W fi2 fi2
y n max W son fun-
2 2
ciones clase K1 , y ke (k)k es una funcin clase K1 , k (k)k es una funcin clase K. L (k)
admite una funcin de Lyapunov ISS. La dinmica del error de identicacin es entrada-
estado estable. Se conoce que L (k) est en funcin de e (k) y (k) : Las entradas corresponden
al segundo trmino de (3.26), i.e., el error de modelado (k). Los estados corresponde al
primer trmino de (3.22), i.e.., el error de identicacin e (k) : Por que la entrada (k) es
acotada y la dinmica es ISS, El estado e (k) es acotado. (3.22) se puede reescribir como:
ke (k)k2
L (k) h i2 +
2
1 + max k' [mf (t)]k
k
por lo que:
L (k) e2 (k) + 2
k e2 (k) + (3.27)
Resumiendo (3.27) de 1 hasta K, y al utilizar L (k) > 0 y L1 es una constante. Se obtiene:
X
K
LK L1 keN (k)k2 + K
k=1
L1 L2 L3 L4 L5
mf1
s1( )k 1 1 ( f )
i i +
s1( k 1)
1
z +
( k 1)
ns
s( )k
n
NA NA
mf N
u1
s1( )k
u2
un
s( )k
n
1. La capa de entrada est dado por sr = [sr1 ; sr2 ; :::; srn ]T 2 Rn ; donde cada sri =
si + wi;j y^(k 1):
donde los parmetros a ser ajustados en esta capa son ci;j ; i;j :
66 Identicacin mediante redes FCMAC
Y
n
Rj : si s1 es A1j y sn es An
j
(3.31)
entonces s1 (k + 1) es f1 (s) s1 (k + 1) es f2 (s) u
Por lo que la salida de la red recurrente global FCMAC se expresa en notacin vectorial
como:
s (k + 1) = W1T '1 [sr (k)] + W2T '2 [sr (k)] u (k) (3.32)
dene como en (3.14). La teora de aproximacin de sistemas difusos y redes neuronales [27],
menciona que el proceso no lineal a ser identicado (3.1) se puede representar como:
f1 (k) = W1 (k)
donde W f2 (k) = W2 (k)
W1 ; W W2 . Se asume que la planta (3.1) es BIBO
estable. 'k ; (k) en (3.33) es acotado. El siguiente teorema es una aportacin del trabajo
de tesis. Se demuestra el algoritmo del gradiente descendente estable para la red recurrente
global FCMAC.
Teorema 3.2 Si la red recurrente FCMAC (3.32) es usado para identicar la planta no
lineal (3.1), y los eigenvalores de A se seleccionan como 1< (A) < 0, la siguiente ley de
actualizacin de los pesos hace el error de identicacin e (k) acotado (estable en el sentido
L1 ).
2 2
f1 (k)
V (k) = W f2 (k)
+ W (3.38)
2 Pn n o
donde f1 (k)
W = e
w1 (k)2
= tr W f1 (k) : Del algoritmo de actualizacin
f1T (k) W
i=1
(3.36) se tiene:
f1 (k + 1) = W
W f1 (k) (k) '1 [sr (k)] eT (k) (3.39)
f2 (k + 1) = W
W f2 (k) (k) '2 [sr (k)] eT (k)
por lo que:
V (k) = V (k + 1) V (k)
2 2
f1 (k)
= W (k) '1 [sr (k)] e (k)T f1 (k)
W
2 2
f2 (k)
+ W (k) '2 [sr (k)] u (k) eT (k) f2 (k)
W
2 2 2
f1 (k)
= W f1 (k) e (k)T +
2 (k) '1 [sr (k)] W 2
(k) '1 [sr (k)] e (k)T f1 (k)
W
2 2 2
f2 (k)
+ W f2 (k) e (k)T +
2 (k) '2 [sr (k)] u (k) W 2
(k) '2 [sr (k)] e (k)T u (k) f2 (k)
W
= 2
(k) ke (k)k2 k'1 [sr (k)]k2 f1 (k) eT (k)
2 (k) '1 W
+ 2
(k) ke (k)k2 k'2 [sr (k)] u (k)k2 f2 (k) eT (k)
2 (k) '2 [sr (k)] u (k) W
= 2
(k) ke (k)k2 k'1 [sr (k)]k2 + 2 (k) ke (k)k2 k'2 [sr (k)] u (k)k2
2 (k) '1 Wf1 (k) eT (k) f2 (k) eT (k)
2 (k) '2 [sr (k)] u (k) W
(3.40)
existe una constante > 0, tal que si k e (k + 1)k ke (k)k ; utilizando (3.34):
2 (k) ke (k)k2 + 2 (k) max (A) ke (k)k2 + (k) ke (k)k2 + (k) k (k)k2
(k) ke (k)k2 + 2 (k) max (A) ke (k)k2 + (k) k (k)k2
V (k) 2
(k) ke (k)k2 k'1 k2 + 2
(k) ke (k)k2 k'2 u (k)k2
(k) ke (k)k2 + 2 (k) max (A) ke (k)k2 + (k) k (k)k2
" #
k'1 k2 + k'2 u (k)k2 (3.42)
= (k) (1 2 max (A)) e2 (k)
1 + k'1 k2 + k'2 u (k)k2
+ (k)2 2
(k) e2 (k) + 2
(k)
donde n fi2
mn W y n fi2
max W son funciones de clase K1 , y e2 (k) es una fun-
2
cin de clase K1 , (k) es una funcion de clase K. V (k) admite una funcin suave de
Lyapunov-ISS, la dinmica del error de identicacin es entrada-estado estable. La entra-
da corresponde al segundo trmino de la ltima linea en (3.40), i.e., el error de modelado
(k) ; el estado corresponde al primer termino de la ltima linea en (3.40), i.e., el error
70 Identicacin mediante redes FCMAC
de identicacin e (k) : Por que la entrada (k) es acotada y la dinmica es ISS, el estado
e (k) es acotado.
Si ke (k + 1)k < ke (k)k ; V (k) = 0: V (k) es constante, W1 (k) es constante. De aqui
1 1
ke (k + 1)k < ke (k)k ; < 1; e (k) es acotado.
Comentario 3.1 La condicin " (k) = 0 if ke (k + 1)k < ke (k)k " es la zona muerta. Si
se selecciona muy grande, la zona muerta es pequea.
L1 L2 L3 L4 L5
1
z
ij
G
s1( )k
mf1 1 1 ( f )
G i i +
s1( k 1)
G
1
z +
( k 1)
ns
s( )k
n
G
NA NA
G mf
N
u1
s1( )k G
u2
G
un
s( )k
n G
La salida en la capa dos de la red recurrente global-local CMAC difusa, est dada por la
siguiente expresin:
donde i;j son los pesos de la neurona con recurrencia y si (k + 1) es la salida de la red
recurrente FCMAC. La salida de la red puede ser expresada como:
X
l X
l
s (k + 1) = w1;i '1;i [mfi (k)] + w2;i '2;i [mfi (k)] u (k) (3.44)
i=1 i=1
o s (k + 1) = W1T '1 [mf (k)] + W2T '2 [mf (k)] u (k)
Wj (j = 1; 2) denota los pesos entrenables de la red, 'j (x) es la funcin denida como:
Yn
i
p mfj
i=1
'p = l (3.45)
X Yn
i
p mfj
i=1
p=1
donde W1 y W2 son los pesos desconocidos, los cules pueden minimizar la dinmica no
modelada (k). El error de identicacin se puede representar por (3.73) y (3.46),
f1 (k) = W1 (k)
donde W f2 (k) = W2 (k)
W1 ; W W2 : En este trabajo solo se aborda el
problema de la identicacin en lazo abierto, se asume que la planta (3.1) presenta entradas
acotadas, salidas acotadas, es (BIBO) estable, i.e., y(k) y u(k) en (3.1) son acotados. Por
las cotas de las funciones 'p ; (k) en (3.46) es acotado. El siguiente teorema desarrollado
en el trabajo de tesis muestra el algoritmo del gradiente descendente estable.
Teorema 3.3 Si la red neuronal con recurrencia global CMAC difusa (3.44) es utilizada
para identicar una planta no lineal (3.1) y los eigenvalores de A se selecionan como 1<
(A) < 0: La siguiente ley de adaptacin del gradiente, puede hacer el error de identicacin
e (k) acotado (estable en un sentido L1 ).
W1 (k + 1) = W1 (k) (k) '1 [x (k)] eT (k)
(3.48)
W2 (k + 1) = W2 (k) (k) '2 [x (k)] u (k) eT (k)
donde (k) satisface
8
< si ke (k + 1)k ke (k)k
(k) = 1 + k'1 k2 + k'2 uk2
: 0 si ke (k + 1)k < ke (k)k
0< 1:
f1 (k + 1) = W
W f1 (k) (k) '1 [x (k)] eT (k)
Por lo que:
V (k) = V (k + 1) V (k)
2 2
f1 (k)
= W (k) '1 e (k)T f1 (k)
W
2 2
f2 (k)
+ W (k) '2 u (k) eT (k) f2 (k)
W (3.49)
= 2
(k) ke (k)k2 k'1 k2 f1 (k) eT (k)
2 (k) '1 W
+ 2
(k) ke (k)k2 k'2 u (k)k2 f2 (k) eT (k)
2 (k) '2 u (k) W
3.2 Identicacin mediante redes neuronales CMAC 73
Comentario 3.2 La condicin " (k) = 0 si ke (k + 1)k < ke (k)k " es la zona muerta. Si
es seleccionada con un valor muy grande, la zona muerta ser muy pequea.
74 Identicacin mediante redes FCMAC
de otra manera
Entonces para una funcin dada y = G (s1 ; s2 ; s3 ; s4 ; s5 ) ; existen funciones g1 ; g21 ; g22 tales
que G (s1 ; s2 ; s3 ; s4 ; s5 ) = g1 [g21 (s1 ; s2 ) ; g22 (s3 ; s4 ) ; s5 ] ; esta funcin puede ser representada
por una estructura jerrquica como se muestra en la gura (3.6), en esta representacin y1 ; y2
ya no poseen un signicado fsico, en algunos casos pueden ser considerados como variables
de estado.
s1
g21 y1
s2
y
s3 y2 g1
g22
s4
s5
Nivel 2 Nivel 1 G
Para reducir el nmero de reglas involucradas surge la idea de sistemas con estructura
jerrquica HFS (Hierarchical Fuzzy Systems), el cul fue desarrollado principalmente para
sistema difusos como se muestra en la gura 3.8. Se pueden observar las diferencias entre
las guras 3.7 y 3.8. La HFS reduce signicativamente el nmero total de reglas difusas in-
volucradas. En los sistemas difusos jerrquicos, las salidas de cada unidad FLU (Fuzzy Logic
76 Identicacin mediante redes FCMAC
s1
s2 y(s)
s3 FLU
s
s4
Unit) en la capa previa son usados como variables lingisticas de entrada a la siguiente capa.
Las salidas intermedias, sin embargo son de naturaleza articial y en muchos casos no poseen
signicado fsico. Si se utilizan como las variables de la entrada de la capa siguiente, entonces
las reglas difusas involucradas en la mitad de la estructura jerrquica tienen poco signica-
do fsico y consecuentemente son difciles de disear. Este fenmeno llega a ser importante
cuando el nmero de capas crece signicativamente [27].
Se considera un sistema jerrquico FCMAC (HFCMAC), como se muestra en la gura
3.8, donde la salida de cada bloque F CM ACi en el nivel dos, est dado por:
donde el subndice i indica el nmero de salida y de las redes FCMAC de dimension dos
ubicados en el segundo nivel. El superndice j indica el nmero de nivel en el que se encuentra
cada bloque, todos los bloques de redes FCMAC presentan dos entradas. La salida de la red
FCMAC en el nivel uno est dado por:
y(k) = h [x (k)]
(3.56)
= h [y (k 1) ; y (k 2) ; u (k 1) ; u (k 2) ; ]
3.3 Redes jerrquicas FCMAC 77
s
1 y
1
s
2 FCMAC 1
y( )s
s
3 FCMAC 3
y
2
s
4
FCMAC 2
N
1 N
2
Capa de Capa de
entrada salida
s
1
y
1
s
2
FCMAC 1 y( )s
s
3
FCMAC 2 y
2
FCMAC3
s
4
N
1 N
2 N
3
Capa de Capa Capa de
entrada oculta salida
donde
Una red FCMAC puede ser representado como (3.55), el cul fue explicado a detalle en
la seccin anterior. Para la red FCMAC el espacio de memoria se incrementa exponencial-
mente al aumentar el nmero de variables de entrada, este es un problema serio al utilizar
redes FCMAC convencionales, el tamao de la memoria se dispara exponencialmente. Un
mtodo alternativo para minimizar esta dicultad es utilizar redes HFCMAC, la cul tiene
la caracterstica que el espacio de memoria se incrementa linealmente al aumentar el nmero
de variables de entrada.
78 Identicacin mediante redes FCMAC
Nivel
2 1
s1
FCMAC1 y1
s2 y(s)
FCMAC3
s3 y2
s4 FCMAC2
X
l
y^r = Wr;p 'r;h ; r = 1; 2; 3 (3.58)
h=1
Las salidas de cada bloque de la red HFCMAC en la capa previa es usada como vari-
ables de entrada (variables intermedias) a la siguiente capa. Las salidas intermedias son de
naturaleza articial y en la mayora de los casos no posee signicado fsico, lo cul involucra
reglas difusas intermedias en la estructura jerrquica con poco signicado fsico y conse-
cuentemente difciles de disear, este fenmeno llega a ser importante cuando el nmero de
niveles jerrquicos crece, esto es una de las principales desventajas de esta representacin.
A continuacin se explica el entrenamiento de cada bloque de la red, se dene el ndice
de desempeo como:
1
J = e23 ; e3 = y^3 y (3.59)
2
De la gura 3.9, el algoritmo de aprendizaje para el bloque F CM AC3 es:
@J @J @ y^3 @ y^2
= (3.61)
@W2;h @ y^3 @ y^2 @W2;h
@ y^3
De la gura 3.9, se conoce @ y^2
que corresponde a s3;2 (k) ; tal que:
@J
= y^3 y = e3 (k)
@ y^3
" #
@ y^3 @ y^3 @z3;h a3 W3;h y^2 ci3;2
= = 2 z3;h 2 i
@ y^2 @z3;h @ y^2 b3 b3 3;2
@ y^2 z3;h
= '2;h =
@W2;h b2
Y
n X
l X
l
Donde z3;h = h Aij ; a3 = w3;h z3;h ; b3 = z3;h : el algoritmo de apren-
i=1 h=1 h=1
dizaje del gradiente para w2;p es:
donde:
y^3 w3;h y^2 ci3;2 @ y^3
e2 (k) = 2 z3;h 2 e3 (k) = e3 (k)
(b3 ) i
3;2
@ y^2
de manera similar se obtiene para
Donde eo (k) es el error de identicacin, y^o (k) es la salida del ltimo bloque de la red
jerrquica FCMAC, y (k) es la salida de la planta, se retropropaga el error y se calcula el
error para el bloque p, (denido como ep ) para formar el bloque q (denido como eq ). Se
emplea la regla de la cadena:
Se asume que la funcin 'r;h de la red HFCMAC para cada bloque es conocida, solo se
necesitan actualizar los pesos para identicar el sistema, se disea el algoritmo de aprendizaje
estable tal que la salida y^ (k) de la red CMAC difusa, pueda seguir la salida de la planta no
lineal y (k) ; se dene el vector de error de identicacin e (k) como:
De la ec. 3.63 la seal e (k) puede ser propagada para cada sub-bloque, llamado ep (k) ;
existe una salida virtual de la planta yp (k) la cul corresponde a la salida del sub bloque
y^p (k) ; as que:
3.3 Redes jerrquicas FCMAC 81
para el p esimo bloque, se asume que la planta no lineal puede ser expresado por
alguna funcin. De acuerdo a las teoras de aproximacin de lgica difusa y redes neuronales,
el proceso no lineal a identicar puede ser representado como:
Donde W (k) son los pesos desconocidos los cules minimizan las dinmicas no mode-
ladas (t) : El error de identicacin puede ser representado por (3.65) y (3.66):
Teorema 3.4 Si se utiliza una red neuronal jerrquica CMAC difusa para identicar una
planta no lineal (3.56), el algoritmo del gradiente descendente (3.64) con una tasa de apren-
dizaje con tiempo variable se presenta a continuacin y puede hacer el error de identicacin
e (k) acotado.
W (k + 1) = W (k) (k) ep (k) 'T [s (k)] (3.68)
e (k)
eN (k) =
1 + max k' [s (k)]k2
k
1X
T
l m sup keN (k)k2 (3.69)
T !1 T k=1
~ (k + 1) = W
W ~ (k) (k) e (k) 'T [s (k)]
utilizando la desigualdad:
Donde n m n (w~i2 ) y n max (w~i2 ) son funciones 1 y ke (k)k2 es una funcin 1; k (k)k2
es una funcin : As que L (k) admite una funcin ISS-lyapunov como en la denicin 2.
Por el teorema 1, la dinmica del error de identicacin es estable para entradas estables.
Se conoce L (k) como funcin de e (k) y (k) : La entrada corresponde al segundo trmino
de (3.71), es decir, al error de modelado (k) : Los estados corresponden al primer trmino
de (3.70), es decir, el error de identicacin e (k) : Porque las entradas (k) son acotadas y
la dinmica es ISS, los estados e (k) son acotados. (3.70) puede ser reescrito como
ke (k)k2 2
L (k) = h i2 + k (k)k
1 + max k' [s (k)]k2
k
ke (k)k2
h i2 +
2
1 + max k' [s (k)]k
k
As
L (k) e2k + 2
k e2k + (3.72)
X
T
LT L1 keN (k)k2 + T
k=1
X
T
keN (k)k2 L1 LT + T L1 + T
k=1
X
l X
l
x^ (k + 1) = w1;i '1;i [s (k)] + w2;i '2;i [s (k)] u (k)
i=1 i=1
(3.73)
o x^ (k + 1) = W1T '1 [s (k)] + W2T '2 [s (k)] u (k)
yb(k) = x^ (k + 1)
X
l
x^3 (k + 1) = w3;1;i '3;1;i [^
x3 (k)]
i=1
X
l
+ w3;2;i '3;2;i [^
x3 (k)] u3;i (k)
i=1
3.3 Redes jerrquicas FCMAC 85
y
plant
u1,1 e3
y1 = x1 (k + 1) u3,1 -
RFCMAC1 +
u1,n e1
u2,1 y2 = x2 (k + 1) u3, 2 RFCMAC3
RFCMAC2
e2 y3
u2 , n
u3,n
La salida de cada bloque jerrquico es utilizado en el siguiente nivel jerrquico como variables
lingisticas de entrada. Sin embargo, las salidas de los bloques en las capas intermedias de
una estructura jerrquica en la mayora de los casos, es de naturaleza articial, es decir, no
posee ningn sentido fsico. Si estas salidas intermedias son usadas como variables de entrada
a la siguiente capa, entonces la reglas difusas involucradas en los bloques intermedios de la
estructura jerrquica no poseen signicado fsico por lo que resultan ms difciles de disear.
El ndice de rendimiento se dene como: J = 12 e23 ; e3 = yb3 y: Para RFCMAC3 , El algoritmo
de aprendizaje es:
w3;1;i (k + 1) = w3;1;i (k) '3;1;i (k) e3 (k)
(3.75)
w3;2;i (k + 1) = w3;2;i (k) '3;2;i (k) e3 (k) u (k)
Donde > 0 es la taza de aprendizaje. Para el subsistema RFCMAC2 , si se desea actualizar
2 @J @J @ yb3 @ yb2 @ yb3
w2;i ; Se calcula @w3;2;i
= @ yb3 @ yb2 @w2;2;i
: De la gura 3.10 se conoce @ yb2
que corresponde a
86 Identicacin mediante redes FCMAC
Yn X
l
P
l
Donde z3;1;i = k = i Alj ; a3;1 = w3;1;i z3;1;i ; b3 = z3;1;i . El mtodo de
l=1 h=1
h=1
aprendizaje del gradiente para w2;1;i es
explica a continuacin:
1) De acuerdo a la estructura de la red HRFCMAC, se calcula la salida de cada bloque
de la red neuronal RFCMAC mediante (3.73). Algunas de las salidas de los bloques de la
red neuronal jerrquica recurrente CMAC difusa pueden ser las entradas a los bloques del
siguiente nivel.
2) Se calcula el error para cada bloque. Se inicia con el ltimo bloque, el error de identi-
cacin es eo (t) = ybo (t) y (t) ; donde eo (k) es el error de identicacin, ybo (k) es la salida del
3.3 Redes jerrquicas FCMAC 87
xq,1
x p ,1
p q
yp x q ,k yq
ep
eq
x p ,n p
x q ,n q
sistema jerrquico recurrente CMAC difuso, y (k) es la salida de la planta. Entonces se utiliza
la retro-propagacin para minimizar el error en cada bloque de la estructura jerrquica de
la red CMAC, ver la gura 3.11. Se calcula el error para el bloque p (denido como ep ), de
la misma forma hasta el bloque q (denido como eq ). Por la regla de la cadena discutida
anteriormente:
Se asume que la funcin base 'r;h de la red CMAC para cada bloque es conocido, so-
lamente los pesos necesitan ser actualizados para la identicacin de sistemas. Se disea
un algoritmo de aprendizaje estable tal que la salida yb (k) de la red FCMAC (3.73) pueda
identicar la salida y (k) de la planta no lineal (3.1). Se dene el error de identicacin e (k)
como:
88 Identicacin mediante redes FCMAC
Por (3.78), e (k) puede ser propagado para cada sub-bloque ep (k). Se dene una salida
virtual de la planta como yp (k), el cul corresponde a la salida del sub-bloque ybp (k), tal que
ep (k) = ybp (k) yp (k) ; expresa el error para el p esimo bloque de la planta no lineal. De
acuerdo a la teora de aproximacin de lgica difusa y redes neuronales [27], el proceso no
lineal a ser identicado (3.4), puede ser representado como:
x (k) + W1 T '1 [^
x^(k + 1) = A^ x (k)]
+W2 T '2 [^
x (k)] U (k) + (k) (3.81)
y(k) = x^ (k + 1)
Donde W1 y W2 son los pesos desconocidos los cules pueden minimizar las dinmicas
no modeladas (k). El error de identicacin puede ser representado por (3.73) y (3.81),
f1 (k) = W1 (k) W ; W
Donde W f2 (k) = W2 (k) W : En este trabajo solo estamos interesados
1 2
en la identicacin en lazo abierto, Se asume que la planta (3.1) presenta entradas acotadas -
salidas acotadas (BIBO estable), i.e., u(k) y y(k) son acotadas. Por los lmites de la funcin
base '; (k) en (3.81) es acotado. El siguiente teorema presenta el algoritmo estable del
gradiente descendente para modelado neuro-difuso, el cul es una aportacin del trabajo de
tesis.
Teorema 3.5 Si la red neuronal recurrente CMAC difusa (3.73) es usado para identicar
una planta no lineal (3.1) y los eigenvalores de A se seleccionan como 1< (A) < 0, La
siguiente ley de actualizacin del gradiente sin modicacin robusta puede hacer el error de
identicacin e (k) acotado (estable en el sentido L1 ).
k e (k + 1)k ke (k)k
donde 0 < 1
V (k) 2
(k) ke (k)k2 k'1 k2 + 2
(k) ke (k)k2 k'2 u (k)k2
(k) ke (k)k2 + 2 (k) max (A) ke (k)k2 + (k) k (k)k2
2 3
(1 2 max (A)) (3.84)
6 7
= (k) 4 k'1 k2 + k'2 u (k)k2 5 e2 (k)
1 + k'1 k2 + k'2 u (k)k2
+ 2k 2 (k) e2 (k) + 2 (k)
donde:
= 1 2 max (A)
1+ 1+
y = max k'1 k2 + k'2 u (k)k2 . Por lo que 1< (A) < 0; >0
k
ei2
nm n w V (k) ei2
n max w
donde n ei2 ) y n
m n (w ei2 ) son funciones de clase K1 , y e2 (k) es una funcin clase
max (w
2
K1 , (k) es una funcin de clase K, tal que V (k) admite una funcin suave de Lyapunov
como en la denicin 2. Del Teorema 1, la dinmica del error de identicacin es entrada-
estado estable. La entrada corresponde al segundo trmino de la ltima linea de(3.84), i.e.,
el error de modelado (k) ; los estados corresponden al primer trmino de la ltima linea de
(3.84), i.e., el error de identicacin e (k) : Por que la entrada (k) es acotada y la dinamica
es ISS, los estados e (k) son acotados.
Comentario 3.3 La condicion " (k) = 0 si ke (k + 1)k < ke (k)k " es la zona muerta. si
se elije con un valor muy grande, la zona muerta llega a ser pequea.
3.4. Simulaciones
Para poder realizar un anlisis comparativo entre las redes FCMAC con recurrencia local,
global y la combinacin de ambas, se considera el siguiente sistema no lineal propuesto por
[16] y [26], para ilustrar los resultados de la identicacin.
3.4 Simulaciones 91
x1 (k + 1) = x2 (k) ;
x2 (k + 1) = x3 (k) (3.85)
x1 (k)x2 (k)x3 (k)u(k)[x3 (k) 1]+u(k)
x3 (k + 1) = 1+x2 (k)2 +x3 (k)2
Se dene el vector de estados como y(k) = [x1 (k) ; x2 (k) ; x3 (k)]T ; la seal de entrada se
selecciona como en [16] y [26].
8
>
> sin( 25 k) 0 < k < 250
>
>
< 1;0 250 k < 500
u(k) = (3.86)
>
> 1;0 500 k < 750
>
>
:
0;3 sin( 25 k) + 0;1 sin( 32 k) + 0;6 sin( 10 k) 750 k < 1000
A la red neuronal con recurrencia local la denotamos como LRFCMAC, con recurrencia
global la denotamos como GRFCMAC y a la red que presenta la combinacin de ambas
recurrencias local y global la denotamos como GLRFCMAC. En la gura 3.12 se comparan
los resultados de la identicacin de las diferentes topologas de redes FCMAC desarrollados
en la tesis con el trabajo de redes neuronales FCMAC convencionales presentados por [7]. Se
realiza la simulacin con los siguientes datos h = 5 (nmero de hipercubos), na = 4 (numero
de unidades de asociacin), la entrada s = 3; la salida y = 1; l = 8: La siguiente tabla
muestra la cantidad de operaciones realizadas por cada una de las capas de las diferentes
topologas de redes FCMAC.
Error de identificacin
2
1.5
FCMAC RFCMAC
1 (local)
RFCMAC
(global)
0.5
Amplitud
-0.5
RFCMAC
(local+global)
-1
-1.5
-2
0 100 200 300 400 500 600 700 800 900 1000
Muestras
Error cuadrtico
0.07
0.06
0.05
0.04
Amplitud
FCMAC RFCMAC
0.03 (Local)
RFCMAC
0.02
(goblal)
0.01 RFCMAC
(local+goblal)
0
0 100 200 300 400 500 600 700 800 900 1000
muestras
0.5
HRFCMAC
0
Amplitud
-0.5 Referencia
-1
-1.5
-2
0 100 200 300 400 500 600 700 800 900 1000
Muestras
Error
1.5
1
HFCMAC
0.5
0
Amplitud
-0.5
HRFCMAC
-1
-1.5
-2
0 100 200 300 400 500 600 700 800 900 1000
Muestras
relacionada con el ancho de banda y que se mantenga la estabilidad, lo cul est relacionado
con el margen de fase.
Un controlador muy usado en lazo cerrado es el control Proporcional, Integral, Derivativo
(P ID). La tarea de diseo se reduce a ajustar las ganancias Kp , Ki , Kd de los controladores
(sintonizacin Ziegler-Nichols).
Al sufrir cambios un sistema de control no lineal (tales como su punto de operacin ) sufre
variaciones en sus parmetros, estas variaciones pueden afectar severamente la estabilidad y
el comportamiento del sistema. El uso del control adaptable tiene como objetivo redisear
automticamente el controlador del sistema cuando ocurren estos cambios en los parmetros.
Existen dos esquemas de control adaptable:
El sistema de control adaptable con modelo de referencia directo, modica los parmet-
ros del controlador directamente.
Un sistema de control adaptable con modelo de referencia indirecto, modica los parmet-
ros del modelo de referencia, y los parmetros de este modelo de referencia son utilizados
para calcular los parmetros del controlador.
planta con estimados y el controlador es diseado asumiendo que los parmetros de la planta
estimada representan los valores verdaderos de la planta original.
xn = f x; x;
_ :::; xn 1
_ :::; xn
+ g x; x; 1
u (4.2)
y = x
Se dene A; B y C como:
100 Control de sistemas dinmicos
2 3 2 3 2 3
0 1 0 0 0 0 1
6 7 6 7 6 7
6 0 00 1 0 7 6 0 7 6 0 7
6 7 6 7 6 7
6 .. .. . . .. 7
.. .. 6 ..7 6 ..7
A=6 . .. .. . 7; B=6 .7; C=6 .7
6 7 6 7 6 7
6 0 0 0 0 1 7 6 0 7 6 0 7
4 5 4 5 4 5
0 0 0 0 0 1 0
1) T
y x = [x1 ; x2 ; :::; xn ]T = x; x;
_ :::; x(n 2 Rn ; es el vector de estados, se da por hecho
que todos los estados xi y la salida y, estn disponibles para ser medibles. Para que el sistema
(4.2) sea controlable, se requiere que g (x) 6= 0 para x en una regin de controlabilidad
Uc Rn : Sin perdida de generalidad, se da por hecho que 0 < g (x) < 1; para x 2 Uc :
Si f (x) y g (x) son conocidos, entonces se puede elejir una ley de control u para cancelar
las no linealidades y disear el controlador basado solamente en la teora de control lineal.
Se dene el vector de la seal de referencia como yd ; sea e = yd x = yd y 2 R; el error
del vector de trayectoria e se dene como:
1 T
yd = yd ; :::; ydn 2 Rn (4.4)
e = yd y
1 T
e = _ :::; en
e; e; = [e1 ; e2 ; :::; en ]T 2 Rn
El objetivo del control es forzar la salida del sistema y; a seguir una seal de referencia
acotada yd , bajo la condicin de que todas las seales involucradas son acotadas. Sea k =
[k1 ; :::; kn ]T 2 Rn tal que todas las races del polinomio sn + k1 sn 1
+ ::: + kn ; se encuentren
del lado izquierdo del plano complejo. Si las funciones f (x) y g (x) son conocidos, entonces
se puede elejir una ley de control u ideal como:
1
u = f (x) + k T x + ydn (4.5)
g (x)
Donde u = u ; substituyendo (4.5) en (4.1), se obtiene el sistema en lazo cerrado dado
por la expresin:
4.2 Control adaptable basado en las redes CMAC 101
en + kn en 1
+ ::: + k1 e = 0
Se dene:
2 3 2 3
0 1 0 0 0 0
6 7 6 7
6 0 0 1 0 0 7 6 0 7
6 7 6 7
6 .. .. .. .. .. .. 7 6 ..7
=6 . . . . . . 7; B=6 .7 (4.6)
6 7 6 7
6 0 0 0 0 1 7 6 0 7
4 5 4 5
kn kn 1 kn 2 kn 3 k1 1
e_ (t) = e (4.7)
Donde el objetivo de control implica iniciar de cualquier condicin inicial, se tiene limt!1 e (t) =
0; tal que es estable, la salida de la planta y, converge a la salida ideal yd , asintticamente.
1 h i
uI = ^ T n
f (x j wf ) + k x + yd (4.8)
g^ (x j wg )
donde y B se denen como (4.6). Para el desarrollo de las leyes adaptables ms con-
venientes para ajustar los pesos de la red HFCMAC, se elijen los parmetros ptimos wf y
wg denidos por los siguientes trminos:
wg = arg m n sup j^
g (x j wg ) g (x)j
wg 2 g x2 x
f (x) = f^ x j wf + f
f = f (x) f^ x j wf
g (x) = g^ x j wg + g
g = g (x) g^ x j wg
donde f y g; son los errores de aproximacin minimos de f~ (x) y g~ (x) ; los cules se
denen a continuacin:
f~ = f (x) f^ (x j wf ) (4.13)
= f^ x j wf + f f^ (x j wf )
= wf 'f (x) + f wfT 'f (x)
= w~f 'f (x) + f
g~ = g (x) g^ (x j wg ) (4.14)
= g^ x j wg + g g^ (x j wg )
= wg 'g (x) + g wgT 'g (x)
= w~g 'g (x) + g
donde w~iT 'i = w~i T 'i wiT 'i ; i denota a las funciones f (x) y g (x). En el proceso de diseo
del controlador, el trmino de incertidumbre se aade mediante el siguiente trmino:
= f + g uI (4.15)
= f (x) f^ x j wf + g (x) g^ x j wg uI
Se realiza la consideracin que la incertidumbre est acotado por una constante positiva
pequea ; j j : Utilizando el procedimiento anterior, la ecuacin (4.11) se reescribe como:
hh i i
e_ (t) = e + B f^ (x j wf ) f^ x j wf + g^ (x j wg ) g^ x j wg uI + B (4.16)
104 Control de sistemas dinmicos
e_ (t) = e+B wfT 'f (x) wf T 'f (x) + wgT 'g (x) wg T 'g (x) uI + (4.17)
e_ (t) = e+B wfT wf T 'f (x) + wgT wg T 'g (x) uI +
e_ (t) = e + B w~fT 'f (x) + w~gT 'g (x) uI + B
Utilizando la ley (4.19), no se puede garantizar que los parmetros wf y wg ; sean acotados.
Si wf diverge a innito, entonces el sistema HFCMAC f^ (x j wf ) ; podra incrementarse y
resultar en un control no acotado uI . Al desarrollar un sistema estable (donde todas las
variables estn acotadas), se puede modicar la ley de adaptacin tal que los parmetros
sean acotados. Sean los conjuntos compactos f y g para wf y wg se denen como:
Donde ; wf y wg son constantes, se requiere que jwg j sea acotado por abajo por 0 < ;
de (4.8) se pude observar que g^ = wgT 'g (x) ; es diferente de cero. Se modican las leyes de
(4.19) para garantizar que wf 2 f y wg 2 g:
el hiperplano de soporte. Las leyes de adaptacin modicadas con proyeccin para el sistema
neuro-difuso adaptable indirecto se explica a continuacin:
Para wf se dene w , = 1; 2 n; usando:
8
>
> P B' (x) e (t) si jw j < Mf
<
w_ (t) = P B' (x) e (t) si P BwT ' (x) e (t) 0 (4.21)
>
> si jw j = Mf
: T ( P B' (x) e (t)) si P BwT ' (x) en (t) < 0
w wT ' (x)
T f P B' (x) e (t)g = P B' (x) e (t) + P Be (t)
jw j2
Para wg
(
P B' (x) e (t) si P BwT ' (x) e (t) < 0
w_ (t) = si w =
80 si P BwT ' (x) e (t) 0
>
> P B' (x) e (t) si jw j < Mf
<
w_ (t) = P B' (x) e (t) si P BwT ' (x) e (t) 0 en otro caso
>
> si jw j = Mf
: T ( P B' (x) e (t)) si P BwT ' (x) en (t) < 0
(4.22)
Donde " es una constante positiva pequea.
Teorema 4.1 Sean los conjuntos compactos f y g denidos en (4.20). Si los valores
iniciales de los parmetros satisfacen wf (0) 2 f y wg (0) 2 g; entonces las leyes (4.21) y
(4.22) garantizan que wf (t) 2 f y wg (t) 2 g; para todo t 0:
V_ f = wT w_ (4.24)
4.2 Control adaptable basado en las redes CMAC 107
w wT ' (x)
V_ f = wT P B' (x) e (t) + P Be (t) =0 (4.25)
jw j2
As que jwg j se incremente. si P BwT ' (x) e (t) 0; wg es jo. entonces jwg j :
Teorema 4.2 Se considera un sistema dinmico del tipo 4.2 y dado un control adaptable
HFCMAC como en 4.8, 4.9 con la ley adaptable 4.19, la estabilidad del sistema de control
en lazo se garantiza, i.e., el error de trayectoria e es acotado y converge a:
Z
1 T 2
l m sup jejQ0 dt (4.27)
T !1 T 0
T 1
donde Q0 = (Q ); PB PB :
Es obvio que V es una funcin denida positiva para cualquier t, V (t) 0: De hecho,
V (t) representa una medida euclidiana variante en el tiempo de la distancia de la salida
de la planta con respecto a la seal de referencia ms la distancia de los parmetros del
108 Control de sistemas dinmicos
controlador HFCMAC de sus valores ptimos. i.e. e (t) = 0; wfT (t) = wf T ; y wgT (t) = wg T :
Los cules f; g; son constantes positivas y P es una matriz denida positiva que satisface la
ecuacin de Lyapunov, con la ley de aprendizaje, donde B = [0; 0 0; 1]T ; P es la solucin
de e conocida, tal que existe una matriz simtrica P (P = P T ) denida positiva de n n; la
cul satisface la ecuacin de Lyapunov:
T
P +P = Q; Q = QT > 0 (4.29)
Donde Q es una matriz de n n denida positiva, y est dado por (4.6). Con (4.29) la
derivada en el tiempo de V a lo largo de la trayectoria del sistema en lazo cerrado puede ser
derivado como:
1
V_ = eT Qe + eT P B + w~fT w_ fT + T
f eP B'fn (x)
f
1
+ w~gT w_ gT + T
g e P B'gn (x) uI
g
Con (4.19) y
V_ = eT Qe + eT P B (4.30)
donde X; Y; 2 <n k
son cualquier matriz, es cualquier matriz denida positiva, se tiene:
T
eT P B eT e + PB 1
PB (4.32)
T
donde = > 0; < Q: Porque uI es acotado (wf y wg son acotados )
T 1
PB PB
V_ eT (Q )e + = Q0 kek2 + k k k k (4.33)
4.2 Control adaptable basado en las redes CMAC 109
Por lo que:
Z T
1 V0
eT Q0 edt V0 VT + T + (4.34)
T 0 T
(4.27) es estable.
4.2.3. Simulaciones
El sistema barra-esfera se muestra en la gura 4.1, consiste de una barra horizontal sobre
la cul se desplaza una esfera, el objetivo del sistema es ubicar la esfera en una posicin
dada al modicar el ngulo . En este ejemplo se realiz un control de posicin de la esfera
sobre la barra, sin embargo con este sistema se puede atacar el problema de regulacin y el
de trayectoria.
2 3 2 3 2 3
x_ 1 x2 0
6 7 6 7 6 7
6 x_ 2 7 6 2 7 6 0 7
6 7 = 6 (x1 x4 sin x3 ) 7 + 6 7u
6 x_ 7 6 x4 7 6 0 7
4 3 5 4 5 4 5
x_ 4 0 1
y = x1
T
_ ;_
Donde x = (x1 ; x2 ; x3 ; x4 )T = r; r; es el vector de estados del sistema, r es la posicin
de la esfera, es el ngulo de la barra con respecto a la horizontal y y = r es la salida
del sistema. El control u es igual a la aceleracin de . Los valores nominales del sistema
barra-esfera son: = 0;71; = 9;8; k = 5=7; kg = 75; rs = 3;175 10 2 m; L = 0;405m;
km = 0;0075N m=amp; ke = 0;0075volts s=rad; Ra = 9 ; Bm = 1;6 10 3 N m s=rad;
Jm = 7;35 10 3 N m s2 =rad: Se utiliza un control indirecto HFCMAC.
Las simulaciones del sistema de control mediante la red HFCMAC se muestran en la
gura 4.2, con este esquema de control se pueden compensar las incertidumbres tales como
la friccin y la gravedad, adems se puede ajustar la accin de control ya que presentan
una ley adaptable. En la gura 4.2 est representado el control de posicin de la esfera y
en la gura 4.3 se presenta el error instantneo. Los resultados muestran que el controlador
adaptable HFCMAC puede controlar un sistema no lineal.
4.2 Control adaptable basado en las redes CMAC 111
Control HFCMAC
1
Referencia
0.8 HFCMAC
0.6
0.4
0.2
Amplitud
-0.2
-0.4
-0.6
-0.8
-1
0 100 200 300 400 500 600 700 800 900 1000
Tiempo
Error
1.5
HFCMAC
0.5
Amplitud
-0.5
-1
-1.5
0 100 200 300 400 500 600 700 800 900 1000
Tiempo
Conclusiones
5.1. Conclusiones
Se disearon diferentes esquemas de identicacin para sistemas no lineales a partir de
la red neuronal CMAC propuesta inicialmente por los trabajos de J. Albus en [1] y [2], se
realiza una extensin combinando redes neuronales y sistemas difusos surgiendo as la red
neuronal CMAC difusa (FCMAC).
La red FCMAC combina ambas tcnicas: la capacidad de adaptacin de la red neuronal
y el conocimiento a priori de un experto en las reglas de un sistema difuso. Esta red presenta
un ajuste muy rpido de sus pesos, ya que a diferencia de la red ANFIS que retropropaga el
error a cada una de sus neuronas en las diferentes capas que lo componen para ajustar sus
pesos, la red FCMAC solo ajusta los pesos de las neuronas activadas por las entradas. La
red FCMAC presenta dos limitantes:
Para resolver la primer limitante, en este trabajo se propone una nueva topologia de
red recurrente FCMAC (RFCMAC). La primer topologa RFCMAC presenta una retroal-
114 Conclusiones
imentacin local en la capa dos, la segunda topologa tiene una retroalimentacin global
salida-entrada y una tercera presenta la combinacin de ambas retroalimentaciones local ms
global. El algoritmo de actualizacin de los pesos est basado en el algoritmo de retropropa-
gacin del error (backpropagation). Se realiza un anlisis va segundo mtodo de Lyapunov
para demostrar estabilidad del sistema.
Para resolver la segunda limitante, se propone una nueva topologa de red neuro-difusa
CMAC con estructura jerrquica (HFCMAC), el cul no presenta el problema del incre-
mento en las reglas difusas al aumentar el nmero de entradas en la red al aumentar las
funciones de pertenencia para cada entrada. Se disean las redes HFCMAC con entradas
de baja dimensionalidad. Sin embargo con esta nueva topologa nicamente se limita a sis-
temas estticos, para poder realizar una identicacin de sistemas dinmicos se propone
una estructura jerrquica recurrente FCMAC (HFCMAC). Ambas topologas con estructura
jerrquica presentan el algoritmo de entrenamiento de retro-propagacin, se realiza el anlisis
de estabilidad de Lyapunov para asegurar la convergencia de los pesos.
La red CMAC con sus respectivas extenciones es capaz de controlar sistemas no lineales.
Especcamente se dise un esquema de control adaptable indirecto HRFCMAC que realiza
el control de un sistema barra-esfera, se realiza tambin una prueba de estabilidad del sistema.
Algunas de las aplicaciones de la red neuronal articial CMAC incluye: Identicacin
de sistemas no lineales estticos y dinmicos; Reconocimiento de patrones; Procesamiento
digital de seales; Control de sistemas no lineales en tiempo real, entre otros.
Algunos tpicos de inters generados en este trabajo y que pueden ser estudiados ms
adelante son:
Realizar un anlisis ms profundo en las variables intermedias que se encuentran entre los
niveles de la estructura jerrquica, ya que el diseo de la misma al carecer de un signicado
fsico resulta difcil de implementar. Disear un control adaptable directo mediante redes
HFCMAC para sistemas no lineales con mltiples entradas y mltiples salidas.
Bibliografa
[1] Albus, J. S. (1975 a ), Data storage in the Cerebellar Model Articulatin Controller,
Transactions of the ASME Journal of Dynamic Systems, Measurement and Control,
Vol. 97, series G, No.3, pp. 228-233, September 1975.
[2] J. S. Albus, A New Approach to Manipulator Control: the Cerebellar Model Articu-
lation Controller (CMAC), Transactions of the ASME Journal of Dynamic Systems,
Measurement and Control, Vol. 97, series G, No.3, pp. 220-227, September 1975.
[3] A. M. Lyapunov, The General Problem of the Stability of Motion. Kharkov, Russia:
Kharkov Math. Soc., 1892.
[4] Martin Brown, Chris Harris. Neurofuzzy adaptive modelling and control. Prentice Hall
International. ISBN 0-13-134453-6. 1994.
[5] Commuri, S. and F. L. Lewis (1995a), Control of unknown nonlinear dynamical systems
using CMAC neural networks: Structure, Stability and passivity. IEEE International
symposium on Intelligent Control, San francisco, CA, pp. 123-129.
[6] Chih Min Lin and Ya Fu Peng, Adaptive CMAC based supervisory control for uncertain
nonlinear systems. IEEE Transactions on Systems, Man and Cybernetics, Vol. 34, No.
2, April 2004.
[7] C.-T. Chiang and C.-S. Lin, CMAC with general basis functions, Neural Networks, vol.
9, no. 7, pp. 11991211, 1996.
116 BIBLIOGRAFA
[8] Ching-Hung Lee and Ching-Cheng Teng, Identication and Control of Dynamic Systems
Using Recurrent Fuzzy Neural Networks, IEEE Transactions on Fuzzy Systems, Vol. 8,
No. 4, August 2000.
[9] J.-Y. Chen, P.-S. Tsai and C.-C. Wong, Adaptive design of a fuzzy cerebellar model
arithmetic controller neural network, IEE Proc.-Control Theory Appl., Vol. 152, No. 2,
Marzo 2005
[10] S. Commuri, F. L. Lewis. CMAC Neural Networks for Control of Nonlinear Dynamical
Systems: Structure, Stability and Passivity. Automtica, Vol. 33, No. 4, pp. 635-641,
1997.
[11] Francisco J. Gonzlez Serrano, Anbal R. Figueiras vidal and Antonio Arts Rodrguez.
Generalizing CMAC Architecture and Training. IEEE Transactions on Neural Networks.
Vol. 9. No. 6. pp. 1509-1514, November 1998.
[12] Ming-Ling Lee, Hung-Yuan Chung, Fang-Ming Yu. Modeling of hierarchical fuzzy sys-
tems. Fuzzy Sets and Systems 138 (2003) 343361. Department of Electrical Engineer-
ing, National Central University, Taiwan.
[13] Jen Yang chen, An Adaptive FCMAC controller, Electronic Engineering Department.
China Institute of Technology.
[15] Kevin M. Passino. Intelligent Control: A Tutorial, IEEE Joint Int. Conference on Control
Applications & Int. Symp. on Intelligent Control CCAISIC2001. Mxico, DF., Sept. 5-7,
2001.
[17] Kurkt Hornit. Multilayer Feedforward Networks are Universal Approximators. Neural
Networks. pp. 359-366, Vol. 2, 1989.
[19] L. Zadeh, Fuzzy sets, inform. Contr., Vol. 8, No. 3, pp. 338-353, 1965.
[20] Young H. Kim, Frank L. Lewis. Optimal Design of CMAC Neural Network Controller
for Robot Manipulators. IEEE Transactions on Systems, Man and Cybernetics. Vol. 30.
No. 1. February 2000.
[21] Filson H. Glanz, W. Thomas Miller, L. gordon Kraft. An overview of the CMAC neural
network. Robotics Laboratory, Electrical Engineering Department.
[22] Qiang Gan, Eric M. Rosales, A Comparative Study on CMAC and ANFIS for Nonlinear
System Modelling, Technical Report, Department of Computer Science, University of
Essex, 2002.
[23] G.V.S. Raju, Jun Zhou, and R. A. Kisner, Hierarchical fuzzy Control, International
Joint Control., Vol. 54, No. 5, pp. 1201 -1216 , 1991.
[24] G.V.S. Raju, Jun Zhou, Adaptive Hierarchical Fuzzy Controller, IEEE Transactions on
Systems, Man and Cybernetics, Vol. 23, No. 4, July-August 1993.
[25] Rong-Jong Wai, Chih-Min Lin, and Ya-Fu Peng, Adaptive Hybrid Control for Linear
Piezoelectric Ceramic Motor Drive Using Diagonal Recurrent CMAC Network, IEEE
Transactions on Neural Networks, vol. 15, No. 6, November 2004.
[26] P. S. Sastry, G. Santharam, and K. P. Unnikrishnan, Memory neural networks for identi-
cation and control of dynamic systems, IEEE Trans. Neural Networks, vol. 5, 306-319,
1994.
118 BIBLIOGRAFA
[27] Li-Xin Wang. Analysis and Design of Hierarchical Fuzzy Systems. IEEE Transactions
on Fuzzy Systems, vol. 7, No. 5, October 1999.
[28] C. Wei and L.X. Wang, A Note on Universal Approximation by Hierarchical Fuzzy
Systems, Information Sciences, Vol. 123, 241-248, 2000.
[29] Xiao-Jun Zeng and John A. Keane, Approximation Capabilities of Hierarchical Fuzzy
Systems, IEEE Transactions on Fuzzy Systems, Vol. 13, No. 5, October 2005.
[30] Zhong Ping Jiang, Yuan Wang, Input to state stability for discrete time nonlinear
systems, Automtica 37, 857-869, 2001.
[31] Russell L. Smith. Intelligent Motion Control with an Articial Cerebellum. Ph. D. dis-
sertation, The Department of Electrical and Electronic Engineering. University of Auck-
land, New Zealand. July 1998.
[32] Modular on line function approximation for scaling up reinforcement learning, Chen
Khong Tham, University of Cambrige, England. October 1994, Thesis doctoral.
[33] Mehrdad Hojati, Saeed Gazor, Hybrid Adaptive Fuzzy Identication and Control of
Nonlinear Systems, IEEE, Transactions on fuzzy systems, Vol. 10, No. 2 April 2002.
Captulo 6
Apndices
donde slo se considera la parte positiva de la raz cuadrada. Es inmediato comprobar que
la norma euclideana satisface las siguientes propiedades:
kxk = 0; si y slo si x = 0 2 Rn :
6.1.2. Matrices
Se denotar por Rn m
al conjunto de matrices A de dimensin n m formada por arreglos
de nmeros reales ordenados por n renglones y m columnas:
2 3
a a12 a1m
6 11 7
6 a21 a22 a2m 7
6 7
A = faij g = 6 . .. .. .. 7
6 .. . . . 7
4 5
an1 an2 anm
Producto de matrices
C = fcij g = AB
2 32 3
a a12 a1p b11 b12 b1n
6 11 76 7
6 a21 a22 a2p 76 b21 b22 b2n 7
6 76 7
= 6 . .. .. .. 76 .. .. .. . 7
6 .. . . . 76 . . . .. 7
4 54 5
am1 am2 amp bp1 bp2 bpn
AB 6= BA; en general.
Matrices especiales
xT Ax > 0; 8x 2 Rn ; con x 6= 0 2 Rn
122 Apndices
xT Ax 0; 8x 2 Rn
donde I 2 Rn n
es la matriz identidad de dimensin n. Para el caso de una matriz simtrica
A = AT 2 R n n
; sus valores propios son tales que:
i fAg denota el valor propio de la matriz A. max fAg denota el valor propio ms
grande de la matriz A si todos los valores propios son reales. mn fAg denota el valor
propio ms pequeo de la matriz A si todos los valores propios son reales. El teorema
de Rayleigh-Ritz establece que para todo x 2 Rn se tiene:
1
kA 1 k = m ni j i fAgj
:
kAk = 0; si y slo si A = 0 2 Rn m
:
donde kAk denota la norma espectral de la matriz A, mientras que kxk denota la norma
euclideana del vector x. Siendo y 2 Rn ; el valor absoluto de y T Ax satisface satisface:
1
(w) = e2 (n)
2
donde e (n) es la seal del error medida en el tiempo n. Derivando (w) con respecto al
vector de pesos w se obtiene:
@ (w) @e (n)
= e (n)
@w @w
El algoritmo LM S opera con una neurona lineal, por lo que se puede expresar la seal de
error como:
e (n) = d (n) sT (n) w (n)
6.2 B Algoritmo de aprendizaje 125
por lo tanto
@e (n)
= s (n)
@w (n)
y
@ (w)
= e (n) sT (n)
@w
= s (n) e (n)
s1 (k ) w1 (k )
s2 (k ) ( ) d k (n )
1
M
vn (k ) yn (k )
sn (k ) wn (k ) ek (n )
Utilizando ste ltimo resultado como un estimado del vector gradiente, se puede escribir:
Por ltimo, utilizando la ecuacin 6.1 del vector gradiente para el algoritmo del paso de-
scendente descrito por w (n + 1) = w (n) g (n) ; se puede formular el algoritmo LM S
como:
w^ (n + 1) = w^ (n) + s (n) e (n) (6.2)
LM S 6.2 se puede observar que depende del trmino ; taza de aprendizaje y del vector
de entrada s (n) ; de aqui se dedude que la convergencia del algoritmo LM S depende del
vector de entrada s (n) y del valor asignado al parmetro de aprendizaje : Un anlisis es-
tadistico del algoritmo LMS la cul est basada en la llamada teora de la independencia
(Widro et al. 1976), la cul asume que la taza de aprendizaje es sucientemente pequea
tal que LM S converge al valor promedio cuadrado, la taza de aprendizaje satisface la
condicin:
2
0< <
max
utilizar la expresin:
0
(n) =
1 + (n= )
Donde 0 y son constantes seleccionadas por el usuario. Con estas modicaciones el al-
goritmo opera como un aproximador estocstico tradicional y la convergencia de los pesos
llegan a ser ptimos.
6.2.2. Retropropagacin
La seal de error en la salida de la neurona j en la iteracin k est denido por:
Se dene el valor instantneo del error para la neurona j como 21 e2j (k) ; la suma de los errores
instantneos al cuadrado se formula como:
1X 2
l
" (n) = e (k)
2 j2C j
@" (k)
= ej (n) (6.4)
@ej (k)
@ej (k)
= 1
@yj (k)
@yj (k)
= 'j (vj (k))
@vj (k)
@vj (k)
= yj (k)
@wji (k)
@" (k)
= ej (k) 'j (vj (k)) yj (k)
@wji (k)
Perturbaciones e incertidumbres
Las consideraciones sobre sensibilidad son importantes en el diseo de sistemas de control,
ya que todos los elementos fsicos tienen la propiedad de cambiar con el ambiente y con el
tiempo, no se pueden considerar a los parmetros de un sistema de control completamente
estacionarios durante toda su vida de operacin, todos los sistemas fsicos estn sujetos a
seales externas ruido durante su funcionamiento. Una perturbacin es una seal que
tiende a afectar negativamente el valor de la salida de un sistema. Si la perturbacin se
genera dentro del sistema se denomina interna, en tanto que una perturbacin externa se
produce fuera del sistema es una entrada. En general, un buen sistema de control debe ser
insensible a la variacin de los parmetros pero sensible a los comandos datos de entrada.
El efecto de la realimentacin sobre el ruido y la perturbacin depende en mayor medida
en que parte del sistema se presentan las seales externas, en la mayoria de las ocasiones la
realimentacin puede reducir los efectos del ruido y las perturbaciones en el desempeo del
sistema.
6.2 B Algoritmo de aprendizaje 129
Para el caso de que se tengan algunos pesos jos se puede tomar ji (k) = 0.
Existen algunas heursticas que proveen una gua adecuada para acelerar la convergencia
del algoritmo de retropropagacin por medio de la tasa de aprendizaje:
Todos los parmetros ajustables de la red deben tener su propio parmetro de apren-
dizaje.
Cuando la derivada de la funcin de costo con respecto a los pesos sinpticos tiene el
mismo signo algebraico para iteraciones consecutivas del algortimo, el parmetro de
aprendizaje se debe incrementar.
evolucin del concepto de aproximacin de funciones, y se describe como las redes neuronales
han proporcionado buenos resultados en este tipo de tareas, un comentario importante es
que la utilizacin de las redes neuronales estticas presenta las desventaja de crear modelos
secuenciales, entrenados en un esquema serie-paralelo, por lo que hace que el proceso de
ajuste de los pesos sea muy lento.
En el primer caso se busca representar cierta clase de funciones como una suma de
potencias a travs de manipular series geomtricas, como lo son las series de Mclaurin y de
Taylor. Este enfoque permite obtener versiones simplicadas de funciones, con el nico n
de ayudar al anlisis de los problemas y tambin para simplicar los clculos. En el segundo
caso est enfocado de manera experimental debido a que no se cuenta con una expresin
explcita de la funcin de la cul se desea obtener una aproximacin.
Se dene el problema de aproximacin de funciones de la siguiente manera [15]:
Denicin 6.2 Sea F (s; ) una funcin de aproximacin no lineal ajustable. El vector
s = [s1 ; s2 ; :::; sn ]T es la entrada del aproximador y el vector = [ 1; 2 ; :::; p ]
T
dene
sus parmetros, donde F es la funcin de aproximacin. Sea G(s; z) una funcin donde
s = [s1 ; s2 ; :::; sn ]T es la entrada y z = [z1 ; z2 ; :::; zn ]T es una entrada auxiliar para G. El
problema de la aproximacin de funciones se divide en dos etapas, en la primera parte se
132 Apndices
debe proponer una estructura para la funcin F , y en la segunda parte se debe denir la
forma para ajustar el vector de parmetros :
u (k )
z 11
z 11
y p (k + 1)
f ()
z 11
z 11
y p (k )
z 11
6.4. D Estabilidad
Se considera una ecuacin diferencial ordinaria nolineal (ODE) en tiempo contino:
con el estado x 2 Rn :
Para el estado inicial x 2 Rn en el tiempo inicial t = 0; se denota la solucion de (6.7) por
' (t; x) ;i.e:
6.4 D Estabilidad 135
u (k )
z 11
z 11 y p (k + 1)
f ()
z 11
M
y p (k )
z 11 e (k + 1)
+
z 11
yred (k )M
u (k ) z 11
RN
z 11 yr e d (k + 1)
M
z 11
' (0; x) = x
Se asume la unicidad de ' (t; x) sobre un intervalo y que 0 es un estado de equilibrio para
ODE (6.7), i.e. f (0) = 0:
La ODE es llamada estable asintticamente globalmente (GAS) si para todos los
valores iniciales x 2 Rn se tiene:
Estabilidad: para todo > 0 existe > 0 con
para todo t 0:
Globalmente atractivo: para todo > 0 y r > 0 existe T > 0 con
u (k )
z 11
z 11 y p (k + 1)
f ()
z 11
M
y p (k )
z 11
e (k + 1)
+
z 11 -
u (k ) z 11
RN
z 11 yr e d (k + 1)
M
z 11
para todo t T:
Ms convenientemente se pude denir la estabilidad asinttica globalmente mediante la
comparacin de funciones, para esto es necesario que denamos algunas clases de funciones
que nos sern de gran utilidad.
Denicin 6.4 Funcin clase K. Si una funcin continua ( ) : [0; a) ! [0; 1) es estric-
tamente creciente con (0) = 0: ( ) es llamada una funcin clase K:
Denicin 6.5 Si (s) es una funcin clase K, y adems no est acotado, i.e. lim (s) =
s!1
1 se dice que (s) pertenece a la clase K1 .
Denicin 6.6 Funcin clase KL. Una funcin contina (s; t) : [0; a) [0; 1) ! [0; 1)
es llamada una funcin clase KL si el primer argumento de la funcin (s; ) es clase K, y
el segundo argumento de la funcin ( ; t) es estrictamente decreciente y lim ( ; t) = 0 .
t!1
6.4 D Estabilidad 137
4.5 9000
4 8000
3.5 7000
3 6000
2.5 5000
2 4000
1.5 3000
1 2000
0.5 1000
0 0
0 10 20 30 40 50 60 70 80 90 100 0 10 20 30 40 50 60 70 80 90 100
a) Funcin clase KL b)
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
0 5 10 15 20 25 30 35 40 45 50
c)
donde u (t) 2 Rm es la entrada perturbacin del sistema y la salida son los estados x 2 Rn :
138 Apndices
(),t x
(),x t
(0,0)
t
Para los valores iniciales x0 2 Rn con el tiempo inicial t = 0, u (t) debe ser medible y acotada,
i.e. u (t) 2 L1 : La solucin de (6.8) est dada por:
ISS requiere que el sistema con entrada permanezca GAS sobre un trmino de error depen-
diendo del tamao de la perturbacin u (t) medida con:
El sistema es llamado ISS, si existe una funcin 2 KL y una funcin 2 K1 tal que
para todos los valores iniciales de x, todas las perturbaciones u en todo el tiempo t 0 la
siguiente desigualdad permanece:
(),t x
(),t x
(),x t
(),x t
()w
()w
(0,0)
t (0,0)
t
(
u ( ) ; 2 [0; t]
donde uj[0;t] ( ) := : Observando a y separadamente, se identican
0; 2
= [0; t]
dos componentes:
GAS: asintticamente estable globalmente para u = 0.
x_ = u sat (x)
8
>
> 1; x > 1
<
donde sat (x) = x; x 2 [ 1; 1] : El sistema es GAS con entrada 0, pero para u (t) = 2 y
>
>
:
1; < 1
x = 1 se obtiene la solucin:
' (t; x; u) = 1 + t
y
DV (x) f (x) 3 (kxk)
d
permanece para todo x 2 Rn : Donde dx
V (' (t; x)) = DV (' (t; x)) f (' (t; x)) 3 (k' (t; x)k)
implica que V (' (t; x)) es estrictamente decreciente y que tiende a 0.
Un sistema es ISS si y solo si existe una funcin ISS de Lyapunov V : Rn ! R y las
funciones 1; 2; 4 2 K1 ; 3 2 K tal que:
y kuk 4 (kxk) )
DV (x) f (x; u) 3 (kxk)
Para sistemas lineales ISS es equivalente a GAS con entrada 0, pero no se cumple
para sistemas lineales
ISS puede ser caracterizado mediante las funciones ISS de Lyapunov (si y solo si)