Sie sind auf Seite 1von 18

Control neuronal autoajustable.

Una contribucin importante al incremento de las posibilidades de las redes neuronales en la solucin
de problemas prcticos de control, es el trabajo de Cui y Shin (1992), en el que se propone un esquema
de control neuronal directo para una amplia clase de procesos no lineales. La idea central de este
esquema es entrenar a la red neuronal, retropropagando el error de regulacin en lugar del error de
salida de la red.

En este epgrafe se propone un regulador autoajustable inspirado en las ideas de Cui y Shin, pero con la
caracterstica particular de que el entrenamiento previo se sustituye por un ajuste permanente de los
coeficientes de peso basado en el error de regulacin.

Figura 8.28. Control neuronal auto-ajustable

En la figura 8.28 se muestra el esquema propuesto para el regulador neuronal auto-ajustable. La red
neuronal que hace las funciones de regulador, es un perceptrn de 3 capas de neuronas (una capa
escondida), cuyos coeficientes de peso se ajustan utilizando el algoritmo de retropropagacin del error.
En este caso, sin embargo, en lugar del error de salida de la red:

e u ( t ) ud ( t ) u( t ) (8.117)

se utiliza el error de salida del proceso:

ey ( t) y r ( t) y( t) (8.118)

para ajustar los coeficientes de peso del regulador neuronal.

Figura 8.29. Estructura del regulador neuronal en el esquema auto-ajustable

En la fig. 8.29 se representa la estructura de la red que hace las funciones de regulador. La capa de
salida tiene una sola neurona, ya que estamos limitando el anlisis al caso de procesos de una entrada y
una salida. En la capa de entrada se introducen el valor actual y algunos valores anteriores del error de
regulacin, es decir:
x( t ) [e y ( t ) e y ( t 1) e y ( t n)] (8.119)

En los casos que hemos simulado hasta el momento, el valor de n=2 ha resultado suficiente para
obtener un comportamiento adecuado del sistema en lazo cerrado. Esto implica que el nmero de
neuronas en la capa de entrada puede ser de 3. Un nmero semejante de neuronas en la capa escondida
ha sido igualmente satisfactorio.

En la figura 8.29 se definen los coeficientes de peso wji y vj de las conexiones de entrada a la capa
escondida y a la capa de salida respectivamente. En lo que sigue vamos a detallar el algoritmo de
actualizacin de esos coeficientes, partiendo del criterio de minimizar el error de regulacin e y ( t) .

La salida de la neurona j de la capa escondida se calcula mediante:

1
hj
1 exp(S j ) , j=1,2,3,.... (8.120)
donde:
3
Sj w
i 1
ji xi (8.121)

Igualmente, la salida de la capa de salida, formada en este caso por una sola neurona, ser:
1
u(t ) (8.122)
1 exp( r )
donde:
3
r v h j j (8.123)
j 1

Definimos como criterio a minimizar, la funcin:


t
1
E( t )
2
e ( k)
k 1
y
2
(8.124)

El procedimiento de minimizacin consiste, como es conocido, en moverse en la direccin del negativo


del gradiente de la funcin E(t) con respecto a los coeficientes de peso vj y wji. El gradiente de E(t) es
E( t ) E( t )
un vector multidimensional cuyas componentes son las derivadas parciales v y , es decir:
j w ji
E( t)
v
E( t)
j
(8.125)
E( t)

w ji
Vamos a obtener, en primer lugar, las derivadas parciales con respecto a los coeficientes de peso de la
neurona de salida:

E( t ) E ( t ) e y e u u ( t ) r
(8.126)
v j e y e u u ( t ) r v j

ey
ey . .( 1) . u( t) (1 u( t) ) . h j (8.127)
eu

En (8.127) se hace uso de la relacin conocida:

1

u( t ) 1 e r e r e r 1 (8.128)
u( t ) (1 u( t ) )
r r 1 e 1 e 1 e r
r 2 r

Definimos:

1 e y u( t) (1 u( t) ) (8.129)
Entonces:
E( t ) ey
1 hj (8.130)
vj eu

ey
En la ecuacin (8.130) aparece la derivada parcial que puede interpretarse como la ganancia
eu
equivalente del proceso. Ms adelante haremos algunas consideraciones acerca de dicho trmino.

La derivada parcial de la funcin E(t) con respecto a los coeficientes w ji se obtiene aplicando de nuevo
la regla de la cadena:

E( t ) E ( t ) e y e u u ( t ) r h j S j
(8.131)
w ji e y e u u ( t ) r h j S j w ji
ey
ey u ( t) (1 u( t) ) v j h j (1 h j ) x i
eu

E( t ) ey
1 v j h j (1 h j ) xi (8.132)
w ji eu
Definimos:
2 j 1 v j h j (1 h j ) (8.133)
y entonces:
E( t ) ey
2 j xi (8.134)
w ji eu

Haciendo uso de las ecuaciones (8.130) y (8.134), el ajuste de los coeficientes de peso v j y wji se realiza
mediante las expresiones:

ey
v j ( t 1) v j ( t ) ( ) 1 hj (8.135)
eu

ey
w ji ( t 1) w ji ( t ) ( ) 2 j xi (8.136)
eu

ey
donde es el coeficiente de aprendizaje y es la ganancia equivalente de la planta.
eu

El obstculo principal para aplicar las ecuaciones de ajuste (8.135) y (8.136) es que en general se
ey
desconoce la ganancia equivalente de la planta . No obstante, en el trabajo antes mencionado de
eu
Cui y Shin, se demuestra que es suficiente conocer el signo de dicho trmino para asegurar la
convergencia de los coeficientes de peso, porque su magnitud puede incorporarse en el coeficiente de
ey
aprendizaje si se cumple la condicin no muy restrictiva de que .
eu

ey
Por otra parte, el signo de puede, en la mayora de los casos, determinarse fcilmente mediante
eu
un simple experimento auxiliar, por ejemplo, la aplicacin de una funcin escaln a la entrada del
proceso. Por ltimo, la suposicin de que el signo de la ganancia permanece constante en un entorno
del punto de operacin del proceso no es muy fuerte y en cualquier caso, la estimacin en tiempo real
del signo de la ganancia podra incorporarse, sin grandes dificultades, en el algoritmo de control.

Teniendo en cuenta las consideraciones anteriores, las ecuaciones (8.135) y (8.136) pueden escribirse
en la forma siguiente:

ey
v j ( t 1) v j ( t) sign( ) 1 hj (8.137)
eu
ey
w ji ( t 1) w ji ( t) sign( ) 2 j xi (8.138)
eu

El valor adecuado del coeficiente de aprendizaje puede determinarse experimentalmente a partir de la


observacin del comportamiento en lazo cerrado del sistema cuando se realizan algunos cambios en el
valor de referencia de la salida.

Las expresiones (8.137) y (8.138) pueden interpretarse como las ecuaciones de adaptacin del
regulador neuronal en lugar de como ecuaciones de entrenamiento, tal como se hace habitualmente. En
efecto, los estudios de simulacin realizados utilizando el esquema de la figura 8.16 y ajustando en
forma permanente los coeficientes de peso vj y wji, mediante (8.137) y (8.138) nos permiten arribar a
las siguientes conclusiones:

- No se requiere generalmente un entrenamiento previo de la red neuronal y una vez que se cierra el
lazo de control, los coeficientes de peso se ajustan en unos pocos perodos de control, llevando el
error de regulacin ey(t) a cero.

- El comportamiento dinmico en lazo cerrado depende exclusivamente de la magnitud del


coeficiente de aprendizaje, correspondiendo a mayores valores de , una respuesta ms rpida que
puede presentar una sobrecresta considerable. Por el contrario, disminuyendo el valor de , el
sistema se amortigua hasta que se logre el tipo de respuesta deseado. El sistema en lazo cerrado
tiene, en general, un comportamiento estable para un amplio rango de valores de .

- Resulta muy conveniente utilizar un coeficiente de aprendizaje variable usando, por ejemplo, la
siguiente expresin:

= + abs ( e y ) (8.139)

De esta forma puede utilizarse un valor bsico pequeo de , por ejemplo =0.1 y el valor efectivo
se incrementa en dependencia de la magnitud del error de regulacin. El coeficiente puede ajustarse
experimentalmente sin grandes dificultades. El uso de la ecuacin (8.128) permite que el sistema
presente una respuesta rpida cuando el error de regulacin es grande y converger lentamente al valor
de referencia. Un comportamiento tal es, sin duda, muy conveniente en la prctica.

Ejemplo 4.

En este ejemplo vamos a mostrar el comportamiento del algoritmo neuronal auto-ajustable discutido en
el epgrafe 8.13 en el control de sistemas no lineales con retardo puro. Consideramos el siguiente
modelo no-lineal para los procesos controlados:

2
Ke Td s
y ( t) u( t) 2 (8.140)
( T1 s 1)( T2 s 1)

La simulacin del control neuronal auto-ajustable la hacemos utilizando en este caso el ambiente de
tiempo real creado en el sistema de simulacin y control CPG (Aguado, 1992).
En la figura 8.30 se representa el comportamiento del sistema en lazo cerrado correspondiente a los
siguientes parmetros del proceso y del regulador:

Td=5 segs. T1=3 segs. T2= 5 segs. (8.141)

=0.6 =0.4 (8.142)

Como puede apreciarse, en este caso se obtiene una respuesta prcticamente perfecta ante cambios en
escaln, tanto positivos como negativos. Dado que las constantes de tiempo y el retardo son
relativamente pequeos, es admisible el uso de valores de y relativamente grandes, sin que se
produzcan sobrecrestas positivas o negativas. Este tipo de comportamiento se observa en forma
general, es decir, para procesos de dinmica rpida, es posible un aprendizaje rpido de la red. Hemos
observado en algunos ejemplos, que son admisibles y convenientes valores de de hasta 5 y ms,
cuando las constantes de tiempo son del orden de milisegundos.

En la figura 8.31 se representa el comportamiento de lazo cerrado del sistema para los siguientes
valores de las constantes:

Td=60 segs. T1=10 segs. T2= 20 segs. (8.143)

=0.05 =0.20 (8.144)

Es decir, se trata de un sistema no lineal con un valor muy grande de retardo que difcilmente puede ser
controlado adecuadamente, por ejemplo, con un regulador PID. No obstante, el regulador neuronal
logra una respuesta que puede considerarse muy buena, dadas las caractersticas del proceso. Ntese
que en este caso, los valores de y son considerablemente ms pequeos, como corresponde a un
proceso de dinmica mucho ms lenta.
El algoritmo de control auto-ajustable basado en una red neuronal presentado en este ejemplo, promete
ser una opcin muy interesante para el control de procesos con dinmica difcil y que no pueden ser
controlados adecuadamente con reguladores PID, incluso en sus versiones adaptables, tal como ha sido
ilustrado mediante los ejemplos de simulacin mostrados. La clase de procesos a los que puede ser
aplicado el algoritmo es muy amplia e incluye la mayora de los que pueden encontrarse en la prctica.
Regulador Neuro-PID

La vigencia de los reguladores PID no deja de sorprender a muchos especialistas y acadmicos en


control automtico, que pronosticaron hace dcadas el declive de esta metodologa de control ante el
surgimiento de las nuevas posibilidades que ofreca la tecnologa digital y el desarrollo de la teora de
control. Lejos de esto, la realidad demuestra que el PID sigue siendo el caballo de batalla principal en
las aplicaciones e incluso, en los ltimos aos, es posible apreciar un resurgimiento del inters terico
en este mtodo.

Uno de los aspectos de los reguladores PID a los que se le dedica mayor atencin es a la posibilidad de
encontrar algoritmos eficientes y robustos de sintonizacin automtica de los parmetros del PID. Este
tema, cuya importancia prctica es difcil exagerar, ha sido abordado utilizando los ms diversos
enfoques tal como fue discutido en el captulo 4.

Sin ignorar las virtudes de algunos de los algoritmos PID auto-ajustables presentados all, nuestra
intencin ahora es mostrar las posibilidades de una nueva alternativa que, de acuerdo con los resultados
de las simulaciones realizadas, parece ser suficientemente general y flexible para abordar el control de
procesos no-lineales que estn sometidos a cambios frecuentes en la referencia y a fuertes
perturbaciones.

El ajuste automtico de los parmetros del PID se logra mediante el entrenamiento en lnea de tres
redes neuronales sencillas, que tienen como entradas el error de regulacin y su primera diferencia.
Este entrenamiento, como veremos a continuacin, se realiza mediante una versin modificada del
algoritmo de retropropagacin que fue utilizada en el epgrafe 8.13.

En la figura 8.32 se presenta un esquema que ilustra el mtodo de control PID auto-ajustable que
proponemos. Como puede observarse, se trata de una estructura PID del tipo incremental o de
velocidad, que se expresa mediante:

u(t) = Kp e(t) + Ki e(t) + Kd 2 e(t) (8.145)

u(t) = u(t-1) + u(t) (8.146)

donde e(t) y 2 e(t) son respectivamente las primera y segunda diferencia del error de regulacin y
u(t) es la variable de control.
Figura 8.32. Esquema de control Neuro-PID

Los parmetros Kp, Ki y Kd son las salidas de tres redes neuronales del tipo perceptrn con dos
entradas y una capa escondida de dos neuronas. Como puede observarse, las dos entradas (error de
regulacin y su primera diferencia) son comunes a las tres redes que se entrenan en lnea mediante el
algoritmo que describimos a continuacin y que corresponde al ajuste de la ganancia Kp.

Consideremos de nuevo el criterio a minimizar:

1 t
E(t ) e( k ) 2 (8.147)
2 k 1

donde:

e(k) = yr (k) y(k) (8.148)

es el error de regulacin; yr (k) es la referencia en la etapa k .

El vector de entrada a la red neuronal se define, para la etapa k:

x ( k ) e( k ) e( k ) (8.149)
Las entradas a las neuronas de la capa escondida, omitiendo por comodidad el ndice de tiempo k se
expresan mediante:

2
S j w ji x i (8.150
i 1

j = 1,2

donde wji representan a los coeficientes de peso de las conexiones entre la capa de entrada y la capa
escondida. Consideramos que la funcin de activacin de las neuronas de la capa escondida es la
funcin sigma y entonces:

1
hj (8.151)
1 exp(S j )

j = 1,2

son las salidas de la capa escondida.

Teniendo en cuenta que los parmetros del PID, en particular la ganancia Kp no debe limitarse al rango
0 1 y tambin en aras de la simplicidad, para la neurona de la capa de salida consideramos una
funcin de activacin lineal, de aqu que:

Kp = v1h1 + v2h2 (8.152)

Para aplicar el algoritmo de retropropagacin, como ya vimos antes, es necesario calcular el gradiente
de la funcin objetivo E(t) con respecto a los coeficientes wji y vj, que se define mediante:
E(t)
v
j
E(t) (8.153)
E(t)

wji

E ( t )
La derivada parcial v puede calcularse, aplicando la regla de la cadena, en la forma siguiente:
j

E ( t ) E ( t ) e( t ) e u ( t ) u ( t ) u ( t ) Kp
(8.154)
v j e( t ) eu ( t ) u ( t ) u ( t ) Kp v j

donde eu(t) es el error de la variable de control, que se define como:

eu(t) = ud(t) u(t) (8.155)

y ud (t) representa el valor requerido o deseado del control en el tiempo t, que a todas luces es
desconocido a priori.

Utilizando ahora las ecuaciones (8.148), (8.149), (8.151), (8.152) y calculando las derivadas parciales
necesarias obtenemos:

E ( t ) e( t )
e( t ) e( t ) h j (8.156)
v j e u ( t )

Por otra parte, la derivada parcial de E(t) con respecto a los coeficientes wij, puede obtenerse aplicando
la siguiente cadena de derivaciones:
E( t ) E ( t ) e( t ) e u ( t ) u ( t ) u ( t ) Kp h j S j
(8.157)
w ji e( t ) e u ( t ) u ( t ) u ( t ) Kp h j S j w ji

y haciendo las sustituciones requeridas se llega a:

E ( t ) e( t )
e( t ) e( t ) v j h j (1 h j ) x i (8.158)
w ji e u ( t )

Las ecuaciones de actualizacin de los coeficientes de peso vj y wji, de acuerdo con el mtodo de la
retropropagacin sern entonces:

e( t )
v j ( t ) v j ( t 1) e( t ) e ( t ) h j (8.159)
e u ( t )

y
e( t )
w ji ( t ) w ji ( t 1) e( t ) e( t ) v j h j (1 h j ) x i (8.160)
e u ( t )

donde el parmetro es el coeficiente de aprendizaje.

e( t )
Ntese que en las ecuaciones (8.159) y (8.160) aparece la derivada parcial e ( t ) que bajo
u

determinadas condiciones, que fueron discutidas en 8.13 puede ser sustituida por su signo. Utilizando
el mismo resultado, se obtiene entonces:

e( t )
v j ( t ) v j ( t 1) e( t ) sign ( ) e( t ) h j (8.161)
e u ( t )

e( t )
w ji ( t ) w ji ( t 1) e( t )sign ( ) e( t ) v j h j (1 h j ) x i (8.162)
e u ( t )

Utilizando un procedimiento semejante al mostrado hasta aqu, podemos derivar las ecuaciones
necesarias para la actualizacin de los coeficientes de peso de las redes que calculan los valores de las
ganancias Ki y Kd correspondientes a los modos integral y derivativo respectivamente.

Para el clculo de Ki obtenemos las ecuaciones de actualizacin:

1 1 e( t )
v j ( t ) v j ( t 1) e( t ) sign ( ) e( t ) h j (8.163)
e u ( t )

1 1 e( t )
w ji ( t ) w ji ( t 1) e( t )sign ( ) e( t ) v j h j (1 h j ) x i (8.164)
e u ( t )

y para Kd:

e( t )
v 2j ( t ) v 2j ( t 1) e( t ) sign ( )2 e( t ) e( t ) h j (8.165)
e u ( t )

2 2 e( t ) 2
w ji ( t ) w ji ( t 1) e( t )sign ( ) e( t ) v j h j (1 h j ) x i (8.166)
e u ( t )

Ejemplo 5.

Vamos a mostrar a continuacin los resultados que se obtienen cuando aplicamos el algoritmo de
control neuro-pid al problema del control de nivel en un tanque.
Figura 8.33. Control del nivel en un tanque

En la figura 8.33 se representa esquemticamente el control del nivel en un tanque mediante un


regulador neuro-pid. Las ecuaciones que rigen este proceso pueden formularse de la manera siguiente:
dh
Q( t ) F( t ) A (8.167)
dt

F( t ) mC v h(t ) (8.168)

donde A representa el rea transversal del tanque, Cv una constante que depende del tipo de vlvula y
m es la apertura de la vlvula que vara entre 0 y 1. Como puede apreciarse, estamos en presencia de
un sistema no lineal, ya que el flujo de salida F(t) depende de la raz cuadrada de la variable controlada
h. El caudal de lquido a la entrada Q(t) representa una perturbacin sobre este proceso. Suponemos
2
que el tanque tiene un rea transversal de 20 ms y una altura de 10 ms., el nivel puede fluctuar entre 0
3
y 8 ms. y el caudal de entrada vara entre 0 y 20 ms /min. El flujo de salida se controla manipulando la
apertura m de la vlvula de salida. Vamos a estudiar el comportamiento de la variable controlada h
ante cambios en la referencia entre 2 y 6 ms., as como cambios en la perturbacin entre 8 y 12
3
ms /min.

En las figuras que siguen, la primera curva representa al comportamiento del nivel y su referencia, en
tanto que la segunda muestra el comportamiento de la variable de control. As, en la figura 8.34, se
observa la respuesta excesivamente oscilatoria del nivel ante cambios de referencia cuando se utiliza un
coeficiente de aprendizaje = 0.0001. Una mejora considerable se obtiene cuando el valor de se
reduce a 0.000001, como puede apreciarse en la figura 8.35. Puede decirse que, en general, el
comportamiento en lazo cerrado del regulador neuro-pid depende exclusivamente del valor de ,
correspondiendo a valores mayores respuestas ms rpidas y eventualmente ms oscilatorias y
viceversa.

En las figuras 8.36 y 8.37 se ilustra el comportamiento del control neuro-pid de nivel cuando el caudal
de entrada vara peridicamente entre 8 y 12, manteniendo la referencia en 6. Se utilizaron dos valores
-6
de , para el menor (10 ), se producen desviaciones mayores y el control se comporta en forma ms
-3
suave. Cuando se aumenta el valor de a 10 , la desviacin mxima con respecto a la referencia es
mucho menor y la recuperacin es ms rpida; esto se logra a cambio de un comportamiento ms
enrgico y oscilatorio del control.

De los resultados mostrados puede concluirse que en general los valores ptimos del coeficiente de
aprendizaje para cambios en la referencia y para la compensacin de perturbaciones no coinciden, ser
necesario por tanto encontrar soluciones de compromiso en cada caso particular.

10

0
200 400 600 800 1000 1200 1400 1600 1800 2000

0.8

0.6

0.4

0.2

0
200 400 600 800 1000 1200 1400 1600 1800 2000

Figura 8.34. Control del nivel ante cambios de referencia.

= 0.0001
10

0
200 400 600 800 1000 1200 1400 1600 1800 2000

0.8

0.6

0.4

0.2

0
200 400 600 800 1000 1200 1400 1600 1800 2000

Figura 8.35. Control del nivel ante cambios de referencia.

= 0.000001

10

0
200 400 600 800 1000 1200 1400 1600 1800 2000

0.8

0.6

0.4

0.2

0
200 400 600 800 1000 1200 1400 1600 1800 2000

Figura 8.36. Control del nivel ante cambios en el caudal entre 8 y 12

= 0.000001
10

0
200 400 600 800 1000 1200 1400 1600 1800 2000

0.8

0.6

0.4

0.2

0
200 400 600 800 1000 1200 1400 1600 1800 2000

Figura 8.37. Control del nivel ante cambios en el caudal entre 8 y 12

= 0.001

10

0
200 400 600 800 1000 1200 1400 1600 1800 2000

0.8

0.6

0.4

0.2

0
200 400 600 800 1000 1200 1400 1600 1800 2000

Figura 8.38. Control del nivel ante cambios en el caudal entre 8 y 12 y cambios de la referencia entre 2
y 6. = 0.00005

En la figura 8.38, por ejemplo, se muestra un comportamiento muy aceptable del control cuando el
sistema se somete a perturbaciones cada 200 etapas y cambios de referencia entre 2 y 6 cada 350
-4.
etapas. En este caso el coeficiente de aprendizaje se seleccion igual a 5 x 10
10

0
200 400 600 800 1000 1200 1400 1600 1800 2000

0.8

0.6

0.4

0.2

0
200 400 600 800 1000 1200 1400 1600 1800 2000

Figura 8. Control del nivel ante cambios de la referencia entre 2 y 6. = 0.00005. Ruido blanco
distribuido uniformemente en el intervalo [-0.125 0.125]

Por ltimo, en la figura 8.39 se observa el comportamiento satisfactorio del control cuando la variable
medida est contaminada con un ruido blanco uniformemente distribuido en el intervalo [-0.125
0.125].