Sie sind auf Seite 1von 94

TEORIA DE CONTROL DISCRETO

Flavio Torres

Edición: Depto. Ing. Eléctrica - UFRO


1

TEORIA DE SISTEMAS DISCRETOS

1.1 INTRODUCCIÓN

El control por computador es hoy en día una herramienta común en la industria actual. Por tanto es importante
entender los aspectos teóricos involucrados en los sistemas controlados por computador.
En la figura 1.1 se muestra un proceso controlado por computador

Proceso
Entrada real
Salida

Figura 1.1 Sistema de control por computador


Los términos, como sistemas de control en tiempo discreto, sistemas de control de datos muestreados
y control digital, implican el mismo tipo de sistemas de control por computador.

1.2 SISTEMAS DISCRETOS

Las señales que maneja el computador son discretas, por lo tanto se analizará este tipo de señales. Para
obtenerlas se comenzará con señales continuas que son más familiares.

Señal de entrada y salida de un proceso. Se convendrá en asignar la señal de entrada a un


proceso como “u” (ya sea como u(t) para señal continua ó como u(k) para señal discreta) y la salida como “y”
(ya sea como y(t) señal continua ó como y(k) para señal discreta), tal como se muestra en la figura 1.2. Para
no confundir la señal de entrada con la señal escalón, se señalizará explícitamente cuándo corresponda a un
escalón.

u Proceso y

Figura 1.2 señales de proceso


2

Representación de un proceso continuo Las formas más comunes de representar


matemáticamente un proceso son:

- Función de transferencia
- Variables de estado

Ambas representaciones son equivalentes en el sentido que desde la función de transferencia se puede llegar a
la representación de estado y viceversa.

Ejemplo 1.1
Obtener la representación de estado de la siguiente función de transferencia continua

b1 s + b2
G( s) = (1.1)
s + a1 s + a 2
2

Solución Usando el método de equivalencias de bloques tenemos:

u(s) b1 s + b2 y(s)
s + a1 s + a2
2

1
u(s) b1 s + b2 y(s)
s + a1 s + a2
2

s b1

+
u(s)
s −2 + y(s)
b2
1 + s − 2 (a1 s + a2 )

s b1

+
+ −2
+
u(s) s b2 y(s)
-

a1 s + a2
3

s b1

+
+ +
u(s) s −2 b2 y(s)

- -

a1 s

a2

s b1

+
+ +
u(s) s −2 s s −1 b2 y(s)

- -

a1 s

a2

b1

+
+ x2(s) x1(s) +
u(s) −1 −1 y(s)
s s b2
- -

a1

a2

Con la asignación de variables del ultimo diagrama de bloques podemos deducir lo siguiente:

s x1 ( s ) = x 2 ( s ) (1.2.a)

s x 2 ( s) = − a1 x 2 ( s) − a 2 x1 ( s) + u ( s) (1.2.b)

y ( s ) = b1 x 2 ( s ) + b2 x1 ( s ) (1.2.c)

Expresándolo en forma matricial vectorial (una raya debajo de la letra indica vector), tendremos
finalmente la siguiente la representación de estado del proceso
4

s x(s) = A x( s) + B u (s) (1.3.a)


(1.3.b)
y ( s ) = C x( s )
T

donde

 x (s)   0 1  0 
x( s) =  1  A= B=  C = [b2 b1 ]
T

− a1 
(1.3.c)
 x 2 ( s) − a 2 1

OBS: Usando el resultado del ejemplo 1.1 ( o sea el último diagrama en bloques), podemos extrapolarlo
para generalizar y representar cualquiera función de transferencia en un diagrama de bloques donde
los coeficientes del polinomio se expresan en forma separada e individual. Como ejercicio, hacer la
representación en bloque y de estado de otras funciones de transferencia.

Inversamente, si sólo dispusiéramos de la representación de estado dado por ecuaciones (1.3),


podemos retroceder en el análisis partiendo del final del ejemplo 1.1 y obtener finalmente la función de
transferencia dada por la ecuación (1.1).

Concepto práctico de señal discreta Al hacer pasar una señal continua por un conversor
análogo digital y luego seguido por un conversor digital análogo, a la salida se obtiene la señal discretizada
que se muestra en la figura 1.3.

Reloj con
periodo T 0

A/D D/A
t T 0 2T 0 3T 0 kT 0
t
Figura 1.3. Obtención de una señal discreta

1.3 CONTROL POR COMPUTADOR

En un sistema controlado por computador , las señales continuas y discretas aparecen como se muestra en la
figura 1.4
5

PC

y(t)
u(t)

t Proceso t
D/A A/D
análogo

Figura 1.4. Esquema general de control por computador

La información numérica al interior del computador tiene una correspondencia biunívoca con el nivel
de altura de los escalones que se observan a la salida del conversor D/A. En rigor la operatoria es la siguiente:
Sea un número al interior del PC que se desea enviar a la salida. Para ello el número, que esta codificado en
en byte, es enviado al bus de datos de salida, que lo transporta a la entrada del conversor D/A. A la salida del
conversor se obtiene el nivel de señal (altura ó voltaje) correspondiente al número. Por lo tanto el nivel de
salida u(kT0) tiene el mismo valor que el número al interior del PC. De manera que el análisis matemático a
la señal escalonada es equivalente a considerar sus correspondientes valores numéricos al interior del PC.
Ambos enfoques se usan indistintamente porque significan lo mismo. Más adelante se formalizara una
representación matemática más precisa para representar señales discretas.

Representación de estado discreta de un proceso Aplicando la transformada inversa de Laplace a


la sistema de variables de estado continuo representado por la ecuación (1.3), tenemos


x(t ) = A x (t ) + B u (t ) (1.4.a)
− − −

y (t ) = C x(t )
T
− − (1.4.b)

La solución de la ecuación (1.4.a) a partir del instante

t k = k T0 (1.5)

(ver salida de figura 1.3), conocida la condición inicial x (t k ) , esta dada por

t
x (t ) = e A(t −t k ) x(t k ) + ∫ e A( t −τ ) B u (τ ) dτ (1.6)
tk
Evaluando en t = tk+1 tenemos

t k +1
x (t k +1 ) = e A(t k +1 −tk ) x (t k ) + ∫ e A(t k +1 −τ ) dτ B u (t k ) (1.7)
tk

usando el cambio de variable en la integración η = t k +1 − τ , tenemos


6

t k +1 0 t k +1 − t k
∫ tk
e A(t k +1 −τ ) dτ = ∫
t k +1 − t k
e Aη ( − d η ) = ∫
0
e Aη dη (1.8)

por lo tanto la representación de estado discreta del proceso es

x (t k +1 ) = Ad x (t k ) + B d u (t k )
(1.9.a)
y (t k ) = C x (t k )
T
(1.9.b)

donde

Ad = e A( tk +1 −t k ) = e A T0 (1.10)

t k +1 − t k
Bd = ∫ e A η dη B = ∫ e A η dη B = Ψ B
T0

0 0 (1.11)

con

T0
Ψ = ∫ e A η dη (1.12)
0

OBS: En muchos textos usan las variables A y B para representar al sistema discreto dados por Ad y Bd
(también se usan para representar polinomios). Sin embargo la relación entre la representación
continua y discreta esta dada por la ecuación (1.10) y (1.11). En todo caso la clarificación, si las
variables pertenecen a uno u otro caso, dependerá implícitamente del planteamiento del problema.

Otra forma de expresar Ad es usando series de Taylor,

A 2T02
e A T0 = I + A T0 + + .... (1.13)
2!
con I matriz de identidad. Entonces

A T02

T0
e Aη dη = I T0 + + ...... (1.14)
0 2!
por lo tanto

Ad = I + A Ψ (1.15)
7

Ejemplo 1.2
Obtener la representación de estado discreta del siguiente proceso, expresado en variable de estado
continuo

• 0 1  0 
x=  x +  u
0 0  1

y = [1 0] x

Solución Usando el método de series de Taylor

A 2T02 1 0 0 T0  1 T0 
Ad = e A T0 = I + A T0 + + .... =   +  +0=  
2! 0 1  0 0  0 1 

Para calcular B d , sustituimos T0 por η , o sea

1 η 
Ad = e Aη =  
0 1 

luego de ecuación (1.11)

T0 T0 η  T02 
Bd = ∫ e Aη
dη B = ∫  1  dη =  2 
0 0
   T0 

finalmente tenemos

1 T0  T02 
x (t k +1 ) =   x (t k ) +  2  u (t k )
0 1   T0 

y (t k ) = [1 0] x (t k )

Variables de estado con periodo de muestreo T0 = 1 Si T0 = 1, entonces usando ecuación (1.5),


ecuación (1.9) queda

x (k + 1) = Ad x (k ) + B u (k ) (16.a)
− − − d

(16.b)
y (k ) = C x(k )
T
− −
8

Ejemplo 1.3
Obtener la representación de estado discreto de

• − 1 0 1
x=  x +  u
 1 0 0 

y = [0 1] x
usando Laplace.

Solución Aplicando el método de transformada de Laplace, tenemos de la ecuación (1.4.a)

x ( s ) = (s I − A) x (0) + (s I − A) B u ( s )
−1 −1

Ahora aplicando la inversa de Laplace


{
x (t ) = L−1 (s I − A)
−1
}x(0) + L {(s I − A)
−1 −1
B u ( s) }
evaluando en t = T0 tendremos la misma ecuación (1.9.a) para k = 0, por lo tanto

 1 
 −1
  s + 1 0 
{
Ad = e A T0 = L−1 (s I − A)
−1
} 
= L−1 
 s + 1 0 

 −1 
 = L  1 1 

T0
 − 1 s   T  
0
  s ( s + 1) s  
T0

 e −T0 0
Ad =  −T0 
1 − e 1

para el cálculo de Bd de la ecuación (1.11) tenemos


T0  e
−η
  1 − e −T0 
B d = ∫ e A η dη B = ∫ 
T0
 dη =  −T0 
0 1 − e −η
  T0 − 1 + e 
0

1.4 LA TRANSFORMADA Z

Al igual que la transformada de Laplace para sistemas continuos, existe una transformada para
sistemas discretos denominada transformada z
Para entender su razón de ser y su deducción, sea una señal continua de la figura 1.5.

x(t)

t
Figura 1.5. señal de proceso
9

la discretización de esta señal se muestra en la figura 1.6

m(t)

T 0 2T 0 3T 0 kT 0
t
Figura 1.6 señal discretizada con periodo T0

La expresión matemática de la discretización es


m(t ) = ∑ x (kT0 )[u (t − kT0 ) − u (t − (k + 1)T0 )] (1.17)
k =0

donde x ( kT0 ) es la señal x (t ) evaluada en kT0 con k = [0,1,2,3,....] y u (t ) es la señal escalón


unitario.

La transformada de Laplace de m(t ) es

[ ]

1
m( s ) = ∑ x(kT0 ) e −kT0 s 1 − e −T0 s (1.18)
k =0 s

m( s ) =
1
s
[ ]
1 − e −T0 s X * ( s ) (1.19)

con


X * ( s ) = ∑ x (kT0 ) e − kT0 s (1.20)
k =0

donde la transformada de Laplace X*(s) posee la información básica de la señal en el tiempo x(t), y
por lo tanto concentra toda la información relevante de la señal real m(t) (con T0 constante) para el análisis
discreto, o sea cuando se trabaja en procesos controlados por computador. Asignando, por comodidad, la
siguiente variable

z = e T0 s (1.21)
10

desaparece la variable s y queda la siguiente función en z


X ( z ) = ∑ x (kT0 ) z −k (1.22)
k =0

también se expresa como

X ( z ) = Z [x(kT0 )] (1.23)

a dicha expresión se le denomina transformada z de la señal continua x(t). Como se verá a


continuación las facilidades matemáticas que otorga la transformada z para sistemas discretos es aún más fácil
que la que otorga Laplace a los sistemas continuos. Por ejemplo para pasar de x(kT0) a x(z) y viceversa no
requiere resolver integrales, como ocurre en algunos casos en el sistema continuo. Dada la relación directa
que existe entre x(t), x(s) y x(kT0), se usa indistintamente

X ( z ) =ˆ Z [x (kT0 )] =ˆ Z [x( s )] =ˆ Z [x (t )] (1.24)

Ejemplo 1.4
Obtener la transformada z de la señal escalón de la figura 1.7
u(t)

t
Figura 1.7. señal escalón

Solución De la ecuación (1.22) tenemos que

X ( z ) = 1 + z −1 + z −2 + z −3 + ......

esto representa una serie matemática, cuya fórmula es:

1 z
X ( z) = −1
= y converge si z >1
1− z z −1
Ejemplo 1.5
− at
Obtener la transformada z de la señal exponencial, e , de la figura 1.8

u(t)

t
Figura 1.8. señal exponencial
11

Solución De la ecuación (1.22) tenemos

X ( z ) = 1 + (e a T0 z ) −1 + (e a T0 z ) −2 + .....

1 z
X ( z) = = converge para e a T0 z > 1
1 − (e a T0
z) −1
z − e − a T0

1.5 ALGUNAS PROPIEDADES DE LA TRANSFORMADA Z

Las propiedades más importantes de la transformada z son la de corrimientos. Para el resto de las propiedades,
ver referencia [1],[2],[3].

Corrimiento hacia la izquierda Sea y(kT0) la señal desplazada hacia la izquierda en un instante
de muestreo de la señal x(kT0), como se muestra en la figura 1.9

x(kT0)

y(kT0)=x((k+1)T 0)

T0 2T0 3T0 kT0


t
Figura 1.9. corrimiento a la
izquierda

de ecuación (1.22) tenemos


Y ( z ) = ∑ y (kT0 ) z − k = y (0) + y (T0 ) z −1 + y (2T0 ) z − 2 + y (3T0 ) z −3 + ........ (1.25)
k =0

Y ( z ) = x (T0 ) + x(2T0 ) z −1 + x(3T0 ) z −2 + x (4T0 ) z −3 + ........ (1.26)

Y ( z ) = − z x(0) + z x(0) + x (T0 ) + x (2T0 ) z −1 + x(3T0 ) z −2 + x (4T0 ) z −3 + ........ (1.27)

∞ ∞
Y ( z ) = − z x(0) + ∑ x (kT0 ) z −( k −1) = z ∑ x(kT0 ) z − k − z x(0) (1.28)
k =0 k =0

Luego nos queda la siguiente expresión


12

y ( z ) = Z [x ((k + 1)T0 )] = z X ( z ) − z x(0) (1.29)

Corrimiento hacia la derecha Sea y(kT0) la señal de x(kT0) desplazada en un tiempo de


muestreo hacia la derecha como se muestra en la figura 1.10

x(kT0)

y(kT0)=x((k-1)T 0)

T0 2T0 3T0 kT0


t
Figura 1.10 corrimiento a la
derecha
de ecuación (1.22) tenemos


Y ( z ) = ∑ y (kT0 ) z − k = y (0) + y (T0 ) z −1 + y (2T0 ) z −2 + y (3T0 ) z −3 + ........ (1.30)
k =0

Y ( z ) = 0 + x (0) z −1 + x(T0 ) z −2 + x (2T0 ) z −3 + ........ (1.31)

∞ ∞
Y ( z ) = ∑ x (kT0 ) z −k −1 = z −1 ∑ x (kT0 ) z −k (1.32)
k =0 k =0

Luego nos queda la siguiente expresión

Y ( z ) = Z [x((k − 1)T0 )] = z −1 X ( z ) (1.33)

Ejemplo 1.6
Sea la función de transferencia, de la figura 1.4, una constante de valor 1
a) Grafique y(kT0), que captura el PC, frente a un escalón unitario u(kT0) a la salida del PC
y( z)
b) Obtenga G ( z ) = de la planta unitaria
u(z)

Solución
a) El PC sincroniza sus datos de salidas y entradas, es decir, ocurren al mismo instante. Si a la
salida de PC se origina un escalón unitario en k = 0, la entrada del PC no se percatará de este
cambio al mismo instante dado que el conversor A/D requiere un tiempo para hacer la
conversión. Por lo tanto el PC deberá esperar el siguiente periodo de muestreo para poder
capturar la data, tal como se muestra en la figura 1.11
13

u(kT 0)

T 0 2T 0 kT 0

y(kT 0)

T 0 2T 0 kT 0

Figura 1.11 señal entrada y salida del proceso

b) De la figura 1.10 vemos que y(kT0) = u((k-1)T0). Entonces de la propiedad de corrimiento

G ( z ) = z −1

1.6 LA TRANSFORMADA INVERSA DE Z

La transformada inversa de z consiste en encontrar los valores x(kT0) de la ecuación (1.22), dada
X(z)

Ejemplo 1.7
1
Obtener la transformada inversa de z de X ( z) =
z + z +1
2

Solución Haciendo división sucesiva

X ( z ) = z −2 − z −3 + z −5 − z −6 + ...

Con T0 =1,

x (0) = 0 , x (1) = 0 , x (2) = 1 , x (3) = −1 , x (4) = 0 , x (5) = 1 , x (6) = −1 , . . .

Existen una serie de métodos para obtener la transformada inversa de z, como también la tabla de
transformada z de señales conocidas. Para tal efecto consultar la referencia [1].

1.7 REPRESENTACIÓN MATEMÁTICA DE PROCESOS DISCRETOS

Así como una ecuación diferencial puede representar el comportamiento de un sistema continuo, la
ecuación de diferencia puede representar el comportamiento de un sistema discreto.
14

Ecuación de diferencia Sea el siguiente proceso integrador

u ∫ y

la ecuación que representa al proceso es (área bajo la curva de la señal de entrada)

t
y (t ) = ∫ u (t ) dt (1.34)
0
la ecuación diferencial correspondiente es

d y (t )
= u (t ) (1.35)
dt

Aproximando por rectángulos, tenemos (ver figura 1.6)

k −1
y (kT0 ) = ∑ T0 u (qT0 ) (1.36)
q =0

k
y ((k + 1)T0 ) = ∑ T0 u (qT0 ) (1.37)
q=0
restando la ecuación anterior

y ((k + 1)T0 ) − y (kT0 ) = T0 u (kT0 ) (1.38)

con T0=1, tenemos

y (k + 1) − y (k ) = u (k )

y (k ) = y (k − 1) + u (k − 1) (1.39)

Así como la ecuación 1.(35) se le llama la ecuación diferencial del proceso, la ecuación (1.39) se
denomina la ecuación de diferencia del proceso discreto.
Para encontrar y(t) es necesario resolver la ecuación (1.35) matemáticamente, en cambio para
encontrar y(k) la resolución de la ecuación (1.39) es mucho más simple. Por ejemplo sea u(k) e
y(0)conocidos, entonces la solución de y(k) es
15

y (1) = y (0) + u (0)

y (2) = y (1) + u (1) = y (0) + u (0) + u (1)

y (3) = y (2) + u (2) = y (0) + u (0) + u (1) + u (2)


.

y (k ) = y (k − 1) + u (k − 1) = y (0) + u (0) + u (1) + u (2) + ... + u (k − 1)

Función de transferencia discreta o función de transferencia en z, G(z) La función de


transferencia en z de un proceso es el cuociente de señal de salida y entrada en z , o sea

y( z)
G( z) = (1.40)
u(z)

Ejemplo 1.8
Obtener la función de transferencia en z de la ecuación (1.39)

Solución Aplicando las propiedades de corrimiento, tenemos

y ( z ) − z −1 y ( z ) = z −1u ( z ) (1.41)

[ ]
y ( z ) 1 − z −1 = z −1u ( z ) (1.42)

y( z) z −1 1
G( z) = = −1
= (1.43)
u( z) 1 − z z −1

que corresponde a la función de transferencia discreta del proceso integrador de la figura 1.11.

Representación polinómica de un proceso Observando la relación existente entre las ecuaciones


(1.35) y (1.39) podemos decir que la ecuación diferencial de primer orden de un sistema continuo tiene su
representación discreta dada por la ecuación de diferencia de primer orden. Generalizando podemos decir
entonces que una ecuación diferencial de orden n siguiente

dn d dn d
αn n
y (t ) + ... + α 1 y (t ) + α 0 y (t ) = β n n
u (t ) + ... + β 1 u (t ) + β 0 u (t ) (1.44)
dt dt dt dt
tiene su representación discreta dada por la ecuación de diferencia de orden n siguiente

a 0 y (k ) + a1 y (k − 1) + .... + a n y (k − n) = b0 u (k ) + b1u (k − 1) + .... + bn u (k − n) (1.45)


16

Aplicando transformada de Laplace y z a ecuaciones (1.44) y (1.45) respectivamente tendremos

y ( s ) Β( s )
Η (s) = = (1.46)
u ( s ) Α( s )
y ( z ) B( z )
G( z) = = (1.47)
u ( z ) A( z )

con los polinomios Α( s ), Β( s ), A( z ) y B ( z ) dados por


Α( s ) = α n s n + α n −1 s n −1 + .... + α 1 s + α 0 (1.48)

Β( s ) = β n s n + β n −1 s n −1 + .... + β 1 s + β 0 (1.49)

A( z ) = a 0 + a1 z −1 + a 2 z −2 + ... + a n z − n (1.50)

B( z ) = b0 + b1 z −1 + b2 z −2 + ... + bn z − n (1.51)

finalmente la representación polinómica de procesos reales (b0 = 0), con el polinomio A(z ) en forma
mónica ( a0 =1)

b1 z −1 + ... + bn z − n B( z )
G( z) = −1 −n
= (1.52)
1 + a1 z + ... + a n z A( z )

Obtención de G(z) a partir de G(s) Sea una planta cualquiera representada en la figura 1.12.

u G(s) y

Figura 1.12. Proceso continuo

Circunscribiendo el análisis al control por computador, nos interesa las señales escalonadas como se
muestra a la salida de la figura 1.3. Observamos que la señal esta compuesta por una suma de señales
escalones. Entonces sea la señal escalón unitaria

1
u(s) = (1.53)
s
1
y(s) = G( s) (1.54)
s
17

de la tabla de transformada Z, se obtiene

 G( s) 
y ( z ) = Z [ y ( s)] = Z   (1.55)
 s 
pero

y( z)
G( z) = (1.56)
u(z)

z
de la tabla de transformada Z, el escalón es u( z) = , por lo tanto la relación entre G (z ) y G (s ) es
z −1

z − 1  G (s) 
G( z) = Z  (1.57)
z  s 
Ejemplo 1.9
Resolver el ejemplo 1.8 usando la ecuación (1.57)

Solución El proceso integrador se muestra en la figura 1.13

1
u G( s) = y
s

Figura 1.13. Proceso integrador

de ecuación (1.57) tenemos

z −1  1 
G( z) = Z 2 
z s 

de la tabla de transformada z tenemos

1 T0 z
Z 2  =
 s  ( z − 1)
2

por lo tanto

z − 1 T0 z T0 T0 z −1
G( z) = = =
z ( z − 1) 2 z − 1 1 − z −1

si T0 = 1 entonces
18

1
G( z) =
z −1

que corresponde a la misma ecuación (1.43) resuelto en el ejemplo 1.8

1.8 ANALISIS DE SISTEMAS DISCRETOS

Usando técnicas lineales similares a las del sistema continuo, se pueden obtener información
relevante de los sistemas discretos. Por ejemplo es importante saber si un proceso es realizabable y/o estable.

Ganancia en estado estacionario de un proceso En estado estacionario se cumple que

y (k ) = y (k − 1) = y (k − 2) = ........ = y (k − n) = Y0 (1.58)

u (k ) = u (k − 1) = u (k − 2) = ........ = u (k − n) = U 0 (1.59)

con Y0 y U 0 constantes, por lo tanto de ecuación (1.45), con A(z ) mónico, tendremos

Y0 (1 + a1 + a 2 + ..... + a n ) = U 0 (b1 + b2 + ..... + bn ) (1.60)

luego la ganancia en estado estacionario, K, será

Y0 b + b2 + .... + bn
K= = 1 = G (1) (1.61)
U 0 1 + a1 + a 2 + .... + a n

En consecuencia, la ganancia en estado estacionario de cualquier función de transferencia expresada en z, es


la función de transferencia evaluada en z=1, o sea G (1) .

Proceso de retardo puro Un proceso con retardo puro de T tiempo, se representa por

G ( s ) = e −Ts = e − d T0 s (1.62)

con d = 1,2, ... , numero entero dependiendo de la magnitud del retardo, T, y del periodo de muestreo T0

por lo tanto de la ecuación (1.21)

G( z) = z −d (1.63)

Proceso generalizado más retardo Se obtiene del proceso de la ecuación (1.52) seguido
por el proceso de la ecuación (1.630)

B( z ) −d (1.64)
G( z) = z
A( z )
19

Realizabilidad Un proceso se dice realizable si se cumple la ley causa efecto, es decir la salida
de un proceso no puede reaccionar antes que se le aplique una excitación en la entrada.

Ejemplo 1.10

Determine si la siguiente ecuación de diferencia representa a un proceso realizable

y (k ) = y (k − 1) + u (k + 1)

Solución Se observa que la salida depende de entrada futura por lo tanto no se cumple la ley causa
efecto.

Condición general de realizabilidad. Primero el denominador debe quedar expresado en forma de


polinomio mónico dado por la ecuación (1.52). Ahora, si existen exponentes positivos en el denominador,
entonces deben multiplicarse el numerador y denominador de G(z) por un factor “z” con exponente
correspondiente al negativo del exponente positivo más grande presente en el denominador. En estas
condiciones, entonces decimos que una función de transferencia , G(z), es realizable si no existen exponentes
positivos (con cero incluido) en la variable z del numerador.

Ejemplo 1.11

Determinar si el siguiente proceso es realizable

a1 y (k ) + a 0 y (k + 1) = −a 2 y (k − 2) + b−1u (k + 2) + b0 u (k + 1) + b1u (k − 2)

a 0 , a1 , a 2 , b−1 , b0 , b1 , constantes cualquiera distintos de cero.

Solución Aplicando propiedades de desplazamientos, tenemos

a1 y ( z ) + z a 0 y ( z ) = −a 2 z −2 y ( z ) + b−1 z 2 u ( z ) + b0 z u ( z ) + b1 z −2 u ( z )

b−1 z 2 + b0 z + b1 z −2
G( z) =
a 0 z + a1 + a 2 z −2

z −1
Multiplicando por , tenemos
z −1
b−1 z + b0 + b1 z −3
G( z) =
a 0 + a1 z −1 + a 2 z −3

Podemos deducir que el proceso no es realizable dado que posee potencia positiva de z en el numerador

Respuesta a pulso de un proceso Es la evolución que experimenta la salida de un proceso frente a


un pulso, como el de la figura 1.14, a la entrada del proceso, con condiciones iniciales cero
20

u(kT0)

T0 2T0 kT0

Figura 1.14 señal de entrada pulso

a este pulso se le conoce en los textos como Delta de Kroneker y su definición es

1 k = 0
δ K (k ) =  (1.65)
0 k ≠ 0
O sea u ( k ) = δ K ( k ) corresponde a la figura 1.14 con T0 = 1

Ejemplo 1.12
Sea un proceso dado por la siguiente ecuación de diferencia

y (k ) = −a1 y (k − 1) − a 2 y (k − 2) + b1u (k − 1) + b2 u (k − 2)

Obtener los valores de y(k) para k = 0,1,2 y 3 cuando se le aplica un Delta de Kroneker a la entrada

Solución
y (0) = 0
y (1) = b1
y (2) = − a1b1 + b2
y (3) = − a1 (b2 − a1b1 ) − a 2 b1

Ejemplo 1.13
Demostrar que la transformada inversa de z de una función de transferencia discreta de un proceso
corresponde a la respuesta a pulso del proceso. Use el proceso del ejemplo 1.12 para la demostración

Solución
El G(z) del ejemplo 1.12 es

b1 z −1 + b2 z −2
G( z) =
1 + a1 z −1 + a 2 z −2

haciendo la división entre los polinomios tenemos

(b1 z −1 + b2 z −2 ) : (1 + a1 z −1 + a 2 z −2 ) = b1 z −1 + (b2 − a1b1 ) z −2 + [− a1 (b2 − a1b1 ) − a 2 b1 ]z −3 + ..


− b1 z −1 − a1b1 z −2 − a 2 b1 z −3
(b2 − a1b1 ) z −2 − a 2 b1 z −3
21

− (b2 − a1b1 ) z −2 − a1 (b2 − a1b1 ) z −3 − a 2 (b2 − a1b1 ) z −4


[− a1 (b2 − a1b1 ) − a 2 b1 ]z −3 − a 2 (b2 − a1b1 ) z −4
De ecuación 1.22 vemos que


G ( z ) = ∑ g (kT0 ) z − k (1.66)
k =0

Donde la transformada inversa de G(z) es g(k) con

g ( 0) = 0
g (1) = b1
g (2) = −a1b1 + b2
g (3) = −a1 (b2 − a1b1 ) − a 2 b1

Que corresponde a la respuesta a pulso del proceso del ejemplo 1.12 , tal como lo muestra en la figura 1.15

δ K (k ) G (z ) g (k )

Figura 1.15 Proceso integrador

Convolución discreta Cualquiera entrada u(k) se puede expresar como


u (k ) = ∑ u ( n) δ
n = −∞
K ( k − n) (1.67)

Sabemos que la entrada y salida del proceso están dadas por

δ K (k ) 
→ y (k ) = g (k ) (1.68)

u (n)δ K (k − n) 
→ y (k ) = u (n) g (k − n) (1.69)

por lo tanto para una entrada cualquiera

∞ ∞
u (k ) = ∑ u ( n) δ
n = −∞
K ( k − n) 
→ y (k ) = ∑ u ( n) g ( k − n )
n = −∞
(1.70)

Para que se cumpla la condición de realizabilidad (ley causa –efecto) la sumatoria debe llegar hasta k-1, dado
que y(k) sólo es afectado hasta u(k-1). Por lo tanto

k −1
y (k ) = ∑ u ( n) g ( k − n)
n = −∞
(1.71)
22

Haciendo el cambio de variables τ = k − n tenemos finalmente la convolución discreta


y (k ) = ∑ g (τ ) u (k − τ ) (1.72)
τ =1

Que tiene su equivalencia a la convolución de en sistemas continuos

t
y (t ) = ∫ g (η ) u (t − η ) dη (1.73)
0

Respuesta en frecuencia Veremos qué ocurre cuando a un proceso discretizado, G(z), se le aplica
una señal sinusoidal de frecuencia ω , o sea cuando la entrada es ( T0 = 1 )

u (k ) = cos ω k = ℜ e j ω k{ } (1.74)

ω 2π k 2π
OBS: si T0 ≠ 1 , u ( kT0 ) = cos( ωT0 k ) = cos( ) , con ws =
ws T0
de ecuación (1.72)

 
{ }

y (k ) = ∑ g (τ ) ℜ e j ω ( k −τ ) = ℜ ∑ g (τ ) e j ω ( k −τ )  (1.75)
τ =1  

 
{ }

y (k ) = ℜ e j ω k ∑ g (τ ) e − j ω τ  = ℜ e j ω k G (e j ω ) (1.76)
 τ =1 

{
y (k ) = ℜ [1∠ω k ] [ G (e jw
]}
) ∠ arctg (G (e jw ) )
(1.77)

y (k ) = G (e j ω ) cos( w k + ϕ )
(1.78)

con
(
ϕ = arctg G (e j ω ) ) (1.79)

G (e j ω ) con − π ≤ ω ≤ π se conoce como función de frecuencia de G(z). G (e j ω ) es conocida como


Transformada de Fourier de Tiempo Discreto (DTFT) de g(m)
23

Estabilidad Decimos que un proceso es estable si frente a un pulso en la entrada (ó condición


inicial distinta de cero), la salida, luego de un transiente, decae a cero.

Ejemplo 1.13

Determine si el siguiente proceso es estable

2 y (k ) = 4 y (k − 1) + u (k − 1)

Solución Despejando y(k), tenemos

y (k ) = 2 y (k − 1) + 0.5 u (k − 1)

para y (0) = 1, u ( k ) = 0 ∀ k , evaluando tenemos

y (1) = 2 y (0) = 2
y (2) = 2 y (1) = 4
.
.
y (k ) = 2 y (k − 1) = 2 k

vemos que el proceso es inestable porque y(k) crece hacia valor infinito cuando k → ∞

Condición de estabilidad Sabemos que el denominador de G(s) puede expresarse en factores de


primer orden usando el método de fracciones parciales, consiguiendo con esto ser expresado en los polos del
sistema. Por lo tanto si los polos del sistema están en el semiplano derecho ,el sistema es inestable. Sea
entonces la siguiente función de transferencia

K
G( s) = (1.80)
s+a
usando ecuación (1.57), tenemos
z −1  K 
G( z) = Z  (1.81)
z  s ( s + a) 
de la tabla de transformada z, [1]tenemos

b1
G( z) = (1.82)
z + a1

donde
24

K
b1 = (1 − e −a T0 ) (1.83)
a
y

a1 = −e − a T0
(1.84)

el límite de establidad de G(s) es para el polo ubicado en el eje imaginario a = jw que corresponde, en el
− j w T0
plano z, al polo a1 ubicado en a1 = −e , con − ∞ < w < ∞ . Vemos que al variar w, el polo a1 traza
un circulo unitario en el plano z que corresponde al límite de estabilidad en el plano z. Por lo tanto podemos
deducir que G(z) es estable si posee todos sus polos dentro del circulo unitario y consecuentemente es
inestable si posee al menos un polo fuera del circulo unitario.

Criterios de estabilidad Existen varios métodos para saber si una función de transferencia, G(z) es
estable. Ver referencia [1],[2].

Estabilidad para procesos de hasta segundo orden Para polinomios de hasta segundo orden en el
denominador existe un procedimiento gráfico para determinar en forma rápida si el sistema es estable o no.
Sea el proceso dado por

B( z )
G( z) = (1.85
1 + a1 z −1 + a 2 z −2

donde B(z) dado por la ecuación (1.51)

Usando el método de estabilidad de Jury [1] se puede demostrar que G(z) es estable si a1 y a 2 están dentro
de la zona delimitada por la figura 1.16

a2

-2 -1 1 2 a1
-1

Figura 1.16 Zona de estabilidad


Ejemplo 1.14

Determine si el siguiente proceso es estable


25

z −1 + 2 z −2
G( z) =
1 + 0.5 z −1 − 0.3 z −2

Solución Trazando las coordenadas a1 y a 2 en figura 1.13 obtenemos el punto que se muestra en
la figura 1.17

a2

0.5
-2 -1 -0.3 1 2 a1
-1

Figura 1.17 Zona de estabilidad

deducimos entonces que el sistema es estable porque las coordenadas caen dentro de la zona de estabilidad

Propiedades de variables de estados discretas Aplicando transformada z a la ecuación (1.16),


tenemos

z x( z ) = Ad x ( z )+ Bd u ( z ) (1.86.a)
− − −

y ( z ) = C x( z ) (1.86.b)
T
− −

Observando la similitud de estas ecuaciones con las ecuaciones (1.3) podemos deducir que el
tratamiento de variables de estado discretas es similar al de sistemas continuos debido a que su estructura son
semejantes. Ver referencia [1],[2]

EJERCICIOS

1.- Determine cuales de las siguientes ecuaciones de diferencia posee su representación de estado continuo
a) y ( kT0 + T0 ) − 0.5 y ( kT0 ) = 6 u ( kT0 )
b) y (kT0 + T0 ) + 0.5 y (kT0 ) = 6 u (kT0 )

[ ]
2.- sea d una variable entera positiva y Z x (T0 ) = X ( z ) , entonces demostrar que
26

 d −1 
a) Z [x((k + d )T0 )] = z d  X ( z ) − ∑ x(qT0 ) z −q 
 q =0 
b) Z [x(( k − d )T0 )] = z X ( z )
−d

3.- sea el siguiente sistema

 0 1 1
x (k + 1) =   x( k ) +   u ( k )
− 0.16 − 1 1

y (k ) = [1 0] x (k )

a) Obtener la matriz de transición de estado Z


−1
[( z I − A ) z ]
d
−1

1
b) Calcular x (k ) e y (k ) para u (k ) escalón unitario y x (0) =  
− 1
4).- Deducir la expresión en función de k del ejemplo 1.5, o sea hallar x(k)

5) Comprobar que la transformada z de una función en el tiempo x(t) es única, sin embargo a la inversa no lo
es. Compare con el análisis de la transformada de Laplace.

K'
6) sea G ( s ) =
'
con K y a constantes. Obtener G (z )
s+a
d3
7) Obtener G(z) del proceso continuo caracterizado por la ecuación diferencial y (t ) = u (t ) . Use T0 = 1.
d3
8) Frente a un función de transferencia determine cuál es la correcta secuencia de análisis: estabilidad y luego
realizabilidad ó viceversa

z −1
9) Sea la función de transferencia G ( z ) = . Graficar y(k) en función de k para y(0) = 1 y
1 + a1 z −1
u(k) = 0, en los siguientes casos
a) a1 = −2 b) a1 = −1 c) a1 = −0.5 d) a1 = 0
f) a1 = 0.5 g) a1 = 1 h) a1 = 2

10) Si los polos de la función de transferencia continua , G(s), se mueven dentro de la zona de la figura 1.18
27


s
π /2
π /4

σ
−π / 4
−π / 2

Figura 1.18. zona de los polos de G(s)

al transformar a función de transferencia discreta G(z), ¿Cuál es la zona de los correspondientes polos en el
plano z?

12) Sea el siguiente proceso realimentado de la figura 1.18

E(s) Planta
u(s)
+ 1 1
R(s) Gc ( s ) = G p (s) = y(s)
s +1 s

- Controlador

Figura 1.18 Controlador continuo

Transformar el control analógico, Gc(s), al digital Gc(z). Luego grafique u(k) e y(k) con periodo de muestreo
T0 = 0.5 y escalón unitario en la referencia.

13) Explique porqué b0 = 0 e n la ecuación (1.51) para procesos reales

14) Usando los pasos de la ecuación (4) a la (8) deduzca la representación de estado discreta para un proceso
de tiempo continuo con retardo τ ≤ T0 , o sea para el proceso


x(t ) = A x (t ) + B u (t − τ )
y (t ) = C x(t )
T

15) Obtenga la respuesta en frecuencia de un conversor A/D. Grafique la magnitud y fase versus frecuencia
28

CONTROLADORES DETERMINISTICOS

2.1 INTRODUCCIÓN

El control determinístico se refiere al diseño de control de un proceso cuando las entradas y/o perturbaciones
(ruidos) que le afectan son aproximadas a señales concretas expresables matemáticamente (señal impulso,
escalón, sinusoidal, etc.). En consecuencia se usan las técnicas de teoría de sistemas lineales. Nos
concentraremos en procesos de una sola entrada y una sola salida ó SISO (Single Input Single Output).
Obviamente existen procesos MISO (Múltiple Input Single Output) y MIMO (Múltiple Input Múltiple
Output) que serán tratados en cursos superiores. Controladores de estados basados en la teoría de variables de
estado también serán tratados en cursos superiores.

2.2 CONTROL EN LAZO ABIERTO Y CERRADO

Como sabemos , el objetivo básico de un controlador es que la salida del proceso alcance un valor deseado.
Par alcanzar este objetivo existen dos técnicas

- control en lazo abierto (controlador prealimentado o de cancelación)


- control en lazo cerrado (controlador realimentado)

Control en lazo abierto El control en lazo abierto esta orientado a aquellos procesos donde se
conocen exactamente su formulación matemática y donde las perturbaciones y ruidos son también conocidos
exactamente o despreciables. es así como el controlador de cancelación de la figura 2.1 se logra que la salida
es exactamente la señal deseada, es decir el control perfecto

1
_____ u
Ref Gp(z) y
Gp(z)
Controlador Planta

Figura 2.1. Controlador de cancelación

Para lograr lo anterior se debe cumplir que el controlador sea realizable y estable. Si ahora se desea una
función de transferencia , GT(z), preestablecida entre salida y Ref, entonces el controlador deberá ser:

GT ( z )
Gc ( z ) = (2.1)
G p ( z)

Para que Gc (z ) sea estable en la práctica, G p (z ) no debe poseer ceros fuera del circulo unitario. Porque si
ocurriese lo contrario entonces cualquier corrimiento del cero de la planta, el polo inestable del controlador no
se eliminaría y por lo tanto el sistema sería inestable.
29

Control en lazo cerrado Cuando no se puede encontrar un controlador en lazo abierto que sea
estable o cuando el conocimiento de la planta y las perturbaciones o ruidos impiden determinar
satisfactoriamente a G p (z ) en ecuación (2.1), se recurre al control en lazo cerrado como se muestra en al
figura 2.2.

+ u(z)
Ref(z) Gc (z ) G p (z ) y(z)
-

Figura 2.2. Sistema realimentado

El control en lazo abierto no tiene mucha ciencia, porque es prácticamente directo su diseño. En cambio el
diseño de controladores en lazo cerrado requiere mayor análisis.

Esquema general de control Consiste en una fórmula que contemple los dos tipos de control: lazo
abierto y cerrado. La formula es la siguiente

R( z ) u ( z ) = T ( z ) Re f ( z ) − S ( z ) y ( z ) (2.2)

El esquemático se muestra en la figura 2.3

T ( z) + u(z)
Ref(z) G p (z ) y(z)
R( z )
-
S (z)
R( z )

Figura 2.3. Esquema general de control

Si S = 0 entonces corresponde a un control en lazo abierto. Para el caso de la figura 2.1, el control
que resulta es

T ( z) 1
Gc ( z ) = = (2.3)
R( z ) G p ( z )

y el diseño de los polinomios T y R son directos

Si T(z) = S(z) entonces corresponde a un control en lazo cerrado. Según la figura 2.2 , el control que
resulta es

T (z)
Gc ( z ) = (2.4)
R( z )
30

El diseño de T y R va a corresponder a algún criterio de control en lazo cerrado como se verá más adelante.
El control en lazo cerrado es más común en la industria que el control en lazo abierto, por lo tanto se hará
hincapié en estos tipos de controladores durante todo el curso. Estos controladores también son denominados
controladores realimentados

2.3 CONTROLADORES REALIMENTADOS

En figura 2.4 se muestra un esquema general de control de proceso SISO

uv (z) n(z)

+ +
+ e(z) + u(z) +
Ref(z) Gc (z ) G p (z ) y(z)

Figura 2.4. Proceso realimentado más perturbaciones

donde uv(z) y n(z) representa los ruidos ó perturbaciones a la entrada y salida del proceso.

Sea la planta

B( z )
G p (z) = (2.5)
A( z )

El controlador Gc (z ) se expresa, al igual que la planta, en un cuociente de polinomios en z, a saber

Q( z )
Gc ( z ) = (2.6)
P( z )

Con

Q( z ) = q 0 + q1 z −1 + q 2 z −2 + ... + q nν z − nν (2.7)

− nµ
P( z ) = p 0 + p1 z −1 + p 2 z −2 + ... + p nµ z (2.8)

donde nν y n µ son los ordenes de los polinomios Q(z) y P(z) respectivamente


Tipos de controladores Existen básicamente dos tipos de controladores: de parámetros
optimizados y de estructura optimizada.
En los controladores de parámetros optimizados n µ y nν son fijos y se debe encontrar los
coeficientes de los polinomios para que se obtenga una respuesta deseada. Ejemplo de este tipo de
controladores es el PID , que se verá luego. En cambio los controladores de estructura optimizados los
ordenes de los polinomios dependen de un criterio de minimización de error entre salida y referencia.
Ejemplos de este tipo de controladores son los de ubicación de polos y de Deadbeat (latido muerto) que
también se verá más adelante.
31

2.4 CONTROLADORES DE PARÁMETROS OPTIMIZADOS

El objetivo principal de este tipo de controladores es asegurar que en estado estacionario el error sea cero.
Además que el error alcance el cero lo más pronto posible y sin excesiva oscilaciones en la salida.
Lamentablemente cumplir todos requisitos al mismo tiempo es difícil y requiere mayor atención.

Análisis del error en estado estacionario Suponga un proceso suficientemente estable, es decir
polos al interior del circulo unitario. De figura 2.4 vemos que

Re f ( z ) − n( z ) G p ( z) uv ( z)
e( z ) = − (2.9)
1 + Gc ( z ) G p ( z ) 1 + Gc ( z ) G p ( z )

Para escalón en Ref(z) ó n(z) ó en u v , el valor del error en estado estacionario se obtiene aplicando el
teorema del valor final , ver ecuación (1.61). Si deseamos que el error en estado estacionario sea cero,
entonces debe cumplirse que

Gc (1) G p (1) = ∞ (2.10)

pero dado que G p (z ) es estable, entonces

G p (1) ≠ ∞ (2.11)

por lo tanto el controlador debe ser

Gc (1) = ∞ (2.12)

finalmente tenemos entonces que el controlador debe tener la siguiente forma

Q( z )
Gc ( z ) = (2.13a)
P ( z ) ( z − 1)
'

o también

Q ( z ) z −1
Gc ( z ) = (2.13b)
P ' ( z ) (1 − z −1 )

Por lo tanto el controlador debe tener una componente integral, donde

P( z ) = P ' ( z ) ( z − 1) (2.14a)

P( z ) = P ' ( z ) (1 − z −1 ) (2.14b)
32

2.4.1 CONTROLADOR PID DISCRETO

Del controlador PID análogo tenemos

1
u ( s ) = K (1 + + TD s ) e( s ) (2.15)
TI s

Recordemos que el error en estado estacionario, con sólo la parte P, no asegura que sea cero. Con la parte I el
error es cero. Por último con la parte D, corrige anticipadamente el error, dado que la derivada da la tendencia
del error.
La inversa de Laplace es

K t de(t )
u (t ) = K e(t ) +
TI ∫ 0
e(τ ) dτ + KTD
dt
(2.16)

discretizando con periodo de muestreo T0

KT0 kT0
(e(kT0 ) − e((k − 1)T0 )
u (kT0 ) = K e(kT0 ) +
TI
∑ e(i − 1) + KT
i =1
D
T0
(2.17)

Esta expresión se conoce como estructura posicional del controlador PID

Evaluando en u (( k − 1)T0 ) , tenemos

( k −1)T0
KT0 (e((k − 1)T0 ) − e((k − 2)T0 )
u ((k − 1)T0 ) = K e((k − 1)T0 ) +
TI
∑ e(i − 1) + KT
i =1
D
T0
(2.18)

haciendo la resta u ( kT0 ) − u (( k − 1)T0 ) , tenemos

KT0 KTD
u (kT0 ) − u ((k − 1)T0 ) = K (e( kT0 ) − e((k − 1)T0 )) + e((k − 1) T0 ) + (e( kT0 ) − 2 e((k − 1)T0 ) + e(( K − 2 (2.19)
TI T0

Aplicando transformada z tenemos

KT0 −1 KTD
u ( z ) (1 − z −1 ) = K e( z ) (1 − z −1 ) + z e( z ) + (e( z ) − 2 z −1 e( z ) + z − 2 e( z )) (2.20)
TI T0

La función de transferencia del controlador queda entonces

 T  2 TD T0  −1 TD −2  (2.21)
K 1 + D − 1 + −  z + z 
Q( z ) u ( z )  T0  T0 Ti  T0 
Gc ( z ) = = =
P ( z ) e( z ) 1 − z −1
33

−1
aparece el factor (1 − z ) en el denominador como en la ecuación (2.13b) con P ' ( z ) = 1 , por lo tanto
asegura el error en estado estacionario cero. Ahora de ecuación (2.20) despejando u (z ) , tenemos

KT0 KTD
u ( z ) (1 − z −1 ) = K e( z ) (1 − z −1 ) + e( z ) + (1 − z −1 ) (1 − z −1 ) e( z ) (2.22)
TI T0

KT0 e( z ) KTD
u ( z ) = K e( z ) + −1
+ (1 − z −1 ) e( z ) (2.23)
TI (1 − z ) T0

A esta expresión se le conoce como forma de velocidad del controlador PID

El controlador discreto del PID permite otras variantes propuestas por diferentes autores. Por
ejemplo Takahashi propuso la siguiente modificación para evitar grandes valores en la variable manipulada
frente a cambios en la referencia. Para ello en la parte derivativa de la ecuación 2.20 se sustituye e(z) por y(z).
En el resto de la fórmula se sustituye e(z) por Ref(z)-y(z), quedando

 T T 
u ( z ) (1 − z −1 ) = K  y ( z ) ( z −1 − 1) + 0 (Re f ( z ) − y ( z )) + D (2 z −1 y ( z ) − z −2 y ( z ) − y ( z )) (2.24)
 TI T0 

Para sintonizar los parámetros del controlador discreto PID y de Takahashi se usan las conocidas técnicas
empíricas de Ziegler y Nichols que aparecen en la referencia [3]. Estas técnicas son iguales a las aplicadas al
PID continuo. La regla empírica para seleccionar el tiempo de muestreo es que

Tr (2.25)
=1 
→ 4
T0

Donde Tr es el tiempo de subida de la respuesta a escalón del proceso continuo en lazo abierto. Gráficamente
se obtiene sacando la máxima pendiente de la curva, haciéndola proyectar a las coordenadas del valor final y
cero. La diferencia en el tiempo de estas dos intersecciones arroja el valor de Tr

Efecto del retardo de la planta bajo control realimentado Por lo general el retardo en los
procesos produce efectos nefastos en los sistemas realimentados. Por ejemplo si a un sistema realimentado
debidamente sintonizado aparece en forma repentina un retardo en el proceso (que es común en la industria)
puede llegar a ser inestable el sistema. Otro efecto negativo es que el sistema completo se hace más lento
frente a cambios en la referencia.
34

Ejemplo 2.1

Sea el proceso de la figura 2.5


y(t)
1

1
u y
s +1

1 2 3 4 t

Figura 2.5 Proceso y respuesta a escalón

Determinar un controlador PI y sintonizarlo empíricamente usando SIMULINK


para
a) Proceso sin retardo sintonizado
b) Proceso con retardo con el PI de a)
c) Proceso con retardo sintonizado

Solución a) De acuerdo a ecuación (2.25) y gráfico de la figura 2.5 se escoge

T0 = Tr = 1

El proceso realimentado usando SIMULINK se muestra en la figura 2.6a . Se emplea un controlador


PI dado por la ecuación (2.23) con TD = 0.

CO NT RO L A DO R P I

S co p e 1

1 1
0 .1
Re fe re n ci a s+ 1
Sum K Sum1 S co p e
P RO CE S O
1
Mux u (1 )/u (2 )
0 .5 1 -z -1 Ze ro -O rd e r
. Ho l d
Ti ..

Figura 2.6a Sistema realimentado usando SIMULINK

Luego de probar distintos valores de K y TI se encontró que los valores que dan buena regulación son
K = 0.4 y TI = 0.4. La salida y entrada al proceso se muestra en la figura 2.6b
35

1.5

1
u(t)

0.5

0
0 5 10 15 20 25 30 35 40
t

1.5

1
y(t)

0.5

0
0 5 10 15 20 25 30 35 40
t

Figura 2.6b Control PI del proceso

b) Suponga ahora que aparece retardo en el proceso. O sea, ahora el proceso es como se muestra en
la figura 2.7

y(t)
1

u e −2 s
s +1
y

0 1 2 3 4 5
t

Figura 2.7 Proceso y respuesta a escalón

Para representar esta situación en SIMULINK se puede agregar al proceso de la figura 2.6a el
bloque “transport Delay”. El nuevo proceso se muestra en la figura 2.8

1
u y
s+1
P RO CE S O T ra n sp o rt
De l a y

Figura 2.8 Proceso mas retardo


36

Si se mantienen los mismos parámetros del controlador, el sistema realimentado se vuelve inestable
con retardo igual a 2 instantes de muestreo, tal como se muestra en la figura 2.9

400

200
u(t)

-200
0 5 10 15 20 25 30 35 40
t

100

50

y(t) 0

-50

-100

-150
0 5 10 15 20 25 30 35 40
t

Figura 2.9 Comportamiento inestable con retardo

c) Para evitar la inestabilidad y volver a regular bien, se debe resintonizar el PI. Los nuevos
parámetros encontrados fueron K = 0.1 y TI = 0.5. En figura 2.10 se muestra la entrada y salida para
esta nueva situación.

1.5

u(t) 1

0.5

0
0 5 10 15 20 25 30 35 40
t

1.5

1
y(t)

0.5

0
0 5 10 15 20 25 30 35 40
t

Figura 2.10 Respuesta del PI sintonizado

De las gráficas de las figuras 2.6 y 2.10 se observa que el retardo hace más lenta la regulación
37

2.4.2 CONTROL PREDICTOR DE SMITH

Este autor propuso un controlador discreto con el objeto de evitar la lentitud de reacción de los
controladores PID en presencia de retardo en la planta. Para su deducción, sean dos sistemas realimentados
para una misma planta, una sin retardo y la otra con retardo, tal como se muestra en la figura 2.11 con sus
respectivos controles PI sintonizados

Ref(z) + u(z) u(z)


Ref(z) +
Gc (z ) G p (z ) y(z) Gc1 ( z ) G p ( z) z −d y(z)
- -

a) b)
Figura 2.11 Control PI para a) proceso sin retardo y b) proceso con retardo

Ahora, supongamos que idealmente, aunque realmente no se pueda, podamos separar el proceso b)
en dos bloques y cambiamos el controlador por el de a) tal como se muestra en la figura 2.12

Ref(z) + u(z)
Gc (z ) G p (z ) z −d y(z)
-

Figura 2.12. Proceso realimentado con separación de retardo

La respuesta de esta configuración con retardo igual a d = 2 corresponde a la gráfica de la figura 2.6 pero
desplazada 2 instantes de muestreo, tal como se muestra en la figura 2.13

1.5

1
y(t)

0.5

0
0 5 10 15 20 25 30 35 40
t

Figura 2.13 Respuesta del proceso mas retardo

Igualando las funciones de transferencia de b) de figura 2.11 y figura 2.12 obtenemos el controlador
de Smith , Gc1 ( z ) . Evaluando tenemos

Gc ( z ) G p ( z ) z − d Gc1 ( z ) z − d G p ( z )
= (2.26)
1 + Gc ( z ) G p ( z ) 1 + Gc1 ( z ) z −d G p ( z )
38

despejando Gc1 ( z ) tenemos

Gc ( z ) (2.27)
Gc1 ( z ) =
1 + Gc ( z ) G p ( z ) (1 − z −d )

La implementación del controlador de Smith se muestra en la figura 2.14

u(z)
+ +
Ref(z) Gc (z ) G p ( z) z −d y(z)
- -

G p (z ) 1 − z −d

Figura 2.14. Controlador de Smith para procesos con retardo

Por lo tanto el controlador de Smith da la misma respuesta que el sistema de la figura 2.12, o sea
figura 2.13 a diferencia que aquí no necesitamos separar el retardo de la planta. Ahora comparando la
respuesta del control PI (figura 2.13 ) y control Smith (figura 2.10 ) podemos concluir que el predictor de
Smith es más rápido en reaccionar en presencia de retardo. No es común encontrar el equivalente continuo de
−sT
controlador de Smith porque agregar un retardo en la realimentación significa agregar un bloque e en el
controlador por lo tanto no sería lineal.

2.5 CONTROLADORES DE ESTRUCTURA OPTIMIZADA

La estructura del controlador resulta despejando el controlador de la figura 2.4 o sea

1 GT ( z )
Gc ( z ) = (2.28)
G p ( z ) 1 − GT ( z )

Por lo tanto los ordenes de los polinomios del numerador y denominador del controlador no son fijos y
dependen de las funciones de trasferencias deseada en lazo cerrado y de la planta. Se debe tener presente que
la elección de la función de transferencia GT (z ) debe cumplir que Gc (z ) sea realizable.

2.5.1 CONTROLADOR DE LATIDO MUERTO O DEADBEAT

Es un controlador realimentado que frente a un escalón en la referencia, la salida alcanza la referencia en un


numero finito de periodos de muestreo. No existe un equivalente en controladores continuos porque ellos
requieren un tiempo infinito para llevar el error a cero.
La característica de este controlador discreto produce entonces una función de transferencia en lazo
cerrado que es común en los filtros digitales FIR (Finite Impulse Response), es decir

y( z)
GT ( z ) = = W ( z) (2.29)
Re f ( z )
39

Con

wn + z wn −1 + .... + z n −2 w2 + z n −1
W ( z ) = w1 z −1 + .... + wn z − n = (2.30)
zn

es decir, GT (z ) posee n polos en el origen. Un ejemplo de función de transferencia en lazo cerrado con
control Deadbeat es el siguiente

Ejemplo 2.2
Sea una función de transferencia en lazo cerrado dada por

GT ( z ) = 0.2 z −1 − 0.5 z −2 + 1.3 z −3

Grafique la salida frente a un escalón en la referencia

Solución La ecuación de diferencia es

y (k ) = 0.2 Re f (k − 1) − 0.5 Re f (k − 2) + 1.3 Re f (k − 3)

Luego, evaluando tenemos

y (0) = 0
y (1) = 0.2
y (2) = −0.3
y (3) = 1
y ( 4) = 1
.
.
El gráfico se muestra en la figura 2.15

1.5

1
y(k)

0.5

-0.5

-1

-1.5

-2
0 1 2 3 4 5 6 7 8 9 10
k

Figura 2.15 respuesta constante a partir de k = 3

Observando la figura 2.4 vemos que para que la salida tenga una forma como el de la figura 2.15 implica que
la variable de control también debe estabilizarse en el mismo numero finito de tiempos de muestreo ( en este
40

caso 3). Esto quiere decir que la función de transferencia entre u(z) y Ref(z) , Gu (z ) , también debe ser FIR,
o sea

u( z)
Gu ( z ) = = Q( z ) (2.31)
Re f ( z )

Q ( z ) = q 0 + q1 z −1 + .... + q n z − n (2.32)

Determinación de numero mínimo de tiempos de muestreo n De acuerdo a la técnica de


ubicación de polos en variables de estado, la respuesta transitoria dada por la ecuación (2.30) se puede lograr
si se puede ubicar los n polos, de la función de transferencia en lazo cerrado, en el origen. Esto se consigue si
el proceso es completamente controlable. Si es así, entonces el numero de instantes de muestreo para alcanzar
el estado final debe coincidir con el orden de la matriz A, o lo que es lo mismo coincidir con el orden del
polinomio del denominador de la planta. Por lo tanto en el controlador Deadbeat la salida alcanza la
referencia en un mínimo de n instantes de muestreo, donde n es el orden del polinomio de denominador de la
planta, A(z).

Diseño del controlador Deadbeat Dividiendo las ecuaciones (2.29) y (2.31) obtenemos

y( z) W ( z )
G p (z) = = (2.33)
u ( z ) Q( z )

o sea

B( z ) W ( z )
G p (z) = = (2.34)
A( z ) Q ( z )

igualando coeficientes, tenemos

b1 z −1 + ... + b n z − n w1 z −1 + ... + wn z − n
G p ( z) = = (2.35)
1 + a1 z − 1 + ... + a n z − n q 0 + q1 z − 1 + ... + q n z − n
por lo tanto

Q ( z ) = q 0 A( z ) (2.36)

W ( z) = q0 B( z ) (2.37)

incorporando ecuaciones (2.29) y (2.33) en ecuación (2.28) tenemos


41

Q( z )
Gc ( z ) = (2.38)
1 − W (Z )

usando ecuación (2.36) y (2.37) tenemos finalmente el diseño del controlador

q 0 A( z )
Gc ( z ) = (2.39)
1 − q0 B( z )

para hallar q 0 aplicamos el teorema del valor final a la ecuación (2.37)

o sea

W (1) = q 0 B(1) (2.40)

lo que nos da

w1 + w2 + ... + wn = q 0 (b1 + b2 + ... + bn ) (2.41)

Ahora al aplicar también el valor final a la ecuación (2.30) nos da

GT (1) = w1 + ... + wn = 1 (2.42)

lo que da

1
q0 = (2.43)
b1 + ... + bn

Ejemplo 2.3
Diseñar un controlador Deadbeat para el siguiente proceso

0.3679 (1 + 0.7181 z −1 ) z −1
G p (z) =
(1 − z −1 ) (1 − 0.3679 z −1 )

Solución El controlador se obtiene de la ecuación (2.39). Para ello necesitamos resolver q 0


de ecuación (2.43). Por lo tanto tenemos

1
q0 =
0.3679 (1 + 0.7181)

por lo tanto
42

1
0.3679 (1 + 0.7181)
( )(
1 − z −1 1 − 0.3679 z −1 )
Gc ( z ) =
1−
1
0.3679 (1 + 0.7181)
(
0.3679 1 + 0.7181 z −1 z −1 )

(1 − z −1 ) (1 − 0.3679 z −1 )
Gc ( z ) =
0.3679 (1 + 0.7181) − 0.3679 (1 + 0.7181 z −1 ) z −1

Eliminando factores comunes para reducir la expresión, tenemos

(1 − z −1 ) (1 − 0.3679 z −1 )
Gc ( z ) =
0.3679 + 0.3679 ⋅ 0.7181 − 0.3679 z −1 − 0.3679 ⋅ 0.7181 z − 2

(1 − z −1 ) (1 − 0.3679 z −1 )
Gc ( z ) =
0.3679 (1 − z −1 ) + 0.3679 ⋅ 0.7181 (1 − z − 2 )

1 − 0.3679 z −1
Gc ( z ) =
0.3679 + 0.3679 ⋅ 0.7181 (1 + z −1 )

finalmente tenemos

1.582 − 0.582 z −1
Gc ( z ) =
1 + 0.418 z −1

En figura 2.16 se muestra la gráfica de la salida y la entrada del proceso en lazo cerrado para el ejemplo 2.3
obtenida de las ecuaciones (2.37) y (2.36) respectivamente
43

y(k)

1 2 3 4 5 k

u(k)

2
1 3 4 5 k

-2

Figura 2.16 Respuesta de la salida y entrada del ejemplo 2.1

Ejemplo 2.4
Demuestre que u(0) es igual a q 0

Solución De ecuaciones (2.31) y (2.32) se tiene que

q0 = u (0)

2.6 PROGRAMACIÓN DE CONTROLADORES DISCRETOS

Una vez definido el tiempo de muestreo se procede a implementar el algoritmo de control en el computador.

Ejemplo 2.4
Programar el controlador del ejemplo 2.3 en un computador

Solución El controlador debe expresarse en ecuación de diferencia, por lo tanto

u (k ) = −0.418 u (k − 1) + 1.582 e(k ) − 0.582 e(k − 1)

Por lo general los software de programación usan variables sin argumentos. Una forma de reasignar las
variables argumentadas de la ecuación anterior es
44

uk = u (k )
uk _ 1 = u (k − 1)
ek = e(k )
ek _ 1 = e(k − 1)

dependiendo del tipo de programación el programa básico del controlador al interior del computador es

1) Ingresar Re ferencia : Re f
2) Capturar dato de salida del proceso : yk _ 1
3) Formar el error : ek = Re f − yk _ 1
4) Formar la salida del controlador :
uk = −0.418 * uk _ 1 + 1.582 * ek − 0.582 * ek _ 1
5) Actualizar var iables :
uk _ 1 = uk
ek _ 1 = ek
6) Mandar el valor uk a la salida del computador
7) Saltar a 2) y repetir ciclo

2.7 REDUCCIÓN DE LAS PERTURBACIONES

La presencia de perturbaciones es una de las principales razones para utilizar la teoría de control. Sin
perturbaciones no es necesaria la realimentación. Las perturbaciones se pueden reducir en el origen que las
produce. Los efectos de las perturbaciones también se puede reducir mediante realimentación local, como
muestra la figura 2.17 ó por prealimentación desde el origen de la perturbación como muestra la figura 2.18.

Perturbación
+
+ +
u(z) y(z)
-

Realimentacion
local

Figura 2.17. reducción de perturbaciones por realimentación

Por lo general la realimentación local no es necesario, porque un controlador PI, para la entrada u basta. Sin
embargo se requiere un lazo extra de realimentación local, por ejemplo para
- Reducir las variaciones de corriente de un motor DC controlado por voltaje
- Reducir las variaciones en el control de temperatura estabilizando la fuente de alimentación de
tensión
45

Perturbación medida
Gv
Efecto de la
Compensador de -1
perturbacion
prealimentación Gp Gv en la salida
- +
+ u +
Gp y

Proceso

Figura 2.18. reducción de perturbaciones por prealimentación

Para el caso de la prealimentación de la figura 2.18, y de acuerdo al esquema de la figura 2.3 el control de
prealimentación corresponde al compensador de realimentación ( S = 0 ), o sea

T ( z ) Gv ( z )
Gc ( z ) = = (2.44)
R( z ) G p ( z )

Si Gc (z ) resulta inestable o irrealizable, debe elegirse, en su lugar, una aproximación conveniente. La


prealimentación es particularmente útil para perturbaciones generadas por cambios en la señal de referencia, o
bien, para procesos en cascada en los que las perturbaciones en un proceso están generadas por variaciones en
los procesos precedentes.
Finalmente las perturbaciones se pueden reducir por predicción. Que es nada menos que una
extensión del principio de prealimentación que puede utilizarse cuando la perturbación no puede medirse. El
principio es muy simple: la perturbación se predice midiendo señales, y la prealimentación se genera a partir
de la predicción.

EJERCICIOS

2.1.- Determine la repuesta de un controlador Deadbeat si la referencia es una señal rampa Ref(k) = k

2.2.- Encuentre el controlador deadbeat si el proceso tiene retardo, osea

B( z ) − d
G p (z) = z
A( z )

2.3) Averigüe qué ocurre con u (0) cuando el tiempo de muestreo disminuye en los controladores Deadbeat

2,4) Averigüe para condición debe cumplir el proceso para que con control deadbeat en lazo cerrado se tenga
que u (0) > u (1)
2.5) Si se quiere controlar un proceso continuo con deadbeat
a) ¿Qué hacer?
b) Si se desea alterar el u(0) en lazo cerrado ¿Qué alternativa hay?
46

2.6) Sea el siguiente proceso

z −2 + 0.5 z −4
G p (z) =
1 − 1.5 z −1 + 0.5 z −2

a) Encontrar un controlador de más bajo orden polinómico, tanto en el numerador como en el


denominador, tal que el error en estado estacionario sea cero.
b) Diseñe el controlador tal que u(2) = 0.85 cuando se aplica un escalón unitario en al referencia.

2.7) Sea el siguiente proceso

e −6 s
G p (z) =
10 s + 1

a) Diseñe un controlador de latido muerto. El tiempo de muestreo debe ser la quinta parte de la
constante de tiempo del proceso continuo.
b) B) Grafique la salida, y(k) y la entrada u(k) del proceso realimentado con un escalón unitario en la
referencia para k = 0,1,2,3,4 y 5.

2.8) Implementar un programa básico para calcular el siguiente controlador en tiempo real

u (k ) = 0.9 u (k − 2) + 1.5 e(k ) − e(k − 2)

2.9) Indique y grafique dos señales senoidales tal que al muestrearlas resulten en una señal periódica y la otra
no periódica.
47

CONTROLADORES ESTOCASTICOS

3.1 INTRODUCCIÓN

Hasta ahora se supuso perturbaciones determinísticas, o sea conocidas analíticamente. Cuando no es posible
describirla analíticamente, una aproximación gruesa (impulso, sinuosidal , etc, ) es suficiente a veces para
representarlas, por lo tanto en general las perturbaciones determinísticas son intentos de aproximación de
señales de perturbaciones reales.
Sin embargo en la práctica, las perturbaciones son desconocidas e imposibles tratarlas analíticamente. El
interés por conocer las perturbaciones con más detalle es debido a que influyen notoriamente en la calidad
final de ciertos productos industriales. (industria del papel, Industrial del acero, etc.)
De los hechos cotidianos, es común asociar las perturbaciones a señales aleatorias, como las
que se observan en el osciloscopio cuando se aumenta la sensibilidad de la magnitud. En la figura 3.1 se
muestra una señal típica de perturbación ó ruido.

-1

-2

-3

-4

-5
0 100 200 300 400 500 600 700 800 900 1000

Figura 3.1 Señal aleatoria ó ruido del haz del osciloscopio

Se observa que es imposible describir la señal matemáticamente. Sin embargo si dispusiéramos algún tipo de
información alternativa sobre ella, es natural pensar que se pueda manejar con mayor dominio y conocimiento
de causa su influencia sobre los procesos industriales. Uno de estas herramientas son las técnicas de las
probabilidades y variables estadísticas ó aleatorias. Los controladores digitales que se diseñan tomando en
consideración las técnicas de variables aleatorias, se denominan controladores estocásticos.

3.2 SEÑALES ALEATORIAS DISCRETAS

Existen variadas señales aleatorias presente en la naturaleza. De allí surgió la necesidad de caracterizarlas en
distintas distribuciones de probabilidades. Los tipos de señales aleatorias comúnmente encontrados en
procesos industriales tienen distribución gaussiana, como se verá más adelante. A continuación se describen
algunos ejemplos de situaciones aleatorias discretas.

Ejemplo 3.1
Describa la distribución de la variable aleatoria x en el tiempo del siguiente experimento. Sea x el
valor que resulta un dado una vez lanzado.
48

Solución Recurriendo a variables estadísticas, sea P la probabilidad que ocurra un evento, entonces
la probabilidad que el dado resulte 1 ó 2, .. ó 6, es decir

1
P(1) = P (2) = P (3) = P(4) = P(5) = P (6) =
6
La función de distribución de probabilidad es

F ( x ) = P(resultado ≤ x)

Matemáticamente la función de distribución de probabilidad se puede expresar de la siguiente forma

6
1
F ( x) = ∑ u( x − i)
i =1 6

Donde la función u es el escalón unitario


La función de densidad de probabilidad es f ( x ) = P ( x ) y esta dado por

6
1
f ( x) = ∑ δ K ( x − i )
i =1 6

La gráfica de la distribución y densidad de probabilidad se muestra en la figura 3.2

1.5

F (x ) 1

0.5

0
0 1 2 3 4 5 6 7 8 9 10
x

0.5

0.4
f(x )
0.3

0.2

0.1

0
0 1 2 3 4 5 6 7 8 9 10

Figura 3.2 gráfica de F(x) y f(x)

f(x) es constante para todas las posibilidades de ocurrencia, lo que significa que no existe preferencia
por un valor determinado. En Figura 3.3 se muestran el resultado para 11 instantes seguidos de
lanzamientos del dado, en que cada resultado ocurre dos veces
49

1 0

7
x (k )
6

0
0 1 2 3 4 5 6 7 8 9 1 0 1 1
k

Figura 3.3 Evolución de los resultados del lanzamiento del dado

Ejemplo 3.2
Describa la distribución de la variable aleatoria x en el tiempo del siguiente experimento. Sea x la
suma de las caras superiores que resultan del lanzamiento de son dados.
Solución La suma de dos dados va desde 2 hasta 12. El total de ocurrencias distintas son 36
(6x6), por lo tanto las probabilidades de los resultados son

1 5
P ( 2) = P(8) =
36 36
2 4
P(3) = P(9) =
36 36
3 3
P ( 4) = P(10) =
36 36
4 2
P(5) = P(11) =
36 36
5 1
P(6) = P(12) =
36 36
6
P ( 7) =
36

La gráfica de la distribución ( F(x) ) y densidad ( f(x) ) de probabilidad se muestra en la figura 3.4


1.5

1
F (x )

0.5

0
0 5 10 15
x

0.2

0 .15
f( x )
0.1

0 .05

0
0 5 10 15
x

Figura 3.4 Distribución F(x) y f(x) para dos dads


50

A diferencia del ejemplo 3.1, la probabilidad de ocurrencia esta sesgada, o sea hay mayor
probabilidad de ocurrencia de la suma que resulta 7 y disminuyendo a ambos lados de este valor en la
medida que se aleja. De acuerdo a este análisis un posible variación de x en el tiempo se muestra en
la figura 3.5 .Note que en x = 7 ocurre mayor repitencia de resultados

1 5

x (k )

1 0

0
0 1 0 2 0 3 0 4 0 5 0 6 0 7 0 80 90 1 00
k

Figura 3.5 Resultado de dos dados para instantes consecutivos que se realiza

Si se repite el ejemplo 3.2 pero con tres dados , en figura 3.6 se muestra la distribución de densidad de
probabilidad f(x) que resulta

0 .1 4

0 .1 2
f( x )

0 .1

0 .0 8

0 .0 6

0 .0 4

0 .0 2

0
0 2 4 6 8 10 12 14 16 18 20
x

Figura 3.6 Distribución de densidad de probabilidades, f(x), del experimento de tres dados

Del ejemplo 3.2 se observa que si aumenta el numero de dados, la figura 3.6 se va transformándose en una
campana de Gauss y la variable aleatoria en el tiempo de la figura 3.5 se asemeja a la figura 3.1 . Por esta
razón decimos que las perturbaciones ó ruidos tiene distribución gaussiana. La distribución gaussiana se
caracteriza por dos variables estadísticas: desviación standard ( σ ) ó varianza ( σ ) y valor promedio ó
2


esperanza ( x ). Recordemos algunas propiedades estadísticas
51

Definición de propiedades estadísticas Recordemos que la esperanza esta dada por

_ N
E{x(k )} = x = m x (k ) = lim
1
N →∞ N
∑ x( k )
k =1
(3.1)

La función de autocorrelación es

N
autocorr (τ ) = E{x(k ) x (k + τ )} = rx (τ ) = lim ∑ x(k ) x (k + τ ) (3.2)
N →∞
k =1
Una variable aleatoria se caracteriza porque su valor no depende de valores pasados o futuros de la misma
{ }
señal (señal independiente), o sea si E x (k ) = 0 , entonces rx (τ ) = 0 para todo τ ≠ 0
La función de autocovarianza es

 _ _

cov[ x, τ ] = E [ x(k ) − x ][ x(k + τ ) − x ]  (3.3)
 

La varianza se obtiene para τ = 0 , es decir

Var ( x) = cov[x,0] = σ x2 (3.4)


_
Si E {x ( k )} = x = 0 entonces

Var ( x ) = E{( x (k )) 2 } = rx (0) (3.5)

Ejemplo 3.3
Determinar la varianza y esperanza de las distribuciones gaussianas mostradas en la figura 3.7

0.05 0.05

f1(x) 0.04 f2(x)0.04


0.03 0.03

0.02 0.02

0.01 0.01

0 0
0 50 100 0 50 100
(a) (b)

0.1 0.1

f3(x) 0.08 f4(x) 0.08


0.06 0.06

0.04 0.04

0.02 0.02

0 0
0 50 100 0 50 100
(c) (d)

Figura 3.7 Distribuciones gaussianas para distintos proceos


52

Solución a) Varianza 10 y esperanza 25


b) Varianza 10 y esperanza 50
c) Varianza 5 y esperanza 25
d) Varianza 5 y esperanza 50

En figura 3.8 se muestras las realizaciones de las variables aleatorias para cada representación gaussiana

100 100

80 80
X1(k) x2(k)
60 60

40 40

20 20

0 0
0 50 100 0 50 100
(a) (b)

100 100

80 80
x3(k) x4(k)
60 60

40 40

20 20

0 0
0 50 100 0 50 100
(c) (d)

Figura 3.8 variaciones de las variables aleatorias para distintas distribuciones gaussiana

3.3 TRASNFORMADA DISCRETA DE FOURIER (DFT)

Al igual que en sistemas continuos, la trasformada de Fourier discreta es una herramienta útil para llevar una
señal en el tiempo discreto al dominio de la frecuencia discreta y viceversa, de tal manera que el análisis que
se haga en uno u otro dominio es equivalente, facilitando los conceptos durante el análisis de sistemas
discretos [4].

Señales periódicas Para el presente análisis, una señal periódicas discreta será aquella que se
repite cada N instantes de muestreo, es decir

x(k ) = x(k + N ) (3.6)

Donde k y N son números enteros

Ejemplo 3.4
¿Cuántas oscilaciones cosenoidales distintas caen en N instantes de muestreo?

Solución Sea N = 16. En figura 3.9 se muestran cuatro formas periódicas


53

2 2

1 1
x 1(k) x2(k )

0 0

-1 -1

-2 -2
0 5 10 15 0 5 10 15
(a) (b)

2 2

x 4(k)
1 1
x 3(k)

0 0

-1 -1

-2 -2
0 5 10 15 0 5 10 15
(d)
(c )

Figura 3.9 Cuatro formas periódicas que caen en N =16

De las figuras podemos deducir que se pueden graficar 16 señales periódicas.

Las formas de onda de la figura 3.9 se pueden expresar matemáticamente como la parte real de

 2π 
jn  k
Φ n (k ) = e  N  (3.7)

con N = 16 y n = 1,....,N. Los gráficos de la figura 3.9 son para

(a) n=1
(b) n=2
(c) n=3
(d) n=6

De ecuación (3.7) se verifica que

Φ n+ rN (k ) = Φ n (k ) (3.8)

con r múltiplo entero de N.

Señal periódica como combinación lineal de Φ n (k ) Sea x(k) señal periódica de largo N.
Probaremos entonces que
54

N −1 N −1  2π 
j n k
x(k ) = ∑ a n Φ n (k ) = ∑ a n e  N  (3.9)
n =0 n=0

ó si la señal periódica se considera a partir de n = .. –3, -2, -1 , 2, 3, etc. Por ejemplo a partir de n = 3

N +2
x(k ) = ∑a Φ
n =3
n n (k ) (3.10)

ó, si N es par se puede tomar de la siguiente forma

N −1
2
x(k ) = ∑a Φ n n (k ) (3.11)
n=− N
2

Evaluando la ecuación (3.9) para k = 0,1, L , N − 1

N −1
x ( 0) = ∑ a n
n=0
 2π 
N −1 j n 
x (1) = ∑ a n e
 N 

n =0
(3.12)
.
.
 2π 
N −1 j n  ( N −1)
x ( N − 1) = ∑ a n e  N 

n =0

Vemos que hay N ecuaciones con N incognitas por lo tanto existe solución para los a n

 2π 
−jr k
 N 
Ahora multipliquemos ambos miembros de la igualdad de la ecuación (3.12) por e , r entero
cuaquiera

 2π   2π   2π   2π 
− jr 0 N −1 j n 0 − jr 0 N −1 j (n − r )  0
x ( 0) e  N 
= ∑ an e  N 
e  N 
= ∑ an e  N 

n=0 n=0
 2π   2π   2π   2π 
−jr 1 N −1 j n 1 − jr 1 N −1 j (n − r )  1
x (1) e  N 
= ∑ an e  N 
e  N 
= ∑ an e  N 

n =0 n =0
(3.13)
.
.
 2π   2π   2π   2π 
−jr  ( N −1) N −1 j n  ( N −1) − jr  ( N −1) N −1 j (n − r )   ( N −1)
x ( N − 1) e  N 
= ∑ an e  N 
e  N 
= ∑ an e  N 

n=0 n =0
55

Sumando ambos lados de la igualdad

 2π   2π 
N −1 −jr k N −1 N −1 j (n −r )  k
∑ x( k ) e
k =0
 N 
=∑ ∑a e
k =0 n =0
n
 N  (3.14)

al intercambiar el orden de la sumatoria tenemos

 2π   2π 
N −1 −jr k N −1 N −1 j (n −r )  k
∑ x( k ) e
k =0
 N 
= ∑ an
n=0
∑e
k =0
 N  (3.15)

Recurriendo a la serie geométrica

N −1  N α =1

∑ α = 1 − α N
k
α ≠1 (3.16)
k =0  1 − α

tenemos que al al hacer

 2π  (3.17)
j (n − r ) 
α =e  N 

el lado derecho de la igualdad de ecuaciones (3.15) nos da


  2π 
 j (n −r )  

N −1 N −1  2π 
j (n − r ) 
 a r N para (n − r ) = 0 ( porque e  N 
=1)
k 
∑a ∑e n
 N 
=
n=0 k =0  j (n −r ) 
 2π 
N  2π 
 N −1
1− e  N  j (n − r )  N
∑ n = = e j (n − r ) 2 π = 1)
 N 
a  2π 
0 ( porque e
( − )
 n =0 1− e
j n r 
 N 

por lo tanto ecuación (3.15) queda

N −1  2π 
jr k
∑ x( k ) e
k =0
 N 
= ar N (3.18)

despejando a r

N −1  2π 
1 jr k
ar =
N
∑ x( k ) e
k =0
 N  (3.19)

como esta ecuación se cumple para n − r = 0, ó n = r entonces


56

N −1  2π 
1 j n k
an =
N
∑ x(k ) e
k =0
 N  (3.20)

por lo tanto x(k) se puede expresar a traves de la ecuación (3.9) con an dada por la ecuación (3.20)

Si x(k) se expresa mediante ecuación (3.11) entonces

N −1  2π 
1 2 j n k
an =
N
∑ x( k ) e  N  (3.21)
k =− N
2

Señales no periódicas sea una señal aperiódica mostrada en la figura 3.10

x (k )

-N 1 0 N 1

Figura 3.10 señal no periódica

Si ahora formamos una señal periódica (de periódo N, con N par) con la señal de la figura 3.10, obtenemos la
figura 3.11

Figura 3.11 señal periódica

Vemos que las señales de las figuras 3.10 y 3.11 estan relacionadas por
57

x(k ) = ~
x (k ) k ≤ N1 (3.22)

Sabemos que para señales periódicas (ver ecuación(3.21))

N −1  2π  N −1  2π  ∞  2π 
1 2 j n k 1 2 j n k 1 j n k
an =
N
∑ ~x (k ) e  N 
=
N
∑ x(k ) e  N 
=
N
∑ x(k ) e
k = −∞
 N  (3.23)
k =− N k =− N
2 2

a n se puede expresar como

1
an = X (n ω 0 ) (3.24)
N

donde


X (n ω 0 ) = ∑ x( k ) e
k = −∞
− j n ω0k
(3.25)


con ω0 =
N
de ecuación (3.11) y usando (3.24)

N −1  2π  N −1  2π 
2 j n k 2
1 j n k
x (k ) =
~ ∑ an e  N 
= ∑ N
X (n ω 0 ) e  N 

n=− N n=− N
2 2 (3.26)
N −1  2π  N −1  2π 
ω0 2 j n k 1 2 j n k
=

∑ X (n ω 0 )e  N 
=

∑ X (n ω 0 )e  N 
ω0
n=− N n=− N
2 2

La sumatoria se puede expresar como una suma de N áreas. Cada área tiene una altura de X ( n ω 0 ) y una
2π 2π
anchura de ω 0 = . El rango completo del eje x, o sea la anchura total, es N ω 0 = N = 2 π , es
N N
decir fija y de valor 2 π para cualquier N.
De modo que cuando N → ∞ , ~ x (k ) = x(k ) , ω 0 → dω y n ω 0 → ω y la sumatoria se
transforma en una integral

1 π
x(k ) =
2π ∫ −π
X (ω ) e j ω k dω (3.27)

Con


X (ω ) = ∑ x( k ) e
k = −∞
− jkω
(3.28)
58

La ecuación (3.28) se conoce como la transformada de Fourier Discreta (DFT) de x(k) y la ecuación (3.27) su
inversa

3.4 INTERPRETACION DE PROCESOS CON VARIABLES ALEATORIAS

Sea un proceso como muestra en la figura 3.13, con u e y variables aleatorias

u Gp(z) y

Figura 3.13 Proceso

Relación de esperanzas Usando ecuación (1.72) tenemos que la esperanza a la salida del proceso
es

∞ ∞
E {y (k )} = ∑ g (n) E {u (k − n)} = m y (k ) = ∑ g (n) mu (k − n) (3.29)
n =1 n =1

o sea la esperanza a la salida del proceso es función de la esperanza de entrada

Relación de autocovarianzas Usando la ecuación (3.2) tenemos que la autocorrelación en la


salida es

ry (τ ) = E {y (k + τ ) y (k )} (3.30)

y de ecuación (1.71) tenemos

 ∞  ∞ 
ry (τ ) = E   ∑ g (n) u (k + τ − n)   ∑ g (l ) u (k − l )  (3.31)
  n =1   l =1 

acomodando las sumatorias

 ∞ ∞

ry (τ ) = E 

∑∑
n =1 l =1
g (n) u (k + τ − n) g (l ) u (k − l )

∞ ∞
= ∑∑ g (n) E {u (k + τ − n) u (k − l )} g (l ) (3.32)
n =1 l =1
∞ ∞
= ∑∑ g (n) ru (τ − n + l ) g (l )
n =1 l =1

o sea, la autocorrelación a la salida del proceso es función de la autocorrelación de entrada


59

Relación de densidades espectrales de potencias La transformada de Fourier Discreta de la


autocorrelación de una señal, x, se denomina densidad espectral de potencia de la señal y se denomina por
Φ x (ω ) . Por lo tanto de ecuación (3.28) tenemos


Φ x (ω ) = ∑ r (k ) e
k = −∞
x
− j kω
(3.33)

y su inversa

1 π
rx (k ) =
2π ∫ −π
Φ x (ω ) e j ω k dω (3.34)

La densidad espectral de potencia en la salida será entonces


Φ y (ω ) = ∑ r (k ) e
k = −∞
y
− j kω
(3.35)

incorporando ecuación (3.32) tenemos

∞ ∞ ∞
Φ y (ω ) = ∑ ∑∑
k = −∞ n =1 l =1
g ( n ) ru ( k − n + l ) g (l ) e − j k ω (3.36)

∞ ∞ ∞
= ∑ ∑∑
k = −∞ n =1 l =1
g ( n) ru ( k − n + l ) g (l ) e − j n ω e j l ω e − j ( k + l − n ) ω

haciendo α = k + l − n tenemos

∞ ∞ ∞
Φ y (ω ) = ∑ e − j n ω g (n) ∑ e j l ω g (l ) ∑e − jα ω
ru (α ) (3.37)
n =1 l =1 α = −∞
∞ ∞
= ∑ e − j n ω g (n) ∑ e j l ω g (l ) Φ u (ω )
n =1 l =1

Ahora evaluando ecuación (1.21) para s = jω y T0 = 1, tenemos que la función de transferencia del
proceso es (ver ejemplo 1.13)

−n

( )

G p ( z) = G p ( j ω ) = ∑ e jω
g ( n) (3.38)
n =1

por lo tanto

Φ y (ω ) = G p (e j ω ) G p (e − j ω ) Φ u (ω )
(3.39)

Ruido blanco corresponde a una señal que posee todas las componentes del espectro de
frecuencia y además poseen la misma magnitud, o sea, espectro constante.
60

Propiedad de inpendencia de variables aleatorias Si dos señales aleatorias, y(k) y x(k)


son totalmente independiente una de otra, entonces se cumple que

E{x(k ) y (k )} = E{x (k )} E{y (k )}


(3.40)

Ejemplo 3.5
Determine la potencia que consume una señal en la banda ∆ω = ω 2 − ω1 al pasar por una
resistencia de 1 Ω ,

Solución la potencia es el área bajo la curva de la densidad espectral de potencia de la señal, o


sea

ω2
P = 2∫ Φ (ω ) dω
ω1

Ejemplo 3.6
Determine la densidad espectral de potencia del ruido blanco con esperanza del ruido igual a cero y
varianza σ
2

Solución Sea x la señal de ruido blanco. Como es una variable aleatoria entonces se
cumple rx (τ ) = 0 para todo τ ≠ 0 , por lo tanto de ecuaciónes (3.33) y (3.5) se tiene

{ }
Φ x (ω ) = rx (0) = E ( x(k )) 2 = Var ( x ) = σ 2
o sea, es constante y corresponde a la varianza del ruido blanco

Ejemplo 3.7
Sea el proceso de la figura 3.13 siguiente

1
G p (z) =
z−a

u (k ) ruido blanco con esperanza E {u (k )} = 0 y varianza σ 2 . Determine la densidad espectral de


potencia a la salida del proceso

Solución Del ejemplo anterior tenemos que la densidad espectral de entrada es

Φ u (ω ) = σ 2

y de ecuación (3.39)

σ2 σ2
Φ y (ω ) = G p (e j ω ) G p (e − j ω ) σ 2 = =
(e j ω − a ) (e − j ω − a) 1 + a 2 − 2 a cos ω

Se observa que cuando un ruido blanco se hace pasar a traves de una función de transferencia ó filtro,
a la salida se obtiene ruido que depende de la frecuencia (ruido coloreado)
61

Formula general de varianza a la salida de una función de transferencia Sea la función de


tranferencia

B( z )
G( z) = (3.41)
A( z )

con B (z ) ) y A(z ) dadas por ecuaciones (1.50) y (1.51) respectivamente, con a 0 = 1


u (k ) ruido blanco con esperanza cero y varianza 1. De ecuación (3.39) tenemos

B( z ) B( z −1 )
Φ y (ω ) = (3.42)
A( z ) A( z −1 )

la salida es una variable aleatoria, por lo tanto

Var ( y ) = ry (0)
(3.43)

y de ecuación (3.34)

1 π
ry ( 0 ) =
2π ∫ −π
Φ y (ω ) dω (3.44)


dado que z = e , entonces

dz 1 dz 1 dz
= j e jω → dω = jω
= (3.45)
dω j e j z

por lo tanto la ecuación (3.44) se convierte en la siguiente integral cerrada, usando también la ecuación (3.42)

1 B ( z ) B( z −1 ) dz
j ∫ A( z ) A( z −1 ) z
ry ( 0 ) = (3.46)

Se puede comprobar que la solución de esta integral, para proceso de primer orden es

b02 + b12 − 2 b0 b1 a1
var( y ) = ry (0) = (3.47)
1 − a12

y para proceso de segundo orden es

B0 e1 − B1 a1 + B2 (a12 − a 2 e1 )
var( y ) = ry (0) = (3.48)
(1 − a 22 ) e1 − (1 − a 2 )a12

donde
62

B0 = b02 + b12 + b22


(3.49)
B1 = 2 (b0 b1 + b1b2 )
B2 = 2 b0 b2
e1 = 1 + a 2

ahora si la varianza del ruido blanco a la entrad es σ , entonces del ejemplo 3.7 y ecuación (3.44), las
2

ecuaciones (3.47) y (3.48) se modifican a

b02 + b12 − 2 b0 b1 a1 2
var( y ) = ry (0) = σ (3.50)
1 − a12

B0 e1 − B1 a1 + B2 (a12 − a 2 e1 ) 2
var( y ) = ry (0) = σ (3.51)
(1 − a 22 ) e1 − (1 − a 2 )a12
Ejemplo 3.8
Sea la siguiente función de transferencia de la influencia de un ruido (no puede representar un
proceso porque b0 ≠ 0 )

y( z ) 1 − 0.9 z −1
G( z) = =
u ( z ) 1 − 1.7 z −1 + 0.7 z − 2

si la entrada, u (z ) , es ruido blanco con media cero y esperannza σ . Determine la varianza en la salida,
2

y (z )

Solución los coeficientes de la función de transferencia son

b0 = 1
b1 = −0.9
a1 = −1.7
a 2 = 0.7

es un proceso de segundo orden por lo tanto usando ecuaciones (3.49) y (3.51) tenemos que

B0 = 1.81
B1 = −1.8
B2 = 0
e1 = 1.7

0.017 2
var( y ) = ry (0) = σ =∞
0
63

3.5 CONTROLADOR DE VARIANZA MINIMA

Este controlador es del tipo regulador, vale decir, en presencia de ruidos y/o perturbaciones mantiene el valor
medio de la salida constante y las desviaciones, o dispersión, con respecto a la media, mínimas, o sea, de
varianza mínima. Mantener las desviaciones mínimas en un proceso otorgan grandes ventajas, por ejemplo,
reduce consumo de energia, de materias primas, aumenta la producción, aumento de la calidad, etc. En un
proceso sin control de varianza mínima, la salida puede comportarse como el gráfico (a) dela figura 3.7 ó
señal (a) de la figura 3.8. En cambio con controlador de varianza mínima , la salida cambia al gráfico (c) de la
figura 3.7 ó señal (c) de la ficura 3.8. En lo que sigue se supondrá esperanza de ruido blanco igual a cero; en
caso contrario se especificará claramente.

Un proceso con ruido lo podemos modelar como muestra la figura 3.14

PROCESO

v(z) Gv(z) n(z)


ruido
blanco +
+
u(z) Gp(z) y(z)

Figura 3.14 Proceso con ruido


con G p (z ) dado por

B( z ) − d
G p (z) = z (3.52)
A( z )

los polinomios B (z ) y A(z ) estan dados por la ecuación (1.52) y d representa el retardo del proceso
Gv (z ) esta dado por

D( z )
Gv ( z ) = (3.53)
C (z)

donde

D ( z ) = 1 + d 1 z −1 + d 2 z −2 + L + d n z − n
(3.54)

C ( z ) = 1 + c1 z −1 + c 2 z −2 + L + c n z − n
(3.55)

Para entender el concepto del controlador de varianza mínima , veamos un ejemplo sencillo

Ejemplo 3.9
Mediante un sistema realimentado, determine una secuencia de u(k) para reducir el ruido ó
varianza a la salida del proceso de la figura 3.14 para los siguientes casos
64

b1 z −1
a) G p ( z ) = y Gv ( z ) = 1
1 + a1 z −1
b1 z −1 1 + d1 z −1
b) G p ( z ) = y Gv ( z ) =
1 + a1 z −1 1 + a1 z −1

Solución a) En este caso es imposible reducir el ruido porque, dado que n( z ) = v( z ) ,


con la medición de y(k) no permite crear un control u(k) que pueda anular el error en
n(k+1) = v(z+1) (donde puede afectarlo) porque no existe manera alguna cuanto valdrá v(k+1)
en el instante k. Es decir el ruido n(z) se suma a las salida del proceso sin poder reducirlo.

b) En este caso tenemos

b1 z −1 1 + d1 z −1
y( z) = u( z) + v( z ) (3.56)
1 + a1 z −1 1 + a1 z −1

aplicando la transformada inversa de z se obtiene la siguiente ecuación de diferencia

y (k ) = −a1 y (k − 1) + b1u (k − 1) + v (k ) + d1v (k − 1)


(3.57)
la idea es minimizar la varianza en la salida y(k) debido a la presencia del ruido n(k), o sea
minimizar el siguiente criterio

{
J = E y 2 (k ) } (3.58)

más exactamente

{
J = E y 2 (k + 1) } (3.59)

porque u(k) afectará a y(k+1) y no a y(k)

por lo tanto aumentando en uno el argumento de la ecuación (3.57) tenemos

y (k + 1) = −a1 y (k ) + b1u (k ) + v(k + 1) + d 1v (k ) (3.60)

aplicando la esperanza

{ } {
E y 2 (k + 1) = E (− a1 y (k ) + b1u (k ) + v(k + 1) + d 1v (k ) )
2
}
{
= E (− a1 y (k ) + b1u (k ) + d 1v (k ) ) +
2
} (3.61)
E{2 (− a1 y (k ) + b1u (k ) + d1v (k ) ) v (k + 1)} +
{
E v 2 (k + 1) }
El segundo término del lado derecho de la igualdad es cero porque v(k+1) es independiente de
las otras variables, por lo tanto de acuerdo a ecuación (3.40) y dado que E{v( k + 1} = 0 , entonces
65

E{2 (− a1 y (k ) + b1u (k ) + d1 (k ) ) v (k + 1)} = E{2 (− a1 y (k ) + b1u (k ) + d 1 (k ) ) } E{v(k + 1)} = 0

es correcto decir que

{ } {
E y 2 (k + 1) ≥ E v 2 (k + 1) } (3.62)

dado que el primer término del lado derecho de la ecuación (3.61) es siempre positivo. La mínima
varianza se logra para

{ } {
E y 2 (k + 1) = E v 2 (k + 1) } (3.63)

y ello se logra haciendo el primer término del lado derecho de la ecuación (3.61) igual a cero , es
decir

− a1 y (k ) + b1u (k ) + d 1v(k ) = 0

despejando u(k) tenemos

a1 y (k ) − d1v (k )
u (k ) = (3.64)
b1

Como se cumple para todo k, entonces también se cumple para

{ } {
E y 2 (k ) = E v 2 (k ) } (3.65)

esto implica que es válido asumir

y ( k ) = v( k ) (3.66)

finalmente tenemos que la ley del control es

a1 − d1
u (k ) = y (k ) (3.67)
b1

y la función de transferencia del controlador de varianza mínima, GCVM (z ) , es

d1 − a1
GCVM ( z ) = (3.68)
b1

cuando Re f ( z ) = 0

En figura 3.15 se muestra la implementación del controlador


66

PROCESO
1+d1z-1
v(z)
CONTROLADOR 1+ a1z-1 n(z)
ruido
GCVM(z) blanco +
+ d1-a1 u(z) b1z-1 +
Ref(z)=0 y(z)
b1 1+ a1z-1
-

Figura 3.15 Controlador de varianza mínima del ejemplo 3.8 (b)

Para ver la salida controlada, reemplazamos el u(k) de la ecuación (3.60) por el u(k) de la ecuación
(3.67) y nos da

y (k + 1) + d1 y (k ) = v (k + 1) + d1v(k ) (3.69)

aplicando transformada z

y ( z ) z + d1
= =1 (3.70)
v( z ) z + d1

es decir y ( k ) = v( k ) , que coincide con la ecuación (3.66).

3.6 CONTROLADOR DE VARIANZA MINIMA GENERALIZADO

A continuación se desarrolla el control de varianza mínima generalizado, GCVM (z ) , con Re f ( z ) = 0


ver figura 3.15. Este desarrollo es una extensión del ejemplo 3.9

De figura 3.14 y ecuaciones (3.52) y 3.(53) tenemos

B( z ) − d D( z )
y( z) = z u( z) + v( z ) (3.71)
A( z ) C (z)

sacando factor común

A* ( z ) y ( z ) = B * ( z ) z − d u ( z ) + D * ( z )v ( z )
(3.72)
donde

A* ( z ) = A( z ) C ( z ) = 1 + a1* z −1 + a 2* z −2 + L + a m* z − m
B * ( z) = B( z ) C ( z) = b1* z −1 + b2* z −2 + L + bm* z − m (3.73)
−1 −2 −m
D ( z ) = D ( z ) A( z ) = 1 + d z + d z
* *
1
*
2 +L+ d z *
m

con m = 2n
67

OBS: En el caso de que C ( z ) = A( z ) , en la ecuación (3.72) se tiene

A* ( z ) = A( z )
B * ( z ) = B( z ) (3.74)

D * ( z ) = D( z )

Con retardo, el criterio de la ecuación (3.59) cambia a

{
J = E y 2 (k + d + 1) } (3.75)

La transformada z de y (k + d + 1) es z d +1 y ( z ) . De ecuación (3.72) se obtiene y (z ) por lo tanto

B * ( z) D * ( z ) d +1
z d +1 y ( z ) = z u ( z ) + z v( z ) (3.76)
A* ( z ) A* ( z )

Al igual que la parte (b) del ejemplo3.9, la varianza de la ecuación (3.75) se puede descomponer en ternimos
B * ( z)
conocidos y desconocidos. El término * z u ( z ) contiene términos presente y pasados, por lo tanto son
A ( z)
D * ( z ) d +1
todos conocidos. Nos queda por analizar el término z v ( z ) . Del ejemplo 1.13 vimos que la
A* ( z )
división de polinomios puede expresarse como

D * ( z) resto
*
= cuociente + * (3.77)
A (z) A (z)

y existen infinitas formas de representar el resultado dependiendo de numero de terminos que se desea para el
D * ( z ) d +1
cuociente. Sin embargo nos sinteresa aquel cuociente y resto tal que en z v ( z ) se puedan
A* ( z )
distinguir y separar los términos futuros (desconocidos) de los no futuros (presente y pasados conocidos). El
siguiente ejemplo nos ayudará a encontrar estos términos

Ejemplo 3.10
D* (z)
Efectuar la división para que resulten dos térmicos en el cuociente
A* ( z )

Solución Usando lo polinomios de la ecuación (3.73) tenemos que la división es


68

(1 + d 1* z −1 + d 2* z −2 + L + d m* z − m ) : (1 + a1* z −1 + a 2* z −2 + L + a m* z − m ) = 1 + (d 1* − a1* ) z −1
− 1 − a1* z −1 − a 2* z − 2 + L − a m* z − m
0 + (d 1* − a1* ) z −1 + (d 2* − a 2* ) z − 2 + L + (d m* − a m* ) z − m
− (d 1* − a1* ) z −1 − a1* (d 1* − a1* ) z − 2 − L − a m* −1 (d 1* − a1* ) z − m − a m* (d 1* − a1* ) z −( m+1)
(d 2* − a 2* − a1* (d 1* − a1* )) z − 2 + L − a m* (d 1* − a1* ) z −( m +1)

donde

cuociente = 1 + (d1* − a1* ) z −1


(3.78)

resto = (d 2* − a 2* − a1* (d1* − a1* )) z −2 + L − a m* (d1* − a1* ) z − ( m +1)


(3.79)

El resultado del ejemplo 3.10 lo podemos generalizar para p términos en el cuociente, a saber

D* (z) −1 − ( p −1) l 0 z − p + L + l m −1 z − ( m+ p −1)


= 1 + f z + L + f z + (3.80)
1 + a1* z −1 + a 2* z − 2 + L + a m* z −m
1 p
A* ( z )

por lo tanto

D * ( z ) d +1
z v ( z ) = z d +1 v ( z ) + f 1 z d v ( z ) + L + f p z d − p + 2 v ( z ) +
*
A (z) 14444444244444443
*
(3.81)
d − p +1
l0 z v( z ) + L + l m −1 z d − m− p + 2 v ( z )
1 + a * z −1 + a 2* z −2 + L + a m* z −m
14414444 24444443
**

observese que si d − p + 2 = 1 , o sea p = d + 1 , se distinguen claramente los términos futuros de


v (z ) (*) de los no futuros (presente y pasados) (**). En este caso la ecuación (3.81 ) se puede expresar como

D * ( z ) d +1 L( z )
*
z v ( z ) = F ( z ) z d +1 v ( z ) + * v( z ) (3.82)
A (z) A (z)

con

F ( z ) = 1 + f 1 z −1 + L + f d z − d (3.83)

L( z ) = l 0 + l1 z −1 + L + l m−1 z − ( m−1) (3.84)

dividiendo por v (z ) la ecuación (3.82) y acomodando los terminos se obtiene la siguiente identidad
69

D * ( z ) = F ( z ) A* ( z ) + z − ( d +1) L( z )
(3.85)

sustituyendo la ecuación (3.82) en la ecuacion (3.76) se tiene

B * ( z) L( z )
z d +1 y ( z ) = *
z u ( z ) + F ( z ) z d +1 v ( z ) + * v( z ) (3.86)
A ( z) A (z)

separando los términos conocidos y desconocidos , tenemos

z d +1 y ( z ) = H ( z ) + R( z )
(3.87)

donde

H ( z ) = F ( z ) z d +1 v ( z ) (3.88)

contiene los términos desconocidos y

B* (z) L( z ) (3.89)
R( z ) = * z u( z) + * v( z )
A (z) A ( z)

contiene los términos conocidos

Ahora podemos evaluar la esperanza de la ecuacion (3.75 ), o sea

{ } {
E y 2 (k + d + 1) = E (H (k ) + R(k ) )
2
} (3.90)

{ } { }
E y 2 (k + d + 1) = E ( H (k )) 2 + E{2 H (k ) R(k )} + E ( R(k )) 2 { } (3.91)

El segundo termino del lado derecho es igual a cero es E{H (k )} = 0 (ver ejemplo 3.9), por lo tanto

{ } { } {
E y 2 (k + d + 1) = E ( H (k )) 2 + E ( R(k )) 2 } (3.92)

la mínima esperanza ocurre para

{ }
E ( R(k )) 2 = 0
(3.93)

o sea de ecuación (3.89 )

B* ( z) L( z ) (3.94)
*
z u( z) + * v( z ) = 0
A ( z) A ( z)

despejando v (z ) de ecuación (3.72) y reemplazando en ecuación ( 3.94 ) obtenemos


70

B * ( z) L( z ) L( z ) B * ( z ) (3.95)
z u ( z ) + y ( z ) − u( z) = 0
A* ( z ) D * ( z) A* ( z ) D * ( z )

reagrupando términos

L( z ) B * ( z )  D * ( z ) z − L( z ) z − d  (3.96)
y ( z ) +   u ( z ) = 0
D * ( z) D * ( z )  A* ( z ) 
reemplazando el término entreparentesis por la identidad de la ecuación (3.85) se tiene

L( z ) B * ( z)
y ( z ) = − z F ( z) u( z) (3.97)
D* (z) D * ( z)

finalmente la ley de control de varianza mínima es

L( z )
u( z) = − *
y( z) (3.98)
z B ( z) F ( z)

y el controlador de varianza mínima generalizando, GCVM (z ) , es

L( z )
GCVM ( z ) = * (3.99)
z B ( z) F ( z)

* *
Limitaciones del controlador Para la estabilidad los ceros de B ( z ) y D ( z ) deben estar
dentro del circulo unitario

Obtención de la salida con controlador de varianza mínima De figura 3.15 tenemos que

D( z )
(3.100)
y( z) Gv ( z ) A( z )
= =
v ( z ) 1 + GCVM ( z ) G p ( z ) L( z ) B −d
1+ * z
zB ( z ) A

de ecuación (3.73)

D* (z)
(3.101)
y( z) A* ( z ) z D* (z) F (z)
= =
v( z ) L( z ) B * ( z ) − d z F ( z ) A* ( z ) + z − d L ( z )
1+ * z
zB ( z ) A* ( z )

*
reemplazando D ( z ) por la ecuación (3.85)
71

y ( z ) ( z F ( z ) A* ( z ) + z − d L ( z )) F ( z )
= = F (z) (3.102)
v( z ) z F ( z ) A* ( z ) + z − d L ( z )

Ejemplo 3.11
De acuerdo a figura 3.14, sea el siguiente proceso

z −1 + 0.5 z −2
G p (z) = −1 −2
z −1
1 − 1.7 z + 0.7 z

1 − 0.9 z −1
Gv ( z ) =
1 − 1.7 z −1 + 0.7 z − 2

con v (z ) ruido blanco de media cero y esperanza σ =2 2

a) Determine la varianza en la salida con u ( z ) = 0 , es decir sin control de varianza mínima


b) Diseñe el controlador de varianza mínima, GCVM (z )
c) Obtenga la varianza en la salida en lazo cerrado

Solución
a) al hacer u ( z ) = 0 , se debe analizar entonces la siguiente función de tranferencia

y( z) 1 − 0.9 z −1
Gv ( z ) = =
v( z ) 1 − 1.7 z −1 + 0.7 z −2

en el ejemplo 3.8 tenemos este mismo caso por lo tanto

var( y ) = ry (0) = ∞

b) vemos que

A( z ) = C ( z ) = 1 − 1.7 z −1 + 0.7 z −2
B * ( z ) = B ( z ) = z −1 + 0.5 z − 2
D * ( z ) = D ( z ) = 1 − 0.9 z −1
d =1

falta por determinar los polinomios F (z ) y L(z ) . De ecuaciones (3.83) y (3.84)

F ( z ) = 1 + f 1 z −1
L( z ) = l 0 + l1 z −1

de la ecuación de identidad (3.85) tenemos


72

1 − 0.9 z −1 = (1 + f 1 z −1 ) (1 − 1.7 z −1 + 0.7 z −2 ) + z −2 (l 0 + l1 z −1 )


igualando coeficientes se obtiene

f1 = 0.8
l0 = 0.66
l1 = −0.56

Por lo tanto el controlador de varianza mínima resulta

0.66 − 0.56 z −1
GCVM ( z ) =
1 + 1.3 z −1 + 0.4 z −2

b) De ecuación (3.102) tenemos

{ } { } { }
E y 2 (k ) = E ( F (k ) v (k )) 2 = (1 + f 12 ) E v 2 (k ) = 3.28

EJERCICIOS

1.- Sea u una señal de voltaje. Demuestre que Φ u (ω ) es una densida espectral de potencia de u y no
una densidad espectral de tensión.

2.- Sea Φ x (ω ) , donde x es señal cualquiera. Demuestre que


a) Φ x (ω ) es real
b) Φ x (ω ) ≥ 0 ∀ω
c) Φ x (−ω ) = Φ (ω )

3.- La salida de un proceso estocástico tiene el siguiente espectro

1.25 + cos ω
Φ u (ω ) =
1.64 + 1.6 cos ω

Determine G p (z ) del proceso.


4.- Sea

e( z )
H ( z) = = 1 + c z −1
u( z)

Demuestre que


u ( k ) = ∑ ( − c ) n e( k − n )
n =0
73

5.- Sea el siguiente lazo realimentado

PROCESO
1+0.5 z-1
v(z)
ruido 1-0.25 z-1+0.5 z-2 n(z)
CONTROLADOR blanco +
+ u(z) z-1 +
Ref(z)=0 K y(z)
1-0.25 z-1+0.5 z-2
-

v (z ) ruido blanco con E{v (k )} = 0 y Var{v (k )} = 1


a) Determine la varianza a la salida del proceso
b) ¿ Para qué valor de K se obtiene mínima variamza ?

6.- Sea el siguiente proceso

2 z+0.2
u(z) y(z)
2 z+1.8

a) Si u ( k ) = 10 ∀ k . Determine y (k )
b) Si se le superpone ruido en a) tal que Var{u ( k )} = 1 . Determine Var{y (k )}
c) Grafique u ( k ), y ( k ) de b)

7.- Sea el siguiente proceso

g(z)

+
+ 1
u(z) z-1 y(z)
1-0.5 z-1

1
Se sabe que la densidad espectral de g (z ) esta dado por Φ g (ω ) =
1.25 + cos ω
Diseñe el controlador de varianza mínima

8.- Dado el siguiente proceso

y (k ) − 1.5 y (k − 1) + 0.7 y (k − 2) = u (k − 2) − 0.5 u (k − 3) + v(k )

Diseñe
a) Control de varianza mínima para v ( k ) = e( k ) − 0.2 e( k − 1) con e(k ) ruido blanco
74

b) Control de latido muerto con v ( k ) = 0


c) Encuentre la varianza de y (k ) para a) y b). Compare

9) Sea el siguiente proceso

PLANTA y
u y
2

1.26
En el tiempo t = 0 se aplica un escalón unitario y la salida, en exponencial
ausencia de ruido, se muestra en la figura. Diseñar uin
controlador de varianza mínima. Considere la funcion de ruido
como el siguiente 1
Gv(z) =
A(z)

con E{v(k)} = 0 y Var{v(k)} = 1 9 21 t


Considere el tiempo de muestreo la cuarta parte de la constante de tiempo de la exponencial
75

CONTROLADORES AVANZADOS

4.1 INTRODUCCION

En procesos complejos , se requiere de controladores más avanzados que los vistos hasta ahora para
cumplir las exigencias de producción y calidad de los productos. Entre estos controladores destacaremos dos:
1) Control Adaptivo y 2) Control Fuzzy

4.2 CONTROL ADAPTIVO

El control adaptivo consiste en un controlador en lazo cerrado (como los vistos hasta ahora) que van
modificando sus parámetros en tiempo real según las variaciones y condiciones de la planta, es decir se va
adaptando a las circunstancias de la planta. Para captar las variaciones de la planta se recurre a la
identificación de sistemas, pues permite estimar los parámetros de la planta en forma recursiva. En figura 4.1
se muestra el esquema general del control adaptivo.

CALCULO ESTIMACION DE
PARAMETROS PARAMETROS
CONTROLADOR

+ CONTROLADOR
Ref(z) PROCESO y(z)

Figura 4.1 Control adaptivo

Aquí para obtener la identificación de parámetros no basta con medir las señales de entrada y salida
como en el capítulo anterior por la siguiente razón:

Sea el proceso descrito por la siguiente expresión en el dominio –z

A( z ) y ( z ) = B ( z ) u ( z ) + D ( z ) v ( z ) (4.1)

y el controlador dado por


76

Q( z )
Gc ( z ) = (4.2)
P( z )

Para facilitar el análisis sea la referencia Re f ( z ) = 0 . Insertando la ecuación (4.2) en (4.1) y omitiendo los
argumentos tenemos que

Q (4.3)
A y = B (− ) y+Dv
P

Agregando a esta ecuación un polinomio arbitrario , S (z ) , tenemos que

Q (4.4)
( A + S ) y = B (− ) y+S y+Dv
P

P Q (4.5)
( A + S ) y = (B − S ) (− y ) + D v
Q P

Q (4.6)
( A + S ) Q y = ( B Q − S P) (− y ) + D Q v
14243 14243 P 123
123
A* B* u D*
lo cual da

A* y = B * u + D * v (4.7)

Esto demuestra que que el proceso B y el ruido D pueden ser reemplazados por
A A

B* B Q − S P (4.8)
=
A* A Q + S Q

D* DQ (4.9)
=
A *
AQ+S Q

respectivamente sin cambiar las señales u (k ) e y (k ) . Como S (z ) es arbitrario, los ordenes de A y B


no pueden determinarse únicamente basados en la medición de u (k ) e y (k ) . Por lo tanto existen infinitas
estructuras que dan idénticos resultados para las señales u (k ) e y (k ) . Para obviar esta situación es
necesario inyectar una pequeña señal de ruido a la entrada del proceso, no correlacionada con ninguna señal
de proceso, de manera que no se cumpla la relación (4.9), de lo contrario ( o sea, sin señal externa) es
necesario, pero no suficiente, conocer previamente los ordenes del proceso y el retardo. Sin embargo en
algunas controles adaptivos empíricos, una estimación sesgada puede funcionar adecuadamente.
77

Ejemplo 4.1
Sea el proceso del control adaptivo de la figura 4.1 dado por el proceso de la figura 4.2

PROCESO
D(z)
v(z)
A(z) n(z)
ruido
blanco +
B(z) -d +
u(z) z y(z)
A(z)

Figura 4.2 Proceso de la figura 4.1

Q( z )
y el controlador de la figura 4.1 de parámetros constantes y conocidos, Gc ( z ) = . Sean los ordenes
P( z )
de los polinomios de A( z ), B ( z ), D ( z ), Q ( z ) y P (z ) , m a , mb , m d , mν y m µ respectivamente.

a) ¿Basta conocer los ordenes del proceso y retardo para poder estimar correctamente los parámetros
ai y bi de la planta?
b) Sea el proceso dado por

y (k ) = −a y (k − 1) + b u (k − 1) + v (k ) (4.10)

analice si el proceso es identificable para los siguientes controladores


b1) u (k ) = −q0 y (k )
b2) u (k ) = − q 0 y (k ) − q1 y (k − 1)

Solución a) Si la referencia es igual a cero entonces

−m
y( z) D( z ) P( z ) 1 + γ 1 z −1 + L + γ r z γ Γ( z )
= = = (4.11)
−d
v ( z ) A( z ) P( z ) + B( z ) z Q ( z ) 1 + ψ 1 z + L + ψ l z
−1 − mψ
Ψ( z)

los ordenes mγ y mψ conocidos y corresponden a

[
mψ = max ma + mµ , mb + mν + d ] (4.12)
mγ = md + mµ

Entonces mediante sólo la data de salida y (k ) y siguiendo el procedimiento de estimación de


parámetros con MATLAB dado en el capítulo anterior, se puede estimar los parámetros ψ i y γ i .
Si A(z ) y D (z ) no tienen factor común, entonces es posible estimar los ma + mb del proceso,
a través del polinomio Ψ (z ) , si

[
max m a + m µ , mb + mν + d ≥ ma + mb] (4.13)
78

o sea para ser completamente identificable es necesario que se cumpla que

mν ≥ ma − d (4.14)

m µ ≥ mb (4.15)

b). para que se cumpla la identificabilidad, debe cumplirse la ecuación (4.14), por lo tanto

b1) Para este controlador se tiene que mν = 0 y m µ = 0 , por lo tanto no se cumple la


condición ya que m a = 1 y mb = 1 y por lo tanto no es identificable. Para verificar esto,
multipliquemos la ecuación del controlador por α , o sea

α u (k ) = −α q 0 y (k ) (4.16)

α u (k − 1) = −α q 0 y (k − 1) (4.17)

sumando esta ecuación a la ecuación (4.10) tenemos

y (k ) = −(a + α q 0 ) y (k − 1) + (b − α ) u (k − 1) + v (k ) (4.18)

Para estimar a y b es necesario estimar ( a + α q 0 ) y (b − α ) respectivamente y


tenemos tres incógnitas y vemos que no existe solución única, es decir existen infinitas
soluciones

b2) Para este controlador se tiene que mν = 1 y m µ = 0 , por lo tanto se cumple la


condición (4.14) y por lo tanto es identificable. Para verificar esto, multipliquemos la
ecuación del controlador por α , o sea

α u (k ) = −α q 0 y (k ) − α q1 y (k − 1)

α u (k − 1) = −α q 0 y (k − 1) − α q1 y (k − 2)

sumando esta ecuación a la ecuación (4.10) tenemos

y (k ) = −(a + α q 0 ) y (k − 1) − α q1 y (k − 2) + (b − α ) u (k − 1) + v (k )
79

Para estimar a y b es necesario estimar ( a + α q 0 ) , α q1 y (b − α )


respectivamente y tenemos tres incógnitas y tres ecuaciones por lo tanto existe solución
única, es decir es identificable.

4.3 CONTROL FUZZY

En el pensamiento científico tradicional, la comprensión de un fenómeno se mide por la capacidad de


analizarlo en términos cuantitativos. Sin embargo, a medida que la complejidad crece, disminuye la

posibilidad en hacerlo en los mismos términos, es decir, ya no es posible hacer afirmaciones precisas y
significativas sobre su comportamiento.

Esta imprecisión dio origen al control FUZZY ó control Difuso. Su premisa se basa en que los elementos
claves del razonamiento humano no son precisamente elementos exactos sino conceptos imprecisos, de allí su
nombre FUZZY ó “Difuso”.

Aprovechando la capacidad del cerebro humano, en el sentido que no sólo puede trabajar en términos
cuantitativos sino que también cualitativos, es que permitió desarrollar esta teoría.

Zadeh (1973) inicia el desarrollo de la teoría de conjuntos difusos. Desde ese momento diversos autores
contribuyen a crear la teoría del control difuso. Específicamente, se introducen las técnicas basadas en reglas
como una forma de captar la experiencia humana y de tratar las incertidumbres.

Sea el conjunto de la figura 4.3

papa martes
mesa

sabado
manzana
silla
domingo
viernes

Figura 4.3 conjunto de cosas ó conceptos

La pregunta es : Seleccione los días de la semana. La respuesta obvia es : martes, sábado, viernes y domingo .
Es decir tal como se muestra en la figura 4..4
80

papa martes
mesa

sabado manzana
silla
domingo
viernes

Figura 4.4 Conjunto de los días de la semana

Si ahora nos preguntamos ¿Cuáles son los días de fin de semana?. Para muchos el fin de semana comienza el
viernes, e incluso hasta el lunes por la mañana, por lo tanto la respuesta se muestra en la figura 4.5

papa martes
mesa

sabado manzana
silla
domingo
viernes

Figura 4.5 Pertenencia parcial del día viernes al fin de semana

Como una forma de cuantificar esta situación, sea verdadero = 1 y falso =0. Entonces,
las preguntas que surgen son las siguientes:

¿Es sábado fin de semana?


Respuesta: 1

¿Es martes fin de semna?


Respuesta: 0

¿Es viernes fin de semana?


Respuesta: 0.8
81

¿Es domingo fin de semana?


Respuesta: 0.95

Un diagrama de esta situación se muestra en la figura 4.6

Jueves viernes sabado domingo lunes

Figura 4.6 Esquemático del fin de semana

Un enfoque intuitivo lógico es:


Sea A el conjunto de los días de fin de semana y x la variable que representa un día de la semana.
Entonces frente a la pregunta ¿ Es x miembro del conjunto A ?. La respuesta es que x puede pertenecer
parcialmente al conjunto A . Si pertenecer al conjunto A completamente se le asigna un 1, y total ausencia
un 0, vemos que la respuesta es que x puede pertenecer parcialmente al conjunto A . En la figura 4.7 se
representa en forma continua.

0
Jueves viernes sabado domingo lunes

figura 4.7 curva de pertenencia de fin de semana

Ejemplo 4.2
Trace una curva de pertenencia para ubicar los meses de las estaciones del año

solución En figura 4.8 se muestra una curva lógica de pertenencia


82

verano otoño

diciembre marzo mayo junio


Figura 4.8 Curva de pertenencia de las estaciones del año

Sabemos que una caracterización clásica de un conjunto es, por ejemplo, el siguiente:

A = {x / x f 6} (4.19)

La caracterización de un conjunto fuzzy es una extensión del conjunto clásico. De manera que si X es el
universo de discusión, y sus elementos se asignan por x , entonces un conjunto fuzzy de X es definido
como un par ordenado

A = {x, µ A ( x ) / x ∈ X } (4.20)

donde µ A (x ) se denomina grado de pertenencia ó función miembro de x en A .


Cada elemento de x se mapea a un valor comprendido entre 0 y 1. Existen varias curvas ó formas de
mapeo. La intuición heurística sugiere las formas de la figura 4.9.

triangular trapesoidal gauss


Figura 4.9 Formas de pertenencia

Podemos concluir que los conjuntos fuzzy describen conceptos vagos (más rápido, muy alto, más caliente,
etc.). Un conjunto fuzzy admite que un elemento pertenezca parcialmente a él.
Recordemos que la lógica clásica permite hacer, por ejemplo, el análisis de la figura 4.10.
83

B A C

Figura 4.10 conjunto clásico

la lógica dice:

Si x ∈ B y x ∈ C entonces x ∈ A

Ejemplo 4.3
Seleccionar los hombres que cumplan dos características simultáneamente, a saber , Los hombres
altos y de raza blanca.

Solución Un método de análisis es escoger tres conjuntos: El conjunto de altura A , el


conjunto de raza B y el conjunto de altura más raza R . Los conjuntos se pueden asignar de la siguiente
manera:

 Alto → 1
A=
 Bajo → 0

 Blaco → 1
B=
 Negro → 0

 Alto y Blanco → 1
R=
 Bajo y negro → 0

Si x es bajo y Negro, entonces R = 0


Si x es bajo y Blanco, entonces R = 0
Si x es alto y Negro, entonces R = 0
Si x es alto y Blanco entonces R = 1

La tabla de verdad es

A B R
0 0 0
0 1 0
1 0 0
1 1 1
84

En la figura 4.11 se muestra la tabla mediante señales en el tiempo

Figura 4.11 el ejemplo mediante señales

Para expresarlo en conjunto fuzzy, el ejemplo se transformaría en la siguientes señales de la figura 4.12

Figura 4.12 relación de pertenencia para conjunto fuzzy

Ventajas del control Fuzzy

- Es amigable en su concepción y diseño


- No necesita sintonizarse para distintos puntos de operación como ocurre con el PI
- Funciona adecuadamente en un amplio rango de operación
- Permite abordar fácilmente los imprevistos

Desventajas del control fuzzy

- No existe criterio definido para seleccionar los conjuntos Fuzzy


- Tampoco existe un criterio para atribuir formas de onda a las funciones de pertenencias
- Tampoco hay un criterio para asignar el grado de traslape
- L formación de la tabla es subjetiva
- No existe un procedimiento sistemático para el diseño de controladores Fuzzy
- Se requiere bastante consumo de tiempo en pruebas y errores finales
- El software es más grande que su contraparte PI.

El control fuzzy en procesos reales se estructura de acuerdo a la figura 4.13


85

Base del conocimiento

Etapa Etapa de
Fusificación Motor de inferencias Defusificación

Proceso

Figura 4.13 Esquema de un control difuso

Para explicar cada bloque se presentará el siguiente ejemplo

Ejemplo 4.6 Simular un control PI standard por un control difuso. El corazón del bloque "control basado
en el método difuso" es la base del conocimiento a partir de un PI standard.

Solución Como experto en controladores PI clásico elaboramos la BASE DEL


CONOCIMIENTO. Sabemos que su comportamiento es como se muestra en la figura 4.14 :

1/4

Ref

Tiempo
Figura 4.14 Funcionamiento típico de un r PI

Podemos dividir la señal por zonas, de acuerdo al error y la derivada del error, tal como se muestra en la
figura 4.15

A B
Ref
e=(ref-out)

a1 a2 a3 a4 a5 a6
e(t) + - - + + -
Tiempo
de(t) - - + + - -
dt

Figura 4.15 Dividendo la curva en zonas


86

Analizando la figura podemos deducir lo siguiente:

de(k )
1) Si e(k ) y son cero: entonces se mantenga el control constante. ∆u = 0
dt
Esto ocurre en cuando salida es igual a la referencia en estado estacionario

2) Si e(k ) tiende a cero con velocidad aceptable: se mantenga el control ∆u = 0


Esto ocurre en la zona a1 y a3
3) Si e(k ) no está tendiendo a cero, la acción de control dependerá del signo y magnitud del e(k ) y
de(k )
. En zona a2 ∆u < 0 , en zona a4 ∆u > 0
dt

La gráfica del error y la derivada del error se muestra en la figura 4.16

e de
dt

a1 a2 a3 a4

Figura 4.16 error y derivada del error

La caracterización de zonas o sectores es la siguiente:

 de 
a1 = e > 0, < 0
 dt 
 de 
a 2 = e < 0, < 0
 dt 
 de 
a3 = e < 0, > 0
 dt 
 de 
a 4 = e > 0, > 0
 dt 
Las alternativas de las pendientes en los puntos A y B de la figura 4.14 se muestran en la figura 4.17
87

b2
b1
Ref b3
b4
b5
b6

Figura 4.17 Pendientes en dos puntos de la curva

La caracterización en función de velocidad y sentido es la siguiente:

 de 
b1 = e = 0, <<< 0
 dt 
 de 
b2 = e = 0, << 0
 dt 
 de 
b3 = e = 0, < 0
 dt 
 de 
b4 = e = 0, > 0
 dt 
 de 
b5 = e = 0, >> 0
 dt 
 de 
b6 = e = 0, >>> 0
 dt 
Los valores máximos y mínimos con respecto a la referencia se muestran en la figura 4.18

c2
c1
Ref c4
c3
c6
c5

Figura 4.18 Valores máximos y mínimos

La caracterización de los sobreimpulsos es la siguiente


88

 de 
c1 =  = 0, e <<< 0
 dt 
 de 
c 2 =  = 0, e << 0
 dt 
 de 
c3 =  = 0, e < 0
 dt 
 de 
c 4 =  = 0, e > 0
 dt 
 de 
c5 =  = 0, e >> 0
 dt 
 de 
c 6 =  = 0, e >>> 0
 dt 

De este análisis empírico, podemos interpretar a los a i , bi y ci como rangos imprecisos, lo cual da origen a
las variables difusas.

NG: Negativo Grande


NM: Negativo Mediano
NP: Negativo Pequeño
CE: Cero
PP: Positivo Pequeño
PM: Positivo Mediano
PG: Positivo Grande

El encasillamiento de una variables de ingeniería (por ejemplo voltaje) a una variable difusa (por ejemplo
NG), se denomina FUZIFICACIÓN.
de
Podemos construir la siguiente matriz de Estados en función de e(t ) y
dt
89

e(t)

NG NM NP CE PP PM PG
NG a2 a2 a2 b1 a1 a1 a1
a2 a2 a2 b2 a1 a1 a1
NM
a2 a2 a2 b3 a1 a1 a1
de NP
dt CE c1 c2 c3 CE c4 c5 ca
6

a3 a3 a3 b4 a4 a4 a4
PP
a3 a3 a3 b5 a4 a4 a4
PM
PG a3 a3 a3 b6 a4 a4 a4

En base a nuestra experiencia con controladores PI podemos construir en forma gruesa las siguiente acciones
de control.

e(t)

NG NM NP CE PP PM PG
NG
U
NM U <0 < U =0
0
de NP
dt
CE U< 0 U >0
PP
U
PM U =0 > U >0
PG 0

precisando este arreglo podemos construir los estados de la acción de control ó MOTOR DE INFERENCIA
de la figura 4.19. Esta tabla es conocida en la literatura como “tabla de 49 reglas”
90

e(t)

NG NM NP CE PP PM PG
NG NG NG NG NG NM NP CE
NG NG NM NM NP CE PP
NM
NG NM NP NP CE PP PM
de NP
dt CE NM NM NP CE PP PM PM

NM NP CE PP PP PM PG
PP
NP CE PP PM PM PG PG
PM
PG CE PP PM PG PG PG PG

Figura 4.19 Tabla de inferencia

de
Una asignación razonable de funciones de pertenencia para e y se muestra en la figura 4.20
dt

ui(e) ó ui(de)

NG NM NP CE PP PM PG
de=e(k)-e(k-1)
0,8

0,2 de
e, ó
1 dt
-1 -2/3 -1/3 1/3 2/3
i es una variable fuzzy =[NG,NM,NP,CE,PP,PM,PG]

Figura 4.20 Funciones de pertenencia

Una vez inferida la variable de salida, es necesario convertir la variable difusa du en un valor nítido. este
conversión se denomina DEFUSIFICACION .
91

de
Al entrar el valor de e y a la tabla de inferencia de la figura 4.18 , siempre interceptará dos curvas para
dt
de
e y dos curvas para , por lo tanto el análisis involucra a 4 celtas de la tabla ó sea a 4 curvas de la figura
dt
de 8
4.19. En figura 4.21 se muestra el análisis completo para e = 0.8 y =− (- 0.26667)
dt 30

ui(e)
PM PG
1
0,6
u'i(du)
0,4
0,6 PP
1/3 2/3 1 e
0,4
ui(de)
du
NP CE 1 0,2
0,8 1/3 2/3 1

0,2

-2/3 -1/3 1/3 de


u'i(du)= mín[wi , ui(du)] donde wi=mín[ ui(e) , ui(de)]
[ 0,6, 0,8 ]= 0,6

Figura 4.21 Deducción de la variable de control

Finalmente los cuatro análisis anteriores se traducen en la siguiente relación, para obtener la variable de
control denominada de medida máxima modificada.

du=(0,6)(1/3)+(0,2)(2/3)+(0,2)(2/3)+(0,4)(2/3)=0,52
0,6+0,2+0,2+0,4

EJERCICIOS

1) Demuestre que una realimentación de bajo orden introduce dependencia lineal en la matriz
2) Φ Φ
T

Obtener el du del controlador fuzzy , emulando un PID, en el punto indicado en la gráfica para una tabla de 25
implicancias, con conjunto fuzzy: NG,NM,CE,PM,PG
92

error
y
NG NM CE PM PM
Ref = 1 NG NG NG NM NM CE
3 NM NG NM NM CE PM
t derror CE NM NM CE PM PM
PM NM CE PM PM PG
PG CE PM PM PG PG
0.5 t

3)
Usando una tabla de 25 reglas determinar la
variación de la variable de control u en el instante t 1
y
e
NG NM CE PM PG
NG NG NG NM NM CE 1 0.1
0.2
NM NG NM NM CE PM
de 0.7
CE NM NM CE PM PM

PM NM CE PM PM PG

PG CE PM PM PG PG t1 t

4)

a) Evalúe el programa para error = 0.6 FOR i=1 TO 7


fe(i,1) = 0
b) Evalúe el programa para error = -0.1 fe(i,2) = 0
NEXT i
c) Explique qué hace el programa si: error = referencia – medición
NG = 1 IF(error < -1) THEN error = -1
NM = 2 IF(error > 1) THEN error = 1
NP = 3 FOR i = 1 To 7
CE = 4 Y = 3 * error + 5 – i
PP = 5 IF(Y > 0) AND (Y <= 1) THEN
PM = 6 fe(i,1) = i
PG = 7 fe(i,2) = Y
ELSE
Y = -3 * error + i - 3
IF(Y > 0) AND (Y <= 1) THEN
fe(i,1) = i
fe(i,2) = Y
END IF
END IF
NEXT i
93

5) Resuelva el ejercicio sobre fuzzy ( o sea encontrar ∆U) explicado en clases pero para
e = -0.4
de = 0.1
dt

BIBLIOGRAFÍA
[1] Ogata K., “SISTEMAS DE CONTROL EN TIEMPO DISCRETO”, Prentice Hall, 1996
[2] Àström K., “SISTEMAS CONTROLADOS POR COMPUTADOR”, PARANINFO, 1988
[3] sermann R., “DIGITAL CONTROL SYSTEMS”, Spriager-Verlag, 1981
[4] Oppenheim J.,”SIGNALS AND SISTEMS”, Prentice Hall, 1985
[5] Ljung L. ,”SYSTEM IDENTIFICATION”, Printice Hall, 1987
[6] Ljung L., “TOOL BOX FOR USE WITH MATLAB”, Math Works, 1995

Das könnte Ihnen auch gefallen