Sie sind auf Seite 1von 33

1

1. Mnimos Cuadrados

1. Mnimos Cuadrados_____________________________________________ 1
1.1. Introduccin _______________________________________________________________________________________________________2
1.2. Mtodo de Identificacin por Mnimos Cuadrados _______________________________________________________________________3
1.2.1. Forma Recursiva:__________________________________________________________________________________________________________ 6
1.2.2. Inclusin del Factor de Olvido. ______________________________________________________________________________________________ 10
1.3. Caractersticas Estadsticas de la Estimacin___________________________________________________________________________17
1.3.1. Correlacin de la Estimacin: ________________________________________________________________________________________________ 20
1.4. Influencia del Valor Medio _________________________________________________________________________________________22
1.5. Referencias _______________________________________________________________________________________________________33

2

1.1. Introduccin
ajuste automtico de parmetros = Identificacin de Sistemas
Excitacin
-
+
Planta
Modelo
Salida de la Planta
Salida del Modelo
Error de Estimacin


3
1.2. Mtodo de Identificacin por Mnimos Cuadrados
Se considera, a los efectos del anlisis, la siguiente planta real:
1 1
0
n m
T
i i k k
k i k k k k-i
i=1 i=
= + u y y
a b x

+ +
+ = +

[1-1]
k
perturbacin o incertidumbre.
modelo:
1 1
0

n m
T
i k-i k
k k-i k i
i=1 i=
= + = y y
a u x
b
+ +
[1-2]
donde
1
0
1 1 1 1

1
k
n
k-n
k
k
k
k-m
m
N n m N n m
y
a
y
a
= =
x
u
b
u
b

+
= + + = + +
( (
( (
( (
( (
( (
( (
( (
( (



[1-3]
4
Para cada instante k habr un error o diferencia entre ambas salidas:
1 1 1

k k k
e y y
+ + +
= [1-4]
tomando todas las muestra,
1
1
1
1

k
k
k k
e
E = -
Y
e

+
+
+
(
(
=
(
(

[1-5]
con
1
1
1
k
k
y
=
Y
y
+
+
(
(
(
(

,
1
0

n
m
a
a

b
b

(
(
(
(
( =
(
(
(
(

,
1
0
0 1
T
k k k-m
k k-n
k
T
0 -m
-n
y y
x u u
= =
y y
x u u

+
( (
( (
( (
( (




[1-6]
5
Se puede minimizar el error respecto a

.
J
T
k k k
E E = [1-7]

J 0
T T
p
p
= 2 Y - 2 = |

[1-8]
el valor de

que hace mnimo J es:




1
*

T T
k k k k k
Y

( =

[1-9]
6
1.2.1. Forma Recursiva:
Analicemos una forma ms cmoda de expresar la ecuacin [1-9]. Primero
definamos la matriz P como sigue:
| |
T
k-N
k-N
T
T T -1 -1
k k-1 k-N 0 i i k k
k
i=0
T
0
x
= +
x x x x x x P P
x

(
(
(
= = =
(
(


[1-10]
Del mismo modo el vector b ser:
| |
k-N
k-N
T
k k k-N 0 i k-1 k
k i k
i=0
0
y
= = = + y y
b x x x b x Y
y

(
(
=
(
(


[1-11]
Entonces [1-9] se expresar

k k
k
=
b P

[1-12]
La inversa de la matriz P en un instante k puede expresarse en funcin de su valor
anterior ms otra matriz
T -1 -1
k k-1 k k
= +
x x P P
[1-13]
7
Si la premultiplicamos por
k
P
-1
T -1
k-1 k k
k k k k
P P I = P +P
x x P
= [1-14]
y luego, posmultiplicando por
1 k
P

resulta:
T
k-1 k k k-1 k k
= +
x x P P P P
[1-15]
o lo que es lo mismo
T
k-1 k k k-1 k k
- =
x x P P P P
[1-16]
Posmultipliquemos [1-15] por
k
x
T T
k-1 k k k-1 k k-1 k k k k k k k k
= + = 1 +
x x x x x x x x P P P P P P
(

[1-17]
y agrupemos.
-1
T
k-1 k-1 k k k k k
1 + =
x x x x P P P
(

[1-18]
Ahora, reemplazando [1-18] en [1-16]
T
k-1 k-1 k k
k-1 k
T
k-1 k k

x x P P
- =
P P
1 +
x x P
[1-19]
o su equivalente
8
T
k-1 k-1 k k
k k-1
T
k-1 k k

x x P P
= -
P P
1 +
x x P
[1-20]
Haremos lo mismo con el vector . Por la ecuacin [1-18] tenemos
| |

T
k k-1 k k
k-1 k-1 k
k k
T
k-1 k k

x x P P
- + y
b x P
1 +
x x P

(
=
(

[1-21]
| |

T
k-1 k-1 k k
k-1 k-1 k k
k k k k-1
T
k-1 k k

x x P P
- + + y y
b x x P
1 +
x x P

= [1-22]
por [1-18] sabemos que:
k-1 k
k k
T
k-1 k k

x P
=
x P
1 +
x x P
[1-23]
reemplazando en la anterior

T T
k k-1 k k-1 k-1 k k k-1 k k k k
k k k k-1
= - - + y y
x x b x x x x P P P P P

[1-24]

T T
k k-1 k k-1 k k k k k
k k k-1 k-1
- - y
x x x x x P P P P

= + (

[1-25]
de [1-16] resulta
T
k k-1 k k-1 k k
= -
x x P P P P
[1-26]
quedando
9

T
k k k
k k k-1 k-1
= - - y
x x P

(

[1-27]
en resumen el algoritmo est formado por las dos ecuaciones siguientes:

| |

k k
k k k k-1
T
k-1 k-1 k k
k k-1
T
k-1 k k
- - y y
x P

x x P P
= -
P P
1 +
x x P

=

[1-28]
Otra forma equivalente que se suele utilizar en la bibliografa es

1
1

k k
k
T
k k k
T
k
k k k k
T
k k k k k-1 k-1
P x
K
x P x
P K x P
P
K y x

+

( = +

[1-29]
10
1.2.2. Inclusin del Factor de Olvido.
En el algoritmo anterior pesamos de igual manera las medidas muy viejas y las
nuevas.
J
T
k k
= Q
e e
[1-30]
donde
1 0 0
0
0 0
k
k-N
0
Q

(
(
(
=
(
(

[1-31]
La matriz Q pondera las muestras dndole ms o menos importancia a la historia
con respecto al ltimo valor segn el parmetro el cual se llama factor de olvido.
Igual que antes derivamos J para obtener el mnimo.

2 2 0
T T
J QY Q


= = [1-32]
resultando
1
*

T T
k k k k k k k
Y Q Q

( =

[1-33]
11
La matriz P ahora ser:
| |
T
k-N
T
-1
k k-N 0
k
T
0
k-N
i T T -1
k-1 i k k
i
i=0
x
Q Q
x x P
x
x
x x x P


(
(
(
= = =
(
(

= = +


[1-34]
T
T -1 -1
k k-1 k k
k k k
= Q
x x P P

(
= +

[1-35]
Del mismo modo el vector b ser:
| |
k-N
k-N
T i
k k k-N 0 i k-1 k
k i k
i=0
0
y
= Q = y y
b x x x b x Y
y

(
(
= = +
(
(


[1-36]
T
k k k-1
k k k k
x y Q
b b Y
= = + [1-37]

Entonces se expresar

12

k k
k
=
b P

[1-38]
La inversa de la matriz P en un instante k puede expresarse en funcin de su valor
anterior ms otra matriz
1 1
1
T
k k k k
P P x x

= + [1-39]
Si la premultiplicamos por
k
P
1 1
1
T
k k k k k k k
P P I P P P x x

= = + [1-40]
y luego, posmultiplicando por
1 k
P

resulta:
1 1
T
k k k k k k
P P P x x P

= + [1-41]
o lo que es lo mismo
1 1
T
k k k k k k
P P P x x P

= [1-42]
Posmultipliquemos [1-41] por
k
x
1 1 1
T T
k k k k k k k k k k k k k k
P x P x P x x P x P x x P x

( = + = +

[1-43]
y agrupemos.
1
1 1
T
k k k k k k k
P x x P x P x


( + =

[1-44]
Ahora, reemplazando [1-18] en [1-16]
13
1 1
1
1
T
k k k k
k k
T
k k k
P x x P
P P
x P x

=
+
[1-45]
o su equivalente
1 1
1
1
1
T
k k k k
k k
T
k k k
P x x P
P P
x P x

(
=
(
+

[1-46]
Haremos lo mismo con el vector . Por la ecuacin [1-18] tenemos
| |
1 1
1
1
1 1
1

1 1

T
k k k k
k-1
k k k k T
k k k
T
k-1 k-1 k k
k
k k k k k k-1
T
k-1 k k
P x x P
P x y
b
x P x

x x P P
b P x y y
x
+
x x P


(
= + =
(
+

(
= + +
(

[1-47]
por [1-18] sabemos que:
k-1 k
k k
T
k-1 k k

x P
=
x P

x x P
+
[1-48]
reemplazando en la anterior
14
1 1

1 1

1

T
k k-1 k-1 k k k-1 k k
k k k k-1
T T
k k-1 k k-1 k-1 k k k-1 k k k k
k k k-1
T T
k k-1 k k-1 k k k k k
k k-1 k-1
y y
x x b x x P P P
y y
x x b x x x x P P P P P
y
x x x x x P P P P




(
= + +
(

= +
= + (

[1-49]
de [1-16] resulta
1
T
k k-1 k k-1 k k
= -
x x P P P P

(

[1-50]
1 1
T
k k k k k k
P P x x P P

= [1-51]
quedando

T
k k k
k k k-1 k-1
= - - y
x x P

(

[1-52]
15
en resumen el algoritmo est formado por las dos ecuaciones siguientes:


| |
1 1
1
1

1
k k
k k k k-1
T
k k k k
k k
T
k k k
- - y y
x P
P x x P
P P
x P x


(
=
(
+

[1-53]
o lo que es lo mismo


( ) 1
1

k k
k
T
k k k
T
k
k k k k
T
k k k k k-1 k-1
P x
K
x P x
P K x P
P
K y x

( = +

[1-54]
16
Se puede asemejar esta idea a la introduccin de un filtro en el clculo de la inversa
de P segn lo muestra la figura siguiente:

1
1
1 q

T
k k
x x
1
k
P



17
1.3. Caractersticas Estadsticas de la Estimacin
0
1
1 1
0
0
0 1
k
k k-m
k k-n
T k-n -n
k k
k
-m
-n
k-m -m
y y
y y
u u
y y

u u
y y
u u
u u

+
+
(
(
(
(
(
(
=
(
(
(
(

(
(

[1-55]
autocovarianza o covarianza cruzada
( )
2 2 2
0
0
0
k
T
k i y k
i
[1,1] = y y = y r
=
+ + =

[1-56]
18
La matriz total se llama matriz de covarianza del algoritmo y ser:
y y uy uy
uy uy
T
k k
uy uy u u
uy uy u u
(o) (n - 1) (n - m- 1) (n - 1)
r r r r
(n - 1) (n - m- 1)
r r

(n - m- 1) (n - 1) (0) (m)
r r r r
(n - 1) (n - m- 1) (m) (0)
r r r r

(
(
(
(
=
(
(
(
(







[1-57]
media de

.
| |
| |

lim lim
lim
lim lim
-1
T T
k
k k k k k
k k
-1
T T
k
k k k k
k
-1
T T
k
k k k
k k
E E E
Y
E +
e
E E
e




(
( ( (
= =

(

(
(
=

(

(
(
= +

(

[1-58]
| |

lim lim
-1
T T
k
k k k k
k k
E E E
e


(
( (
= +

(

[1-59]
19
Por lo tanto la media de la estimacin coincidir con el valor real de si el error e
es incorrelado con
-1
T T

(

. En cualquier otro caso existir un sesgo en la estimacin.
Tambin debemos notar que para que exista solucin la matriz
T
1debe ser
invertible o sea
det
T
0
(


[1-60]
Observando la ecuacin 0 podemos inferir que esto se puede lograr si el sistema
est persistentemente excitado.

20
1.3.1. Correlacin de la Estimacin:
Calculemos la correlacin de que tiene la siguiente forma:
| | | |

T
k k
T
-1 -1
T T T T
-1 -1
T T T
T
E - - =
E + e - + e -
= E e
e




(
( (


(
( (
( (
(

( (


(
( (

(

[1-61]
si se cumple que e es incorrelado con
-1
T T

(

4 se verifica:

-1 -1
T T T
T
-1
T
T
= E e
e r
= E E e
e



(
( (

(

(
(
(


(

[1-62]
Suponiendo que el ruido es incorrelado consigo mismo llamaremos
T 2
e e
= E e = I
e r
(

[1-63]
21
y se cumplir que
T
k k+
E = 0 0
e e

(

[1-64]
por lo tanto la correlacin de resulta:

-1
T
2
e
= E
r


(
(

(

[1-65]
22
1.4. Influencia del Valor Medio
Otra consideracin a tener en cuenta en una estimacin es que las mediciones de u e
y no deben tener un valor medio distinto de cero ya que estamos suponiendo que el
modelo del sistema es lineal. En caso de que ste exista deberemos eliminarlo. Si las
variaciones son muy lentas se puede usar el siguiente filtro de primer orden:
n
n n-1
= + (1- )
x
x x
[1-66]
23
Ejemplo 1. Sistema de Primer Orden.
Para familiarizarnos un poco ms con el funcionamiento del estimador veamos un
ejemplo sencillo. Sea un sistema de primer orden cuya ecuacin en diferencias es:
k-1
k k-1
= a + b y y
u
[1-67]
con 0, 5 a = y 1 b =

k
k
y
k
u
0 0 1
1
1 b =
1
2
( )
1 1, 5 b a + =
1
3
( )
2
1 1, 7 b a a + + =

1
4
( )
2 3
1 b a a a + + +

1
24

El vector ser, para tres muestras,
1, 75 1
1, 5 1
1 1
=
(
(
(
(

[1-68]
su transpuesta,
1 1 1
1, 75 1, 5 1
=
(
(

[1-69]
el vector de medidas de la salida,
1,875
1, 75
1, 5
k
=
Y
(
(
(
(

[1-70]
la matriz de covarianza,
6,3125 4,25
4.25 3
T
=
(
(

[1-71]
25
la matriz P:
3.4286 -4.8571
-4.8571 7.2143
-1
T
=
(
(
(


[1-72]
y finalmente el vector
7,4063

5,125
T
Y =
(
(

[1-73]
Con estos datos ya podemos calcular la estimacin de los dos parmetros del
sistema resultando obviamente,
0,5

1
-1
T T
Y
(
(
= =
(


[1-74]
26
Ejemplo 2. Medicin de una Resistencia
Se mide Tensin y Corriente sobre una resistencia
mk k uk
mk k ik
u u e
i i e
= +
= +
(1.75)
la medicin de la resistencia es
mk
mk
mk
u
r
i
= [1.76]
por mnimos cuadrados
J ( ) ( )
T
T
k
k
= U rI U rI
E E
= (1.77)
J
2 ( ) 0
r
T
= I U rI

(1.78)
T
mc
T
I U
r =
I I
(1.79)
27
Clculo de r
n=1000;
vi=1;
vu=1;
i=1+vi*(rand(n,1)-.5);
u=1+vu*(rand(n,1)-.5);
r=zeros(n,1);
for k=1:n
r(k)=u(1:k)'*i(1:k)/(i(1:k)'*i(1:k));
end
plot(r);grid
axis([0 n -.5 1.5])
cov(i);

28

0 200 400 600 800 1000
-0.5
0
0.5
1
1.5



plot(u./i);grid;
axis([0 n -.5 1.5])

29
0 200 400 600 800 1000
-0.5
0
0.5
1
1.5


[mean(r) mean(u./i) cov(r) cov(u./i)]

ans =
0.9211 1.0816 0.0021 0.2293
30

Sesgo
{ }
2
( ) ( )
( )
( ) ( )
( ) ( )
1
T
T
r r u m m
i
mc
T
T
m m
r r
i i
T
r r
T
r r
i i i
T
r r
I e U e I U
E r = E = E
I I
I e I e
I U r
= E
I e I e
I I


+ +




+ +




=


+ +

+
(1.80)

Mtodo de mnimos cuadrados es
[ ]
1

T T
Y

= (1.81)

[ ]
{ }
1

( ) ( )
T T
E = E e

+ (1.82)

el error est en la salida. No hay error en la entrada

31
Variables instrumentales
rvi=zeros(n,1);
L=2;
ivi=i;
ivi(1:length(i)-L)=i(L+1:length(i));
for k=1:n
rvi(k)=u(1:k)'*ivi(1:k)/(i(1:k)'*ivi(1:k));
end
0 200 400 600 800 1000
0.5
0.6
0.7
0.8
0.9
1
1.1
1.2
1.3
1.4
1.5

32

33
1.5. Referencias
i. Ljung, Lennart : System Identification: Theory for the User, 2nd Edition, Prentice
Hall, Englewood Cliffs, N.J.,1999. p 313
ii. Goodwin, G. Sin: Adaptive Filtering, Prediction and Control, Prentice Hall
1984. p 52
iii. strm, K., Wittenmark: Adaptive Control, Prentice Hall 1989. p 69
iv. Landau, Ioan Dor. System Identification and Control Design Prentice Hall
1990
v. Isermann, R.: Digital Control Systems, Springer Verlag 1981. p 380

Das könnte Ihnen auch gefallen