Sie sind auf Seite 1von 28

6 ADAPTIONSALGORITHMEN: ZUSAMMENFASSUNG

192

bO

i:i

...,;:l

"Z

...,

-lC

'ijJ

........

'a

;:l
N

>::

\.)

Cill

..::I

rJ:J

::l

bO

:ol

>::

~I

..d
-+->
.....

11

:
ol
N

;:l

0'

Cl)

<l::

b.O

-lC

<

bO

>::

ol
bO

~
~

~I

c.,

cn

C'l

>::

V
cn

.... ....
::E

::E

I~'"

11
~

11

;rl

';:i

l-<

a;

bO ::;1

.~

;rl
+

::E

'"

~I
00

>::

cn

::E

...

~I

ol
~
0

..>::
Cl)
~

....

...,
Cl)

..>::

....

Cl)

0..
'ijJ
.D

S
S

.S
...,

ol
~

....
....

Cl)

Cl)

bO

>::

:ol

.....:1
I

E--l

"0

....
Cl)

~ ~....
.
..., l?

A Aufgaben und Anleitung

zu den Simulationen

~
bO
'"
0
0

...,

0..
0

----.

......

Die hier aufgefhrten Aufgaben l und die Simulationen sollen zur Veranschauli
chung und weiteren Vertiefung der Theorie beitragen.

00.

.i.i

::E

Hf

-lC

"'0

::l
I

00.

I-.::l
~

......
VI

Cl)

I-.::l

I ....,

00

..::I
~

0"'"

;31
11

00.

0"'"

;31

::E

'"'"0....

bO

....

iE

......
VI

..0:::

'-'

(/)

g;

lj'"

I
......

11

11

00

....:I

::l..

..>::

I-.::l

bO

HI

-lC

::l

::l..

..c

>::

bO

00

::E

"i

..::I

:::l

>::

..>::
Cl)

>

..., ~'"
.~

.~
ol

<:

'" ...,0
bO

;:l

>::

::1j",

"0

;E

bO

e"
'"~

'"....

....

re,

11

"i

;:l

10

'"
"'~

11

-lC

Cl)

"iii

......

~
~
Cl

...,;:l
'ijJ
'"

~"

-lC

b.O

rJ:J
l-<

>::
Cl)

..0:::

;Ei

I....,

bO

....'-'

"0

Cl)

;:l

~
.
...,

'"

'"

S
0

Cl)

l?

~-<

Die Aufgaben beziehen sich auf die in Kapitel 2 behandelten Grundlagen adap
tiver Filter: Unitre hnlichkeitstransformation, Eigenschaften der Eigenwerte
und -vektoren der Autokorrelationsmatrix R, Wiener-Filter-Theorie, Orthogona
littsprinzip. Ferner wird eine Anwendung adaptiver Filter, die Strgeruschun
terdrckung (u.a. durch einen einfachen adaptiven Beamformer) behandelt.

11

~
bO

:::

Die Simulationen ermglichen es, die Eigenschaften des LMS-, RLS- und FLMS
, Algorithmus experimentell zu untersuchen und die Aussagen zum Konvergenz
verhalten aus den vorhergehenden Kapiteln zu berprfen. Parameter, wie die
Schrittweite {.L, die Anzahl adaptiver Gewichte N u.a., knnen mittels einer Ein
gabemaske variiert und die Auswirkungen auf die Lernkurve, den MSE, die Fehl
einstellung M, die Konvergenzzeit etc. beobachtet werden (siehe Figuren A.3

Cl)

00
00

0..
0

')

bO

')
..0

"'0

-+->

..

Cl)

rJ:J

....
....
0

Cl)

..:

ol
~

..>::
Cl)

...,
.~
...,
..., Ci::

~~

>::

.S
...,

Ei
::l..
V
::l..

...,
...,
...,
Cl)

.~

'':
..0:::
'-'
(/)

11
00

::E

~
bO

>::

;:l

..., ~J
'">:: I1
'(ij
::a ~
~

>::

;:l

....

Cl)

~ "~

'a

-<-<

.S
...,

1I

~
>::

@'

....
Cl)

"0

>::
0

>

><
>::
0

>
..ci
-ci

"~

~
0

00

,.';,
>::

bO

....

.a:;
gj

~
>::

~0 ]
'-'
~
'"~

:::..c:
Q)

bO

Aufgaben

1. Unitre hnlichkeitstransformation

"Cl

>

...,
]

A.l

;;E
Q)

pf
"b.o
: 0>::

Cl)

~
Cf)

.....:l

bO

..0:::
.D
ol

A.~).

..c:
...,

...,

bO .

.... t;
"0

>::
ol

Q)

bO

~o<t:

~
~

~ch

>::
Cl)

eil ....

..0:::

'.,3 ~
0. .....

'-'
Cl)

r:r;

.. ~
S~

a) Lineare Abbildungen
Lineare Abbildungen knnen in Matrixschreibweise ausgedrckt werden:
Der reelle Vektor ;[. soll in ein neues Koordinatensystem transformiert wer
den. Der neue Vektor ;[.' resultiert aus einer Multiplikation mit einer Matrix
Q-l: ;[.' = Q-l;[.. Die Basisvektoren des neuen Koordinatensystems, jeweils
in alten Koordinaten angegeben, bilden die Spalten der Transformations
matrix Q

* ..

1 Lsungen

unter A.2.

194

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

c) Quadratische Form
Nun folgt eine Anwendung der Teilaufgaben a) und b):
Betrachten Sie die Gleichung

Wir betrachten den zweidimensionalen Fall:

X~
~

X2

"
\

195

A.I AUFGABEN

x~
/7

/\/ a

5xi -

.; I,

6X1X2

+ 5x~ =

Xl

die als quadratische Form (C.14) bezeichnet wird und eine Ellipse be
schreibt. Diese Gleichung soll nun in den Hauptachsenkoordinaten ange
geben werden.

\
\
\
\
\

Das neue Koordinatensystem (X~, x~) besitze ebenfalls Basisvektoren der


Lnge 1, die senkrecht aufeinander stehen (d.h. die Basis sei orthonormal)
und sei um den Winkel a gegen das alte System (Xl, X2) verdreht.

[Xl

a1) Berechnen Sie die Matrix Q(a).


a2) Es kann auch ein Gleichungssystem abgebildet werden. Zeigen Sie, dass
die Gleichung lL = R;r. zu lL' = Q-1 lL = Q-1 RQ;r.' wird.
a3) Zeigen Sie, dass Q unitr ist: Q-1

Qt.

b) Eigenwerte und Eigenvektoren


b1) Gegeben sei eine symmetrische 2 x 2 Matrix R:

R=

[ 5 -3]
-3

Berechnen Sie die Eigenwerte Al, A2 und Eigenvektoren 9. 1 ,9.2 der Ma


trix.
b2) berprfen Sie die in Abschnitt 2.3.6 beschriebenen Eigenschaften fr
die Eigenwerte und Eigenvektoren aus b1) :

i) Alle Eigenwerte sind reell.


ii) Zu verschiedenen Eigenwerten gehrende Eigenvektoren stehen senk
recht aufeinander.
iii) Die Eigenvektoren bilden eine orthonormale Basis (9. 1 , ... , 9.N)
iv) Es existiert eine unitre (orthogonale) Matrix Q, die R diagona
lisiert:
R

cl) Stellen Sie die obige Gleichung als Vektor-Matrixgleichung dar:

= Q. diag(Al, ... , An) . Qt


QAQt

X2]

R [

~~ ]

= 8

R muss dabei symmetrisch sein.


c2) Berechnen Sie die Eigenwerte und Eigenvektoren der Matrix R. Whlen
Sie die Eigenvektoren so, dass diese die Lnge 1 besitzen.
c3) Transformieren Sie die quadratische Form in das neue Koordinaten
system, das die Eigenvektoren der Matrix R als Basis besitzt.

[X~ X~]'A'[~~]=C
c4) Sie haben die quadratische Form in ihr Hauptachsensystem transfor
miert. Multiplizieren Sie nun die Vektor-Matrixgleichung wieder aus.
Der Term X1X2 muss dabei wegfallen:

a . X~2

+ b . X~2 =

Zeichnen Sie die Ellipse in beiden Koordinatensystemen auf.


c5) Fhren Sie die gleiche Rechnung durch, indem Sie die Matrix R der
quadratischen Form asymmetrisch whlen. Achtung: kein Element soll
dabei null werden! Beobachten Sie, was passiert. Erklren Sie damit,
warum die Matrix R symmetrisch sein muss, damit die Eigenwerte mit
den Hauptachsen zusammenfallen.

196

197

A.l AUFGABEN

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

2. Wiener-Filter und Orthogonalittsprinzip

3. Unterdrckung eines 50 Hz Netzbrumms

In dieser Aufgabe soll ein FIR-Filter 1. Ordnung zur linearen MMSE-Schtzung


eines Nutzsignals aus einer verrauschten Beobachtung entworfen werden (siehe
Figur A.1). Das Nutzsignal ist dabei das erwnschte Signal d[k] der Schtzung.

Diese Aufgabe bezieht sich auf das Beispiel aus Abschnitt 1.3.2, in dem die Un
terdrckung eines 50 Hz Netzbrumms n[k], der einem Sensorsignal s[k] berlagert
ist, beschrieben wird. Zur Unterdrckung der Strung wird wieder das Filter aus
Figur A.1 verwendet, jedoch mit folgender Zuordnung:

x[k]

x[k -1]

Wl\

W2l

Filtereingang x[k]: Referenzsignal fr die Strung, d.h. eine Sinusschwin


gung mit der Frequenz der Strung (z.B. von der Steckdose).

Erwnschtes Signal d[k]: gestrtes Sensorsignal d[k] = s[k]

+ n[k].

Ziel: entstrtes Sensorsignal als Fehlersignal e[k] zur weiteren Verwendung.


Die Daten:
+)

e[k]

Abtastfrequenz:

d[k]

Referenzsignal: x[k]

n[k]

+ v[k] ,

~<5[i] + <5[i -

0: <5[0]

cos(27rlnk + i

+ <1.

Gemeinsame Phase <1>: Zufallsgrsse mit einer gleichverteilten Dichte zwi


schen 0 und 27r.

a) Whlen Sie die normierte Frequenz In so, dass x[k] und n[k] einer 50 Hz
Netzschwingung entsprechen (bei I. = 500 Hz).

1.)

a) Berechnen Sie die Auto- und Kreuzkorrelationsfunktionen

rx[i] = E{x[k]x[k - i]} und rdx[i] = E{d[k]x[k - i]}.

b) Geben Sie den Fehler e[k] in Funktion von Wi, x[k], x[k-1] und d[k] an. Stel
len Sie nun die beiden Orthogonalittsgleichungen (Orthogonalittsprinzip,
(2.61)) E{x[k] e[k]) = 0 und E{x[k - 1] e[k]} = 0 auf und bringen Sie die
Gleichungen auf folgende Matrixform (Wiener-Hopf-Gleichung): R1Qo = E:
Wie lautet der optimale Koeffizientenvektor 1QO?
c) Wie gut ist die Schtzung, d.h. wie gross ist Jmin ?

~'

1] + <5[i + 1]

(Die Kronecker-Deltafunktion <5[i] ist null, ausser fr i

= cos(27rlnk + <1.

Die Netzstrung n[k] sei zum Signal x[k] um 7r/3 phasenverschoben:

wobei d[k] und v[k] zwei unabhngige Prozesse sind. v[k] sei weisses (mittel
wertfreies) Rauschen mit rv[k] = ~<5[k] und d[k] sei schwach stationr mit der
Autokorrelationsfunktion:
=

= 1/1. ; Netz-Frequenz: 10 = 50 Hz.

a;

Die Beobachtung, die an den Filtereingang x[k] gelegt wird, besteht aus dem
durch v[k] verrauschten Nutzsignal:

rd[i]

mit T

Sensorsignal s[k]: weisses Rauschen (mittelwertfrei) mit der Leistung


= 1.

Figur A.l: FIR-Filter 1. Ordnung

x[k] = d[k]

I. = 500 Hz,

~:

b) Berechnen Sie die Autokorrelationsfunktion von x[k] und daraus die Auto
korrelationsmatrix R. Wie gross ist die Leistung von x[k]?
c) Berechnen Sie die Kreuzkorrelationsfunktion rdx[i] von d[k] und x[k] und
daraus den Vektor E:
d) Berechnen Sie die Wiener-Lsung

1Qo.

e) Berechnen Sie Jmin = E{ 2 [k]} und vergleichen Sie mit der Leistung
Sensorsignals. War der Ansatz erfolgreich?

a; des

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

198

4. Strgeruschunterdrckung durch einen Beamformer


j[k]
0:::v

d[k]

0.5

0)

s[k]

0.5

x[k]

M2

AF

I d[k]

Ausgang

~~

. e[k] :

Wie Aufgabe 3 verdeutlicht, kann eine additive Strung erfolgreich unterdrckt


werden, wenn ein geeignetes Referenzstrsignal an den Eingang x[k] des Filters
und das gestrte Nutzsignal als erwnschtes Signal d[k] angelegt wird. Mit Hilfe
von sog. Beamformern [8], die aus einer Anordnung von mehreren Mikrophonen
bestehen, kann gleichzeitig ein Referenzsignal und das gestrte Nutzsignal gewon
nen und die Strung unterdrckt werden. In dieser Aufgabe wird ein einfacher
Beamformer mit zwei Mikrophonen betrachtet. Ziel: Das Nutzsignal s[k], welches
in gleichem Abstand von den beiden Mikrophonen entfernt liegt, soll ungehin
dert durchgelassen werden; hingegen soll das seitlich einstreuende Strsignal j[k]
(eng!. jammer) unterdrckt werden. Dazu ntzt man die Laufzeitdifferenz des
Strsignals zwischen den 2 Mikrophonen MI und M2 aus: Am Mikrophon MI
wird die Sequenz s[k] + j[k] und am Mikrophon M2 die Sequenz s[k] + j[k - 1]
gemessen. Das Strsignal erscheint also um eine Zeiteinheit verschoben am Mi
krophon M2. Weiterhin werden fr das Nutzsignal s[k] und das Strsignal j[k]
folgende Annahmen getroffen:

j[k] sei ein weisser stationrer stochastischer Prozess mit Leistung o}


s[k] habe die Leistung

0'; und sei unabhngig von j[k]

s[k] und j[k] seien mittelwertfrei.


a) Berechnen Sie d[k] und x[k], ausgedrckt durch die Sequenzen s[.] und j[.].
Aus dem Referenzsignal x[k], welches nur aus Werten des Strsignals j[.] be
steht, soll nun durch ein FIR-Wiener-Filter 1. Ordnung (N = 2) das Signal d[k]
geschtzt werden, das aus Werten des Strsignals j[k] und des Nutzsignals s[k]
besteht. Da x[k] jedoch keine Information ber s[k] enthlt, kann das Filter aus
schliesslich den Strsignalanteil von d[k] schtzen, nicht aber den Nutzsignalan
teil. Somit erscheint das Nutzsignal (wie gewnscht) ungefiltert am Ausgang des
Beamformers.

199

A.l AUFGABEN

b) Berechnen Sie e[k] und J('Jll.) = E{e 2[k]} ausgedrckt durch:!Q = [Wl,W2]t,
d[k] und ~[k] = [x[k], x[k - 1]JI.
c) Substituieren Sie R = Ebjk]~t[k]}, pt = E{d[k]~t[k]} und O'~ = E{d 2[k]} in
b). Sie sollten nun den Ausdruck (2.18) fr J(:!Q) erhalten haben. Berechnen
Sie anschliessend den Gradienten \7 :!!!.{J(:!Q)} und setzen Sie ihn gleich Q.
Auf diese Weise haben Sie die Wiener-Hopf-Gleichung (2.51) hergeleitet.
Berechnen Sie O'~ = E{d 2 [k]} ausgedrckt durch die Leistung des Str- und
Nutzsignals.

0';

0';'

und
Dabei gilt : r[i] =
d) Berechnen Sie Rund p. ausgedrckt durch
E{x[k]x[k - i]} und rdx[i] = E{d[k]x[k - i]}. Verwenden Sie dazu die Re
sultate aus a).
e) Berechnen Sie den optimalen Filterkoeffizientenvektor :!Q0, der J(:!Q) mini
miert.
f) Berechnen Sie J min = J(:!Q0). Das Fehlersignal ist der Systemausgang. Um
welchen Faktor (in dB) verbessert sich das SNR ('signal-to-noise ratio') im
Fehlersignal verglichen mit dem Systemeingang (z.B. das SNR im Mikro
phon MI)?
g) Das Strsignal wurde nur teilweise unterdrckt, weil die Filterlnge N zu
klein ist. Bestimmen Sie mit Hilfe der z-Transformation das Filter H(z) =
~gl, welches durch Filterung von x[k] eine perfekte Schtzung des Strsi
gnalanteils d'[k] in d[k] liefert und somit j[k] im Fehlersignal e[k] vollstndig
unterdrckt. Um was fr einen Filtertyp handelt es sich? Worin liegt das
Problem dieses Filters?
h) Wir begngen uns mit der fr N = 2 erreichbaren Strgeruschunter
drckung. Die in e) analytisch berechnete Wiener-Lsung soll nun durch
ein adaptives Filter, das durch den iterativen LMS-Algorithmus adaptiert
wird, gefunden werden. Geben Sie die LMS-Gleichungen in Funktion der
Mikrophonsignale MIlk] und M 2 [k] an. Whlen Sie mit Hilfe von (3.81)
einen Wert fr die Schrittweite J..l. Es gelte hierbei:
= 1.

0';

200

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

A.2

Lsungen zu den Aufgaben

A.2 LSUNGEN ZU DEN AUFGABEN

201

b1) Charakteristisches Polynom:


- A 5-- 3A] = A2
det [ 5 -3

1. Unitre hnlichkeitstransformation
a1) Aus der Zeichnung sehen wir sofort:

A2 = 8

Al = 2,

=}

lOA + 16 = 0

Die Eigenvektoren findet man jeweils durch die Gleichungen:


X2
-1

~l = Al9. l
~2 = A29.2

cosa

r-

a
I

-sma

9.l=V;[~]

sin a

cosa

Die neuen Basisvektoren ergeben sich in alten Koordinaten zu

9.1

= ( cos a ) und
= ( - sin a )
9.2
.
sin a
cos a

Xl

-2

= J2
2

[1 -1]
J2[ 1 1]

J2

C?S a
sma

Q=""2

- sin a ]

cosa

=}

a2) Wir gehen aus von

Q-lU

Mit ;f = Q;f' folgt fr die rechte Seite:

-1 1

Q-lRQ =

[~ ~]

=}

14: ----t Q- l l4: = Q-lRQ;f'

cl)

R= [5 -3]
-3

Beweis:

Xl

Damit gilt:

u' = Q-lU = Q-lRQ;f'

a3) Dazu berechnen wir die Inverse von Q(a):


Q(a)-l = [
Es gilt: Q(a)-l = Q(af

co~ a

Q-l =""2

u= 14:
Die linke Seite in den neuen Koordinaten:

u' =

b2) i) Al und A2 sind reell.


ii) Kontrolle: 9.~9.2 = O.
iii) Die Lnge von 9.1 und 9.2 ist frei whlbar und wurde auf die Lnge 1
normiert (mit ii) ----t orthonormale Basis).
iv) Die gesuchte Matrix Q besitzt 9.1 und 9.2 als Spalten:

Fr Q(a) ergibt sich:

Q (a) = [

[ ~1

X2

] [ 5 -3]
.

-3

. [Xl]
X2
= 5x 2l -

6XlX2

+ 5X22

c2) siehe b1).

c3) Die Transformation wurde bereits in b2) durchgefhrt.

sin a ]
-sma cosa

A=[~ ~]----t[X~ x~].[~ ~]'[~~]=8

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

202

A.2 LSUNGEN ZU DEN AUFGABEN

b) Fehler und Orthogonalittsgleichungen:

Die Konstante rechts bleibt unverndert.


/2

2x l

x? + X 2t2 =
+ 8X2 t2 = 8 ---+ 4

d[k] - d[k]
d[k] - (wlx[k] - w2x[k 1])

e[k]

1
/

X2

x~

E{d[k]x[k]- wlx[k]x[k] - w2x[k]x[k In


rdx[O] - WlrX[O] - w2rx[l]
5 10
- - -Wl W2 = 0
2
3

E{x[k]e[kn

Xl

,.-f

x~

203

) .. X~

;1(

I;'

.. Xl

E{d[k]x[k 1] - wlx[k l]x[k]- w2x[k l]x[k In


rdx[I]- wlr x[-I]- W2 rx[0]

E{x[k l]e[kn

c4)

1- Wl

Die Ellipse ist im ursprnglichen Koordinatensystem um 45 gedreht. (Ver


. gleichen Sie die Matrix Q aus Aufgabe b2) mit der Matrix Q(a) aus al)

10
3

-W2

Beide Gleichungen in Vektor-Matrix Form geschrieben:


c5) Ist R nicht symmetrisch, so stehen die Eigenvektoren nicht senkrecht auf
einander. Damit knnen unmglich die beiden Eigenvektoren in Richtung
der Hauptachsen liegen: Hauptachsen von Ellipsen stehen immer senkrecht
aufeinander.

(I)

[1 4](:~)

p.

R1Q

Wiener-Lsung:

2. Wiener-Filter und Orthogonalittsprinzip


1Q0

a) Kreuzkorrelation und Autokorrelation:

in

+ v[k - i])}

in + E{d[k] v[k - in

in + E{d[kn . E{v[k - in

in

E{d[k] . x[k E{d[k] . (d[k - i]


E{d[k] . d[k E{d[k] d[k E{d[k] . d[k -

rdx[i]

.!:-

rx[i]

I .
! /;

rd[i] =

~c5[k] + c5[k -

in

in

10
3c5[k]

+ c5[k -

1]

in

+ c5[k + 1]

91
66

WO

P= ( )
-

) =
2

..!..
182

c)

J min

(52 _

ptwo
_

rd[O] - wlrdx[O] - w2rdx[l]


':

1] + c5[k + 1]

(*: da v[k] und d[k] unabhngig und v[k] mittelwertfrei)


E{x[i] x[k E{(d[i] + v[i]) . (d[k - i] + v[k - i])}

+ E{v[i] . v[k E{d[i] d[k rd[i] + rv[i]

("

R-

,>
.::~

"

5
2

66
91

5
2

15
182

55
91

------1=

J min ist nicht null, d.h. die Schtzung ist nicht perfekt. Wenn das Nutzsi
gnal d[k] und die Strung v[k] den gleichen Frequenzbereich belegen, kann
nicht durch Filterung des Summensignals x[k] der Anteil v[k] unterdrckt
werden, ohne dabei d[k] anzutasten. Das Wiener-Filter findet einen Kom
promiss im MSE-Sinn. Die Zuordnung (gestrtes Nutzsignal als Eingangssi
gnal x[k] und Nutzsignal als erwnschtes Signal d[k]) ist deshalb ungeeignet
zur Unterdrckung einer additiven Strung. Der Ansatz der Aufgabe 3 mit
der Zuordnung (gestrtes Nutzsignal als erwnschtes Signal d[k] und einem
Referenzstrsignal als Filtereingang x[k]) ist erfolgreicher.

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

204

A.2 LSUNGEN ZU DEN AUFGABEN

3. Unterdrckung eines 50 Hz Netzbrumms

Der Erwartungswert E{s[k] x[k - i]} ist null, da s[k] und x[k] unkorreliert
und jeweils mittelwertfrei sind.

a) Aus dem Vergleich des abgetasteten Signals x(kT) = cos(21rfot + <Ilt=kT =


cos(21rfokT+<I mit x[k] = cos(21rfnk+<I folgt fr die normierte Frequenz

Den Erwartungswert E{n[k] x[k-i]} erhalten wir analog zu Teilaufgabe b):

fn:
fn
x[k]
n[k]

foT =

1
21ri 1r
Td [i] = -cos(- +-)

j: = 110

21rk

cos ( 10 + <I>

21rk

1r

cos ( 10 +"3

_ (

,.'

+ <I> )}

Mit dem Additionstheorem cos Cl! cos = ~ (cos( Cl! - ) + cos( Cl! + )) ergibt
sich fr Tx[i]:

{I

Tx[i] = E "2 cos (21ri)}


10 + E "2 cos (21r(2k-i)
10
+ 2<I>)}

(A.1)

Der Erwartungswert wird ber k ausgewertet. Der zweite Summand fllt


weg, weil eine Sinusfunktion mittelwertfrei ist, und der erste Summand ist
konstant (nicht von k abhngig). Es folgt:
===}

Tx[i] = "21 cos (21ri)


10

(A.2)

Die Autokorrelationsfunktion Tx[i] kann auch direkt durch folgende berle

gung erhalten werden: Zum einen muss Tx[i] die gleiche Frequenz besitzen

wie x[k], zum anderen betrgt die Leistung der Sinusfunktion (Tx[O] = 0.5).

Ferner ist die Phase von Tx[i] null, da eine AKF symmetrisch ist.

Mit Tx[i] knnen wir die Autokorrelationsmatrix R bestimmen:

R = ~
2

[COSO
cos i

10

~ cos ~

~ cos(i + ~)

) _ (

0.25
)
-0.05226

d) Wiener-Lsung:

Tx[i] = E{x[k] x[k - i]}


21rk + <I> ) cos (21r(k10- i)
E { cos ( 10

l!. -

I'

b)

{I

Fr l!. ergibt sich somit:

+ <I>

205

cos i ] = [ 0.5
0.4045 ]
cos 0
0.4045
0.5

WO
-

= (

Wl )
W2

= R-1 = ( 1.69198 )
l!.
-1.47337

e) MMSE:
Jmin = E{d 2 [k]} -l!.t'1Q0

Wir berechnen zuerst den Erwartungswert

E{d2[k]} = E{S2[k]}

(A.3)

E{d 2 [k]}:

+ 2E{s[kjn[k]} + E{n 2[k]}

Der Term E{s[k]n[k]} wird null (Begrndung wie in Teilaufgabe c)), somit
erhalten wir:
.
1
E{ d2[~]} = Ts[O] + Tn[O] = 1 + "2 = 1.5
Dazu folgende Erklrung:

Ts[O] = 1, gemss Aufgabenstellung.

Tn[O] = ~, weil n[kj und x[k] bis auf eine Verschiebung gleich sind und

folglich dieselbe AKF haben.

Mit l!.t . '1Q0 = ~ erhalten wir:

J min

= E{ e2 [kJ} = 1

(A.4)

J min , die Leistung des Fehlersignals, entspricht also der Leistung des Sen
sorsignals Ts[O] = 1. Die Netzstrung wurde erfolgreich entfernt und das
entstrte Sensorsignal steht als Fehlersignal zur weiteren Verwendung zur
Verfgung.

4. Adaptive Strunterdrckung durch einen Beamformer

c)
Tdx[i]

E{d[k] . x[k i]}


E{(s[k] + n[k]) . x[k i]}
E{s[k] . x[k i]} + E{n[kj x[k i]}
E{ n[k] . x[k i]}

a) Eingangs- und erwnschtes Signal:


1

d[k] = 0.5(s[kj

+ j[k] + s[kj + j[k -

1]) = s[k]

x[k] = 0.5(s[kj

+ j[k] - s[k] - j[k -

1]) = "2(j[kj- j[k - 1])

+ "2(j[kj + j[k -

1])

206

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

Weil E{j[k]s[k - i]} = 0 Vi folgt fr die Kreuzkorrelation:

b) Fehlersignal und MSE:

e[k] = d[k] - d[k] = d[k] - 1Qt~[k]

J(1Q) = E{e 2[k]} = E{(d[k] -1Qt~[k])(d[k] _1Qt~[k])t}


2
= E{d [k] - d[k]~t[k]1Q -1Qt~[k]d[k] + 1Qt~[kl~t[k]1Q}
2
= E{d [k]} - 2E{d[kkt [k]}1Q + 1QtE{~[kkt[k]}1Q

= E{d[k]x[k]} = E {( d[k]x[k] )} = ( rdx[O] )


d[k]x[k - 1]
rdx[l]

rdx[O] = E{d[k]x[k]} = E{(s[k]

rdx[l]

~(E{l[k]} -

E{d[k]x[k - I]}

Fehlerfunktion:

4E{j[k - l]j[k]

= - 2E + R1Q + R t1Q = 2R1Q - 2E

\7!!L{J(1Q)} = Q = 2R1Qo - 2E
=>
I-R-1Q---:Co-=-E-1

d) Autokorrelationsmatrix:

-I 0

"

= (J~ -

.~ {

".

= 4E{j[k]j[k - 1] - j[k]j[k - 2]- j2[k - 1] + j[k - l]j[k - 2]}


1 { .2
1 2
E -J [k - I]} = -4(Jj
=4

IR=~[_~

ti
:t".

-;]1

1Q

(J}
4

= 1Qo

= (J~ - EtR-1E

,'"

l.

4E{(j[k] - j[k - 1]) (j[k - 1]- j[k - 2])}

~ [~

-1

J mln. = J(WO)
= (J2d - 2p_tw
_
_o + wotRwo
_
_
t
= (J~ - E 1Qo

! .)

~(J;

2-1]. (0)
~ ].G) (1)
4

f) MMSE:

Weil j[k] weiss ist, gilt allg.:

j[k - I]?} =

(J} [

=>

=>1Qo=R- 1E=

2
t
{[ x [k]
x[k]x[k - 1] ]} _ [ r[O]
r[I]]
R = E{~[k]~ [k]} = E
x[k _ l]x[k] x2[k _ 1]
r[-I] r[O]

e) Wiener-Hopf-Gleichung:

R1Qo =E

r[l]

(J2 (0)

E=

\7 !!L {J (1Q)}

E{~(j[k] -

1] - j[k - 2])}

Gradient und Wiener-Hopf-Gleichung:

r[O] = E{x 2[k]} =

1]))~(j[k -

(J;) = 0

+ l[k - 1] - j[k - 2]j[k] - j[k - 2]j[k - I]}

Daraus folgt:

I])}

= 4 E{l[k - I]} = 4(J;

(2.11)

Vi

~((J; -

E{l[k - I]}) =

= E{(s[k] + ~(j[k] + j[k =

E{j[k]j[k - i]} = 0

1 2
2
1 2
(Jd2 = E{d 2[ k]} = (J.2 + 4((Jj
+ (Jj)
= (J.2 + 2(Jj

2'!l1Q + 1Qt R1Q I

+ 2(j[k] + j[k - 1]))2(j[k]- j[k -

= 4E{l[k] - j[k]j[k - 1] + j[k - 1]j[k]- j2[k - I]}

c) Aus E{s[k]j[k]} = 0 und E{j[k]j[k - I]} = 0 folgt:

Leistung des erwnschten Signals:

IJ (1Q) = (J~ -

207

A.2 LSUNGEN ZU DEN AUFGABEN

Eingang:
Ausgang:

( ~)
(~

(Jd -

~(J; (0
1

(t j2 =

1)
2

(J.

10 lOglO

em

) aus

= 10 lOglO
4.77 dB

(1)

+ 2(JJ2 - 6(JJ2 = (J.2 + 3(Jj2

((J~)
(JJ

((J];3) = 10 lOgIO(3) + 10 loglQ (:j)


+

(~)

.
em

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

208

A.2 LSUNGEN ZU DEN AUFGABEN

Die Strgeruschunterdrckung des Beamformers betrgt somit 4.77 dB.

Fr N = 2 erhalten wir die aus d)-e) bekannte Lsung. Mit wachsender


d.h. die Strgeruschun
Filterlnge N nhert sich Jmin(N) dem Wert
terdrckung im Fehlersignal wird zunehmend besser. Nun interessiert uns
der bergang N ----> 00:

a;,

g) Berechnung der z- Transformationen [16][17] des Eingangs und des Stran


teils d[kl' = d[k]ls[kl=o:
1

x[k] = 2(j[k] - j[k - 1])

X(z)

2J (z)(I- Z-l)
WO

d[k]' = d[kJls[kJ=O = 2(j[k]

+ j[k -

1])

D'(z) =

= H(z)X(z)):

H(z) = D'(z) = 1 + Z-l


X(z)
1- Z-l

(i=O)

h[i]

(i ~ 1)

= {2

h) Eingangssignal: x[k] = MdkJ - M 2[k].

Erwnschtes Signal: d[k] = Mdk] + M 2[k].

(A.5)

Iterationsvorschrift LMS-Algorithmus:

d[k] = wtx[k] = wt ( x[k] )


-x[k-l]

Das Nutzsignal s[kJ wird vom Filter unbeeinflusst im Ausgang e[k] erschei
nen. H(z) ist ein UR-Filter. Das Filter ist nicht BIEO-stabil ('bounded
input bounded-output' [16]), weil der Pol von H(z) bei zp = 1 liegt und die
ROC ('region of convergence') den Einheitskreis Izl = 1 nicht enthlt.

e[k] = d[k] - d[k]


1Q[k + IJ = 1Q[k] + J.Le[k]~[k]
Zur Bestimmung der oberen Grenze der Schrittweite wird die mittlere Ein
gangsleistung des adaptiven Filters bentigt:

Kommentar: Das FIR-Wiener-Filter kann fr beliebige Filterlngen N be


rechnet werden. Es gilt:

a2

R=---.2..
4

-1
2

-1

-1

E{x[k]2} = E{(0.5(j[k] - j[k - I]?}

= ~(E{l[k]} + E{l[k - I]})

-1
-1

P=

-1

-1

Mit N = 2 und

1 0

...

a; = 1 folgt aus (3.81):

J.Lmax2

l .(0

= -a

~;

und

(i = 1)
(i
~ 2)
2

w k entspricht nun gerade der Impulsantwort 2 h[iJ (A.5) des Filters H(z),
das eine vollstndige Unterdrckung der Strung bewirkt. Fr N ----> 00 ist
w k natrlich nicht mehr ein FIR-, sondern ein UR-Filter, das wie H(z) nicht
BIBO-stabil ist.

(A.6)

-1

{I

Jmin = a s2

Es besitzt die Impulsantwort (rechtseitig, kausal entwickelt):

2J (z)(1 + Z-l)

Das Filter zur perfekten Schtzung von d'[k] aus x[k] (D'(z)

209

0)

----=-:-----:--;--:-, =

= N. (mittlere Eingangsleistung)

Daraus folgt fr die Wiener-Lsung y,l:


2

wf=
Jmin(N)

1- N+l
2. (1- N~l)
2

= as

(i = 1)
(2 ::; i ::; N)

a J2

+ N +1

2Beachten Sie die Indizierung

Wi

= w[i - 1] = h[i - 1].

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

210

A.3 ANLEITUNG ZU DEN SIMULATIONEN

A.3 Anleitung zu den Simulationen

211

der Systemidentifikation geschlossen werden kann, wird das sog. System-Fehler


Mass W dB definiert. Ein weiteres Mass (ERLE: 'echo-return loss enhancement')
gibt die erzielte Echounterdrckung bei der Anwendung der Systemidentifikation
zur Echokompensation an.

In den vorliegenden MATLAB-Simulationen werden die Eigenschaften der behan


delten Adaptionsalgorithmen untersucht, indem ein vorgegebenes, dem Algorith
mus unbekanntes und durch ein Messrauschen verrauschtes System identifiziert
wird.
Die einzelnen Simulationen (SI-S5) haben folgende Schwerpunkte:

.-----11
SI : Darstellung der Fehlerflche im 1Q-, Q- und Q'-Koordinatensystem, Rolle der
Eigenwerte von R, Konditionierung X(R).

unbekanntes
System h

x[k]

S2 : Eigenwerte und Rang einer positiv semidefiniten Autokorrelations

matrix R.

.~I~J. __

adaptives ~
FIR-Filter W

S3 : LMS-Algorithmus.
\

S4 : RLS-Algorithmus.

Figur A.2: Identifikation eines unbekannten Systems mit einer (kausalen) FIR- oder !IR

Impulsantwort h[.] durch ein adaptives FIR-Filter

S5 : FLMS-Algorithmus, Anwendung: Echokompensation.


Bei jeder Simulation werden wichtige Parameter wie z.B. N, J-l, die Messrausch
leistung
und die Konditionierung des Eingangs mittels einer Eingabemaske
eingegeben. Zur Beurteilung der Leistungsfhigkeit der jeweiligen Algorithmen
werden Grssen wie der MSE nach Adaptionsende, die Fehleinstellung M, das
System-Fehler-Mass WdB (A.18), Jminund 1Qo angegeben. Ferner werden u.a. die
Lernkurven, der zeitliche Verlauf der Gewichte bei der Adaption, das System
und das adaptive Filter im Zeit- und Frequenzbereich und der Verlauf der Ad
aption unterschiedlicher Algorithmen auf der Fehlerflche graphisch dargestellt.
(Figuren A.3-A.7).

a;

v'

Das unbekannte System (Figur A.2) sei durch eine (kausale) FIR- oder UR
Impulsantwort h[.] charakterisiert. Analog zu (2.2) und (2.4) wird der Gewichts
vektor 11 der Lnge N h definiert (bei UR: N h --> 00), dessen i-tes Element hi
durch
hi = h[i - 1]
i = 1, ... , N h
(A.7)
gegeben ist. Um die Wiener-Lsung und den MSE zu ermitteln, betrachten wir
zunchst eine FIR-Systemimpulsantwort (Nh endlich):

Fall N ?: N h :
t~::
Bitte beachten Sie neben den folgenden Anleitungen auch die zustzlichen HinweiWenn die Anzahl adaptiver Gewichte 1Q die Anzahl der Gewichte der FIR
se und Kommentare in den Textdateien im Verzeichnis der jeweiligen Simulation.
Systemimpulsantwort bersteigt, N ?: N h , gilt fr die Wiener-Lsung:
'.,
~':
1Qo = 11. Dann ist nmlich y[k] = d'[k], e[k] = n[k] und J min =
(das
Messrauschen n[k] ist unkorreliert zu x[k] und bleibt deshalb in e[k] erhal
A.3.1 Vorbereitende berlegungen und Definitionen:
ten.) Bei einer Abweichung 1Q = 1Q - 1Qo = 1Q - 11 von der Systemimpul
santwort
wchst der MSE gemss (2.85) an:
MSE, Jmilll wo, System-Fehler-Mass WdB

Die bentigten MATLAB Skript-Files befinden sich auf der beigelegten CD-ROM.

,~.

a;.

.'~

und ERLE im Kontext der Systemidentifikation


In diesem Abschnitt werden die allgemeinen Beziehungen fr den MSE, J min und
die Wiener-Lsung gemss (6.3), (6.4) und (6.5) im Kontext der Systemidentifika
tion betrachtet. Bei einem weissen Eingangssignal knnen diese Grssen direkt in
Funktion der Systemimpulsantwort und des Gewichtsvektors angegeben werden.
Weil aus dem MSE bei einem farbigen Eingang nur bedingt auf die Genauigkeit

= J min + 1Qt R1Q =

Bei einem weissen Eingangssignal (R


zu

a~

+ 1Qt R1Q

(A.8)

= a;I) vereinfacht sich der Ausdruck


Nh

a~ +

a; L

i=l

IWil 2

(A.9)

212

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

A.3 ANLEITUNG ZU DEN SIMULATIONEN

d.h. jede Komponente/::;.wi der Abweichung /::;.:!Q von der Systemimpulsant

wort trgt gleichgewichtig zur Vergrsserung des MSE bei.

Bei einem allgemeinen farbigen Eingangssignal betrachten wir die entkop

pelte MSE-Gleichung (2.144)

Damit gilt bei einem weissen Eingangssignal fr den MSE:


N

J = Jmin(N)

= a~ + L

.Ai!/::;'w:1

(A.1O)

i=1
wobei /::;.:!Q' der Abweichungsvektor in Hauptachsenkoordinaten ist: /::;.:!Q' =
QH /::;.:!Q. Zur anschaulichen Erklrung dieser Beziehung ersetzen wir die
unitre Modalmatrix Q durch die DFT-Matrix F H , die gemss den Aus
fhrungen von Abschnitt 5.1.4 ebenfalls eine unitre Matrix ist und die
Autokorrelationsmatrix (nherungsweise) diagonalisiert, und somit (A.8)
entkoppelt. (A.8) bzw. (A.lO) wird dann zu

i:
! .,'
'~'
,

~.

,I

ergibt sich bei einem weissen Eingangssignal fr den MSE mit (A.9):
Nh

= a~ + a; L

IWi - h i l

(A.13)

i=1
N

Nh

a~+a;Llwi-hiI2+a; L

IWi- hil 2

i=1
N

i=N+1
Nh
2
a~+a;Llwi-hiI2+a; L 10-hi 1
i=1
i=N+1
Nh
N
2
2
a~ + a;
Ihi l + a;
IWi hi l
i=N+1
i=1

(A.14)

(A.15)

= a~ + a;

Nh

Ih i l

(A.16)

i=N+1

Ist das Eingangssignal nicht weiss, wird Jmin durch die allgemein gltige
Beziehung (2.58)
J min = a~ - P.t:!Q0
(A.17)

Fall N< N h :
Wenn die Anzahl adaptiver Gewichte kleiner als die Anzahl der Gewichte
der FIR-Systemimpulsantwort ist (N < N h ), kann lJ. nicht direkt nachgebil
det werden. :!Q0 stellt dann die im MSE-Sinn optimale Approximation von
lJ. dar. Mit der Erweiterung des Gewichtsvektors :!Q um (Nh - N) Nullen auf
die Lnge N h
(A.12)

Jmin(N) nimmt mit wachsendem N ab und erreicht die untere Schranke a~


fr N = N h .

(A.ll)

= [W1' W2,"" WN, 0, ... ,0]

Jmin(N)

..

wobei /::;. W die DFT von /::;.:!Q ist, (/::;'W = F/::;.:!Q) und der Eigenwert .Ai wegen
(5.44) durch die Leistung des Eingangs bei der i-ten Frequenz ersetzt wurde.
Aus (A.ll) ist ersichtlich, dass sich eine Abweichung /::;,Wi = Wi-Hi von der
Systembertragungsfunktion H bei der i-ten Frequenz jeweils entsprechend
der Gewichtung durch die Leistung PXi des Eingangs bei dieser Frequenz
auf den MSE auswirkt.

:!Q

/Wi - h i l

Der MSE wird minimal, wenn die N Gewichte Wi den ersten N Werten der
Systemimpulsantwort h entsprechen: w? = h i fr 1 ::; i ::; N. Die ersten
beiden Summanden in (A.14) sind durch :!Q nicht beeinflussbar und stellen
den minimalen MSE dar:

~,

Nh

J ~ a~ + LPxJ/::;.WiI2
i=1

+ a; L
i=1

Nh

213

und der MSE durch (2.85) bzw. (A.ll) berechnet. Die N Gewichte Wi sind
optimal (:!Q0 = R- 1p), wenn die Summe der quadrierten Abweichungen
von der Systemimpulsantwort im Frequenzbereich I/::;.Wi I 2 , jeweils gewich
tet mit der Leistung PXi , minimal wird. Wegen der Gewichtung mit PXi
bei der Optimierung kann :!Q0 im Zeitbereich von lJ. verschieden sein. Liegt
beispielsweise am Eingang eine Sinusschwingung an, wird das System nur
bei der Frequenz der Schwingung identifiziert. Betrag und Phase des Sy
stems sind bei dieser Frequenz durch zwei Filtergewichte exakt bestimmt,
so dass hier die untere Schranke
des MSE bereits fr N 2:: 2 erreicht wird:
Jmin(N 2:: 2) =
Ein kleiner MSE-Wert bedeutet also lediglich, dass das
System bei den dominierenden Frequenzen des Eingangssignals gut nach
gebildet wurde. Um eine Systemidentifikation mit gleicher Genauigkeit bei
allen Frequenzen zu erreichen, ist deshalb ein Eingangssignal mit mglichst
flachem Spektrum erforderlich.

a;.

l~

:\~r

a;

a;

Zusammengefasst: Fr den Fall N 2:: N h gilt: :!Q0 = lJ., J min =


und der MSE
ist durch (A.9) fr ein weisses und durch (A.ll) fr eine allgemeines Eingangs
signal gegeben. Falls N < N h , entspricht bei einem weissen Eingangssignal :!Q0
den ersten N Werten der Systemimpulsantwort. Der MSE ist durch (A.15) und
Jmin durch (A.16) gegeben. Bei einem allgemeinen Eingangssignal kann :!Q0 von
lJ. verschieden sein, weil das System vor allem bei den dominierenden Frequenzen
des Eingangssignals nachgebildet wird.
Die berlegungen fr den Fall N < N h gelten auch fr IIR-Systemimpulsantwor
ten (Nh -> 00). Weil IIR-Systemimpulsantworten einen zeitlich abklingenden

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

214

Verlauf aufweisen, reicht es in der Praxis aus, nur einen endlichen Abschnitt zu
betrachten.

A.3 ANLEITUNG ZU DEN SIMULATIONEN

215

Signal (R = a;l) gilt

a~,

E{ d'2 [k]}

E{h/,'f[k],'ft[k]l!<}

Aus der Fehlersignalleistung und den daraus abgeleiteten Grssen, dem MSE,
dem berschussfehler Jex und der Fehleinstellung M kann nur bedingt (nmlich
nur bei einem weissen Eingangssignal durch (A.15)) auf die Qualitt der Syste
midentifikation geschlossen werden. Ein geeignetes Mass hierfr ist das System
Fehler-Mass.

bedeutet dies auch, dass: a~,

System-Fehler-Mass:

Daraus folgt mit (A.13) und (A.18) fr den MSE:

WdB = 10 10glO

Iw' - hil2 )
L:;:;\ Ih l2

(A.18)

(A.22)

i=1
=

1.

J -

a~

+ lO~~gB

IWi - H;i2)
IHi l2

(A.23)

Insbesondere gilt bei einer kleinen Messrauschleistung a~


dB):
JdB

WdB(i) = 101og1o

(A.21)

Nh

Aufschlussreich ist auch das System-Fehler-Mass im Frequenzbereich. Es be


schreibt die Genauigkeit der Systemidentifikation bei der i-ten Frequenz:

l!<tRl!<

a; 2: Ih l

Das System-Fehler-Mass (eng!. system error norm) beschreibt - normiert auf die
Energie der Systemimpulsantwort - die Genauigkeit der Systemidentifikation:
""Nh
L...-,-1

WdB

;:::,j

10 log1o

;:::,j

0 fr den MSE (in

(~ IWi - hil2)

(A.24)

(t

(A.25)

Und fr J min (in dB):

(A.19)

J min dB

;:::,j

WdBI!!!=!!!O

101og 1o

Ihil2)

i=N+1

Weil die Echounterdrckung fr a~ = 0 (Sprachpausen des lokalen Sprechers)


bestimmt wird, gilt a~ = d, + a~ = 1 und es folgt somit aus (A.20) und (A.23):

Echounterdrckung ERLE (engl. echo-return loss enhancement)


Bei Anwendung der Systemidentifikation zur Echokompensation (siehe Figur 1.27)
ist das Ausrnass der Echounterdrckung ERLE (eng!. echo-return loss enhance
ment) von Interesse. Die Echounterdrckung ist als Verhltnis der Echoleistung
zur Restecholeistung definiert [1]. Sie kann whrend Sprachpausen des lokalen
Sprechers (Sprecher 2 in Figur 1.27, d.h. n[k] = 0) als Verhltnis der Mikrophon
leistung zur Fehlersignalleistung berechnet werden
2

E{d [k]})

ERLE = 1010glO ( E{e 2 [k]}

= 1010glO

(a~)
J

(A.20)

wobei E{e [k]} = E{ (d[k] - d[k]?}. Ein Wert von ERLE = 30 dB bedeutet
beispielsweise, dass die Echoleistung durch den Einsatz des adaptiven Filters um
30 dB gesunken ist.
Zusammenhang MSE, WdB und ERLE fr weisse Eingangssignale
Bei einem weissen Eingangssignal kann ein einfacher Zusammenhang zwischen
dem MSE und W dB bzw. ERLE angegeben werden. Ohne Verlust der Allge
meinheit nehmen wir an, dass
= 1 und L:;:\ Ihi l2 = 1. Weil fr ein weisses

a;

ERLE = -JdB = -WdB = -1010g 1o

(~IWi -

h il2 )

(A.26)

, Die erzielte Echounterdrckung hngt wie erwartet von der Genauigkeit der Iden
tifikation des Systems (hier der LRMI) ab.

A.3.2

Simulationsbeschreibung

Zur Simulation des unbekannten Systems h gemss Figur A.2 wird einerseits ein
UR-Filter erster Ordnung (in S3 und S4) und anderseits ein FIR-Filter mit 1500
Koeffizienten (in S5), das als LRMI in einem Seminarraum gemessen worden ist,
verwendet.

Als Eingangssignale dienen neben einem weissen Rauschsignal zwei Signaltypen:

Typ A (in S3 und S4):

x[k] =

~[U[k] + ~cos(21l"fnk)]
1 + a~

(A.27)

216

A.3 ANLEITUNG ZU DEN SIMULATIONEN

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

ulk] ist ein weisses Rauschsignal. Durch Addition der Kosinusschwingung kann die

Konditionszahl X(R), entsprechend der Gewichtung durch (J~, vergrssert werden.

Die Leistung des Eingangssignals ist auf (J~ = 1 normiert.

Typ B (in S5):

Da bei vielen Anwendungen Sprachsignale im Mittelpunkt stehen, wird ein Ein

gangssignal verwendet, das ein sprachtypisches Spektrum aufweist, ein sog. auto

regressiver (AR) Prozess 16. Ordnung: x[k] entsteht durch Filterung eines weissen

Rauschsignals ulk] mit einem Allpol-Filter (16 Pole). Es handelt sich hierbei um

das Synthesefilter H(z) aus Figur 1.12, dessen Koeffizienten durch LPC-Analyse

eines Sprachausschnitts (Laut oe', Figur 1.11) ermittelt wurden. Es gilt wiederum

(J~ = 1.

~~.

1ft

l'
~
~;,i

.r;

..

~,}

l.i '

.~~

\.

~'.

,;-,I,

Der Systemausgang d'[k] entsteht durch Filterung von x[k] mit dem Systemfilter
h. Ohne Verlust der Allgemeinheit wird das Systemfilter derart skaliert, dass
(J~, = 1 gilt. Bei einem normierten weissen Eingangssignal bedeutet dies nach
(A.21): L:~l Ih;j2 = 1. In S4 c) wird das Systemfilter nach Filterung des ersten
Viertels von x[k] negiert (!J. ---+ -!J.), um das Nachfhrverhalten ('tracking') der
Algorithmen bei einer Systemnderung zu untersuchen.
Dem Systemausgang d'[k] wird anschliessend ein weisses Messrauschsignal mit
der Leistung (J~ berlagert um das erwnschte Signal d[k] zu erhalten:

d[k]

d'[k] + n[k]

(A.28)

Das System wird nun durch ein adaptives FIR-Filter mit N Gewichten identi
fiziert. Mittels einer Eingabemaske (Figur A.3) knnen wichtige Parameter wie
z.B. N, p" (J~, die Konditionierung des Eingangs u.a. variiert werden und deren
Einfluss auf den entsprechenden Adaptionsalgorithmus beobachtet werden.
In den Simulationen S3 a) und S4 a) wird der Rekursionverlauf verschiedener
Adaptionsalgorithmen auf der Fehlerflche dargestellt (Figur A.8).
Um Ensemblemittelwerte, wie die Lernkurve, den MSE nach Adaptionsende (ke )
J[keJ, den berschussfehler Jex , und die Fehleinstellung M abzuschtzen, werden
jeweils mehrere Realisationen der Adaption durchgefhrt und gemittelt. Weil
das Eingangssignal knstlich erzeugt wurde, ist die Statistik bekannt, so dass
auch die Wiener-Lsung und Jmin berechnet werden kann. J min wird als untere
Schranke der Lernkurve zusammen mit dem MSE nach Adaptionsende J[keJ, der
durch Mittelung der letzten Werte der Lernkurve ermittelt wird, eingezeichnet
(Figur A.4).
Die adaptiven Gewichte werden nach Adaptionsende ke mit der Systemimpulsant
wort und der Wiener-Lsung verglichen und das System-Fehler-Mass W dB nach
(A.18) angegeben (Figur A.5). Die Darstellung der Filter und des System-Fehler
Masses im Frequenzbereich WdB(i) (A.19) soll den Grund der Abhngigkeit des
LMS-Algorithmus von der Konditionierung verdeutlichen: ungleichmssige Kon

\.

'~r:

;;.'1':

'",\,

Figur A.3: Ein- und Ausgabemaske fr 85 (FLM8-Algorithmus)

217

218

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

A.3 ANLEITUNG ZU DEN SIMULATIONEN

Figur A.5: Vergleich der Filter mit der Systemimpulsantwort, System-Fehler-Mass

Figur A.4: Lernkurven, J[keJ, J min , M und ERLE beim LMS- und FLMS- Algorithmus (bei

einem weissen Eingangssignal)

219

t.WdB

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

220

LM5

1500

2000

2500

221

A.3 ANLEITUNG ZU DEN SIMULATIONEN

und WFLMS

3000

3500

4000

Hz
ehler-Mass Im Frequenzbereich

OWdB

CD

:2.

-100 I

500

1000

1500

2000

2500

3000

3500

4000

Hz

Figur A.6: System, Filter und System-Fehler-Mass ~WdB im Frequenzbereich

FigUf@No

ngureN,

., -

11
...,

LMS
E(LMS) (Ensemblem~teQ
Gradient

Newton

Newton-LMS
-RLS

W2

ce
O~

w,
Figur A.7: Zeitliche Entwicklung der deterministischen Autokorrelationsmatrix 'Rk

Figur A.8: Rekursionsverlauf verschiedener Adaptionsalgorithmen auf der Fehlerflche

222

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

vergenzgeschwindigkeiten der Modi (hier Gewichte im Frequenzbereich) bei der


Adaption.
Neben dem zeitlichen Verlauf der Filterkoeffizienten bei der Adaption kann in
S4 b) die zeitliche Entwicklung der deterministischen Autokorrelationsmatrix 'R k
verfolgt werden (Figur A.7), die bei schwacher Stationaritt eine Schtzung der
Autokorrelationsmatrix Rist.

223

A.3 ANLEITUNG ZU DEN SIMULATIONEN

Kommentare zu SI
a,b) Die Eigenwerte sind proportional zur 2. Ableitung der Fehlerfunktion lngs
der Hauptachsen. Bei einer Konditionszahl von X(R) = ~:7: = 1 (bei
in = 0.25) ist die Fehlerflche rotationssymmetrisch. Die Flche nimmt
mit wachsender Konditionszahl die Form einer 'Rinne' an.
c) Zeigerdiagramm von n[k], x[k] und x[k - 1] fr in = ~/f/ l~O (die Zeiger
haben nichts mit den Eigenvektoren zu tun):

SI: Analyse der Fehlerflche


bei einer Sinusschwingung als Eingangssignal

x[k - I]

= cos(. -

~)

= sin(.)
x[k - I] = cos(. -

Thema: Darstellung der Fehlerfiche im Mh :!L- und :!L'-Koordinatensystem, Rolle


der Eigenwerte von R, Konditionierung des Eingangs.

x[k - I] = cos(. -

x[k]

MATLAB-File: siml.m.

Ergnzende Hinweise: README1.ps bzw. README1.pdj

( fn

Diese Simulation bezieht sich auf Aufgabe 3, wo es um die Unterdrckung eines


50 Hz Netzbrummes ging. Es wurden dort Rund E. berechnet:

n[k]

= cos(.)

und E. =

1 (

'2 .

cos(i)
)
cos (27rin + i)

(A.29)

Es soll nun die Fehlerflche im !!!.-, :!L- und 1!.'-Koordinatensystem dargestellt und
der Zusammenhang zu den Eigenwerten von R verdeutlicht werden.

a) Fhren Sie das MATLAB-Skriptfile siml.m aus. Neben einer Darstellung


der Fehlerflche gemss (2.155), (2.157) und (2.160) werden die Schnitt
parabeln lngs der Hauptachsen gezeichnet. Wie ist der Zusammenhang
zwischen den Eigenwerten bzw. der Konditionszahl und der Form der Feh
lerflche? berprfen Sie auch Gleichung (2.154).
b) Da R (in diesem Beispiel) von der normierten Frequenz in = !sl abhngt,
kann die Konditionszahl durch Variation der Abtastfrequenz
verndert
werden. Testen Sie is = 200 Hz und weitere Werte 200 ~ is ~ 2000. Wie
verndert sich die Konditionszahl und die Form der Fehlerflche?

Iss

c) Das Filter schtzt das Signal n[k] = cos (27rink + i) (siehe Aufgabe 3 und
Figur A.l) durch Linearkombination des Referenzsignals zur Zeit k, x[k] =
cos (27rink) und zur Zeit (k -1), x[k -1] = cos (27rin(k - 1)). Zeichnen Sie
n[k], x[k] und x[k - 1] fr unterschiedliche in in einem Zeigerdiagramm auf
und erklren Sie, warum die Konditionierung fr in = ~ am besten ist.

_ l~ x[k]

(fn- .0\

~)
= cos(. + ~)
x[k]

R = ~ . [
1
cos (27r in) ]
1
2
cos (27r in)

~)

n[k]

= cos(.)

l~ x[k]

= cos(.)

(rn - 100)

= cos(. + ~)

= cos(21rfnk)

fo)

n[k]

n[k]

= cos(. +~)

= cos(21rfnk + ~)

x[k - I] = cos(21rfnk - 21rfn)

Der Vektor n[k] ist eine Linearkombination der Vektoren xJk] und x[k - 1]

Das Vektorpaar rechts bentigt dazu grssere Koeffizienten als jenes in der

Mitte. Ideal ist die Linearkombination eines Sinus und eines Kosinus.

Fr die Konditionszahl gilt X(R) = 1, falls Reine Diagonalmatrix ist, d.h.

wenn E{x[k]x[k - I]} = 0 ist. Ein Sinus ist orthogonal zu einem Kosi

nus. Deshalb wird X(R) = 1 erreicht, wenn die Phasenverschiebung nach

dem Verzgerungsglied gerade ~ entspricht, also fr in = ~. Wird nun die

Abtastrate erhht, steigt die Abhngigkeit von x[k] und x[k - 1], und die

Konditionierung verschlechtert sich.

S2: Rang von R bei einer Summe


von K Sinusschwingungen als Eingangssignal
Thema: Eigenwerte und Rang einer positiv semidefiniten Autokorrelationsmatrix.
MATLAB-File: sim2.m.

Ergnzende Hinweise: README2.ps bzw. README2.pdj

Die Autokorrelationsmatrix R ist in der Regel positiv definit. In diesem Fall sind

alle Eigenwerte grsser als null, der Rang von Rist N und R somit invertierbar.

224

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

Ausnahme: Das Eingangssignal besteht aus K Sinusschwingungen unterschiedli


cher Frequenzen. Nach (2.98) ist R positiv semidefinit, falls fr die Dimension
N x N gilt:
(A.30)
2K<N
Das Programm berechnet nach Eingabe von Kund N die N x N Matrix R
des Summensignals von K Sinusschwingungen (K verschiedene Frequenzen). Die
Eigenwerte werden graphisch (der Grsse nach sortiert) dargestellt und der Rang
von R angegeben. (Eigenwerte Ai = 0 werden in Rot eingezeichnet.)
a) Betrachten Sie zunchst nur eine Frequenz (K = 1) fr N = 2,3, .... Wie
entwickeln sich die Eigenwerte und der Rang von R? Wann ist R singulr?
b) Variieren Sie nun K = 1,2, ... fr N = 20. Wie verndern sich die Eigen
werte und der Rang mit jeder neu hinzukommenden Frequenz?

Kommentare zu 82
a) Entsprechend (A.30) ist R bei einer Frequenz ab N = 3 positiv semidefinit.
Nur zwei Eigenwerte sind von Null verschieden.
b) Mit jeder neu hinzukommenden Frequenz erhht sich die Anzahl der Ei
genwerte, die nicht null sind, um zwei (entsprechend auch der Rang von
R). R hat vollen Rang N, wenn 2K :2: N. Dann ist R positiv definit und
invertierbar, und es existiert eine eindeutige Wiener-Lsung 1Q.0 = R -Ip.
Da das Wiener-Filter im Frequenzbereich durch Amplitude und Phase bei
jeder Frequenz gegeben ist, sind pro Frequenz nur zwei Parameter festzule
gen. Werden mehr als zwei Parameter pro Frequenz zur Verfgung gestellt
(N > 2K), existieren Freiheitsgrade, was sich in einer singulren Autokor
relationsmatrix ausdrckt.
In der Praxis besteht ein Eingangsignal nicht aus einer endlichen Summe
von Sinusschwingungen (kein Linienspektrum), so dass i.Allg. 2K > N, R
positiv definit ist und alle Eigenwerte von Null verschieden sind. Jedoch
kann die Konditionierung ungnstig sein (grosser Wertebereich der Eigen
werte).

225

A.3 ANLEITUNG ZU DEN SIMULATIONEN

83: LM8-Algorithmus

r
.j'

.<

Thema:
S3 a) Verlauf der Rekursion des Newton-, Gradienten- Verfahrens und des LMB
Algorithmus auf der Fehlerflche, abhngig von der Konditionierung X(R).
S3 b) LMB-Algorithmus: Lernkurve, MBE, J min , Einfluss von p" N, X(R) und a~.
MATLAB-Files: sim3a.m, sim3b.m.

Ergnzende Hinweise: README3.ps bzw. README3.pdf

83 a)

Systemimpulsantwort: FIR, N h = 2.

Adaptives Filter: FIR, N = 2 (zur 3D Darstellung der Fehlerflche).

Eingangssignal: Typ A, Konditionierung X(R) variabel.

Algorithmen: Newton-, Gradienten-Verfahren und LMS-Algorithmus.

1. Betrachten Sie den Rekursionsverlauf auf der Fehlerflche bei unterschiedli


cher Konditionierung X(R) (Variation des Kosinus-Anteils ac in x[k]). Wes
halb ist der Rekursionsverlauf beim Newton-Verfahren im Gegensatz zum
Gradienten-Verfahren und LMS-Algorithmus unabhngig von X(R)? Was
kann ber die LMS-Konvergenz im Ensemblemittel gesagt werden?

2. Setzen Sie ac = O. Welchen Einfluss haben p, und a~ auf die LMS-Lernkurve?


berprfen Sie die Beziehung fr J min (A.16) (hier ist N h = N = 2). Wie
gross ist der MSE nach Adaptionsende J[keJ?

83 b)

Systemimpulsantwort: UR erster Ordnung.

Adaptives Filter: FIR, N variabel.

Eingangssignal: Typ A, Konditionierung X(R) variabel.

Algorithmen: LMS-Algorithmus.

1. Welchen Einfluss hat die Schrittweite p, auf Jmin und J[keJ (Eingabe: Liste
fr p" ein Wert fr N)? Wann wird der Algorithmus instabil? Vergleichen
Sie mit der oberen Grenze P,max2 nach (6.21) (hier:
= 1).

a;

2. Welchen Einfluss hat die Filterordnung (N -1) auf J min und J[keJ (Eingabe:
Liste fr N, ein Wert fr p,)? Vergleichen Sie mit (A.15) und (A.16). Was
ist also bei der Wahl von N zu bercksichtigen?
3. Vergleichen Sie fr einen weissen Eingang die Systemimpulsantwort mit den
Gewichten des adaptiven Filters fr variierende N. Wie entwickelt sich das
System-Fehler-Mass ~B (Vergleich mit (A.18))? Welchen Einfluss hat das
Messrauschen a~ auf den Wert des LMS System-Fehler-Masses?

226

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

A.3 ANLEITUNG ZU DEN SIMULATIONEN

3. Die deterministische Autokorrelationsmatrix R k ist bei schwacher Stationa


ritt eine Schtzung von R (4.88). Verfolgen Sie die zeitliche Entwicklung
von R k fr ein weisses und ein farbiges Eingangssignal.

4. Wie vergleichen sich die Filtergewichte und die Wiener-Lsung mit der Sy
stemimpulsantwort bei einem farbigen Eingangssignal? Wieso erreicht der
MSE trotz der Abweichung von der Systemimpulsantwort einen relativ klei
nen Wert?

..

t'
:\

S4: RLS- und LMS-Algorithmus

227

.i{t
,-Aj~',

84 c)

Systemimpulsantwort: UR erster Ordnung, Systemnderung II ----> -ll bei k e /4.

Adaptives Filter: FIR, N variabel.


Eingangssignal: Typ A, Konditionierung X(R) variabel.

Algorithmen: RLS-Algorithmus mit Vergessensfaktor p und LMS-Algorithmus.

Thema:

S4 a) Verlauf der Rekursion des Newton-LMS-, LMS- und RLS-Algorithmus auf

der Fehlerfiche abhngig von der Konditionierung X(R).

1. Betrachten Sie das Nachfhrverhalten des RLS-Algorithmus bei Variation


S4 b) RLS-Algorithmus: Unabhngigkeit von der Konditionierung X(R), Vergleich

des Vergessensfaktors p. Vergleichen Sie jeweils das Einschwingverhalten zu


mit LMS-Algorithmus, Lernkurve, MSE, Jmin , Fehleinstellung M, W dB , deter

Beginn der Adaption und nach der Systemnderung bei k e /4. Vergleichen
ministische Autokorrelationsmatrix Rk.

Sie auch mit dem LMS-Algorithmus.


S4 c) RLS-Algorithmus mit Vergessensfaktor p: Nachfhrverhalten bei einer Sy

stemnderung ('tracking'), Lernkurven, MSE, Fehleinstellung M, W dB

2. Inwieweit geht das verbesserte Nachfhrverhalten des RLS-Algorithmus mit


p< 1 auf Kosten der Genauigkeit (M, J[keJ und W dB , Variation von p bei
MATLAB-Files: sim4a.m, sim4b.m, sim4c.m.

fixem
System)? Vergleichen Sie mit (6.31).
Ergnzende Hinweise: README4.ps bzw. README4.pdf

84 a)

Systemimpulsantwort: FIR, N h = 2.

Adaptives Filter: FIR, N = 2.

Eingangssignal: Typ A, Konditionierung X(R) variabel.

Algorithmen: RLS-, Newton-LMS- und LMS-Algorithmus.

1. Betrachten Sie den Rekursionsverlauf auf der Fehlerflche und die Konver
genzzeiten der Algorithmen bei unterschiedlicher Konditionierung X(R).
Was bewirkt die Vormultiplikation mit der Inversen der Autokorrelations
matrix beim RLS- und Newton-LMS-Algorithmus in (4.55) und (3.188)?

84 b)
Systemimpulsantwort: UR erster Ordnung.

Adaptives Filter: FIR, N variabel.

Eingangssignal: Typ A, Konditionierung X(R) variabel.

Algorithmen: RLS- und LMS-Algorithmus.

1. Vergleichen Sie den RLS- und den LMS-Algorithmus bezglich Konvergenz


geschwindigkeit, J[keJ, Fehleinstellung Mund WdB (bei einer Variation von
X(R), N und a~).
2. Wieviele Iterationen (abhngig von N) bentigt der RLS-Algorithmus bis
die Gewichte eingeschwungen sind? Betrachten Sie auch den Fall a~ ~ 0
(a~ = -200 dB).

S5: FLMS- und LMS-Algorithmus

Thema:
Echokompensation durch den FLMS-Algorithmus. Unabhngigkeit von der Kon
ditionierung X(R). Vergleich mit LMS-Algorithmus, Rechenaufwand/-zeit, Lern
kurve, MSE, J min, Fehleinstellung M, Filter und System-Fehler- M ass im Zeit
und Frequenzbereich, Beschleunigung langsamer Modi durch die frequenzabhngi
ge Schrittweite beim FLMS-Algorithmus, erzielte Echounterdrckung ERLE.
MATLAB-File: sim5.m.

Ergnzende Hinweise: README5.ps bzw. README5.pdj.

Systemimpulsantwort: erste 1500 Werte einer UR Raumimpulsantwort (LRMI),

gemessen in einem Seminarraum.

Adaptives Filter: FIR, N variabel.

Eingangssignal: weiss oder Typ B, AR-Prozess 16. Ordnung, charakteristisch fr

Sprache.

Algorithmen: FLMS- und LMS-Algorithmus.

Diese Simulation bezieht sich auf die in Abschnitt 1.3.7 beschriebene und in

Figur 1.27 dargestellte Anwendung eines adaptiven Filters zur Unterdrckung

des akustischen Echos bei einer Freisprecheinrichtung. Die hier verwendete FIR

Systemimpulsantwort von 1500 Koeffizienten stammt von einer Messung der LR

MI eines kleinen Seminarraumes. Als realittsnahes Eingangssignal (mit einem

sprachtypischen Spektrum) dient ein AR-Prozess 16. Ordnung, dessen Parameter

228

A AUFGABEN UND ANLEITUNG ZU DEN SIMULATIONEN

durch LPC-Analyse (Abschnitt 1.3.3) eines Sprachausschnitts (Laut 'e') gewon


nen wurden.
1. Vergleichen Sie den FLMS- und den LMS-Algorithmus zunchst fr ein

weisses Eingangssignal. Whlen Sie dabei die Parameter N, L und C derart,


dass die Overlap-Save-Bedingung C 2: N + L - I erfllt ist und beide
Algorithmen die gleiche Anzahl freier Filtergewichte3 erhalten: N FLMS =
N LMS . Die Wahl von L und C bei vorgegebenen N kann auf Wunsch auch
automatisch erfolgen.

tf.';

t:

B Die lineare
und die zyklische Faltung

.L"'"!,.

'I';

~i

2. Wieviele Gewichte N sind erforderlich, wenn die Echounterdrckung min


destens ERLE = 30 dB betragen soll?
3. Wie sieht der LMS-FLMS Vergleich unter der realistischeren Annahme aus,

Bekanntlich kann die Faltung langer Sequenzen effizienter im Frequenzbereich


durchgefhrt werden, indem die Sequenzen DFT-transformiert werden, element
weise multipliziert und dann wieder rcktransformiert werden 1. Allerdings ent
spricht diese Vorgehensweise einer zyklischen Faltung. Im Allgemeinen ist die
lineare und die zyklische Faltung nicht identisch. Wie hier graphisch verdeutlicht
werden soll, entspricht jedoch ein Teil der zyklischen Faltung der linearen Fal
tung, wenn mindestens eine der Sequenzen am Ende Elemente aufweist, die Null
sind. Mit dem sog. Overlap-Save-Verfahren, das ber die DFT recheneffizient eine
lineare Faltung berechnet, findet diese Tatsache Anwendung.

In den Figuren verwenden wir die folgenden Muster fr die verschiedenen Blcke:

dass ein Eingangssignal mit einem sprachtypischen Spektrum (AR-Prozess)


anliegt? Betrachten Sie die Filter und das System-Fehler-Mass b.WdB(i)
. im Frequenzbereich, um die verlangsamte LMS-Konvergenz zu erklren.
Vergleichen Sie dazu die langsamen Modi (Frequenzen mit
b.WdB(i) ~ 0 dB) mit dem Leistungsdichtespektrum des Eingangssignals.

4. Beachten Sie auch das Verhltnis des Rechenaufwandes der beiden Algo
rithmen.

I
I

I
'fi"I..
Co,,":i'jt~:~
-s:

~h'2

Nullen

Da t en

unbrauchbarer Anteil der zyklischen Faltung

Die (diskrete) lineare Faltung der Sequenzen x[n] und w[n] ist wie folgt definiert:
00

~I

y[n]

2:

x[i] w[n - i]

(B.I)

i=-oo

Als Abkrzung dieser Faltungssumme wird die Notation

y[n] = x[n] * w[n]

(B.2)

verwendet. 2
Nun nehmen wir an, dass die Sequenzen x[n] und w[n] nur in einem Bereich der
Lnge C (C ist die DFT-Lnge) Werte aufweisen, die von Null verschieden sind,
3Der FLMS-Algorithmus besitzt N FLMS

=C

- L

+ 1 freie

Gewichte (5.36).

Isiehe z.B. [16].

2Eine weitere Notation ist: y[nJ = (x

* w)[nJ.

'il

B DIE LINEARE UND DIE ZYKLISCHE FALTUNG

230

B DIE LINEARE UND DIE ZYKLISCHE FALTUNG

Die zyklische Faltung (gezeichnet fr den Fall n = 0):

und wir die Faltung y[n] nur fr eine Verschiebung n im Bereich von 0 S; n S; C-1
berechnen wollen:
~r..

0-1

y[n] =

231

L xli] . w[n -

i]

0S;nS;C-1

(B.3)

.",:~"oI-'.

;=0

Diese Situation kann wie folgt graphisch dargestellt werden:

Y[n]

Sequenzen x[n] und w[n]:

C-N+l

x[n]
w[n]

_
Es ist sofort ersichtlich, dass die lineare und die zyklische Faltung fr diejenigen
Werte von n identisch sind, fr welche w[n - i mod Cl bei der zyklischen Faltung
'ungeteilt' vorliegt, d.h. es gilt:

Ilu
__ u_
I
========~L:":::"":''~',L_---rrc
_ 1
o

y[n] = y[n]

u_ _ u_ _ _- I

<-. \
......}
.'t.

C-1

1]-Ru u . ': "

=========

xli]

w[n-i]

u u u -u tt

---------

q: =======

um n _:I
_ _ _ _ _ -Verschiebung
______

:~
I

,-:<~

".\';

y[n]

. I I: u-------u -
I

C-1

Im Vergleich dazu die zyklische Faltung (Bezeichnung ):


0-1

Y[n]

Lx[ij. w [(n i) mod

Cl

0S;nS;C-1

(BA)

;=0

Y[n]

x[n] w[n]

OS;nS;C-l

N - 1 S; n < C

(B.6)

Es stimmen also die letzten (C - N + 1) Werte der zyklischen Faltung Y[n] mit der
linearen Faltung y[n] berein. Diese Werte werden beim Overlap-Save-Verfahren
weiterverwendet, um blockweise eine lineare Faltung zusammenzusetzen.

Lineare Faltung (gezeichnet fr den Fall n = 0):

fr

(B.5)

C Berechnung des Gradienten


.
von Vektor-Matrix-Gleichungen

:'

,.
~.;

In diesem Abschnitt wird erklrt, wie der Gradient einer Vektor-Matrix-Gleichung


berechnet wird. Ferner wird die bilineare und quadratische Form erlutert.
1. Der Gradient einer skalaren Funktion g(Yl.) eines N x 1 Vektors Yl. ist
wiederum ein N x 1 Vektor (der Gradientenvektor):

og og

\7Yl.

(C.I)

{g(Yl.)} = [OW1' OW2"" , OWN ]

Er gibt die Ableitung einer skalaren Funktion nach einem Vektor an.
2. Das Skalarprodukt zweier Vektoren 1! und 11. (beide N xI) ist definiert 1
als:
N

(1!,y')

UiVi

= UIVI + U2 V 2 + ... + UNVN =

(C.2)

i=l

Es gilt also:
(1!,y')

!.

,
\'

= 1!t Y. = Y.t1! =

(Y.,1!)

(C.3)

=9

Das Skalarprodukt ergibt eine skalare Grsse, also kann auch dessen Gra
dient berechnet werden.
3. Der Gradient eines Skalarproduktes zweier Vektoren 1! und 11. nach
einem der Vektoren ergibt den anderen Vektor, also:

\7y'g
1 Wir

r~~i"
J"

\7Y,{1! Y.}

= 1!;

\71!g

setzen hier jeweils reelle Vektoren voraus.

.~ ~

/..:Jll-.

-:. i

(.,{~

(Jz

.,
l./

\71! {Y. 1!}

= 1!.

(CA)

C GRADIENTEN VON VEKTOR-MATRIX-GLEICHUNGEN

234

Beispiel: 1f = [Ul' U2]t , 1L = [VI, v21 t :


\71L g

Eingesetzt in (C.8) erhalten wir die Produktregel fr den Gradienten:

= \71L{1ft1L} = \71L{UlVl + u2 vd = [

~ ] = [ ~: ] = 1f

\71Y. {g}

4. Der Gradient eines Vektor-Matrix Produktes der Form 1Y.tR nach 1Y.
ergibt die Matrix R, wobei 1Y. von der Dimension N x 1 und R von der
Dimension N x N ist, also:

I\7", {",'R} ~ R I
Beispiel:

[~ ~]

(C.5)

= [aWl

\71Y. {1f t (1Y.)} 1L(1Y.)

= ;ft AJ!. = (;f,

\71Y. {1Y.tR }

8(bwl +dW2)]

8(a~CW2) 8(~'tldw2)
8W2

b]
d

[Wl' W2] :
t

\71Y. {1Y. } =

[ ~~] 8W l

8wl

8W2

8W2

[10]
0 1

9 = 1ft (1Y.)1L(1Y.) = 1Lt (1Y.)1f(1Y.)

(C.7)

erhalten wir:

[Xl,

X2,"" xn]t, Y

(C.12)

anl an 2 ... a nn

(C.13)

LLaijXiYj
i=l j=l

al1 XlYl + a12 XlY2 + ... + alnxlYn


+ a2l X2Yl + a22 X2Y2 + ... + a2n X2Yn

A wird als Koeffizientenmatrix der bilinearen Form B bezeichnet. Ist ;f = Y, so


erhalten wir die sogenannte quadratische Form Q der Variablen Xl, X2,"'~ Xn ,
also:
Q = ;ft A;f = (;f, A;f)
(C.14)
Ausgeschrieben ergibt sich fr Q:
n

+ 1ft (1Y.)\7 -w {1L(1Y.)}

(C.8)

Q = L L aijXiXj

(C.15)

i=l j=l

Weil wir aber nur sinnvoll den Gradienten eines Vektors in seiner transpo
nierten Form berechnen knnen, mssen wir den zweiten Term in (C.8) um
formen. Weil dieser wiederum ein Skalarprodukt darstellt, gilt nach (C.3):
ll(uL)\71Y. {1L(1Y.)} = \71Y. {1Lt (1Y.)} 1f(1Y.)

+ ...
+ anlXnYl + an2XnY2 + ... + annxnYn

5. Gegeben sei das Skalarprodukt 9 zweier Vektoren 1f(1Y.) und 1L(1Y.) , die beide
von einem dritten Vektor 1Y. abhngen. Um den Gradienten von 9 bezglich
1Y. zu berechnen, mssen wir die bekannte Produktregel anwenden. Mit

\7-w {g} = \7-w {1f t (1Y.)1L(1Y.)} = \7-w {1f t (1Y.)} 1L(1Y.)

;f

Ausgeschrieben erhlt man fr B:

0;

(C.11)

=R

8W2

Folglich ergibt der Gradient eines transponierten Vektors 1Y.t nach 1Y. die
Einheitsmatrix:
ow t
t
\71Y. {1Y. } =
= \71Y. {1Y.tI } = I
(C.6)
Beispiel: 1Y.t

AJ!.)

eine bilineare Form der Variablen Xi und Yi, wobei


[Yl' Y2,' .. , Yn]t und
all a12
n
al
]
a22
a2n
A =
a~l

+ CW2, lrw l + dW2]

(C.lO)

Man nennt das Skalarprodukt

[
8(awl + CW 2)

+ \71Y. {1Lt (1Y.)} 1f(1Y.)

Bilineare und Quadratische Form

[~ ~]

1Y. = [Wl' W2]t , R =

1Y.tR = [Wl, w21

235

C GRADIENTEN VON VEKTOR-MATlliX-GLEICHUNGEN

(C.9)

Fr (i =1= j) haben alle Koeffizienten der Terme XiXj die Form (aij + aji). Wir
ndern den Wert von Q nicht, wenn wir fr (i =1= j) sowohl aij wie auch aji als
~(aij + aji) annehmen. So wird die Koeffizientenmatrix A symmetrisch. Ohne
Einschrnkung der Allgemeinheit kann man also die Matrix Asymmetrisch

236

C GRADIENTEN VON VEKTOR-MATRIX-GLEICHUNGEN


,,"

annehmen. Ist brigens a:j = aji, dann ist die sogenannte Hermitesche Form
H gegeben als:
n

H = J2 AJ2 =

L L aijX;Xj = (J2, AJ2) ,

mit a;j = aji

(C.16)

i=l j=l

,.

Literaturverzeichnis

Als Beispiel zur quadratischen Form gehen wir aus von:


Q=

xi + x~ + x5 + 2XIX2 + 4X2X3 + 6X3Xl


[1] C. Breining, P. Dreiseitel, and E. Haensler. Acoustic Echo Control. IEEE
Signal Processing Magazine, July 1999.

Unter Ausntzung, dass die Koeffizienten der quadratischen Terme in der Dia
gonalen liegen und die brigen Koeffizienten via die Form ~(aij + aji) zu einer
symmetrischen A-Matrix zu ergnzen sind, knnen wir Q direkt in die Form
(C.14) bringen:
Q = [Xl,X2,X3]

[2] P. M. Clarkson. Optimal and Adaptive Signal Processing. CRC Press, 1993.

[113] [Xl]
1 1 2
3 2 1

[3] J. R. Deller, J. G. Proakis, and J.H. Hansen. Discrete-Time Processing of


Speech Signals. Prentice-Hall, 1993.

X2
X3

[4] P. G. Estermann. Adaptive Filter im Frequenzbereich: Analyse und Entwurfs


strategie. PhD thesis, ETH Zrich, 1997.

Mit (2.47) kann der Gradient der quadratischen Form angegeben werden. Zusam
men mit (C.14) folgt:
(C.17)
'VJ2{Q} = 2AJ2

[5] E. R. Ferrara, Frequency-domain adaptive filtering. In C.F.N. Cowan and


P.M. Grant, editors, Adaptive Filters, pages 145-179. Prentice-Hall, 1985.

Fr das obige Beispiel ergibt sich somit:

'VJ2{Q}

= [

m]
8X 3

[6] G. O. Glentis, K. Berberidis, and S. Theodoridis. Efficient least squares


adaptive algorithms for FIR transversal filtering: a unified view. IEEE Signal
Processing Magazine, July 1999.

2Xl + 2X2 + 6X3 ]


2Xl + 2X2 + 4X3

[ 6Xl
+ 4X2 + 2X3

[7] L. Griffiths. A simple adaptive algorithm for real-time processing in antenna


arrays. Proc. IEEE, 57:1696-1704, October 1969.
[8] L. Griffiths and C. Jim. An alternative approach to linear constrained opti
mum beamforming. IEEE Trans. on Antennas and Propagation, 30:27-34,
January 1982.
[9] S. Haykin. Adaptive Filter Theory. Prentice Hall, 3rd edition, 1996.
'i

[10] S. Haykin, editor. Unsupervised Adaptive Filtering, Volume I, Blind Source


Separation. John Wiley & Sons, 2000.

[11] S. Haykin, editor. Unsupervised Adaptive Filtering, Volume II, Blind Decon
volution. John Wiley & Sons, 2000.

[12] M. Joho and G. S. Moschytz. Connecting partitioned frequency-domain


filters in parallel or in cascade. IEEE Transactions on Circuits and Systems
lI, accepted August 2000.

238

LITERATURVERZEICHNIS

[13] R. E. KaIman. A New Approach to Linear Filtering and Prediction Problems.


Trans. 0/ the ASME - Journal 0/ Basic Engineering, March 1960.

Index

",

[14] K. Kroschel. Statistische Nachrichtentheorie. Springer, 3rd edition, 1996.


[15] O. Macchi. Adaptive Processing. John Wiley & Sons, 1995.
[16] A. V. Oppenheim and R. W. Schafer.
Prentice Hall, 2nd edition, 1999.

Discrete-Time Signal Processing.


A

[17] A. V. Oppenheim and R. W. Schafer. Zeitdiskrete-Signalverarbeitung. 01


aposteriori-Fehler, 138

denbourg, 3rd edition, 1999.


apriori

[18] A. Papoulis. Probability, Random Variables, and Stochastic Processes.


McGraw-Hill, 3rd edition, 1991.
[19] J. G. Proakis. Digital Communications. McGraw-Hill, 3rd edition, 1995.
[20] P. C. W. Sommen. Partitioned frequency domain adaptive filters. In Proc.

Asilomar Con/erence on Signals, Systems, and Computers, pages 676-681,

Pacific Grove, CA, November 1989.

[21] M. M. Sondhi and D. A. Berkley. Silencing echoes on the telephone network.


Proc. IEEE, 68(8):948-63, August 1980.
[22] J. Soo and K. Pang. A new structure for block FIR adaptive digital filters.
in Proc. IREECON, 38:364-367, 1987.
[23] J. R. Treichler, C. R. Johnson, and M. G. Larimore. Theory and Design
Adaptive Filters. John Wiley & Sons, 1987.

0/

[24] B. Widrow andM. E. Hoff. Adaptive switching circuits. IRE Wescon Conv.

Rec. Part 4, pages 96-104, 1960.

[25] B. Widrow and S. D. Stearns. Adaptive Signal Processing. Prentice Hall,


1985.

".'

-Ausgangswert, 136

-Fehler, 136, 137

Abtastinvervall, 4

Abtastrate, 29, 223

Abtasttheorem, 4

Abtastung, 4

Abweichungsvektor, 56

AD-Wandlung, 5

Adaptionsalgorithmen

blinde -,2
Block-LMS, siehe Block-LMSAlgorithmus

'Fast'-LMS-Algorithmus, 166

'Fast'-RLS-Algorithmus, 154

FLMS, siehe FLMS-Algorithmus

Frequenzbereichs-, siehe Frequenz


bereichsalgorithmen
Gradienten-Suchalgorithmen, siehe
Gradienten-Suchalgorithmen
Gradienten-Verfahren, siehe
Gradienten-Verfahren

Klassifikation, 189

Leistungskriterien, 5

LMS, siehe LMS-Algorithmus

Newton-LMS, siehe Newton-LMS-

Algorithmus
Newton-Verfahren, siehe NewtonVerfahren

PFLMS, siehe PFLMS-Algorithmus

RLS, siehe RLS-Algorithmus

self-orthogonalizing, 123, 150, 172,

189

stochastic gradient, 78, 189

Adaptive Differentielle 'Pulse-Code

Modulation' (ADPCM), 18

adaptive Echokompensation, siehe


Echokompensation
adaptive Filter
Algorithmus, siehe Adaptionsalg0
rithmen

Anwendungen, siehe Anwendungen

Filterstrukturen, 38

- im Frequenzbereich, siehe

Frequenzbereichsalgorithmen
Linearitt, 2

adaptive noise cancellation (ANC), 10

adaptive Strgeruschunterdrckung, 10

Algorithmus, siehe Adaptions


algorithmen
Allpass
idealer -, 23

Allpol-Filter, 16, 39, 152, 216

Analysefilter, 15

Anregungssignal, 16

Anwendungen

Beispiele, 10

Klassifizierung

Elimination von Strungen, 10

Inverse ModelIierung, 9

Lineare Prdiktion, 9

Systemidentifikation, 8

Klassifizierung der -, 8

Anzahl reeller Multiplikationen, siehe

Rechenaufwand

Aufstartphase, 149, 187, 189

Augendiagramm, 24

Ausgangssignal, 40

Autokorrelationsfunktion, 32

Autokorrelationsmatrix, 6

Definition, 43

deterministische -, 130

als Schtzung der -, 146

Eigenschaften, 44

240

INDEX

INDEX

Eigenvektoren, 61

Eigenwerte, 61, 223

positiv definite -, 45

positiv semidefinite -, 45, 60

Rang, 223

Autokovarianz

-funktion, 33

-matrix des Abweichungsvektors, 107

autoregressiver (AR) Prozess, 152, 176,

189,216

Basis, orthonormale, 64

Beamformer, 12, 198

Block

-index, 158

-lnge, 84

-raster, 164

-verarbeitung, 158

-verschiebung, 159

Block-LMS-Algorithmus, 84, 189

bounded-input bounded-output (BIBO) ,

208

charakteristische Gleichung, 62

D
Daten

-rate, 18

-reduktion, 18, 19

Datenbertragung, 21

definit, siehe Matrix

Dekoder,18

Dekorrelation des Eingangssignals

beim FLMS-Algorithmus, 158

beim Newton-LMS-Algorithmus, 122

beim RLS-Algorithmus, 150

durch die DFT, 166

durch die KLT, 73

desired signal, 41

deterministische

- Autokorrelationsmatrix, 130

- Fehlerfunktion, 129

deterministischer Kreuzkorrelationsvek

tor, 131

Diagonalisierung der Autokorrelations

matrix

Elimination von Strungen, siehe An


wendungen

Ellipsen, konzentrische, 69

Empfangsfilter, 25

Enkoder, 18

Ensemble, 30

Ensemblemittelwert, 32

- geschtzt durch zeitliche Mittelung,


34, 146

Entzerrung, 21

Enveloppe, 16

Ergodizitt, 34

ERLE: echo-return loss enhancement, 214

error performance surface, siehe Fehler


flche

erwnschtes ('desired') Signal, 41

Erwartungswert, 32

excess mean-squared error, siehe ber

schussfehler

exponentielle Datengewichtung, 142

- durch die DFT, 167

- durch die KLT, 74

unitre hnlichkeitstransformation,

65

Dichtefunktion, 31

Differenzfilter, 58

Digitaler Signal-Prozessor DSP, 5

Diskrete Fourier-Transformation (DFT),

157, 159

Dekorrelationseigenschaft der -, 166

-Koeffizienten, 159

-Lnge, 158

-Matrix, 159

Vergleich mit KLT, 170

'doubletalk'-Phase, 27

E
Echokompensation, 25, 227

akustisches Echo, 28

- bei Freisprecheinrichtungen, 28

elektrisches Echo, 25

ERLE, siehe ERLE

LRMI, siehe LRMI

Restecholeistung, 214

Echtzeitsystem, 5, 176

Egalisation, 19

Eigenvektoren der Autokorrelations

matrix

Eigenschaften der -, 61

Eigenvektoren der Autokorrelationsma

trix

- als orthonormale Basis, 64

Eigenwerte der Autokorrelationsmatrix

Eigenschaften der -, 61

eigenvalue spread, 73

Konditionszahl, 73

Eingangssignal
- mit positiv semidefiniter Autokor
relationsmatrix, 60

-leistung, 98

-vektor

Definition, 40

Transformation, 74

farbiges -, 152, 174, 189, 210

weisses -,60, 103, 119, 152, 174, 189,

210

,.

':1'

F
Faltung

lineare -, 160, 229

zyklische -, 160, 229

farbiges Rauschen, siehe Rauschen


'Fast'-Fourier-Transformation (FFT),
158, 173

'Fast'-LMS-Algorithmus, 166

'Fast'-RLS-Algorithmus, 154

FehleinsteIlung, 5, 111, 113

LMS-,115
siehe auch jeweilige Algorithmen

Fehlerflche, 46

Fehlerfunktion

Definition, 42

deterministische, 129

Minimierung der -,46

Fehlersignal, 41

Filter

Impulsantwort

FIR: Finite Impulse Response, 38

HR: Infinite Impulse Response, 38

kausale -, 38, 208, 211

Notch-, 12

Nullstellen, 38

-ordnung, 38

241
Pole, 38

Stabilitt, 39

-strukturen, 38

Filterkoeffizienten, 38

optimale -, 49

Finite Impulse Response (FIR), siehe

Filter

FLMS-Algorithmus, 164, 189

constrained, 166

Dekorrelationseigenschaft des -, 166

FehleinsteIlung, 173

Herleitung, 158

Konvergenz

-Verhalten, 172, 176, 189

-zeit, 166, 176, 189

Lernkurve, 176, 189

Nachfhrverhalten, 191

Notation, 158

Parameter des -, 159, 172

partitionierter -, siehe PFLMS-

Algorithmus

Rechenaufwand, 173

Rekursionsschema, 164

Schrittweite

frequenzabhngige -, 163

Skalierung der -, 163

Simulation, 174, 189,210

berschussfehler, 176

unconstrained, 166

Vergleich mit RLS- und LMS

Algorithmus, 189

Zusammenfassung, 188

Fluktuation der Filtergewichte, 111

forgetting factor, siehe Vergessensfaktor

Formanten, 16

Freiheitsgrade, 60

Freisprecheinrichtung, 28

Frequency-Domain-LMS-Algorithmus,

siehe FLMS-Algorithmus
Frequenzbereichsalgorithmen, 157

FLMS, siehe FLMS-Algorithmus

PFLMS, siehe PFLMS-Algorithmus

fundamentale Annahmen, 93

Gtemass, 37

Gabelschaltung

INDEX

INDEX

242

aktive -,26
passive -, 26

Gedchtnis, 142

Gewichtsvektor

Definition, 40

optimaler -, 49

Transformation des -, 66

Gradient, 49

approximierter -, 83

einer Vektor-Matrix-Gleichung, 233

Momentan-, 84

Gradienten-Suchalgorithmen fr

FIR-Filter, 77, 184, 189

stochastic gradient, 189

Gradienten-Verfahren, 79, 189

Herleitung, 79

Konvergenz

-Analyse, 88

-Bedingung, 98

-Verhalten, 88

-zeitkonstante, 103, 106

Lernkurve, 104, 113

Schrittweite, 79

obere Grenze der -, 98

Gradientenrauschvektor, 106

Griffiths-Algorithmus, siehe

P-Vektor-Algorithmus
H
Hauptachsen, 70, 72

-koordinaten, 72, 101, 108, 113

hermitesch, 44

Hess'sche Matrix, 47

Impulsantwort, siehe Filter


Infinite Impulse Response (UR),
siehe Filter

intersymbol interference (ISI), 23

Inverse ModelIierung,

siehe Anwendungen

J
J, siehe MSE
Jex , siehe berschussfehler
K

Kaiman-Filter, 3

Kammfilter, 59

Kanal, nichtidealer, 21

Karhunen-Loeve-Transformation (KLT),

74

Dekorrelationseigenschaft der -, 74

Vergleich mit DFT, 170

kausal, siehe Filter


Klassifikation

- der Adaptionsalgorithmen, 189

- der Anwendungen, 8

komplexer LMS-Algorithmus, 120, 189

Konditionierung

- des Eingangssignals, 73

Konditionszahl, 73

schlechte -, 73

Unabhngigkeit von der -, 75

Zusammenhang Spektrum und -, 73

Konditionszahl, 73

Konvergenzeigenschaften, siehe jeweili

ge Algorithmen

Konvergenzzeit, 5

- der Filterkoeffizienten, 103

- der Lernkurve, 105

siehe auch jeweilige Algorithmen

Koordinaten

Hauptachsen-, 72

-transformation, 75

Korrelations

-funktion, 32

-matrix, siehe Autokorrelationsma


trix
Kovarianz

-funktion, 32

-matrix, siehe Autokovarianzmatrix

Kreuzkorrelationsfunktion, 33

Kreuzkorrelationsvektor

Definition, 43

deterministischer -, 131

Kreuzkovarianzfunktion, 33

Least-Mean-Square-Algorithmus, siehe
LMS-Algorithmus
Least-Squares-Verfahren, 127, 189

deterministische Fehlerfunktion, 129

deterministische Wiener

Hopf-Gleichung, 132

243

Recursive Least-Squares-Algorithmus,
siehe RLS-Algorithmus
Lernen

berwachtes, 'supervised', 1

nicht berwachtes, 'unsupervised'

~.

'l.

.~.

~.

.\1.

'.

, .

Lernkurve, 103

siehe auch jeweilige Algorithmen

Linear Predictive Coding, siehe LPC-

Analyse

lineare Faltung, 160, 229

lineare optimale Filterung, 3, 6, 41, 46

lineare Prdiktion, siehe Anwendungen


Linienspektrum, 59

LMS-Algorithmus, 85, 189

'Fast'-, 166

komplexer -, 120

normierter (NLMS), 119, 189

Varianten des -, 119, 189

Block-,84

FehleinsteIlung, 115

Herleitung, 82

Konvergenz

-Analyse, 92

-Bedingung, 98

- 'im Mittel', 92

-Verh&ten, 92, 116, 117, 189

-zeitkonstante, 103, 106

Lernkurve, 104, 113, 118, 189

Momentangradient, 84

Nachfhrverhalten, 191

Newton-, 121

RechenauBwand, 86

Rekursionsschema, 85

Schrittweite, 85

obere Grenze der -, 98

Simulation, 117, 154, 174, 189, 210

berschussfehler, 115

Vergleich mit RLS- und FLMS

Algorithmus, 189

Zusammenfassung, 185

LPC-Analyse, 14

Koeffizienten, 15

LRMI Lautsprecher-Raum-Mikrophon

Impulsantwort, 29

M
MATLAB-Simulationen, siehe Simula
tionsanleitungen
Matrix

hermitesche -, 44

Hess'sche -, 47

negativ definite -, 45

positiv definite -, 45

positiv semidefinite -, 45

singulre, 45

Spur, 97

symmetrische -, 44

-Transposition, 44

Toeplitz-, 45

zirkulre -, 168

Matrixinversions-Lemma, 134

Mean-Squared Error (MSE), siehe

mittlerer quadratischer Fehler

Mehrwegausbreitung, 19

Messrauschen, siehe Rauschen

Methode der kleinsten Fehlerquadrate,

siehe Least-Squares-Verfahren

minimaler mittlerer quadratischer Feh

ler (MMSE), 49

- bei der Systemidentifikation, 211

Minimum Mean-Squared Error (MMSE),


siehe minimaler mittlerer qua
dratischer Fehler
misadjustment, siehe FehleinsteIlung
Mittelwert

Ensemble-, 32

Zeit-,34

mittlerer quadratischer Fehler (MSE),

42

- bei der Systemidentifikation, 211

MMSE, siehe minimaler mittlerer qua


dratischer Fehler

Modalmatrix, 65

Modellparameter, 5

Modem, 24

Modi der Adaption, 102, 151, 166, 172

Moment, 32

Momentangradient, 84

MSE, siehe mittlerer quadratischer Feh

ler

Musterfunktion, 30

244

INDEX

Nachfhrphase, 149, 188, 189

Nachfhrverhalten, 5

siehe auch jeweilige Algorithmen

Netzstrung, Netzbrumm, 12

neuronale Netzwerke, 1

Newton-LMS-Algorithmus, 121, 189

Dekorrelationseigenschaft des -, 122

Newton-Verfahren, 79, 189

Herleitung, 79

normierter LMS-Algorithmus (NLMS),

119,189

Notchfilter, 12

Nullstellen, 38

- des Differenzfilters, 59

numerische Robustheit, 5, 141, 155

Nutzsignal, 10

Nyquistkriterium, 22

o
optimale lineare Filterung, siehe lineare
optimale Filterung

Optimalittskriterium, 37

Orthogonalitt, 36

Orthogonalittsprinzip, 52

geometrische Deutung, 53

orthonormale Basis, 64

Overlap-Save-Verfahren, 160

Bedingung, 160

Berechnung der linearen Faltung, 160

P-Vektor-Algorithmus, 124

Paraboloid, 69

rotationssymmetrisches -, 72

Parameterlsung, 58

Partitioned Frequency-Domain

LMS-Algorithmus (PFLMS),
siehe PFLMS-Algorithmus

Partitionen, 177

PFLMS-Algorithmus, 179, 189

Herleitung, 176

Parameter des -, 178, 180

Rekursionsschema, 179

Pole, 38

positiv definit, siehe Matrix

positiv semidefinit, siehe Matrix

Prdiktion, lineare, siehe Anwendungen

INDEX

Prdiktions

-fehler, 15

-filter, 15

Prdiktorordnung, 15

Produktregel, 234

Projektionsmatrix, 161, 165

Prozess, stochastischer

autoregressiver -, 152, 176, 189, 216

ergodischer -, 34

Musterfunktion, 30

Realisierung, 30

schwach stationrer -, 34

stationrer -, 33

Zufallsvariable, 30

-Verhalten, 149, 154, 189

-zeit, 149

Lernkurve, 154, 189

- mit Vergessensfaktor, 145, 189

Matrixinversions-Lemma, 134

Nachfhrverhalten, 191

Rechenaufwand, 141, 154

Rekursionsschema, 137

Schrittweite, 138, 148, 150

Simulation, 154, 189, 210

Vergleich mit FLMS- und LMS-

Algorithmus, 189

Zusammenfassung, 187

Q
Qualittsverlust, 18

Quantisierung, 5, 18

Quantisierungsbits, 19

quasistationr , 15

R
Rckkopplungspfad, 28

Rauschen

farbiges -, 152, 174, 189

Mess-, 118, 152, 174, 210

weisses-, 60, 74, 103, 119,152,174,

189, 210

Realisierung, 30

Rechenaufwand, 5

siehe auch jeweilige Algorithmen


Recursive Least-Squares-Algorithmus,
siehe RLS-Algorithmus
Referenz

-mikrophon, 11

-signal, 10, 11

Resynthese, 17

RLS-Algorithmus, 137, 189

Dekorrelationseigenschaft des -, 150

exponentielle Datengewichtung, 142

'Fast'-, 154, 189

Fehleinstellung, 150

Gedchtnis, 142

Herleitung, 133

- in LMS-Form, 149

Initialisierung, 141

Konvergenz

-Analyse, 146

on!

b"'

:;.i
",.,

~ ~::!:

j"j

~l:

fit

'1

j~'

\'

'!,

.;\

"

Schtzfehler, 51

Schar, 30

Schrittweite

frequenzabhngige -, 163

normierte -, 103

siehe auch jeweilige Algorithmen


self-orthogonalizing adaptive filtering
algorithms,
siehe Adaptionsalgorithmen
semidefinit, siehe Matrix

Sendefilter, 22

Sicherheitskonstante, 120

Simulationsanleitungen, 210

Skalarprodukt, 233

SNR: signal-to-noise ratio, 130, 152, 199

spektrales Theorem, 66

Spektrum

- eines Sprachsignals, 16

Linien-,59

Zusammenhang Kondition

ierung und -, 73

Sprache

Grundfrequenz, 16

LPC-Analyse von -, 14

quasistationr, 15

stimmhaft, 16

stimmlos, 16

Spracherkennung, automatische, 14

Sprachkodierung

ADPCM,18

Vokodersystem, 18

Sprachmodell, 16

245
Sprachspektrum, 16

Sprecherverifizierung, 14

Spur, siehe Matrix

Strsignal, -gerusch, 5, 10

-quelle, 11

-unterdrckung, 10

Stationaritt

schwache -, 34

strenge -, 33

stochastic gradient, siehe Adaptions


algorithmen

Stossantwort, siehe Impulsantwort

Superpositionsprinzip, 2

Synthesefilter, 16, 152, 216

System-Fehler-Mass, 214

Systemnderung, 154, 189, 216, 226

Systemidentifikation, siehe An

-wendungen

tapped delay line, siehe Filter, FIR

Teilfilter, 178

Telefon

-leitung, 21

-system, 25

Toeplitz-Matrix, 45

tracking, siehe Nachfhrverhalten

Trainingsphase, 1

Transformationsmatrix

- der DFT, 159

- der KLT, 74

Transposition, 44

Troposcatter Communication System, 19

U
berschussfehler, 77, 104, 111, 112, 186

FLMS-,176

LMS-,115

bersprechen, 23

bertragungsfunktion, 24, 27, 29, 38, 54,

60

Unabhngigkeit, 35

Unabhngigkeits-Theorie, 93

Unitre hnlichkeitstransformation, 66

Unkorreliertheit, 35

Varianz, 34

246

INDEX

Rcknahme oder Umtausch

nur mit ungeffneter Datentrgerverpackung

Verarbeitungsverzgerung, 158, 173, 180


Vergessensfaktor, 142
Verteilungsfunktion, 31

Vokaltrakt, 17

Vokodersystem, 18

Vorfilterung, 138

Vorzeichen-LMS-Algorithmus, 125

W
weisses Rauschen, siehe Rauschen
Wiener-Filter, 3

Fehlerflche, siehe Fehlerflche

Fehlerfunktion, siehe Fehlerfunktion

MMSE,49

MSE,42

Wiener-Hopf-Gleichung, 49

Wiener-Losung,46

Wiener-Hopf-Gleichung, 49

-deterministische, 132

entkoppelte Form, 67

Wiener-Losung, 46

Z
z-Transformation, 38, 199

Zeitkonstante

- der Filtergewichte, 103

- der Lernkurve, 106

zirkulre Matrix, 168

Zufalls

-variable, 30

-zahl, 30

Zusammenfassung der Konvergenzeigen

schaften, 183

zyklische Faltung, 160, 229

Systemvoraussetzungen:
Druck: Mercedes-Druck, Berlin
Verarbeitung: Strtz AG, Wrzburg

."

Unix, Windows oder MacOS


Software: MATLAB, ab Version 5.0
Hardware: Mindestanforderungen von MATLAB 5.0
- Windows: Pentium Prozessor
- MacOS: PowerPC Prozessor

Das könnte Ihnen auch gefallen