Sie sind auf Seite 1von 12

Klausur im Lehrgebiet

Grundlagen der Statistischen


Nachrichtentheorie
- Prof. Dr.-Ing. Thomas Sikora -

Name: . . . . . . . . . . . . . . . . . . . . . . . . . . . . Vorname: . . . . . . . . . . . . . . . . . . . . . . . . .

Matr.Nr: . . . . . . . . . . . . . . . . . . . . . . . . . . .

Ich bin mit der Veröffentlichung des Klausurergebnisses


unter meiner Matrikelnummer einverstanden:  Ja

Aufgabe P
1 2 3 4

Max. Punktezahl 10 8 9 13 40

Erreichte Punktezahl

Hinweise:
1. Schreiben Sie die Lösungen jeweils direkt auf den freien Platz unterhalb der Aufgabenstellung.

2. Die Rückseiten können bei Bedarf zusätzlich beschrieben werden. Nummerierungen in diesem
Fall nicht vergessen.

3. Sollte auch der Platz auf der Rückseite nicht ausreichen, bitte kein eigenes Papier verwenden.
Die Klausuraufsicht teilt auf Anfrage zusätzlich leere Blätter aus.

4. Nichtprogrammierbare Taschenrechner sind als Hilfsmittel erlaubt!

5. Es ist ein einseitig beschriebenes DIN A4-Blatt zur Lösung dieser Klausur zugelassen!

6. Bearbeitungszeit: 90 min.

7. Bitte keinen Bleistift und keinen Rotstift verwenden!

Technische Universität Berlin Klausur im Lehrgebiet

Fachgebiet Nachrichtenübertragung Grundlagen der Statistischen Blatt: 1


Nachrichtentheorie

Prof. Dr.-Ing. T. Sikora am 29.07.2015


Inhaltsverzeichnis

Inhaltsverzeichnis

1 Wahrscheinlichkeit und Zufallsvariablen 3

2 Verteilungsfunktion 6

3 Wiener-Kolmogoroff-Filterung 8

4 Nachrichtenquellen 10

Technische Universität Berlin Klausur im Lehrgebiet

Fachgebiet Nachrichtenübertragung Grundlagen der Statistischen Blatt: 2


Nachrichtentheorie

Prof. Dr.-Ing. T. Sikora am 29.07.2015


1 Wahrscheinlichkeit und Zufallsvariablen

1 Wahrscheinlichkeit und Zufallsvariablen 10 Punkte

1.1 Erläutere anhand der Kolmogoroff-Axiome welche der folgenden Aussagen 4P


stimmen bzw. nicht stimmen.

a) P(Z ∩ (Ω ∪ Z)) < 0 1P


Falsch, denn P(A) :> 0
Die Wahrscheinlichkeit ist nichtnegativ.

b) P(Ω ∪ C) = 1 1P
Richtig, denn P(Ω ∪ C) = P(Ω) := 1
Das sichere Ergebnis hat die Wahrscheinlichkeit Eins.

c) P(E ∪ E) = 2 · P(E) 1P
Falsch, denn P(A ∪ B) := P(A) + P(B), wenn A ∩ B = ∅ mit A = E und B = E müsste gelten,
dass E ∩ E = ∅, was natürlich nicht stimmt.
Die Wahrscheinlichkeit ist in diesem Fall nicht additiv.

d) P(Ω ∩ Ω) = 0 1P
Richtig, denn P(Ω ∩ Ω) = P(Ω) = 1 − P(Ω) = 0.
Das sichere Ergebnis hat die Wahrscheinlichkeit Eins.

1.2 Ein Kasten enthält zwei weiße, zwei rote und drei grünen Bälle. Zwei Bälle 4P
werden gezogen, der erste Ball wird nicht zurückgelegt.

a) Wie groß ist die Wahrscheinlichkeit, zwei weiße Bälle zu ziehen? 1P


P(ω1 ) = 27 , P(ω2 |ω1 ) = 61 , P(ω1 ∩ ω2 ) = 2
7 · 1
6 = 1
21 mit
P(ω1 ): Wahrschenlichkeit, dass der erste Ball weiß ist
P(ω2 ): Wahrschenlichkeit, dass der zweite Ball weiß ist

b) Wie groß ist die Wahrscheinlichkeit, wenn man den ersten Ball zurücklegen 1P
würde?
Für die Wahrscheinlichkeit P(ω1 ∩ ω2 ) ergibt sich mit
P(ω1 ) = 27 , P(ω2 |ω1 ) = 72 , P(ω1 ∩ ω2 ) = 2
7 · 2
7 = 4
49

Technische Universität Berlin Klausur im Lehrgebiet

Fachgebiet Nachrichtenübertragung Grundlagen der Statistischen Blatt: 3


Nachrichtentheorie

Prof. Dr.-Ing. T. Sikora am 29.07.2015


1 Wahrscheinlichkeit und Zufallsvariablen

c) Wie groß ist die Wahrscheinlichkeit, an zweiter Stelle eine grüne Kugel zu 2P
ziehen?
Für die Wahrscheinlichkeit P(g2 ) ergibt sich mit
P(ω1 ) = 27 , P(g2 |ω1 ) = 63 , P(r1 ) = 27 , P(g2 |r1 ) = 36 , P(g1 ) = 37 , P(g2 |g1 ) = 2
6
damit ergibt sich
P(g2 ) = P(g2 |ω1 ) · P(ω1 ) + P(g2 |r1 ) · P(r1 ) + P(g2 |g1 ) · P(g1 ) = 3
6 · 2
7 + 3
6 · 2
7 + 3
7 · 2
6 = 3
7

Technische Universität Berlin Klausur im Lehrgebiet

Fachgebiet Nachrichtenübertragung Grundlagen der Statistischen Blatt: 4


Nachrichtentheorie

Prof. Dr.-Ing. T. Sikora am 29.07.2015


1 Wahrscheinlichkeit und Zufallsvariablen

1.3 In einer Schachtel liegen 100 Widerstände. Ihre Werte sind 20, 100 und 47Ω, 3P
ihre Toleranzen sind 5% und 10%. Die Verteilung ist gegeben durch:
R/Ω 5% 10%

20 15 10

100 25 15

47 5 30

Folgende Ereignisse sind definiert:


A = Ein 20Ω Widerstand wird gezogen.
B = Ein Widerstand mit 10% Toleranz wird gezogen.
C = Ein 47Ω Widerstand wird gezogen.

a) Berechne: P(A), P(B), P(A ∩ B), P(A ∩ C). 2P


P(A) = (15 + 10)/100 = 0.25
P(B) = (10 + 15 + 30)/100 = 0.55
P(A ∩ B) = 10/100 = 0.1
P(A ∩ C) = 0

b) Sind P(A) und P(B) statistisch unabhängig? Begründe. 1P


Nein, da P(A ∩ B) = 0.1 6= P(A) · P(B) = 0.1375

Technische Universität Berlin Klausur im Lehrgebiet

Fachgebiet Nachrichtenübertragung Grundlagen der Statistischen Blatt: 5


Nachrichtentheorie

Prof. Dr.-Ing. T. Sikora am 29.07.2015


2 Verteilungsfunktion

2 Verteilungsfunktion 8 Punkte

2.1 Gegeben sei folgende Verbundverteilungsdichte pXY (x, y): 5P

0.18

0.16

0.14

0.12

0.1
p XY

0.08

0.06

0.04
4
0.02
3
0

4
2
3

2 x
1
y 1

pXY (x, y) y=1 y=2 y=3 y=4

x=1 0.04 0.03 0.02 0.01

x=2 0.08 0.06 0.04 0.02

x=3 0.12 0.09 0.06 0.03

x=4 0.16 0.12 0.08 0.04

a) Bestimme die Verteilungsdichten pX (x) und pY (y). 2P

x=1 x=2 x=3 x=4

pX (x) 0.1 0.2 0.3 0.4

y=1 y=2 y=3 y=4

pY (y) 0.4 0.3 0.2 0.1

b) Sind die Zufallsvariablen X und Y unabhängig? Begründe. 1,5 P


Ja, da gilt pXY (x, y) = pX (x) · pY (y).
c) Bestimme die Werte für P(x = 1, y = 3), P(x = 1|y = 3) und P(y = 1|x = 3) 1,5 P
P(x = 1, y = 3) = 0.02
P(x = 1|y = 3) = P(x = 1) = 0.1
P(y = 1|x = 3) = P(y = 1) = 0.4

Technische Universität Berlin Klausur im Lehrgebiet

Fachgebiet Nachrichtenübertragung Grundlagen der Statistischen Blatt: 6


Nachrichtentheorie

Prof. Dr.-Ing. T. Sikora am 29.07.2015


2 Verteilungsfunktion

2.2 Es sei X eine Zufallsvariable mit N(0, 1) Verteilung und weiter Y = X3 . 5P

a) Bestimme die Verteilungsdichte pY (y). 2P


Transformation von Zufallsvariablen:

g(x) = x3

g−1 (y) = 3 y
g 0 (x) = 3x2

PX (x)
PY (y) = | −1
g 0 (x) x=g (y)

PX ( 3 y)
= √ 2
3 3y
 √
2
3 y
− 12 σx
√ 1 e
2πσx
= √ 2
3 3 y

b) Begründe, dass E[Y] = 0 gilt. 1P


Da Zähler und Nenner von PY (y) jeweils symmetrische Funktionen sind, ist auch die Gesamt-
funktion symmetrisch und für um 0 symmetrische Verteilungsdichtefunktionen gilt, dass ihr
Mittelwert 0 ist.

Technische Universität Berlin Klausur im Lehrgebiet

Fachgebiet Nachrichtenübertragung Grundlagen der Statistischen Blatt: 7


Nachrichtentheorie

Prof. Dr.-Ing. T. Sikora am 29.07.2015


3 Wiener-Kolmogoroff-Filterung

3 Wiener-Kolmogoroff-Filterung 9 Punkte

3.1 Nenne die drei Einsatzbereiche des WK-Filters und beschreibe die zugehörigen 3P
Kanaleigenschaften.
reine Rauschbefreiung (nur additives Rauschen auf dem Kanal)
reine Entzerrung (nur Verzerrung des Signals, kein Rauscheinfluss)
lineare Prädiktion (kein Rauscheinfluss, der Kanal wirkt als Verzögerungsglied)
3.2 Gegeben ist eine stationäre mittelwertfreie Nachrichtenquelle X(n). 7P

a) Leite die Leistung des Schätzfehlers d(n) = x(n) − z(n) bei optimaler Prä- 3P
diktion der Ordnung N her und drücke diese als Funktion der Autokorrela-
tionsmatrix (Matrixschreibweise!) aus. Hinweis: Denke an das Orthogonali-
tätsprinzip!

σ2d = E[{X(n) − Zopt (n)}2 ]


= E[X(n){X(n) − Zopt (n)}] |Orthogonalitätsprinzip
X
N
= σ2x − hk,opt Rxx (k)
k=1
= σ2x − hTopt rxx = σ2x − rTxx R−1
xx rxx

b) Für das in b) gegebene Signal, berechne die Filterkoeffizien- 3P


ten des optimalen Prädiktionsfilters zweiter Ordnung nach dem
Wiener-Hopf-Ansatz! Gegeben
 seien folgende
 normierte Korrelati-
onswerte ρXX (n) = 1 0.4 0.5 0.7 0.9 für n = 0, 1, 2, 3, 4.
 −1  
a b  1  d −b
Hinweis:  = ad−bc  
c d −c a

 −1  
ρxx [0] ρxx [1] ρxx [1]
hopt =   · 
ρxx [1] ρxx [0] ρxx [2]
 −1      
 1 0.4 0.4 100  1 −0.4 0.4
=  · = · · 
84

0.4 1 0.5 −0.4 1 0.5
⇒ hopt = {0.2381, 0.4048}

Technische Universität Berlin Klausur im Lehrgebiet

Fachgebiet Nachrichtenübertragung Grundlagen der Statistischen Blatt: 8


Nachrichtentheorie

Prof. Dr.-Ing. T. Sikora am 29.07.2015


3 Wiener-Kolmogoroff-Filterung

Technische Universität Berlin Klausur im Lehrgebiet

Fachgebiet Nachrichtenübertragung Grundlagen der Statistischen Blatt: 9


Nachrichtentheorie

Prof. Dr.-Ing. T. Sikora am 29.07.2015


4 Nachrichtenquellen

4 Nachrichtenquellen 13 Punkte

4.1 Gegeben sei eine binäre Markovquelle. Mit den Übergangswahrscheinlichkei- 4P


ten P(1|0) = 0.6 und P(0|1) = 0.5.

a) Zeichne das Markov-Modell mit den beiden Zuständen 0 und 1 und beschrifte 1P
es vollständig.

0.6

0.4 0 1 0.5

0.5

b) Es wurde eine 1 gesendet. Mit welcher Wahrscheinlichkeit wird nach zwei 1P


weiteren Übertragungen eine 0 bzw. 1 gesendet?
 
0.4 0.6
Übergangsmatrix: A =  
0.5 0.5
 
Start Zustandsvektor: ~p0 = 0 1
 
Zustandsvektor nach zwei Iterationen: ~p2 = ~p0 · A · A = 0.45 0.55
Die Wharscheinlichkeit für eine 0 ist somit 45% und die für eine 1 entspricht 55%.
c) Die Übertragung dauere nun über einen langen Zeitraum an. Mit welchen 2P
Wahrscheinlichkeiten treten dann 0 und 1 auf? Beschreibe, welche Schritte
zur Lösung führen, ohne sie explizit auszurechnen.
Im eingeschwungenen Zustand muss für den Zustandsvektor gelten:

~p = ~p · A

d.h. er ändert sich durch weitere Iterationen nicht mehr. Diese Gleichung ist genau dann erfüllt,
wenn es sich bei ~p um einen Eigenvektor der Matrix A handelt. Zusätzlich muss noch gelten,
dass der Eigenwert 1 ist, da sonst der Betrag des Vektors verändert würde. Entsprechend wird
der Eigenvektor mit Eigenwert 1 der Matrix A gesucht.

Technische Universität Berlin Klausur im Lehrgebiet

Fachgebiet Nachrichtenübertragung Grundlagen der Statistischen Blatt: 10


Nachrichtentheorie

Prof. Dr.-Ing. T. Sikora am 29.07.2015


4 Nachrichtenquellen

4.2 Gegeben sei ein weißer Rauschprozess {W} mit Mittelwert µw und folgendes 4P
Kanalmodell
W + X
0.6

+
-1
z

a) Bestimme den Mittelwert des Empfangsprozesses {X}. 1P


Es gilt

E[X(n)] = E[W(n) + 0.6X(n − 1)] = E[W(n)] + 0.6E[X(n − 1)]

das ist äquivalent zu

µx = µw + 0.6µx
µw
=> µx =
0.4

b) Leite die normierte Autokorrelation des Empfangsprozesses her. 3P

RXX (k) = RXX (−k) = E[X(n)X(n − k)]


= E[(W(n) + 0.6X(n − 1)) · X(n − k)]
= E[(W(n)X(n − k) + 0.6X(n − 1)X(n − k)]
= 0.6RXX (k − 1) ,für k > 0

und somit
RXX (k − 1)
ρXX (k) = 0.6 = 0.6ρXX (k − 1) , für k > 0
RXX (0)
ρXX (0) = 1 , für k = 0

4.3 Gegeben sei die folgende Impulsantwort eines Filters 5P

h(n) = 0.5δ(n − 1) + 0.5δ(n + 1)

Es werde mittelwertfreies Weißes Rauschen an den Eingang gelegt.

Technische Universität Berlin Klausur im Lehrgebiet

Fachgebiet Nachrichtenübertragung Grundlagen der Statistischen Blatt: 11


Nachrichtentheorie

Prof. Dr.-Ing. T. Sikora am 29.07.2015


4 Nachrichtenquellen

a) Bestimme und zeichne sowohl die Autokorrelationsfolge als auch das Lei- 5P
stungsdichtespektrum des Ausgangs.
Für die AKF gilt

RXX (k) =E[X(n)X(n + k)]


=0.52 E[(W(n − 1) + W(n + 1))(W(n − 1 + k) + W(n + 1 + k))]
=0.52 E[W(n − 1)W(n − 1 + k)+
W(n + 1)W(n − 1 + k)+
W(n − 1)W(n + 1 + k)+
W(n + 1)W(n + 1 + k)]
=0.52 (RWW (k) + RWW (k + 2) + RWW (k − 2) + RWW (k))
=0.5RWW (k) + 0.25RWW (k + 2) + 0.25RWW (k − 2)

Für das LDS gilt

SXX (Ω) = F [RXX (k)] (Ω) = 0.5 + 0.25e−j2Ω + 0.25ej2Ω


= 0.5(1 + cos(2Ω))
= cos2 (Ω)

Technische Universität Berlin Klausur im Lehrgebiet

Fachgebiet Nachrichtenübertragung Grundlagen der Statistischen Blatt: 12


Nachrichtentheorie

Prof. Dr.-Ing. T. Sikora am 29.07.2015

Das könnte Ihnen auch gefallen