Sie sind auf Seite 1von 5

Probeklausur Video- und Audiotechnik

1) a) Welche drei wesentlichen Information müssen bei der Übertragung eines schwarz/weiss-Fernsehsignales
von Sender zum Empfänger übertragen werden ? (3P)

Bildsignal (Video), Austastung, Sync

b) Beschreiben Sie diese Übertragung stichpunktartig am Beispiel einer Nipkow-Scheibe. (3P)

Das Bildsignal ist das Helligkeitssignal des Sensors hinter der Abtastung, die Austastung erfolgt durch das
Bildfenster, die Synchronisation erfolgt durch Synchronisierung der Achsen [nach Phase und Frequenz, im
einfachsten, lokalen Fall durch Montage von Sender- und Empfängerscheibe auf derselben Achse]

2) Der Einsatz des Interlace-Verfahrens stellt einen Kompromiss zwischen zwei Anforderungen dar. Nennen Sie
diese beiden Anforderungen. (2P)

Bandbreite des Videosignals und Reduzierung des Großflächenflimmern [ausreichende Bildwechselfrequenz


wäre auch für Beantwortung des zweiten Faktors ok]

3) Führen Kellfaktor und Interlacefaktor zu einer Vergrößerung oder Verkleinerung der tatsächlich nutzbaren
vertikalen Auflösung ? Wie groß sind diese jeweils etwa ? (3P)

Führen zu einer Verkleinerung, sind jeweils etwa 0,8

4) Berechnen Sie die netto-Datenrate eines 4:2:0-Videosignals für 720x576i/25 mit 8 Bit
Amplitudenquantisierung. (3P)

[c-Faktor von 4:2:0 ist 1,5; da die Zeilenangabe immer die Zeilen pro Vollbild ist, muss auch die VOLL-
Bildfrequenz zur Berechnung genutzt werden] -> also 720 * 576 * 25 * 1,5 * 8 = 124,416 Mbit/s

5) Was ist der Unterschied zwischen Vollbild- und Halbbildfrequenz ? Bei welcher Abtaststruktur sind sie
unterschiedlich ? (3P)

Die Frequenzen sind bei Interlace/Zeilensprung unterschiedlich. Bei Vollbild/progressiver Abtastung existiert
keine Halbbildfrequenz bzw. sie können auch als identisch angenommen werden. Die Vollbildfrequenz gibt
an, wie häufig SÄMTLICHE Zeilen am Bildschirm abgetastet werden, die Halbbildfrequenz gibt an wie häufig
entweder alle ungeraden oder alle geraden Zeilen abgetastet werden.

6) Geben Sie ungefähre Werte des Betrachtungsabstandes (ausgedrückt in Vielfachen der Bildhöhe) für SDTV,
HDTV und UHD-1 an. (Angabe ungefährer Werte reicht, keine Berechnung nötig) (3P)

SDTV 5-7, HDTV 3, UHD-1 1,5

7) Nennen Sie die drei gängigen EOTFs, die bei SDTV, HDTV oder UHD eingesetzt werden (3P)

Gamma-Kennlinie, Perceptual Quantizer, Hybrid Log Gamma

8) Welche Helligkeitsumfang (in Blendenstufen) kann das menschliche Auge in etwa GLEICHZEITIG
wahrnehmen (Simultankontrast) ? (1P)

Ca. 13 Blendenstufen

9) Durch welche vier Parameter ist der Farbraum eines Farbvideosystems eindeutig festgelegt ? (4P)

Koordinaten (xy-Werte) der drei benutzten Grundfarben RGB und xy-Koordinaten des Weißpunkts.

MUK2 – AVT -1/5-


10) a) Die Gegenfarbentheorie postuliert die Umwandlung der Signale der drei Farbrezeptoren in einen
Helligkeitskanal und zwei Farbkanäle. Welchen Unterschied hinsichtlich der örtlichen Auflösung besitzt der
menschliche Gesichtssinn zwischen dem Helligkeitskanal und den Farbkanälen ? (2P)

Die Farbkanäle haben gegenüber dem Helligkeitskanal eine reduzierte örtliche Auflösung.

b) Wie wird von diesem Effekt bei Videosystemen Gebrauch gemacht ? (2P)

Die beiden Farbdifferenzsignale können unschärfer übertragen werden. [Sie entstehen durch
Umrechnung/Matrizierung der RGB-Signale in einen Helligkeitskanal und zwei Farbkanäle]

11) Erklären Sie die Begriffe Cross-Color und Cross-Luminance. (3P)

Cross-Color ist das Übersprechen der Helligkeitsinformation in die Farbkanäle, Corr-Luminance das
Übersprechen der Farbinformation in den Hellgkeitskanal. Es tritt bei analogen Farbübertragungssystemen
wie dem PAL-System auf.

12) Erklären Sie die Abkürzungen HANC und VANC. In welchen Zeitabschnitten eines Bildsignals werden sie
übertragen ? (4P)

Das sind Horizontal und Vertical Ancillary Daten, Zusatzdaten die im SDI-Signal in den horizontalen und
vertikalen Austastlücken übertragen werden können.

13) Was ist ein 4:4:4:4-Signal und wo wird es genutzt ? (3P)

Ein 4:4:4:4-Signal bezeichnet zunächst nur allgemein ein (digitales) Bildsignal von 4 Kanälen mit jeweils
derselben Abtastrate. Typischerweise wird es für die Übertragung eines RGB-Signales mit einem zusätzlichen
Transparenzkanal genutzt, z.B. für die Einblendung von Grafiken, Logos, Bauchbinden.

14) Worin besteht der Unterschied zwischen single link DVI und dual link DVI ? (2P)

Dual Link hat die doppelte Anzahl Datenübertragungsleitungen [6 Lanes anstatt 3 Lanes] und damit
[mindestens] doppelte Datenrate. [Tatsächlich ist die Datenrate von Dual Link sogar mehr als doppelt so
hoch, da die max. Taktfrequenz bei Single Link begrenzt ist und bei Dual Link formal nach oben offen]

15) Die HDMI-Schnittstelle wurde aus DVI entwickelt. Welche zusätzlichen Signale oder Signalformate können
bei HDMI gegenüber DVI übertragen werden ? (4P)

Signalformate: YCBCR zusätzlich zu RGB, Verschlüsselung HDCP

Signale: Audio, allg. Zusatzdaten in Data Islands, Gerätekommunikation [über die


Consumer Electronics Control Line (CEC)]

[4 der 5 Nennungen sind ausreichend]

16) Warum kann HdbaseT bei gleicher Verkabelung eine höhere Nutzdatenrate als Ethernet übertragen ? (2P)

Es wird eine Leitungscodierung mit mehr Amplitudenstufen genutzt (Pulsamplitudenmodulation PAM)

17) Wie werden bei HDbaseT unterschiedliche Datenarten unterschiedlich stark gegen Störeinflüsse geschützt?
(2P)

Durch unterschiedliche Anzahl der Amplitudenstufen in der Leitungscodierung (PAM)

18) Durch welche technische Maßnahme kann über die neueste Version 1.4 der Display Port Schnittstelle UHD-2
oder UHD-1 mit Higher Frame Rate übertragen werden, ohne dass dafür die Taktfrequenz erhöht werden
musste ? (1P)

Durch Einsatz einer (moderaten) Datenkompression [Display Stream Compression von ca. 3:1]

MUK2 – AVT -2/5-


19) Welchen Pegel in dBV besitzt ein Audiosignal mit einer Effektivspannung von 0,5V ? (2P)

-6 dB [ohne Rechnung: Bezugswert bei dbV ist 1V Ueff ; eine Halbierung der SPANNUNG bedeutet in der dB-
Rechnung immer -6,02 dB (aus 20*log10(0,5) = -6,02)]

20) Wieviele Audiokanäle können bei den digitalen Schnittstellen AES/EBU und MADI jeweils übertragen werden
? (2P)

AES/EBU: 2 Kanäle MADI: 64 Kanäle

21) Welches Verfahren bzw. Protokoll wird für die Synchronisation einzelner Geräte untereinander bei den IP-
basierten Video und Audio-Schnittstellen genutzt ? (1P)

Precision Time Protocol, PTP, IEEE1588 [eine Nennung ausreichend; NTP wäre auch ok, da bei NDI benutzt –
die Frage war nicht ganz exakt gestellt]

22) Worin besteht der wesentliche Unterschied zwischen CCD und CMOS Bildwandler-Sensoren (nennen Sie
jeweils ein wesentliches charakteristisches Merkmal) ? (2P)

CCD transportiert Ladungen durch den ganzen Chip, bevor sie an einem Ort in ein Spannungssignal
umgewandelt werden.

CMOS hat aktive Schaltelemente auf der Sensorfläche und wandelt die Ladungen im Pixel in elektrische
Spannung. [damit kann die Ladedauer gezielt gesteuert werden; elektronischer Shutter].

23) Beschreiben Sie den Rolling Shutter-Effekt. Wodurch wird er verursacht und bei welchen Sensoren tritt er
auf ? (3P)

Beschreibung: aufgenommene schnell bewegte Objekte werden im Standbild geometrisch verzerrt


wiedergegeben.

Ursache: Verschiedene Pixel eines Bildes werden zu unterschiedlichen Zeitpunkten aufgenommen bzw.
ausgelesen, in der Regel zeilenweise von oben nach unten.

Der Effekt tritt bei CMOS-Sensoren auf.

24) a) Skizzieren Sie Anordnung der roten, grünen und blauen Pixel auf einem Sensor mit Bayer-Pattern. (3P)

[oder sinngemäß, größer: doppelte Anzahl G gegenüber R und B, Schachbrett-Anordnung von G

b) Bewerten Sie die örtliche Auflösung der einzelnen Farben (2P)

Grün-Kanal hat doppelte Auflösung gegenüber Rot- und Blau-Kanal.

c) Welcher Prozess muss zur Ermittlung eines gewöhnlichen RGB-Signals mit geometrisch am gleichen Ort
liegenden Farbpixeln durchlaufen werden ? (1P)

das sogenannte De-Bayering [alternative Antwort: eine elektronische Filterung, Interpolation]

25) Nennen Sie drei Optionen für die Synchronisation von (TV-)Geräten im TV-Studio und erklären Sie jeweils die
Charakteristika der zur Synchronisation benutzten Signale. (5P)

MUK2 – AVT -3/5-


Black-Burst: ist ein analoges SDTV-Farbsignal mit „schwarzem Inhalt“. Die Sync-Information steckt im
Sync-Signal selbst und zusätzlich in sehr genauer Form in der Phase des relativ hochfrequenten PAL-
Farbträgers, der als Farbburst in der H-Austastlücke übertragen wird.

Tri-Level-Sync: ist ein analoges Signal OHNE Burst und existiert dafür auch für alle HD-Formate [die ja keinen
Farbträger mehr kennen]. Um trotz der relativ langsamen Flanken eines gewöhnlichen H-Sync-Impulses
einen genauen Bezugspunkt zu haben, hat das Sync-Signal einen negativen und positiven Anteil. Der
Nulldurchgang kann dann einfach und sehr genau als Referenzpunkt bestimmt werden.

SDI: eine gewöhnliches digitales Studiosignal enthält bereits den Sync in hochpräziser Form und kann
direkt für die Synchronisation genutzt werden.

26) Empfehlen Sie je eine Displaytechnologie für besonders dunkle Betrachtungsumgebungen und für helle
Betrachtungsumgebungen und begründen Sie die Empfehlung. (4P)

OLED für dunkle Umgebungen. Grund: diese haben einen gutes (=dunkles) Schwarz. [alternativ auch Micro
LED, generell selbstleuchtende Wandler]

TFT für helle Umgebungen. Grund: hier ist eher die max. Spitzenleuchtdichte wichtig – diese kann bei TFT
höher gestaltet werden als bei OLED

27) a) Welche Arten der Vorverarbeitung werden in der Bildcodierung sehr effizient vor einer (Ir-
)Relevanzreduktion und einer Redundanzreduktion eingesetzt ? (2P)

Differenzpulscodemodulation (DPCM) und Discrete Cosinus Transformation (DCT) [Abkürzungen


ausreichend]

b) Skizzieren Sie daraus ein allgemeines Grundschema, das für JPEG- und MPEG-Codierung gleichermaßen
gilt. (2P)

c) Geben Sie an, welche der Blöcke im Grundschema verlustlos und welche (deutlich) verlustbehaftet sind
(2P)

siehe Angaben in rot unter (b)

MUK2 – AVT -4/5-


28) Kennzeichnen Sie in der abgebildeten Struktur eines MPEG-2-Encoders jeden Verarbeitungsblock korrekt als
entweder verlustlos oder verlustbehaftet. (3P)

Verlustbehaftet ist NUR die Quantisierung (gekennzeichnet als „Q“ im Block „DCT, Q“)

29) Erläutern Sie stichpunktartig das Prinzip der Spectral Band Replication bei der Audiocodierung. (3P)

SBR kann mit unterschiedlichen Codecs eingesetzt werden: Einer der „gewöhnlichen“ Audioencoder wird in
diesem Fall nur für die Übertragung der niedrigen Frequenzbereiche eingesetzt. Hochfrequente
Spektralanteile, die meist als Obertöne (Harmonische) eines Grundtons entstehen, werden Metadaten
ermittelt. Aus den übertragenen Grundtönen und den Metadaten wird der hochfrequente Bereich im
Decoder rekonstruiert.

MUK2 – AVT -5/5-

Das könnte Ihnen auch gefallen