Sie sind auf Seite 1von 111

HAW Hamburg

Fakultät Design Medien und Information


Studiendepartment Technik
Studiengang Medientechnik

Diplomarbeit

Matrix-Ansteuerung von Leuchtmitteln


Pixelmapping und die wahrnehmungsspezifische Wirkung bei
geringer Auflösung

Autor: Andreas Barthelmes


E-Mail: andibarthelmes@gmx.de

Erstprüfer: Prof. Dr. Roland Greule


Zweitprüfer: Wilfried Kresiment

Bearbeitungszeitraum: 15. Februar 2007 bis 15. Mai 2007


Erklärung
Hiermit erkläre ich, dass ich die vorliegende Diplomarbeit selbständig angefertigt
habe. Es wurden nur die in der Arbeit benannten Quellen und Hilfsmittel benutzt.
Wörtlich oder sinngemäß übernommenes Gedankengut habe ich als solches
kenntlich gemacht.

Ort, Datum Andreas Barthelmes


Inhaltsverzeichnis 3

Inhaltsverzeichnis

1 Einleitung............................................................................................................. 6

2 Grundlagen der Lichtsteuerung und Netzwerktechnik...................... 8


2.1 DMX........................................................................................................................ 9
2.1.1 DMX-Normen...................................................................................................... 9
2.1.2 Elektrische Spezifikation................................................................................. 9
2.1.3 Topologie ............................................................................................................ 11
2.2 Remote Device Management ....................................................................... 11
2.3 Ethernet in der Lichttechnik ........................................................................ 12
2.3.1 Topologie ............................................................................................................ 13
2.3.2 Ethernet Varianten.......................................................................................... 13
2.3.3 Funktionsweise von Ethernet...................................................................... 15
2.3.4 Internet Protokoll............................................................................................. 16
2.3.5 Transmission Control Protocol ................................................................... 18
2.3.6 User-Datagram-Protocol................................................................................ 19
2.4 Netzwerk Protokolle im Bereich der Veranstaltungstechnik............ 20
2.4.1 Art-net ................................................................................................................. 20
2.4.2 e*net ..................................................................................................................... 22
2.4.3 ACN ...................................................................................................................... 23

3 Grundlagen der Videotechnik.................................................................... 25


3.1 Videosignal ........................................................................................................ 25
3.1.1 Analoges Videosignal ..................................................................................... 25
3.1.2 Digitales Videosignal ...................................................................................... 26
3.2 Dateiformate ..................................................................................................... 27
3.3 Quantisiertes Videobild ................................................................................. 29
3.3.1 Bildpunkt und Pixel......................................................................................... 29
3.3.2 Örtliche Alias-Effekte ..................................................................................... 30
3.3.3 Zeitliche Alias-Effekte .................................................................................... 30
3.3.4 Kell-Faktor.......................................................................................................... 31
3.4 Auflösungen von Videosignalen................................................................. 31

4 Matrix-Ansteuerung von Leuchtmitteln ................................................ 33


4.1 Komponenten einer Steuerung................................................................... 33
4.1.1 Patch-Hilfen....................................................................................................... 33
Inhaltsverzeichnis 4

4.1.2 Steuerung mittels Software.......................................................................... 35


4.1.3 Steuerung mittels Hardware........................................................................ 38
4.1.4 Nodes und Replayunits.................................................................................. 39
4.1.5 Dimmer ............................................................................................................... 41
4.1.6 Zusammenspiel der Komponenten........................................................... 43
4.2 Marktübersicht Matrix-Software ................................................................ 44
4.2.1 Lichtsteuersoftware ........................................................................................ 44
4.2.2 Medienserver..................................................................................................... 48
4.3 Pixelmapping .................................................................................................... 49
4.3.1 Scalieralgorithmen.......................................................................................... 49
4.3.1.1 Nearest-Neighbour-Transformation ......................................................... 49
4.3.1.2 Mittelwert-Transformation .......................................................................... 51
4.3.1.3 Bilineare Transformation.............................................................................. 51
4.3.2 Wahl des geeigneten Skalieralgorithmus'............................................... 53
4.3.3 Wahl des geeigneten Codecs ....................................................................... 54

5 Matrix-Leuchten.............................................................................................. 55
5.1 Eigenschaften der Leuchten......................................................................... 55
5.2 Oberflächenbeschaffenheit vor den Lampen ......................................... 56
5.3 Möglichkeiten der Anordnung .................................................................... 58

6 Wahrnehmungsspezifische Wirkung bei niedriger Auflösung.... 61


6.1 Grundlagen der Wahrnehmung.................................................................. 61
6.2 Kriterien zur Beurteilung von Bildmaterial............................................. 64
6.2.1 Position der Matrix und des Betrachters.................................................. 64
6.2.2 Größe, Form und Raumlage ......................................................................... 66
6.2.3 Farbe und Kontrast ......................................................................................... 69
6.2.4 Treppeneffekt ................................................................................................... 71
6.2.5 Bewegung ........................................................................................................... 71
6.3 Produktion von Bildmaterial mit geringer Auflösung ......................... 74
6.3.1 Schwierigkeiten bei der Produktion .......................................................... 74
6.3.2 Aufbereitung von vorhandenem Bildmaterial ....................................... 76
6.3.3 Produktion von neuem Bildmaterial ......................................................... 80

7 Praktischer Teil................................................................................................ 86
7.1 Flüssige Bewegungen bei geringer Auflösung........................................ 86
7.2 CPU-Auslastung bei verschiedenen Codecs............................................ 91
Inhaltsverzeichnis 5

8 Beispiel: Lichtinstallation „Kubik“ ........................................................... 98

9 Ausblick: 3-D-Matrix-Steuerung............................................................. 100

Abkürzungsverzeichnis ................................................................................................ 102

Tabellenverzeichnis........................................................................................................ 103

Abbildungsverzeichnis.................................................................................................. 104

Anhang A............................................................................................................................ 106

Anhang B ............................................................................................................................ 107

Literaturverzeichnis........................................................................................................ 110
Einleitung 6

1 Einleitung
Es ist zu beobachten, dass immer häufiger ansteuerbare Lichtwände mit einer
geringen Auflösung realisiert werden. Dies kann einerseits durch den technischen
Fortschritt und die sinkenden Preise von LED-Technik begründet werden,
andererseits wird ständig nach neuen Mitteln gesucht, um die Aufmerksamkeit der
Betrachter auf sich zu ziehen. Überdimensionale bewegte Bilder in einem neuen
Erscheinungsbild sind dazu sehr gut geeignet.

Diese Arbeit befasst sich speziell mit Lichtwänden, die eine geringe Auflösung
haben. Die Installationen bestehen aus vielen Lampen, die einzelnen gesteuert
werden können und zusammen ein Gesamtbild ergeben. Jede Lampe entspricht
einem Bildpunkt. Geringe Auflösung bedeutet in diesem Fall, dass die einzelnen
Lampen (Bildpunkte) immer deutlich sichtbar sind. Mit diesen Installationen
können Bilder stark vergrößert dargestellt werden. Zur Steuerung der Lichtwände
werden häufig Videosignale verwendet. Die Installationen sind allerdings nicht als
überdimensionierte Videoscreens zu verstehen, sondern vielmehr als neue Form,
um vereinfachte Bildern darzustellen. Das Videosignal wird dabei lediglich als eine
Möglichkeit zur Steuerung der Lichtwände verstanden.

In der Veranstaltungstechnik werden Bildwände gerne verwendet, da sie universell


einsetzbar sind. Mit einer Installation können unzählige dynamische Licht-
stimmungen und einfache Bilder dargestellt werden. Teilweise sind Matrix-
Leuchten Hauptbestandteil der Bühnenkulissen. Die Leuchten werden in das
Bühnenbild integriert und zusammen als Matrix angesteuert. Bilder mit einer
geringen Auflösung sind dafür gut geeignet, da so ein hoher Integrationsgrad
zwischen Bild und Bühnenkulisse erreicht werden kann. Das Gleiche gilt für den
Architekturbereich. Dort können die Leuchten beispielsweise auf einer Fassade
montiert und in die gegebene Architektur integriert werden. Die Bilder werden
nicht auf einer seperaten Videowand abgebildet, sondern das Haus oder die
Bühnenkulisse selbst strahlen die Bilder ab.

Bilder mit geringer Auflösung sind eine anhaltende Modeerscheinung, was sich
aktuell sehr gut in TV- und Printmedien beobachten lässt. Viele Grafiker und
Gestalter greifen auf das Stilmittel von Pixel-Darstellungen zurück. Der Trend zum
Retro-Look alter Computer Grafiken hängt sicher auch mit der wieder aktuell
gewordenen Mode der 80er Jahre zusammen. Hinzu kommt, dass sich dieses
Stilmittel sehr gut dazu eignet, reduzierte Grafiken darzustellen.
Einleitung 7

Um Lampen in einer Matrix anzusteuern, bedarf es neuer Techniken. Ein Ziel dieser
Arbeit ist es, die gängigen Steuermöglichkeiten genauer zu betrachten und die
Funktionsweisen zu erläutern, um daraus neue Steuertechniken zu entwickeln. Auf
den folgenden Seiten werden nur Systeme behandelt, die auf Steuersignale der
Lichttechnik zurückgreifen. Dazu werden zuerst die Grundlagen der Licht-
steuerung, Netzwerktechnik und Videotechnik zusammengefasst. Anschließend
werden unterschiedliche Steuerungen, die dazugehörigen Komponenten und deren
Zusammenspiel erläutert. Im darauf folgenden Abschnitt wird auf Matrixleuchten
und deren mögliche Anordnungen eingegangen.

Um Lichtwände zu bespielen wird häufig Standardvideomaterial verwendet


welches dann in die passende Auflösung skaliert wird. Oft ist das Videomaterial für
geringe Auflösungen jedoch ungeeignet. Im zweiten Teil der Arbeit werden
Techniken besprochen wie neues Bildmaterial erstellt und bestehendes Material
aufbereitet werden kann, so dass es auf Lichtwänden mit geringer Auflösung
funktioniert. Dabei werden speziell wahrnehmungsspezifische Faktoren
berücksichtigt.
Grundlagen der Lichtsteuerung und Netzwerktechnik 8

2 Grundlagen der Lichtsteuerung und Netzwerktechnik


Zu Beginn der elektronischen Lichtsteuerung haben die meisten Hersteller ihre
eigenen Systeme entwickelt. Weit verbreitet war eine analoge 0 –10 V Steuerung.
Die Systeme waren aber zum großen Teil nicht untereinander kompatibel. Mitte
der 80er Jahre wurde von der USITT (United States Institute for Theatre
Technology) der Standard AMX192 eingeführt, eine analoge 0 –10 V Steuerung, in
der 192 Kanäle im Zeitmultiplex übertragen werden können. AMX192 fand
allerdings keinen großen Zuspruch, da viele Hersteller zu diesem Zeitpunkt schon
ihre eigenen Produkte entwickelt hatten. Darauf folgte die Entwicklung von
DMX512 (siehe 2.1). DMX steht für Digital Multiplex und 512 für die Anzahl der zu
steuernden Kanäle. In der Veranstaltungstechnik hat sich DMX512 bislang als
Steuerprotokoll durchgesetzt. Es ist heute weltweit der dominierende Übertra-
gungsstandard zum Steuern von Dimmern, Relais, Multifunktionsscheinwerfern
oder Medienservern.

Früher wurden hauptsächlich die Intensitäten von Dimmerkanälen oder Relais


gesteuert. Dies wird meist nach dem HTP-Prinzip (Highest Take Precedence)
realisiert, was bedeutet, dass der höchste gesendete Wert Priorität hat. Wenn z.B.
zwei Cue-Listen gleichzeitig denselben Kanal ansprechen, wird nur der höchste
Wert gesendet. Die Ansprüche bei der Lichtsteuerung sind heute gestiegen, es wird
weitaus mehr gesteuert als nur Intensitäten von Dimmerkanälen. Bei
Multifunktionsscheinwerfern beispielsweise gibt es zusätzlich Attribute wie Farbe
und Position, bei Medienservern gibt es eine Vielzahl weiterer Funktionen. Den
Attributen sind bestimmte Steuerwerte zugeordnet. Hier macht HTP wenig Sinn, da
die Werte sehr unterschiedliche Funktionen steuern. Für diese Anwendungen
bedient man sich des LTP-Modus (Latest Takes Precedence), bei dem der zuletzt
gesendete Wert Priorität hat. In einer Cue-Liste ist beispielsweise die Bewegung
und Farbe eines Multifunktionsscheinwerfers abgelegt und in einer zweiten ein
Farbwechsel. Wird die zweite Cue-Liste nach der ersten gestartet, und beiden Cue-
Listen laufen gemeinsam, dann wird die Bewegung der ersten Cue-Liste ausgeführt
und der Farbwechsel der Zweiten.

Der Bedarf an Steuerkanälen nimmt stetig zu, da Geräte immer mehr Funktionen
haben und Matrix-Systeme aufgrund der Weiterentwicklung in der LED-Technik
immer größer werden. Um diese große Anzahl an Kanälen zu bewältigen, bedient
man sich heute der Netzwerktechnik. Mit unterschiedlichen Protokollen (siehe 2.4)
werden über Ethernet (siehe 2.3) eine Vielzahl von DMX-Universen übertragen. Die
Grundlagen der Lichtsteuerung und Netzwerktechnik 9

Netzwerktechnik bietet darüber hinaus viele neue Möglichkeiten, beispielsweise die


Übertragung von Audio- oder Video-Daten.

Im folgenden Teil wird auf die Lichtsteuerprotokolle DMX512, RDM sowie auf
Ethernet und die darauf aufbauenden Protokolle genauer eingegangen.

2.1 DMX

2.1.1 DMX-Normen
Das Lichtsteuerprotokoll DMX wurde erstmals 1988 in der „Lighting and Sound
International“ publiziert. 1990 wurde es dann durch die USITT unter dem Namen
DMX512/1990 standardisiert. Im Jahr 2000 folgte die deutsche Norm DIN 56930-2
und 2004 USITT DMX512-A. Das Übertragungsprotokoll nach DIN basiert auf der
amerikanischen Fassung, definiert aber zusätzlich einen Ein- und Ausgangsschutz.
Wenn Schaltungen gegen 30V AC und 42V DC spannungsfest sind, dann dürfen
solche Geräte als „protected“ bezeichnet werden. DMX512-A ist durch Schutz-
schaltungen und Timing-Korrekturen etwas stabiler als der Vorgänger, bringt
jedoch keine spürbaren Neuerungen und ist kompatibel mit den vorherigen
Versionen. [SLH99]

2.1.2 Elektrische Spezifikation


In der Veranstaltungstechnik werden sehr hohe Ansprüche an die Daten-
übertragung gestellt, da meist hohe Leitungslängen zu bewältigen sind und die
Umgebung einen hohen Störpegel durch Lastkabel aufweist. Bei DMX hat man sich
für eine serielle Datenübertragung nach EIA-485 entschieden. Hierbei werden die
Daten symmetrisch übertragen, wodurch eine große Störsicherheit gewährleistet
werden kann. Im Ruhezustand liegt die Datenleitung auf hohem Potential bei
+ 2,5 V, dies wird als Mark bezeichnet. Der aktive Pegel liegt bei – 2,5 V und wird
Break oder Space genannt.

Bei DMX512 können pro Verbindung 512 Kanäle mit einer Auflösung von 8 Bit (256
Werte) übertragen werden. Die Übertragung geschieht asynchron mit einer
Übertragungsrate von 250kbit/s. Asynchron bedeutet, dass die Datenübertragung
ohne gemeinsames Taktsignal arbeitet. Die Datenbytes werden nacheinander
übertragen, beginnend mit Kanal 1 aufsteigend bis Kanal 512. Die einzelnen Bytes
werden jeweils durch ein Start- und zwei Stoppbits gekennzeichnet. Die
Übertragung beginnt mit einem Reset-Signal mit einer Länge von mindestens 88µs.
Dieser Reset beendet eine laufende oder noch nicht abgeschlossene Übertragung.
Auf den Reset folgt ein Mark von mindestens 8µs und das Startbyte mit 44µs, der
Grundlagen der Lichtsteuerung und Netzwerktechnik 10

den Beginn der Datenübertragung einleitet. Im Anschluss daran werden die


Datenbytes gesendet. Jedes Datenbyte wird von einem Startbit eingeleitet und von
zwei Stoppbits beendet.

Abbildung 1: Aufbau des DMX-Signals

Tabelle 1: Aufbau des DMX-Signals

Nr. Signalname Min. Typ. Max. Einheit


1 RESET 88 88 µs
2 MARK zw. RESET und Startbyte 8 - 1s µs
3 Frame-Zeit 43,12 44,0 44,48 µs
4 Startbit 3,92 4,0 4,08 µs
5 LSB (niederwertigstes Datenbit) 3,92 4,0 4,08 µs
6 MSB (höchstwertigstes Datenbit) 3,92 4,0 4,08 µs
7 Stoppbit 3,92 4,0 4,08 µs
8 MARK zwischen Frames (Interdigit) 0 0 1,00 s
9 MARK zwischen Paketen 0 0 1,00 s

Aus der Datenübertragungsrate 250kBit/s ergibt sich eine Bitzeit von 4µs. Ein
Datenwort besteht aus 8 Bit, einem Startbit sowie zwei Stoppbits, das macht
zusammen 44µs. Die Gesamtübertragungsdauer für 512 Kanäle ergibt sich dann zu
22668 µs (88 + 8 + 512 x 44), was eine Wiederholungsrate von 44,1 Hz ergibt. Um die
Wiederholrate zu erhöhen, macht es in manchen Fällen Sinn weniger als 512
Kanäle über ein DMX-Universum zu senden. In diesem Fall wird das Reset-Signal
schon nach dem letzten belegten Datenbyte gesendet. In der Lichttechnik wird eine
DMX-Leitung, über die maximal 512 Kanäle gesteuert werden können, als
Universum bezeichnet. [SLH99]
Grundlagen der Lichtsteuerung und Netzwerktechnik 11

2.1.3 Topologie
Das Signal wird über ein paarig verdrilltes und geschirmtes Kupferkabel gesendet.
Die Steckverbindung wird über einen 5-poligen AXR-Steckverbinder (XLR) realisiert.
Die zwei freien Pins sind für einen optionalen Rückkanal vorgesehen. Bei Fest-
installationen müssen nach DIN56930-2 auch geschirmte CAT-5 Kabel verwendet
werden. Für die Belegung der Pins bei RJ-45-Stecker liegt derzeit ein Entwurf vor.

Die Leitungslänge beträgt laut DIN 1200 Metern, in der Praxis werden allerdings nur
Leitungen bis 300 Metern verwendet. Bei längeren Strecken muss das Steuersignal
mit Hilfe eines Boosters verstärkt werden. An jeden Sender können bis zu 32
Empfänger angeschlossen werden. Die Geräte werden in einer so genannten Daisy
Chain seriell miteinander verbunden und sollten mit einem Abschlusswiderstand
beendet werden um Reflexionen des Signals zu vermeiden. Der Abschluss-
wiederstand sollte der Impedanz des verwendeten Kabels entsprechen, dies sind in
der Regel 110 – 120 Ohm. Wenn mehr Geräte gesteuert werden sollen, kann mit
einem Splitter das Signal auf verschiede Leitungen aufgeteilt werden. Sollen
dieselben Geräte von mehreren Steuereinheiten bedient werden können, müssen
die Steuersignale mit Hilfe eines Mergers zusammengefasst werden. Dies kann im
HTP- oder im LTP-Modus. [SLH99]

Abbildung 2: Daisy Chain, Merger, Splitter

2.2 Remote Device Management


DMX ist ein unidirektionales Signal, die Geräte können keine Informationen über
ihren Status zurücksenden. Um dem Abhilfe zu schaffen, haben sich einige
Hersteller zusammengeschlossen und den offenen Standard RDM (Remote Device
Management) entwickelt. Die ESTA (Entertainment Service and Technology
Association) hat RDM unter ANSI E1.20 – 2006 standardisiert.

RDM nutzt die zwei freien Adern der DMX-Leitung und ermöglicht somit die
bidirektionale Kommunikation. Über eine DMX-Leitung können RDM-, sowie DMX-
Geräte angesprochen werden, ohne das dabei die Geschwindigkeit beeinflusst wird.
Grundlagen der Lichtsteuerung und Netzwerktechnik 12

RDM kann somit in einem bestehenden DMX-Netzwerk betrieben werden, unter


der Vorraussetzung, dass die Splitter und Booster entsprechend umgerüstet
wurden. [ESTA06]

2.3 Ethernet in der Lichttechnik


Eine weitere Option ist es, Steuerprotokolle über Ethernet zu senden. Die Kapazität
von DMX ist aufgrund der Datenrate von 250 kbit/s relativ begrenzt. Ethernet ist mit
10, 100 oder 1000 Mbit/s um ein Vielfaches schneller. So können theoretisch 40, 400
oder 4000 DMX-Universen auf einer Datenleitung übertragen werden. Zur
Ansteuerung von LED-Wänden werden häufig Ethernet-Protokolle eingesetzt, da
hier die Anzahl der zu steuernden Kanäle sehr groß ist. Zudem ergibt sich eine
Vielzahl neuer Möglichkeiten, so können beispielsweise durch die bidirektionale
Kom-munikation Geräte ihren aktuellen Status mitteilen oder sich gegenseitig
selbst synchronisieren. Zusätzlich besteht die Möglichkeit, Video- oder Audiodaten
über das Netzwerk zu verschicken.

Das Ethernet-Protokoll ist weltweiter Standard, was den Transport von Daten-
signalen angeht, deshalb ist die erforderliche Hardware relativ preiswert. Ein
weiterer Vorteil sind die vielen bestehenden Ethernet-Netzwerke im Bereich der
Architektur, die mit verwendet werden können, ohne neue Leitungen verlegen zu
müssen. Es können beispielsweise WLAN-Strecken benutzt werden und an jedem
beliebigen Punkt im Netzwerk können mittels eines Hubs weitere Geräte
angeschlossen werden. So kann ein Lichtpult ohne großen Aufwand an einer
anderen Stelle angeschlossen werden, bei DMX ist dies nicht ohne weiteres
möglich.

Ethernet wird DMX jedoch nicht vollständig verdrängen, die neuen Möglichkeiten
bringen für den Anwender auch gewisse Schwierigkeiten mit sich. Die
Funktionsweise von Ethernet ist komplexer und dadurch ergeben sich auch mehr
Fehlerquellen. Bei Ethernet können die Leitungen nicht von Gerät zu Gerät
durchgeschliffen werden, die Verkabelung erfolgt sternförmig, was folglich einen
höheren Arbeits- und Verkabelungsaufwand mit sich bringt. Es gibt nur wenig
bühnentaugliche Kabel und Stecker, da diese einen komplexeren Aufbau haben
und somit anfälliger für Störungen sind.

In zukünftigen Installationen wird es zu Hybriden-Lösungen kommen, um die


Vorteile beiden Techniken zu verbinden; die Signalverteilung in Festinstallationen
wird über Ethernet laufen und in den letzten Metern kurz vor dem DMX-
Empfängern wird man an so genannten Nodes von Ethernet auf DMX oder RDM
wandeln.
Grundlagen der Lichtsteuerung und Netzwerktechnik 13

2.3.1 Topologie
In der Veranstaltungstechnik wird Ethernet meist als Local Area Network (LAN)
betrieben. Mehrere Rechner sind über kleine Entfernungen sternförmig mit-
einander verbunden. Die Verbindung erfolgt über Knotenpunkte. Diese
Knotenpunkte können Hubs oder Switches sein. Hubs leiten alle gesendeten Daten
an alle Rechner im Netzwerk weiter, die Signale werden dabei nicht verzögert.
Allerdings kann es zu einem unnötig hohen Datenaufkommen im Netzwerk
kommen, da die weitergeleiteten Daten nicht unbedingt für alle Empfänger
bestimmt sind. Ein Switch hingegen leitet die Daten gezielt weiter. Wenn größere
Entfernungen überbrückt werden müssen, können Repeater eingesetzt werden, sie
bereiten Signale wieder auf und leiten sie weiter. Meist werden Hubs als Repeater
eingesetzt. Allerdings dürfen diese nicht beliebig kaskadiert werden da, innerhalb
eines Netzwerks Datenpakete eine bestimmte Übertragungszeit nicht überschreiten
dürfen. Um dem entgegen zu wirken, sollte die so genannte Repeater- oder auch
5-4-3-Regel eingehalten werden. Diese besagt, dass in einem 10BaseT-Netzwerk
(siehe 2.3.2) maximal fünf Kabelsegmente miteinander verbunden werden dürfen.
Zu dieser Verbindung werden vier Repeater benötigt und nur drei der Segmente
dürfen Rechnern angeschlossen haben. Bei 100BaseT-Netzwerken (siehe 2.3.2)
dürfen nur zwei Repeater kaskadiert werden. [PCO06]

Abbildung 3: Repeater Regel

2.3.2 Ethernet Varianten


Heute gibt es eine Vielzahl von Ethernet Varianten. Sie unterscheiden sich
hauptsächlich in der Bitrate, dem Kommunikationsmedium und der Leitungs-
codierung. Die Varianten werden nach der allgemeinen Kurzbezeichnung
„X Übertragungsmodus Y“ benannt, „X“ beschreibt die Bitrate in Mbit/s und „Y“ die
Medienart und die Leitungscodierung. Beim Übertragungsmodus wird zwischen
Grundlagen der Lichtsteuerung und Netzwerktechnik 14

„Base“ für Basisbandübertragung und „Broad“ für eine geträgerte Übertragung


unterschieden.

Tabelle 2: Ethernet Varianten

Bezeichnung Bitrate Übertragungsmedium Reichweite pro Segment


10 Base-T 10 Mbit/s 2 x Twisted Pair 100 m
10 Base-F 10 Mbit/s Glasfaser 300 m – 10 km
100 Base-T 100 Mbit/s 2 x Twisted Pair 100 m
100 Base-FX 100 Mbit/s Glasfaser 300 m – 10 km
1000 Base-T 1000 Mbit/s 4 x Twisted Pair 100 m
1000 Base-LX 1000 Mbit/s Glasfaser 300 m – 10 km

Für die Übertragung bei Ethernet werden hauptsächlich Twisted-Pair- („T“) und
Glasfaserkabel („F“, „FX“, „LX“) eingesetzt. Mit Glasfaserkabel können große
Entfernungen überbrückt werden. Es wird unterschieden zwischen Multi- und
Singlemode-Kabeln. Mit Multimode-Kabeln können Distanzen von 300 bis 500 m,
mit Singlemode-Kabeln bis zu 10 km zurückgelegt werden. [ITW07]

Twisted-Pair-Kabel sind am weitesten verbreitet, sie bestehen aus acht Einzeladern,


von denen je zwei miteinander verdrillt sind. Es gibt unterschiedliche Arten von
Schirmungen, die durch das Bezeichnungs-Schema, mit der Form „XX/YZZ“
beschrieben werden. „XX“ steht für die Gesamtschirmung, „Y“ steht für die
Aderschirmung und „ZZ“ steht für den Kabeltyp Twisted-Pair (TP). Die Abkürzung
„U“ steht für ungeschirmt, „F“ für foliengeschirmt und „S“ für geflechtgeschirmt.
U/UTP (Twisted-Pair-Kabel ohne Gesamt- und Aderschirm) wird beispielsweise in
Deutschland kaum eingesetzt, es kann aber problemlos für Gigabit-Ethernet
verwendet werden. Allerdings sind die Reichweiten von ungeschirmten Kabeln nur
circa halb so groß wie die von geschirmten Kabeln.

Damit die Kabel besser klassifiziert werden können wurden Kategorien definiert, es
wird unterschieden zwischen Cat-1 bis Cat-7. Die Kategorien 1 bis 4 sind heute
nicht mehr relevant. Sie sind nur noch in alten Installationen anzutreffen. Cat-5 ist
die heute überwiegend anzutreffende Kabel-Art. Sie ist für Betriebsfrequenzen bis
100MHz bestimmt und wird in Fast- und Gigabit-Netzwerken eingesetzt. Cat-5e ist
eine genauere Spezifizierung von Cat-5 mit einem verbesserten Signal-Rausch-
Abstand. Als Anschlusskontakte sind RJ45-Stecker mit einer vorgeschriebenen
Grundlagen der Lichtsteuerung und Netzwerktechnik 15

Belegung spezifiziert. Cat-6 Kabel sind für Betriebsfrequenzen bis 250 MHz
ausgelegt. Auch hier werden RJ45-Stecker benutzt, allerdings haben sie eine andere
Pinbelegung als Cat-5. Cat-7-Kabel sind für Betriebsfrequenzen bis zu 600 MHz
ausgelegt, dazu sind alle Adernpaare einzeln geschirmt. [EK07]

Bei gewöhnlicher Sternvernetzung haben beide Enden des Kabels dieselbe


Pinbelegung am Stecker. Werden allerdings zwei Netzwerk-Teilnehmer direkt
miteinander verbunden, muss ein Crosskabel verwendet werden. Bei 10Base-T und
100Base-T werden dazu zwei Adernpaare gekreuzt. Bei 1000Base-T Ethernet
müssen alle vier Paare gekreuzt werden. Einige Netzwerkgeräte besitzen schon
gekreuzte Buchsen, diese sind dann mit MDI-X gekennzeichnet. MDI (Medium
Dependent Interface) bezeichnet die mechanische Schnittstelle zwischen Netz-
werkkarte und Netzwerkkabel, „X“ steht für die gekreuzte Verbindung. Erkennt ein
Gerät die Sende- und Empfangsleitungen und stellt sich selbständig darauf ein,
wird dies mit Auto-MDI-X gekennzeichnet, hier können normale ,wie auch
gekreuzte Kabel verwendet werden.

Im 10Base-T Ethernet werden für die Signalübertragung nur zwei der Adernpaare
verwendet, die anderen beiden stehen für Sonderanwendungen ,wie zum Beispiel
Power over Ethernet (PoE) zur Verfügung. Mit PoE können Geräte über das Cat-
Kabel mit Strom versorgt werden.

2.3.3 Funktionsweise von Ethernet


Ethernet ermöglicht den Austausch von Datenpaketen in einem Netzwerk. Jeder
Teilnehmer ist durch eine 48-Bit lange MAC-Adresse identifizierbar und kann in
das bestehende Netz Daten senden. In einem festgelegten Paketformat werden die
Daten im Zeitmultiplex übertragen. Wenn mehrere Teilnehmer gleichzeitig senden,
kommt es zu einer Datenkollision. Kollisionen können durch den CSMA/CD-
Algorithmus (Carrier Sense Multiple Access with Collision Detection) vermindert
werden. Die Teilnehmer hören permanent die Datenleitung ab (Carrier Sense) und
können zwischen einer freien und besetzten Leitung unterscheiden. Ist die Leitung
frei, so kann gesendet werden. Falls eine Kollision auftritt wird die Übertragung
beendet und ein spezielles Signal wird verschickt, damit die übrigen Teilnehmer
die Kollision ebenfalls erkennen (Collision Detection). Wenn keine Kollision auftritt,
kann die Übertragung abgeschlossen werden. Tritt eine Kollision auf, dann warten
die Teilnehmer eine zufällige Zeit und versuchen es erneut. Wurde die maximale
Anzahl von Übertragungsversuchen überschritten, wird eine Fehlermeldung an
höhere Netzwerkschichten gesendet und die Übertragung wird abgebrochen.
Grundlagen der Lichtsteuerung und Netzwerktechnik 16

Die Daten werden bei Ethernet in Form von Paketen versendet, diese Pakete
werden Frames genannt. In ein Frame werden neben den Nutzdaten auch die
Quelladresse, die Zieladresse sowie Steuerinformationen verpackt. Als Adressen
werden die MAC-Adressen (Media Access Control) verwendet. Die MAC-Adresse ist
die Hardware-Adresse eines Geräts, durch die es eindeutig identifiziert werden
kann. Die maximale Länge eines Frames beträgt 1526 Byte, davon können 1500 Byte
Nutzdaten enthalten. Die minimale Länge beträgt 72 Byte mit 46 Byte Nutzdaten.
[EK07]

2.3.4 Internet Protokoll


Die Internetschicht ist für die Wegewahl, das so genannte Routing zuständig. Sie
verpackt die Daten, adressiert sie und vermittelt sie weiter. Das Internet-Protokoll
(IP) versendet die Daten in Form von Datagrammen und gewährleistet die Integrität
der Daten. Das der Empfänger die Datagramme in der richtigen Reihenfolge erhält
wird jedoch nicht sichergestellt, dafür ist ein Transport Protokoll wie beispielsweise
TCP (siehe 2.3.5) zuständig.

Ein IP-Datagramm besteht aus zwei Teilen, den Kopfdaten (Header) und den
Nutzdaten. Im Header eines Datagramms sind Informationen über Quelle, Ziel,
Protokollversion, den gewünschten Dienst und die Gesamtlänge der Daten
enthalten. Des Weiteren beinhaltet der Header Angaben über die Lebensdauer
eines Datagramms. Lebensdauer meint hier, wie viele Teilstrecken ein Packet
zurücklegen darf bevor es verworfen wird.

Den einzelnen Teilnehmern im Netzwerk werden IP-Adressen und Subnetzmasken


zugeordnet. Somit ist es möglich, die Computer in Netzwerken zu adressieren und
eine Verbindung zu ihnen aufzubauen. Wenn Geräte mehrere IP-Adressen besitzen
werden sie als multihomed bezeichnet. Die Adressierung erfolgt meist im IPv4-
Format, eine 32 stellige Binärzahl, die in vier dezimal geschriebenen Blöcken
dargestellt wird. Die einzelnen Blöcke sind durch Punkte voneinander getrennt.
Eine IP-Adresse besteht aus einem Netzwerk- und einem Adressteil (Host). Die
vorderen Ziffern bestimmen die Netzwerkadresse, die hintere Ziffern die
Teilnehmeradresse. Die Subnetzmaske bestimmt die Anzahl der Ziffern des
Netzwerkteils. Eine Subnetzmaske ist genau so lang wie die IP-Adresse auf die sie
angewendet wird. Alle Bits des Netzwerkteils sind auf 1 und alle Bits des Hostteils
auf 0 gesetzt.
Grundlagen der Lichtsteuerung und Netzwerktechnik 17

Tabelle 3: Netzwerk- und Geräteteil der IP-Adresse

Dezimal Binär
IP-Adresse 168.055.122.195 10101000 00110111 01111010 11000101
Subnetzmaske 255.255.255.224 11111111 11111111 11111111 11100000
Netzwerkteil 130.055.122.192 10101000 00110111 01111010 110
Geräteteil 0. 0. 0. 5 00101

Damit Rechner direkt miteinander kommunizieren können, muss der Netzwerkteil


der IP-Adresse identisch sein. In einem Netzwerk dürfen keine identischen Host-
Adressen vergeben sein, da es sonst zu IP-Kollisionen kommt. Für die
Kommunikation zwischen unterschiedlichen Netzwerken wird ein Router benötigt.
Ein Router hat für jede Schnittstelle eine eigene IP-Adresse und Subnetzmaske, die
dem jeweiligen Netzwerk zugeordnet ist.

Für die Vergabe von IP-Adressen ist die Internet Assigned Numbers Authority
(IANA) zuständig. Bis 1993 wurden die IP-Adressen von der IANA in Netzklassen
eingeteilt, da dieses System sich aber als zu statisch erwies, hat man das Classless
Inter-Domain Routing-Verfahren (CIDR) eingeführt. Der IP-Adressraum wird in
offizielle, private und spezielle Adressen eingeteilt. Offizielle Adressen wurden an
große Unternehmen oder Universitäten vergeben. Die privaten Adressbereiche
können von jedem genutzt werden. Damit Rechner mit privaten IP-Adressen auf
das Internet zugreifen können, wird ein Router oder Gateway-Rechner als Koppel-
element benötigt. Er setzt die privaten IP-Adressen in offiziell zugeteilte Adressen
um.

Spezielle Adressen sind zum Beispiel für Localnet, Broad- oder Multicast-
Anwendungen reserviert. Über Localnet kann das eigene System intern über IP
angesprochen werden. Diese Funktion dient zu Prüf- und Diagnosezwecken, um
grundlegende Funktionen zu testen. Über Broadcast-Adressen werden alle Teil-
nehmer im Netzwerk und über Multicast-Adressen mehrere Teilnehmer
angesprochen. Wird Multicast verwendet, so kann unnötiger Datenverkehr
vermieden werden, da die Daten nicht für jeden Teilnehmer einzeln verschickt
werden müssen.
Grundlagen der Lichtsteuerung und Netzwerktechnik 18

Tabelle 4: Private und spezielle IP-Adressen

Funktion Adressbereich
Privates Netzwerk 10.0.0.0 - 10.255.255.255
Privates Netzwerk 172.16.0.0 - 172.31.255.255
Privates Netzwerk 192.168.0.0 - 192.168.255.255
Localnet 127.0.0.1 - 127.255.255.255
Multicast 224.0.0.0 - 239.255.255.255
Broadcast 255.255.255.255

Auf einem Rechner können mehrere Netzwerkanwendungen gleichzeitig


miteinander kommunizieren. Um die Daten den richtigen Anwendungen
zuzuordnen, werden Ports verwendet. Ein Port ist eine Ergänzung zur IP-Adresse,
um gezielt bestimmte Anwendungen anzusprechen. Eine Anwendung kann von
mehreren Ports gleichzeitig genutzt werden; jedoch ein Port nur von einer
Anwendung. Eine IP-Adresse verknüpft mit einem Port bezeichnet man als Socket.
Ein Socket ist die Schnittstelle zwischen der Netzwerkkomunikation und der
eigentlichen Anwendung.

2.3.5 Transmission Control Protocol


Das Transmission Control Protocol (TCP) gehört der Transportschicht an und ist für
die Datensicherung und Flusssteuerung verantwortlich. Es ist im Gegensatz zu IP
ein zuverlässiges und verbindungsorientiertes Protokoll. Für einen Datenaustausch
muss eine virtuelle Verbindung zwischen den Sockets, von Sender und Empfänger
aufgebaut werden. Ist der Datenaustausch abgeschlossen, wird die Verbindung
wieder aufgehoben. Mit TCP ist eine Übertragung in Vollduplex möglich, das
bedeutet, es können gleichzeitig Informationen in beide Richtungen fließen. Die
Daten werden in Segmente verpackt und mit einem Header versehen. Im Header
stehen Informationen über die Sender- und Empfängeradresse, Paketreihenfolge,
Quittierungsnummer sowie die Prüfsumme. TCP organisiert das Senden und
Empfangen von Segmenten. Der Empfang von Paketen wird bestätigt und falls die
Pakete unterschiedlich schnell eintreffen, wird die richtige Reihenfolge wieder
hergestellt. Bleibt eine Bestätigung aus, wird das Paket erneut gesendet. Die
Flusssteuerung reguliert die Geschwindigkeit mit der die Daten gesendet werden.
Die empfangenen Daten werden in einen Puffer geschrieben und der Empfänger
teilt dem Sender mit, wie viele Daten er bereits empfangen hat und wie viele
Grundlagen der Lichtsteuerung und Netzwerktechnik 19

Puffer-Ressourcen noch zur Verfügung stehen. Sind die Ressourcen erschöpft,


wartet der Sender bis er vom Empfänger eine Meldung zum weiter senden erhält.

Damit ein TCP-Segment mit einem Ethernetframe übertragen werden kann, darf es
nicht mehr als 1500 Bytes enthalten. Die Header von TCP und IP sind jeweils 20
Bytes groß, das bedeutet ein TCP-Segment darf nicht mehr als 1460 Bytes an
Nutzdaten enthalten.

TCP ist ein sicheres und zuverlässiges Protokoll. Allerdings eignet es sich nicht für
die Übertragung von audiovisuellen Daten in Echtzeitanwendungen oder für
Steuersignale in der Veranstaltungstechnik, da es zu langsam ist. Gehen
beispielsweise bei der Übertragung Datenpakete verloren, dann ist TCP darauf
ausgelegt die Pakete erneut zu senden. Dies nimmt zu viel Zeit in Anspruch. Bei
audiovisuellen Daten macht das wenig Sinn, da ein zu spät eintreffendes Paket für
die Darstellung nicht mehr relevant ist.

2.3.6 User-Datagram-Protocol
Für Anwendungen bei denen es auf eine schnelle Übertragung ankommt eignet
sich das Transport Protokoll User Datagram Protocol (UDP). UDP ist ein minimales,
verbindungsloses und verhältnismäßig unsicheres Protokoll. Es stellt keine feste
Verbindung her wie TCP, sondern sendet die Daten ohne weitere Sicherungs-
maßnahmen an den Empfängerport. UDP sorgt weder dafür das ein Datagramm
den Empfänger in jedem Fall erreicht, noch gewährleistet es, dass die gesendeten
Daten beim Empfänger in richtiger Reihenfolge ankommen.

Bei einer Streaming-Anwendung beispielsweise mit TCP, stockt ein Video-Stream,


wenn ein Datagramm nicht korrekt übertragen worden ist, da die Daten solange
neu gesendet werden, bis sie fehlerfrei eingegangen sind. Bei UDP hingegen wird
das fehlerhafte Datagramm ignoriert und die Übertragung wird weiter fortgesetzt.
Das Video erleidet kurzzeitig einen Verlust an Bildqualität wird aber nicht
unterbrochen.

UDP-Datagramme werden genauso wie TCP mit Hilfe von IP-Paketen über Ethernet
versendet. Damit IP die Datagramme nicht nochmals fragmentieren muss, sollten
sie nicht größer als 1500 Byte sein. Der Header hat eine Größe von acht Byte
deshalb bleiben für die Daten noch 1492 Byte übrig.
Grundlagen der Lichtsteuerung und Netzwerktechnik 20

2.4 Netzwerk Protokolle im Bereich der Veranstaltungstechnik


In der Veranstaltungstechnik haben sich einige Netzwerk-Protokolle etabliert. Sie
bauen alle auf Ethernet, IP, TCP, und UDP auf. Dazu gehören Art-Net (Artistic
Licence), e*net (e:cue), Ma-Net (MA Lighting), ETCNet2 (ETC), ShowNet (Strand),
PathPort (Pathway). Die Hersteller Compulite, Enttec, ADB, Highend, Avolites und
Bytecraft bieten ebenfalls Protokolle an. Mit Hilfe dieser Protokolle können eine
Vielzahl von DMX-Universen über eine Verbindung übertragen werden. Zusätzlich
besteht die Möglichkeit, weitere Funktionen zu integrieren. Ein Problem dabei ist,
dass die Protokolle nicht kompatibel untereinander sind und nur wenige Hersteller
Gateways zur Umsetzung der Protokolle anbieten. Die ESTA arbeitet seit einiger
Zeit an der Entwicklung eines herstellerunabhängigen Protokolls, um einen
zukünftigen Standard für Lichtsteuernetzwerke zu schaffen. Das Protokoll heißt
Advanced Control Network (ACN) und ist seit dem 06.12.06 unter ANSI E1.17 – 2006
standardisiert. Es wird allerdings befürchtet, dass ACN nicht angenommen wird, da
die Standardisierung zu lange gedauert hat und die Hersteller schon ihre eigenen
Protokolle entwickelt haben.

In den folgenden Abschnitten werden die Protokolle Art-Net, e*net und ACN
ausführlicher besprochen.

2.4.1 Art-net
In der Lichttechnik ist Art-Net zur Zeit das am weitesten verbreitete
Netzwerkprotokoll. Es wurde von der Firma Artistic Licence als Übergangslösung
bis zur Standardisierung von ACN entwickelt. Das Protokoll ist frei verfügbar und
kann von jedem Hersteller kostenlos implementiert werden. Mittlerweile benutzen
über 50 Hersteller dieses Protokoll. Vorrangig wird es auf PC-Systemen angewandt,
es besteht aber auch die Möglichkeit Art-Net über Mac OS X laufen zulassen.

Die DMX-Daten können bei Art-Net im HTP- oder LTP-Modus übertragen werden.
Es unterstützt den RDM-Standard, Geräte können dadurch mit neuer Firmware
bespielt werden und es besteht die Möglichkeit, Videosignale zu übertragen; so
kann zum Beispiel, das Bildschirmsignal des Lichtstellpults an einem beliebigen
Punkt im Netzwerks abzugreifen. In der letzten Veröffentlichung wurde Art-Net
noch eine Medienerweiterung hinzugefügt, welche die Kommunikation von
Lichtpulten mit Medienservern ermöglicht. Theoretisch kann ein Art-Net-Netzwerk
mit 256 DMX-Universen betrieben werden. Diese sind in 16 Subnetzen mit jeweils
16 Universen aufgeteilt. Durch die Einstellungen an den Empfangsgeräten wird
festgelegt auf welches Universum und Subnetz sie reagieren sollen. Das kann durch
Schalter am Gerät oder ferngesteuert über Art-Net geschehen.
Grundlagen der Lichtsteuerung und Netzwerktechnik 21

Wie bei allen Ethernetanwendungen hat jeder Teilnehmer in einem Netzwerk eine
eigene IP-Adresse, der Netzwerkteil der Adresse ist bei Art-Net festgelegt. Es gibt
zwei mögliche Netzwerkadressen 2. x. x. x und 10. x. x. x, und in der Regel ist bei
Art-Net-Geräten die erste Adresse bereits eingestellt. Soll ein zweites Netzwerk im
selben physikalischen Netz betrieben werden, kann die Adresse auf 10. x. x. x
geändert werden. Beide IP-Adressen können nicht über das Internet geroutet
werden. Die Subnetzmaske ist festgelegt auf 255. 0. 0. 0. somit stehen die restlichen
drei Byte für Geräte-Adressen zu Verfügung. Diese können automatisch aus der
Mac-Adresse generiert oder direkt am Gerät eingestellt werden.

Geräte, die vorrangig Daten empfangen, wie z. B Dimmer oder Ethernet DMX-
Gateways werden als Nodes bezeichnet, solche die vorrangig Steuerdaten senden,
wie beispielsweise ein Lichtstellpult heißen Server. Wird ein Netzwerk
eingeschaltet, kennt der Server noch nicht die IP-Adressen der Nodes. Um diese
herauszufinden, sendet der Server im Broadcast-Modus einen so genannten ArtPoll
ins Netzwerk. Broadcast-Pakete richten sich immer an alle Netzwerkteilnehmer.
Geräte, die sich im Netz befinden, antworten auf diese Anfrage mit einem
ArtPollReply und teilen dem Server Ihre IP-Adresse mit. Im nächsten Schritt teilen
die Nodes dem Server ihr Subnetz und das Universum mit. Nachdem dies
geschehen ist, werden vom Server über UDP ArtDMX Pakete im Broadcast-Modus
an alle Nodes verschickt.

Über die Art-Net Medienerweiterung können zum einen Transportkommandos, wie


Start-, Stop- und GoTo-Befehle an Medienserver gesendet und zum anderen
Videodaten zwischen einem Medienserver und einem Server (Lichtstellpult)
ausgetauscht werden. Wenn der Medienserver und das Lichtpult über ein Switch
verbunden sind, dann werden die Videodaten nur zwischen diesen beiden Geräten
ausgetauscht und das Netzwerk wird nicht unnötig belastet. In einer klassischen
Pixelmapping-Anwendung werden so Patch-Informationen an den Medienserver
übermittelt. Die Patch-Daten enthalten virtuelle Koordinaten, diese repräsentieren
die Videopixel-Positionen der anzusteuernden Leuchten. Der Medienserver skaliert
dann ein Videobild auf die virtuellen Koordinaten und sendet die RGB-Werte
zurück an den Server, welcher wiederum die Werte in DMX-Daten umwandelt und
diese im Broadcast-Modus an die Nodes.

Der große Nachteil von Art-Net ist, dass die ArtDMX-Pakete im Broadcast
übertragen werden. Die DMX-Pakete werden an alle Teilnehmer im Netzwerk
gesendet, sie können nicht gezielt geroutet werden. So kommt es schnell zu einer
Grundlagen der Lichtsteuerung und Netzwerktechnik 22

Auslastung des Netzwerks und es können bei weitem keine 256 Universen
übertragen werden. Jeder Node muss alle Pakete bearbeiten um zu erkennen, ob es
für ihn bestimmt ist. Für heutige Rechner ist das kein Problem, aber kleine
Microserver können bei viel Datenverkehr schnell überlastet sein. In einem 10
Mbit/s-Netzwerk können bis zu circa 20 Universen und in einem 100 Mbit/s-
Netzwerk bis zu 60 Universen angesteuert werden. Ein weiterer Nachteil ist die
festgelegte IP-Adresse, Art-Net kann deshalb nicht in ein beliebiges Netzwerk
integriert werden.

Es wird überlegt, einen Multicast-Modus zu implementieren. In diesem Modus


gehört jeder Empfänger einer bestimmten Multicast-Gruppe an, je nachdem für
welches Universum er zuständig ist. So müssen die Empfänger nur die Pakete
bearbeiten, die für sie vorgesehen sind. [AL04]

2.4.2 e*net
Die Firma e:cue hat eine Reihe von Protokollen entwickelt, um e:cue-Produkte
anzusprechen, die Gesamtheit der Protokolle heißt e*net. Es handelt sich um
verbindungslose Protokolle, die auf UDP basieren. Die Protokolle sind nicht
öffentlich, es besteht jedoch die Möglichkeit, Steuerbefehle in Form von
UDP Paketen an e*net zu senden. Die Protokolle sind in der Programmiersprache
C++ geschrieben. Wie ein Paket auszusehen hat, um e*net anzusprechen, ist
dokumentiert.

e*net ist speziell für große Netze ausgelegt. Broadcast-Pakete werden von e*net
soweit wie möglich vermieden, damit die Netzwerkteilnehmer nicht unnötig unter
Last gestellt werden. Sie werden von den Geräte nur gesendet, um gelegentliche
ihre Anwesenheit mitzuteilen. Datenpakete werden optimiert verpackt, damit die
volle Ethernet-Bandbreite zur Übertragung ausgenutzt werden kann.

Die IP-Adressen können in e*net frei gewählt werden. Sie entsprechen voll dem
TCP/IP-Standard, somit kann e*net in bestehende Netzwerke integriert werden. Ein
Teil der Datenübertragung geschieht dabei verschlüsselt.

Alle Geräte im e*net können von sich aus ihre Anwesenheit und ihren Status
anzeigen. Dies erlaubt das vollautomatisierte Suchen, Authentifizieren und
Einbinden von Geräten (Plug-and-Play).
Grundlagen der Lichtsteuerung und Netzwerktechnik 23

e*net kann weit mehr als nur DMX-Daten versenden, es werden auch diverse
weitere Kommunikationsarten über das Protokoll abgewickelt. So können
beispielsweise Ereignisse ausgetauscht werden, dies können beispielsweise
Schlüsselnachrichten oder Veränderungen an einem Sensor sein. Des Weiteren
können Textnachrichten und Timing-Informationen übertragen werden. So ist es
möglich, dass verschiedene Geräte mittels Timecode synchronisiert werden.
Zusätzlich besteht die Möglichkeit, Remote-Procedure-Calls zu senden, diese
können auf einem Rechner Skripte starten oder Funktionen aufrufen. Über Remote-
Media-Play-Commands können Transportbefehle an e:player und Pixelmapper
gesendet werden.

2.4.3 ACN
ACN ist eine Rahmenarchitektur, die unterschiedliche Protokolle aus dem Bereich
der Veranstaltungstechnik organisiert. Ziel ist es, viele verschiedene in der
Veranstaltungstechnik verwendete Daten, von unterschiedlichen Herstellern, im
gleichen Netzwerk mit einem übergeordneten Rahmenprotokoll zu übertragen.
ACN geht weit über die Grenzen von DMX und der Übertragung vieler DMX-
Universen hinaus. Es funktioniert bidirektional und ermöglicht flexible
netzwerkbasierte Systeme, mit denen auch Audio- und Videodaten, sowie Signale
zur Bühnensteuerung übertragen werden können. Das System kann in Netzwerke
implementiert werden, die auf Ethernet, IP und UDP aufbauen, ist jedoch nicht an
das Transportmedium Ethernet gebunden. Momentan ist Ethernet allerdings die
beste Wahl.

Im ACN-Standard ist eine Rahmenarchitektur durch eine Sammlung von


Dokumenten festgelegt, in der keine bestimmten Protokolle vorgeschrieben sind,
sondern nur Vereinbarungen über das Paketformat, welches von verschiedenen
Protokollen mit bestimmten Abmachungen genutzt werden kann. Somit können
viele bestehende und sich ständig weiter entwickelnde Protokolle unterschiedlicher
Hersteller integriert und miteinander kompatibel gemacht werden. Im ACN-
Standard ist festgelegt, welche Arten von Komponenten es gibt, über welche
Schnittstellen sie mit den angrenzenden Schichten kommunizieren und welche
Abmachungen zwischen den Protokollschichten bestehen. Die Schichten haben
klar definierte Funktionalitäten, so können viele unterschiedliche Elemente
zusammengefügt werden. Damit die verschiedenen Elemente zusammen arbeiten
können werden Interoperabilitäts Profile benötigt. Diese spezifizieren, welche
Elemente genutzt werden und welche Eigenschaften ihre Parameter haben müssen,
um Interoperabilität zwischen verschiedenen Anwendungen zu gewährleisten.
[ESTA06/2]
Grundlagen der Lichtsteuerung und Netzwerktechnik 24

In einem typischen ACN-System werden zur Steuerung die Befehle über Ethernet
gesendet. Die Befehle werden in Form des Device-Management-Protocols (DMP)
zusammen mit SDT- Nachrichten (Session-Data-Transport) im Multicast-Modus
übertragen. SDT ist für eine betriebssichere Multicast-Übertragung, und für das
Sitzungsmanagement zuständig. Wird beispielsweise über Multicast eine große
Zahl von Geräten angesprochen und alle Geräte antworten gleichzeitig dann
kommt es zu Kollisionen, dies wird mittels SDT vermieden. Die DMP und SDT
Nachrichten werden in individuelle PDUs (Protocol-Data-Unit) verpackt, die
anschließend mittels UDP über Ethernet versendet werden.

Wird ein neues Gerät an das Netzwerk angeschlossen, dann wird es über das
Service Location Protocol (SLP) initialisiert und die spezifischen Funktionalitäten
werden analysiert. Anschließend wird das Gerät mittels der Device-Description-
Language (DDL) konfiguriert. DDL ist eine Tabelle, in der die spezifischen
Funktionen der Geräte den Steuerwerten zugeordnet sind. So können Steuergeräte
auch bisher unbekannte Geräte mit all ihren Funktionen steuern. [ETSP05]
Grundlagen der Videotechnik 25

3 Grundlagen der Videotechnik


Video kommt aus dem Lateinischen und bedeutet: „ich sehe“. Die Videotechnik
umfasst elektronische Systeme zur Aufnahme, Übertragung, Bearbeitung und
Wiedergabe von bewegten Bildern. Die Bildinformation kann in unterschiedlichen
Signalformen vorliegen. In den folgenden Abschnitten wird zunächst das analoge
und digitale Videosignal erklärt, anschließend das quantisierte Bild, die Video-
auflösungen und die unterschiedlichen Dateiformate.

3.1 Videosignal

3.1.1 Analoges Videosignal


Die elektronische Farbbildübertragung basiert auf der additiven Farbmischung.
Jeder Bildpunkt wird aus den Primärvalenzen Rot, Grün und Blau zusammen-
gemischt. Die Helligkeitswerte der Farben für jeden Bildpunkt werden durch
Spannungen zwischen null und 0,7 Volt ausgedrückt. Die Spannungen der Bild-
punkte werden zeilenweise seriell übertragen. In Europa geschieht dies mit einer
Bildfrequenz von 25 Hz, in Amerika mit nahezu 30 Hz. Damit kein Groß-
flächenflimmern auftritt, wird die Bildwiederholfrequenz auf 50 bzw. 60 Hz erhöht.
Dies geschieht, in dem jedes Bild in zwei Halbbilder zerlegt wird. Die Halbbilder
werden nacheinander durch das Zeilensprungverfahren dargestellt; ineinander
verkämmt ergeben sie das Gesamtbild. Für den Gleichlauf der Zeilen und Bilder
sorgen horizontale und vertikale Synchronimpulse. Es gibt unterschiedliche
Videosignale, sie unter-scheiden sich durch Bandbreite und Bildqualität.

Das hochwertigste analoge Videosignal ist RGBHV (Rot, Grün, Blau, Horizontal,
Vertikal). Jedes Farb- und Synchronsignal hat seinen eigenen Übertragungskanal, es
werden fünf Leitungen benötigt. RGBHV hat eine sehr hohe Bandbreite und wird
deshalb nur für kurze Übertragungsstrecken verwendet.

Das analoge Komponentensignal kann mit drei Leitungen übertragen werden. Es


setzt sich zusammen aus einem Luminanzsignal Y und zwei Farbdifferenz-
komponenten. Da das Signal die Luminanz-Information separat führt, ist es auch
für Schwarz/Weiß-Empfangsgeräte kompatibel. Das Luminanzsignal wird nach
folgender Gleichung aus den Farbkomponenten gewonnen.

Y = 0,299 R + 0,587 G + 0,114 B


Grundlagen der Videotechnik 26

Die Farbdifferenzkomponenten CR und CB werden durch Subtraktion des Luminanz-


signals gebildet. Zusätzlich werden die Komponenten pegelreduziert, damit sie
eine Maximalspannung von 0,7 VSS nicht überschreiten.

CR = 0,713 (R - Y)

CB = 0,564 (B – Y)

Weiterhin werden die Farbsignale bandbreitenreduziert. Das kann ohne weiteres


geschehen, da das menschliche Auge Farbdetails weniger genau auflösen kann. Die
Synchronsignale werden dem Luminanzsignal beigemischt. Dieses Komponenten-
signal ist Ausgangsformat zur Gewinnung eines hochwertigen Digitalsignals.

Beim Y/C-Signal (S-Video) wird das Bild nur über zwei Leitungen übertragen. Dazu
werden die Farbdifferenzkomponenten CR und CB weiter pegel- und bandbreiten-
reduziert so ergeben sich die Komponenten U und V, welche zu einem
Chrominanzsignal C zusammengefasst werden. Die drei wichtigsten Varianten, die
Farb-signale zusammenzufassen sind in den Farbfernsehnormen SECAM, NTSC
und PAL definiert.

V = 0,877 (R - Y)

U = 0,493 (B – Y)

Das FBAS (Farb-, Bild-, Austast-, Synchonsignal) oder auch Composite Signal kann
über eine Leitung übertragen werden. Dazu werden die beiden Komponenten
Luminanz und Chrominanz zusammengefasst, in dem die beiden Spektren
ineinander verkämmt werden. [US00/1]

3.1.2 Digitales Videosignal


Um aus analogen Videosignalen digitale Signale zu gewinnen, benutzt man Analog-
Digital-Wandler. Das Signal wird durch Abtastung zeitlich diskretisiert,
anschließend quantisiert und codiert. Das Auge kann circa 200 Graustufen
unterscheiden, deshalb werden die Signale mit mindestens acht Bit quantisiert.

Das digitale Composite Signal wird aus dem analogen FBAS-Signal gewonnen, es
wird mit 8Bit quantisiert. Von den möglichen 256 Quantisierungsstufen fallen 64
auf das Synchron Signal, der Bildamplitude bleiben noch 192 Werte und für das
Luminanz Signal verringert sich der Wertebereich sogar auf 148.
Grundlagen der Videotechnik 27

Das digitale Komponentensignal wird aus dem analogen Komponentensignal


gewonnen. Die Luminanz wird mit einer Frequenz von 13,5 MHz abgetastet. Bei der
Chrominanz ist die Abtastrate mit 6,75 MHz halb so groß. Dies reicht aus, da die
Bandbreite des analogen Signals auch verringert ist. Das Verhältnis der Abtastraten
wird mit 4:2:2 beschrieben, dass bedeutet, dass in der Horizontalen die Farbwerte
CR und CB nur für jedes zweite Pixel zur Verfügung stehen.

Das digitale Komponentensignal hat bei einer 4:2:2 Abtastung und einer
Quantisierung von 10 Bit eine Datenrate von 270 Mbit/s ((13,5 + 2 x 6,75) x 10). Ein
Video mit einer Länge von 10 Minuten hat somit eine Größe von 20,25 GByte. Um
diese enormen Datenmengen ökonomisch speichern und übertragen zu können,
müssen die Daten reduziert werden. Bei der Reduktion von Videodaten wird
zwischen Redundanz-, Irrelevanz- und Relevanzreduktion unterschieden. Bei der
Redundanzreduktion werden mehrfach vorliegende Informationen entfernt. Sind
beispielsweise in einem Bild Flächen einheitlich gefärbt, so muss dieser Farbwert
nicht für jeden einzelnen Bildpunkt übertragen werden. Es entstehen keine
Verluste, das Bild lässt sich wieder vollständig reproduzieren. Verfahren der
Redundanzreduktion sind die Variable-Längen-Codierung (VLC) und die
Lauflängen-Codierung (RLC). So können Reduktionsraten von 1:2 erzielt werden. Bei
der Irrelevanzreduktion werden Daten beseitigt, die nicht oder kaum
wahrnehmbare Fehler erzeugen, so dass ein Bild um den Faktor 10 reduziert
werden kann. Die Unterabtastung der Chrominanzanteile ist ein Beispiel dafür. Ist
der Kompressionsfaktor größer als 10, spricht man von einer Relevanzreduktion.
Die Fehler werden zwar immer deutlicher sichtbar, aus ökonomischen Gründen
wird dies aber toleriert.

Bei der Datenreduktion werden die Bilddaten transformiert und Codewörtern


zugeordnet. Auf der Wiedergabeseite wird diese Codierung wieder rückgängig
gemacht. Das Paar von Coder und Decoder wird als Codec bezeichnet. [US00/2]

3.2 Dateiformate
Die kodierten Daten werden meist in so genannte Container verpackt. Die
Container entsprechen einem festen Rahmen, der mit variablen Inhalten gefüllt
werden kann. Im Header der Container steht unter anderem welche Daten
enthalten sind und mit welchem Codec sie arbeiten. In Containern können
mehrere Datenströme enthalten sein, die synchronisiert werden können, meist
sind dies Video- und Audiospuren. Es gibt eine Vielzahl von unterschiedlichen
Grundlagen der Videotechnik 28

Container-Formaten, am weitesten verbreitet sind QuickTime Movie der Firma


Apple und AVI von Microsoft.

QuickTime (QT) ist mehr als nur ein Container-Format. Es ist eine Multimedia-
Architektur, die aus Programmierschnittstellen und verschiedenen Dateiformaten
besteht. In den Container-Dateien können eine Vielzahl unterschiedlicher
Medientypen wie beispielsweise Audio-, Video-, Grafik-, MIDI- oder Flash-Daten
gespeichert werden. Die Daten werden sequenziell oder hierarchisch in so
genannten Atomen gespeichert. Zusätzlich werden Informationen über die
Chronologie oder die Spurdaten gespeichert. QT eignet sich für Streaming-
Anwendungen. Hierbei werden die Atome über einen Synchron-Layer
synchronisiert. Des Weiteren besteht die Möglichkeit, Referenzdaten zu erstellen,
so dass beim Abspielen auf externe Referenzquellen zugegriffen werden kann.

Bei AVI (Audio Video Interleaved) werden Audio- und Videodaten ineinander
verschachtelt, so dass sie synchron abgespielt werden können. Ohne die
Verschachtelung lassen sich Audio und Video schlecht synchronisieren. Am Ende
der Datei ist ein Index der Bilder mit den dazugehörigen Zeitinformationen
gespeichert, dieser wird für die synchrone Wiedergabe benötigt wenn in einem
Video gesprungen wird. Da die Zeitinformationen am Schluss der Datei gespeichert
sind, eignet sich AVI schlecht als Streaming-Format. AVI-Dateien dürfen nur bis zu
2 GByte groß sein und es lassen sich auch keine Referenz-Dateien wie bei QT
erstellen. Dennoch ist AVI ein sehr weit verbreitetes Format.

Es gibt eine Vielzahl weiterer Container-Formate, die mit unterschiedlichen Codecs


arbeiten können. Meist wird in den Endungen der Datei der Name des verwendeten
Containers angegeben. In der folgenden Tabelle sind die gängigsten Container und
die dazu passenden Codecs aufgelistet.

Tabelle 5: Dateiformate

Container Video-Codec Audio-Codec

DivX, H263, H263+, H264, XviD, MPEG-1/2/4,


MS-MPEG-4, DV, Flash Video, M-JPEG, Sorenson
*.mov Video, AAC, AMR, WAV

DivX, H263, H263+, H264, XviD, MPEG-1/2/4, mp2, mp3, AC3,


*.avi MS-MPEG-4, DV, Flash Video, huffYUV, M-JPEG, WAV
Grundlagen der Videotechnik 29

Sorenson Video, WMV7, WMV8

*.ogm Theora Vorbis

*.asf WMV7, WMV8, WMV9, WMV 10, MS-MPEG-4 wma, mp3

*.wmv WMV7, WMV8, WMV9, WMV 10, MS-MPEG-4 wma, mp3

*.mpg MPEG-1/2 mp2, mp3, AC3

DivX, H263, H263+, H264, XviD, MPEG-1/2/4,


*.mp4 Flash Video, M-JPEG AAC, AMR

*.flv Flash Video mp3

*.3gp H263, MPEG-4, XviD ACC, AMR

Damit die Codecs von einem Programm gelesen werden können, müssen die
jeweiligen Codecs auf dem Computer installiert werden. Unter Windows werden
sie durch den DirectShow-Filter zentral verwaltet, so dass mehrere Programme
auch gleichzeitig auf sie zugreifen können. Ausnahmen sind der VLC- und
QuickTime-Player, sie haben die Codecs im Programm integriert. Unter Linux
haben die Player ebenfalls ihre eigenen Codecpacks.

3.3 Quantisiertes Videobild


Bei der Videoaufzeichnung werden Bilder sowohl örtlich als auch zeitlich
abgetastet und quantisiert. Bildflächen werden in Zeilen und Spalten zerlegt und
nacheinander mit einer bestimmten Geschwindigkeit aufgezeichnet. Durch die
Abtastung entstehen zwangsläufig Bildverfälschungen, so genannte Alias-Effekte.
Zeitliche Alias-Effekte sind beispielsweise Flimmer, ruckende Bewegungen oder
sich scheinbar rückwärts drehende Speichenräder. Räumliche Alias-Effekte sind
beispielsweise Treppenstrukturen an Diagonalen oder Moiré-Effekte.

3.3.1 Bildpunkt und Pixel


Alle Bilder werden horizontal in Zeilen und vertikal in Spalten zerlegt. Daraus
ergeben sich klar abgegrenzte Bildpunkte. Die Größe der Bildpunkte ergibt sich aus
dem Zeilen- und Spaltenabstand. Im Computerbereich sind die Abstände meist
gleich, dies führt zu quadratischen Bildpunkten. Die Bildpunkte können jedoch
auch andere Formen annehmen, beispielsweise können sie rechteckig, kreisförmig
oder oval sein. Den Bildpunkten sind Farb- oder Helligkeitswerte zugeordnet, diese
Werte werden als Pixel bezeichnet.
Grundlagen der Videotechnik 30

3.3.2 Örtliche Alias-Effekte


In der Bildverarbeitung treten zwei Formen von örtlichen Alias-Effekten auf, der
Treppen- sowie der Moiré-Effekt. Je größer der Unterschied zwischen der Auflösung
von Vorlage und Abbildung ist, desto größer ist der Treppeneffekt. Wird die
Auflösung vergrößert, dann werden Bildpunkte wiederholt und ergeben größere
Blöcke. Wird die Auflösung verkleinert, so müssen einzelne Pixel einen größeren
Bereich der Abbildung darstellen. Die Übergänge zwischen den Punkten sind
sprunghafter und Treppenstrukturen sind zu erkennen.

Durch Antialiasing können Kanten geglättet werden. Das kann bei der Abtastung
oder bei der Rekonstruktion des Bildes geschehen. Bei der Aufnahme kann dies
erreicht werden, indem anfangs mit einer sehr hohen Frequenz abgetastet,
anschließend mit einem Tiefpass gefiltert und zuletzt mit der gewollten
Ausgabefrequenz untertaktet wird. Bei der Rekonstruktion von Signalen wird
dieses Verfahren in umgekehrter Reihenfolge angewandt. Das Signal mit der
geringeren Abtastfolge wird übertaktet und anschließend mittels eines Tiefpass
weichgezeichnet.

Moiré-Effekte (frz. moirer, marmorieren) machen sich bei der Überlagerung von
Rastern durch die Entstehung neuer Strukturen bemerkbar. Um diese Effekte
gänzlich auszuschließen, muss die Auflösung eines Bildes mindestens doppelt so
groß sein wie die kleinste in der Abbildung vorkommende Struktur. Durch
Tiefpass-Filterung vor der Abtastung können feine Strukturen entfernt werden. Die
Moiré-Effekte können vermieden werden, in dem die Abtastfrequenz so gewählt
wird, dass sie einem ganzzahligen Vielfachen einer räumlichen Struktur entspricht.

Abbildung 4: Treppeneffekt, Moiré-Effekt

3.3.3 Zeitliche Alias-Effekte


Wird ein Bewegungsablauf mit einer Kamera aufgezeichnet, werden eine Vielzahl
einzelner Bilder gespeichert. Die Bewegung ist nicht mehr kontinuierlich, sondern
Grundlagen der Videotechnik 31

zeitlich diskretisiert. Die Bilder müssen mit einer Geschwindigkeit von circa 20
Bildern pro Sekunde abgespielt werden, damit ein Bewegungsablauf als
gleichmäßig empfunden wird. Die Grenze zur Wahrnehmung einer fließenden
Bewegung ist von Mensch zu Mensch leicht verschieden. Läuft der Film langsamer,
dann treten Alias-Fehler in Form von ruckhaften Bewegungen auf.

Ein weiterer Alias-Fehler ist das so genannte Großflächenflimmern. Zwischen den


Bildwechseln treten kurze Dunkelpausen auf, dies führt zu einer ständigen
wiederholten Erregung und Hemmung der Neuronen im Auge, was als Flimmern
wahrgenommen wird. Ab einer Bildfrequenz von circa 50 Hz verschwindet das
Flimmern. Am empfindlichsten reagieren die Sehzellen in den Außenbereichen des
Auges. Dort können Frequenzen bis zu 80 Hz wahrgenommen werden. Bei großen
Blickwinkeln tritt deshalb das Großflächenflimmern stärker in Erscheinung.
Flüssigkristallbildschirme oder LED-Wände flimmern nicht, da hier zwischen den
Bildwechseln keine Dunkelphasen auftreten.

Wenn beispielsweise ein Monitor mit einer Kamera gefilmt wird, kann es auch zu
Alias-Effekten kommen. Dies kann vermieden werden, in dem die Bildfrequenz des
Monitors auf ein Vielfaches der Kamerafrequenz eingestellt wird.

3.3.4 Kell-Faktor
Treppenstufen können ebenfalls weichgezeichnet werden, in dem der
Betrachtungsabstands erhöht wird. Ab einem bestimmten Abstand können zwei
Zeilen nicht mehr separat wahrgenommen werden. Ray D. Kell hat 1934
diesbezüglich Experimente anhand von Versuchspersonen durchgeführt. Er hat
untersucht, ab welcher Abstandsvergrößerung das menschliche Auge nicht mehr in
der Lage ist, ein ungerastertes Bild von einem gerasterten zu unterscheiden. Durch
eine eineinhalbfache Fache Vergrößerung des Betrachtungsabstands werden die
Bilder als gleich empfunden. Der Kehrwert ist der so genannte Kell-Faktor k = 0,67,
er kann auch so interpretiert werden, dass bei einem Bild mit 100 Zeilen nur etwa
67 Zeilen aufgelöst werden können. [US00/3]

3.4 Auflösungen von Videosignalen


Heutzutage werden Videos auf unterschiedlichen Wiedergabemedien mit
unterschiedlichen Auflösungen wiedergegeben. Tabelle 6 führt einige derzeit
gängige Anzeigenformate auf, sie ist in Internet-Film-, Video- und Computer-
auflösungen unterteilt.
Grundlagen der Videotechnik 32

Tabelle 6: Videoauflösungen

Bezeichnung Auflösung B x H Bemerkung


Internet-Film
Briefmarke 160 x 120 kleinste annehmbare Größe
Film klein 240 x 180 Standard-Größe
Film groß 320 x 240 Standard-Größe
Video
VCD PAL 352 x 288 Video CD
VCD NTSC 352 x 240 Video CD
SVCD PAL 480 x 576 Super Video CD
SVCD NTSC 480 x 480 Super Video CD
TV PAL 768 x 576 (4:3) Sichtbares Format
TV NTSC 720 x 540 (4:3) Sichtbares Format
DV Video PAL 720 x 576 (5:4) Standard-Digital-Video-Format
DV Video NTSC 720 x 480 (3:2) Standard-Digital-Video-Format
HDTV 1920 x 1080 High Definition TV, kein einh.
Computer
VGA / 4:3 640 x 480 (4:3) 14"-CRT-Monitore
SVGA / 4:3 800 x 600 (4:3) 15"-CRT-Monitore
XGA / 4:3 1024 x768 17"-CRT-/15"-TFT-Monitore
SXGA / 5:4 1280 x 1024 17-19" CRT-/TFT-Monitore
UXGA/ 4:3 1600 x 1200 (4:3) 19"-CRT-/TFT-Monitore
QXGA / 4:3 2048 x 1536 (4:3) 22"-CRT-/TFT-Monitore

Die Zeilenzahl des Standardfernsehsignals wurde über das Auflösungsvermögen


des Auges, unter Berücksichtigung des Kell-Faktors und dem durchschnittlichen
Betrachtungsabstand zum Fernsehgerät definiert. Für die Auswahl einer Auflösung
muss der Betrachtungsabstand berücksichtigt werden. Man spricht von einer
Standardauflösung, wenn die Bildpunkte bei durchschnittlichem Betrachtungs-
abstand nicht mehr aufgelöst werden können. Bei hoher Auflösung kann ein Bild
aus naher Entfernung betrachtet werden, ohne die Bildpunkte zu sehen und bei
geringer Auflösung sind die Bildpunkte aus durchschnittlicher Entfernung deutlich
sichtbar.
Matrix-Ansteuerung von Leuchtmitteln 33

4 Matrix-Ansteuerung von Leuchtmitteln

4.1 Komponenten einer Steuerung


Zur Steuerung einer Lichtwand werden verschiede Komponenten benötigt. Patch-
Hilfen um die Lampen den endsprechenden Steuerkanälen zuzuordnen. Die Licht-
steuerung selbst, diese kann eine Soft- oder Hardware sein, welche Bildsignale in
Lichtsteuersignale umwandelt. Nodes werden benötigt wenn das Lichtsteuersignal
über Ethernet übertragen wird, diese wandeln das Signal von Ethernet auf DMX.
Und am Ende der Kette Dimmer, um die Helligkeit der Leuchtmittel zu regulieren.

4.1.1 Patch-Hilfen
Bei einer großen Anzahl von Lampen ist es sehr aufwändig, den Lampen die
entsprechenden Steuerkanäle zuzuordnen. Zur Vereinfachung bieten die Software-
Hersteller Patch-Hilfen an, deren Funktion sich folgendermaßen erklären lässt: Die
einzelnen Lampen, beziehungsweise die Dimmer, haben jeweils eine DMX-Adresse.
Handelt es sich um eine RGB-Matrix, so werden für jeden Bildpunkt drei DMX-
Adressen benötigt. Bei einer Matrix die aus Movinglights besteht, werden nur die
Adressen der drei RGB-Kanäle verwendet. Den DMX-Adressen werden programm-
interne Lampen-Nummern (Screen-IDs) zugeordnet; dieser Vorgang nennt sich
Patching. Die IDs repräsentieren die Lampen und ihre Position in der Matrix. So
kann das Programm die Pixelinformationen aus einem Bild oder Video den
entsprechenden DMX-Kanälen und somit den richtigen Lampen zuordnen.

Aus einer Bibliothek werden Lampen ausgewählt, die dann in einem Raster
angeordnet werden. Das Raster entspricht der Auflösung der Lampen-Matrix. Jeder
Pixel in diesem Raster hat eine feste Screen-ID, unabhängig davon, ob dem Pixel
eine Lampe zugeordnet ist oder nicht. Soll ein Bild auf der Matrix abgebildet
werden, so werden jeder Screen-ID Helligkeitsinformationen zugeordnet. Die
Helligkeitswerte werden für alle Screen-IDs der Matrix berechnet, auch wenn sich
an manchen Stellen keine Lampen befinden. Beim Erstellen des Rasters muss
beachtet werden, dass mit steigender Anzahl von Screen-IDs eines Rasters auch die
benötigte Rechenleistung steigt. In der Patch-Hilfe wird festgelegt, wo die DMX-
Adressierung der Lampen beginnt, d. h., ob sie horizontal oder vertikal verläuft und
ob sie reihenweise durchnummeriert ist oder nach jeder zweiten Reihe die
Laufrichtung ändern soll (Snake-Mode). Sind einzelne Lampen falsch montiert oder
adressiert, so können diese durch Adressänderung im Patching korrigiert werden.
Die folgende Abbildung zeigt das Patching einer RGB-Matrix. 20 Lampen sind auf
Matrix-Ansteuerung von Leuchtmitteln 34

einem Raster mit der Auflösung von 5x5 angeordnet. Die obere Zahl steht für die
Screen-ID, die Untere für die DMX-Adresse.

Abbildung 5: Zuordnung Screen-ID – DMX-Adresse

In einem Raster können auch verschiedene Leuchtmodule angeordnet werden. Die


Leuchten unterscheiden sich in der Anzahl der Pixel sowie durch ihre räumliche
Größe, das heißt, sie können unterschiedlich große Bildpunkte haben. Damit Bilder
proportional richtig wiedergegeben werden können, muss die Größe der Bildpunkte
berücksichtigt werden. Werden etwa in einem Raster zwei Leuchten-Typen gleicher
Größe angeordnet – Lampe A hat 2 x 2 Pixel und Lampe B hat 4 x 4 Pixel – so
könnten jeweils 4 Pixel der Lampe B einer Screen-ID zugeordnet werden. Somit ist
die Auflösung der Lampe B viermal so klein, aber das Bild wird proportional richtig
wiedergegeben.

Wenn in einem Raster zwei gleichgroße Lampen A und C angeordnet werden und
Lampe C 3 x 3 Pixel hat, so lässt sich das Problem nur lösen, wenn bei beiden
Lampen eine Auflösungsverringerung durchgeführt wird. Bei Lampe A werden 2
Pixel zusammengefasst und bei Lampe C jeweils 3 Pixel.

Auflösungsverringerungen sind allerdings häufig nicht erwünscht, da sie die


Bildqualität mindern. Ist der Größen- und Pixel-Unterschied der Lampen nicht sehr
groß, kann der Darstellungsfehler minimiert werden, indem das Raster durch die
Lampen bestimmt wird, welche die meisten Pixel im Verhältnis zu ihrer Größe
haben. Würden beispielsweise in einem Aufbau zwei Lampen ähnlicher Größe mit
14 x 14 und zwei mit 16 x 16 Pixeln miteinander kombiniert, so würde man ein
Raster von 32 x 30 wählen. Somit geht am wenigsten Bildinformation verloren. Die
16er-Lampen füllen eine Hälfte des Rasters optimal aus und die 14er-Lampen
werden möglichst gleichmäßig in der anderen Hälfte verteilt. Sie werden also
jeweils oben und unten um ein Pixel einrückt, so verteilt sich die vertikale
Verzerrungen über die gesamte Bildhöhe.
Matrix-Ansteuerung von Leuchtmitteln 35

Abbildung 6: Matrix mit Lampen unterschiedliche Auflösung

In manchen Programmen gibt es zusätzlich die Möglichkeit, das Patching in


mehreren Sektionen zu erstellen. Diese Sektionen können mit demselben oder
unterschiedlichen Videos bespielt werden. So ist es beispielsweise möglich, auf
zwei Matrizen, zwischen denen ein räumlicher Abstand besteht, ein Bild der
gleichen Videoquelle darzustellen. Jede Matrix entspricht einer Sektion, und in den
Sektionen wird jeweils ein Bildbereich dargestellt. Für den Bereich zwischen den
Matrizen werden keine Bilder berechnet.

Mit Hilfe der Sektionen wird es ermöglicht, ein Videobild oder Teile daraus in
unterschiedliche Auflösungen umzurechnen. Das Bild wird dazu unterschiedlich
gerastert, so kann es proportional richtig dargestellt werden und die Pixel
entsprechen somit den richtigen Informationen aus dem Originalbild. Dies ist von
Vorteil bei Lampen mit unterschiedlich großen Bildpunkten darstellen. So kann
beispielsweise ein Gesamtbild, auf mehreren Matrizen, mit unterschiedlicher
Auflösung proportional richtig dargestellt werden.

Sektionen ermöglichen es ganzheitliche Shows zu erstellen, so kann beispielsweise


ein komplettes Bühnenbild bestehend Moving-Lights, LED-Wand und Video-
projektion über das gleiche Videosignal gesteuert werden. Läuft beispielsweise ein
roter Balken durch das Videobild so ändert sich die Farben der Moving-Lights der
LEDs und der Projektion. Mit einer Videoquelle wird eine gesamte Show gesteuert.

Mit mehreren Sektionen hat man viele Möglichkeiten; allerdings wird dabei eine
hohe Rechenleistung benötigt, da ein Video für jede Sektion einzeln skaliert werden
muss. Die Skaliervorgänge benötigen unterschiedlich viel Zeit, deshalb müssen die
DMX-Daten vor der Signalausgabe synchronisiert werden.

4.1.2 Steuerung mittels Software


In diesem Abschnitt werden die verschiedenen Steuermöglichkeiten vorgestellt, die
benutzt werden um Matrizen zu bespielen. Es wird nur auf die grundlegenden
Funktionen eingegangen; Einzelheiten und spezielle Funktionen der Software-
Hersteller werden im Abschnitt 4.2 besprochen.
Matrix-Ansteuerung von Leuchtmitteln 36

Die Grundlage für jede Matrix-Steuerung ist immer das vorliegende Patch. Die Soft-
oder Hardware muss die Positionen der Lampen in der Matrix mit den dazu-
gehörigen DMX-Adressen kennen.

Es gibt unterschiedliche Matrix-Steuerungen. Zum einen können normale


Lichtsteuer-Programme verwendet werden, bei denen einzelne Lichtstimmungen
manuell erstellt und anschließend in Cues gespeichert werden. Der Begriff Cue
(engl. Stichwort, Aufruf) bezeichnet in der Lichttechnik eine Lichtstimmung. Die
Cues werden in Cue-Listen organisiert und können ineinander geblendet werden.
Dazu werden den einzelnen Cues Fade- und Wartezeiten zugeordnet. Es können
auch mehrere Cue-Listen gleichzeitig abgespielt werden. Steuern mehrere Cue-
Listen dieselben DMX-Kanäle an, so werden die Werte nach dem LTP- oder HTP-
Prinzip ausgegeben. Eine Matrix mit einer normalen Lichtsteuerung zu bespielen ist
allerdings sehr aufwendig und wird aus diesem Grund nur bei sehr kleinen
Matrizen angewandt. Einige Hersteller bieten für diese Art der Steuerung Tools an,
mit denen Bilder einfach in einer Matrix erstellt werden können.

Eine weitere Steuerungsmöglichkeit bieten so genannte Effektgeneratoren. Mit


einem Effektgenerator können Farb- und Helligkeitswerte oder andere Attribute
einer ausgewählten Gruppe von Lampen über mathematische Funktionen gesteuert
werden. So kann beispielsweise die Helligkeit aller roten Lampen durch eine Sinus-
Funktion gesteuert werden. Dadurch würden sie alle sinusförmig hell und dunkel
werden. Es gibt eine große Auswahl an Funktionen und der Anwender kann selbst
welche erstellen. Die Programme vergeben die Screen-IDs nach einem festgelegten
Schema. Werden die Screen-IDs beispielsweise vertikal vergeben, so sind die
Lampen in der ersten Reihe einer 16er Matrix von 1 bis 16 durchnummeriert, die
zweite Spalte beginnt mit der Lampennummer 17 usw. Die Effekte können in der
Matrix mit ansteigender Screen-ID verzögert werden, so dass beispielsweise ein
horizontaler Verlauf entsteht. Weitere Einstellungen ermöglichen, dass der Effekt
nur auf eine bestimmte Gruppe von Lampen angewandt wird. Wird beispielsweise
in oben genannter Matrix eine Sinusfunktion auf eine Gruppe von 16 Pixeln
verzögert angewandt, so entsteht ein vertikaler Verlauf. Die Sinus-Funktion wird
zeitlich verzögert auf jeden 16ten Pixel angewandt. Würde man die Funktion
beispielsweise auf jeden achten Pixel anwenden, so entstünden zwei vertikal
verlaufende Balken und bei einer Zahl, die kein Teiler der Matrix-Auflösung ist,
beispielsweise 14, ergibt sich ein schräger Verlauf.
Matrix-Ansteuerung von Leuchtmitteln 37

Abbildung 7: Sinus angewendet auf eine Gruppe von 16, 8 und 14 Bildpunkten

Zusätzlich zur Funktion können die Amplitude der Funktion, die Verzögerung
sowie die Geschwindigkeit eingestellt werden. Die Effekte können kombiniert und
auf verschiedene Gruppen angewandt werden, so dass interessante Farbspiele
entstehen.

Eine Matrix über eine normale Lichtsteuerung anzusteuern ist sehr arbeitsintensiv,
und mit Effekt-Generatoren sind die Möglichkeiten begrenzt. Deshalb werden zur
Bespielung einer Matrix häufig Bilder oder Videos benutzt, wobei die Software die
Bilddaten in Lichtsteuersignale umwandelt. Dieser Vorgang nennt sich
Pixelmapping. Um Pixelmapping umsetzen zu können, wird eine Videozuspielung
benötigt. Die Zuspielung der Videos erfolgt entweder über ein Programm, welches
auf demselben Rechner läuft, oder aber extern über DVI (Digital Visual Interface)
oder eine Capture-Karte. DVI ist eine digitale Schnittstelle um unkomprimierte
Multimediadaten zu übertragen. Capture-Karten wandelen ein analoges- in ein
digitales Videosignal. Die Zuspielung kann beispielsweise von einem Medienplayer,
Medienserver, VJ-Programm, DVD-Player oder über eine Live-Kamera erfolgen.
Haben die Bilder nicht die passende Auflösung, kann ein Ausschnitt aus dem Bild
ausgewählt werden, oder das Bild wird in der Größe verändert und durch Stauchen
oder Strecken an die Matrix angepasst. Hierzu gibt es unterschiedliche
Skalieralgorithmen (siehe 4.3). Der Rechenprozess für die Bildskalierung kann auf
der CPU oder der Grafikkarte ausgeführt werden.

Um die Bilddaten in Lichtsteuersignale umzuwandeln, wird die Bildinformation in


Form von RGB-24-Bit-Werten pro Pixel benötigt. Die Lampen werden bei DMX mit
jeweils 8 Bit angesteuert, bei drei Farben ergibt dies also 24 Bit pro Bildpunkt.
Handelt es sich um eine einfarbige Matrix, so müssten korrekterweise die einzelnen
RGB-Werte mit der Formel Y = 0,299 R + 0,587 G + 0,114 B in 8-Bit-Luminanzwerte Y
umgerechnet werden. Häufig wird zugunsten der Rechenleistung aber mit
einfachen Formeln gerechnet.

Die RGB-24-Bit-Werte werden vom Mediaplayer oder der Capture-Karte abgegriffen.


Liegt das Video-Signal nicht in Form von RGB-Werten, sondern beispielsweise als
Matrix-Ansteuerung von Leuchtmitteln 38

YUV-Signal vor, so muss es zunächst in RGB-24 gewandelt werden. Manche


Programme bieten zusätzlich die Möglichkeit, die Bilddaten zu verändern, so dass
beispielsweise noch Farb-, Kontrast- oder Helligkeitseinstellungen vorgenommen
werden können. Die Farb- oder Helligkeitsinformationen der einzelnen Pixel
werden dann in DMX-Signale gewandelt. Die DMX-Signale werden möglicherweise
noch in Container eines Ethernet-Protokolls verpackt und anschließend
ausgegeben.

Bei einigen Programmen gibt es die Möglichkeit der automatischen Cue-Listen-


Erstellung, womit beispielsweise Bitmaps oder Laufschriften auf einer Matrix
dargestellt werden können. Dazu wird ein Bitmap in das Programm geladen, das
Bitmap wird auf die Größe der Matrix skaliert und als Lichtstimmung ausgegeben.
Bitmaps eignen sich hierfür, da sie meist in RGB-24-Bit-Form vorliegen und somit
einfach in DMX gewandelt werden können. Bei einigen Programmen besteht
außerdem die Möglichkeit, die Bilder zu animieren; so kann beispielsweise ein Bild
vergrößert, rotiert und vertikal oder horizontal bewegt dargestellt werden. Dazu
wird eingestellt, wie lange die Animation dauert und in wie viele Cues sie
geschrieben werden soll.

Bei den Laufschriften wird ähnlich verfahren. Man wählt einen Schrifttyp aus einer
Auswahl der installierten Zeichensätze, bestimmt die Größe, Schrift- und
Hintergrundfarbe sowie die Laufrichtung. Aus diesen Angaben berechnet das
Programm eine Cue-Liste. Die Geschwindigkeit kann anschließend über die Fade-
und Wartezeiten eingestellt werden.

4.1.3 Steuerung mittels Hardware


Einige Hersteller bieten Geräte an, mit denen die Video-Signale direkt in DMX oder
ein proprietäres Steuerprotokoll umgewandelt werden können. Diese Geräte haben
den Vorteil, dass sie sehr einfach zu handhaben sind. Ein Video wird eingespielt
und in das Steuersignal gewandelt. Ein weiterer Vorteil dieser Geräte ist ihre
Schnelligkeit, da die Hardware auf die speziellen Anforderungen ausgerichtet ist.
Aus diesem Grund werden sie meist in Anwendungen mit sehr vielen Kanälen
verwendet, denn Softwarelösungen würden hier sehr viel Rechenleistung in
Anspruch nehmen.

Als Videoschnittstelle wird häufig DVI genutzt, da das Signal schon in digitaler
Form vorliegt und nicht unnötig von digital nach analog und wieder zurück
gewandelt werden muss.
Matrix-Ansteuerung von Leuchtmitteln 39

Es gibt jedoch auch Geräte mit anderen Videoeingängen. Damit die DMX-Kanäle
den richtigen Lampen zugeordnet werden können, wird auch hier ein Patch
benötigt. Mit einer Patch-Hilfe wird eine Zuordnungstabelle erstellt und auf der
Hardware abgespeichert. Um den richtigen Bildausschnitt zu bearbeiten, benötigt
die Hardware sechs weitere Informationen: den Skalierfaktor in X- und Y-Richtung,
die X- und Y-Position des ersten Pixels sowie die Höhe und Breite des Ausschnitts.
Die Eingabe kann über die Patch-Hilfe oder durch Einstellungen an der Hardware
geschehen. Optimalerweise kann der Bildausschnitt in einer Vorschau visuell
ausgewählt werden. Die Hardware-Geräte können auch kaskadiert werden, dazu
wird das Video-Signal durchgeschliffen. Die einzelnen Geräte können dann jeweils
einen bestimmten Bereich des Videos wiedergeben.

Bei den Hardwarelösungen gibt es große preisliche Unterschiede. Diese werden


durch die verschiedenen Videoschnittstellen und die Art der Skalierung begründet.
Teure Geräte bieten mehrere Videoschnittstellen an. Hier kann der horizontale
sowie der vertikale Skalierfaktor frei gewählt werden, so dass das Bildpixel genau
an die Matrix angepasst werden kann. Einfachere Geräte können nur proportional
skalieren. Dadurch bleibt das Bild-Seitenverhältnis gleich und es stehen nur
festgelegte Skalierfaktoren zu Verfügung. Der Bildausschnitt kann bei allen Geräten
frei gewählt werden. Kompliziertere Algorithmen lassen sich schwieriger in
Hardware umsetzen, denn sie benötigen teurere Bausteine und eine längere
Entwicklungszeit. Das bedeutet nicht, dass einfachere Geräte schlechtere
Ergebnisse erzielen, jedoch sind sie in ihren Möglichkeiten eingeschränkter. Wenn
ein Video schon im Vorfeld auf die richtige Größe skaliert wird, so kann man ein
einfaches Gerät benutzen. Dasselbe gilt, wenn ein beschnittenes Bild in Kauf
genommen werden kann, falls der Skalierfaktor nicht exakt stimmt. Wenn mehrere
Geräte zum Einsatz kommen, kann durch eine günstige Auswahl von Ausschnitt
und Skalierfaktor durchaus ein passendes Ergebnis erzielt werden, so dass
möglichst wenig vom gewünschten Bild fehlt. Die Geräte können eine bestimmte
Anzahl von Pixeln ausgeben, wobei häufig die Anzahl der Pixel auf die Höhe und
Breite beschränkt ist. Durch die Wahl des Ausschnitts kann zwar ein anderes
Zeilen-Spalten-Verhältnis gewählt werden, jedoch ist es teilweise nicht möglich,
durch eine Verminderung der Zeilen die Anzahl der Spalten zu erhöhen.

4.1.4 Nodes und Replayunits


Steuersignale werden meist mit Hilfe von Netzwerkprotokollen übertragen. Die
Geräte sind über Hubs oder Switches miteinander verbunden. Werden die Daten
nur im Broadcast-Modus gesendet, so empfiehlt sich die Verwendung von Hubs, da
sie die Daten nur weiterleiten. Switches hingegen analysieren die Datenpakete, um
Matrix-Ansteuerung von Leuchtmitteln 40

sie zu routen. Dies kann minimale Verzögerungen verursachen, da Broadcast-


Pakete sowieso an alle Teilnehmer gesendet werden sind Switches überflüssig. Bei
Netzwerkprotokollen, die Uni- oder Multicast unterstützen, sollte man Switches
verwenden. Hierbei werden die Daten gezielt geroutet, es kommt zu weniger
Kollisionen und die Übertragung hoher Datenraten kann gewährleistet werden.

Nodes wandeln das Ethernetprotokoll zurück in DMX-Daten, die anschließend an


Dimmer oder Lampen weitergeleitet werden. Sie sind etwa so groß wie eine
Zigarettenschachtel und sind teilweise bereits in Lampen integriert. Sowohl interne
als auch externe Nodes müssen mit Strom versorgt werden; teilweise geschieht
dies durch die Verbindung der Lampe über zwei freie Adern der DMX-Leitung.

Es gibt Nodes, deren Funktion ausschließlich darin besteht, das Netzwerkprotokoll


in DMX zu wandeln. Andere haben zusätzlich eine integrierte Replayunit, mit der
DMX- oder Showdaten gespeichert und anschließend eigenständig wiedergeben
werden können, ohne dass dazu ein Computer oder eine Steuerung benötigt wird.
Diese Geräte werden gerne bei Festinstallationen, Messeständen oder Aus-
stellungen benutzt, bei denen dieselbe Show über einen längeren Zeitraum
abgespielt wird. Die Daten werden auf einem internen Speicher oder auf einer
Speicherkarte abgelegt. Die Shows können an einem beliebigen Ort erstellt und
anschließend auf das Gerät gespielt werden. Speicherkarten haben den Vorteil,
dass eine Show durch einfaches Tauschen der Karte geändert werden kann.

Es gibt unterschiedliche Replayunits. Einige arbeiten als DMX-Recorder, sie


zeichnen DMX-Daten in Echtzeit auf. Das ist sehr zeitaufwändig, wird auch nur ein
Detail an der Show geändert, so muss die Show in ihrer gesamten Länge nochmals
in Echtzeit gespeichert werden. Auf Knopfdruck am Gerät oder über eine IR-
Fernbedienung kann anschließend die Wiedergabe der Daten gestartet werden.

Neben den DMX-Recordern gibt es Microserver die Show-Daten speichern und


wiedergeben können, das Speichern der dieser Daten geht sehr schnell. Die Show-
Daten können entweder die DMX-Daten enthalten, diese werden von einem
externen Programm erstellt, oder das Gerät speichert nur die Informationen der
Cue-Listen und generiert die DMX-Werte selber. Je nach Bedarf kann eingestellt
werden, ob nur eine ausgewählte Cue-Liste durchläuft oder ob alle Cue-Listen
hintereinander abgespielt und geloopt werden.

Bei größeren Anwendungen können auch mehrere Microserver miteinander


verbunden werden. Die Geräte synchronisieren sich gegenseitig, so ist es
beispielsweise möglich, Videoinhalte auf einer großen Matrixinstallation ab-
zuspielen, ohne dass dazu ein Steuerrechner benötigt wird.
Matrix-Ansteuerung von Leuchtmitteln 41

4.1.5 Dimmer
Die Lichtsteuerung auf der Lastseite erfolgt mit Hilfe von Dimmern. Die Dimmer
empfangen die Steuer-Signale, setzen sie um und regeln die Stromzufuhr der
Lampen. Am Dimmer wird für jede Lampe eine DMX-Adresse eingestellt. Wenn
Lampen viele Adressen besitzen, genügt in der Regel die Eingabe der ersten
Adresse. Die weiteren Adressen, die zu steuernden Funktionen oder die
Lampenpositionen in einem Leuchtmodul sind in einer Bibliothek in der
Lichtsteuerung hinterlegt.

An den meisten Dimmern können Preheat- und Begrenzungswerte sowie


Dimmkurven eingestellt werden, diese Einstellungen können meist auch an der
Lichtsteuerung vorgenommen werden. Um die Lebensdauer der Leuchtmittel zu
erhöhen, werden Preheat-Einstellungen benutzt, die Glühwendeln der
Leuchtmittel werden dabei vorgeheizt. Bei schnellen Lichtwechseln wird die
Glühwendel durch das Vorheizen nicht so stark belastet.

Begrenzungswerte regeln den Strom nach oben hin ab, so kann bei einzelnen
Kanälen der Strom begrenzt werden. Wenn eine Glühlampe nicht mit voller
Leistung arbeitet, erhöht sich ihre Lebensdauer.

Dimmkurven geben die Relationen zwischen einer am Lichtpult eingestellten


Helligkeit und dem tatsächlichen Ausgangswert am Dimmer an. Dimmkurven
werden dazu verwendet, die Regelcharakteristik von unterschiedlichen
Lichtquellen entsprechend anzupassen.

Es gibt verschiedene Arten von Dimmern, sie werden für bestimmte Leucht-
mitteltypen eingesetzt und unterscheiden sich durch die verwendete Technik.
Dimmer mit elektronischer Phasenanschnittsteuerung, die mit Thyristoren oder
Triacs arbeiten, werden hauptsächlich für Ohm´sche Lasten, wie Glühlampen
benutzt. Sie dimmen, indem die Spannung zu Beginn der Phase für eine bestimmte
Zeit unterbrochen wird, so dass nur ein Teil des Stroms fließen kann. Diese
Dimmer haben einen guten Wirkungsgrad, arbeiten lastunabhängig und können
klein und leicht gebaut werden. Nachteil dieser Geräte sind die Oberwellen, die
beim Phasenanschnitt entstehen. Sie sind meist um ein Vielfaches höher als die
Netzfrequenz und können bis in den UKW-Bereich hinein reichen. Durch Drosseln
können die Oberwellen abgeschwächt werden. Diese Bauteile sind allerdings
schwer und geraten in Schwingung, was sich durch ein Brummen bemerkbar
macht.

Dimmer die mit Phasenabschnittsteuerung arbeiten und Transistoren verwenden,


werden für Ohm´sche und kapazitive Lasten eingesetzt. Geräte mit kapazitiver Last
Matrix-Ansteuerung von Leuchtmitteln 42

sind beispielsweise Leuchten mit Elektronischen Vorschaltgeräten (EVG). Bei der


Phasenabschnittsteuerung wird die Spannung nach einer bestimmten Zeit der
Phase unterbrochen. Ansonsten haben sie die gleichen Eigenschaften wie Dimmer
mit Phasenanschnittsteuerung.

Es gibt auch Transistordimmer die sich zwischen Phasenan- und abschnitt


umschalten lasse. Sie können für Ohm´sche, induktive oder kapazitive Lasten
benutzt werden. Induktive Lasten sind beispielsweise Geräte, die magnetische
Transformatoren benutzen, wie Niedervolt-Halogen- oder Leuchtstofflampen. Bei
induktiven Lasten wird die Phasenanschnitt-, bei kapazitiven Lasten die
Phasenabschnittstechnik verwendet. [RG00]

Zudem gibt es noch so genannte Sinusdimmer. Diese verwenden ebenfalls


Transistoren und können für Ohm´sche, induktive und kapazitive Lasten benutzt
werden. Der Dimmvorgang wird durch eine Amplitudensteuerung erzielt. Der
Sinus-Dimmer besteht aus zwei Stufen: In der Eingangsstufe wird die Netz-
spannung hochfrequent mittels Pulsweiten-Modulation (PWM) zerlegt und die
Amplitude reguliert. In der Ausgangsstufe werden die hochfrequenten Anteile der
PWM entfernt und eine Sinuskurve wird rekonstruiert. Diese Dimmer sind
universell einsetzbar, haben wenige störende Oberwellen und sind sehr leise;
allerdings ist diese Technik relativ teuer. [FL04]

LEDs werden mit niedrigen Spannungen betrieben. Durch Veränderung der


Spannung kann die Intensität reguliert werden. Die Beziehung zwischen Spannung
und Helligkeit variiert je nach Farbe der LEDs. Werden drei LEDs mit den
Grundfarben Rot, Grün und Blau gleichzeitig über die Spannung gedimmt, so
kommt es zu Farbverschiebungen. Abhilfe kann mit der Pulsweiten Modulation
(PWM) geschafft werden. Die Spannung bleibt konstant, nur die Pulsweite variiert.
Die Helligkeit wird über die An- und Ausschalt-Zeiten von Rechteckimpulsen
verändert, so können verschiedenfarbige LEDs gleichmäßig gedimmt werden. Die
Elektronik, mit der LEDs mit Spannung versorgt und gedimmt werden, heißt
Treiber. Ein Nachteil der PWM sind die Oberwellen, welche durch die Recht-
eckimpulse entstehen. Es empfiehlt sich grundsätzlich, die Treiber möglichst nah
an der LED zu installieren. Ist der Treiber von der LED weiter entfernt, so werden
die hochfrequenten Oberwellen über die Leitung abgestrahlt; deshalb sollten die
Leitungen in diesem Fall immer geschirmt sein.

Die Regulierung der Pulsweite bewirkt in großen Bereichen eine lineare Änderung
der Effektivspannung. LEDs haben jedoch keine lineare Kennlinie, die Helligkeit
Matrix-Ansteuerung von Leuchtmitteln 43

steigt mit zunehmender Spannung nicht linear an. Durch Anpassung der
Dimmkurve im Treiber oder in der Lichtsteuerung kann in den unteren Bereichen
die Helligkeit genauer geregelt werden. Dies führt allerdings dazu, dass in den
unteren Bereichen der Kennlinie die Auflösung nicht mehr fein genug ist, um
weiche Übergänge zu schaffen. Dadurch bedingt können die LEDs nicht stufenlos
bis auf null gedimmt werden und es treten deutliche Helligkeitssprünge auf.
Abhilfe kann geschaffen werden, in dem der Treiber intern mit einer höheren
Bitzahl arbeitet als das Steuersignal. An hochwertigen Treibern kann zusätzlich die
PWM-Frequenz eingestellt werden, um Alias-Effekte zu vermeiden, wenn
beispielsweise LEDs gefilmt werden.

4.1.6 Zusammenspiel der Komponenten


Damit ein Matrixsystem optimal funktioniert, müssen die einzelnen Komponenten
der Steuerung richtig aufeinander abgestimmt sein. Im Folgenden werden mögliche
Fehlerquellen besprochen.

Ist beispielsweise ein fehlerhaftes internes Patching einer Lampe in der Bibliothek
einer Lichtsteuerung hinterlegt, so werden die Lampen falsch angesteuert. Dies
kann eintreten, wenn Hersteller ihre Produkte verändern, und die Bibliothek nicht
aktualisiert wird.

Die Hardware muss auf die Anwendung zugeschnitten sein. Die Rechenleistung
des Computers und die der Grafikkarte müssen den Anforderungen entsprechend
dimensioniert sein, da sonst die flüssige Bildwiedergabe nicht gewährleistet ist. Ist
ein System überlastet, so können die einzelnen Bilder nicht schnell genug
berechnet werden. Bei leichter Überlastung werden die einzelnen Steuersignale mit
geringer Verzögerung ausgegeben und die Bewegungen im Bild erscheinen etwas
verzogen, bei starker Überlastung können ganze Bilder nicht mehr berechnet
werden und das Video beginnt zu ruckeln.

Bei Grafikkarten ist darauf zu achten, ob es sich um eine Single- oder eine Dual-
Head-Karte handelt. Dual-Head-Karten können zwei unterschiedliche Bilder
ausgeben. So kann beispielsweise auf einem Bildschirm die Oberfläche eines
Steuerprogramms ausgeführt werden und über den zweiten Ausgang ein Video
ausgeben werden. Manche Grafikartentreiber sind nicht in der Lage, ein Video
abzuspielen und es gleichzeitig über einen anderen Ausgang auszugeben. Des
Weiteren sollte beachtet werden welche Programmierschnittstellen die Software
benutzt. Manche Grafikkarten sind besser kompatibel mit OpenGL und andere mit
Matrix-Ansteuerung von Leuchtmitteln 44

DirectX. Bei den Capture-Karten für den Videoeingang muss ebenfalls auf die
Kompatibilität mit der Software geachtet werden.

Die Netzwerkkomponenten müssen ebenfalls auf das System zugeschnitten sein.


Netzwerkkarten, Nodes, Hubs, Switches sowie die Kabelschirmung sollten
großzügig dimensioniert werden, da ein Netzwerk für kurze Zeit langsamer ist,
wenn es zu Kollisionen kommt.

Lichtquellen haben unterschiedliche Regelcharakteristiken. Damit die Helligkeit


proportional zum visuellen Empfinden geregelt werden kann, müssen die
Dimmkurven von Lichtstellpult und Dimmer an die Regelcharakteristik der
Lichtquelle angepasst werden.

Die Trägheit der Lampen muss ebenfalls berücksichtigt werden. Glühlampen sind
relativ träge im Vergleich zu LEDs. Wird eine Glühlampe nur für einen sehr kurzen
Impuls angesteuert, so besteht die Möglichkeit, dass sie ihre volle Helligkeit nicht
erreicht. LEDs hingegen reagieren sehr schnell.

4.2 Marktübersicht Matrix-Software


Es gibt viele unterschiedliche Hersteller, die Software für Matrix-Steuerungen
anbieten. In folgendem Abschnitt werden einige dieser Programme verglichen,
dabei wird nur auf Produkte eingegangen die DMX oder ein Protokoll das in DMX
gewandelt werden kann ausgeben.

Die Steuerungen werden in unterschiedlichen Einsatzgebieten eingesetzt und


unterscheiden sich durch ihre Funktionen und Benutzeroberflächen. Man kann
grob unterscheiden zwischen Programmen, die nur Video in Lichtsteuersignale
wandeln – diese werden häufig im Zusammenhang mit Medienservern angewandt
– und Programmen, bei denen die Matrixfunktionen in eine Lichtsteuerumgebung
eingebettet sind. Letztere machen Sinn, wenn zusätzlich zur Matrix noch weitere
Lampen oder einzelne Lampen der Matrix unabhängig vom Video gesteuert werden
sollen. In eine Matrix, die mit einer reinen Pixelmapping-Software gesteuert wird,
kann allerdings auch mit einer Lichtsteuerung eingegriffen werden. Diese muss an
einen Merger angebunden sein.

4.2.1 Lichtsteuersoftware
Die Firma e:cue bietet zwei verschiedene Produkte im Bereich der
Lichtsteuersoftware an. Den „UFGM-Player“ (unfassbar große Matrizen), eine
Matrix-Ansteuerung von Leuchtmitteln 45

Pixelmapping-Standalone-Software, die speziell für sehr große Matrizen ausgelegt


ist und den „Programmer“, eine Lichtsteuer- und Mediensteuersoftware mit einer
Vielzahl von Matrixfunktionen. Der „Programmer“ ist aufgebaut wie eine normale
Lichtsteuerung und ist durch seine Vielzahl an Funktionen universell einsetzbar.

Das Matrix-Setup und das Patching werden für beide Programme mit dem
„Patchelors“ erstellt. Das Setup kann in mehren Sektionen erstellt werden und für
einige Lampentypen können zusätzlich Kabelpläne und Dip-Switch-Einstellungen
angezeigt werden. Die Programme laufen alle auf handelsüblichen PCs und werden
schwerpunktmäßig bei Festinstallationen eingesetzt. In Kombination mit einer
Faderunit lässt sich die Software aber auch gut im Live-Betrieb verwenden.
Zusätzlich besteht die Möglichkeit, eine den Einsatzzwecken entsprechende, frei
konfigurierbare Bedienoberfläche zu schaffen. Diese kann auch mit Flash
programmiert werden.

Die Software ist kostenlos erhältlich, die Steuersignale werden über e*net
ausgegeben und können nur mit Nodes der Firma e:cue in DMX gewandelt werden.
Die Software verfügt über alle unter Kapitel 4.1.2 aufgeführten Funktionen sowie
über eine Trigger-Maschine, mit der eine Vielzahl von Automationen vor-
genommen werden können. So können beispielsweise mit Wenn/Dann-Regeln
beliebige Verknüpfungen zwischen Triggern und Events gesetzt werden. Über
Wenn-Aktionen wie Uhrzeit, Datum, bestimmte Sonnenstände, MIDI, Timecode,
SPS oder I/O-Inputs, Serielle Kommandos (RS232) oder Start/Stop-Befehle von Cue-
Liste können Dann-Aktionen wie Start/Stop Cue-Liste, Start/Stopp Media,
Start/Stop Timecode, SPS-, MIDI-, RS232-Output oder Macroprogramme getriggert
werden.

Mit Makros können beispielsweise Effekte oder Equalizer programmiert oder durch
Einbindung von Triggern, Computerspiele wie Tetris auf einer Matrix gespielt
werden. Macros sind Programme, die der Anwender selbst schreibt, um
ungewöhnliche Funktionen zu realisieren. Sie werden in der Makrosprache
geschrieben, welche auf der Programmiersprache C basiert.

Abbildung 8: Macro-Programme Plasma-Efekt, Tetris und Equalizer


Matrix-Ansteuerung von Leuchtmitteln 46

Zusätzlich verfügt der Programmer über die Möglichkeit einer Sound-to-Light-


Steuerung. Cue-Listen können durch die BPM-Zahl (Beats Per Minute) oder Lampen
über bestimmte Frequenzbänder gesteuert werden. So können beispielsweise
Equalizer auf einer Matrix dargestellt werden.

Der Hersteller Artistic Licence bietet “Pixi-Stream”, eine reine Pixelmapping


Software, und “Colour-Tramp” als Lichtsteuersoftware an. Sie laufen auf
handelsüblichen PCs und geben das freie Protokoll "Art-Net" aus. Colour-Tramp ist
wie eine normale Lichtsteuerung aufgebaut und verfügt ebenfalls über
Pixelmapping-, Bitmap- sowie Laufschrift-Funktionen. Besonders sind die
Werkzeuge, die zur Erstellung von Cues und für das Lampen-Setup zur Verfügung
stehen. Mit ihnen können geometrische Formen schnell und einfach erstellt,
angeordnet und animiert werden.

Die Cue-Listen werden nicht nach dem HTP- oder LTP-Prinzip abgespielt, wie bei
einer gewöhnlichen Lichtsteuerung, sondern sind in Layern organisiert, wie es bei
Medienservern üblich ist (siehe 4.2.2). Es besteht die Möglichkeit mehrere Layer
additiv, subtraktiv oder mit verschiedenen Chroma-Key-Verfahren (Farbstanzen)
abzuspielen. Die Software kann ebenfalls über MIDI, RS232 oder Timecode
getriggert werden.

Die „Designer Software“ der Firma Pharos ist eine Timeline-basierte


Programmiersoftware für Pixelmapping- und normale Lichtsteueranwendungen.
Sie verfügt über eine Reihe von Matrix-Effekten sowie über eine Laufschrift-
Funktion. Als Mediaplayer wird QuickTime benutzt. Die Software ist für Windows
sowie für Macintosh kostenlos erhältlich und gibt ein Ethernetprotokoll aus,
welches nur von Pharos-Nodes in DMX gewandelt werden kann. Die Software wird
vorwiegend bei Festinstallationen eingesetzt.

Das Lampen-Layout wird auch als Vorschau verwendet; es kann auf einem CAD-
Plan (Computer-Aided-Design) erstellt und somit an die architektonischen
Gegebenheiten angepasst werden. Die Timelines können über verschiedene Trigger
wie Sonnenstand, MIDI-, I/O-, RS232-Inputs oder Timecode gesteuert werden.

ChamSys bietet seine Steuerungen „MagicQ“ als Konsole oder als PC-Software mit
Faderunit an. Das Programm beinhaltet keinen eigenen Pixelmapper, es können
jedoch bis zu 50 externe Medienserver oder Pixelmapper angeschlossen und
gesteuert werden. In der Lichtsteuerung steht für den Medienserver-Output eine
Vorschau und für die Video-Dateien eine Miniaturvorschau zur Verfügung.
Matrix-Ansteuerung von Leuchtmitteln 47

„MagicQ“ kann Laufschriften sowie Bitmaps animieren und in Lichtsteuersignale


wandeln. Diese werden in Layern organisiert und können rotiert und auf der X-, Y-
und Z-Achse verschoben werden. Die einzelnen Layer können additiv, subtraktiv
oder mit verschiedenen Chroma-Key-Verfahren übereinandergelegt werden.

Des Weiteren steht eine Auswahl von Effekten zu Verfügung. Eine Besonderheit bei
MagicQ sind die Autogroup-Funktionen, wie Rechteck, Kreis, X, H, Innen, Außen
oder aus der Mitte kommend. Hierdurch können Effekte schnell auf die Form der
Matrix angewendet werden.

In der Lichtsteuerung „grandMA“ von MA Lighting sind die Möglichkeiten auf


Bitmaps und Laufschriften begrenzt. Pixelmapping kann nur mit der Zusatz-
software „grandMA video“ betrieben werden. Dies ist eine Medienserver-Software,
die auf einem externen PC läuft; die Software kann allerdings nur in Verbindung
mit einer „grandMA“gesteuert werden.

Von der Firma Pivot gibt es den „Pixeldriver“, eine PC Software, mit der zusätzlich
Pixelmapping betrieben werden kann. Es besteht die Möglichkeit, Dimmkurven
einzustellen und die RGB-Werte einzelner Pixel zu kalibrieren.

Inoage bietet mit „Madrix“ eine PC-Software, die speziell für Diskotheken, Bars,
oder Lounges entwickelt ist. Mit der Software können nur Matrizen angesteuert
werden. Sie ist ähnlich wie eine VJ-Software aufgebaut und kann leicht und intuitiv
bedient werden. Es gibt zwei Vorschau-Fenster, in denen Effekte erstellt werden
können. Die zwei Kanäle können über das Output-Fenster umgeschaltet oder mit
verschiedenen Blenden zusammengemischt werden.

Es können Laufschriften, Bitmaps oder Videos abgespielt werden. Zudem verfügt


„Madrix“ über eine Auswahl an Farb-Effekten, die in Echtzeit über Sound oder
Musikeigenschaften gesteuert werden können. Die Software kann über DMX-In von
einer Lichtkonsole oder für einen automatisierten Ablauf über Play-Listen gesteuert
werden.

Für Macintosh gibt es den „Pixelmad“, eine einfache Software, welche die
Bildschirmpixel in DMX-Werte wandelt und diese mittels Art-Net ausgibt.

„BIX Direktor“ ist eine Macintosh Software, die speziell für die Medienfassade des
Kunsthauses in Graz entwickelt wurde. Programmiert ist die Software in MAX/MSP
Matrix-Ansteuerung von Leuchtmitteln 48

& Jitter, eine graphische Entwicklungsumgebung für Multimedia. Mit dem „BIX
Direktor“ können auf vier Videospuren Programmabläufe erstellt werden, die
ineinander übergeblendet und als DMX ausgegeben werden können.

4.2.2 Medienserver
Medienserver sind Rechner, die mit Software zur Steuerung und Bearbeitung von
Bild und Videodaten in Echtzeit ausgestattet sind. Sie verfügen meist über eine
leistungsstarke Grafikkarte und ein RAID-Festplattensystem (Redundant Arrays of
Inexpensive Disks). Die Server können über DMX oder Ethernet von einem Lichtpult
oder einer anderen Bedienoberfläche gesteuert werden. Wird der Medienserver in
eine Lichtsteuerung integriert, so wird er wie eine Lampe mit vielen Funktionen
behandelt. Medienserver geben Videosignale aus. In Kombination mit einer
Lichtsteuerung können die Videodaten in entsprechende Lichtsteuersignale wie
DMX oder Ethernetprotokolle gewandelt werden. Einige Medienserver können auch
direkt Lichtsteuersignale ausgeben.

Die Medienserver-Software unterscheidet sich durch ihre Effektpalette sowie durch


die Programmier- und Steuerphilosophie. Die Bearbeitungsmöglichkeiten der
Programme sind stark an Bild-, bzw. Videobearbeitungsprogramme angelehnt, die
Programmierung erinnert an Licht- oder Videoschnittprogramme. Die Bilder
werden bei allen Mediaservern in Layern (engl. Ebene) aufgebaut. Layer können
Bild oder Videodaten enthalten, mit Effekten belegt und mit Blendeffekten
gemischt werden. Meist gibt es einen Master-Layer, auf den Effekte gelegt werden
können, welche die gesamte Bildkomposition betreffen. Dazu gehören, Geometry
X-, Y-, Z-Position, Trapezverzerrung, Softedge und Farbkorrekturen. Videoeffekte
für die einzelnen Layer können beispielsweise Masken, Blendenschieber oder
Farbeffekte sein. Der Alphakanal kann z. B. so verändert werden, dass Teile des
Bildes durchsichtig werden. Daneben sind variable Abspielgeschwindigkeiten oder
Verzerrung der Bildoberfläche möglich, so kann beispielsweise ein Videobild auf ein
3D-Objekt gelegt und im Raum bewegt werden. Die Layer können anschließend
additiv, subtraktiv, mit Masken oder Chroma-Key (siehe 6.3.2) übereinander gelegt
und überblendet werden.

Häufig können den Programmen noch Hardware beschleunigte Effekte in Form von
Plug-ins hinzugefügt werden. Ein Plug-in ist eine eigenständiges Computer-
programm, das über eine definierte Schnittstelle, an andere Software
angeschlossen wird. Die Einstellungen der Plug-ins erfolgen über die Oberfläche des
Medienservers. Es gibt eine Vielzahl solcher Plug-ins von unterschiedlichen
Herstellern, so zum Beispiel Effekte zur Kantenhervorhebung, 3D-Textanimation
oder Effekte die mit denen sich generative Bilder erzeugen lassen (siehe 6.6.3).
Matrix-Ansteuerung von Leuchtmitteln 49

Führende Produkte im Bereich Produktion, TV und Theater sind der „Catalyst“ von
High End Systems aus den USA, “Pandorras Box“ von Coolux aus Köln, “Maxedia
Digital Media Composer“ von Martin aus Dänemark, der “Hippotizer“ von Green
Hippo aus Großbritannien, sowie “grandMa video“ von MA Lighting aus
Deutschland. High End Systems, Martin sowie MA Lighting kommen aus dem
Bereich der Lichttechnik, Green Hippo hat seine Wurzeln in der Videotechnik und
Coolux wurde von einem Team von Programmierern, Video- und Lichtdesignern
gegründet.

Mit den genannten Systemen können Video- und Lichtsteuersignale gleichzeitig


ausgegeben werden. So kann beispielsweise ein Bühnenbild, das aus Licht, Video
und Matrix-Wänden besteht, zu einem gesamt Bild komponiert werden.

Es gibt aber auch einfachere Programme wie etwa “PixelDrive“ von Radical Lighting
aus Großbritannien. "PixelDrive" ist eine Pixelmapping-Software, die wie ein
Medienserver aufgebaut ist und über eine Lichtkonsole gesteuert werden kann. Sie
kann Daten mit Art-Net übertragen, jedoch keine Videosignale ausgeben.

Clip Sampler Software (VJ-Programme), wie beispielweise „ArKaos VJ“, „Isadora“


oder „Resolume“ haben meist eine viel größere Effektauswahl und können intuitiv
bedient werden. Sie verfügen über keine Pixelmapping-Möglichkeiten, können
jedoch über MIDI, DMX oder Art-Net in eine Lichtsteuerung eingebunden und somit
als Pixelmapping-Zuspieler verwendet werden.

4.3 Pixelmapping
Um eine Matrix mit Video zu bespielen, werden die Pixelinformationen des Videos
in Lichtsteuersignale gewandelt. Dieser Vorgang nennt sich Pixelmapping. Wenn
die Auflösungen der Matrix und die des Videos sich unterscheiden, so müssen die
Bilder zuvor noch skaliert werden. Ein Pixel der Matrix sollte sinnvollerweise eine
Mischfarbe darstellen, die sich aus den gewichteten Farben ergibt, welche in dem
Flächenausschnitt der Videoquelle vorkommen. Es gibt unterschiedliche
Algorithmen zur Errechnung der Mischfarben. Sie unterscheiden sich durch
Rechenaufwand, Genauigkeit der Abtastpunkte sowie durch unterschiedlich
starkes Antialiasing.

4.3.1 Scalieralgorithmen

4.3.1.1 Nearest-Neighbour-Transformation
Ein Bild wird am einfachsten skaliert, indem man das Original in eine Anzahl von
Blöcken zerlegt, die der Zielauflösung entspricht. Der jeweils mittlere Pixel aus
Matrix-Ansteuerung von Leuchtmitteln 50

einem Block wird als Bildpunkt der Zielmatrix verwendet (siehe Abb. 9). Haben die
Blöcke eine gerade Anzahl von Bildpunkten, so gibt es keinen mittleren Pixel und
man muss sich für einen Pixel entscheiden, der möglichst nah am Mittelpunkt
liegt; bedingt dadurch gibt es einen horizontalen und vertikalen Pixelversatz von
einem Bildpunkt.

Diese Methode ist sehr einfach und funktioniert ohne großen Rechenaufwand.
Allerdings entspricht der verwendete Pixel nur der Fläche des Originalbildes, wenn
die benachbarten Pixel gleiche Werte haben. Sind die Werte jedoch unterschiedlich,
so wird der Bildausschnitt falsch wiedergegeben. Je größer der Skalierfaktor, desto
höher liegt die Wahrscheinlichkeit für einen Fehler.

Die Skalierfaktoren werden errechnet, indem die horizontale und vertikale


Zielauflösung durch die der Quellauflösung geteilt wird. Ergeben diese Divisionen
einen Rest, so können die Raster von Quell- und Zielmatrix nicht passend
übereinander gelegt werden. Die Blöcke können das Raster nicht vollständig
ausfüllen und der Rand bleibt frei. Es gibt verschiedene Möglichkeiten, damit
umzugehen, entweder wird der Rand des Originalbildes weggelassen, so das die
Raster übereinander passen. Oder das Problem wird gelöst, indem das Bild
entsprechend vergrößert wird. Dies kann geschehen, indem die fehlenden Pixel
geschätzt, der Rand gespiegelt oder die Randpixel fortgesetzt werden.

Das Problem kann vermieden werden wenn statt der Blöcke die exakten
Abtastpunkte auf der Quellmatrix ermittelt werden, die Pixel die den
Abtastpunkten am nächsten sind werden verwendet. So verteilen sich die
unberücksichtigten Pixel über die gesamte Matrix.

Abbildung 9: Blockbildung, Abtastpunkte

Die Nearest-Neighbour-Transformation sollte nur bei kleinen ganzzahligen


Skalierfaktoren verwendet werden. Sonst werden zu wenige Bildpunkte
berücksichtigt und das Bild wird beschnitten oder falsch wiedergegeben. Im
errechneten Bild treten deutliche Blockartefakte auf, da benachbarte Pixel nicht
Matrix-Ansteuerung von Leuchtmitteln 51

berücksichtigt werden. Der Vorteil dieses Verfahrens ist, dass es sehr wenig
Rechenleistung benötigt und somit sehr schnell ist.

4.3.1.2 Mittelwert-Transformation
Deutlich bessere Ergebnisse können erzielt werden, in dem aus den benachbarten
Pixeln der Abtastpunkte oder der Blöcke Mittelwerte gebildet werden. Hierzu
können verschiede Filter angewendet werden. Der Box-Filter errechnet den
Durchschnitt (arithmetisches Mittel) der RGB-Werte. Für die drei Grundfarben
werden jeweils alle n Pixel aus einem Block summiert und anschließend durch n
dividiert (n entspricht der Anzahl der berücksichtigten Pixel).

Diese Methode erzielt deutlich bessere Ergebnisse als die Nearest-Neigbour-


Transformation. Die ermittelten Farbwerte entsprechen einem Mittelwert des
Ausschnitts, das Bild wird weich gezeichnet und es treten weniger Aliasingfehler
auf.

Der Median-Filter ist robuster gegenüber extrem abweichenden Werten. Median


(Zentralwert) bezeichnet eine Grenze zwischen zwei Hälften. Die einzelnen Werte
werden der Größe nach sortiert und der mittlere Wert der Reihe wird ausgewählt.
Wenn ein Block eine ungerade Anzahl von Pixeln hat, so wird der Durchschnitt der
beiden mittleren Werte verwendet. Sind in einem Block neun Pixel mit den
Helligkeitswerten: 26, 26, 31, 33, 42, 43, 60, 61, 232, so ist der Median 42. Das
arithmetische Mittel hingegen ist 62.

Median-Filter haben im Vergleich zu Box-Filternfiltern die Eigenschaft, einen relativ


guten Mittelwert zu berechnen ohne das Bild zu glätten. Der mittlere Farbton bleibt
voll erhalten. Bei feinen Strukturen mit großem Kontrast hat der Filter allerdings
eindeutige Schwächen. So würde schwarze Schrift auf weißem Grund nicht richtig
angezeigt werden, da der Großteil der umgebenden Bildpunkte weiß ist.

4.3.1.3 Bilineare Transformation


Eine weitere Verbesserung bringen bilineare Filter; bei diesen werden keine Blöcke
gebildet, sondern Abtastpunke ermittelt. Aus den vier Pixeln in der Umgebung des
Abtastpunktes wird der Bildpunkt berechnet, indem die Farbwerte je nach
Entfernung zum Abtastpunkt in beiden Richtungen interpoliert werden. Diese
zweistufige lineare Interpolation gibt dem Filter seinen Namen. Die Berechnung des
neuen Farbwertes ist somit keine einfache Mittelwertbildung, sondern berück-
sichtigt die Abstände zu den Mittelpunkten der Pixel-Flächen. Die Pixel die näher
an der Mitte des Abtastpunkts liegen, werden stärker gewichtet.

In der Abbildung fällt der genaue Abtastwert ganz leicht in das rote Pixel (RGB: 240,
0, 0). Der benachbarte grüne (RGB: 0, 250, 20), blaue (RGB: 0, 30, 255) und gelbe Pixel
Matrix-Ansteuerung von Leuchtmitteln 52

(RGB: 255, 190, 0) befinden sich im selben Abstand. An der Stelle des roten Pixels
wird das braune Pixel ausgegeben.

Abbildung 10: Bilineare Interpolation

Rot: 0.26 x 240 + 0.247 x 0 + 0.247 x 0 + 0.247 x 255 = 125


Grün: 0.26 x 0 + 0.247 x 250 + 0.247 x 30 + 0.247 x 190 = 116
Blau: 0.26 x 0 + 0.247 x 20 + 0.247 x 255 + 0.247 x 0 = 68

Die bilineare Methode arbeitet sehr exakt. Hier werden zwar nur vier Pixel
berücksichtigt, jedoch wird das Bild an den relevanten Positionen unabhängig vom
Pixelraster der Quelle abgetastet, und die umliegenden Pixel werden gewichtet
berechnet. Allerdings bedeutet bilineares Filtern einen enormen Rechenaufwand.
Das Antialiasing ist bei bilinearen Filtern verhältnismäßig gut, allerdings nur bei
geringen Skalierfaktoren, da pro Pixel jeweils nur vier Bildpunkte berücksichtigt
werden.

Weitere Verbesserungen können durch bicubische Filter erreicht werden. Die


bicubische Interpolation arbeitet analog zur bilinearen; hier werden allerdings 16
Pixel aus der Nachbarschaft berücksichtigt. Somit wird das Bild noch weicher
gezeichnet. Die Stärke des Antialiasing kann zusätzlich durch unterschiedliche
Filterkurven verändert werden, dazu werden die errechneten Gewichte mit einer
Filterkurve multipliziert. Bei breiten Filterkurven ist das Antialiasing stärker als bei
schmalen.

Abbildung 11: Nearest-Neigbour-, bilineare und bikubische Interpolation


Matrix-Ansteuerung von Leuchtmitteln 53

4.3.2 Wahl des geeigneten Skalieralgorithmus'

Vergleicht man die Algorithmen in Bezug auf die erforderliche Rechenleistung, so


ergeben sich deutliche Unterschiede. Bei allen Transformationen müssen einmalig
die Abtastpunkte oder die Blockgrößen ermittelt werden; die anschließenden
Operationen müssen für jeden Pixel und jedes Bild durchgeführt werden. Bei einer
Nearest-Neighbour-Transformation werden für das Skalieren keine Rechen-
operationen benötigt; die zugeordneten Pixel werden einfach abgegriffen. Die
Rechnungen beziehen sich alle auf Pixel, welche aus einem Block mit 2 x 2 Pixeln
errechnet wurden. Der Box-Filter benötigt 9 Additionen um die RGB-Werte zu
addieren, und 3 Multiplikationen um die Mittelwerte zu bilden. Bei einem Median-
Filter werden mit dem Quicksort Sortieralgorithmus im schlechtesten Fall 3 x n x
log (n) Rechenoperationen benötigt (n Anzahl der berücksichtigten Pixel). Bei n
gleich 4 sind dies 8 Rechenoperationen. Bei der bilinearen Transformation werden
für jedes Bild 12 Multiplikationen und 9 Additionen pro Pixel benötigt, insgesamt
also 21 Operationen pro Pixel. Werden bei der Skalierung größere Blöcke
berücksichtigt, so geht die Anzahl der Rechenprozesse schnell in die Höhe.

Um beispielsweise eine Sekunde Videomaterial mit 30 Bildern pro Sekunde und


einer Auflösung von 600 x 800 mit einem Faktor von 2 zu skalieren, müssen
3,6 x 106 (30 x 300 x 400) Pixel berechnet werden. Bei bilinearer Transformation sind
das 75,6 MFLOPS (Floating Point Operations Per Second) mit einem Box-Filter 43,2
MFLOPS und mit einem Median-Filter 32,2 MFLOPS. Zum Vergleich: ein Intel
Pentium 4 mit 3 GHz schafft ca. 3,6 GFLOPS. Grafikkarten hingegen sind für solche
Rechenprozesse ausgelegt; die NVIDIA 8800 GTX schafft beispielsweise ca. 330
GFLOPS (11/06).

Die Wahl des Skalieralgorithmus' hängt eng mit dem verwendeten Bildmaterial
zusammen. Der verwendete Algorithmus muss den Bildinhalt mit reduzierter
Auflösung so wiedergeben, dass er nicht zu stark entfremdet wird. Bei kleinen
ganzzahligen Skalierfaktoren kann beispielsweise eine Nearest-Neighbour-
Transformation gewählt werden, da nur ein geringer Anteil der Bildpunkte
weggelassen wird und somit wenige Informationen verloren gehen. Sind die
Skalierfaktoren größer, so wird mit dem Algorithmus eine zu geringe Fläche
berücksichtigt und das Bild wird immer mehr entfremdet. Bilinear- oder
Mittelwert-Filter verarbeiten mehr Bildinformation und können deshalb das Bild
originalgetreuer darstellen, allerdings wird das Bild hierdurch weichgezeichnet und
somit unschärfer. Wenn die Blöcke bei einem Box-Filter zu groß gewählt werden,
Matrix-Ansteuerung von Leuchtmitteln 54

kann es auch hier zu einer starken Bildentfremdung kommen, da die Pixel nicht
entsprechend den Abtastpunkten gewichtet werden. Soll beispielsweise ein hoch
auflösendes Bild nur durch vier Pixel dargestellt werden und es wird mit einem
Box-Filter bearbeitet, der alle Pixel berücksichtigt, so werden die vier Pixel als sehr
ähnliche Mischfarben dargestellt, gewollt sind aber kräftige Farben, die den
Abtastpunkten entsprechen. Dies kann durch bicubische Filter erreicht werden. Sie
berücksichtigen die nächsten 16 Bildpunkte um den Abtastpunkt, die Bild-
information wird richtig wiedergegeben und harte Übergänge werden geglättet.

Grundsätzlich gilt: Je größer der Skalierfaktor, umso stärker sind die


Treppeneffekte. So muss für jedes Bild entschieden werden, wie stark es von einem
Skalieralgorithmus weich gezeichnet werden soll. Aus ästhetischen Gründen sind
große Treppeneffekte teilweise auch erwünscht. Liegt das Bild schon in der
passenden Auflösung vor, verwendet man den Nearest-Neighbor-Filter.

4.3.3 Wahl des geeigneten Codecs


Die benötigte Rechenleistung einer Pixelmapping-Anwendung ist, wie oben
besprochen, abhängig von der Größe der Matrix, dem Skalieralgorithmus und dem
Skalierfaktor. Andererseits ist der Rechenaufwand abhängig von den verwendeten
Codecs und Containerformaten. Sie lassen sich unterschiedlich gut de-
komprimieren und geben die Videodaten in verschiedenen Formaten aus.

Um ein Video in Lichtsteuersignale zu wandeln, wird das Video in Form von RGB-
Daten benötigt. Manche Codecs geben aber die Daten beispielsweise im YUV-
Format aus, so müssen die YUV-Werte in RGB-Werte gewandelt werden. Im
Praktischen Teil der Arbeit (siehe 7.2) wurden verschiedene Codecs und
Containerformate bezüglich ihrer Rechenleistung miteinander verglichen.
Matrix-Leuchten 55

5 Matrix-Leuchten

5.1 Eigenschaften der Leuchten


Für eine steuerbare Matrix aus Lampen kann theoretisch jedes Leuchtmittel
verwendet werden das sich dimmen oder schnell schalten lässt. Die Leuchtmittel
unterscheiden sich durch die Lichtqualität, Helligkeit, Farbe, Abstrahlcharakteristik
und durch ihre Ansprechzeit.

Normale Glüh- oder Halogenlampen können sehr gut verwendet werden, sie
lassen sich hervorragend dimmen und es gibt eine Vielzahl von Lampen. Ob PAR-
Scheinwerfer, Stufenlinse oder nur eine Fassung mit Glühbirne, sie stehen in
verschiedenen Leistungsklassen zu Verfügung und können mit Farbfiltern ein-
gefärbt werden. Ein Nachteil dieser Leuchtmittel ist ihre Ansprechzeit. Aufgrund
der Trägheit können nur geringere Schaltfrequenzen von ca. 3 Hz umgesetzt
werden. Je nach Leuchtmitteltyp variiert die Frequenz geringfügig. Wird schneller
geschaltet, dann erlischt die Glühwendel nicht komplett.

Scheinwerfer mit Entladungslampen können nicht ohne weiteres gedimmt und


geschaltet werden. Sie sind für Matrixanwendungen ungeeignet. Es sei denn, sie
verfügen über einen Shutter oder eine Irisblende, die schnell genug geschaltet
werden können. Um eine mehr- farbige Matrix zu erstellen, können beispielsweise
Multifunktionsschein-werfer benutzt werden.

Auch dimmbare Leuchtstofflampen bieten sich an. Sie werden häufig eingesetzt
um homogene Flächen auszuleuchten, wie beispielsweise Horizonte in Fernseh-
studios. Sie haben eine sehr gute Lichtausbeute von ca. 70 – 100 Lm/W und geringe
Wärmeentwicklung. Sie sind in unterschiedlichen Längen, bis 1,5 Meter erhältlich,
haben alle unabhängig von der Länge eine ähnliche Lichtausbeute und können
deshalb ohne Weiteres auch bei unterschiedlichen Längen zu einer Fläche
kombiniert werden. Neben stabförmigen Leuchtstoffröhren gibt es auch
ringförmige Leuchtmittel. Sie sind in Durchmessern von 20 bis 40 cm erhältlich. Die
meisten Vorschaltgeräte für Leuchtstofflampen arbeiten mit Dali- oder 0 - 10 V-
Technik und können mittels Gateway in DMX gewandelt werden.

Leuchtstoffröhren gibt es in verschieden Weißtönen sowie in den Farben Rot, Gelb,


Grün und Blau. Spezielle Farben können durch subtraktive Farbmischung mit
Matrix-Leuchten 56

Farbfolie erreicht werden. Mit mehreren verschiedenfarbigen Leuchtmitteln, die


nah nebeneinander positioniert sind, können Farbwechsel erzeugt werden. Meist
werden dazu die drei Grundfarben Rot, Grün, Blau verwendet, zusammen können
sie zu Weiß gemischt werden. Häufig werden die Grundfarben noch durch ein
weißes Leuchtmittel erweitert, um die Grundhelligkeit bei Weiß zu erhöhen oder
Farben zu entsättigen.

Am häufigsten werden für Matrix-Anwendungen LEDs eingesetzt. Aufgrund ihrer


kleinen Bauform können verschiedenfarbige LEDs so nah nebeneinander
positioniert werden, dass die einzelnen Lichtquellen nicht mehr zu erkennen sind.
So lassen sich einfach Mischfarben erzeugen. Ein Problem bei LEDs sind die Farb-
und Helligkeitsunterschiede der einzelnen Dioden. Die Unterschiede sind zum
einen abhängig vom Fertigungsaufwand und zum anderen von der unter-
schiedlichen Alterung der einzelnen LED-Typen. Gerade bei flächigen
Anwendungen können diese Unterschiede deutlich wahrgenommen werden. Um
einheitliche Farben zu erzielen, müssen LEDs kalibriert werden.

Leuchtdioden sind in transparentem Kunststoff eingebettet. Der Kunststoff fungiert


als Linse, so können verschiedene Abstrahlwinkel von 4° - 150° erreicht werden.
LEDs haben eine geringe Wärmeentwicklung und einen hohen Wirkungsgrad, der
momentan zwischen 20 bis 50 W/lm liegt. Ein weiterer großer Vorteil ist die geringe
Ansprechzeit. In weniger als 100ns haben sie ihre volle Helligkeit erreicht.

Die Hersteller bieten LEDs in verschiedenen Formen an; einzeln, in flexiblen Ketten
oder auf einer Platine zusammengefasst. LED-Lampen gibt es ebenfalls in vielen
Varianten. Fexible Schläuche, Tuben oder Module in unterschiedlichen Größen mit
verschiedenen Oberflächen, Materialien oder mit direkter sicht auf die LEDs.

5.2 Oberflächenbeschaffenheit vor den Lampen


Leuchtmittel können einerseits ohne Projektionsfläche eingesetzt werden, so dass
der Betrachter direkt in die Leuchtmittel sieht, wie beispielsweise bei hoch
auflösenden LED-Video-Wänden. LEDs sind annähernd punktförmige Lichtquellen
und haben sehr hohe Leuchtdichten, weshalb die Wände auch bei Tageslicht
eingesetzt werden können. Der Betrachtungswinkel ist abhängig vom
Abstrahlwinkel der Leuchten.

Um Bildpunkte mit einer größeren Fläche zu erhalten, können mehrere


Leuchtmittel sehr nah nebeneinander angeordnet und zusammen angesteuert
werden. Größere Bildpunkte können auch erreicht werden in dem das Licht auf
diffuse Oberflächen projiziert wird. Die Größe der Abbildung ist abhängig vom
Abstrahlwinkel der Leuchte, dem Abstand zur Oberfläche sowie vom
Matrix-Leuchten 57

Streuvermögen der Oberflächenmaterialien. Ab einem bestimmten Abstand ist die


Lichtverteilung auf der Projektionsfläche so gleichmäßig, dass man die einzelnen
Lichtquellen nicht mehr wahrnimmt. Sind mehrere Leuchten in einem bestimmten
Abstand zu einander platziert so gehen die Projektionen ineinander über und
bilden einen homogenen Verlauf. Die einzelnen Pixel werden durch die
Oberflächenmaterialien weich gezeichnet. Je geringer der Abstand zur Oberfläche
ist, desto näher müssen die Lampen nebeneinander platziert werden, um eine
Fläche homogen auszuleuchten. Sind Leuchten sehr nah nebeneinander platziert,
so können sie zusammen zu weiß gemischt werden. Ist der Abstand zwischen den
Leuchten zu groß kann es zu farbigen Schatten an den Rändern kommen, da sich
dort die Farben nicht ausreichend mischen.

Wenn die einzelnen Bildpunkte nicht ineinander übergehen sollen, gibt es die
Möglichkeit, die Lichtkegel durch Trennwände klar von einander abzugrenzen. Mit
unterschiedlich geformten Trennwänden können beispielsweise rechteckige, runde
oder ovale Bildpunkte geformt werden.

Abbildung 12: Mit und ohne Trennwänden zwischen den LEDs

Die Leuchtdichte ist abhängig von der Leistung, sowie von der Anzahl der Leuchten
pro Fläche. Für Anwendungen bei Tageslicht sollte die Leuchtdichte einer
Lichtwand mindestens 4000 cd/m2 (Nit) betragen. Zum Vergleich ein gewöhnlicher
Röhrenfernseher hat ca. 100 – 300 cd/m2 (Nit).

Die Leuchtdichte und die Streueigenschaften einer Lampe sind abhängig von der
Oberflächenbeschaffenheit und den Absorptionseigenschaften der Projektions-
fläche sowie vom Abstand der Fläche zur Leuchte. Der Betrachtungswinkel ist
ebenfalls abhängig vom Streuverhalten der Oberfläche. Zu bemerken ist noch, dass
nur mit großen Leuchtdichten gesättigte Farben erzielt werden können.

Als Projektionsoberflächen können eine Vielzahl von Materialen mit unter-


schiedlichen Eigenschaften verwendet werden. Diffundierende Materialien, wie
beispielsweise aufgerautes Glas, Acryl, oder Folien. Diese Materialien sollten starke
Matrix-Leuchten 58

Streueigenschaften und einen möglichst hohen Transmissionsgrad besitzen. Einen


schönen Effekt ergeben auch tranzluzente Materialien, wie beispielsweise Gaze. Ein
Teil des Lichts wird direkt durch den Stoff gelassen, die Lichtquelle ist also sichtbar
und der andere Teil wird am Stoff gebrochen. Aus weiter Entfernung kann man die
hellen Lichtquellen sehen, aus der Nähe sieht man den vergrößerten Schein auf
dem Stoff. Sind die Leuchten nicht eingeschaltet und die Gaze wird von vorne
beleuchtet so sind die Leuchten nicht sichtbar.

Die Oberflächenmaterialien, sollten immer mit den zu verwendenden Leuchten


getestet werden, da die Streu- und Transmissionseigenschaften im Zusammen-
hang mit der Leuchtdichte und der Lichtverteilung der Leuchten sehr unter-
schiedliche Ergebnisse erzielen.

Lichtwände sind häufig nur bei Nacht eingeschaltet. Damit die Oberflächen auch
bei Tag ansprechend aussehen, können beispielsweise Spiegel verwendet werden
die nur von einer Seite lichtdurchlässig sind. Im ausgeschalteten Zustand spiegelt
die Oberfläche, ist das Licht eingeschaltet dann leuchtet sie. Hierfür können auch
dichroitische Spiegel verwendet werden, sie reflektieren das Licht abhängig vom
Einfallswinkel und von der Wellenlänge. Bei Tageslicht ergeben sich so farblich
schimmernde Effekte.

Weitere Möglichkeiten ergeben sich wenn Lichtleiter wie beispielsweise Acrylglas


vor den Leuchten angebracht werden oder die Leuchtmittel in dreidimensionalen
Objekten aus lichtdurchlässigen Materialien platziert werden.

5.3 Möglichkeiten der Anordnung


Lichtwände sind an keine festgelegte Anordnung gebunden. Es gibt eine Vielzahl
von Möglichkeiten wie sie installiert werden können, da sie aus vielen einzelnen
Leuchten oder Modulen zusammengestellt werden. Die Leuchten können zwei-
oder auch dreidimensional angeordnet werden. Bestehendes Videomaterial ist
meist im 4:3 Format. Um dieses zu verwenden, sollte die Anordnung auch ähnlich
wie beim Standard TV Format sein, da sonst zu viel vom Bild beschnitten wird. Bei
ungewöhnlichen Formaten sollte das Bildmaterial speziell produziert werden. Es sei
denn, es werden mehrere Bilder im Standard-Format darauf abgebildet., So eignet
sich das Vielfache des Standard Formats, wie beispielsweise 4:6 oder 8:3. Die Bilder
können dann übereinander oder nebeneinander angeordnet werden.

Wenn eine Wand aus Modulen besteht welche durch einen Rand voneinander
getrennt sind, so empfiehlt es sich eine ungerade Anzahl von Modulen zu
verwenden, wie beispielsweise 3 x 3 oder 5 x 5. So ist die Mitte des Bildes nicht
Matrix-Leuchten 59

durch Ränder oder Trennwände geteilt. Bei größeren Wänden muss dieses nicht
berücksichtigt werden. [RS91]

Abbildung 13: Anordnungen von Matrix-Leuchten 2 x 2 und 3 x 3

Der Quotient aus der Gesamtfläche einer Matrix und der Summe der Flächen der
Bildpunkte wird in der Videotechnik als Füllfaktor bezeichnet. Je kleiner der
Füllfaktor desto größer ist der Abstand zwischen den einzelnen Bildpunkten.
Geringe Füllfaktoren können bei größeren Betrachtungsabständen eingesetzt
werden, da aufgrund der Auflösungsverminderung die Abstände zwischen den
Bildpunkten weniger fein aufgelöst werden können.

Wenn Leuchtmodule in einem größeren Abstand zueinander positioniert sind, wird


dies als Tiling (engl. Kacheln) bezeichnet. So können Module eingespart werden
und es entsteht dabei ein neuer Look. Bilder auf einer solchen Wand können
dennoch erkannt werden, da die menschliche Wahrnehmung die fehlenden
Bildteile ergänzt (siehe 6.1 Gestaltgesetze). Je größer der Betrachtungsabstand desto
besser kann ein Bild das in viele kleine Stücke zerlegt ist wieder zusammen gesetzt
werden.

Abbildung 14: Füllfaktor, Tiling


Matrix-Leuchten 60

Die Leuchten können im Raum auch dreidimensional angeordnet werden. Wie


beispielsweise bei der Lichtinstallation Kubik (siehe 8.). Eine zweidimensionale
Matrix wurde dort zu einem Raum geformt.
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 61

6 Wahrnehmungsspezifische Wirkung bei niedriger


Auflösung

6.1 Grundlagen der Wahrnehmung


Die folgenden Kapitel beziehen sich alle auf Lichtwände mit geringer Auflösung.
Dies bedeutet, zum einen dass nur eine kleine Anzahl an Bildpunkten zu Verfügung
steht und somit die Darstellungsmöglichkeiten eingeschränkt sind. Zum anderen,
dass die Bildpunkte immer deutlich sichtbar sind. Aus diesem Grund kann eine
Auflösung nur im Zusammenhang mit dem Betrachtungsabstand beurteilt werden.
Eine Matrix hat eine geringe Auflösung, wenn die Bildpunkte bei durch-
schnittlichem Betrachtungsabstand deutlich zu erkennen sind (siehe Abb. 15). Wird
eine Matrix aus einem größeren Abstand betracht, so ist die Pixelstruktur auch
nicht mehr sichtbar. Bei geringer Auflösung sind Objekte schwieriger zu erkennen,
da sie durch Blockartefakte entfremdet werden. Um dennoch eine prägnante
Darstellung zu gewährleisten, sollten deshalb die Funktionen, die für die
Sehleistung verantwortlich sind, besonders berücksichtigt werden.

"Die Sehleistung ist die Fähigkeit des Sehorgans, Helligkeits- und Formenstrukturen mehr
oder weniger schnell zu erfassen und wahrnehmen zu können. Die Sehleistung ist ein
Zusammenwirken von einer Anzahl elementarer Funktionen des Sehorgans" (Hentschel).

Die Sehleistung ist abhängig von der Adaptationsleuchtdichte, der Zeit wie lange
ein Objekt sichtbar ist, vom Leuchtdichtekontrast, sowie vom Sehwinkel des
Objekts.

Bei der visuellen Wahrnehmung können unterschiedliche Erkennungsniveaus


unterschieden werden. Das einfachste Niveau ist die Detektion, ein Sehobjekt wird
aufgrund des Helligkeitsunterschiedes gegenüber dem Untergrund erkannt. Wenn
bei einem bekannten Objekt, z. B. einem Landolring, (Ring mit einer Öffnung) die
Richtung der Öffnung zu erkennen ist, so spricht man von Diskrimination oder der
Sehschärfe. Unter Identifikation versteht man die Fähigkeit, ein individuelles
Objekt aus einer Menge verschiedener Sehobjekte zu erkennen.

Grundvorausetzung für die Detektion sind Helligkeitsunterschiede. Der Schwellen-


wert für die Unterscheidung von Helligkeit liegt bei mittleren Leuchtdichten (ca.
100 cd/m2 - 1000 cd/m2) bei etwa 3 %. Je größer die Kontraste, umso deutlicher sind
Objekte zu erkennen. Die Kontrastempfindlichkeit des Auges ist abhängig von der
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 62

Objektgröße und der Gesichtsfeld-Leuchtdichte. Je größer das Objekt und die


Gesichtsfeldleuchtdichte, desto weniger Kontrast wird benötigt, um es zu
erkennen.

Die visuelle Wahrnehmung geschieht in einer Folge von Blicken (Fixationen). Der
größte Teil der Netzhaut im menschlichen Auge ist mit Sinneszellen bedeckt. Das
Scharfsehen konzentriert sich allerdings auf einen Sehwinkel von ca. 2°.
Durch sprunghaftes Abtasten des Blickfelds (Saccade) entsteht im Kopf ein scharfes
Gesamtbild.

Das Gesichtsfeld beider Augen hat in der Horizontalen eine Ausdehnung von ca.
190°, in der Vertikalen ist es durch die Augenhöhlen begrenzt und liegt bei ca. 120°.
In den äußeren Bereichen des Gesichtsfelds funktioniert nur die Detektion. Das
Normalsehen, bei dem der Sehbereich ohne Kopfbewegungen als scharf
wahrgenommen wird, begrenzt sich auf ca. 25°. Bei größeren Winkeln wird der
Kopf mitbewegt. Ab ca. 10° kann ein Objekt mit einem Blick bequem erfasst
werden. Deutliches Sehen beschränkt sich auf ca. 2°. Die maximale Ortsauflösung
des menschlichen Auges liegt bei einem Sehwinkel von ca. einer Winkel Minute.
Bei diesem Winkel können zwei Linien noch als getrennt wahrgenommen werden.
[RG00/2]

Die Bildpunkte der Testwand (siehe 7.1) haben die Maße 6,25 mal 6,25 cm. Damit
die Bildpunkte nicht mehr getrennt voneinander wahrgenommen werden können,
muss der Betrachtungsabstand mindestens 215 m betragen. Wird außerdem der
Kell-Faktor (siehe 3.3.4) berücksichtigt, muss der Betrachtungsabstand um den
Faktor 1,5 auf 323 m erhöht werden. Die Testwand hat also nur eine geringe
Auflösung wenn sie aus Abständen deutlich unter 215 m betrachtet wird.

A = ( 0,00625m / 2 ) / tan ( 1’ / 2 ) = 215 m

Abbildung 15: Sehwinkel und Betrachtungsabstand A

Um die Funktionsweise der Identifikation verstehen zu können, muss die


menschliche Wahrnehmung genauer betrachtet werden. Bei der Informations-
aufnahme wird zwischen zwei Theorien unterschieden. Die Abtasttheorie besagt,
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 63

dass der Gesamteindruck durch Abtasten vieler kleiner Teilinformationen entsteht.


Die Gestalttheorie geht davon aus, dass zuerst ein Gesamteindruck gewonnen wird
und dann die Einzelheiten registriert werden. Diese beiden Theorien scheinen sich
zu widersprechen, dem ist aber nicht so, sie ergänzen sich vielmehr. Je nach Fall
hat eine der Wahrnehmungsarten den Vorrang.

Der Mensch kann in einer Zeiteinheit nur ein bestimmtes Maß an Informationen
aufnehmen. Enthält eine Nachricht mehr Informationen, so lässt der Empfänger
diese unberücksichtigt oder tastet sie nur ab.

Von Verfechtern der Gestalttheorie wurden Gesetzmäßigkeiten entwickelt, welche


Formen schnell erkannt werden können. Diese Gesetze basieren auf der Tatsache,
dass jedes Reizmuster so gesehen wird, das die sich ergebende Struktur möglichst
einfach ist. Je einfacher ein Objekt, desto schneller wird es erkannt. Ein Objekt in
einem Bild ist einfach, wenn die Form einfach und geordnet ist, aus wenigen
Elementen besteht und zwischen den Elementen möglichst viele Strukturfaktoren
bestehen. Strukturfaktoren können beispielsweise Abstände, Winkel oder
Symmetrie sein. Aus diesen Erkenntnissen wurden die folgenden Gestaltgesetzte
abgeleitet. Allgemein lässt sich sagen, je stärker ein Objekt gemäß den
Gestaltgesetzen strukturiert ist, desto deutlicher wird es erkannt. [RA78] [RG00/3]

Gesetz der Prägnanz:


Objekte, die sich durch ein bestimmtes Merkmal
abheben, werden bevorzugt wahrgenommen.

Gesetz der Nähe:


Elemente mit geringem Abstand zueinander werden
als zusammengehörig wahrgenommen.

Gesetz der Ähnlichkeit:


Einander ähnlich sehende Elemente werden als
zusammengehörig wahrgenommen.

Gesetz der Geschlossenheit:


Nicht vorhandene Teile einer Figur werden in der
Wahrnehmung ergänzt.

Gesetz der guten Fortsetzung:


Elemente, welche eine durchgehende Line ergeben,
werden als zusammengehörig wahr genommen.
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 64

Gesetz der Erfahrung:


Bekannte Objekte werden schneller erkannt als
unbekannte.

Abbildung 16: Gestaltgesetze

Gesetz des gemeinsamen Schicksals:


Elemente, die sich mit gleicher Geschwindigkeit in eine Richtung bewegen, werden
als zusammengehörig wahrgenommen.

6.2 Kriterien zur Beurteilung von Bildmaterial


Die Qualität des Bildmaterials auf einer Matrix muss je nach Anwendungsgebiet
unterschiedlich beurteilt werden. Es ist zu unterscheiden, ob Information
beispielsweise in Form von Laufschriften oder einer Handlung übermittelt werden
soll, oder ob eine Matrix nur für Lichteffekte, wie beispielsweise in der Disco oder
zur atmosphärischen Hintergrundbeleuchtung eingesetzt wird.

Soll auf einer Wand Information dargestellt werden, so zählt die Prägnanz dieser
Information. Es kann beispielsweise untersucht werden, welche Zeit benötigt wird,
um einen Text zu lesen oder bestimmte Objekte zu erkennen.

Bei Effekt orientiertem Material geht es weniger um das Erkennen von


Informationen, als um deren Wirkung. Die Wirkung ist jedoch auch von der
Prägnanz abhängig. Je großflächiger und einfacher die Darstellungen sind, umso
stärker ist meist auch ihre Wirkung.

Bei geringer Auflösung müssen drei Dinge besonders beachtet werden:

 die begrenzten Darstellungsmöglichkeiten,

 die Treppenstrukturen im Bild

 sowie die erhöhte Geschwindigkeit bei großen Bildpunkten

6.2.1 Position der Matrix und des Betrachters


Eine Matrix kann durch ihre Höhe und Breite, sowie durch ihre Auflösung und den
Füllfaktor beschrieben werden. Im Folgenden wird jeweils noch der Betrachtungs-
abstand mit berücksichtigt, da die Wahrnehmung von Bildern von der Größe und
somit vom Betrachtungsabstand abhängig ist. Anstatt durch räumliche
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 65

Abmessungen, wird die Matrix deshalb durch den Sehwinkel beschrieben, mit dem
sie aus durchschnittlicher Entfernung erfasst werden kann.

Die Wahrnehmung eines Bildes verändert sich bei unterschiedlichem Sehwinkel.


Große Bilder wirken sehr stark und effektvoll. Der Betrachter kann den
dargestellten Inhalt nicht mit einem Mal erfassen, er betrachtet das Bild mehr nach
der Abtasttheorie. Es wirkt intensiver, da zwischen den Abtastpunkten größere
Strecken zurückgelegt werden müssen und dadurch mehr Spannung entsteht. Ein
Film, der im Kino betrachtet wird, wird auch viel intensiver wahrgenommen, als
vor einem Fernseher. Kleine Bilder können mit einem Blick erfasst werden, alle
Bereiche im Bild sind gleichzeitig scharf. Aus diesem Grund werden sie auch
genauer angesehen, sie bekommen somit mehr Aufmerksamkeit.

Wenn eine Bildwand aus unterschiedlichen Abständen betrachtet wird, wie


beispielsweise eine Häuserfassade, so sollte auch das Bildmaterial darauf ausgelegt
sein. Aus der Ferne kann die Fassade mit einem kleinen Sehwinkel komplett erfasst
werden. Passanten, die direkt am Haus vorbei gehen, sehen dasselbe Bild mit
einem sehr großen Winkel. Das Bild ist schwieriger zu erkennen, da es nicht
komplett überblickt werden kann. Erschwerend kommt hinzu, dass die Größe und
Winkelgeschwindigkeit der Bildpunkte zunimmt.

Das Bildmaterial kann so produziert werden, dass es bei großen und kleinen
Betrachtungsabständen funktioniert, dazu sollten die Bilder sehr einfach, nicht zu
groß, weich gezeichnet und langsam sein. Oder der Bildinhalt wird so gestaltet,
dass er verschiedene Funktionen hat. Von Weitem kann Information in Form von
Text oder einer Handlung übermittelt werden. Aus der Nähe wirkt die Matrix nur
als Effekt.

Die Umgebungshelligkeit ist maßgeblich für den Kontrastumfang einer Lichtwand


verantwortlich. Die Oberfläche einer Lichtwand ist im ausgeschalteten Zustand so
hell wie die Umgebung. In Abbildung 17 ist zweimal die gleiche Matrix bei
unterschiedlichen Umgebungshelligkeiten dargestellt. Je größer der Kontrast-
umfang ist, desto mehr Helligkeitsunterschiede können wahrgenommen werden
und somit kann auf einem Bild auch mehr dargestellt werden. Diesem Punkt sollte
besondere Beachtung geschenkt werden, wenn eine Bildwand bei Tag sowie bei
Nacht eingesetzt wird. Ist die Leuchtdichte zu gering, so können weniger Kontraste
dargestellt werden. Zu große Leuchtdichten können zu Blendungen führen. Bestes
Beispiel hierfür ist die LED-Wand am Kölner Hauptbahnhof vor dem Dom. Bei
Nacht können die Informationen kaum gelesen werden, da sie zu stark blendet.
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 66

Selbstleuchtende Informationsträger sollten deshalb optimalerweise ihre Helligkeit


abhängig von der Umgebungshelligkeit automatisch ändern können.

Abbildung 17: Kontrastumfang bei unterschiedlicher Umgebungshelligkeit

Ein weiterer Punkt ist der Standort der Matrix und die damit zusammenhängende
durchschnittliche Betrachtungszeit. Wartende Passagiere am Flughafen erreichen
wesentlich höhere Zeiten, als beispielsweise Passanten in einer Fußgängerzone. Bei
längerer Betrachtungsdauer kann mehr Information aufgenommen werden, es
können längere Sequenzen mit detaillierteren Darstellungen abgebildet werden. Je
kürzer die Zeiten, desto kürzer müssen die Sequenzen und umso prägnanter
müssen die Darstellungen sein, damit der Betrachter sie komplett erfassen kann.

Bei Anwendungen im Außenbereich ist darauf zu achten, dass die


Wechsellichtverordnungen der Gemeinden eingehalten werden. In den
Verordnungen ist festgelegt, in welchen Gebieten der Stadt Wechsellichtanlagen
angebracht werden dürfen und wie groß die dadurch verursachten Lichtstärken auf
den benachbarten Gebäuden seien dürfen. Teilweise ist auch die Frequenz, mit der
das Licht geschaltet werden darf, festgelegt. Im Anhang ist ein Auszug der
Wechsellichtverordnung der Stadt Hamburg aufgeführt.

6.2.2 Größe, Form und Raumlage


Die Prägnanz eines Objekts ist abhängig von Größe, Auflösung, Form sowie dem
Kontrast. Die Größe eines Objekts wird, wie schon erwähnt, durch den Sehwinkel
beschrieben. Das Bundesministerium für Gesundheit gibt im Handbuch
„Verbesserung von visuellen Informationen im öffentlichen Raum“ als
Mindestgrößen von Bild oder Schriftzeichen einen Sehwinkel von 1° an. Je größer
der Sehwinkel auf ein Objekt ist, umso prägnanter ist es. Bei Zahlen und
Schriftzeichen führen Sehwinkel weit über 2° jedoch zu keiner weiteren Wahr-
nehmungsverbesserung, da beim Lesen die einzelnen Buchstaben zu Wörtern und
Wörter zu Sätzen zusammengefasst werden. Die einzelnen Buchstaben stehen also
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 67

im Kontext zueinander. Sind die Buchstaben zu groß, so fällt es auch schwerer, sie
im Zusammenhang zu erfassen. Objekte, die für sich alleine stehen, sollten nicht
über den Bereich des Normalsehens hinausgehen, da sonst die Zeit zum Erfassen
wieder größer wird. Beste Ergebnisse ergeben sich bei einem Sehwinkel von ca. 10°.
[BG96]

Die Größe und Auflösung einer Bildwand kann aus dem gewünschten Sehwinkel,
dem durchschnittlichen Betrachtungsabstand, sowie der Anzahl der zur
Darstellung benötigten Pixel errechnet werden. Soll beispielsweise eine Schrift mit
einer Höhe von 9 Bildpunkten aus einem Betrachtungsabstand von 7 m bei einem
Sehwinkel von 2° dargestellt werden, dann sollte die Schrift eine Höhe von 24,4 cm
haben. Für einen Bildpunkt ergibt sich somit eine Höhe von 2,7 cm.

2 x 7m x tan (2°/2) = 0,244m

24,4cm / 9 = 2,7cm

Bei kleiner Auflösung sind die Darstellungsmöglichkeiten begrenzt. Um Buchstaben


darzustellen, sind mindestens 5 Bildpunkte in der Höhe erforderlich, ab 6 Bild-
punkten können Buchstaben auf einer Grundlinie mit richtiger Unterlänge dar-
gestellt werden.

      
             

    ! " # $ % & ' ( ) * + , - . / 0 1 2 3 4 5

Abbildung 18: Schrifttyp PF Proton

Einfache Grafiken können ab ca. 16 x 16 Bildpunkten dargestellt werden. Im


Computerbereich werden beispielsweise Icons mit Auflösungen von 16 x 16, 32 x 32
oder 64 x 64 Pixeln verwendet.

Abbildung 19: Windows XP Icon, 16 x 16, 32 x 32 und 64 x 64 Pixel


Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 68

Ab dieser Auflösung sind auch einfache animierte Grafiken möglich. Die folgenden
Abbildungen zeigen Einzelbilder der Installation „Blinkenlights“, auf dem „Haus des
Lehrers“ in Berlin. Wenn die Bilder in schneller Abfolge hintereinander betrachtet
werden, ergibt sich eine flüssige Bewegung. Die Matrix besteht aus nur 18 x 8 Pixeln
und darauf wurden sogar kleine Geschichten erzählt.

Abbildung 20: Blinkenlights Movie „surprise“

Damit Darstellungen aus wenigen Bildpunkten gut erkannt werden, müssen sie
stark vereinfacht sein. Dazu sollten die wesentlichen Merkmale eines Objekts mit
deutlichen Linien, oder klar strukturierten Flächen angedeutet werden, wie es
beispielsweise bei Piktogrammen gemacht wird. Je mehr dabei die Gestaltgesetze
beachtet werden, umso höher ist das Erkennungsniveau.

Abbildung 21: Piktogramm

Ein höheres Erkennungsniveau wird ebenfalls erreicht, wenn eine Darstellung


bekannt ist oder in einem bestimmten Kontext steht. So wird das abgebildete
Piktogramm in einem U-Bahnhof schnell als Rolltreppe erkannt, ohne diesen
Zusammenhang ist es allerdings schwieriger einzuordnen. Das Gleiche gilt bei
aufeinander folgenden Bildern. Ist die Figur in Abbildung 20 einmal erkannt, dann
sehen wir die Folgebilder so, dass sie einen unserer Erfahrung entsprechenden
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 69

sinnvollen Zusammenhang ergeben. Das dritte Bild der Animation alleine gesehen
wird beispielsweise nicht ohne Weiteres als laufende Person erkannt.

Der Abtastvorgang der Augen geschieht unbewusst. Bestimmte Gegenstände


werden jedoch bevorzugt fixiert, man spricht dabei von visuellem Gewicht. Große
Objekte haben mehr Gewicht als Kleine. Regelmäßige runde Formen sind schwerer
als unregelmäßige eckige Formen. Objekte, die bekannt, in Bewegung oder von
spezifischem Interesse sind, werden ebenfalls bevorzugt. So trägt auch die
Ausrichtung eines Gegenstands zu seinem visuellen Gewicht bei. Horizontale
Objekte haben weniger Gewicht als vertikale. Das Gewicht hängt stark mit unseren
Erfahrungen und Umfeld zusammen. Horizontale Linien sind weniger auffallend,
da sie häufiger vorhanden sind, beispielsweise der Boden oder der Horizont. Aus
diesem Grund haben vertikale Linien für Stadtmenschen weniger visuelles Gewicht
als für Menschen, die beispielsweise in der Wüste leben und ständig den Horizont
sehen können.

Ähnlich kann die Raumlage von Objekten beurteilt werden. Objekte, die oben links
angeordnet sind, haben ein größeres visuelles Gewicht, als Objekte die rechts unten
platziert sind. Dies hängt damit zusammen, das in unserem Kulturkreis von links
nach recht und von oben nach unten gelesen wird. Entlang dieser Diagonale
betrachten wir ein Bild. So kommt es, das Bewegungen von links nach rechts als
angenehmer empfunden werden als umgekehrt, da der Blick der gewohnten
Leserichtung folgt.

Laufschriften müssen von rechts nach links bewegt werden, damit die Buchstaben
in der richtigen Reihenfolge angezeigt werden. Unserer Blick wandert jedoch
wieder in Leserichtung von links nach rechts. [RA78]

6.2.3 Farbe und Kontrast


Die physikalische Gestalt eines Objekts wird durch seine Grenzen bestimmt, also
vom Kontrast zum Hintergrund. Je größer die Helligkeits- oder Farbkontraste
zwischen Objekt und Hintergrund sind, umso prägnanter ist die Darstellung. Bei
gleichen Helligkeitsunterschieden werden Farbkontraste stärker wahrgenommen,
da Farben eine größere Signalwirkung haben. Der Farbkontrast ist definiert als der
Abstand zwischen zwei Farborten. Bei gleichen Farben unterschiedlicher Helligkeit
besteht nur ein Helligkeitskontrast.

Als vorteilhaft haben sich Farbkombinationen erwiesen, die aus Weiß und einer
Farbe wie beispielsweise Blau, Magenta, Rot oder Grün zusammengestellt sind. Ist
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 70

das Objekt weiß, dann sollte es etwas größer sein, da Farben die Eigenschaft haben,
unbunte Objekte kleiner erscheinen zu lassen. Die Farbe streut in das Weiß hinein.

Kombinationen mit Schwarz eignen sich nur, wenn zwischen den Bildpunkten sehr
starke Kontraste sind. Dies ist nur bei geringen Umgebungshelligkeiten gegeben, da
Schwarz in diesem Fall bedeutet, dass eine Lampe nicht leuchtet, somit ist die
Fläche so hell wie die Umbebung. Besonders wenig Kontrast ergibt sich, wenn die
Lichtkegel der Leuchten sich überschneiden wie beispielsweise bei diffusen
Materialien vor den Leuchtmitteln.

Bei Farbkombinationen sollen vornehmlich helle Vordergrundfarben wie Gelb oder


Grün auf dunklem Hintergrund wie Blau, Magenta oder Rot gewählt werden. Die
Hintergründe sollten nicht stark ins Auge springen, da sie sonst vom eigentlichen
Objekt ablenken. Am besten eignen sich deshalb einfarbige Hintergründe ohne
harte Kontraste. Die stärksten Farbkontraste ergeben sich, wenn Komplementär-
farben, wie beispielsweise Blau und Gelb kombiniert werden, sie verstärken sich
gegenseitig in ihrer Leuchtkraft. Bei Schrift oder vielen kleinen Objekten kann dies
allerdings zu Flimmern führen und die Lesbarkeit beeinträchtigen. Benachbarte
Farben auf dem Farbkreis beißen sich weniger und sind in der Regel angenehmer
zu betrachten. [BG96]

Die prägnantesten Darstellungen erzielt man, wenn man sich auf wenige kräftige
Farben beschränkt. Das bedeutet aber nicht, dass die Bilder mit einer kleinen
Farbpalette erstellt werden sollen. Die Farbabstufungen innerhalb einer Fläche
sollten sogar sehr fein sein, da Kontraste zwischen den Bildpunkten bei geringer
Auflösung stark auffallen.

Bei Bewegungen von farbigen Objekten auf farbigem Hintergrund eignen sich am
besten Farben, die auf dem Farbkreis nah nebeneinander liegen. Die Farben können
mit einem weichen Übergang ineinander gemischt werden, dadurch erscheinen
Bewegungen weniger ruckhaft (siehe 7.1 Versuch 7).

Das Gleiche gilt für Farbverläufe. Orientiert man sich bei den Übergängen am
Farbkreis und mischt beispielsweise Blau – Magenta – Rot, Rot - Gelb - Grün, Grün –
Cyan – Blau oder den gesamten Farbkreis, so erhält man Übergänge mit vollen
gesättigten Farben. Wird beispielsweise von Rot nach Cyan gemischt, so sind
während des Mischvorgangs alle drei Grundfarben enthalten, die Farben werden
durch weiß entsättigt und der Übergang wirkt schmutziger und weniger
harmonisch.
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 71

6.2.4 Treppeneffekt
Wenn Bilder mit geringer Auflösung vergrößert dargestellt werden, sind die
Bildpunkte deutlich zu sehen. An Kanten, die von der Richtung des Rasters
abweichen, bilden sich Stufen. Je mehr die Pixelstruktur zu sehen ist, umso stärker
wird eine Abbildung entfremdet, da die Treppenstufen von der Form des
eigentlichen Objekts ablenken.

Beispielsweise hat man im Kubik (siehe 8.) eine Diagonale aus geringem
Betrachtungsabstand kaum erkannt. Wurde die Diagonale allerdings bewegt, so
konnte sie ab einer bestimmten Geschwindigkeit deutlich erkannt werden. Durch
die Bewegung wurde die Diagonale verwischt, so dass die Treppenstufen weniger
deutlich zu sehen waren.

Abbildung 22: Diagonale bei geringer Auflösung

Durch Weichzeichnen kommt man der Wahrnehmung entgegen. Benachbarte


Bildpunkte werden interpoliert, so dass die Kontraste zwischen den Punkten
weniger stark sind. Dieser Vorgang wird auch Antialiasing genannt. Es gibt
verschiedene Möglichkeiten, ein Bild weich zu zeichnen. Zum einen wie im oben
genannten Beispiel durch erhöhte Geschwindigkeit und das Überblenden von
Bildern. Zum anderen durch Antialiasingfilter oder mit Hilfe von passenden
Skalieralgorithmen (siehe 4.3.2).

Bei Bewegungen fallen Treppenstufen besonders störend auf, je mehr


Blockartefakte zu sehen sind und umso stärker die Kontraste zwischen den
Bildpunkten sind, desto ruckhafter wirken die Bewegungen (siehe 7.1 Versuch 5, 6
und 7).

6.2.5 Bewegung
Um Wahrnehmung von Geschwindigkeit richtig zu beurteilen, muss ebenfalls der
Betrachtungsabstand berücksichtigt werden. Deshalb sollte sie als Winkel-
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 72

geschwindigkeit aus der Position des Betrachters angegeben werden. Je größer die
Winkelgeschwindigkeit, umso schwieriger fällt es, einem Objekt zu folgen. Es
bleibt weniger Zeit das Objekt abzutasten, deshalb wirkt es unschärfer.

Die Geschwindigkeit wird bei unterschiedlichen Betrachtungsabständen jedoch


häufig als gleich schnell empfunden. Betrachtet man ein bewegtes Objekt, so führt
dies zu einer Verschiebung des Netzhautbildes. Je weiter das bewegte Objekt
entfernt ist, bei gleicher Geschwindigkeit, umso kleiner ist die Bewegung auf
unserer Netzhaut. Trotzdem nehmen wir meist die physikalische Geschwindigkeit
war und nicht die des Abbildes auf unserer Netzhaut. Diese Fähigkeit unserer
Wahrnehmung wird als Geschwindigkeitskonstanz bezeichnet. [DK03]

Wenn Bewegung als Effekt eingesetzt werden soll, so sollte dies großflächig
geschehen. Bestes Beispiel dafür ist die allbewährte Diskokugel. Entweder werden
viele kleine Objekte auf einer Bildwand bewegt oder wenige große prägnante
Objekte, die einfach erfasst werden können und eine möglichst große Strecke in
Bewegungsrichtung aufbringen. So wirkt beispielsweise ein vertikaler Balken, der
horizontal bewegt wird intensiver, als ein horizontaler. Für einen starken Effekt
sollte die Bewegung nicht zu schnell sein, damit die Augen die Bewegung
problemlos verfolgen können. Das menschliche Sehverhalten ist stark davon
geprägt, Bewegungen zu verfolgen. Dies geschieht in einer Kette von Fixationen
und Saccaden. Bei zu schnellen Bewegungen jedoch wird die Kette unterbrochen
und die Augen fixieren einen anderen Punkt.

Damit Bewegungseffekte über eine längere Zeit wirken, sollten Geschwindigkeit


und Bewegungsrichtung variiert werden. Bleibt die Geschwindigkeit der Bewegung
für längere Zeit konstant, so gewöhnen wir uns daran und unsere Wahrnehmung
beginnt die Bewegung auszugleichen.

Bei Bildwänden mit geringer Auflösung erscheinen Bewegungen oft ruckhaft, das
liegt daran, weil die Bildpunkte immer deutlich sichtbar sind. Für eine Bewegung
muss ein Objekt mindestens um einen Bildpunkt verschoben werden. Je größer die
Bildpunkte sind, umso sprunghafter ist auch die Bewegung. Je deutlicher die
Bildpunkte voneinander abgegrenzt sind, also je schärfer die Kanten der Bildpunkte
sind, desto stärker werden die Sprünge wahrgenommen.

Bewegungen bei hohen Winkelgeschwindigkeiten werden flüssiger empfunden, da


unsere Augen weniger Zeit zum Abzutasten haben und somit eine
Bewegungsunschärfe entsteht.
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 73

Die Geschwindigkeit ist allerdings durch die Wiederholfrequenz des Steuersignals


begrenzt. Ist die Bewegung schneller, so werden einzelne Cues übersprungen und
die Bewegung beginnt unregelmäßig zu springen (siehe 7.1 Versuch 1). DMX hat
eine Wiederholfrequenz von 44 Hz. Die meisten Lichtsteuerungen wiederholen das
Signal aber mit einer geringeren Frequenz.

Schnelle Bewegungen sind bei vielen Anwendungen nicht erwünscht, da die


Information nicht mehr gelesen werden kann oder der Effekt unpassend ist.
Speziell bei geringen Auflösungen sind hohe Geschwindigkeiten ein Problem. Die
Bildpunkte sind meist sehr groß. Dies hat zur Folge, dass die Bewegungen auch
sehr schnell sind. Bei der Installation Kubik beispielsweise ist ein Bildpunkt 1x1
Meter. Wird eine Bewegung mit 30 Bildern pro Sekunde dargestellt, so entspricht
das einer physikalischen Geschwindigkeit auf der Bildwand von 30 m/s. Ein Ziel der
Arbeit ist es, Möglichkeiten vorzustellen, wie langsame Bewegungen möglichst
flüssig dargestellt werden können. In Kapitel 7.1 werden dazu die
Versuchsergebnisse präsentiert.

Wie gleichmäßig eine Bewegung empfunden wird, hängt stark mit Form, Größe
und Kontrast der Objekte zusammen. Der Sehwinkel auf ein bewegtes Objekt spielt
dabei ebenfalls eine Rolle. Je größer der Winkel, desto weniger werden kleine
ruckende Blockartefakte wahrgenommen, da nicht alles gleichzeitig scharf gesehen
wird. Ein weiterer Punkt sind die verschiedenen Techniken, wie einzelne Bilder
ineinander geblendet werden. Bei Lichtsteuerungen gibt es die Möglichkeit, die
einzelnen Cues mit Fades ineinander zu blenden (siehe 7.1 Versuch 9).

Bei Video muss das Material passend bearbeitet werden. Für flüssige Bewegungen
eignet sich dafür Bewegungsunschärfe (Motion Blur). Wenn wir eine schnelle
Bewegung beobachten, dann sehen wir diese leicht verzogen, da unser Auge die
jeweiligen Folgebilder interpoliert. Wenn ein Film mit 24 fps abgespielt wird, dann
wirkt er nur flüssig, wenn er auch mit 24 fps aufgezeichnet worden ist. Bedingt
durch die Belichtungszeit der Kamera ergeben sich Bewegungsunschärfen auf den
Einzelbildern, da das Bild über eine gewisse Zeitspanne belichtet wird. Bei
schnellen Bewegungen oder Kameraschwenks ziehen die Objekte deshalb
Schlieren. Betrachten wir einen Film, so nehmen wir keine oder nur geringe
Bewegungsunschärfe war, obwohl die Einzelbilder leicht verzogen sind. Unser Auge
dient dabei als Filter, sie lassen die Bewegungen flüssig und scharf erscheinen. Dies
funktioniert allerdings nur, wenn die Bewegung unseren Annahmen entspricht.
Verlaufen die Bewegungen unerwartet, dann kann unser Auge den Bewegungen
nicht folgen und die Bewegungsunschärfe fällt stärker auf. Speziell bei künstlich
generierten Filmen ist Motion Blur besonders wichtig, da hierbei die Einzelbilder
scharf und exakt sind und normalerweise nicht interpoliert werden. Die Bilder
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 74

wirken deshalb sehr ruckhaft. Durch Bewegungsunschärfe kommt man dem


Sehempfinden des Auges entgegen und die Bewegung wirkt wieder flüssiger.

Es gibt verschieden Arten von Motion Blur. Zum einen können die Bilder eines
Videos mit Frame Überblendung bearbeiten werden. So werden zwei aufeinander
folgende Bilder ineinander geblendet. Betrachtet man ein Einzelbild, so kann man
neben den bewegten Objekten transparente „Geisterbilder“ sehen.

Die zweite Möglichkeit besteht darin, aus den Pixel-Bewegungen neue Werte zu
interpolieren. Bildpunkte die ihre Koordinaten verändern, werden bei der
Interpolation berücksichtigt. Bildpunkte ohne Veränderung gehören zum nicht
bewegten Hintergrund und werden nicht berechnet. Motion Blur durch die
Berechnung von Pixel-Bewegungen erzielen saubere Ergebnisse. Allerdings ist dies
rechenaufwändiger, als eine Frame-Überblendung.

Für sehr weiche Bewegungen kann ein übertriebener Motion Blur verwendet
werden, allerdings wird somit das Objekt in Bewegungsrichtung verformt. Damit
die Form des Objekts bei der Bewegung erhalten bleibt, darf die
Bewegungsunschärfe, bei 25 fps keine größere Strecke zurücklegen als das Objekt
in einer 1/25 s (siehe 7.1 Versuch 8).

6.3 Produktion von Bildmaterial mit geringer Auflösung

6.3.1 Schwierigkeiten bei der Produktion


Bei der Produktion von Bildmaterial mit geringer Auflösung müssen drei Faktoren
besonders berücksichtigt werden:

 Begrenzte Darstellungsmöglichkeiten – für eine optimale Bildwiedergabe


sollten daher prägnante große Objekte mit einfachen Formen und starken
Kontrasten verwendet werden.

 Blockartefakte – diese können durch Weichzeichnen reduziert werden.

 Ruckhafte Bewegungen – sie lassen sich durch Bewegungsunschärfe,


Überblenden und geringe Kontraste zum Hintergrund abschwächen.

Damit die Darstellungsmöglichkeiten richtig beurteilt werden können, sollte das


Videomaterial vorher in die passende Auflösung skaliert werden; so wird schnell
deutlich, ob das Material bei geringer Auflösung funktioniert. Ist dies nicht möglich,
dann sollte man überschlagen, wie viele Bildpunkte einem Objekt zu Verfügung
stehen. Soll beispielsweise ein Objekt, das ein Fünftel des Originalbilds einnimmt,
auf einer Matrix mit 40 x 40 Bildpunkten dargestellt werden, so stehen für das
Objekt 8 x 8 Bildpunkte zur Verfügung. Nun kann abgeschätzt werden, ob die
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 75

Bildpunkte ausreichen, um das Objekt darzustellen. Wird ein Objekt durch feine
Linien beschrieben, so muss die Linienstärke geschätzt werden.

Bei der Produktion stellt sich das Problem, dass das erstellte Material nicht in der
richtigen Größe betrachtet werden kann. Auf dem Computer-Monitor ist das
abgebildete Icon als Adressbuch erkennbar, auf einer Matrix wird das Bild jedoch
stark vergrößert, die Blockartefakte sind deutlich sichtbar und entfremden das Bild
(siehe Abb. 23).

Abbildung 23: Windows XP Icon Adressbuch 32 x 32

Bei kleinen Bildpunkten sind die Kontraste zwischen den Punkten weniger stark
sichtbar. Wird beispielsweise eine Linie aus Bildpunkten mit ähnlicher Farbe
dargestellt, so wird sie trotzdem noch als zusammenhängend wahrgenommen. Bei
großen Bildpunkten erscheinen die Punkte nicht mehr zusammenhängend. Bei
geringer Auflösung müssen die wesentlichen Merkmale eines Objekts stärker
betont werden. Aus diesem Grund sollten zusammenhängende Elemente in einem
ähnlichen Farbton sein.

Um einen Eindruck davon zu bekommen, wie ein Bild auf einer Matrix aussieht,
sollte es aus einem ähnlichen Sehwinkel betrachtet werden. Dazu reicht meist ein
großer Computermonitor aus. Der Betrachtungsabstand sollte so gewählt werden,
dass der Sehwinkel auf den Monitor dem durchschnittlichen Sehwinkel auf die
Matrix entspricht.

Bei ungewöhnlichen Anordnungen oder speziellen Formen der Bildpunkte sollte


das Bildmaterial optimalerweise mit einem Visualisierungsprogramm betrachtet
werden. Sind die Bildpunkte beispielsweise horizontale Leuchtstoffröhren, so wird
das Bild stark verzerrt und vertikale Strukturen sind nur schwer zu erkennen.
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 76

Visualisierungsprogramme ermöglichen es, eine Matrix in ihrer Umgebung aus


unterschiedlichen Betrachtungsabständen darzustellen. Weiterhin können sie die
Oberflächenbeschaffenheit sowie die Farben der Leuchtmittel simulieren.

6.3.2 Aufbereitung von vorhandenem Bildmaterial


Es gibt viele Möglichkeiten, Bildwände zu bespielen; theoretisch kann jedes Bild
oder Video auf einer Matrix abgebildet werden. Die Produktion von Bildmaterial ist
kostspielig; deshalb wird häufig vorhandenes Bildmaterial mit einer Standard-
Videoauflösung verwendet und auf die passende Größe skaliert. Nicht jedes
Material ist dafür geeignet, bei geringen Auflösungen kann dementsprechend
weniger dargestellt werden. So kann es sein, dass ein Originalbild nach dem
Skalieren gar nicht mehr zu erkennen ist. Bei geringer Auflösung sollte deshalb
Bildmaterial mit großen, eindeutigen Formen und starken Helligkeits- oder
Farbkontrasten verwendet werden.

Im folgenden Abschnitt werden verschiedene Methoden vorgestellt, die eingesetzt


werden können um Video-Material zu verändern, damit es bei geringer Auflösung
besser funktioniert. Die Beispielbilder im folgenden Abschnitt wurden mit dem
UFGM-Player 3.8 abgespielt und mit der Visualisierungssoftware e:view von e:cue
visualisiert.

Grundsätzlich sollte, wie schon besprochen, die Größe der Objekte beachtet
werden. Wenn ein Objekt nur einen kleinen Bereich des Bildausschnitts einnimmt,
aber auf der gleichen Position bleibt, dann kann das Objekt vergrößert werden,
indem nur ein Bildausschnitt verwendet wird. Dies funktioniert ebenfalls bei
einigen Effekt-Videos, bei denen viele kleine Objekte bewegt werden.

Weiterhin sollte beachtet werden, wie die Seitenverhältnisse von Quell- und
Zielauflösung zueinander stehen. Sind sie sehr unterschiedlich, so wird das Bild
gestreckt oder gestaucht und Objekte können dadurch stark entstellt werden.
Durch die Wahl eines passenden Ausschnitts kann dies verhindert werden.

Die Objekte in einem Bild sollten möglichst farbig, kontrastreich und großflächig
sein. Die einfachste Methode, mit der schon viel erreicht werden kann, ist eine
Farbkorrektur. Bei der Farbkorrektur wird das Verhältnis der Farb- und
Helligkeitswerte von Original und Abbildung verändert. Dies kann in einem
Diagramm dargestellt werden. Die Werte des Originals liegen auf der X-Achse, die
der Abbildung auf der Y-Achse. Die Kurve, die das Verhältnis beschreibt, wird als
Gammakurve bezeichnet. Wird das Bild unverändert wiedergegeben, so ist die
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 77

Gammakurve eine Gerade durch den Ursprung mit einem Winkel von 45 °. Der
Kontrast kann verändert werden, indem die Steigung der Kurve verändert wird. Bei
größeren Winkeln ergibt sich ein stärkerer Kontrast. Die Helligkeit kann verändert
werden, indem zu der Kurve ein Gleichanteil addiert wird, somit verschiebt sich die
Kurve entlang der Y-Achse. In der Videotechnik arbeitet man zusätzlich noch mit
Gammawerten; die Kurve wird dabei durch die Beziehung x = yγ beschrieben. Bei
einem Gammawert größer als eins ergibt sich eine leicht nach oben gewölbte
Kurve, die mittleren Farbtöne werden gegenüber den hellen und dunklen Bereichen
aufgehellt. Bei Gamma kleiner eins werden die mittleren Farbtöne abgedunkelt. Die
Gammakurve lässt sich für alle drei Farbkanäle separat anwenden, so können
bestimmte Farben stärker hervorgehoben werden.

Bei geringer Auflösung sollte man den Kontrast erhöhen. Dunkle Bereiche werden
dunkler, helle Bereiche werden heller und die Farben werden kräftiger. Unter-
schiedlich farbige Flächen grenzen sich stärker voneinander ab und sind somit
deutlicher zu erkennen.

Um die Farbe weiter zu verstärken, kann die Sättigung angehoben werden. Dazu
müssen die RGB-Werte allerdings zuvor in den HSV-Farbraum (Hue, Saturation,
Value) gewandelt werden. Die Sättigung wird verändert und anschließend müssen
die Werte wieder zurück in den RGB-Raum gewandelt werden. Dazu wird allerdings
sehr viel Rechenleistung benötigt.

Weniger rechenintensiv ist es, wenn die Bittiefe der Farbkanäle verringert wird. So
werden die Abstufungen zwischen den Farben größer, die Kontraste werden erhöht
und die Farben werden kräftiger. Diese Methode eignet sich vor allem für Bilder mit
farbigen Flächen. Bei Farbverläufen ist diese Methode jedoch nicht zu empfehlen,
da die Abstufungen zwischen den Farbwerten sehr groß werden und somit die
Blockartefakte stärker auffallen und das Bild entfremdet wird.

Abbildung 24: Original, erhöhter Kontrast, erhöhte Sättigung


Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 78

Mit der Tonwertkorrektur ergeben sich sehr viele Möglichkeiten. Die Tonwerte
geben die Grau- bzw. Farbwerte in einem Bild wieder. Der gesamte Tonwertbereich
umfasst normalerweise 256 Stufen, O entspricht schwarz, 255 weiß. Bei der
Korrektur können die Bereiche verschoben und gespreizt werden, so dass
beispielsweise Bildpunkte ab einem Wert von 50 schon schwarz und ab 100 weiß
wiedergegeben werden. Den Helligkeitswerten in diesem Bereich werden neue
Werte zugeordnet. Der Tonwertumfang gibt an, in welchem Helligkeitsbereich die
neuen Werte liegen und wie fein die Auflösung der neuen Werte ist. Diese
Einstellungen lassen sich auch gesondert auf die einzelnen Farbkanäle anwenden.
So können ähnlich farbige Flächen zusammengefasst und stark gesättigt oder
invertiert werden. Die folgenden Abbildungen zeigen verschieden Bilder, die mit
Tonwertkorrektur bearbeitet wurden. Beispielsweise kann so ein gefilmter
Wolkenhimmel zu einem farbigen Effekt-Video werden.

Abbildung 25: Tonwertkorrektur

Weitere Möglichkeiten ergeben sich durch Chroma-Key; mit diesem Tool können
bestimmte Farbwerte durch andere ersetzt werden. Dies funktioniert am besten,
wenn Objekt und Hintergrund unterschiedliche Farben haben. Beim Blue-Screen-
Verfahren wird so ein Objekt, das vor einem blauen Hintergrund steht, ausgestanzt
und der Hintergrund wird durch ein neues Bild ersetzt. Bei geringer Auflösung soll
meist kein anderes Hintergrundbild verwendet, sondern der Hintergrund oder das
Objekt selber vereinfacht und eingefärbt werden. Dies lässt sich anhand von drei
Einstellungen realisieren: Es wird ein Farbton ausgewählt und eingestellt, wie fein
die Farben aufgelöst werden sollen, so können beispielsweise alle Farben, die
grünlich sind, zusammengefasst werden. Anschließend wird eine Farbe
ausgewählt, die den eingestellten Farbbereich ersetzt. Somit werden Bereiche, die
einen ähnlichen Farbton haben zu einer einfarbigen Fläche; unwichtige Details und
feine Strukturen werden aus dem Bild entfernt. Das Video sollte mit Chroma-Key
bearbeitet werden, bevor es klein skaliert wird. So können die Objekte besser
voneinander getrennt werden.
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 79

Abbildung 26: Chroma-Key

Allerdings muss darauf geachtet werden, das ein Bild durch zusammenfassen der
Farben auch prägnanter wird. Sind prägnante Bestandteile des Bildes nicht mehr zu
erkennen, wie beispielsweise Nase und Augen in einem Gesicht, so wird das
Gesicht auch schwieriger erkannt.

Objekte, die sich klar vom Hintergrund absetzen, werden allgemein deutlicher
erkannt. Dies kann geschehen, indem die Farben verändert oder die Kanten
hervorgehoben werden. Von einigen Herstellern gibt es Video-Plug-Ins zur
Kantenhervorhebung. Die Konturen eines Objekts werden erkannt, indem
benachbarte Pixel miteinander verglichen werden. An harten Farbübergängen
werden die Konturen durch zusätzliche Linien verstärkt. Dieser Effekt hat jedoch
nur Wirkung, wenn die Linien von der Matrix auch wiedergegeben werden können.
Die meisten Cartoons funktionieren sehr gut bei geringer Auflösung. Die Konturen
sind stark betont, hinzu kommen stark gesättigte Farbflächen (siehe Abb. 27).

Abbildung 27: The Simpsons, Southpark

Man kann realistische Bilder so verändern, dass sie einen Cartoon-Look


bekommen. Ein Beispiel hierfür ist der Film „A Scanner Darkly“ (USA, 2006) von
Richard Linklater. Für diesen Effekt gibt es ebenfalls Video-Plug-Ins. Um gute
Ergebnisse zu erzielen, sollte das Videomaterial wenige Details enthalten und flach
beleuchtet sein; somit ergeben sich große Flächen mit wenigen Helligkeits-
abstufungen.
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 80

Anstelle von Plug-Ins können die Einzelbilder eines Videos auch beispielsweise in
Photoshop geladen und mit einem Action-Tool bearbeitet werden. Actions können
mehrere Effekte automatisiert auf ein Bild anwenden; so lassen sich die
Einzelbilder automatisch verändern.

Um farbige Flächen zu erhalten, die sich voneinander abgrenzen, eignen sich


Kombinationen aus verschiedenen Weich- und Scharfzeichnern. Gute Ergebnisse
erzielt man durch einen Median-Filter und anschließendes selektives Scharf-
zeichnen. Der Median-Filter setzt benachbarte Pixel auf einen gleichen Wert, und
durch das selektive Scharfzeichnen werden die Kanten wieder scharf gezeichnet.
Diese Filter, kombiniert mit einer Kantenhervorhebung, lassen ein realistisches
Bild wie ein Cartoon aussehen.

Abbildung 28: Cartooner

6.3.3 Produktion von neuem Bildmaterial


Einfache Pixelgrafiken können theoretisch mit jedem pixelbasierten Zeichen-
programm erstellt werden. Es gibt jedoch einige alte Computerprogramme, die sich
optimal dazu eignen, Bilder und Animationen auf Pixelbasis zu erstellen. Sie
werden zur Produktion von Computerspielen benutzt. Durch die Weiter-
entwicklung von Handys und Handhelds werden die Funktionen dieser Programme
wieder aktuell, da hier ebenfalls nur eine geringe Auflösung zur Verfügung steht.

Diese Programme verfügen über Funktionen, mit denen sehr schnell und einfach
pixelgenau gezeichnet werden kann. Dazu gibt es Werkzeuge zum symmetrischen
Zeichnen oder um Objekte mit farbigen Konturen zu umhüllen. Des Weiteren
können auch kachelbasierte Grafiken erstellt werden. Mit ihnen können Bilder aus
vielen einzelnen Bausteinen zusammengesetzt werden.

Zur Animation der Bilder gibt es ebenfalls praktische Werkzeuge. Die Key-Frames
der Objekte können halbtransparent übereinander gelegt werden, so lassen sich die
einzelnen Bewegungsphasen sehr gut zeichnen. Anschließend können die aus-
gewählten Pixel oder Objekte um einzelne Pixel verschoben werden; aus diesem
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 81

Grund werden diese Programme auch Pixel-Pusher genannt. Für bewegte Hinter-
gründe können Texturen mit Endlosschleifen erstellt werden.

Die Grafiken sollten möglichst in verlustlosen Formaten gespeichert werden. Durch


Kompressionsverfahren können einzelne Pixel verändert werden, bei sehr wenigen
Pixeln fällt dies relativ stark ins Gewicht.

Einfache Pixelgrafiken haben sich zu einer Kunstform entwickelt, der sogenannten


Pixel-Art (siehe Abb. 29). Hierbei werden bewusst nur Mittel der frühen Bildschirm-
Grafik verwendet, so werden beispielsweise keine Filter und nur eine begrenzte
Farbpalette benutzt. Diese Grafiken schaffen es, mit sehr wenigen Bildpunkten
detailreiche Bilder zu erstellen.

Pixel-Art hat viele Gemeinsamkeiten mit den traditionellen Kunstformen des


Mosaik und der Kreuz-Stich-Technik. Bei diesen Techniken werden die Bilder
ebenfalls aus vielen einzelnen Bildpunkten zusammengesetzt. Es lohnt sich, diese
Kunstformen etwas genauer zu betrachten.

Damit möglichst wenige Blockartefakte sichtbar sind, versucht man, regelmäßige


Linien zu benutzen. Aus diesem Grund basieren in der Pixel-Art die meisten Bilder
auf den abgebildeten Pixel-Linien. Die Bilder sind meist klar strukturiert, arbeiten
mit einfarbigen Flächen und Konturen und haben meist eine gewisse Symmetrie.

Abbildung 29: Pixel-Art, perfekte Pixel-Linien

Für effektorientiertes Video-Material eignen sich gut abstrakte Bilder. Diese lassen
sich sehr gut mit Video-Plug-ins erzeugen, indem ausgewählte Bilder verändert
oder komplett neue Bilder generiert werden. Mit wenigen Einstellungen können so
komplexe Animationen erstellt werden. Sie generieren sich häufig mit einer
gewissen Eigenständigkeit, bewegen sich jedoch in vorgegebenen Grenzen. Die
Einstellungsmöglichkeiten sind speziell bei Medienservern vereinfacht, damit das
Videomaterial schnell den Anforderungen entsprechend gestaltet werden kann. So
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 82

können beispielsweise Geschwindigkeit, Farbe, Anzahl der Objekte, Bewegung und


effektspezifische Parameter verrändert werden.

Für dynamische Hintergrundbeleuchtung sind Plasma- oder Blasen-Effekte gut


geeignet; dies sind animierte organische Muster, die aneinander vorbei gleiten oder
ineinander übergehen (siehe Abb. 30). Hierbei sollte darauf geachtet werden, dass
die Ränder der Blasen stark genug sind. Es sind auch dreidimensionale Plasma-
Effekte möglich, jedoch sollten die Objekte sich dann nicht zu stark überlagen, da
sie sonst schwer erkannt werden.

Abbildung 30: Plasma

Ein Partikel-Effekt wandelt Bilder, Videos oder Objekte in kleine Fragmente um,
bildet sie mehrfach ab und kann sie animieren. Dies kann auf einer Ebene entlang
bestimmter Formen oder im Raum geschehen. Mit dieser Methode lassen sich die
unterschiedlichsten Effekte erzeugen. So können beispielsweise Feuer, Ex-
plosionen, Rauch, Wasser, Regen oder Schnee erzeugt werden. Diese Effekte sind
allerdings nur geeignet, wenn die Fragmente groß oder sehr dicht angeordnet sind
und eine Fläche mit Farbe füllen; ansonsten verblassen sie bei geringer Auflösung
und lassen das Bild nur trüb erscheinen. Mit Partikel-Effekten lassen sich jedoch
auch hervorragend einfache Grafiken erstellen.

Abbildung 31: Partikel

Um Bildern eine räumliche Tiefe zu verleihen, gibt es verschiedene Möglichkeiten.


Zum einen können die Objekte perspektivisch dargestellt werden. In der Pixel-Art
werden die Bilder beispielsweise aus einem Blickwinkel von 26,6° dargestellt, da
somit die optimalen Linien aus Abbildung 29 verwendet werden können.
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 83

Eine weitere Technik zur Erstellung von räumlichen Bildern ist eine
Tiefenstaffelung. Ein Bild wird dabei in verschiedene Zonen eingeteilt:
Vordergrund, Mittelgrund und Hintergrund (siehe Abb. 32). Diese Methode eignet
sich sehr gut, um weiterhin flächig zu arbeiten. Die einzelnen Ebenen entsprechen
verschiedenen räumlichen Ebenen und werden hintereinander angeordnet. Bei
Bewegungen in einer solchen Komposition verschieben sich die Ebenen mit
unterschiedlichen Geschwindigkeiten. Aus der Sicht des Betrachters legt ein Objekt,
das weiter entfernt ist, bei gleicher Geschwindigkeit eine geringere Strecke zurück.

Abbildung 32: Vordergrund, Mittelgrund, Hintergrund (South Park)

Der räumliche Effekt wird verstärkt, wenn die genannten Methoden kombiniert
werden, d. h., indem perspektivische Bilder auf mehreren Ebenen angeordnet oder
flache Bilder in Z-Richtung gekippt und somit ebenfalls verzerrt werden. Für Effekt-
Videos eignen sich einfache Flächen, wie beispielsweise einzelne Balken, die auf
verschiedenen Ebenen im Raum angeordnet und gegeneinander verschoben
werden.

Werden die Ebenen auf der Z-Achse bewegt oder gekippt, wird der räumliche Effekt
durch perspektivische Verzerrungen verstärkt. Sehr gut wirken Kamerafahrten, da
der Blickwinkel auf alle Ebenen gleichzeitig verändert wird. Die Ebenen werden aus
einer Bewegung heraus betrachtet; somit verändern sich alle Positionen und
Proportionen der Ebenen proportional zur Position der Kamera. Bewegung und
Raum können einfach erfasst werden und wirken sehr effektvoll, da alle Objekte
gleichzeitig eine Bewegung beschreiben. Bewegen sich die einzelnen Ebenen
unabhängig voneinander, so wirkt das Bild auch räumlich, jedoch weniger
effektvoll.

Die räumliche Wirkung wird weiter verstärkt, indem die Objekte in einem Bild aus
einer bestimmten Richtung beleuchtet werden. Es ergeben sich Schatten und
Helligkeitsverläufe, das Bild wird plastischer, aber auch gleichzeitig detaillierter.
Bilder mit vielen Details sind aus genannten Gründen weniger geeignet; deshalb
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 84

sollten Lichteffekte nur begrenzt eingesetzt werden. Es können beispielsweise


große Flächen in einem andern Farbton eingefärbt werden, Farbverläufe und
Schlagschatten sind jedoch zu vermeiden.

In abstrakten Videos wird häufig Licht als zusätzlicher Effekt über das Video gelegt,
so dass Objekte glitzern, einen Schein bekommen oder selbst strahlen. Diese
Effekte sind bei geringer Auflösung jedoch schlecht geeignet, da die sie meist
halbtransparent sind oder sehr dünne Linien bilden.

Abbildung 33: Lichteffekte

Ebenfalls schlecht geeignet sind Kaleidoskop- oder Fraktal-Effekte. Fraktale (lat.


fractus: gebrochen) sind natürliche oder künstliche Muster, die einen hohen Grad an
Selbstähnlichkeit aufweisen, beispielsweise, wenn ein Objekt aus mehreren
verkleinerten Kopien von sich selbst besteht. Die Algorithmen zerteilen oder
spiegeln das Originalbild in viele kleine Stücke, deshalb werden die Abbildungen
häufig sehr detailliert.

Abbildung 34: Kaleidoskop, Fraktale

Wie unter 6.2.5 besprochen, sollte besonders auf die Geschwindigkeit geachtet
werden; dies gilt natürlich auch für Bewegungen auf der Z-Achse. So sind
beispielsweise Schriften, die aus dem Unendlichen kommen, wenig geeignet, da sie
normalerweise sehr schnell herangezoomt werden. Die Größe der Schrift verändert
sich sehr schnell und wirkt ruckhaft.

Generell sollten die Videos lieber langsamer produziert werden, da es relativ


einfach ist, die Geschwindigkeit eines Videos zu erhöhen; entweder wird die
Bildrate erhöht oder einzelne Bilder werden ausgelassen. Soll ein Video jedoch
langsamer laufen, so stehen weniger Bilder zu Verfügung; es müssen also
Zwischenbilder interpoliert werden, und somit wird die Qualität des Videos
schlechter.
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 85

Video-Loops sollten eine gewisse Länge haben, denn wenn sich die Bilder ständig
wiederholen, werden sie schnell langweilig. Aus diesem Grund werden gerne
Video-Plug-ins benutzt, die gewisse Zufallskomponenten mit einfließen lassen, so
verändern sich die Bilder stetig und wiederholen sich nicht. Bilder können auch
durch analogen Input, wie beispielsweise durch Audiosignale verändert werden; so
ergeben sich ganz neue Möglichkeiten. Bei Visualisierungsprogrammen von Media-
Playern werden so bestimmte Bildeffekte über das Spektrum, die Wellenform oder
die BPM-Zahl gesteuert. Die meisten Standard-Visualisierungen funktionieren nicht
sehr gut bei geringer Auflösung, denn sie sind zu schnell, zu fein strukturiert und
überladen an Effekten. Es gibt jedoch Programme, mit denen Visualisierungen für
Media-Player einfach verändert oder erstellt werden können. Am weitesten
verbreitet ist AVS (Advanced Visualisation Studio); dies ist ein Plug-in für Winamp
zur Visualisierung von Musik, mit dem nach einem Baukastenprinzip
Visualisierungen erstellt oder verändert werden können. Darüber hinaus können
auch neue Effekte programmiert werden, da es über eine Open-Source-Lizenz
erhältlich ist.

Eine Vielzahl weiterer Möglichkeiten ergeben sich, wenn die Bilder von weiteren
Eingangssignalen gesteuert werden, wie zum Beispiel durch Sprache, Bewegung
oder Wetter. So können interaktive Anwendungen realisiert werden. Dazu eignen
sich verschiedene grafische Entwicklungsumgebungen, wie beispielsweise
„Max/MSP“ und „Jitter“ der Firma Cycling'74, die Open-Source Version “Pure Data”
oder “VVVV” der Firma Meso. Dies sind modular aufgebaute, objektorientierte
Programme zur Erzeugung und Manipulation von Video-, Grafik- und
Datenströmen in Echtzeit. Die Programme können Audio-, Video- und
Sensorsignale oder andere offene Standards wie DMX, MIDI, OSC, XML, HTTP, TCP
oder RS 232 ausgeben und als Input verwenden.
Praktischer Teil 86

7 Praktischer Teil

7.1 Flüssige Bewegungen bei geringer Auflösung


Die Testwand besteht aus 30 Traxon LED-Tiles 64 PXL Matrix. Ein Panel hat 8 x 8
RGB-Pixel auf einer Fläche von 50 x 50 cm. Vor den LEDs ist ein diffuser Kunststoff,
und die Pixel sind durch Trennwände klar voneinander abgegrenzt, so dass die
leuchtende Fläche eines Bildpunkts die Maße 6,25 x 6,25 cm hat. Die LEDs haben
einen Halbstreuwinkel von 120°. Die Leuchtdichte eines Moduls beträgt, bei 100%
Rot 81,1 cd/m2, bei 100% Grün 115 cd/m2, bei 100% Blau 29,2 cd/m2 und bei 100%
RGB-Weiß 221,5 cd/m2. Im Anhang B befindet sich das Datenblatt der verwendeten
Leuchten.

Von den Modulen sind sechs in der Breite und fünf in der Höhe angeordnet. So
ergibt sich eine Auflösung von 48 x 40 Pixel auf einer Fläche von 3 x 2,5 m. Es wurde
absichtlich eine Testwand mit flächigen und klar abgegrenzten Bildpunkten
verwendet. Bei einer Wand mit Lichtquellen die ineinander übersprechen oder man
direkt ins Leuchtmittel sieht, ist die Pixelgröße schwieriger zu definieren.
Angesteuert wurde die Wand mit dem Programmer 3.8 von e:cue.

Versuch 1:
Um die maximale Geschwindigkeit zu testen bei der alle Cues dargestellt werden,
wird ein horizontaler Balken mit einer Stärke von einem Pixel, in 48 Schritten von
Links nach Rechts bewegt, dabei wird die Wartezeit zwischen den Cues verändert.
In der Standardeinstellung wiederholt die Lichtsteuerung das DMX-Signal 30 mal
pro Sekunde. Die maximale Geschwindigkeit ergibt sich bei ca. 0,035 s Wartezeit.
Die eingestellten Zeiten bestätigen die Wiederholungsrate der Steuerung. Bei 48
Cues mit einer Wartezeit von 0,035 s ergibt sich eine Gesamtzeit für den Durchlauf
des Balkens von 1,68 s. Teilt man die 48 Schritte durch 1,68 s, so ergibt sich eine
Wiederholungsrate von 29. Bei kürzeren Wartezeiten werden einzelne Cues
ausgelassen und der Balken fängt stark an zu springen. Die maximale
Geschwindigkeit, bei der alle Cues dargestellt werden können, liegt auf der
Testwand, die mit 30 Hz angesteuert wird, somit bei 1,8 m/s.

Die minimale Geschwindigkeit, bei der bewegte Objekte auf der Testwand
ruckelfrei wahrgenommen werden, hängt stark mit Größe, Form, Kontrast, sowie
den eingestellten Fadezeiten zusammen. Für die Tests werden von verschiedenen
Objekten Bitmaps erstellt mit der Lichtsteuerung animiert und in Cue-Listen
Praktischer Teil 87

umgewandelt. Mit den erstellten Cue-Listen wird die Testwand angesteuert. Dabei
werden die Wartezeiten der Cues so lange verkürzt, bis die Bewegung aus einem
Betrachtungsabstand von sieben Metern, als flüssig wahrgenommen wird. In den
ersten acht Versuchen werden die Cues dabei nicht ineinander übergeblendet.

Bei einem Betrachtungsabstand von sieben Metern werden Bewegungen nie


wirklich flüssig wahrgenommen, da die Bildpunkte zu groß sind. Für die
Beurteilung werden ruckende Pixelartefakte vernachlässigt. Eine Bewegung galt als
flüssig, wenn das Objekt als ganzes betrachtet als flüssig wahrgenommen wird.

Versuch 2:
Je größer die Strecken des Umfangs eines Objekts sind, die von der Bewegungs-
richtung abweichen, umso schneller muss das Objekt bewegt werden, um flüssig zu
erscheinen. Dies liegt daran, weil sich mehr Bildpunkte ändern und somit das
Rucken stärker wahrgenommen wird. Im Test werden ein horizontaler und ein
vertikaler weißer Balken über einem nichtleuchtenden Hintergrund von links nach
rechts bewegt. Der horizontale Balken erschient bei einer Geschwindigkeit von 1,2
m/s ruckelfrei, der vertikale Balken bei 1,4 m/s.

Abbildung 35: Versuch 2

Versuch 3:
Die Größe der Fläche eines Objekts ist für eine flüssige Bewegung ebenfalls
relevant. Je mehr Bildpunkte bei einer Bewegung unverändert bleiben, desto
flüssiger wirkt die Bewegung. Ein Balken mit einer Pixelstärke von eins kann im
Versuch mit der oben angegebenen maximalen Geschwindigkeit nicht flüssig
dargestellt werden. Bei jedem Cue werden alle Pixel verändert. Der fünf Pixel starke
Streifen ist bei einer Geschwindigkeit von 1,4 m/s flüssig, der zehn Pixel Streifen bei
1,2 m/s.
Praktischer Teil 88

Abbildung 36: Versuch 3

Versuch 4:
Je geringer der Kontrast zwischen dem bewegten Objekt und Hintergrund, desto
flüssiger erscheint die Bewegung. Ein 3 Pixel starker weißer Balken auf einem
schwarzem Hintergrund muss für eine flüssige Bewegung mit 1,4 m/s bewegt
werden, ein grauer Balken hingegen mit 1,2 m/s. Ist das Objekt und der Hintergrund
farbig, so ist der Kontrast noch geringer, als bei Schwarz auf Weiß. Der rote Streifen
benötigt eine Geschwindigkeit von 1,3 m/s, der hellrote nur 1,1 m/s.

Abbildung 37: Versuch 4

Versuch 5:
Für den nächsten Test werden weichgezeichnete Objekte verwendet. Durch das
Antialiasing ist der Kontrast zwischen Objekt und Hintergrund weniger stark.
Allerdings entstehen durch das Weichzeichnen neue sichtbare Pixel. Wird ein
Objekt mit vielen Blockartefakten bewegt, so wirkt es weniger flüssig. Je mehr
Bildpunkte eines Objekts sich bei einem Cue sichtbar verändern, desto ruckhafter
wirken die Bewegungen. Die Bewegung der weichgezeichneten Kugel wirkt bei
gleicher Geschwindigkeit weniger flüssig.

Abbildung 38: Versuch 5


Praktischer Teil 89

Versuch 6:
Ist das bewegte Objekt allerdings sehr viel größer als der weichgezeichnete Rand,
so wirkt das Objekt insgesamt flüssiger. Nur der Rand des Objekts hat ein
Flimmern.

Abbildung 39: Versuch 6

Versuch 7:
Je geringer die Kontraste zwischen den Pixeln, umso mehr verschwindet das
Flimmern und die Bewegung wird flüssiger. Die besten Ergebnisse werden mit
großen, einfarbigen, leicht weichgezeichnet Flächen erzielt, die über einen farbigen
Hintergrund bewegt werden.

Abbildung 40: Versuch 7

Versuch 8:
Für eine weiche Bewegung kann ein Objekt mit Motion Blur bearbeitet werden. So
wird nur in der Bewegungsachse weich gezeichnet. Im Gegensatz zum normalen
Antialiasing bleibt hierbei das Objekt insgesamt schärfer. Die Stärke der
Bewegungsunschärfe muss allerdings auf die Geschwindigkeit angepasst werden,
da sonst die Form des Objekts verfälscht wird. Aus der Kugel wird ein Oval. Aus
diesem Grund hat Motion Blur bei langsamen Bewegungen kaum eine Wirkung.

Abbildung 41: Versuch 8


Praktischer Teil 90

Versuch 9:
Deutlich bessere Ergebnisse können erzielt werden, wenn mit Fades gearbeitet wird
und die Cues ineinander geblendet werden. Wird im Tracking-Modus (Differenz-
Programmierung) programmiert, so werden die besten Ergebnisse erzielt, wenn die
Fade-In-Zeit gleich der Warte-Zeit ist. Im Tracking-Mode bleibt eine Lampe solange
auf dem von einem Cue gesetzten Wert bis ein anderer Cue für diese Lampe einen
neuen Wert setzt. Somit kann die Fade-Out-Zeit nicht länger als die Fade-In-Zeit
sein. Bei der Bewegung eines Balkens mit einer Stärke von einem Pixel ergibt sich
folgendes Bild. Steht der Cue, so ist für kurze Zeit nur ein Balken zu sehen,
während der Fades kommt ein zweiter Balken hinzu. Die Bewegung wirkt flüssiger,
jedoch bewegt sich der Balken vergleichbar mit einer Raupe, die Breite des Balkens
variiert immer um einen Bildpunkt. Die Bewegung von einem Bildpunkt zum
anderen ist sanfter, jedoch bleibt sie deutlich sichtbar.

Abbildung 42: Gleiche Fade-In und Fade-Out-Zeiten

Damit die Sprünge zwischen den Bildpunkten weniger deutlich zu sehen sind,
muss die Größe des bewegten Objekts konstant erscheinen und die raupenhafte
Bewegung innerhalb des Objekts stattfinden. Dies ist möglich, wenn die Fades sich
über mehrere Cues erstrecken. Dadurch, das mehrere Cues aktiv sind, hat das
Objekt Bewegungsunschärfe in beiden Richtungen und wirkt somit flüssiger, da der
Kontrast an den Rändern bei Bewegungen verringert wird. Am vorherigen Beispiel
würde dies bedeuten, der hintere Balken wird ausgeblendet, der mittlere hat die
höchste Intensität und der vordere wird eingeblendet.

In den Versuchen werden die besten Ergebnisse erzielt, wenn die Fade-Out-Zeiten
der Cues drei mal länger sind, als die Fade-In- und Wartezeiten.
Praktischer Teil 91

Abbildung 43: Fade-Out-Zeit dreimal so lang wie Fade-In-Zeit

Bei kürzeren Fade-Out-Zeiten ist der letzte Cue schon so weit ausgeblendet, dass er
kaum noch zu erkennen ist und der erste schon zu hell. Die Bewegung wird immer
noch raupenhaft empfunden. Bei längeren Fade-Out-Zeiten zieht das Objekt einen
Schleier hinter sich her. Die Stärke der Bewegungsunschärfe hinter einem Objekt
kann mit Hilfe der Fade-Out-Zeiten variiert werden. Die Bewegungsunschärfe vor
einem Objekt entsteht durch den Fade in den nächsten Cue und ist deshalb auf
einen Schritt begrenzt. Für noch weichere Übergänge in Bewegungsrichtung muss
das Objekt an sich weichgezeichnet sein. Die flüssigsten Bewegungen wurden mit
weichgezeichneten Objekten und dreifacher Fade-Out-Zeit erzielt.

7.2 CPU-Auslastung bei verschiedenen Codecs


In den folgenden Versuchen werden verschiedene Codecs und Container-Formate
bezüglich des Rechenaufwands miteinander verglichen. Ziel der Untersuchung ist
es, Empfehlungen zu geben, welche Codecs und Containerformate am besten mit
dem UFGM-Player 3.8.8 von e:cue abgespielt werden können. Der UFGM-Player 3.8.8
ist eine Beta-Version, die sich momentan noch in der Entwicklung befindet.
Ausgangsmaterial für die Tests ist unkomprimiertes DV-Material, gefilmt mit einer
Sony VX2100 3CCD MiniDV-Kamera. Es befindet sich in einem AVI-Container mit
der Auflösung 720 x 576 und hat eine Länge von 81 Sekunden. Das DV-Material wird
mit dem Programm „Cleaner XL“ in verschiedene Codecs mit einer Auflösung von
320 x 240 und einer Bitrate von 256 kBit/s gewandelt. Die Codecs XviD, DviX, MPEG
1 und 2 werden mit dem Programm „SUPER“ gewandelt, da Cleaner XL diese Codecs
nicht unterstützt oder nicht in die passende Auflösung wandeln kann. Auf der
beigelegten DVD befinden sich die codierten Test-Videos.

Die Videos werden nacheinander mit dem UFGM-Player abgespielt und steuern
eine 8 x 8 große Matrix an; dabei wird die CPU-Auslastung des UFGM-Players mit
Praktischer Teil 92

dem „Process Explorer“ gemessen. Der UFGM-Player ist bei den Tests auf dem
Desktop geöffnet.

Verwendete Hardware: Verwendete Software:


Pentium 4, 2.6 GHz., 512 MB RAM e:cue, UFGM-Players V. 3.8.8
UFGM-Dongle e:cue, Patchelor V. 3.8.8.8
E:cue Butler Process Explorer for Windows, V. 10.21
Traxon Moodlight 64, siehe Anhang B Discreet, Cleaner XL, V. 6.0.1.401 Demo
eRightSort, SUPER, V. 22
Verwendete Codecpacks:
K-Lite V. 2.84 full
QT Alternativ V. 7.1.3

Tabelle 7: Video Codecs - Performance

Container Codec Präfix Größe (MB) fps CPU % Graph

AVI Indo Raw 1.2 .avi 172,6 25 15 3

Helix YV12YUV .avi 230,2 25 15,5 4

MS V1 .avi 16,4 25 13,5 5

Intel IYUV .avi 230,2 25 15 6

Indeo 5.11 .avi 9,7 25 21 7

Indeo 4.5 .avi 14,7 25 16,5 8

Indeo 3.2 .avi 8,4 25 16,3 9

Helix I429 YUV .avi 230,2 25 16,5 10

Cinepak .avi 5,7 25 15 11

uncompressed .avi 613,6 25 12 12

Xvid .avi 3,6 25 16,5 1

DivX .avi 3,5 25 P 18 2

WMV WM MPEG4 V3 .wmv 9,1 25 P 18 23

ISO MPEG4 V1 .wmv 9,1 25 P 17,5 24

WMV V8 .wmv 8,9 25 P 23 25

WMV 9 .wmv 9 25 P 23,5 26


Praktischer Teil 93

WMV 9 Screen .wmv 9,3 25 P 45 27

WM Screen V7 .wmv 9,3 25 P 35 28

WMV V7 .wmv 9 25 P 20 29

Quicktime MPEG4 Compressor .mov 3,7 25 17,5 15

H.263 .mov 3,2 25 P 16 16

Apple Cinepak .mov 26,7 25 15 17

H.264 .mov 17,6 25 P 24 20

Sorenson V3 .mov 4,6 25 P 16,5 18

Sorenson V TM .mov 5,7 25 P 16,5 19

DiviX .mov 3 25 P 16,5 21

XviD .mov 3,1 25 16 22

MPEG 1 MPEG 1Pal P .mpg 10,5 25 P 16 13

MPEG 1 NTSC P .mpg 10,7 30 18 14

MPEG 2 MPEG 2 NTSC P .mpg 10,4 30 18,5 30

MPEG 2 PAL P .mpg 10,2 25 15 31

Die grüne Linie in den Graphen gibt die CPU-Auslastung in Prozent an, die Höhe
der Diagramme entspricht 100 %. Auffällig ist, dass bei manchen Codecs zu Beginn
ein Peak auftritt (in der Tabelle mit P für großer Peak, P für kleiner Peak
gekennzeichnet). Es wird eine erhöhte Rechenleistung benötigt, was dazu führen
kann, dass die Bildrate für kurze Zeit einbricht. Damit verschiedene Videos flüssig
hintereinander abgespielt werden können, sollte ein System nicht an der Grenze
seiner Rechenleistung betrieben werden. Die auftretenden Peaks sind kein
spezielles Problem des UFGM-Players; in anderen Mediaplayern treten diese
ebenfalls auf.

1 2 3 4 5
Praktischer Teil 94

6 7 8 9 10

11 12 13 14

15 16 17 18 19

20 21 22

23 24 25 26 27
Praktischer Teil 95

28 29

30 31

Abbildung 44: CPU-Auslasung bei unterschiedlichen Video Codecs

Die Peaks, die bei manchen Codecs zu Beginn auftreten, hängen vermutlich damit
zusammen, dass die entsprechenden Codecs geladen werden müssen. Im
folgenden Test wird eine Datei im WMV V7 Codec zuerst geloopt (1, 2) und
anschließend zweimal die gleiche Datei in die Play-Liste geladen und
hintereinander abgespielt (3, 4). Wird das Video geloopt, so tritt nur zu Beginn ein
Peak auf. Werden die Videos hintereinander abgespielt so treten die Peaks zu
Beginn eines jeden Videos auf.

1 2 3 4

Abbildung 45: CPU-Auslastung beim laden der Codecs


Praktischer Teil 96

Die Dateigröße wirkt sich nur in geringem Maße auf den Rechenaufwand aus. Im
folgenden Test wird eine Video-Sequenz mit zwei unterschiedlichen Bitraten
codiert. Beide Videos haben eine Auflösung von 720 x 576 und befinden sich in
einem AVI-Container mit einem Cinepak-Codec. Die erste Sequenz wird mit einer
Bitrate von 20.000 kBit/s gewandelt, sie hat eine Dateigröße von 198 MB. Die zweite
wied mit 256 kBit/s gewandelt und hat eine Größe von 35 MB. Die CPU-Auslastung
ist bei der kleineren Datei um ca. 4% geringer.

Abbildung 46: CPU-Auslasung bei unterschiedlicher Dateigröße

Ob das Video in Progressive oder Interlaced codiert wird, hat keine merklichen
Auswirkungen auf die Performance. In folgendem Test wird das gleiche Video mit
MPEG 2 und den Einstellungen NTSC Progessiv (1), NTSC Interlaced Bottom Field
First (2), NTSC Interlaced Top Field First (3) codiert und die Ergebnisse nach-
einander abgespielt.

1 2 3

Abbildung 47: CPU-Auslastung bei Progressiv und Interlaced

Die Einstellungen über die Group of Pictures (GOP) haben ebenfalls keine
merklichen Auswirkungen auf die Performance. Beide Dateien sind mit den

Einstellungen MPEG 1, NTSC und Progessiv codiert. Die erste Datei hat eine GOP von
30, die zweite eine GOP von 6.
Praktischer Teil 97

1 2

Abbildung 48: CPU-Auslasung bei unterschiedlicher GPO

Für den UFGM-Player eignet sich besonders MPEG 1 oder 2, Indeo 4.5 und XviD als
AVI-Datei oder Xvid im Quicktime-Format. Diese Codecs haben einen guten
Komprimierfaktor, benötigen durchgehend wenig Rechenleistung und haben dabei
eine gute Bildqualität. Cinepak und Microsoft Video V 1 benötigen zwar weniger
Rechenleistung. Sie haben jedoch bei gleichem Komprimierfaktor eine erheblich
schlechtere Bildqualität.
Beispiel: Lichtinstallation „Kubik“ 98

8 Beispiel: Lichtinstallation „Kubik“


Kubik ist eine raumbildende Lichtinstallation aus 144 Transportcontainern für
Flüssigkeiten, die im Sommer 2006 in Zusammenarbeit mit den Firmen Balestra
Berlin (Veranstalter), Modulorbeat (Architektur) und LightLife (Beleuchtung)
realisiert wurde. Die Transportcontainer werden durch den Einbau von farbigen
Leuchtmitteln zu überdimensionalen Lichtkörpern. Durch Aneinanderreihen und
Übereinanderstapeln der Container wird ein Raum erstellt, in Berlin wurde er als
Open-Air-Club genutzt. Die Matrix besteht aus 39 x 4 Pixeln mit den Maßen von 1 x
1 x 1 Meter. Die Tanks werden über einen Laptop, die Programmer-Software und
einen Butler von e:cue angesteuert, dies erfolgt auf zweidimensionaler Ebene. Die
Matrix ist jedoch zu einem Raum geformt, somit können auch dreidimensionale
Bilder, wie horizontale oder vertikale Ebenen dargestellt werden. Passend zur
minimalistischen Installation wird elektronische Musik gespielt, auf die das Licht
reagiert.

Für die Steuerung wird eine Bedienoberfläche erstellt, so dass vorprogrammierte


Cues und Cue-Listen auch von Laien bedient werden können. Die Geschwindigkeit
der Cue-Listen kann manuell über einen Fader oder durch mehrmaliges Drücken
der Play-Taste an den Takt der Musik angepasst werden. Einige Cue-Listen werden
auch automatisch von der internen BPM-Erkennung oder durch bestimmte
Frequenzbänder gesteuert. An manchen Abenden werden die Cues über eine
externe Midi-Drum-Machine angesteuert, somit können intuitiv Rhythmen
eingeben werden.

Die Cue-Listen werden grob eingeteilt in atmosphärische Stimmungen,


taktbezogene Effekte und Effekt-Licht, so kann im Laufe des Abends und innerhalb
von Musikstücken eine Dramaturgie entwickelt werden. Zu Beginn eines Abends
funktioniert Kubik als Bar. Dazu werden ruhige Lichtstimmungen abgespielt, die
abstrakte Formen abbilden und sich durch den Raum bewegen. Diese Stimmungen
werden teilweise über Videos erzeugt. Speziell organische Bewegungen von
Objekten lassen sich einfacher mit Videos erstellen, als mit einer Lichtsteuerung.
Dort muss jeder einzelne Schritt der Bewegung programmiert werden. Ebenfalls
sehr gut wirken Lichtstimmungen, die speziell die Architektur betonen und
verändern. Das besondere an dieser Installation ist, dass der gesamte Raum nur aus
Lichtelementen besteht. Durch die Lichtstimmungen kann deshalb der räumliche
Eindruck stark verändert werden. Am späten Abend, wenn sich der Club mit
Besuchern füllt, wird der Focus auf die Musik gelegt. Zu Beginn von Musikstücken
Beispiel: Lichtinstallation „Kubik“ 99

oder während flächigen Abschnitten in der Musik werden atmosphärische


Stimmungen abgespielt, diese können gut mit der Effekt-Engine programmiert
werden. Daraufaufbauend werden Cue-Listen mit einfachen Formen abgespielt, die
auf die Musik reagieren. Am wirkungsvollsten sind horizontale Linien, vertikale
Linien oder Quadrate, die sich bewegen oder mit anderen Formen abwechseln.
Diese Formen werden auf Anhieb erkannt, dementsprechend werden die
Veränderungen auch am stärksten wahrgenommen. Bei Steigerungen in der Musik
kann die Geschwindigkeit erhöht oder zusätzliche Cue-Listen gestartet werden und
an Höhepunkten werden spezielle Effekte gestartet.

Aufgrund der großen Bildpunkte sind die Bewegungen bei den meisten
Geschwindigkeiten sehr ruckhaft, dies ist aber kein Problem, da nur abstrakte
Formen dargestellt werden und die überdimensionalen Bildpunkte ästhetisches
Stilmittel dieser Installation sind. Weiche Bewegungen lassen sich am besten durch
sehr langsame Geschwindigkeiten und Überblendungen realisieren. In der
Horizontalen sind die Bewegungen flüssiger, da das Licht der Container, in die
horizontal benachbarten Kuben hinein streut.

Abbildung 49: Kubik Berlin

Der Lichtraum wird aus verschiedenen Betrachtungsabständen unterschiedlich


wahrgenommen. Aus der Ferne wird er als dreidimensionales Objekt erkannt, vor
allem in Kombination mit Mustern, die sich über das gesamte Objekt erstrecken
oder mit horizontalen und vertikalen Ebenen durch den gesamten Raum. Des
Weiteren können bewegte Objekte oder vereinfachte Schriften gelesen werden. Im
Raum selbst wirken die Licht-Effekte sehr stark und der räumliche Eindruck
verändert sich durch die Lichtstimmungen.
Ausblick: 3-D-Matrix-Steuerung 100

9 Ausblick: 3-D-Matrix-Steuerung
Kubik ist eine dreidimensionale Installation, die Steuerung erfolgt jedoch auf
zweidimensionaler Ebene. Dies funktioniert sehr gut, da der Raum durch einfaches
Falten der Matrix-Fläche gebildet werden kann. Es sind jedoch auch Installationen
vorstellbar mit mehreren Ebenen hintereinander. Dies kann beispielsweise mit
durchsichtigen LED-Vorhängen realisiert werden. Eine Vorraussetzung für
dreidimensionale Installationen ist, dass alle Pixel gesehen werden können,
deshalb muss der Abstand zwischen den Leuchten groß genug oder die
Leuchtkörper durchsichtig sein.

Die Steuerung solcher dreidimensionalen Gebilde ist relativ kompliziert und


aufwändig. Zum einen, da die Anzahl der Leuchten schnell sehr groß wird, ein
Kubus mit 10 Pixeln Kantenlänge hat insgesamt 1000 Pixel, zum anderen, da es
noch keine Steuerung gibt, bei der die räumliche Ansicht zum Programmieren
verändert werden kann. Momentan wird mit Ebenen gearbeitet, man würde also
mehrere Sektionen erstellen und diese virtuell hintereinander anordnen. Wenn
beispielsweise eine Ebene ausgewählt werden soll, die sich in Richtung der Z-Achse
erstreckt, so müssten die Sektionen nacheinander angewählt und die
entsprechende Linien markiert werden. Bei horizontalen oder vertikalen Ebenen ist
dies noch überschaubar, bei diagonalen Ebenen oder dreidimensionalen Objekten
wird es jedoch sehr kompliziert. Vor allem wenn die Objekt noch bewegt werden
sollen.

Eine große Erleichterung ist es, wenn den Sektionen Ebenen zugeordnet werden, so
können die Pixel durch X-, Y-, und Z-Koordinaten beschrieben werden. Zum
Programmieren könnte man zwischen verschiedenen Ebenen umschalten. Es wird
beispielsweise eine Linie ausgewählt und durch Umschalten kann die Ebene
bearbeitet werden, die im rechten Winkel zu dieser Line und zur momentanen
Ebene steht. Für eine Ansicht zur Vorschau der Lichtstimmungen würde sich eine
isometrische Darstellung mit halbtransparenten Pixeln eignen. Um das
Programmieren zu erleichtern, eignen sich wieder Pixel-Pusher-Funktionen. So
können markierte Flächen oder Objekte jeweils um ein Pixel verschoben, um eine
Achse rotiert oder vergrößert werden.

Es ist auch vorstellbar, eine dreidimensionale Matrix mit Video zu bespielen.


Entweder können die Bilder auf allen Sektionen gleichzeitig abgebildet werden, so
ergibt sich bei einer runden Fläche im Video ein Zylinder, oder die Bilder werden
auf den Sektionen zeitlich verzögert abgespielt. Bewegt sich die Scheibe, so wird
der Zylinder beweglich und macht eine Schlangenbewegung. Wird die Scheibe im
Video ausgeblendet, so bewegt sich der Zylinder auf der Z-Achse nach hinten.
Ausblick: 3-D-Matrix-Steuerung 101

Nach dem gleichen Prinzip könnte die Matrix auch mit Effekten bespielt werden. So
das beispielsweise eine Sinusfunktion auf die einzelnen Sektionen verzögert
angewendet wird. So ergeben sich wellenförmige Bewegungen innerhalb des
gesamten Objekts.

Ein weiterer Schritt wäre eine Ansteuerung mittels 3-D-Objekten. Die Objekte
können in einem 3-D-Program erstellt, mit Farbe gefüllt oder mit Texturen belegt
und animiert werden. Diese Daten könnten an die Lichtsteuerung weiter gegeben
werden und die Leuchten steuern. So können jegliche Formen und Bilder relativ
einfach erstellt werden. Diese Form der Steuerung scheint mir allerdings etwas
überdimensioniert. Zum einen, da die Auflösungen bei den meisten Installationen
relativ begrenzt ist. Zum anderen geht dabei der Reiz der an speziellen
Steuertechniken und den daraus resultierenden Ergebnissen verloren. Eine Vielzahl
von Funktionen und Steuermöglichkeiten bedeuten nicht unbedingt bessere
Ergebnisse. Mit wenigen Funktionen, die gut beherrscht werden, können meist
bessere Ergebnisse erzielt werden. So kann der Fokus auf die wesentliche Aussage
und das Design gelegt.
Abkürzungsverzeichnis 102

Abkürzungsverzeichnis
ACN Advanced Control Network

BPM Beats Per Minute

CPU Central Processing Unit

DVI Digital Visual Interface

ESTA Entertainment Service and Technology Association

fps Frames Per Second

HTP Highest Take Precedence

IP Internet Protokoll

LTP Lowest Take Precedence

TCP Transmission Control Protocol

UDP User Datagram Protocol

USITT United States Institute for Theatre Technology


Tabellenverzeichnis 103

Tabellenverzeichnis
Tabelle 1: Aufbau des DMX-Signals .....................................................................10
Quelle: http://www.soudlight.de
Tabelle 2: Ethernet Varianten ...............................................................................14
Tabelle 3: Netzwerk- und Geräteteil der IP-Adresse..........................................17
Quelle: http://www.iana.org/
Tabelle 4: Private und spezielle IP-Adressen ......................................................18
Tabelle 5: Dateiformate .........................................................................................28
Tabelle 6: Videoauflösungen.................................................................................32
Tabelle 7: Video Codecs - Performance .............................................................92
Abbildungsverzeichnis 104

Abbildungsverzeichnis
Abbildung 1: Aufbau des DMX-Signals................................................................10
Abbildung 2: Daisy Chain, Merger, Splitter .........................................................11
Abbildung 3: Repeater Regel .................................................................................13
Abbildung 4: Treppeneffekt, Moiré-Effekt...........................................................30
Abbildung 5: Zuordnung Screen-ID – DMX-Adresse..........................................34
Abbildung 6: Matrix mit Lampen unterschiedliche Auflösung ........................35
Abbildung 7: Sinus angewendet auf eine Gruppe von 16, 8 und 14
Bildpunkten.............................................................................................................37
Abbildung 8: Macro-Programme Plasma-Efekt, Tetris und Equalizer .............45
Abbildung 9: Blockbildung, Abtastpunkte...........................................................50
Abbildung 10: Bilineare Interpolation..................................................................52
Abbildung 11: Nearest-Neigbour-, bilineare und bikubische
Interpolation ...........................................................................................................52
Abbildung 12: Mit und ohne Trennwänden zwischen den LEDs .....................57
Abbildung 13: Anordnungen von Matrix-Leuchten 2 x 2 und 3 x 3 .................59
Abbildung 14: Füllfaktor, Tiling ............................................................................59
Abbildung 15: Sehwinkel und Betrachtungsabstand A .....................................62
Abbildung 16: Gestaltgesetze................................................................................64
Abbildung 17: Kontrastumfang bei unterschiedlicher Umgebungshelligkeit 66
Abbildung 18: Schrifttyp PF Proton ......................................................................67
Abbildung 19: Windows XP Icon, 16 x 16, 32 x 32 und 64 x 64 Pixel ................67
Abbildung 20: Blinkenlights Movie „surprise“ ....................................................68
Quelle: http://www.blinkenlights.de/gallery/surprise.de.html
Abbildung 21: Piktogramm....................................................................................68
Abbildung 22: Diagonale bei geringer Auflösung ...............................................71
Photo: Robert Ostmann
Abbildung 23: Windows XP Icon Adressbuch 32 x 32........................................75
Abbildung 24: Original, erhöhter Kontrast, erhöhte Sättigung .......................77
Abbildung 25: Tonwertkorrektur..........................................................................78
Abbildung 27: The Simpsons, Southpark ............................................................79
Abbildung 28: Cartooner........................................................................................80
Abbildung 29: Pixel-Art, perfekte Pixel-Linien ...................................................81
Quelle: http://eboy.com
Abbildung 30: Plasma.............................................................................................82
Abbildung 31: Partikel............................................................................................82
Abbildung 32: Vordergrund, Mittelgrund, Hintergrund (South Park) ..............83
Abbildung 33: Lichteffekte ....................................................................................84
Abbildung 34: Kaleidoskop, Fraktale....................................................................84
Abbildungsverzeichnis 105

Abbildung 35: Versuch 2........................................................................................87


Abbildung 36: Versuch 3........................................................................................88
Abbildung 37: Versuch 4........................................................................................88
Abbildung 38: Versuch 5........................................................................................88
Abbildung 39: Versuch 6........................................................................................89
Abbildung 40: Versuch 7........................................................................................89
Abbildung 41: Versuch 8........................................................................................89
Abbildung 42: Gleiche Fade-In und Fade-Out-Zeiten ........................................90
Abbildung 43: Fade-Out-Zeit dreimal so lang wie Fade-In-Zeit .......................91
Abbildung 44: CPU-Auslasung bei unterschiedlichen Video Codecs...............95
Abbildung 45: CPU-Auslastung beim laden der Codecs ....................................95
Abbildung 46: CPU-Auslasung bei unterschiedlicher Dateigröße....................96
Abbildung 47: CPU-Auslastung bei Progressiv und Interlaced .........................96
Abbildung 48: CPU-Auslasung bei unterschiedlicher GPO................................97
Abbildung 49: Kubik Berlin....................................................................................99
Photo: Robert Ostmann
Anhang A 106

Anhang A
9.6 Beleuchtete Werbeanlagen und Wechsellichtanlagen

Unter beleuchteten Werbeanlagen sind Anlagen zu verstehen, die durch


Beleuchtungskörper außerhalb der eigentlichen Werbeanlage erhellt oder
angestrahlt werden, sowie auch Werbeanlagen, bei denen die Lichtquelle Teil der
Anlage selbst ist. Es kann sich dabei beispielsweise um Leuchtschriften,
Leuchtzeichen, beleuchtete Tafeln oder Werbekörper, Leuchtkästen, Leuchtfahnen
oder Himmelsstrahler handeln.

Wechsellichtanlagen sind nach § 13 Abs. 9 Satz 2 HBauO nur in hierfür reservierten


Gebieten zulässig. Die Gebiete sind in der Wechsellichtverordnung vom 28.04.1981
bestimmt (Reeperbahn, Steindamm, Spitalerstraße).

Unter Wechsellicht ist eine Veränderung der Lichtquelle durch Aufleuchten oder
Verlöschen oder durch Wechsel der Farbgebung oder der Lichtstärke zu verstehen,
die eine städtebaulich unerwünschte Unruhe bewirkt. Auch andere technische
Lösungen, die das typische Erscheinungsbild des Wechsellichtes erzeugen sind der
13
Wechsellichtwerbung zuzurechnen . In diesem Sinne sind auch Lauflichtanlagen,
Videowände oder Media Boards Wechsellichtwerbeanlagen.

Das Licht von beleuchteten Werbeanlagen oder Wechsellichtanlagen darf nach § 13


Abs. 9 Satz 1 HBauO nicht in Aufenthaltsräumen belästigend wirken. Keinesfalls
darf daher das Licht für die Werbung direkt in die Fenster von Wohn- oder
Arbeitsgebäuden einstrahlen. Aber auch der unmittelbare Lichteinfall gegenüber
der Leuchtreklame kann zu Belästigungen führen. An solchen Standorten kann
eine Werbeanlage daher nur ohne oder mit sehr geringer Beleuchtung(stärke)
genehmigt werden. [BPD00]
Anhang B 107

Anhang B
Anhang B 108
Anhang B 109

[TT06]
Literaturverzeichnis 110

Literaturverzeichnis
[AL04] Artistic Licence, Specification for the Art-Net II Ethernet Communication
Standard, Release V1.4, Document Revision AA 1/4/04,
abgerufen am 22.01.07

[BG96] Bundesministerium für Gesundheit, Verbesserung von visuellen


Informationen im öffentlichen Raum, Seite 22 – 32, FMS Fach Media Service
Verlagsgesellschaft mbH, ISBN 3-926181-28-1

[BPD00] Bauprüfdienst, Amt für Bauordnung und Hochbau der Hansestadt


Hamburg, Werbeanlagen, BACom-Nr.: 02.0002.60770.0600 - - .00 - .00, Seite 12-13,
06.2000

[DK03] Dr. Dirk Kerzel, Vorlesungsskript Wahrnehmung, Justus-Liebig-Universität


Gießen, Fachbereich 06, Abteilung Allgemeine Psychologie
http://www.allpsych.uni-giessen.de/dk/teach/Wahrnehmung/Wahr-06-
bewegung.pdf, abgerufen am 05.04.07

[EK07] Das Elektronik Kompendium, http://www.elektronik-kompendium.de/,


abgerufen am 04.04.07

[ESTA06/1] ESTA Homepage, http://www.esta.org/tsp/news/


newsdetails.php?newsID=199, abgerufen am 11.01.07

[ESTA06/2] ESTA Homepage: http://www.esta.org/tsp/news/index.php,


abgerufen am 20.01.07

[ETSP05] ESTA TSP E.1.17: ACN Architecture, ESTA TSP Document Ref. CP/2003-
1007R4. http://www.estafoundation.org/, abgerufen am 20.01.07, Seite 1-9

[FL04] Feiner Lichttechnik GmbH, Compulite Datenblatt, Sinusdimmersystem


Compusine, 07.04

[ITW07] ITWissen, http://www.itwissen.info/uebersicht/lexikon/ethernet.html,


abgerufen am 16.01.07

[PCO06] Pcopen, http://www.pcopen.de/netzwerke/netze/0_f.html, abgerufen am


05.01.07

[RA78] Rudolf Arnheim, Kunst und Sehen, Neufassung, 1978, de Gruyter & Co.,
ISBN 3-11-006682-3

[RG00/1] Roland Greule, Skript Vorlesung Lichttechnik und Beleuchtungstechnik,


Hochschule für Angewandte Wissenschaften Hamburg, Fachbereich
Medientechnik, WS 1999/2000, Kapitel 10b Lichtsteuerung, Abschnitt
Dimmersysteme
Literaturverzeichnis 111

[RG00/2] Roland Greule, Skript Vorlesung Lichttechnik und Beleuchtungstechnik,


Hochschule für Angewandte Wissenschaften Hamburg, Fachbereich
Medientechnik, WS 1999/2000, Kapitel 4 Sehleistung, Kontrast, Helligkeit

[RG00/3] Roland Greule, Skript Vorlesung Lichttechnik und Beleuchtungstechnik,


Hochschule für Angewandte Wissenschaften Hamburg, Fachbereich
Medientechnik, WS 1999/2000, Kapitel 2 Wahrnehmung

[RS91] Robert S. Simpson, Videowalls, Seite 55, Butterworth-Heinemann Ltd,


1991, ISBN 0-240-51294-4

[SLH99] Soundlight Homepage, http://www.soundlight.de/,


abgerufen am 10.01.07

[TT06] Traxon Technologies, 2006, Datenblatt Tile 64PXL Matrix, Version 1.5