Entdecken Sie eBooks
Kategorien
Entdecken Sie Hörbücher
Kategorien
Entdecken Sie Zeitschriften
Kategorien
Entdecken Sie Dokumente
Kategorien
Diplomarbeit
Inhaltsverzeichnis
1 Einleitung............................................................................................................. 6
5 Matrix-Leuchten.............................................................................................. 55
5.1 Eigenschaften der Leuchten......................................................................... 55
5.2 Oberflächenbeschaffenheit vor den Lampen ......................................... 56
5.3 Möglichkeiten der Anordnung .................................................................... 58
7 Praktischer Teil................................................................................................ 86
7.1 Flüssige Bewegungen bei geringer Auflösung........................................ 86
7.2 CPU-Auslastung bei verschiedenen Codecs............................................ 91
Inhaltsverzeichnis 5
Tabellenverzeichnis........................................................................................................ 103
Abbildungsverzeichnis.................................................................................................. 104
Literaturverzeichnis........................................................................................................ 110
Einleitung 6
1 Einleitung
Es ist zu beobachten, dass immer häufiger ansteuerbare Lichtwände mit einer
geringen Auflösung realisiert werden. Dies kann einerseits durch den technischen
Fortschritt und die sinkenden Preise von LED-Technik begründet werden,
andererseits wird ständig nach neuen Mitteln gesucht, um die Aufmerksamkeit der
Betrachter auf sich zu ziehen. Überdimensionale bewegte Bilder in einem neuen
Erscheinungsbild sind dazu sehr gut geeignet.
Diese Arbeit befasst sich speziell mit Lichtwänden, die eine geringe Auflösung
haben. Die Installationen bestehen aus vielen Lampen, die einzelnen gesteuert
werden können und zusammen ein Gesamtbild ergeben. Jede Lampe entspricht
einem Bildpunkt. Geringe Auflösung bedeutet in diesem Fall, dass die einzelnen
Lampen (Bildpunkte) immer deutlich sichtbar sind. Mit diesen Installationen
können Bilder stark vergrößert dargestellt werden. Zur Steuerung der Lichtwände
werden häufig Videosignale verwendet. Die Installationen sind allerdings nicht als
überdimensionierte Videoscreens zu verstehen, sondern vielmehr als neue Form,
um vereinfachte Bildern darzustellen. Das Videosignal wird dabei lediglich als eine
Möglichkeit zur Steuerung der Lichtwände verstanden.
Bilder mit geringer Auflösung sind eine anhaltende Modeerscheinung, was sich
aktuell sehr gut in TV- und Printmedien beobachten lässt. Viele Grafiker und
Gestalter greifen auf das Stilmittel von Pixel-Darstellungen zurück. Der Trend zum
Retro-Look alter Computer Grafiken hängt sicher auch mit der wieder aktuell
gewordenen Mode der 80er Jahre zusammen. Hinzu kommt, dass sich dieses
Stilmittel sehr gut dazu eignet, reduzierte Grafiken darzustellen.
Einleitung 7
Um Lampen in einer Matrix anzusteuern, bedarf es neuer Techniken. Ein Ziel dieser
Arbeit ist es, die gängigen Steuermöglichkeiten genauer zu betrachten und die
Funktionsweisen zu erläutern, um daraus neue Steuertechniken zu entwickeln. Auf
den folgenden Seiten werden nur Systeme behandelt, die auf Steuersignale der
Lichttechnik zurückgreifen. Dazu werden zuerst die Grundlagen der Licht-
steuerung, Netzwerktechnik und Videotechnik zusammengefasst. Anschließend
werden unterschiedliche Steuerungen, die dazugehörigen Komponenten und deren
Zusammenspiel erläutert. Im darauf folgenden Abschnitt wird auf Matrixleuchten
und deren mögliche Anordnungen eingegangen.
Der Bedarf an Steuerkanälen nimmt stetig zu, da Geräte immer mehr Funktionen
haben und Matrix-Systeme aufgrund der Weiterentwicklung in der LED-Technik
immer größer werden. Um diese große Anzahl an Kanälen zu bewältigen, bedient
man sich heute der Netzwerktechnik. Mit unterschiedlichen Protokollen (siehe 2.4)
werden über Ethernet (siehe 2.3) eine Vielzahl von DMX-Universen übertragen. Die
Grundlagen der Lichtsteuerung und Netzwerktechnik 9
Im folgenden Teil wird auf die Lichtsteuerprotokolle DMX512, RDM sowie auf
Ethernet und die darauf aufbauenden Protokolle genauer eingegangen.
2.1 DMX
2.1.1 DMX-Normen
Das Lichtsteuerprotokoll DMX wurde erstmals 1988 in der „Lighting and Sound
International“ publiziert. 1990 wurde es dann durch die USITT unter dem Namen
DMX512/1990 standardisiert. Im Jahr 2000 folgte die deutsche Norm DIN 56930-2
und 2004 USITT DMX512-A. Das Übertragungsprotokoll nach DIN basiert auf der
amerikanischen Fassung, definiert aber zusätzlich einen Ein- und Ausgangsschutz.
Wenn Schaltungen gegen 30V AC und 42V DC spannungsfest sind, dann dürfen
solche Geräte als „protected“ bezeichnet werden. DMX512-A ist durch Schutz-
schaltungen und Timing-Korrekturen etwas stabiler als der Vorgänger, bringt
jedoch keine spürbaren Neuerungen und ist kompatibel mit den vorherigen
Versionen. [SLH99]
Bei DMX512 können pro Verbindung 512 Kanäle mit einer Auflösung von 8 Bit (256
Werte) übertragen werden. Die Übertragung geschieht asynchron mit einer
Übertragungsrate von 250kbit/s. Asynchron bedeutet, dass die Datenübertragung
ohne gemeinsames Taktsignal arbeitet. Die Datenbytes werden nacheinander
übertragen, beginnend mit Kanal 1 aufsteigend bis Kanal 512. Die einzelnen Bytes
werden jeweils durch ein Start- und zwei Stoppbits gekennzeichnet. Die
Übertragung beginnt mit einem Reset-Signal mit einer Länge von mindestens 88µs.
Dieser Reset beendet eine laufende oder noch nicht abgeschlossene Übertragung.
Auf den Reset folgt ein Mark von mindestens 8µs und das Startbyte mit 44µs, der
Grundlagen der Lichtsteuerung und Netzwerktechnik 10
Aus der Datenübertragungsrate 250kBit/s ergibt sich eine Bitzeit von 4µs. Ein
Datenwort besteht aus 8 Bit, einem Startbit sowie zwei Stoppbits, das macht
zusammen 44µs. Die Gesamtübertragungsdauer für 512 Kanäle ergibt sich dann zu
22668 µs (88 + 8 + 512 x 44), was eine Wiederholungsrate von 44,1 Hz ergibt. Um die
Wiederholrate zu erhöhen, macht es in manchen Fällen Sinn weniger als 512
Kanäle über ein DMX-Universum zu senden. In diesem Fall wird das Reset-Signal
schon nach dem letzten belegten Datenbyte gesendet. In der Lichttechnik wird eine
DMX-Leitung, über die maximal 512 Kanäle gesteuert werden können, als
Universum bezeichnet. [SLH99]
Grundlagen der Lichtsteuerung und Netzwerktechnik 11
2.1.3 Topologie
Das Signal wird über ein paarig verdrilltes und geschirmtes Kupferkabel gesendet.
Die Steckverbindung wird über einen 5-poligen AXR-Steckverbinder (XLR) realisiert.
Die zwei freien Pins sind für einen optionalen Rückkanal vorgesehen. Bei Fest-
installationen müssen nach DIN56930-2 auch geschirmte CAT-5 Kabel verwendet
werden. Für die Belegung der Pins bei RJ-45-Stecker liegt derzeit ein Entwurf vor.
Die Leitungslänge beträgt laut DIN 1200 Metern, in der Praxis werden allerdings nur
Leitungen bis 300 Metern verwendet. Bei längeren Strecken muss das Steuersignal
mit Hilfe eines Boosters verstärkt werden. An jeden Sender können bis zu 32
Empfänger angeschlossen werden. Die Geräte werden in einer so genannten Daisy
Chain seriell miteinander verbunden und sollten mit einem Abschlusswiderstand
beendet werden um Reflexionen des Signals zu vermeiden. Der Abschluss-
wiederstand sollte der Impedanz des verwendeten Kabels entsprechen, dies sind in
der Regel 110 – 120 Ohm. Wenn mehr Geräte gesteuert werden sollen, kann mit
einem Splitter das Signal auf verschiede Leitungen aufgeteilt werden. Sollen
dieselben Geräte von mehreren Steuereinheiten bedient werden können, müssen
die Steuersignale mit Hilfe eines Mergers zusammengefasst werden. Dies kann im
HTP- oder im LTP-Modus. [SLH99]
RDM nutzt die zwei freien Adern der DMX-Leitung und ermöglicht somit die
bidirektionale Kommunikation. Über eine DMX-Leitung können RDM-, sowie DMX-
Geräte angesprochen werden, ohne das dabei die Geschwindigkeit beeinflusst wird.
Grundlagen der Lichtsteuerung und Netzwerktechnik 12
Das Ethernet-Protokoll ist weltweiter Standard, was den Transport von Daten-
signalen angeht, deshalb ist die erforderliche Hardware relativ preiswert. Ein
weiterer Vorteil sind die vielen bestehenden Ethernet-Netzwerke im Bereich der
Architektur, die mit verwendet werden können, ohne neue Leitungen verlegen zu
müssen. Es können beispielsweise WLAN-Strecken benutzt werden und an jedem
beliebigen Punkt im Netzwerk können mittels eines Hubs weitere Geräte
angeschlossen werden. So kann ein Lichtpult ohne großen Aufwand an einer
anderen Stelle angeschlossen werden, bei DMX ist dies nicht ohne weiteres
möglich.
Ethernet wird DMX jedoch nicht vollständig verdrängen, die neuen Möglichkeiten
bringen für den Anwender auch gewisse Schwierigkeiten mit sich. Die
Funktionsweise von Ethernet ist komplexer und dadurch ergeben sich auch mehr
Fehlerquellen. Bei Ethernet können die Leitungen nicht von Gerät zu Gerät
durchgeschliffen werden, die Verkabelung erfolgt sternförmig, was folglich einen
höheren Arbeits- und Verkabelungsaufwand mit sich bringt. Es gibt nur wenig
bühnentaugliche Kabel und Stecker, da diese einen komplexeren Aufbau haben
und somit anfälliger für Störungen sind.
2.3.1 Topologie
In der Veranstaltungstechnik wird Ethernet meist als Local Area Network (LAN)
betrieben. Mehrere Rechner sind über kleine Entfernungen sternförmig mit-
einander verbunden. Die Verbindung erfolgt über Knotenpunkte. Diese
Knotenpunkte können Hubs oder Switches sein. Hubs leiten alle gesendeten Daten
an alle Rechner im Netzwerk weiter, die Signale werden dabei nicht verzögert.
Allerdings kann es zu einem unnötig hohen Datenaufkommen im Netzwerk
kommen, da die weitergeleiteten Daten nicht unbedingt für alle Empfänger
bestimmt sind. Ein Switch hingegen leitet die Daten gezielt weiter. Wenn größere
Entfernungen überbrückt werden müssen, können Repeater eingesetzt werden, sie
bereiten Signale wieder auf und leiten sie weiter. Meist werden Hubs als Repeater
eingesetzt. Allerdings dürfen diese nicht beliebig kaskadiert werden da, innerhalb
eines Netzwerks Datenpakete eine bestimmte Übertragungszeit nicht überschreiten
dürfen. Um dem entgegen zu wirken, sollte die so genannte Repeater- oder auch
5-4-3-Regel eingehalten werden. Diese besagt, dass in einem 10BaseT-Netzwerk
(siehe 2.3.2) maximal fünf Kabelsegmente miteinander verbunden werden dürfen.
Zu dieser Verbindung werden vier Repeater benötigt und nur drei der Segmente
dürfen Rechnern angeschlossen haben. Bei 100BaseT-Netzwerken (siehe 2.3.2)
dürfen nur zwei Repeater kaskadiert werden. [PCO06]
Für die Übertragung bei Ethernet werden hauptsächlich Twisted-Pair- („T“) und
Glasfaserkabel („F“, „FX“, „LX“) eingesetzt. Mit Glasfaserkabel können große
Entfernungen überbrückt werden. Es wird unterschieden zwischen Multi- und
Singlemode-Kabeln. Mit Multimode-Kabeln können Distanzen von 300 bis 500 m,
mit Singlemode-Kabeln bis zu 10 km zurückgelegt werden. [ITW07]
Damit die Kabel besser klassifiziert werden können wurden Kategorien definiert, es
wird unterschieden zwischen Cat-1 bis Cat-7. Die Kategorien 1 bis 4 sind heute
nicht mehr relevant. Sie sind nur noch in alten Installationen anzutreffen. Cat-5 ist
die heute überwiegend anzutreffende Kabel-Art. Sie ist für Betriebsfrequenzen bis
100MHz bestimmt und wird in Fast- und Gigabit-Netzwerken eingesetzt. Cat-5e ist
eine genauere Spezifizierung von Cat-5 mit einem verbesserten Signal-Rausch-
Abstand. Als Anschlusskontakte sind RJ45-Stecker mit einer vorgeschriebenen
Grundlagen der Lichtsteuerung und Netzwerktechnik 15
Belegung spezifiziert. Cat-6 Kabel sind für Betriebsfrequenzen bis 250 MHz
ausgelegt. Auch hier werden RJ45-Stecker benutzt, allerdings haben sie eine andere
Pinbelegung als Cat-5. Cat-7-Kabel sind für Betriebsfrequenzen bis zu 600 MHz
ausgelegt, dazu sind alle Adernpaare einzeln geschirmt. [EK07]
Im 10Base-T Ethernet werden für die Signalübertragung nur zwei der Adernpaare
verwendet, die anderen beiden stehen für Sonderanwendungen ,wie zum Beispiel
Power over Ethernet (PoE) zur Verfügung. Mit PoE können Geräte über das Cat-
Kabel mit Strom versorgt werden.
Die Daten werden bei Ethernet in Form von Paketen versendet, diese Pakete
werden Frames genannt. In ein Frame werden neben den Nutzdaten auch die
Quelladresse, die Zieladresse sowie Steuerinformationen verpackt. Als Adressen
werden die MAC-Adressen (Media Access Control) verwendet. Die MAC-Adresse ist
die Hardware-Adresse eines Geräts, durch die es eindeutig identifiziert werden
kann. Die maximale Länge eines Frames beträgt 1526 Byte, davon können 1500 Byte
Nutzdaten enthalten. Die minimale Länge beträgt 72 Byte mit 46 Byte Nutzdaten.
[EK07]
Ein IP-Datagramm besteht aus zwei Teilen, den Kopfdaten (Header) und den
Nutzdaten. Im Header eines Datagramms sind Informationen über Quelle, Ziel,
Protokollversion, den gewünschten Dienst und die Gesamtlänge der Daten
enthalten. Des Weiteren beinhaltet der Header Angaben über die Lebensdauer
eines Datagramms. Lebensdauer meint hier, wie viele Teilstrecken ein Packet
zurücklegen darf bevor es verworfen wird.
Dezimal Binär
IP-Adresse 168.055.122.195 10101000 00110111 01111010 11000101
Subnetzmaske 255.255.255.224 11111111 11111111 11111111 11100000
Netzwerkteil 130.055.122.192 10101000 00110111 01111010 110
Geräteteil 0. 0. 0. 5 00101
Für die Vergabe von IP-Adressen ist die Internet Assigned Numbers Authority
(IANA) zuständig. Bis 1993 wurden die IP-Adressen von der IANA in Netzklassen
eingeteilt, da dieses System sich aber als zu statisch erwies, hat man das Classless
Inter-Domain Routing-Verfahren (CIDR) eingeführt. Der IP-Adressraum wird in
offizielle, private und spezielle Adressen eingeteilt. Offizielle Adressen wurden an
große Unternehmen oder Universitäten vergeben. Die privaten Adressbereiche
können von jedem genutzt werden. Damit Rechner mit privaten IP-Adressen auf
das Internet zugreifen können, wird ein Router oder Gateway-Rechner als Koppel-
element benötigt. Er setzt die privaten IP-Adressen in offiziell zugeteilte Adressen
um.
Spezielle Adressen sind zum Beispiel für Localnet, Broad- oder Multicast-
Anwendungen reserviert. Über Localnet kann das eigene System intern über IP
angesprochen werden. Diese Funktion dient zu Prüf- und Diagnosezwecken, um
grundlegende Funktionen zu testen. Über Broadcast-Adressen werden alle Teil-
nehmer im Netzwerk und über Multicast-Adressen mehrere Teilnehmer
angesprochen. Wird Multicast verwendet, so kann unnötiger Datenverkehr
vermieden werden, da die Daten nicht für jeden Teilnehmer einzeln verschickt
werden müssen.
Grundlagen der Lichtsteuerung und Netzwerktechnik 18
Funktion Adressbereich
Privates Netzwerk 10.0.0.0 - 10.255.255.255
Privates Netzwerk 172.16.0.0 - 172.31.255.255
Privates Netzwerk 192.168.0.0 - 192.168.255.255
Localnet 127.0.0.1 - 127.255.255.255
Multicast 224.0.0.0 - 239.255.255.255
Broadcast 255.255.255.255
Damit ein TCP-Segment mit einem Ethernetframe übertragen werden kann, darf es
nicht mehr als 1500 Bytes enthalten. Die Header von TCP und IP sind jeweils 20
Bytes groß, das bedeutet ein TCP-Segment darf nicht mehr als 1460 Bytes an
Nutzdaten enthalten.
TCP ist ein sicheres und zuverlässiges Protokoll. Allerdings eignet es sich nicht für
die Übertragung von audiovisuellen Daten in Echtzeitanwendungen oder für
Steuersignale in der Veranstaltungstechnik, da es zu langsam ist. Gehen
beispielsweise bei der Übertragung Datenpakete verloren, dann ist TCP darauf
ausgelegt die Pakete erneut zu senden. Dies nimmt zu viel Zeit in Anspruch. Bei
audiovisuellen Daten macht das wenig Sinn, da ein zu spät eintreffendes Paket für
die Darstellung nicht mehr relevant ist.
2.3.6 User-Datagram-Protocol
Für Anwendungen bei denen es auf eine schnelle Übertragung ankommt eignet
sich das Transport Protokoll User Datagram Protocol (UDP). UDP ist ein minimales,
verbindungsloses und verhältnismäßig unsicheres Protokoll. Es stellt keine feste
Verbindung her wie TCP, sondern sendet die Daten ohne weitere Sicherungs-
maßnahmen an den Empfängerport. UDP sorgt weder dafür das ein Datagramm
den Empfänger in jedem Fall erreicht, noch gewährleistet es, dass die gesendeten
Daten beim Empfänger in richtiger Reihenfolge ankommen.
UDP-Datagramme werden genauso wie TCP mit Hilfe von IP-Paketen über Ethernet
versendet. Damit IP die Datagramme nicht nochmals fragmentieren muss, sollten
sie nicht größer als 1500 Byte sein. Der Header hat eine Größe von acht Byte
deshalb bleiben für die Daten noch 1492 Byte übrig.
Grundlagen der Lichtsteuerung und Netzwerktechnik 20
In den folgenden Abschnitten werden die Protokolle Art-Net, e*net und ACN
ausführlicher besprochen.
2.4.1 Art-net
In der Lichttechnik ist Art-Net zur Zeit das am weitesten verbreitete
Netzwerkprotokoll. Es wurde von der Firma Artistic Licence als Übergangslösung
bis zur Standardisierung von ACN entwickelt. Das Protokoll ist frei verfügbar und
kann von jedem Hersteller kostenlos implementiert werden. Mittlerweile benutzen
über 50 Hersteller dieses Protokoll. Vorrangig wird es auf PC-Systemen angewandt,
es besteht aber auch die Möglichkeit Art-Net über Mac OS X laufen zulassen.
Die DMX-Daten können bei Art-Net im HTP- oder LTP-Modus übertragen werden.
Es unterstützt den RDM-Standard, Geräte können dadurch mit neuer Firmware
bespielt werden und es besteht die Möglichkeit, Videosignale zu übertragen; so
kann zum Beispiel, das Bildschirmsignal des Lichtstellpults an einem beliebigen
Punkt im Netzwerks abzugreifen. In der letzten Veröffentlichung wurde Art-Net
noch eine Medienerweiterung hinzugefügt, welche die Kommunikation von
Lichtpulten mit Medienservern ermöglicht. Theoretisch kann ein Art-Net-Netzwerk
mit 256 DMX-Universen betrieben werden. Diese sind in 16 Subnetzen mit jeweils
16 Universen aufgeteilt. Durch die Einstellungen an den Empfangsgeräten wird
festgelegt auf welches Universum und Subnetz sie reagieren sollen. Das kann durch
Schalter am Gerät oder ferngesteuert über Art-Net geschehen.
Grundlagen der Lichtsteuerung und Netzwerktechnik 21
Wie bei allen Ethernetanwendungen hat jeder Teilnehmer in einem Netzwerk eine
eigene IP-Adresse, der Netzwerkteil der Adresse ist bei Art-Net festgelegt. Es gibt
zwei mögliche Netzwerkadressen 2. x. x. x und 10. x. x. x, und in der Regel ist bei
Art-Net-Geräten die erste Adresse bereits eingestellt. Soll ein zweites Netzwerk im
selben physikalischen Netz betrieben werden, kann die Adresse auf 10. x. x. x
geändert werden. Beide IP-Adressen können nicht über das Internet geroutet
werden. Die Subnetzmaske ist festgelegt auf 255. 0. 0. 0. somit stehen die restlichen
drei Byte für Geräte-Adressen zu Verfügung. Diese können automatisch aus der
Mac-Adresse generiert oder direkt am Gerät eingestellt werden.
Geräte, die vorrangig Daten empfangen, wie z. B Dimmer oder Ethernet DMX-
Gateways werden als Nodes bezeichnet, solche die vorrangig Steuerdaten senden,
wie beispielsweise ein Lichtstellpult heißen Server. Wird ein Netzwerk
eingeschaltet, kennt der Server noch nicht die IP-Adressen der Nodes. Um diese
herauszufinden, sendet der Server im Broadcast-Modus einen so genannten ArtPoll
ins Netzwerk. Broadcast-Pakete richten sich immer an alle Netzwerkteilnehmer.
Geräte, die sich im Netz befinden, antworten auf diese Anfrage mit einem
ArtPollReply und teilen dem Server Ihre IP-Adresse mit. Im nächsten Schritt teilen
die Nodes dem Server ihr Subnetz und das Universum mit. Nachdem dies
geschehen ist, werden vom Server über UDP ArtDMX Pakete im Broadcast-Modus
an alle Nodes verschickt.
Der große Nachteil von Art-Net ist, dass die ArtDMX-Pakete im Broadcast
übertragen werden. Die DMX-Pakete werden an alle Teilnehmer im Netzwerk
gesendet, sie können nicht gezielt geroutet werden. So kommt es schnell zu einer
Grundlagen der Lichtsteuerung und Netzwerktechnik 22
Auslastung des Netzwerks und es können bei weitem keine 256 Universen
übertragen werden. Jeder Node muss alle Pakete bearbeiten um zu erkennen, ob es
für ihn bestimmt ist. Für heutige Rechner ist das kein Problem, aber kleine
Microserver können bei viel Datenverkehr schnell überlastet sein. In einem 10
Mbit/s-Netzwerk können bis zu circa 20 Universen und in einem 100 Mbit/s-
Netzwerk bis zu 60 Universen angesteuert werden. Ein weiterer Nachteil ist die
festgelegte IP-Adresse, Art-Net kann deshalb nicht in ein beliebiges Netzwerk
integriert werden.
2.4.2 e*net
Die Firma e:cue hat eine Reihe von Protokollen entwickelt, um e:cue-Produkte
anzusprechen, die Gesamtheit der Protokolle heißt e*net. Es handelt sich um
verbindungslose Protokolle, die auf UDP basieren. Die Protokolle sind nicht
öffentlich, es besteht jedoch die Möglichkeit, Steuerbefehle in Form von
UDP Paketen an e*net zu senden. Die Protokolle sind in der Programmiersprache
C++ geschrieben. Wie ein Paket auszusehen hat, um e*net anzusprechen, ist
dokumentiert.
e*net ist speziell für große Netze ausgelegt. Broadcast-Pakete werden von e*net
soweit wie möglich vermieden, damit die Netzwerkteilnehmer nicht unnötig unter
Last gestellt werden. Sie werden von den Geräte nur gesendet, um gelegentliche
ihre Anwesenheit mitzuteilen. Datenpakete werden optimiert verpackt, damit die
volle Ethernet-Bandbreite zur Übertragung ausgenutzt werden kann.
Die IP-Adressen können in e*net frei gewählt werden. Sie entsprechen voll dem
TCP/IP-Standard, somit kann e*net in bestehende Netzwerke integriert werden. Ein
Teil der Datenübertragung geschieht dabei verschlüsselt.
Alle Geräte im e*net können von sich aus ihre Anwesenheit und ihren Status
anzeigen. Dies erlaubt das vollautomatisierte Suchen, Authentifizieren und
Einbinden von Geräten (Plug-and-Play).
Grundlagen der Lichtsteuerung und Netzwerktechnik 23
e*net kann weit mehr als nur DMX-Daten versenden, es werden auch diverse
weitere Kommunikationsarten über das Protokoll abgewickelt. So können
beispielsweise Ereignisse ausgetauscht werden, dies können beispielsweise
Schlüsselnachrichten oder Veränderungen an einem Sensor sein. Des Weiteren
können Textnachrichten und Timing-Informationen übertragen werden. So ist es
möglich, dass verschiedene Geräte mittels Timecode synchronisiert werden.
Zusätzlich besteht die Möglichkeit, Remote-Procedure-Calls zu senden, diese
können auf einem Rechner Skripte starten oder Funktionen aufrufen. Über Remote-
Media-Play-Commands können Transportbefehle an e:player und Pixelmapper
gesendet werden.
2.4.3 ACN
ACN ist eine Rahmenarchitektur, die unterschiedliche Protokolle aus dem Bereich
der Veranstaltungstechnik organisiert. Ziel ist es, viele verschiedene in der
Veranstaltungstechnik verwendete Daten, von unterschiedlichen Herstellern, im
gleichen Netzwerk mit einem übergeordneten Rahmenprotokoll zu übertragen.
ACN geht weit über die Grenzen von DMX und der Übertragung vieler DMX-
Universen hinaus. Es funktioniert bidirektional und ermöglicht flexible
netzwerkbasierte Systeme, mit denen auch Audio- und Videodaten, sowie Signale
zur Bühnensteuerung übertragen werden können. Das System kann in Netzwerke
implementiert werden, die auf Ethernet, IP und UDP aufbauen, ist jedoch nicht an
das Transportmedium Ethernet gebunden. Momentan ist Ethernet allerdings die
beste Wahl.
In einem typischen ACN-System werden zur Steuerung die Befehle über Ethernet
gesendet. Die Befehle werden in Form des Device-Management-Protocols (DMP)
zusammen mit SDT- Nachrichten (Session-Data-Transport) im Multicast-Modus
übertragen. SDT ist für eine betriebssichere Multicast-Übertragung, und für das
Sitzungsmanagement zuständig. Wird beispielsweise über Multicast eine große
Zahl von Geräten angesprochen und alle Geräte antworten gleichzeitig dann
kommt es zu Kollisionen, dies wird mittels SDT vermieden. Die DMP und SDT
Nachrichten werden in individuelle PDUs (Protocol-Data-Unit) verpackt, die
anschließend mittels UDP über Ethernet versendet werden.
Wird ein neues Gerät an das Netzwerk angeschlossen, dann wird es über das
Service Location Protocol (SLP) initialisiert und die spezifischen Funktionalitäten
werden analysiert. Anschließend wird das Gerät mittels der Device-Description-
Language (DDL) konfiguriert. DDL ist eine Tabelle, in der die spezifischen
Funktionen der Geräte den Steuerwerten zugeordnet sind. So können Steuergeräte
auch bisher unbekannte Geräte mit all ihren Funktionen steuern. [ETSP05]
Grundlagen der Videotechnik 25
3.1 Videosignal
Das hochwertigste analoge Videosignal ist RGBHV (Rot, Grün, Blau, Horizontal,
Vertikal). Jedes Farb- und Synchronsignal hat seinen eigenen Übertragungskanal, es
werden fünf Leitungen benötigt. RGBHV hat eine sehr hohe Bandbreite und wird
deshalb nur für kurze Übertragungsstrecken verwendet.
CR = 0,713 (R - Y)
CB = 0,564 (B – Y)
Beim Y/C-Signal (S-Video) wird das Bild nur über zwei Leitungen übertragen. Dazu
werden die Farbdifferenzkomponenten CR und CB weiter pegel- und bandbreiten-
reduziert so ergeben sich die Komponenten U und V, welche zu einem
Chrominanzsignal C zusammengefasst werden. Die drei wichtigsten Varianten, die
Farb-signale zusammenzufassen sind in den Farbfernsehnormen SECAM, NTSC
und PAL definiert.
V = 0,877 (R - Y)
U = 0,493 (B – Y)
Das FBAS (Farb-, Bild-, Austast-, Synchonsignal) oder auch Composite Signal kann
über eine Leitung übertragen werden. Dazu werden die beiden Komponenten
Luminanz und Chrominanz zusammengefasst, in dem die beiden Spektren
ineinander verkämmt werden. [US00/1]
Das digitale Composite Signal wird aus dem analogen FBAS-Signal gewonnen, es
wird mit 8Bit quantisiert. Von den möglichen 256 Quantisierungsstufen fallen 64
auf das Synchron Signal, der Bildamplitude bleiben noch 192 Werte und für das
Luminanz Signal verringert sich der Wertebereich sogar auf 148.
Grundlagen der Videotechnik 27
Das digitale Komponentensignal hat bei einer 4:2:2 Abtastung und einer
Quantisierung von 10 Bit eine Datenrate von 270 Mbit/s ((13,5 + 2 x 6,75) x 10). Ein
Video mit einer Länge von 10 Minuten hat somit eine Größe von 20,25 GByte. Um
diese enormen Datenmengen ökonomisch speichern und übertragen zu können,
müssen die Daten reduziert werden. Bei der Reduktion von Videodaten wird
zwischen Redundanz-, Irrelevanz- und Relevanzreduktion unterschieden. Bei der
Redundanzreduktion werden mehrfach vorliegende Informationen entfernt. Sind
beispielsweise in einem Bild Flächen einheitlich gefärbt, so muss dieser Farbwert
nicht für jeden einzelnen Bildpunkt übertragen werden. Es entstehen keine
Verluste, das Bild lässt sich wieder vollständig reproduzieren. Verfahren der
Redundanzreduktion sind die Variable-Längen-Codierung (VLC) und die
Lauflängen-Codierung (RLC). So können Reduktionsraten von 1:2 erzielt werden. Bei
der Irrelevanzreduktion werden Daten beseitigt, die nicht oder kaum
wahrnehmbare Fehler erzeugen, so dass ein Bild um den Faktor 10 reduziert
werden kann. Die Unterabtastung der Chrominanzanteile ist ein Beispiel dafür. Ist
der Kompressionsfaktor größer als 10, spricht man von einer Relevanzreduktion.
Die Fehler werden zwar immer deutlicher sichtbar, aus ökonomischen Gründen
wird dies aber toleriert.
3.2 Dateiformate
Die kodierten Daten werden meist in so genannte Container verpackt. Die
Container entsprechen einem festen Rahmen, der mit variablen Inhalten gefüllt
werden kann. Im Header der Container steht unter anderem welche Daten
enthalten sind und mit welchem Codec sie arbeiten. In Containern können
mehrere Datenströme enthalten sein, die synchronisiert werden können, meist
sind dies Video- und Audiospuren. Es gibt eine Vielzahl von unterschiedlichen
Grundlagen der Videotechnik 28
QuickTime (QT) ist mehr als nur ein Container-Format. Es ist eine Multimedia-
Architektur, die aus Programmierschnittstellen und verschiedenen Dateiformaten
besteht. In den Container-Dateien können eine Vielzahl unterschiedlicher
Medientypen wie beispielsweise Audio-, Video-, Grafik-, MIDI- oder Flash-Daten
gespeichert werden. Die Daten werden sequenziell oder hierarchisch in so
genannten Atomen gespeichert. Zusätzlich werden Informationen über die
Chronologie oder die Spurdaten gespeichert. QT eignet sich für Streaming-
Anwendungen. Hierbei werden die Atome über einen Synchron-Layer
synchronisiert. Des Weiteren besteht die Möglichkeit, Referenzdaten zu erstellen,
so dass beim Abspielen auf externe Referenzquellen zugegriffen werden kann.
Bei AVI (Audio Video Interleaved) werden Audio- und Videodaten ineinander
verschachtelt, so dass sie synchron abgespielt werden können. Ohne die
Verschachtelung lassen sich Audio und Video schlecht synchronisieren. Am Ende
der Datei ist ein Index der Bilder mit den dazugehörigen Zeitinformationen
gespeichert, dieser wird für die synchrone Wiedergabe benötigt wenn in einem
Video gesprungen wird. Da die Zeitinformationen am Schluss der Datei gespeichert
sind, eignet sich AVI schlecht als Streaming-Format. AVI-Dateien dürfen nur bis zu
2 GByte groß sein und es lassen sich auch keine Referenz-Dateien wie bei QT
erstellen. Dennoch ist AVI ein sehr weit verbreitetes Format.
Tabelle 5: Dateiformate
Damit die Codecs von einem Programm gelesen werden können, müssen die
jeweiligen Codecs auf dem Computer installiert werden. Unter Windows werden
sie durch den DirectShow-Filter zentral verwaltet, so dass mehrere Programme
auch gleichzeitig auf sie zugreifen können. Ausnahmen sind der VLC- und
QuickTime-Player, sie haben die Codecs im Programm integriert. Unter Linux
haben die Player ebenfalls ihre eigenen Codecpacks.
Durch Antialiasing können Kanten geglättet werden. Das kann bei der Abtastung
oder bei der Rekonstruktion des Bildes geschehen. Bei der Aufnahme kann dies
erreicht werden, indem anfangs mit einer sehr hohen Frequenz abgetastet,
anschließend mit einem Tiefpass gefiltert und zuletzt mit der gewollten
Ausgabefrequenz untertaktet wird. Bei der Rekonstruktion von Signalen wird
dieses Verfahren in umgekehrter Reihenfolge angewandt. Das Signal mit der
geringeren Abtastfolge wird übertaktet und anschließend mittels eines Tiefpass
weichgezeichnet.
Moiré-Effekte (frz. moirer, marmorieren) machen sich bei der Überlagerung von
Rastern durch die Entstehung neuer Strukturen bemerkbar. Um diese Effekte
gänzlich auszuschließen, muss die Auflösung eines Bildes mindestens doppelt so
groß sein wie die kleinste in der Abbildung vorkommende Struktur. Durch
Tiefpass-Filterung vor der Abtastung können feine Strukturen entfernt werden. Die
Moiré-Effekte können vermieden werden, in dem die Abtastfrequenz so gewählt
wird, dass sie einem ganzzahligen Vielfachen einer räumlichen Struktur entspricht.
zeitlich diskretisiert. Die Bilder müssen mit einer Geschwindigkeit von circa 20
Bildern pro Sekunde abgespielt werden, damit ein Bewegungsablauf als
gleichmäßig empfunden wird. Die Grenze zur Wahrnehmung einer fließenden
Bewegung ist von Mensch zu Mensch leicht verschieden. Läuft der Film langsamer,
dann treten Alias-Fehler in Form von ruckhaften Bewegungen auf.
Wenn beispielsweise ein Monitor mit einer Kamera gefilmt wird, kann es auch zu
Alias-Effekten kommen. Dies kann vermieden werden, in dem die Bildfrequenz des
Monitors auf ein Vielfaches der Kamerafrequenz eingestellt wird.
3.3.4 Kell-Faktor
Treppenstufen können ebenfalls weichgezeichnet werden, in dem der
Betrachtungsabstands erhöht wird. Ab einem bestimmten Abstand können zwei
Zeilen nicht mehr separat wahrgenommen werden. Ray D. Kell hat 1934
diesbezüglich Experimente anhand von Versuchspersonen durchgeführt. Er hat
untersucht, ab welcher Abstandsvergrößerung das menschliche Auge nicht mehr in
der Lage ist, ein ungerastertes Bild von einem gerasterten zu unterscheiden. Durch
eine eineinhalbfache Fache Vergrößerung des Betrachtungsabstands werden die
Bilder als gleich empfunden. Der Kehrwert ist der so genannte Kell-Faktor k = 0,67,
er kann auch so interpretiert werden, dass bei einem Bild mit 100 Zeilen nur etwa
67 Zeilen aufgelöst werden können. [US00/3]
Tabelle 6: Videoauflösungen
4.1.1 Patch-Hilfen
Bei einer großen Anzahl von Lampen ist es sehr aufwändig, den Lampen die
entsprechenden Steuerkanäle zuzuordnen. Zur Vereinfachung bieten die Software-
Hersteller Patch-Hilfen an, deren Funktion sich folgendermaßen erklären lässt: Die
einzelnen Lampen, beziehungsweise die Dimmer, haben jeweils eine DMX-Adresse.
Handelt es sich um eine RGB-Matrix, so werden für jeden Bildpunkt drei DMX-
Adressen benötigt. Bei einer Matrix die aus Movinglights besteht, werden nur die
Adressen der drei RGB-Kanäle verwendet. Den DMX-Adressen werden programm-
interne Lampen-Nummern (Screen-IDs) zugeordnet; dieser Vorgang nennt sich
Patching. Die IDs repräsentieren die Lampen und ihre Position in der Matrix. So
kann das Programm die Pixelinformationen aus einem Bild oder Video den
entsprechenden DMX-Kanälen und somit den richtigen Lampen zuordnen.
Aus einer Bibliothek werden Lampen ausgewählt, die dann in einem Raster
angeordnet werden. Das Raster entspricht der Auflösung der Lampen-Matrix. Jeder
Pixel in diesem Raster hat eine feste Screen-ID, unabhängig davon, ob dem Pixel
eine Lampe zugeordnet ist oder nicht. Soll ein Bild auf der Matrix abgebildet
werden, so werden jeder Screen-ID Helligkeitsinformationen zugeordnet. Die
Helligkeitswerte werden für alle Screen-IDs der Matrix berechnet, auch wenn sich
an manchen Stellen keine Lampen befinden. Beim Erstellen des Rasters muss
beachtet werden, dass mit steigender Anzahl von Screen-IDs eines Rasters auch die
benötigte Rechenleistung steigt. In der Patch-Hilfe wird festgelegt, wo die DMX-
Adressierung der Lampen beginnt, d. h., ob sie horizontal oder vertikal verläuft und
ob sie reihenweise durchnummeriert ist oder nach jeder zweiten Reihe die
Laufrichtung ändern soll (Snake-Mode). Sind einzelne Lampen falsch montiert oder
adressiert, so können diese durch Adressänderung im Patching korrigiert werden.
Die folgende Abbildung zeigt das Patching einer RGB-Matrix. 20 Lampen sind auf
Matrix-Ansteuerung von Leuchtmitteln 34
einem Raster mit der Auflösung von 5x5 angeordnet. Die obere Zahl steht für die
Screen-ID, die Untere für die DMX-Adresse.
Wenn in einem Raster zwei gleichgroße Lampen A und C angeordnet werden und
Lampe C 3 x 3 Pixel hat, so lässt sich das Problem nur lösen, wenn bei beiden
Lampen eine Auflösungsverringerung durchgeführt wird. Bei Lampe A werden 2
Pixel zusammengefasst und bei Lampe C jeweils 3 Pixel.
Mit Hilfe der Sektionen wird es ermöglicht, ein Videobild oder Teile daraus in
unterschiedliche Auflösungen umzurechnen. Das Bild wird dazu unterschiedlich
gerastert, so kann es proportional richtig dargestellt werden und die Pixel
entsprechen somit den richtigen Informationen aus dem Originalbild. Dies ist von
Vorteil bei Lampen mit unterschiedlich großen Bildpunkten darstellen. So kann
beispielsweise ein Gesamtbild, auf mehreren Matrizen, mit unterschiedlicher
Auflösung proportional richtig dargestellt werden.
Mit mehreren Sektionen hat man viele Möglichkeiten; allerdings wird dabei eine
hohe Rechenleistung benötigt, da ein Video für jede Sektion einzeln skaliert werden
muss. Die Skaliervorgänge benötigen unterschiedlich viel Zeit, deshalb müssen die
DMX-Daten vor der Signalausgabe synchronisiert werden.
Die Grundlage für jede Matrix-Steuerung ist immer das vorliegende Patch. Die Soft-
oder Hardware muss die Positionen der Lampen in der Matrix mit den dazu-
gehörigen DMX-Adressen kennen.
Abbildung 7: Sinus angewendet auf eine Gruppe von 16, 8 und 14 Bildpunkten
Zusätzlich zur Funktion können die Amplitude der Funktion, die Verzögerung
sowie die Geschwindigkeit eingestellt werden. Die Effekte können kombiniert und
auf verschiedene Gruppen angewandt werden, so dass interessante Farbspiele
entstehen.
Eine Matrix über eine normale Lichtsteuerung anzusteuern ist sehr arbeitsintensiv,
und mit Effekt-Generatoren sind die Möglichkeiten begrenzt. Deshalb werden zur
Bespielung einer Matrix häufig Bilder oder Videos benutzt, wobei die Software die
Bilddaten in Lichtsteuersignale umwandelt. Dieser Vorgang nennt sich
Pixelmapping. Um Pixelmapping umsetzen zu können, wird eine Videozuspielung
benötigt. Die Zuspielung der Videos erfolgt entweder über ein Programm, welches
auf demselben Rechner läuft, oder aber extern über DVI (Digital Visual Interface)
oder eine Capture-Karte. DVI ist eine digitale Schnittstelle um unkomprimierte
Multimediadaten zu übertragen. Capture-Karten wandelen ein analoges- in ein
digitales Videosignal. Die Zuspielung kann beispielsweise von einem Medienplayer,
Medienserver, VJ-Programm, DVD-Player oder über eine Live-Kamera erfolgen.
Haben die Bilder nicht die passende Auflösung, kann ein Ausschnitt aus dem Bild
ausgewählt werden, oder das Bild wird in der Größe verändert und durch Stauchen
oder Strecken an die Matrix angepasst. Hierzu gibt es unterschiedliche
Skalieralgorithmen (siehe 4.3). Der Rechenprozess für die Bildskalierung kann auf
der CPU oder der Grafikkarte ausgeführt werden.
Bei den Laufschriften wird ähnlich verfahren. Man wählt einen Schrifttyp aus einer
Auswahl der installierten Zeichensätze, bestimmt die Größe, Schrift- und
Hintergrundfarbe sowie die Laufrichtung. Aus diesen Angaben berechnet das
Programm eine Cue-Liste. Die Geschwindigkeit kann anschließend über die Fade-
und Wartezeiten eingestellt werden.
Als Videoschnittstelle wird häufig DVI genutzt, da das Signal schon in digitaler
Form vorliegt und nicht unnötig von digital nach analog und wieder zurück
gewandelt werden muss.
Matrix-Ansteuerung von Leuchtmitteln 39
Es gibt jedoch auch Geräte mit anderen Videoeingängen. Damit die DMX-Kanäle
den richtigen Lampen zugeordnet werden können, wird auch hier ein Patch
benötigt. Mit einer Patch-Hilfe wird eine Zuordnungstabelle erstellt und auf der
Hardware abgespeichert. Um den richtigen Bildausschnitt zu bearbeiten, benötigt
die Hardware sechs weitere Informationen: den Skalierfaktor in X- und Y-Richtung,
die X- und Y-Position des ersten Pixels sowie die Höhe und Breite des Ausschnitts.
Die Eingabe kann über die Patch-Hilfe oder durch Einstellungen an der Hardware
geschehen. Optimalerweise kann der Bildausschnitt in einer Vorschau visuell
ausgewählt werden. Die Hardware-Geräte können auch kaskadiert werden, dazu
wird das Video-Signal durchgeschliffen. Die einzelnen Geräte können dann jeweils
einen bestimmten Bereich des Videos wiedergeben.
4.1.5 Dimmer
Die Lichtsteuerung auf der Lastseite erfolgt mit Hilfe von Dimmern. Die Dimmer
empfangen die Steuer-Signale, setzen sie um und regeln die Stromzufuhr der
Lampen. Am Dimmer wird für jede Lampe eine DMX-Adresse eingestellt. Wenn
Lampen viele Adressen besitzen, genügt in der Regel die Eingabe der ersten
Adresse. Die weiteren Adressen, die zu steuernden Funktionen oder die
Lampenpositionen in einem Leuchtmodul sind in einer Bibliothek in der
Lichtsteuerung hinterlegt.
Begrenzungswerte regeln den Strom nach oben hin ab, so kann bei einzelnen
Kanälen der Strom begrenzt werden. Wenn eine Glühlampe nicht mit voller
Leistung arbeitet, erhöht sich ihre Lebensdauer.
Es gibt verschiedene Arten von Dimmern, sie werden für bestimmte Leucht-
mitteltypen eingesetzt und unterscheiden sich durch die verwendete Technik.
Dimmer mit elektronischer Phasenanschnittsteuerung, die mit Thyristoren oder
Triacs arbeiten, werden hauptsächlich für Ohm´sche Lasten, wie Glühlampen
benutzt. Sie dimmen, indem die Spannung zu Beginn der Phase für eine bestimmte
Zeit unterbrochen wird, so dass nur ein Teil des Stroms fließen kann. Diese
Dimmer haben einen guten Wirkungsgrad, arbeiten lastunabhängig und können
klein und leicht gebaut werden. Nachteil dieser Geräte sind die Oberwellen, die
beim Phasenanschnitt entstehen. Sie sind meist um ein Vielfaches höher als die
Netzfrequenz und können bis in den UKW-Bereich hinein reichen. Durch Drosseln
können die Oberwellen abgeschwächt werden. Diese Bauteile sind allerdings
schwer und geraten in Schwingung, was sich durch ein Brummen bemerkbar
macht.
Die Regulierung der Pulsweite bewirkt in großen Bereichen eine lineare Änderung
der Effektivspannung. LEDs haben jedoch keine lineare Kennlinie, die Helligkeit
Matrix-Ansteuerung von Leuchtmitteln 43
steigt mit zunehmender Spannung nicht linear an. Durch Anpassung der
Dimmkurve im Treiber oder in der Lichtsteuerung kann in den unteren Bereichen
die Helligkeit genauer geregelt werden. Dies führt allerdings dazu, dass in den
unteren Bereichen der Kennlinie die Auflösung nicht mehr fein genug ist, um
weiche Übergänge zu schaffen. Dadurch bedingt können die LEDs nicht stufenlos
bis auf null gedimmt werden und es treten deutliche Helligkeitssprünge auf.
Abhilfe kann geschaffen werden, in dem der Treiber intern mit einer höheren
Bitzahl arbeitet als das Steuersignal. An hochwertigen Treibern kann zusätzlich die
PWM-Frequenz eingestellt werden, um Alias-Effekte zu vermeiden, wenn
beispielsweise LEDs gefilmt werden.
Ist beispielsweise ein fehlerhaftes internes Patching einer Lampe in der Bibliothek
einer Lichtsteuerung hinterlegt, so werden die Lampen falsch angesteuert. Dies
kann eintreten, wenn Hersteller ihre Produkte verändern, und die Bibliothek nicht
aktualisiert wird.
Die Hardware muss auf die Anwendung zugeschnitten sein. Die Rechenleistung
des Computers und die der Grafikkarte müssen den Anforderungen entsprechend
dimensioniert sein, da sonst die flüssige Bildwiedergabe nicht gewährleistet ist. Ist
ein System überlastet, so können die einzelnen Bilder nicht schnell genug
berechnet werden. Bei leichter Überlastung werden die einzelnen Steuersignale mit
geringer Verzögerung ausgegeben und die Bewegungen im Bild erscheinen etwas
verzogen, bei starker Überlastung können ganze Bilder nicht mehr berechnet
werden und das Video beginnt zu ruckeln.
Bei Grafikkarten ist darauf zu achten, ob es sich um eine Single- oder eine Dual-
Head-Karte handelt. Dual-Head-Karten können zwei unterschiedliche Bilder
ausgeben. So kann beispielsweise auf einem Bildschirm die Oberfläche eines
Steuerprogramms ausgeführt werden und über den zweiten Ausgang ein Video
ausgeben werden. Manche Grafikartentreiber sind nicht in der Lage, ein Video
abzuspielen und es gleichzeitig über einen anderen Ausgang auszugeben. Des
Weiteren sollte beachtet werden welche Programmierschnittstellen die Software
benutzt. Manche Grafikkarten sind besser kompatibel mit OpenGL und andere mit
Matrix-Ansteuerung von Leuchtmitteln 44
DirectX. Bei den Capture-Karten für den Videoeingang muss ebenfalls auf die
Kompatibilität mit der Software geachtet werden.
Die Trägheit der Lampen muss ebenfalls berücksichtigt werden. Glühlampen sind
relativ träge im Vergleich zu LEDs. Wird eine Glühlampe nur für einen sehr kurzen
Impuls angesteuert, so besteht die Möglichkeit, dass sie ihre volle Helligkeit nicht
erreicht. LEDs hingegen reagieren sehr schnell.
4.2.1 Lichtsteuersoftware
Die Firma e:cue bietet zwei verschiedene Produkte im Bereich der
Lichtsteuersoftware an. Den „UFGM-Player“ (unfassbar große Matrizen), eine
Matrix-Ansteuerung von Leuchtmitteln 45
Das Matrix-Setup und das Patching werden für beide Programme mit dem
„Patchelors“ erstellt. Das Setup kann in mehren Sektionen erstellt werden und für
einige Lampentypen können zusätzlich Kabelpläne und Dip-Switch-Einstellungen
angezeigt werden. Die Programme laufen alle auf handelsüblichen PCs und werden
schwerpunktmäßig bei Festinstallationen eingesetzt. In Kombination mit einer
Faderunit lässt sich die Software aber auch gut im Live-Betrieb verwenden.
Zusätzlich besteht die Möglichkeit, eine den Einsatzzwecken entsprechende, frei
konfigurierbare Bedienoberfläche zu schaffen. Diese kann auch mit Flash
programmiert werden.
Die Software ist kostenlos erhältlich, die Steuersignale werden über e*net
ausgegeben und können nur mit Nodes der Firma e:cue in DMX gewandelt werden.
Die Software verfügt über alle unter Kapitel 4.1.2 aufgeführten Funktionen sowie
über eine Trigger-Maschine, mit der eine Vielzahl von Automationen vor-
genommen werden können. So können beispielsweise mit Wenn/Dann-Regeln
beliebige Verknüpfungen zwischen Triggern und Events gesetzt werden. Über
Wenn-Aktionen wie Uhrzeit, Datum, bestimmte Sonnenstände, MIDI, Timecode,
SPS oder I/O-Inputs, Serielle Kommandos (RS232) oder Start/Stop-Befehle von Cue-
Liste können Dann-Aktionen wie Start/Stop Cue-Liste, Start/Stopp Media,
Start/Stop Timecode, SPS-, MIDI-, RS232-Output oder Macroprogramme getriggert
werden.
Mit Makros können beispielsweise Effekte oder Equalizer programmiert oder durch
Einbindung von Triggern, Computerspiele wie Tetris auf einer Matrix gespielt
werden. Macros sind Programme, die der Anwender selbst schreibt, um
ungewöhnliche Funktionen zu realisieren. Sie werden in der Makrosprache
geschrieben, welche auf der Programmiersprache C basiert.
Die Cue-Listen werden nicht nach dem HTP- oder LTP-Prinzip abgespielt, wie bei
einer gewöhnlichen Lichtsteuerung, sondern sind in Layern organisiert, wie es bei
Medienservern üblich ist (siehe 4.2.2). Es besteht die Möglichkeit mehrere Layer
additiv, subtraktiv oder mit verschiedenen Chroma-Key-Verfahren (Farbstanzen)
abzuspielen. Die Software kann ebenfalls über MIDI, RS232 oder Timecode
getriggert werden.
Das Lampen-Layout wird auch als Vorschau verwendet; es kann auf einem CAD-
Plan (Computer-Aided-Design) erstellt und somit an die architektonischen
Gegebenheiten angepasst werden. Die Timelines können über verschiedene Trigger
wie Sonnenstand, MIDI-, I/O-, RS232-Inputs oder Timecode gesteuert werden.
ChamSys bietet seine Steuerungen „MagicQ“ als Konsole oder als PC-Software mit
Faderunit an. Das Programm beinhaltet keinen eigenen Pixelmapper, es können
jedoch bis zu 50 externe Medienserver oder Pixelmapper angeschlossen und
gesteuert werden. In der Lichtsteuerung steht für den Medienserver-Output eine
Vorschau und für die Video-Dateien eine Miniaturvorschau zur Verfügung.
Matrix-Ansteuerung von Leuchtmitteln 47
Des Weiteren steht eine Auswahl von Effekten zu Verfügung. Eine Besonderheit bei
MagicQ sind die Autogroup-Funktionen, wie Rechteck, Kreis, X, H, Innen, Außen
oder aus der Mitte kommend. Hierdurch können Effekte schnell auf die Form der
Matrix angewendet werden.
Von der Firma Pivot gibt es den „Pixeldriver“, eine PC Software, mit der zusätzlich
Pixelmapping betrieben werden kann. Es besteht die Möglichkeit, Dimmkurven
einzustellen und die RGB-Werte einzelner Pixel zu kalibrieren.
Inoage bietet mit „Madrix“ eine PC-Software, die speziell für Diskotheken, Bars,
oder Lounges entwickelt ist. Mit der Software können nur Matrizen angesteuert
werden. Sie ist ähnlich wie eine VJ-Software aufgebaut und kann leicht und intuitiv
bedient werden. Es gibt zwei Vorschau-Fenster, in denen Effekte erstellt werden
können. Die zwei Kanäle können über das Output-Fenster umgeschaltet oder mit
verschiedenen Blenden zusammengemischt werden.
Für Macintosh gibt es den „Pixelmad“, eine einfache Software, welche die
Bildschirmpixel in DMX-Werte wandelt und diese mittels Art-Net ausgibt.
„BIX Direktor“ ist eine Macintosh Software, die speziell für die Medienfassade des
Kunsthauses in Graz entwickelt wurde. Programmiert ist die Software in MAX/MSP
Matrix-Ansteuerung von Leuchtmitteln 48
& Jitter, eine graphische Entwicklungsumgebung für Multimedia. Mit dem „BIX
Direktor“ können auf vier Videospuren Programmabläufe erstellt werden, die
ineinander übergeblendet und als DMX ausgegeben werden können.
4.2.2 Medienserver
Medienserver sind Rechner, die mit Software zur Steuerung und Bearbeitung von
Bild und Videodaten in Echtzeit ausgestattet sind. Sie verfügen meist über eine
leistungsstarke Grafikkarte und ein RAID-Festplattensystem (Redundant Arrays of
Inexpensive Disks). Die Server können über DMX oder Ethernet von einem Lichtpult
oder einer anderen Bedienoberfläche gesteuert werden. Wird der Medienserver in
eine Lichtsteuerung integriert, so wird er wie eine Lampe mit vielen Funktionen
behandelt. Medienserver geben Videosignale aus. In Kombination mit einer
Lichtsteuerung können die Videodaten in entsprechende Lichtsteuersignale wie
DMX oder Ethernetprotokolle gewandelt werden. Einige Medienserver können auch
direkt Lichtsteuersignale ausgeben.
Häufig können den Programmen noch Hardware beschleunigte Effekte in Form von
Plug-ins hinzugefügt werden. Ein Plug-in ist eine eigenständiges Computer-
programm, das über eine definierte Schnittstelle, an andere Software
angeschlossen wird. Die Einstellungen der Plug-ins erfolgen über die Oberfläche des
Medienservers. Es gibt eine Vielzahl solcher Plug-ins von unterschiedlichen
Herstellern, so zum Beispiel Effekte zur Kantenhervorhebung, 3D-Textanimation
oder Effekte die mit denen sich generative Bilder erzeugen lassen (siehe 6.6.3).
Matrix-Ansteuerung von Leuchtmitteln 49
Führende Produkte im Bereich Produktion, TV und Theater sind der „Catalyst“ von
High End Systems aus den USA, “Pandorras Box“ von Coolux aus Köln, “Maxedia
Digital Media Composer“ von Martin aus Dänemark, der “Hippotizer“ von Green
Hippo aus Großbritannien, sowie “grandMa video“ von MA Lighting aus
Deutschland. High End Systems, Martin sowie MA Lighting kommen aus dem
Bereich der Lichttechnik, Green Hippo hat seine Wurzeln in der Videotechnik und
Coolux wurde von einem Team von Programmierern, Video- und Lichtdesignern
gegründet.
Es gibt aber auch einfachere Programme wie etwa “PixelDrive“ von Radical Lighting
aus Großbritannien. "PixelDrive" ist eine Pixelmapping-Software, die wie ein
Medienserver aufgebaut ist und über eine Lichtkonsole gesteuert werden kann. Sie
kann Daten mit Art-Net übertragen, jedoch keine Videosignale ausgeben.
4.3 Pixelmapping
Um eine Matrix mit Video zu bespielen, werden die Pixelinformationen des Videos
in Lichtsteuersignale gewandelt. Dieser Vorgang nennt sich Pixelmapping. Wenn
die Auflösungen der Matrix und die des Videos sich unterscheiden, so müssen die
Bilder zuvor noch skaliert werden. Ein Pixel der Matrix sollte sinnvollerweise eine
Mischfarbe darstellen, die sich aus den gewichteten Farben ergibt, welche in dem
Flächenausschnitt der Videoquelle vorkommen. Es gibt unterschiedliche
Algorithmen zur Errechnung der Mischfarben. Sie unterscheiden sich durch
Rechenaufwand, Genauigkeit der Abtastpunkte sowie durch unterschiedlich
starkes Antialiasing.
4.3.1 Scalieralgorithmen
4.3.1.1 Nearest-Neighbour-Transformation
Ein Bild wird am einfachsten skaliert, indem man das Original in eine Anzahl von
Blöcken zerlegt, die der Zielauflösung entspricht. Der jeweils mittlere Pixel aus
Matrix-Ansteuerung von Leuchtmitteln 50
einem Block wird als Bildpunkt der Zielmatrix verwendet (siehe Abb. 9). Haben die
Blöcke eine gerade Anzahl von Bildpunkten, so gibt es keinen mittleren Pixel und
man muss sich für einen Pixel entscheiden, der möglichst nah am Mittelpunkt
liegt; bedingt dadurch gibt es einen horizontalen und vertikalen Pixelversatz von
einem Bildpunkt.
Diese Methode ist sehr einfach und funktioniert ohne großen Rechenaufwand.
Allerdings entspricht der verwendete Pixel nur der Fläche des Originalbildes, wenn
die benachbarten Pixel gleiche Werte haben. Sind die Werte jedoch unterschiedlich,
so wird der Bildausschnitt falsch wiedergegeben. Je größer der Skalierfaktor, desto
höher liegt die Wahrscheinlichkeit für einen Fehler.
Das Problem kann vermieden werden wenn statt der Blöcke die exakten
Abtastpunkte auf der Quellmatrix ermittelt werden, die Pixel die den
Abtastpunkten am nächsten sind werden verwendet. So verteilen sich die
unberücksichtigten Pixel über die gesamte Matrix.
berücksichtigt werden. Der Vorteil dieses Verfahrens ist, dass es sehr wenig
Rechenleistung benötigt und somit sehr schnell ist.
4.3.1.2 Mittelwert-Transformation
Deutlich bessere Ergebnisse können erzielt werden, in dem aus den benachbarten
Pixeln der Abtastpunkte oder der Blöcke Mittelwerte gebildet werden. Hierzu
können verschiede Filter angewendet werden. Der Box-Filter errechnet den
Durchschnitt (arithmetisches Mittel) der RGB-Werte. Für die drei Grundfarben
werden jeweils alle n Pixel aus einem Block summiert und anschließend durch n
dividiert (n entspricht der Anzahl der berücksichtigten Pixel).
In der Abbildung fällt der genaue Abtastwert ganz leicht in das rote Pixel (RGB: 240,
0, 0). Der benachbarte grüne (RGB: 0, 250, 20), blaue (RGB: 0, 30, 255) und gelbe Pixel
Matrix-Ansteuerung von Leuchtmitteln 52
(RGB: 255, 190, 0) befinden sich im selben Abstand. An der Stelle des roten Pixels
wird das braune Pixel ausgegeben.
Die bilineare Methode arbeitet sehr exakt. Hier werden zwar nur vier Pixel
berücksichtigt, jedoch wird das Bild an den relevanten Positionen unabhängig vom
Pixelraster der Quelle abgetastet, und die umliegenden Pixel werden gewichtet
berechnet. Allerdings bedeutet bilineares Filtern einen enormen Rechenaufwand.
Das Antialiasing ist bei bilinearen Filtern verhältnismäßig gut, allerdings nur bei
geringen Skalierfaktoren, da pro Pixel jeweils nur vier Bildpunkte berücksichtigt
werden.
Die Wahl des Skalieralgorithmus' hängt eng mit dem verwendeten Bildmaterial
zusammen. Der verwendete Algorithmus muss den Bildinhalt mit reduzierter
Auflösung so wiedergeben, dass er nicht zu stark entfremdet wird. Bei kleinen
ganzzahligen Skalierfaktoren kann beispielsweise eine Nearest-Neighbour-
Transformation gewählt werden, da nur ein geringer Anteil der Bildpunkte
weggelassen wird und somit wenige Informationen verloren gehen. Sind die
Skalierfaktoren größer, so wird mit dem Algorithmus eine zu geringe Fläche
berücksichtigt und das Bild wird immer mehr entfremdet. Bilinear- oder
Mittelwert-Filter verarbeiten mehr Bildinformation und können deshalb das Bild
originalgetreuer darstellen, allerdings wird das Bild hierdurch weichgezeichnet und
somit unschärfer. Wenn die Blöcke bei einem Box-Filter zu groß gewählt werden,
Matrix-Ansteuerung von Leuchtmitteln 54
kann es auch hier zu einer starken Bildentfremdung kommen, da die Pixel nicht
entsprechend den Abtastpunkten gewichtet werden. Soll beispielsweise ein hoch
auflösendes Bild nur durch vier Pixel dargestellt werden und es wird mit einem
Box-Filter bearbeitet, der alle Pixel berücksichtigt, so werden die vier Pixel als sehr
ähnliche Mischfarben dargestellt, gewollt sind aber kräftige Farben, die den
Abtastpunkten entsprechen. Dies kann durch bicubische Filter erreicht werden. Sie
berücksichtigen die nächsten 16 Bildpunkte um den Abtastpunkt, die Bild-
information wird richtig wiedergegeben und harte Übergänge werden geglättet.
Um ein Video in Lichtsteuersignale zu wandeln, wird das Video in Form von RGB-
Daten benötigt. Manche Codecs geben aber die Daten beispielsweise im YUV-
Format aus, so müssen die YUV-Werte in RGB-Werte gewandelt werden. Im
Praktischen Teil der Arbeit (siehe 7.2) wurden verschiedene Codecs und
Containerformate bezüglich ihrer Rechenleistung miteinander verglichen.
Matrix-Leuchten 55
5 Matrix-Leuchten
Normale Glüh- oder Halogenlampen können sehr gut verwendet werden, sie
lassen sich hervorragend dimmen und es gibt eine Vielzahl von Lampen. Ob PAR-
Scheinwerfer, Stufenlinse oder nur eine Fassung mit Glühbirne, sie stehen in
verschiedenen Leistungsklassen zu Verfügung und können mit Farbfiltern ein-
gefärbt werden. Ein Nachteil dieser Leuchtmittel ist ihre Ansprechzeit. Aufgrund
der Trägheit können nur geringere Schaltfrequenzen von ca. 3 Hz umgesetzt
werden. Je nach Leuchtmitteltyp variiert die Frequenz geringfügig. Wird schneller
geschaltet, dann erlischt die Glühwendel nicht komplett.
Auch dimmbare Leuchtstofflampen bieten sich an. Sie werden häufig eingesetzt
um homogene Flächen auszuleuchten, wie beispielsweise Horizonte in Fernseh-
studios. Sie haben eine sehr gute Lichtausbeute von ca. 70 – 100 Lm/W und geringe
Wärmeentwicklung. Sie sind in unterschiedlichen Längen, bis 1,5 Meter erhältlich,
haben alle unabhängig von der Länge eine ähnliche Lichtausbeute und können
deshalb ohne Weiteres auch bei unterschiedlichen Längen zu einer Fläche
kombiniert werden. Neben stabförmigen Leuchtstoffröhren gibt es auch
ringförmige Leuchtmittel. Sie sind in Durchmessern von 20 bis 40 cm erhältlich. Die
meisten Vorschaltgeräte für Leuchtstofflampen arbeiten mit Dali- oder 0 - 10 V-
Technik und können mittels Gateway in DMX gewandelt werden.
Die Hersteller bieten LEDs in verschiedenen Formen an; einzeln, in flexiblen Ketten
oder auf einer Platine zusammengefasst. LED-Lampen gibt es ebenfalls in vielen
Varianten. Fexible Schläuche, Tuben oder Module in unterschiedlichen Größen mit
verschiedenen Oberflächen, Materialien oder mit direkter sicht auf die LEDs.
Wenn die einzelnen Bildpunkte nicht ineinander übergehen sollen, gibt es die
Möglichkeit, die Lichtkegel durch Trennwände klar von einander abzugrenzen. Mit
unterschiedlich geformten Trennwänden können beispielsweise rechteckige, runde
oder ovale Bildpunkte geformt werden.
Die Leuchtdichte ist abhängig von der Leistung, sowie von der Anzahl der Leuchten
pro Fläche. Für Anwendungen bei Tageslicht sollte die Leuchtdichte einer
Lichtwand mindestens 4000 cd/m2 (Nit) betragen. Zum Vergleich ein gewöhnlicher
Röhrenfernseher hat ca. 100 – 300 cd/m2 (Nit).
Die Leuchtdichte und die Streueigenschaften einer Lampe sind abhängig von der
Oberflächenbeschaffenheit und den Absorptionseigenschaften der Projektions-
fläche sowie vom Abstand der Fläche zur Leuchte. Der Betrachtungswinkel ist
ebenfalls abhängig vom Streuverhalten der Oberfläche. Zu bemerken ist noch, dass
nur mit großen Leuchtdichten gesättigte Farben erzielt werden können.
Lichtwände sind häufig nur bei Nacht eingeschaltet. Damit die Oberflächen auch
bei Tag ansprechend aussehen, können beispielsweise Spiegel verwendet werden
die nur von einer Seite lichtdurchlässig sind. Im ausgeschalteten Zustand spiegelt
die Oberfläche, ist das Licht eingeschaltet dann leuchtet sie. Hierfür können auch
dichroitische Spiegel verwendet werden, sie reflektieren das Licht abhängig vom
Einfallswinkel und von der Wellenlänge. Bei Tageslicht ergeben sich so farblich
schimmernde Effekte.
Wenn eine Wand aus Modulen besteht welche durch einen Rand voneinander
getrennt sind, so empfiehlt es sich eine ungerade Anzahl von Modulen zu
verwenden, wie beispielsweise 3 x 3 oder 5 x 5. So ist die Mitte des Bildes nicht
Matrix-Leuchten 59
durch Ränder oder Trennwände geteilt. Bei größeren Wänden muss dieses nicht
berücksichtigt werden. [RS91]
Der Quotient aus der Gesamtfläche einer Matrix und der Summe der Flächen der
Bildpunkte wird in der Videotechnik als Füllfaktor bezeichnet. Je kleiner der
Füllfaktor desto größer ist der Abstand zwischen den einzelnen Bildpunkten.
Geringe Füllfaktoren können bei größeren Betrachtungsabständen eingesetzt
werden, da aufgrund der Auflösungsverminderung die Abstände zwischen den
Bildpunkten weniger fein aufgelöst werden können.
"Die Sehleistung ist die Fähigkeit des Sehorgans, Helligkeits- und Formenstrukturen mehr
oder weniger schnell zu erfassen und wahrnehmen zu können. Die Sehleistung ist ein
Zusammenwirken von einer Anzahl elementarer Funktionen des Sehorgans" (Hentschel).
Die Sehleistung ist abhängig von der Adaptationsleuchtdichte, der Zeit wie lange
ein Objekt sichtbar ist, vom Leuchtdichtekontrast, sowie vom Sehwinkel des
Objekts.
Die visuelle Wahrnehmung geschieht in einer Folge von Blicken (Fixationen). Der
größte Teil der Netzhaut im menschlichen Auge ist mit Sinneszellen bedeckt. Das
Scharfsehen konzentriert sich allerdings auf einen Sehwinkel von ca. 2°.
Durch sprunghaftes Abtasten des Blickfelds (Saccade) entsteht im Kopf ein scharfes
Gesamtbild.
Das Gesichtsfeld beider Augen hat in der Horizontalen eine Ausdehnung von ca.
190°, in der Vertikalen ist es durch die Augenhöhlen begrenzt und liegt bei ca. 120°.
In den äußeren Bereichen des Gesichtsfelds funktioniert nur die Detektion. Das
Normalsehen, bei dem der Sehbereich ohne Kopfbewegungen als scharf
wahrgenommen wird, begrenzt sich auf ca. 25°. Bei größeren Winkeln wird der
Kopf mitbewegt. Ab ca. 10° kann ein Objekt mit einem Blick bequem erfasst
werden. Deutliches Sehen beschränkt sich auf ca. 2°. Die maximale Ortsauflösung
des menschlichen Auges liegt bei einem Sehwinkel von ca. einer Winkel Minute.
Bei diesem Winkel können zwei Linien noch als getrennt wahrgenommen werden.
[RG00/2]
Die Bildpunkte der Testwand (siehe 7.1) haben die Maße 6,25 mal 6,25 cm. Damit
die Bildpunkte nicht mehr getrennt voneinander wahrgenommen werden können,
muss der Betrachtungsabstand mindestens 215 m betragen. Wird außerdem der
Kell-Faktor (siehe 3.3.4) berücksichtigt, muss der Betrachtungsabstand um den
Faktor 1,5 auf 323 m erhöht werden. Die Testwand hat also nur eine geringe
Auflösung wenn sie aus Abständen deutlich unter 215 m betrachtet wird.
Der Mensch kann in einer Zeiteinheit nur ein bestimmtes Maß an Informationen
aufnehmen. Enthält eine Nachricht mehr Informationen, so lässt der Empfänger
diese unberücksichtigt oder tastet sie nur ab.
Soll auf einer Wand Information dargestellt werden, so zählt die Prägnanz dieser
Information. Es kann beispielsweise untersucht werden, welche Zeit benötigt wird,
um einen Text zu lesen oder bestimmte Objekte zu erkennen.
Abmessungen, wird die Matrix deshalb durch den Sehwinkel beschrieben, mit dem
sie aus durchschnittlicher Entfernung erfasst werden kann.
Das Bildmaterial kann so produziert werden, dass es bei großen und kleinen
Betrachtungsabständen funktioniert, dazu sollten die Bilder sehr einfach, nicht zu
groß, weich gezeichnet und langsam sein. Oder der Bildinhalt wird so gestaltet,
dass er verschiedene Funktionen hat. Von Weitem kann Information in Form von
Text oder einer Handlung übermittelt werden. Aus der Nähe wirkt die Matrix nur
als Effekt.
Ein weiterer Punkt ist der Standort der Matrix und die damit zusammenhängende
durchschnittliche Betrachtungszeit. Wartende Passagiere am Flughafen erreichen
wesentlich höhere Zeiten, als beispielsweise Passanten in einer Fußgängerzone. Bei
längerer Betrachtungsdauer kann mehr Information aufgenommen werden, es
können längere Sequenzen mit detaillierteren Darstellungen abgebildet werden. Je
kürzer die Zeiten, desto kürzer müssen die Sequenzen und umso prägnanter
müssen die Darstellungen sein, damit der Betrachter sie komplett erfassen kann.
im Kontext zueinander. Sind die Buchstaben zu groß, so fällt es auch schwerer, sie
im Zusammenhang zu erfassen. Objekte, die für sich alleine stehen, sollten nicht
über den Bereich des Normalsehens hinausgehen, da sonst die Zeit zum Erfassen
wieder größer wird. Beste Ergebnisse ergeben sich bei einem Sehwinkel von ca. 10°.
[BG96]
Die Größe und Auflösung einer Bildwand kann aus dem gewünschten Sehwinkel,
dem durchschnittlichen Betrachtungsabstand, sowie der Anzahl der zur
Darstellung benötigten Pixel errechnet werden. Soll beispielsweise eine Schrift mit
einer Höhe von 9 Bildpunkten aus einem Betrachtungsabstand von 7 m bei einem
Sehwinkel von 2° dargestellt werden, dann sollte die Schrift eine Höhe von 24,4 cm
haben. Für einen Bildpunkt ergibt sich somit eine Höhe von 2,7 cm.
24,4cm / 9 = 2,7cm
Ab dieser Auflösung sind auch einfache animierte Grafiken möglich. Die folgenden
Abbildungen zeigen Einzelbilder der Installation „Blinkenlights“, auf dem „Haus des
Lehrers“ in Berlin. Wenn die Bilder in schneller Abfolge hintereinander betrachtet
werden, ergibt sich eine flüssige Bewegung. Die Matrix besteht aus nur 18 x 8 Pixeln
und darauf wurden sogar kleine Geschichten erzählt.
Damit Darstellungen aus wenigen Bildpunkten gut erkannt werden, müssen sie
stark vereinfacht sein. Dazu sollten die wesentlichen Merkmale eines Objekts mit
deutlichen Linien, oder klar strukturierten Flächen angedeutet werden, wie es
beispielsweise bei Piktogrammen gemacht wird. Je mehr dabei die Gestaltgesetze
beachtet werden, umso höher ist das Erkennungsniveau.
sinnvollen Zusammenhang ergeben. Das dritte Bild der Animation alleine gesehen
wird beispielsweise nicht ohne Weiteres als laufende Person erkannt.
Ähnlich kann die Raumlage von Objekten beurteilt werden. Objekte, die oben links
angeordnet sind, haben ein größeres visuelles Gewicht, als Objekte die rechts unten
platziert sind. Dies hängt damit zusammen, das in unserem Kulturkreis von links
nach recht und von oben nach unten gelesen wird. Entlang dieser Diagonale
betrachten wir ein Bild. So kommt es, das Bewegungen von links nach rechts als
angenehmer empfunden werden als umgekehrt, da der Blick der gewohnten
Leserichtung folgt.
Laufschriften müssen von rechts nach links bewegt werden, damit die Buchstaben
in der richtigen Reihenfolge angezeigt werden. Unserer Blick wandert jedoch
wieder in Leserichtung von links nach rechts. [RA78]
Als vorteilhaft haben sich Farbkombinationen erwiesen, die aus Weiß und einer
Farbe wie beispielsweise Blau, Magenta, Rot oder Grün zusammengestellt sind. Ist
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 70
das Objekt weiß, dann sollte es etwas größer sein, da Farben die Eigenschaft haben,
unbunte Objekte kleiner erscheinen zu lassen. Die Farbe streut in das Weiß hinein.
Kombinationen mit Schwarz eignen sich nur, wenn zwischen den Bildpunkten sehr
starke Kontraste sind. Dies ist nur bei geringen Umgebungshelligkeiten gegeben, da
Schwarz in diesem Fall bedeutet, dass eine Lampe nicht leuchtet, somit ist die
Fläche so hell wie die Umbebung. Besonders wenig Kontrast ergibt sich, wenn die
Lichtkegel der Leuchten sich überschneiden wie beispielsweise bei diffusen
Materialien vor den Leuchtmitteln.
Die prägnantesten Darstellungen erzielt man, wenn man sich auf wenige kräftige
Farben beschränkt. Das bedeutet aber nicht, dass die Bilder mit einer kleinen
Farbpalette erstellt werden sollen. Die Farbabstufungen innerhalb einer Fläche
sollten sogar sehr fein sein, da Kontraste zwischen den Bildpunkten bei geringer
Auflösung stark auffallen.
Bei Bewegungen von farbigen Objekten auf farbigem Hintergrund eignen sich am
besten Farben, die auf dem Farbkreis nah nebeneinander liegen. Die Farben können
mit einem weichen Übergang ineinander gemischt werden, dadurch erscheinen
Bewegungen weniger ruckhaft (siehe 7.1 Versuch 7).
Das Gleiche gilt für Farbverläufe. Orientiert man sich bei den Übergängen am
Farbkreis und mischt beispielsweise Blau – Magenta – Rot, Rot - Gelb - Grün, Grün –
Cyan – Blau oder den gesamten Farbkreis, so erhält man Übergänge mit vollen
gesättigten Farben. Wird beispielsweise von Rot nach Cyan gemischt, so sind
während des Mischvorgangs alle drei Grundfarben enthalten, die Farben werden
durch weiß entsättigt und der Übergang wirkt schmutziger und weniger
harmonisch.
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 71
6.2.4 Treppeneffekt
Wenn Bilder mit geringer Auflösung vergrößert dargestellt werden, sind die
Bildpunkte deutlich zu sehen. An Kanten, die von der Richtung des Rasters
abweichen, bilden sich Stufen. Je mehr die Pixelstruktur zu sehen ist, umso stärker
wird eine Abbildung entfremdet, da die Treppenstufen von der Form des
eigentlichen Objekts ablenken.
Beispielsweise hat man im Kubik (siehe 8.) eine Diagonale aus geringem
Betrachtungsabstand kaum erkannt. Wurde die Diagonale allerdings bewegt, so
konnte sie ab einer bestimmten Geschwindigkeit deutlich erkannt werden. Durch
die Bewegung wurde die Diagonale verwischt, so dass die Treppenstufen weniger
deutlich zu sehen waren.
6.2.5 Bewegung
Um Wahrnehmung von Geschwindigkeit richtig zu beurteilen, muss ebenfalls der
Betrachtungsabstand berücksichtigt werden. Deshalb sollte sie als Winkel-
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 72
geschwindigkeit aus der Position des Betrachters angegeben werden. Je größer die
Winkelgeschwindigkeit, umso schwieriger fällt es, einem Objekt zu folgen. Es
bleibt weniger Zeit das Objekt abzutasten, deshalb wirkt es unschärfer.
Wenn Bewegung als Effekt eingesetzt werden soll, so sollte dies großflächig
geschehen. Bestes Beispiel dafür ist die allbewährte Diskokugel. Entweder werden
viele kleine Objekte auf einer Bildwand bewegt oder wenige große prägnante
Objekte, die einfach erfasst werden können und eine möglichst große Strecke in
Bewegungsrichtung aufbringen. So wirkt beispielsweise ein vertikaler Balken, der
horizontal bewegt wird intensiver, als ein horizontaler. Für einen starken Effekt
sollte die Bewegung nicht zu schnell sein, damit die Augen die Bewegung
problemlos verfolgen können. Das menschliche Sehverhalten ist stark davon
geprägt, Bewegungen zu verfolgen. Dies geschieht in einer Kette von Fixationen
und Saccaden. Bei zu schnellen Bewegungen jedoch wird die Kette unterbrochen
und die Augen fixieren einen anderen Punkt.
Bei Bildwänden mit geringer Auflösung erscheinen Bewegungen oft ruckhaft, das
liegt daran, weil die Bildpunkte immer deutlich sichtbar sind. Für eine Bewegung
muss ein Objekt mindestens um einen Bildpunkt verschoben werden. Je größer die
Bildpunkte sind, umso sprunghafter ist auch die Bewegung. Je deutlicher die
Bildpunkte voneinander abgegrenzt sind, also je schärfer die Kanten der Bildpunkte
sind, desto stärker werden die Sprünge wahrgenommen.
Wie gleichmäßig eine Bewegung empfunden wird, hängt stark mit Form, Größe
und Kontrast der Objekte zusammen. Der Sehwinkel auf ein bewegtes Objekt spielt
dabei ebenfalls eine Rolle. Je größer der Winkel, desto weniger werden kleine
ruckende Blockartefakte wahrgenommen, da nicht alles gleichzeitig scharf gesehen
wird. Ein weiterer Punkt sind die verschiedenen Techniken, wie einzelne Bilder
ineinander geblendet werden. Bei Lichtsteuerungen gibt es die Möglichkeit, die
einzelnen Cues mit Fades ineinander zu blenden (siehe 7.1 Versuch 9).
Bei Video muss das Material passend bearbeitet werden. Für flüssige Bewegungen
eignet sich dafür Bewegungsunschärfe (Motion Blur). Wenn wir eine schnelle
Bewegung beobachten, dann sehen wir diese leicht verzogen, da unser Auge die
jeweiligen Folgebilder interpoliert. Wenn ein Film mit 24 fps abgespielt wird, dann
wirkt er nur flüssig, wenn er auch mit 24 fps aufgezeichnet worden ist. Bedingt
durch die Belichtungszeit der Kamera ergeben sich Bewegungsunschärfen auf den
Einzelbildern, da das Bild über eine gewisse Zeitspanne belichtet wird. Bei
schnellen Bewegungen oder Kameraschwenks ziehen die Objekte deshalb
Schlieren. Betrachten wir einen Film, so nehmen wir keine oder nur geringe
Bewegungsunschärfe war, obwohl die Einzelbilder leicht verzogen sind. Unser Auge
dient dabei als Filter, sie lassen die Bewegungen flüssig und scharf erscheinen. Dies
funktioniert allerdings nur, wenn die Bewegung unseren Annahmen entspricht.
Verlaufen die Bewegungen unerwartet, dann kann unser Auge den Bewegungen
nicht folgen und die Bewegungsunschärfe fällt stärker auf. Speziell bei künstlich
generierten Filmen ist Motion Blur besonders wichtig, da hierbei die Einzelbilder
scharf und exakt sind und normalerweise nicht interpoliert werden. Die Bilder
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 74
Es gibt verschieden Arten von Motion Blur. Zum einen können die Bilder eines
Videos mit Frame Überblendung bearbeiten werden. So werden zwei aufeinander
folgende Bilder ineinander geblendet. Betrachtet man ein Einzelbild, so kann man
neben den bewegten Objekten transparente „Geisterbilder“ sehen.
Die zweite Möglichkeit besteht darin, aus den Pixel-Bewegungen neue Werte zu
interpolieren. Bildpunkte die ihre Koordinaten verändern, werden bei der
Interpolation berücksichtigt. Bildpunkte ohne Veränderung gehören zum nicht
bewegten Hintergrund und werden nicht berechnet. Motion Blur durch die
Berechnung von Pixel-Bewegungen erzielen saubere Ergebnisse. Allerdings ist dies
rechenaufwändiger, als eine Frame-Überblendung.
Für sehr weiche Bewegungen kann ein übertriebener Motion Blur verwendet
werden, allerdings wird somit das Objekt in Bewegungsrichtung verformt. Damit
die Form des Objekts bei der Bewegung erhalten bleibt, darf die
Bewegungsunschärfe, bei 25 fps keine größere Strecke zurücklegen als das Objekt
in einer 1/25 s (siehe 7.1 Versuch 8).
Bildpunkte ausreichen, um das Objekt darzustellen. Wird ein Objekt durch feine
Linien beschrieben, so muss die Linienstärke geschätzt werden.
Bei der Produktion stellt sich das Problem, dass das erstellte Material nicht in der
richtigen Größe betrachtet werden kann. Auf dem Computer-Monitor ist das
abgebildete Icon als Adressbuch erkennbar, auf einer Matrix wird das Bild jedoch
stark vergrößert, die Blockartefakte sind deutlich sichtbar und entfremden das Bild
(siehe Abb. 23).
Bei kleinen Bildpunkten sind die Kontraste zwischen den Punkten weniger stark
sichtbar. Wird beispielsweise eine Linie aus Bildpunkten mit ähnlicher Farbe
dargestellt, so wird sie trotzdem noch als zusammenhängend wahrgenommen. Bei
großen Bildpunkten erscheinen die Punkte nicht mehr zusammenhängend. Bei
geringer Auflösung müssen die wesentlichen Merkmale eines Objekts stärker
betont werden. Aus diesem Grund sollten zusammenhängende Elemente in einem
ähnlichen Farbton sein.
Um einen Eindruck davon zu bekommen, wie ein Bild auf einer Matrix aussieht,
sollte es aus einem ähnlichen Sehwinkel betrachtet werden. Dazu reicht meist ein
großer Computermonitor aus. Der Betrachtungsabstand sollte so gewählt werden,
dass der Sehwinkel auf den Monitor dem durchschnittlichen Sehwinkel auf die
Matrix entspricht.
Grundsätzlich sollte, wie schon besprochen, die Größe der Objekte beachtet
werden. Wenn ein Objekt nur einen kleinen Bereich des Bildausschnitts einnimmt,
aber auf der gleichen Position bleibt, dann kann das Objekt vergrößert werden,
indem nur ein Bildausschnitt verwendet wird. Dies funktioniert ebenfalls bei
einigen Effekt-Videos, bei denen viele kleine Objekte bewegt werden.
Weiterhin sollte beachtet werden, wie die Seitenverhältnisse von Quell- und
Zielauflösung zueinander stehen. Sind sie sehr unterschiedlich, so wird das Bild
gestreckt oder gestaucht und Objekte können dadurch stark entstellt werden.
Durch die Wahl eines passenden Ausschnitts kann dies verhindert werden.
Die Objekte in einem Bild sollten möglichst farbig, kontrastreich und großflächig
sein. Die einfachste Methode, mit der schon viel erreicht werden kann, ist eine
Farbkorrektur. Bei der Farbkorrektur wird das Verhältnis der Farb- und
Helligkeitswerte von Original und Abbildung verändert. Dies kann in einem
Diagramm dargestellt werden. Die Werte des Originals liegen auf der X-Achse, die
der Abbildung auf der Y-Achse. Die Kurve, die das Verhältnis beschreibt, wird als
Gammakurve bezeichnet. Wird das Bild unverändert wiedergegeben, so ist die
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 77
Gammakurve eine Gerade durch den Ursprung mit einem Winkel von 45 °. Der
Kontrast kann verändert werden, indem die Steigung der Kurve verändert wird. Bei
größeren Winkeln ergibt sich ein stärkerer Kontrast. Die Helligkeit kann verändert
werden, indem zu der Kurve ein Gleichanteil addiert wird, somit verschiebt sich die
Kurve entlang der Y-Achse. In der Videotechnik arbeitet man zusätzlich noch mit
Gammawerten; die Kurve wird dabei durch die Beziehung x = yγ beschrieben. Bei
einem Gammawert größer als eins ergibt sich eine leicht nach oben gewölbte
Kurve, die mittleren Farbtöne werden gegenüber den hellen und dunklen Bereichen
aufgehellt. Bei Gamma kleiner eins werden die mittleren Farbtöne abgedunkelt. Die
Gammakurve lässt sich für alle drei Farbkanäle separat anwenden, so können
bestimmte Farben stärker hervorgehoben werden.
Bei geringer Auflösung sollte man den Kontrast erhöhen. Dunkle Bereiche werden
dunkler, helle Bereiche werden heller und die Farben werden kräftiger. Unter-
schiedlich farbige Flächen grenzen sich stärker voneinander ab und sind somit
deutlicher zu erkennen.
Um die Farbe weiter zu verstärken, kann die Sättigung angehoben werden. Dazu
müssen die RGB-Werte allerdings zuvor in den HSV-Farbraum (Hue, Saturation,
Value) gewandelt werden. Die Sättigung wird verändert und anschließend müssen
die Werte wieder zurück in den RGB-Raum gewandelt werden. Dazu wird allerdings
sehr viel Rechenleistung benötigt.
Weniger rechenintensiv ist es, wenn die Bittiefe der Farbkanäle verringert wird. So
werden die Abstufungen zwischen den Farben größer, die Kontraste werden erhöht
und die Farben werden kräftiger. Diese Methode eignet sich vor allem für Bilder mit
farbigen Flächen. Bei Farbverläufen ist diese Methode jedoch nicht zu empfehlen,
da die Abstufungen zwischen den Farbwerten sehr groß werden und somit die
Blockartefakte stärker auffallen und das Bild entfremdet wird.
Mit der Tonwertkorrektur ergeben sich sehr viele Möglichkeiten. Die Tonwerte
geben die Grau- bzw. Farbwerte in einem Bild wieder. Der gesamte Tonwertbereich
umfasst normalerweise 256 Stufen, O entspricht schwarz, 255 weiß. Bei der
Korrektur können die Bereiche verschoben und gespreizt werden, so dass
beispielsweise Bildpunkte ab einem Wert von 50 schon schwarz und ab 100 weiß
wiedergegeben werden. Den Helligkeitswerten in diesem Bereich werden neue
Werte zugeordnet. Der Tonwertumfang gibt an, in welchem Helligkeitsbereich die
neuen Werte liegen und wie fein die Auflösung der neuen Werte ist. Diese
Einstellungen lassen sich auch gesondert auf die einzelnen Farbkanäle anwenden.
So können ähnlich farbige Flächen zusammengefasst und stark gesättigt oder
invertiert werden. Die folgenden Abbildungen zeigen verschieden Bilder, die mit
Tonwertkorrektur bearbeitet wurden. Beispielsweise kann so ein gefilmter
Wolkenhimmel zu einem farbigen Effekt-Video werden.
Weitere Möglichkeiten ergeben sich durch Chroma-Key; mit diesem Tool können
bestimmte Farbwerte durch andere ersetzt werden. Dies funktioniert am besten,
wenn Objekt und Hintergrund unterschiedliche Farben haben. Beim Blue-Screen-
Verfahren wird so ein Objekt, das vor einem blauen Hintergrund steht, ausgestanzt
und der Hintergrund wird durch ein neues Bild ersetzt. Bei geringer Auflösung soll
meist kein anderes Hintergrundbild verwendet, sondern der Hintergrund oder das
Objekt selber vereinfacht und eingefärbt werden. Dies lässt sich anhand von drei
Einstellungen realisieren: Es wird ein Farbton ausgewählt und eingestellt, wie fein
die Farben aufgelöst werden sollen, so können beispielsweise alle Farben, die
grünlich sind, zusammengefasst werden. Anschließend wird eine Farbe
ausgewählt, die den eingestellten Farbbereich ersetzt. Somit werden Bereiche, die
einen ähnlichen Farbton haben zu einer einfarbigen Fläche; unwichtige Details und
feine Strukturen werden aus dem Bild entfernt. Das Video sollte mit Chroma-Key
bearbeitet werden, bevor es klein skaliert wird. So können die Objekte besser
voneinander getrennt werden.
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 79
Allerdings muss darauf geachtet werden, das ein Bild durch zusammenfassen der
Farben auch prägnanter wird. Sind prägnante Bestandteile des Bildes nicht mehr zu
erkennen, wie beispielsweise Nase und Augen in einem Gesicht, so wird das
Gesicht auch schwieriger erkannt.
Objekte, die sich klar vom Hintergrund absetzen, werden allgemein deutlicher
erkannt. Dies kann geschehen, indem die Farben verändert oder die Kanten
hervorgehoben werden. Von einigen Herstellern gibt es Video-Plug-Ins zur
Kantenhervorhebung. Die Konturen eines Objekts werden erkannt, indem
benachbarte Pixel miteinander verglichen werden. An harten Farbübergängen
werden die Konturen durch zusätzliche Linien verstärkt. Dieser Effekt hat jedoch
nur Wirkung, wenn die Linien von der Matrix auch wiedergegeben werden können.
Die meisten Cartoons funktionieren sehr gut bei geringer Auflösung. Die Konturen
sind stark betont, hinzu kommen stark gesättigte Farbflächen (siehe Abb. 27).
Anstelle von Plug-Ins können die Einzelbilder eines Videos auch beispielsweise in
Photoshop geladen und mit einem Action-Tool bearbeitet werden. Actions können
mehrere Effekte automatisiert auf ein Bild anwenden; so lassen sich die
Einzelbilder automatisch verändern.
Diese Programme verfügen über Funktionen, mit denen sehr schnell und einfach
pixelgenau gezeichnet werden kann. Dazu gibt es Werkzeuge zum symmetrischen
Zeichnen oder um Objekte mit farbigen Konturen zu umhüllen. Des Weiteren
können auch kachelbasierte Grafiken erstellt werden. Mit ihnen können Bilder aus
vielen einzelnen Bausteinen zusammengesetzt werden.
Zur Animation der Bilder gibt es ebenfalls praktische Werkzeuge. Die Key-Frames
der Objekte können halbtransparent übereinander gelegt werden, so lassen sich die
einzelnen Bewegungsphasen sehr gut zeichnen. Anschließend können die aus-
gewählten Pixel oder Objekte um einzelne Pixel verschoben werden; aus diesem
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 81
Grund werden diese Programme auch Pixel-Pusher genannt. Für bewegte Hinter-
gründe können Texturen mit Endlosschleifen erstellt werden.
Für effektorientiertes Video-Material eignen sich gut abstrakte Bilder. Diese lassen
sich sehr gut mit Video-Plug-ins erzeugen, indem ausgewählte Bilder verändert
oder komplett neue Bilder generiert werden. Mit wenigen Einstellungen können so
komplexe Animationen erstellt werden. Sie generieren sich häufig mit einer
gewissen Eigenständigkeit, bewegen sich jedoch in vorgegebenen Grenzen. Die
Einstellungsmöglichkeiten sind speziell bei Medienservern vereinfacht, damit das
Videomaterial schnell den Anforderungen entsprechend gestaltet werden kann. So
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 82
Ein Partikel-Effekt wandelt Bilder, Videos oder Objekte in kleine Fragmente um,
bildet sie mehrfach ab und kann sie animieren. Dies kann auf einer Ebene entlang
bestimmter Formen oder im Raum geschehen. Mit dieser Methode lassen sich die
unterschiedlichsten Effekte erzeugen. So können beispielsweise Feuer, Ex-
plosionen, Rauch, Wasser, Regen oder Schnee erzeugt werden. Diese Effekte sind
allerdings nur geeignet, wenn die Fragmente groß oder sehr dicht angeordnet sind
und eine Fläche mit Farbe füllen; ansonsten verblassen sie bei geringer Auflösung
und lassen das Bild nur trüb erscheinen. Mit Partikel-Effekten lassen sich jedoch
auch hervorragend einfache Grafiken erstellen.
Eine weitere Technik zur Erstellung von räumlichen Bildern ist eine
Tiefenstaffelung. Ein Bild wird dabei in verschiedene Zonen eingeteilt:
Vordergrund, Mittelgrund und Hintergrund (siehe Abb. 32). Diese Methode eignet
sich sehr gut, um weiterhin flächig zu arbeiten. Die einzelnen Ebenen entsprechen
verschiedenen räumlichen Ebenen und werden hintereinander angeordnet. Bei
Bewegungen in einer solchen Komposition verschieben sich die Ebenen mit
unterschiedlichen Geschwindigkeiten. Aus der Sicht des Betrachters legt ein Objekt,
das weiter entfernt ist, bei gleicher Geschwindigkeit eine geringere Strecke zurück.
Der räumliche Effekt wird verstärkt, wenn die genannten Methoden kombiniert
werden, d. h., indem perspektivische Bilder auf mehreren Ebenen angeordnet oder
flache Bilder in Z-Richtung gekippt und somit ebenfalls verzerrt werden. Für Effekt-
Videos eignen sich einfache Flächen, wie beispielsweise einzelne Balken, die auf
verschiedenen Ebenen im Raum angeordnet und gegeneinander verschoben
werden.
Werden die Ebenen auf der Z-Achse bewegt oder gekippt, wird der räumliche Effekt
durch perspektivische Verzerrungen verstärkt. Sehr gut wirken Kamerafahrten, da
der Blickwinkel auf alle Ebenen gleichzeitig verändert wird. Die Ebenen werden aus
einer Bewegung heraus betrachtet; somit verändern sich alle Positionen und
Proportionen der Ebenen proportional zur Position der Kamera. Bewegung und
Raum können einfach erfasst werden und wirken sehr effektvoll, da alle Objekte
gleichzeitig eine Bewegung beschreiben. Bewegen sich die einzelnen Ebenen
unabhängig voneinander, so wirkt das Bild auch räumlich, jedoch weniger
effektvoll.
Die räumliche Wirkung wird weiter verstärkt, indem die Objekte in einem Bild aus
einer bestimmten Richtung beleuchtet werden. Es ergeben sich Schatten und
Helligkeitsverläufe, das Bild wird plastischer, aber auch gleichzeitig detaillierter.
Bilder mit vielen Details sind aus genannten Gründen weniger geeignet; deshalb
Wahrnehmungsspezifische Wirkung bei niedriger Auflösung 84
In abstrakten Videos wird häufig Licht als zusätzlicher Effekt über das Video gelegt,
so dass Objekte glitzern, einen Schein bekommen oder selbst strahlen. Diese
Effekte sind bei geringer Auflösung jedoch schlecht geeignet, da die sie meist
halbtransparent sind oder sehr dünne Linien bilden.
Wie unter 6.2.5 besprochen, sollte besonders auf die Geschwindigkeit geachtet
werden; dies gilt natürlich auch für Bewegungen auf der Z-Achse. So sind
beispielsweise Schriften, die aus dem Unendlichen kommen, wenig geeignet, da sie
normalerweise sehr schnell herangezoomt werden. Die Größe der Schrift verändert
sich sehr schnell und wirkt ruckhaft.
Video-Loops sollten eine gewisse Länge haben, denn wenn sich die Bilder ständig
wiederholen, werden sie schnell langweilig. Aus diesem Grund werden gerne
Video-Plug-ins benutzt, die gewisse Zufallskomponenten mit einfließen lassen, so
verändern sich die Bilder stetig und wiederholen sich nicht. Bilder können auch
durch analogen Input, wie beispielsweise durch Audiosignale verändert werden; so
ergeben sich ganz neue Möglichkeiten. Bei Visualisierungsprogrammen von Media-
Playern werden so bestimmte Bildeffekte über das Spektrum, die Wellenform oder
die BPM-Zahl gesteuert. Die meisten Standard-Visualisierungen funktionieren nicht
sehr gut bei geringer Auflösung, denn sie sind zu schnell, zu fein strukturiert und
überladen an Effekten. Es gibt jedoch Programme, mit denen Visualisierungen für
Media-Player einfach verändert oder erstellt werden können. Am weitesten
verbreitet ist AVS (Advanced Visualisation Studio); dies ist ein Plug-in für Winamp
zur Visualisierung von Musik, mit dem nach einem Baukastenprinzip
Visualisierungen erstellt oder verändert werden können. Darüber hinaus können
auch neue Effekte programmiert werden, da es über eine Open-Source-Lizenz
erhältlich ist.
Eine Vielzahl weiterer Möglichkeiten ergeben sich, wenn die Bilder von weiteren
Eingangssignalen gesteuert werden, wie zum Beispiel durch Sprache, Bewegung
oder Wetter. So können interaktive Anwendungen realisiert werden. Dazu eignen
sich verschiedene grafische Entwicklungsumgebungen, wie beispielsweise
„Max/MSP“ und „Jitter“ der Firma Cycling'74, die Open-Source Version “Pure Data”
oder “VVVV” der Firma Meso. Dies sind modular aufgebaute, objektorientierte
Programme zur Erzeugung und Manipulation von Video-, Grafik- und
Datenströmen in Echtzeit. Die Programme können Audio-, Video- und
Sensorsignale oder andere offene Standards wie DMX, MIDI, OSC, XML, HTTP, TCP
oder RS 232 ausgeben und als Input verwenden.
Praktischer Teil 86
7 Praktischer Teil
Von den Modulen sind sechs in der Breite und fünf in der Höhe angeordnet. So
ergibt sich eine Auflösung von 48 x 40 Pixel auf einer Fläche von 3 x 2,5 m. Es wurde
absichtlich eine Testwand mit flächigen und klar abgegrenzten Bildpunkten
verwendet. Bei einer Wand mit Lichtquellen die ineinander übersprechen oder man
direkt ins Leuchtmittel sieht, ist die Pixelgröße schwieriger zu definieren.
Angesteuert wurde die Wand mit dem Programmer 3.8 von e:cue.
Versuch 1:
Um die maximale Geschwindigkeit zu testen bei der alle Cues dargestellt werden,
wird ein horizontaler Balken mit einer Stärke von einem Pixel, in 48 Schritten von
Links nach Rechts bewegt, dabei wird die Wartezeit zwischen den Cues verändert.
In der Standardeinstellung wiederholt die Lichtsteuerung das DMX-Signal 30 mal
pro Sekunde. Die maximale Geschwindigkeit ergibt sich bei ca. 0,035 s Wartezeit.
Die eingestellten Zeiten bestätigen die Wiederholungsrate der Steuerung. Bei 48
Cues mit einer Wartezeit von 0,035 s ergibt sich eine Gesamtzeit für den Durchlauf
des Balkens von 1,68 s. Teilt man die 48 Schritte durch 1,68 s, so ergibt sich eine
Wiederholungsrate von 29. Bei kürzeren Wartezeiten werden einzelne Cues
ausgelassen und der Balken fängt stark an zu springen. Die maximale
Geschwindigkeit, bei der alle Cues dargestellt werden können, liegt auf der
Testwand, die mit 30 Hz angesteuert wird, somit bei 1,8 m/s.
Die minimale Geschwindigkeit, bei der bewegte Objekte auf der Testwand
ruckelfrei wahrgenommen werden, hängt stark mit Größe, Form, Kontrast, sowie
den eingestellten Fadezeiten zusammen. Für die Tests werden von verschiedenen
Objekten Bitmaps erstellt mit der Lichtsteuerung animiert und in Cue-Listen
Praktischer Teil 87
umgewandelt. Mit den erstellten Cue-Listen wird die Testwand angesteuert. Dabei
werden die Wartezeiten der Cues so lange verkürzt, bis die Bewegung aus einem
Betrachtungsabstand von sieben Metern, als flüssig wahrgenommen wird. In den
ersten acht Versuchen werden die Cues dabei nicht ineinander übergeblendet.
Versuch 2:
Je größer die Strecken des Umfangs eines Objekts sind, die von der Bewegungs-
richtung abweichen, umso schneller muss das Objekt bewegt werden, um flüssig zu
erscheinen. Dies liegt daran, weil sich mehr Bildpunkte ändern und somit das
Rucken stärker wahrgenommen wird. Im Test werden ein horizontaler und ein
vertikaler weißer Balken über einem nichtleuchtenden Hintergrund von links nach
rechts bewegt. Der horizontale Balken erschient bei einer Geschwindigkeit von 1,2
m/s ruckelfrei, der vertikale Balken bei 1,4 m/s.
Versuch 3:
Die Größe der Fläche eines Objekts ist für eine flüssige Bewegung ebenfalls
relevant. Je mehr Bildpunkte bei einer Bewegung unverändert bleiben, desto
flüssiger wirkt die Bewegung. Ein Balken mit einer Pixelstärke von eins kann im
Versuch mit der oben angegebenen maximalen Geschwindigkeit nicht flüssig
dargestellt werden. Bei jedem Cue werden alle Pixel verändert. Der fünf Pixel starke
Streifen ist bei einer Geschwindigkeit von 1,4 m/s flüssig, der zehn Pixel Streifen bei
1,2 m/s.
Praktischer Teil 88
Versuch 4:
Je geringer der Kontrast zwischen dem bewegten Objekt und Hintergrund, desto
flüssiger erscheint die Bewegung. Ein 3 Pixel starker weißer Balken auf einem
schwarzem Hintergrund muss für eine flüssige Bewegung mit 1,4 m/s bewegt
werden, ein grauer Balken hingegen mit 1,2 m/s. Ist das Objekt und der Hintergrund
farbig, so ist der Kontrast noch geringer, als bei Schwarz auf Weiß. Der rote Streifen
benötigt eine Geschwindigkeit von 1,3 m/s, der hellrote nur 1,1 m/s.
Versuch 5:
Für den nächsten Test werden weichgezeichnete Objekte verwendet. Durch das
Antialiasing ist der Kontrast zwischen Objekt und Hintergrund weniger stark.
Allerdings entstehen durch das Weichzeichnen neue sichtbare Pixel. Wird ein
Objekt mit vielen Blockartefakten bewegt, so wirkt es weniger flüssig. Je mehr
Bildpunkte eines Objekts sich bei einem Cue sichtbar verändern, desto ruckhafter
wirken die Bewegungen. Die Bewegung der weichgezeichneten Kugel wirkt bei
gleicher Geschwindigkeit weniger flüssig.
Versuch 6:
Ist das bewegte Objekt allerdings sehr viel größer als der weichgezeichnete Rand,
so wirkt das Objekt insgesamt flüssiger. Nur der Rand des Objekts hat ein
Flimmern.
Versuch 7:
Je geringer die Kontraste zwischen den Pixeln, umso mehr verschwindet das
Flimmern und die Bewegung wird flüssiger. Die besten Ergebnisse werden mit
großen, einfarbigen, leicht weichgezeichnet Flächen erzielt, die über einen farbigen
Hintergrund bewegt werden.
Versuch 8:
Für eine weiche Bewegung kann ein Objekt mit Motion Blur bearbeitet werden. So
wird nur in der Bewegungsachse weich gezeichnet. Im Gegensatz zum normalen
Antialiasing bleibt hierbei das Objekt insgesamt schärfer. Die Stärke der
Bewegungsunschärfe muss allerdings auf die Geschwindigkeit angepasst werden,
da sonst die Form des Objekts verfälscht wird. Aus der Kugel wird ein Oval. Aus
diesem Grund hat Motion Blur bei langsamen Bewegungen kaum eine Wirkung.
Versuch 9:
Deutlich bessere Ergebnisse können erzielt werden, wenn mit Fades gearbeitet wird
und die Cues ineinander geblendet werden. Wird im Tracking-Modus (Differenz-
Programmierung) programmiert, so werden die besten Ergebnisse erzielt, wenn die
Fade-In-Zeit gleich der Warte-Zeit ist. Im Tracking-Mode bleibt eine Lampe solange
auf dem von einem Cue gesetzten Wert bis ein anderer Cue für diese Lampe einen
neuen Wert setzt. Somit kann die Fade-Out-Zeit nicht länger als die Fade-In-Zeit
sein. Bei der Bewegung eines Balkens mit einer Stärke von einem Pixel ergibt sich
folgendes Bild. Steht der Cue, so ist für kurze Zeit nur ein Balken zu sehen,
während der Fades kommt ein zweiter Balken hinzu. Die Bewegung wirkt flüssiger,
jedoch bewegt sich der Balken vergleichbar mit einer Raupe, die Breite des Balkens
variiert immer um einen Bildpunkt. Die Bewegung von einem Bildpunkt zum
anderen ist sanfter, jedoch bleibt sie deutlich sichtbar.
Damit die Sprünge zwischen den Bildpunkten weniger deutlich zu sehen sind,
muss die Größe des bewegten Objekts konstant erscheinen und die raupenhafte
Bewegung innerhalb des Objekts stattfinden. Dies ist möglich, wenn die Fades sich
über mehrere Cues erstrecken. Dadurch, das mehrere Cues aktiv sind, hat das
Objekt Bewegungsunschärfe in beiden Richtungen und wirkt somit flüssiger, da der
Kontrast an den Rändern bei Bewegungen verringert wird. Am vorherigen Beispiel
würde dies bedeuten, der hintere Balken wird ausgeblendet, der mittlere hat die
höchste Intensität und der vordere wird eingeblendet.
In den Versuchen werden die besten Ergebnisse erzielt, wenn die Fade-Out-Zeiten
der Cues drei mal länger sind, als die Fade-In- und Wartezeiten.
Praktischer Teil 91
Bei kürzeren Fade-Out-Zeiten ist der letzte Cue schon so weit ausgeblendet, dass er
kaum noch zu erkennen ist und der erste schon zu hell. Die Bewegung wird immer
noch raupenhaft empfunden. Bei längeren Fade-Out-Zeiten zieht das Objekt einen
Schleier hinter sich her. Die Stärke der Bewegungsunschärfe hinter einem Objekt
kann mit Hilfe der Fade-Out-Zeiten variiert werden. Die Bewegungsunschärfe vor
einem Objekt entsteht durch den Fade in den nächsten Cue und ist deshalb auf
einen Schritt begrenzt. Für noch weichere Übergänge in Bewegungsrichtung muss
das Objekt an sich weichgezeichnet sein. Die flüssigsten Bewegungen wurden mit
weichgezeichneten Objekten und dreifacher Fade-Out-Zeit erzielt.
Die Videos werden nacheinander mit dem UFGM-Player abgespielt und steuern
eine 8 x 8 große Matrix an; dabei wird die CPU-Auslastung des UFGM-Players mit
Praktischer Teil 92
dem „Process Explorer“ gemessen. Der UFGM-Player ist bei den Tests auf dem
Desktop geöffnet.
WMV V7 .wmv 9 25 P 20 29
Die grüne Linie in den Graphen gibt die CPU-Auslastung in Prozent an, die Höhe
der Diagramme entspricht 100 %. Auffällig ist, dass bei manchen Codecs zu Beginn
ein Peak auftritt (in der Tabelle mit P für großer Peak, P für kleiner Peak
gekennzeichnet). Es wird eine erhöhte Rechenleistung benötigt, was dazu führen
kann, dass die Bildrate für kurze Zeit einbricht. Damit verschiedene Videos flüssig
hintereinander abgespielt werden können, sollte ein System nicht an der Grenze
seiner Rechenleistung betrieben werden. Die auftretenden Peaks sind kein
spezielles Problem des UFGM-Players; in anderen Mediaplayern treten diese
ebenfalls auf.
1 2 3 4 5
Praktischer Teil 94
6 7 8 9 10
11 12 13 14
15 16 17 18 19
20 21 22
23 24 25 26 27
Praktischer Teil 95
28 29
30 31
Die Peaks, die bei manchen Codecs zu Beginn auftreten, hängen vermutlich damit
zusammen, dass die entsprechenden Codecs geladen werden müssen. Im
folgenden Test wird eine Datei im WMV V7 Codec zuerst geloopt (1, 2) und
anschließend zweimal die gleiche Datei in die Play-Liste geladen und
hintereinander abgespielt (3, 4). Wird das Video geloopt, so tritt nur zu Beginn ein
Peak auf. Werden die Videos hintereinander abgespielt so treten die Peaks zu
Beginn eines jeden Videos auf.
1 2 3 4
Die Dateigröße wirkt sich nur in geringem Maße auf den Rechenaufwand aus. Im
folgenden Test wird eine Video-Sequenz mit zwei unterschiedlichen Bitraten
codiert. Beide Videos haben eine Auflösung von 720 x 576 und befinden sich in
einem AVI-Container mit einem Cinepak-Codec. Die erste Sequenz wird mit einer
Bitrate von 20.000 kBit/s gewandelt, sie hat eine Dateigröße von 198 MB. Die zweite
wied mit 256 kBit/s gewandelt und hat eine Größe von 35 MB. Die CPU-Auslastung
ist bei der kleineren Datei um ca. 4% geringer.
Ob das Video in Progressive oder Interlaced codiert wird, hat keine merklichen
Auswirkungen auf die Performance. In folgendem Test wird das gleiche Video mit
MPEG 2 und den Einstellungen NTSC Progessiv (1), NTSC Interlaced Bottom Field
First (2), NTSC Interlaced Top Field First (3) codiert und die Ergebnisse nach-
einander abgespielt.
1 2 3
Die Einstellungen über die Group of Pictures (GOP) haben ebenfalls keine
merklichen Auswirkungen auf die Performance. Beide Dateien sind mit den
Einstellungen MPEG 1, NTSC und Progessiv codiert. Die erste Datei hat eine GOP von
30, die zweite eine GOP von 6.
Praktischer Teil 97
1 2
Für den UFGM-Player eignet sich besonders MPEG 1 oder 2, Indeo 4.5 und XviD als
AVI-Datei oder Xvid im Quicktime-Format. Diese Codecs haben einen guten
Komprimierfaktor, benötigen durchgehend wenig Rechenleistung und haben dabei
eine gute Bildqualität. Cinepak und Microsoft Video V 1 benötigen zwar weniger
Rechenleistung. Sie haben jedoch bei gleichem Komprimierfaktor eine erheblich
schlechtere Bildqualität.
Beispiel: Lichtinstallation „Kubik“ 98
Aufgrund der großen Bildpunkte sind die Bewegungen bei den meisten
Geschwindigkeiten sehr ruckhaft, dies ist aber kein Problem, da nur abstrakte
Formen dargestellt werden und die überdimensionalen Bildpunkte ästhetisches
Stilmittel dieser Installation sind. Weiche Bewegungen lassen sich am besten durch
sehr langsame Geschwindigkeiten und Überblendungen realisieren. In der
Horizontalen sind die Bewegungen flüssiger, da das Licht der Container, in die
horizontal benachbarten Kuben hinein streut.
9 Ausblick: 3-D-Matrix-Steuerung
Kubik ist eine dreidimensionale Installation, die Steuerung erfolgt jedoch auf
zweidimensionaler Ebene. Dies funktioniert sehr gut, da der Raum durch einfaches
Falten der Matrix-Fläche gebildet werden kann. Es sind jedoch auch Installationen
vorstellbar mit mehreren Ebenen hintereinander. Dies kann beispielsweise mit
durchsichtigen LED-Vorhängen realisiert werden. Eine Vorraussetzung für
dreidimensionale Installationen ist, dass alle Pixel gesehen werden können,
deshalb muss der Abstand zwischen den Leuchten groß genug oder die
Leuchtkörper durchsichtig sein.
Eine große Erleichterung ist es, wenn den Sektionen Ebenen zugeordnet werden, so
können die Pixel durch X-, Y-, und Z-Koordinaten beschrieben werden. Zum
Programmieren könnte man zwischen verschiedenen Ebenen umschalten. Es wird
beispielsweise eine Linie ausgewählt und durch Umschalten kann die Ebene
bearbeitet werden, die im rechten Winkel zu dieser Line und zur momentanen
Ebene steht. Für eine Ansicht zur Vorschau der Lichtstimmungen würde sich eine
isometrische Darstellung mit halbtransparenten Pixeln eignen. Um das
Programmieren zu erleichtern, eignen sich wieder Pixel-Pusher-Funktionen. So
können markierte Flächen oder Objekte jeweils um ein Pixel verschoben, um eine
Achse rotiert oder vergrößert werden.
Nach dem gleichen Prinzip könnte die Matrix auch mit Effekten bespielt werden. So
das beispielsweise eine Sinusfunktion auf die einzelnen Sektionen verzögert
angewendet wird. So ergeben sich wellenförmige Bewegungen innerhalb des
gesamten Objekts.
Ein weiterer Schritt wäre eine Ansteuerung mittels 3-D-Objekten. Die Objekte
können in einem 3-D-Program erstellt, mit Farbe gefüllt oder mit Texturen belegt
und animiert werden. Diese Daten könnten an die Lichtsteuerung weiter gegeben
werden und die Leuchten steuern. So können jegliche Formen und Bilder relativ
einfach erstellt werden. Diese Form der Steuerung scheint mir allerdings etwas
überdimensioniert. Zum einen, da die Auflösungen bei den meisten Installationen
relativ begrenzt ist. Zum anderen geht dabei der Reiz der an speziellen
Steuertechniken und den daraus resultierenden Ergebnissen verloren. Eine Vielzahl
von Funktionen und Steuermöglichkeiten bedeuten nicht unbedingt bessere
Ergebnisse. Mit wenigen Funktionen, die gut beherrscht werden, können meist
bessere Ergebnisse erzielt werden. So kann der Fokus auf die wesentliche Aussage
und das Design gelegt.
Abkürzungsverzeichnis 102
Abkürzungsverzeichnis
ACN Advanced Control Network
IP Internet Protokoll
Tabellenverzeichnis
Tabelle 1: Aufbau des DMX-Signals .....................................................................10
Quelle: http://www.soudlight.de
Tabelle 2: Ethernet Varianten ...............................................................................14
Tabelle 3: Netzwerk- und Geräteteil der IP-Adresse..........................................17
Quelle: http://www.iana.org/
Tabelle 4: Private und spezielle IP-Adressen ......................................................18
Tabelle 5: Dateiformate .........................................................................................28
Tabelle 6: Videoauflösungen.................................................................................32
Tabelle 7: Video Codecs - Performance .............................................................92
Abbildungsverzeichnis 104
Abbildungsverzeichnis
Abbildung 1: Aufbau des DMX-Signals................................................................10
Abbildung 2: Daisy Chain, Merger, Splitter .........................................................11
Abbildung 3: Repeater Regel .................................................................................13
Abbildung 4: Treppeneffekt, Moiré-Effekt...........................................................30
Abbildung 5: Zuordnung Screen-ID – DMX-Adresse..........................................34
Abbildung 6: Matrix mit Lampen unterschiedliche Auflösung ........................35
Abbildung 7: Sinus angewendet auf eine Gruppe von 16, 8 und 14
Bildpunkten.............................................................................................................37
Abbildung 8: Macro-Programme Plasma-Efekt, Tetris und Equalizer .............45
Abbildung 9: Blockbildung, Abtastpunkte...........................................................50
Abbildung 10: Bilineare Interpolation..................................................................52
Abbildung 11: Nearest-Neigbour-, bilineare und bikubische
Interpolation ...........................................................................................................52
Abbildung 12: Mit und ohne Trennwänden zwischen den LEDs .....................57
Abbildung 13: Anordnungen von Matrix-Leuchten 2 x 2 und 3 x 3 .................59
Abbildung 14: Füllfaktor, Tiling ............................................................................59
Abbildung 15: Sehwinkel und Betrachtungsabstand A .....................................62
Abbildung 16: Gestaltgesetze................................................................................64
Abbildung 17: Kontrastumfang bei unterschiedlicher Umgebungshelligkeit 66
Abbildung 18: Schrifttyp PF Proton ......................................................................67
Abbildung 19: Windows XP Icon, 16 x 16, 32 x 32 und 64 x 64 Pixel ................67
Abbildung 20: Blinkenlights Movie „surprise“ ....................................................68
Quelle: http://www.blinkenlights.de/gallery/surprise.de.html
Abbildung 21: Piktogramm....................................................................................68
Abbildung 22: Diagonale bei geringer Auflösung ...............................................71
Photo: Robert Ostmann
Abbildung 23: Windows XP Icon Adressbuch 32 x 32........................................75
Abbildung 24: Original, erhöhter Kontrast, erhöhte Sättigung .......................77
Abbildung 25: Tonwertkorrektur..........................................................................78
Abbildung 27: The Simpsons, Southpark ............................................................79
Abbildung 28: Cartooner........................................................................................80
Abbildung 29: Pixel-Art, perfekte Pixel-Linien ...................................................81
Quelle: http://eboy.com
Abbildung 30: Plasma.............................................................................................82
Abbildung 31: Partikel............................................................................................82
Abbildung 32: Vordergrund, Mittelgrund, Hintergrund (South Park) ..............83
Abbildung 33: Lichteffekte ....................................................................................84
Abbildung 34: Kaleidoskop, Fraktale....................................................................84
Abbildungsverzeichnis 105
Anhang A
9.6 Beleuchtete Werbeanlagen und Wechsellichtanlagen
Unter Wechsellicht ist eine Veränderung der Lichtquelle durch Aufleuchten oder
Verlöschen oder durch Wechsel der Farbgebung oder der Lichtstärke zu verstehen,
die eine städtebaulich unerwünschte Unruhe bewirkt. Auch andere technische
Lösungen, die das typische Erscheinungsbild des Wechsellichtes erzeugen sind der
13
Wechsellichtwerbung zuzurechnen . In diesem Sinne sind auch Lauflichtanlagen,
Videowände oder Media Boards Wechsellichtwerbeanlagen.
Anhang B
Anhang B 108
Anhang B 109
[TT06]
Literaturverzeichnis 110
Literaturverzeichnis
[AL04] Artistic Licence, Specification for the Art-Net II Ethernet Communication
Standard, Release V1.4, Document Revision AA 1/4/04,
abgerufen am 22.01.07
[ETSP05] ESTA TSP E.1.17: ACN Architecture, ESTA TSP Document Ref. CP/2003-
1007R4. http://www.estafoundation.org/, abgerufen am 20.01.07, Seite 1-9
[RA78] Rudolf Arnheim, Kunst und Sehen, Neufassung, 1978, de Gruyter & Co.,
ISBN 3-11-006682-3
[TT06] Traxon Technologies, 2006, Datenblatt Tile 64PXL Matrix, Version 1.5