Sie sind auf Seite 1von 314

Kathrin Fahlenbrach

Medien,
Geschichte und
Wahrnehmung
Eine Einführung in
die Mediengeschichte
Medien, Geschichte und Wahrnehmung
Kathrin Fahlenbrach

Medien, Geschichte
und Wahrnehmung
Eine Einführung in
die Mediengeschichte
Kathrin Fahlenbrach
Institut für Medien und Kommunikation
Universität Hamburg
Hamburg, Deutschland

ISBN 978-3-658-19759-9 ISBN 978-3-658-19760-5  (eBook)


https://doi.org/10.1007/978-3-658-19760-5
Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen National­
bibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Springer VS
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Verwertung, die
nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der vorherigen Zustimmung
des Verlags. Das gilt insbesondere für Vervielfältigungen, Bearbeitungen, Übersetzungen,
Mikroverfilmungen und die Einspeicherung und Verarbeitung in elektronischen Systemen.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem
Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche
Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten
wären und daher von jedermann benutzt werden dürften.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informa­
tionen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind.
Weder der Verlag noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder
implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt
im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten
und Institutionsadressen neutral.

Verantwortlich im Verlag: Barbara Emig-Roller

Springer VS ist ein Imprint der eingetragenen Gesellschaft Springer Fachmedien Wiesbaden GmbH
und ist ein Teil von Springer Nature.
Die Anschrift der Gesellschaft ist: Abraham-Lincoln-Str. 46, 65189 Wiesbaden, Germany
Meinen Eltern

V
Vorwort

Wie adressieren Fotografien, bewegte Bilder, Klänge und Audiovisionen in Filmen,


Fernsehsendungen oder Computerspielen unsere Wahrnehmung, Emotionen, und
Imagination? Diese Frage durchzieht meine Forschung und Lehre seit vielen Jahren,
besonders aus der Perspektive kognitiver Film- und Medienwissenschaft. Im Fokus
stehen dabei wiederkehrende Ausdrucksformen und Konventionen unterhaltender
und informierender Medien, deren Ziel es ist, unsere Sinne und Erleben auf inten-
sive Weise anzusprechen. In meiner Lehre verfolge ich diese Frage seit einer Weile
auch aus historischer Perspektive: welche Adressierungsstile- und Techniken haben
sich in unterschiedlichen Medien zu verschiedenen Zeiten ausgebildet? Diese Frage
bietet Studierenden nicht nur einen anschaulichen Zugriff auf Mediengeschichte.
Indem hiermit ein zentraler Gegenstand medienwissenschaftlicher Forschung im
Mittelpunkt steht, besonders mit Blick auf Medienästhetik, Medientechnik und
grundsätzliche Mediendefinitionen, verbindet sich hiermit auch eine Einführung
in das Fach. Bewährt hat sich dieser Zugriff besonders in meiner langjährigen Vor-
lesung zur „Wahrnehmungsgeschichte der Medien“ an der Universität Hamburg,
aus der die vorliegende Einführung in die Mediengeschichte wesentlich hervor geht.
Ich danke dem Springer VS-Verlag und besonders Barbara Emig-Roller für
die Einladung, mit diesem Einführungsbuch zu ihrer Reihe der medien- und
kommunikationswissenschaftlichen Lehrbücher beizutragen. Ihre geduldige und
konstruktive Begleitung habe ich sehr geschätzt. Ebenso danke ich den Kollegin-
nen und Kollegen am Institut für Medien und Kommunikation der Universität
Hamburg für wertvolle Diskussionen und Hinweise. Katharina Diekman danke
ich für umfangreiche Recherchearbeiten sowie für ihre engagierten und hilfreichen
Lektüreeindrücke aus studentischer Perspektive. Julia Schumacher war mit ihrem
sorgfältigen fachlichen Lektorieren eine wertvolle Begleiterin dieses Buchprojektes,
der ich für ihre umsichtigen sprachlichen Korrekturen und kenntnisreichen Hinweise
danke. Axel Meintker danke ich dafür, dass er in den letzten Jahren an meiner Seite

VII
VIII Vorwort

das Buch in vielen Gesprächen, sowie durch seine zahlreichen Leseeindrücke und
nicht zuletzt durch seine fotografische Unterstützung bereichert hat.
Inhalt

Vorwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . VII

Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Einige allgemeine Voraussetzungen von Mediengeschichten . . . . . . . . . . . . . 2
Prämissen und Ziele der Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
Zur Struktur der Einführung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1 Medien des Sprechens und Hörens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19


1.1 Zur Medialität der Stimme und des Sprechens . . . . . . . . . . . . . . . . . . . . 19
1.2 Medien des öffentlichen Sprechens und Hörens in der
antiken Rhetorik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.3 Apparative Medien des Sprechens und Hörens
in der Neuzeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.3.1 Mechanische Medien des Sprechens und Hörens . . . . . . . . . . . . 31
1.3.2 Elektronische Medien des Fern-Sprechens und
Fern-Hörens: Telefon und Radio . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.3.3 Digitale Online-Medien des Fern-Sprechens und
Fern-Hörens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

2 Medien des Schreibens und Lesens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73


2.1 Zur Medialität von Schrift . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
2.2 Medien des Schreibens und Lesens
in Manuskriptkulturen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
2.2.1 Schreiben und Lesen in Manuskriptkulturen der Antike . . . . . 79
2.2.2 Schreiben und Lesen in Manuskriptkulturen
des Mittelalters . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

IX
X Inhalt

2.3 Medien des Schreibens und Lesens in Druckkulturen . . . . . . . . . . . . . 88


2.3.1 Schreiben und Lesen in Druckkulturen der
Frühen Neuzeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
2.3.2 Schreiben und Lesen in Druckkulturen der Neuzeit . . . . . . . . . 92
2.4 Medien des Schreibens und Lesens in Digitalkulturen . . . . . . . . . . . . 102
2.4.1 Zur Geschichte und Medialität des Computers . . . . . . . . . . . . 103
2.4.2 Digitale Medien des Schreibens und Lesens . . . . . . . . . . . . . . . 114

3 Medien des Zeigens und Sehens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121


3.1 Zur Medialität von Bildern als Medien des Zeigens und Sehens . . . . 122
3.2 Medien des Zeigens und des Sehens in analogen Bildmedien . . . . . . 127
3.2.1 Medien des Zeigens und Sehens in der Frühgeschichte . . . . . 127
3.2.2 Medien des Zeigens und Sehens in der Antike . . . . . . . . . . . . . 130
3.2.3 Medien des Zeigens und Sehens im Mittelalter . . . . . . . . . . . . 133
3.2.4 Medien des Zeigens und Sehens in Früher Neuzeit . . . . . . . . . 137
3.3 Analoge Medien fotografischen Zeigens und Sehens . . . . . . . . . . . . . 145
3.4 Digitale Medien fotografischen Zeigens und Sehens . . . . . . . . . . . . . . 163
3.4.1 Mediale Spezifika digitaler Bilder . . . . . . . . . . . . . . . . . . . . . . . . 163
3.4.2 Digitale Medien des Zeigens und Sehens . . . . . . . . . . . . . . . . . . 166

4 Medien der Audiovision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179


4.1 Zur Medialität bewegter Klangbilder . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
4.2 Analoge Medien der Audiovision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
4.2.1 Mechanische Medien zeitbasierter Audiovision:
Laterna Magica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
4.2.2 Analoge Medien filmischen Sehens: Kinematograf,
Film, Kino . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
4.2.3 Analoge Medien filmischer Audiovisualität . . . . . . . . . . . . . . 220
4.3 Elektronische Medien der Audiovision: Fernsehen, Video . . . . . . . . 233
4.4 Digitale Medien der Audiovision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268
4.4.1 Zur Medialität digitaler Audiovision . . . . . . . . . . . . . . . . . . . . 268
4.4.2 Digitale Medien der Audiovision im historischen Wandel . . . 275
Einleitung
Einleitung
Einleitung

Medien prägen seit ihren historischen Anfängen die Art, wie wir unsere Welt wahr-
nehmen und miteinander kommunizieren. Bereits mit der Erfindung der Schrift
veränderten sich die Kommunikations- und Wahrnehmungsverhältnisse grund-
legend: Gedanken und Ideen werden seitdem nicht mehr nur mündlich zwischen
Personen ausgetauscht, sondern wurden schriftlich fixierbar und optisch rezipierbar.
Damit entstanden mediale Wahrnehmungs- und Kommunikationsformen, wie erst
das laute und dann das leise Lesen. Wissen wurde durch Schrift archivierbar und
seit dem Buchdruck für immer mehr Menschen zugänglich.
Die Geschichte der Medien, ihrer Techniken und Ausdrucksformen ist dabei
gleichzeitig geprägt von Prozessen der Ab- und Aufwertung des Körpers (vgl.
Böhme 2001). Bereits frühe Druck- und Speichermedien – und erst recht elek­
tronische und digitale Medien – ermöglichen Kommunikation unabhängig von
körperlicher und raum-zeitlicher Ko-Präsenz. Kulturtechniken wie das Lesen,
aber auch der Kinobesuch oder das tele-mediale Fern-Sehen beanspruchen hohe
Aufmerksamkeit in weitgehend immobilen Körperhaltungen. Damit reduzieren
sie die körperliche Aktivität der Rezipienten auf die Teilnahme durch einzelne
Sinne, Emotionen und innere Vorstellung. Historisch lässt sich somit die Tendenz
zu einer sich steigernden Fragmentierung der Wahrnehmung und des körperlich
ganzheitlichen Erlebens im Kommunizieren durch Medien ausmachen. Dies gilt
bereits für die optische Speicherung von Ideen in Schrift oder Bild. Erst recht spätere
Speicher- und Übertragungsmedien (wie Telefon, Kino, Rundfunk oder Computer)
haben immer wieder einer Trennung von Körper und Aussage (in Sprache, Bild
oder Audiovision) Vorschub geleistet und das Gegenüber virtualisiert – ihn also
seiner körperlichen Präsenz im Akt des Kommunizierens beraubt. Diese relative
Ent-Körperlichung der Medienrezeption wurde schon früh kompensiert durch
immer ausgefeiltere Medientechniken und Strategien der sinnlichen und affektiven
Adressierung von Imagination und Wahrnehmung. Diese zielten kontinuierlich
darauf ab, die fehlende körperliche Präsenz und Ganzheitlichkeit von Kommu-
1
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019
K. Fahlenbrach, Medien, Geschichte und Wahrnehmung,
https://doi.org/10.1007/978-3-658-19760-5_1
2 Einleitung

nikationspartnern durch Medientechnik und Ausdrucksformen auszugleichen,


wenn nicht gar zu nivellieren.
Die Tendenz unterschiedlicher Kommunikationsmedien, die mentale, affek-
tive und körperliche Wirkung bei ihren Adressaten zu beeinflussen, steht im
Mittelpunkt dieser Mediengeschichte. Dabei soll gezeigt werden, dass nicht nur
medienspezifische, sondern auch medienübergreifende Techniken und gestalterische
Ausdrucksformen entstanden sind, was gerade mit Blick auf unser digitales Zeit-
alter besonders relevant ist. Die Entwicklung von Einzelmedien wie Buch, Telefon,
Film oder Computer wird daher im Rahmen historisch übergreifender medialer
Formationen der Sinnesadressierung dargestellt: (1.) Medien des Sprechens und
Hörens, (2.) Medien des Schreibens und Lesens, (3.) Medien Zeigens und Sehens,
(4.) Medien der Audiovision.

Einige allgemeine Voraussetzungen von Mediengeschichten

Die Beschäftigung mit kommunikativen Medien ist ausgesprochen voraussetzungs-


reich. Dies gilt erst Recht für die Beschäftigung mit ihrer Geschichte, weil diese
immer auf einer Reihe von konzeptuellen Vorentscheidungen basiert. Die Geschichte
der Medien kann aus ganz unterschiedlichen Perspektiven dargestellt werden: als
eine Geschichte ihrer apparativen Techniken (z. B. Flichy 1994, Hiebel et al. 1999,
Kittler 1987; 1999, Zielinski 2002), ihrer ästhetischen Formen (z. B. Schnell 2000,
Crary 1996), ihrer Institutionen (z. B. Bausch 1980, Kleinsteuber 1982), oder als die
Geschichte von Einzelmedien wie Film oder Fernsehen (z. B. Gunning 1990, Elsaesser
1990, Bordwell 2010, Engell 1992, Segeberg 1996, Bleicher 1992, Hickethier 1993,
Zielinski 1993, Ruchatz 2003). Bereits diese kurze Auswahl macht deutlich, dass den
jeweiligen Mediengeschichten immer ein besonderes Erkenntnisinteresse an spezi-
fischen Aspekten von Medien zugrunde liegt. Zur allgemeinen Orientierung und
zur Verortung dieser Mediengeschichte hilft es, sich eingangs die Vielschichtigkeit
des Medienbegriffes auf systematische Weise vor Augen zu führen.
Medien lassen sich sehr weit auffassen. In seiner allgemeinen Wortbedeutung
bezeichnet (lat.) Medium eine ‚Mitte‘ oder ‚einen Mittelpunkt‘ bzw. (von lat. medius)
etwas Vermittelndes, in der Mitte Befindliches (vgl. Duden 2017). Im Alltagsge-
brauch und in unterschiedlichen wissenschaftlichen Diskursen beschreibt der
Begriff ‚Medium‘ (bzw. ‚Medien‘) jedoch ganz unterschiedliche Phänomene. Eine
Typologie der verbreitetsten wissenschaftlichen Medienbegriffe hat der Zeichen-
theoretiker Roland Posner (1985) erstellt. Für unseren Kontext sind insbesondere
jene interessant, die den Bezug zur menschlichen Kommunikation spezifizieren:
Einleitung 3

1. Physikalischer Medienbegriff: Bezug auf ein physikalisches Medium der Ver-


mittlung, z. B. „Schall-Medien“, „Licht-Medien“, „elektronische Medien“, oder
„digitale Medien“.
2. Biologischer Medienbegriff: Bezug auf vermittelnde Sinnesorgane, mit denen
Informationen aufgenommen werden, z. B. „visuelle“-, „akustische“-, „audio-
visuelle Medien“.
3. Technischer Medienbegriff: Bezug auf technische Apparaturen der Vermittlung,
z. B. „Druckmedien“, „Rundfunkmedien“, oder „Online-Medien“
4. Kultureller Medienbegriff: Bezug auf kulturelle Konventionen als Medien der
Vermittlung, z. B. „Mediengenre“, „Mediengattungen“ oder „Medienprogramme“.

Einige dieser Medienbegriffe können auch weitgehend unabhängig von menschlicher


Kommunikation aufgefasst werden: Prozesse der biologischen, physikalischen oder
technischen Signalübertragung und Informationsverarbeitung in der Medizin, der
Physik oder im Maschinenbau. Sowohl für die Medien- als auch für die Kommuni-
kationswissenschaften sind dagegen vorwiegend jene Aspekte medialer Vermittlung
von Interesse, die Bestandteil menschlicher Kommunikation sind. Medien der
Kommunikation können dabei sowohl körperbasiert sein (etwa die gesprochene
Sprache oder nonverbale Körpersprache) als auch technisch-­apparativ (wie das
Radio); sie können ebenso zwischen Einzelnen vermitteln (in der interpersonalen
Kommunikation, z. B. Gespräche), wie zwischen Vielen (in der massenmedialen
Kommunikation, etwa mittels Fernsehen), und sie sind durchweg kulturell geprägt.
Alle dieser Aspekte können aber auch ineinandergreifen (wie die gesprochene
Sprache im Massenmedium Radio).
Die Engführung auf Kommunikation macht die Unterscheidung von Medien-
begriffen also keineswegs einfacher. Vielmehr zeichnen sich gerade Medien der
menschlichen Kommunikation durch eine ausgeprägte Vielschichtigkeit aus. Dies
ist zentraler Gegenstand medienwissenschaftlicher Forschung und Lehre, wobei
die Unterscheidung und Definition verschiedener Medienbegriffe wesentlich zur
Ausbildung unterschiedlicher Fachdiskurse beigetragen hat (z. B. Medienphilosophie,
Medienästhetik, Medientechniktheorie, Mediensoziologie, Medienkulturwissen-
schaft oder Einzelmedienforschung; vgl. hierzu auch Schröter 2014). Dabei gibt es
innerhalb der Medienwissenschaft eine übergreifende Tendenz, in die sich auch diese
Mediengeschichte einfügt, den Fokus im engeren Sinne auf Medien zu legen, bei
denen menschliche Kommunikation über technische Apparaturen vermittelt wird.
In seiner prominenten Typologie unterscheidet etwa Harry Pross (1970) Medien
danach, in welchem Ausmaß sie technische Apparaturen in den Kommunika­
tionsprozess einbinden:

3
4 Einleitung

1. Primäre Medien: Medien des menschlichen Elementarkontaktes, die keinerlei


apparative Technik implizieren, wie Stimme, Mimik, Gestik und andere Aspekte
der Körpersprache.
2. Sekundäre Medien: Medien, die auf einer technischen Apparatur zum Herstellen
kommunikativer Zeichen beruhen, die ohne technische Apparatur rezipiert
werden können, wie Schrift, Druckmedien, Musik, Flaggen oder Grafiken.
3. Tertiäre Medien: Medien, die zur Produktion und Rezeption kommunikativer
Zeichen technische Apparaturen voraussetzen, wie Schallplatte, Telefon, Film,
Fernsehen, Radio oder Computer (vgl. Harry Pross 1970).

Die tertiären Medien stehen immer wieder im Zentrum medienwissenschaftlicher


Forschung und Lehre, da sie besonders vielschichtig und voraussetzungsvoll sind.
Als technisch-apparativen Medien zeichnen sie sich durch ein Ineinandergreifen
verschiedener medialer Strukturen aus, die sich im Anschluss an Siegfried J. Schmidt
und Guido Zurstiege (2007) folgendermaßen unterscheiden lassen:

1. Kommunikationsinstrumente als Zeichensysteme, die zur Kommunikation


genutzt werden (z. B. Sprache, Bilder, Musik, gestaltete Klänge)
2. Medientechniken um Medienangebote bzw. Medienprodukte herzustellen
(Druckerpresse, Fotoapparat, Filmkamera, Computer etc.)
3. Institutionelle Einrichtungen, die Medientechniken und -angebote produzie-
ren, verwalten, finanzieren und juristisch vertreten (z. B. Verlage, Filmstudios,
Rundfunkanstalten, Medienunternehmen etc.)
4. Medienangebote, die als Medienprodukte auf dem Zusammenwirken aller dieser
Faktoren basieren (z. B. als Bücher, Zeitungen, Filme, Fernsehsendungen oder
Blogs)

Auch wenn diese Strukturen unterschiedlich ausgeprägt sind, lassen sie sich doch
bei allen tertiären, technisch-apparativen Medien beobachten, welche die Kom-
munikation in westlichen Gesellschaften nachhaltig geprägt haben und prägen.1
Damit ist eine weitere Engführung dieser Mediengeschichte benannt, die ebenfalls
repräsentativ für einen breiten Bereich der Medienwissenschaft ist: im Fokus stehen
hier technisch-apparative Medien, die sowohl die zwischenmenschliche als auch
die öffentliche Kommunikation im Laufe der Geschichte wesentlich beeinflusst
haben: Medien der interaktiven Kommunikation wie Telefon, Internet und Com-

1 Spezifischere Unterscheidungen, v. a. mit Blick auf Wahrnehmungsstrukturen und


kommunikativen Funktionen der hier vorgestellten Medien finden sich zu Beginn eines
jeden Kapitels.
Einleitung 5

puter, sowie der massenmedialen Kommunikation wie Druckmedien, Rundfunk,


Film und Internet.
Mit Blick auf die hier im Vordergrund stehende Frage, wie sich mit kommunika-
tiven Medien im Laufe der Geschichte verschiedene sinnesbasierte Ausdrucksfor-
men und Medientechniken ausgebildet haben, ist daneben die Unterscheidung von
Basismedien hilfreich. Gemeint sind damit jene Medien, die in einem körperlichen
Zusammenhang mit der menschlichen Kommunikation stehen und in historisch
variabler Weise technisch, ästhetisch und funktional in Erscheinung treten: etwa
die Stimme, die Sprache, das Bild oder die Geste. In der Medienwissenschaft gibt
es unterschiedliche Vorschläge zur Typologisierung von Basismedien, immer auch
abhängig vom jeweiligen Erkenntnisinteresse (vgl. Venus 2014). Allgemein können
sie mit Jochen Venus folgendermaßen definiert werden: „Basismedien sind elemen-
tare Mittel der menschlichen Kommunikation. Sie konstituieren – technik- und
kulturspezifisch geformt, genretypisch kombiniert und institutionell eingebettet
– historisch manifeste mediale Praktiken.“ (Venus 2014, S. 215)

Neben der Schwerpunktsetzung und der Definition von Begriffen ist ein weiterer
Aspekt für Mediengeschichtsschreibung grundlegend: die Erklärung von historischen
Entwicklungszusammenhängen. Während die Darstellung von Mediengeschichte
häufig mit objektivierenden Effekten verbunden ist, also als Faktenwissen daher-
kommt, beruht sie immer auf einer spezifischen Auswahl und Perspektivierung des
Dargestellten. Auf dieser Grundlage werden kausale Zusammenhänge zwischen
ausgewählten Ereignissen und Prozessen aus Vergangenheit und Gegenwart kon­
struiert – die nie letztgültig belegt werden können. Dabei können Mediengeschichten
in Gefahr geraten, kurzschlüssig Gründe für eine Entwicklung zu formulieren. Dies
kann passieren, wenn innerhalb der komplexen Gemengelage medienhistorischer
Dynamiken (z. B. im Zusammenspiel von medientechnischen, -institutionellen, und
-kulturellen Faktoren) einzelne Aspekte isoliert als Auslösefaktoren für das Entste-
hen eines ‚neuen Mediums‘ dargestellt werden. So wurde etwa für die Geschichte
des Films lange Zeit die Fotografie zu einseitig als Vorläufer betrachtet, obwohl mit
diesem Medium andere Vermittlungs- und Rezeptionsweisen verbunden waren.
Neuere Studien (z. B. Elsaesser 1990; 2002, Loiperdinger 2011, Gethmann/Schulz
2006) haben jedoch gezeigt, dass die besonderen Produktions-, Vermittlungs- und
Rezeptionsmerkmale des Films als ‚neuem‘ Medium vielmehr im multimedialen
Verbund von Theater, Varieté, Laterna Magica und opto-technischen Medien wie
Zoetrop und Serienfotografie erwachsen ist.
Wie es sich am Beispiel der Filmgeschichte geradezu paradigmatisch beobachten
lässt, gehen technisch-apparative Medien aus einem dynamischen Wechselspiel
von technischen Erfindungen, unternehmerischen Entscheidungen und wirt-

5
6 Einleitung

schaftlichen Effekten, kollektiven Gewohnheiten, Ritualen und Konventionen der


Kommunikation und Wahrnehmung hervor, die nur selten gezielt auf die Genese
eines gänzlich neuen Mediums ausgerichtet sind. Erst im Nachhinein sehen wir die
Besonderheit eines Mediums wie Film oder Computer im Kontrast zu historisch
älteren Medien. Das bedeutet aber keinesfalls, dass ‚neue Medien‘ von vornherein
als eine Art ‚Gegenmodell‘ geplant waren. Vielmehr lässt sich beobachten, dass
Medieninnovationen i. d. R. die Optimierung oder Modifikation von vorherigen
Medien zum Ziel hatten. Technische Erfinder, Unternehmer, Mediengestalter und
Mediennutzer – sie alle haben immer nur die bis zu einem gegebenen Zeitpunkt
vertrauten und etablierten Medien als Erfahrungsmatrix. Die Druckpresse etwa war
in erster Linie der Optimierung des Schriftbildes vormals manueller Buchkopien
gewidmet, wobei die Handschrift in ihrer körperlich geprägten Gestalt als Vorbild
der mechanischen Lettern diente; das Telefon wurde anfangs als Funkmedium und
damit als frühes Radio aufgefasst, vor dem sich Menschen an unterschiedlichen
Orten gleichzeitig versammelten (Operntelefon, s. Kap. 1); der Phonograf als erstes
Speichermedium, das menschliche Stimmen aufzeichnen konnte, wurde als musi-
kalisches Abspielmedium populär, womit an vertraute Rezeptionsweisen der schon
lange zuvor existierenden Musikapparate angeschlossen wurde. Wie die Genese
von Druckpresse, Film, Phonograf (später: Grammophon) und Telefon, aber auch
anderer technisch-apparativer Medien zeigt, brauchte es immer eine gewisse ‚Inku-
bationszeit‘, bis sie sich als distinkte Medien mit spezifischen technischen Standards,
institutionellen und wirtschaftlichen Produktions- und Vermittlungsstrukturen,
mit eigenständigen Kommunikations- und Ausdrucksformen, sowie mit besonderen
Rezeptionsweisen ausgebildet haben, die sie von vorherigen Medien unterscheid-
bar machen. Frühere Medien, die sich einmal als erfolgreich durchgesetzt haben,
verschwinden dabei nur selten. Wie der Medienphilosoph Marshall McLuhan
(1962/1992) einschlägig argumentiert hat, führt ein neues Medium i. d. R. vielmehr
ein vorheriges fort – was die genannten Beispiele veranschaulichen.
Mit Blick auf diese Voraussetzungen, denen sich jede Mediengeschichtsschreibung
ausgesetzt sieht, lassen sich in Anlehnung an Thomas Elsaesser (2002) zwei Typen
von Mediengeschichten unterscheiden. Zum ersten Typus zählen teleologische, d. h.
auf ein historisches Ziel ausgerichtete Mediengeschichten (von griech. télos: Ziel,
Zweck, Ende). Diese stellen die Entwicklung von Medien als eine chronologische
Abfolge sich abwechselnder Medien dar, welche die vorherigen v. a. durch tech-
nischen Fortschritt ablösen. Sie konstruieren dabei häufig eine ‚Geburtsstunde‘
eines Mediums, in der sich die Vision einzelner Erfinder oder auch das langfristige
kollektive Streben bzw. Bedürfnis nach einem spezifischen Medium (z. B. nach fil-
mischen Projektionen) verwirklicht – so, als habe es die konkrete Idee hierzu schon
gegeben, bevor es sich überhaupt entfalten konnte. Jedes neue Medium erscheint
Einleitung 7

somit als ‚Planerfüllung‘ einer langfristig intendierten Entwicklung. Darüber


hinaus tendieren teleologische Mediengeschichten dazu, in der Beschreibung des
Wandels eine essentialistische (eine bestimmte Seinsweise voraussetzende) Auf-
fassung eines Mediums zu vertreten. Diese fixe Vorstellung eines Mediums kann
potentiell auch den Blick auf aktuelle Veränderungen versperren. Wegen solchen
methodologisch ‚blinden Flecken‘, die ihre Aussagekraft erheblich einschränken,
haben teleologische Mediengeschichten eine umfassende kritische Auseinanderset-
zung mit grundlegenden Fragen medialer Historiografien ausgelöst. Als Reaktion
darauf lässt sich mit Elsaesser der zweite Typus der Mediengeschichten (die in der
Filmwissenschaft eng mit der New Film History verbunden ist) ausmachen: die
genealogischen Mediengeschichten.
In genealogischen Mediengeschichten wird die langfristige und über weite Stre-
cken unvorhersehbare Dynamik von Medienentwicklungen im Kontext medienüber-
greifender Techniken, Ausdrucksformen, Rezeptionsweisen und medienkultureller
Wirkungszusammenhänge betrachtet. Dabei ist auch die Ausweitung des Blicks
von einzelnen medialen Entwicklungsaspekten (z. B. filmische Ausdrucksformen
und Stile, oder Filmapparaturen) auf ein breites Spektrum potentieller Bedingungs-
kontexte und Faktoren charakteristisch (etwa Rituale des Kinobesuches, Rezepti-
onsweisen des Kinos, aber auch über längere Zeiträume sich entfaltende inter- und
transmediale Wechselwirkungen von Film und anderen Medien). An die Stelle der
Konstruktion von chronologisch angelegten monokausalen Zusammenhängen
treten damit Darstellungen, die mediale Kontinuitäten und Diskontinuitäten über
längere Zeiträume und verschiedene Kontexte hinweg beobachten. Wie Elsaesser
betont, ist dabei methodologisch entscheidend, die historische Rekonstruktion an
ein spezifisches analytisches Erkenntnisinteresse zu koppeln. In der Gewissheit,
dass keine Mediengeschichte Vollständigkeit erreichen kann, gilt es also vorab zu
klären, nach welchen Kriterien selektiv auf historisches Material zugegriffen und
wie es systematisch ausgewertet wird.
Die genealogische Mediengeschichtsschreibung wählt dezidiert eine von der
Gegenwart auf die Vergangenheit gerichtete Perspektive, die nicht eine historische
Realität als ‚so gegeben‘ zu rekonstruieren behauptet, sondern Entwicklungen auf-
zeigt, die sich aus aktuellen Fragen heraus für Medien und ihrer Geschichte stellen.
Beispielhaft kann wieder der Film angeführt werden, der durch die digitalen Medien
eine enorme Ausweitung in seinen technischen Produktionsbedingungen, institu-
tionellen Verbreitungs- und Rezeptionsstandards, sowie seinen Ausdrucksformen
erfahren hat und erfährt. Von dieser Gegenwartsdiagnose ausgehend, eröffnen
sich verschiedene Möglichkeiten einer historischen Erklärung: wir könnten das
Medium aktuell am Punkt seiner Auflösung sehen, weil es durch die Etablierung
neuerer Medien obsolet geworden ist. Wenn diese Entwicklung zudem als Schritt

7
8 Einleitung

in einer Kette interpretiert wird, die auf ein alles vereinendes ‚Supermedium‘ (wie
den Computer) zustreben sollte, handelt es sich um eine teleologische Geschichtsin-
terpretation. Ein genealogischer Blick auf die Filmgeschichte kann jedoch zeigen,
dass der Film von seiner Frühzeit an multimedial angelegt war und sich in einem
fortlaufenden Wandel befunden hat (Segeberg 1996, Elsaesser 2002, 2008), so dass
sich plausibel folgern lässt, dass die Entwicklung noch nicht abgeschlossen ist (vgl.
auch Hagener 2011, Casetti 2015). Nie waren filmische Formen in unterschiedlichen
Medienumgebungen verbreiteter als heute: neben Kinofilmen auch in Form von
filmischen Serien, Online-Videos, oder Werbevideos im städtischen Raum.
Die genealogische Perspektive auf Mediengeschichte wird in einem dritten
Typus der Mediengeschichtsschreibung noch radikaler weitergeführt, der in der
deutschsprachigen Medienwissenschaft unter dem Begriff der Medienarchäologie
bekannt geworden ist (z. B. Zielinski 2002, Ernst 2006, Ebeling 2006). Um jede
Festschreibung von Medien im historischen Prozess zu vermeiden und damit offen
zu sein für möglichst viele potentielle Prägemomente aus ganz unterschiedlichen
Kontexten, werden hier sehr weite Medienbegriffe angesetzt. Unterschieden wer-
den dann etwa grundlegende mediale Funktionen und Wirkungsweisen wie das
Speichern, das Übertragen und das Verarbeiten von Daten (z. B. Kittler 1987; 1999),
deren Wandel über Jahrtausende hinweg beobachtet wird. Ähnlich wie es die klas-
sische Archäologie für das Altertum praktiziert, werden Medien unterschiedlicher
Art (Schriftzeugnisse, Bilder, Grafiken wissenschaftlicher Versuchsanordnungen,
Maschinenzeichnungen, Tonaufnahmen etc.) gesammelt und mit Blick auf mediale
Formationen und Funktionen (etwa als optische Medien in Kittler 2002) betrachtet.
Programmatisch ist dabei der Einbezug von bisher nicht beachteten historischen
Quellen, etwa aus der wissenschaftlichen Erforschung der Sinne (z. B. in Zielinski
2002, Gethmann 2002), oder aus der militärischen Planung telekommunikativer
Strategien der Kriegskommunikation (z. B. Kittler 2002). Medienarchäologien greifen
dabei Ideen des französischen Philosophen Michel Foucault auf, dem Begründer
der Diskursanalyse (vgl. Foucault 1995). Weit mehr als um die Geschichte einzelner
Medien geht es ihnen also um Diskurs- und Kulturgeschichten, die aufzeigen, wie sich
die Auffassungen von Realität, Wahrnehmung, Mensch und Natur, sowie kommu-
nikative Praktiken im Wechselspiel medialer Formationen und Diskurse ausgebildet
haben. Charakteristisch ist dabei der Fokus auf medientechnische Konstellationen
im Kontext von Wissenschaft und Philosophie, aber auch wirtschaftlicher und
militärischer Nutzungen. Medientechnik wird dabei als prägende Voraussetzung
nicht nur für die Ausbildung immer neuer Medienformationen erachtet, sondern
weit tiefgehender auch für den menschlichen Zugang zu Welt (vgl. Ebeling 2006).
Insofern ist Medienarchäologie eng mit Medien(technik-)philosophie verknüpft,
Einleitung 9

die Denken und Wissen als nicht nur historisch, sondern wesentlich auch medial
und medientechnisch bedingt sieht.

Prämissen und Ziele der Einführung

Diese Einführung bietet eine Perspektive auf Mediengeschichte, die die Entwicklung
von Kommunikationsmedien im Hinblick auf ihre Adressierung der menschlichen
Sinne und Wahrnehmung betrachtet. Wie oben erläutert, kann diese Darstellung
nicht vollständig sein, sondern folgt einem spezifischen Erkenntnisinteresse.

▶▶ So gilt es, eine historische Genese von apparativen Medientechniken und me-
dialen Ausdrucksformen (z. B. Regeln, Stile und Konventionen der Gestaltung
und der medienbasierten Kommunikation) zu entwickeln, die sich retrospektiv
als besonders einflussreich erwiesen haben. Im Vordergrund steht dabei die
Frage, wie unterschiedliche Medientechniken und mediale Ausdrucksformen
im Laufe der Zeit menschliche Wahrnehmung und Sinne angesprochen haben
bzw. dies bis heute tun. Daran schließt sich die Frage an, welche prägenden
kommunikativen Funktionen diese Medientechniken und Ausdrucksformen
in ihren Arten der Sinnesadressierung entwickelt haben.

Diese Fragerichtung eignet sich gleich aus mehreren Gründen für eine Einführung
in die Mediengeschichte.
An erster Stelle ermöglicht sie es, Medientechniken und Ausdrucksformen
im oben skizzierten Sinne genealogisch und damit auch in unterschiedlichen
historischen Formationen zu betrachten. Die Techniken und Konventionen der
medialen Adressierung des Ohres über die menschliche Stimme beispielsweise
entfalten sich von den Anfängen menschlicher Kommunikationsfähigkeit über
ihre symbolisch-technische Speicherung in der Schrift, ihren strategischen Einsatz
in der Rhetorik, bis zu den technisch-apparativen Formen der Übermittlung und
Bearbeitung von Stimme in den Massenmedien und digitalen Medien – wobei sie
sich keineswegs abwechseln, sondern bis heute ineinander greifen. Über die Fokus-
sierung medialer Sinnesadressierung lassen sich somit kontinuierliche Tendenzen
und Funktionen von Medien rekonstruieren und zudem verschiedene mediale
Formationen berücksichtigen, sodass die Entwicklung nicht implizit auf einen
finalen Endpunkt festgeschrieben wird. Strukturierendes Merkmal dieser Einfüh-
rung sind daher auch nicht vorab definierte Einzelmedien in ihrer chronologischen
Erscheinung, sondern die Basismedien Stimme, Schrift, Geste, Bild und bewegte

9
10 Einleitung

Klangbilder in historisch einflussreichen Formationen der Sinnesadressierung:


(1.) Medien des Sprechens und Hörens, (2.) Medien des Schreibens und Lesens, (3.)
Medien des Zeigens und Sehens, (4.) Medien der Audiovision. In dieser Typologie
nehmen das Lesen und Schreiben eine Sonderrolle ein, da hiermit Kulturtechniken
(s. u.) behandelt werden, die das Sehen und teilweise auch das Sprechen und Hören
als primäre Sinnesakte implizieren. Mit Blick auf ihre historische Bedeutung für
technisch-apparative Medien der Kommunikation werden die charakteristischen
Ausprägungen der Körperadressierung in der Geschichte von Lesen und Schreiben
in einem eigenen Kapitel dargestellt.
Wie das Beispiel der Stimme bereits deutlich macht, berücksichtigt diese Medi-
engeschichte auch jene Phasen medialer Sinnesadressierung, die vor dem Entste-
hen technischer Medienapparaturen liegen. Ziel ist dabei, wesentliche historische
Prägemomente in der Genese einflussreicher medialer Techniken und Formen der
Sinnesadressierung bis in die Gegenwart zu verfolgen. Damit sollen eben jene über-
greifenden Kontinuitäten herausgestellt werden, die bis heute unsere Kommunikation
und ihr körperliches Erleben prägen – im Falle der Stimme etwa die Tatsache, dass
apparative Medien durch den Einsatz oder die Simulation menschlicher Stimme
von der Antike bis heute zur Suggestion von ‚Lebendigkeit‘ eingesetzt wird (Maye
2005), wie wir es aktuell bei den digitalen Sprachassistenten beobachten können.
Während sich die Einführung am Typus der genealogischen Mediengeschichte
orientiert, liegt das Ziel im Unterschied zu den zuvor erwähnten Studien hier gleich-
wohl weniger auf dem breiten Erforschen bisher unbeachteter Voraussetzungen und
Faktoren medialer Entwicklungen, wozu in einer solchen Einführung auch kein
Raum wäre. Der Fokus liegt vielmehr auf der Genese der Sinnesadressierungen
jener medialen Techniken und Ausdrucksformen, die sich retrospektiv als beson-
ders prägend für westliche Kommunikationsweisen erwiesen haben. Dabei wird
auf einschlägige kultur- und medienwissenschaftliche Forschung zurückgegriffen,
die hierzu wertvolle Erkenntnisse geliefert hat.
Eine sinnes- und wahrnehmungshistorische Perspektive bietet sich auch des-
halb für eine Einführung in die Mediengeschichte an, weil damit einschlägige
medienwissenschaftliche Fachdiskurse gestreift werden. Seit ihren Anfängen bei
Walter Benjamin (1939/1969) und Marshall McLuhan (1962/1992) gehört die Frage,
wie Medientechnik und mediale Ausdrucksformen (auch: Ästhetik) menschliche
Wahrnehmung ansprechen, beeinflussen oder gar manipulieren und langfristig
verändern, zu den zentralen Anliegen der Medienwissenschaft. Besonders pro-
minent werden diese Aspekte etwa in folgenden drei medienwissenschaftlichen
Fachdiskursen verhandelt: die psychoanalytisch fundierte Apparatustheorie (z. B.
Baudry 1976), die ihren Niederschlag in der feministischen Filmtheorie (z. B. Mul-
vey 1985) gefunden hat, die Filmphänomenologie (z. B. Sobchak 2004) wie auch
Einleitung 11

die kognitive Film- und Medientheorie (vgl. Nannicelli/Taberham 2014). Sie alle
untersuchen die sinnlichen, psychisch-emotionalen und affektiven Wirkungspo-
tentiale technisch-apparativer Medien (v. a. Film und Fernsehen) und ihrer Arte-
fakte. Besonderes Augenmerk liegt dabei auf dem Zusammenspiel von bewegten
Bildern, Klängen und Betrachtern. Die psychoanalytische Apparatustheorie (auch:
Dispositivtheorie) des Kinos postuliert dabei eine ideologisch geprägte Manipula-
tion der Zuschauer durch illusionäre „Realitätseffekte“. Film und Kino werden als
eine Anordnung (bzw. ein Dispositiv) beschrieben, die in ihrem Zusammenwirken
(bewegte Bilder auf großer Leinwand in dunklem Vorführraum) die Zuschauer in
eine traumähnliche Situation versetzt, die sie besonders beeinflussbar macht für
gesellschaftlich und ideologisch geprägte ‚Botschaften‘ (z. B. die Frau als passives
Objekt männlichen Begehrens). Dagegen setzen Phänomenologie und kognitive
Film- und Medientheorie aktive Betrachter voraus, deren Interaktion mit den
Bildern und Klängen von Film, Video oder Fernsehen nur begrenzt vorhersehbar
sind. Die philosophisch geprägte Filmphänomenologie untersucht dabei das Wesen
des Films im dynamischen und häufig assoziativen Zusammenwirken filmischer
Ästhetik und körperlich-sinnlichen (auch: leiblichen) Erlebens der Betrachter. Die
kognitive Film- und Medientheorie basiert dagegen auf Erkenntnissen der Kogni-
tionsforschung und interessiert sich für vorwiegend standardisierte kognitive und
emotionale Wirkungsstrukturen audiovisueller Medien und ihren Konventionen.
Während diese Fachdiskurse vorwiegend an strukturellen Aspekten der Inter-
aktion von Zuschauer und medialen Artefakten einzelner audiovisueller Medien
wie Film und Fernsehen interessiert sind, seien an dieser Stelle medienhistorische
Studien erwähnt, welche die Adressierung der Sinne als wesentliches Moment
medientechnischer und -ästhetischer Entwicklungen hervorheben (z. B. Crary
1996, Schnell 2000, Hörisch 2001, Hiebler 2018) und sich als besonders einfluss-
reich erwiesen haben. Einige reflektieren dabei aus einer anthropologisch (auch:
menschheitsgeschichtlich) geprägten Perspektive die langfristigen Veränderungen
von Wahrnehmung und sinnesbasierter Kommunikation durch Medientechnik.
Ein prominentes Argument lautet dabei, dass Medien einer kontinuierlichen Verla-
gerung körperlicher Tätigkeiten und Sinnesaktivitäten in Medientechnik Vorschub
geleistet haben (vgl. hierzu Grampp 2006). Mit anderen Worten: Der menschliche
Körper hat sich, v. a. in kommunikativen Handlungen, die Medientechniken ein-
verleibt, während, umgekehrt, körperliche Organe wie das Auge oder die Hand
immer mehr in Medientechniken ‚ausgelagert‘ (auch: exteriorisiert) wurden. Be-
reits beim Aufkommen von Fotografie und Film hat Benjamin (1939/1969) davon
gesprochen, dass die Kameralinse sich an die Stelle der Betrachter setzt und als
Matrix menschliche Wahrnehmung manipuliert. Besonders prominent wurde die
These der Verlagerung des Körpers in Medientechnik jedoch mit Marshall McLuhan

11
12 Einleitung

(u. a. 1962/1992, 1968) und der um ihn sich etablierenden Toronto School of Media
Studies. Aus einer anthropologischen Perspektive argumentiert er, dass sich seit dem
Buchdruck Medientechniken immer tiefgreifender in unsere Körper eingeschrieben
haben. Damals begann, so McLuhan, eine technische Standardisierung kommuni-
kativer Prozesse, der sich die menschlichen Sinne seitdem immer mehr anpassen
mussten – etwa die isolierte Adressierung des Auges durch das gedruckte Buch,
das den übrigen Körper in einen Zustand der Lähmung und Passivität versetze. In
der zugespitzten Sichtweise McLuhans werden Medientechniken durch Anpassung
und Habitualisierung (auch: Gewöhnung) zu Prothesen des menschlichen Körpers:

„Jede Erfindung oder neue Technik ist eine Ausweitung oder Selbstamputation
unseres natürlichen Körpers, und eine solche Ausweitung verlangt auch ein neues
Verhältnis oder neues Gleichgewicht der anderen Organe und Ausweitungen der
Körper untereinander.“ (1962/1992: S. 61)

Ähnlich wie McLuhan entwickelt der Medienphilosoph Vilém Flusser (1989) eine
Mediengeschichte, die eine fortlaufende Technisierung menschlichen Denkens,
Wahrnehmens und Kommunizierens, aber auch des grundsätzlichen Weltbezugs
voraussetzt. Ausgangspunkt ist für ihn ein prähistorischer Zustand, in dem der
Mensch konkret mit allen Sinnen (direktes Anfassen, Sehen, Hören, Riechen, etc.)
seine Lebenswelt erfahren hat – ein Zustand, von dem er sich kontinuierlich mittels
immer abstrakter werdender Kommunikationsmittel entfernt hat. Bereits mit der
Höhlenmalerei beginnt nach Flusser eine erste Stufe der Auslagerung von körper-
licher Welterfahrung in ein externes Medium; als eine nächste Stufe betrachtet er
die Standardisierung der Sprache in Schrift und später im Buchdruck, womit sich
ein weitgehend ent-sinnlichter, abstrakt-begrifflicher Zugang zur Welt durch setzte;
am Ende dieses historischen Modells steht die Stufe der rein technischen Erfassung
von Wirklichkeit über apparative Medien wie Fotoapparat, Film oder Fernsehen, in
denen menschliche Sinne nur noch rudimentär, in entfremdeter Weise einbezogen
sind, da ihrer Adressierung technische Programme und Algorithmen zugrunde
liegen, die sich in ihrer Abstraktheit den Sinnen komplett entziehen.
Sowohl McLuhan als auch Flusser behaupten eine deterministische (festlegende,
bestimmende) Rolle von Medientechnik, welche die menschliche Welterfassung,
Denken und körperliches Erleben grundlegend veränderten. Noch radikaler
formuliert diese These Friedrich Kittler (1987, 1999, 2002). Während auch er im
Buchdruck die entscheidende Wende zum Zeitalter technischer Medien sieht, in
der Informationen quantitativ und qualitativ in ganz neuen Maßstäben verarbeitet
und verbreitet werden können, wird der Mensch seiner Ansicht nach selbst zu einem
Ort der Datenverarbeitung: Mit der durch Druck und später durch digitale Medien
beschleunigten Produktion von Informationen und Wissen kann der menschliche
Einleitung 13

Geist nur Stand halten, indem er sich den Prinzipien der jeweils herrschenden Da-
tenverarbeitungssysteme anpasst. Dabei handelt es sich um eine notgedrungen auf
die Effekte der Datenverarbeitung reagierende Anpassung, weniger um eine, die
durch das Begreifen der technischen Programme zustande kommt. Damit befinden
wir uns nach Kittler heute in einem Zeitalter der Beherrschung durch unsichtbare
Algorithmen und Programme, die nur noch die wenigsten verstehen, gleichwohl
aber unser Handeln, Denken und Erleben entscheidend strukturieren. Genau
hier setzt sein medienarchäologisches Interesse (s. o.) an, mit der Genealogie der
datenverarbeitenden Systeme auch die Ausprägungen menschlichen Weltzugangs
zu verfolgen. „Spätestens seit der zweiten industriellen Revolution mit ihrer Auto-
matisierung von Informationsflüssen erschöpft eine Analyse nur von Diskursen
die Macht- und Wissensformen noch nicht. Archäologien der Gegenwart müssen
auch Datenspeicherung, -übertragung und -berechnung in technischen Medien
zur Kenntnis nehmen.“ (Kittler 1987, S. 429).
Die These von der zunehmenden Auslagerung von Körper, Wahrnehmung und
Weltzugang des Menschen in technische Medien wird in ihrer radikalen Zuspitzung
v. a. in der Medientechnikphilosophie und Medienarchäologie vertreten. Daneben
gibt es in den Kultur-und Medienwissenschaften auch weniger deterministische Auf-
fassungen, wonach Medientechniken und mediale Ausdruckssysteme menschliche
Wahrnehmung, Kommunikation und Handeln historisch immer wieder entschei-
dend geprägt haben. Einschlägige Positionen (Krämer/Bredekamp 2009, Schüttpelz
2006; 2010) greifen dabei auf einen kulturwissenschaftlichen Kernbegriff zurück: die
Kulturtechnik. Damit wird das historisch wechselhafte und dynamische – eben nicht
einseitige – Zusammenwirken von technischen Medienapparaturen, körperlichen
und kognitiven Fähigkeiten zur Verwendung dieser medialen Apparaturen und
ihrer Zeichensysteme sowie die Ausbildung routinierter Praktiken beschrieben.
Bezeichnend für den Begriff der Kulturtechnik ist ein weit gefasster Technikbegriff
(Schüttpelz 2006). Er setzt bei dem antiken Verständnis von (altgriech.) techné im
Sinne von Fähigkeiten an, die das praktische, auch körperliche Anwenden von
kulturellem Wissen und Regeln meint – etwa beim Jagen oder der Urbarmachung
von Land, der sogenannten Kultivierung. Mit den Worten von Schüttpelz:

„Techniken, ‚téchnai‘ sind durch Anweisungen, Nachahmungen und Training lernbare


und lehrbare nützliche Praktiken jeder Art, bei der man weiß, was man tut und tut,
was man weiß, ohne sie außerhalb ihrer Nützlichkeit begründen zu müssen oder zu
können, seien sie materielle, verbale, mediale oder rituelle Techniken.“ (Schüttpelz
2006, S. 90, Herv. i. O.)

Frühe kommunikative Kulturtechniken waren das Zeichnen bzw. Malen, das Lesen
und Schreiben oder das Rechnen. Mit dem Aufkommen technischer Apparaturen
13
14 Einleitung

in verschiedenen Bereichen von Gesellschaft (Militär, Wirtschaft, Staat, Verkehr,


interpersonale und öffentliche Kommunikation) weiteten sich Kulturtechniken
notwendig auch auf die Ausbildung von Fähigkeiten aus, diese Apparaturen in
alltäglichen, routinierten Abläufen zu verwenden. Kulturtechniken umfassten also
schon immer auch die körperliche Habitualisierung und Anpassung der Sinne an
kulturelle Regeln und Praktiken. Mit dem Aufkommen und der – ab dem 19. Jh.
industriell beschleunigten – Verbreitung technischer Apparaturen und Maschinen
wurden Kulturtechniken aber immer mehr zu technisch-apparativ durchdrun-
genen Fähigkeiten und Praktiken. In den kommunikativen Kulturtechniken
musste dabei die kontinuierliche Fragmentierung der Sinne durch Medien immer
wieder neu erlernt werden. Um vorab einige Beispiele zu nennen: während Schrift,
Druckmedien, apparative Audio-Medien (Telefon, Radio, Grammophon usw.)
oder audiovisuelle Medien (Film, Fernsehen, Video) die natürliche Ganzheitlich-
keit zwischenmenschlicher Kommunikation durch ihre Adressierung einzelner
Sinne und die Entkopplung raumzeitlicher Gleichzeitigkeit fragmentieren, waren
Menschen immer wieder gefordert, neue kommunikative Kulturtechniken und
Praktiken zur Bewältigung dieser Differenz auszubilden. Beim Betrachten von
Bildern etwa mussten sie lernen, das Dargestellte in Bezug zu einem abwesenden
Zeigenden zu setzen, was mit einer zunehmenden Technisierung und Institutio-
nalisierung von Bildern immer voraussetzungsreicher wurde (von den gemalten/
gezeichneten Bildern zur Druckgrafik in Büchern und Zeitungen bis zur Fotografie
in ihren verschiedenen Produktions- und Verbreitungsformen). Beim Telefonieren
musste der Mensch sich daran gewöhnen, das räumlich abwesende Gegenüber
im Gespräch mental zu imaginieren und Techniken und Praktiken des Hin- und
Her-Sprechens zu entwickeln; im Kino musste er sich körperlich an die Differenz
von übergroßer optischer Nähe und körperlicher Abwesenheit von Personen auf der
Leinwand gewöhnen und Fähigkeiten der imaginativen und affektiven Bewältigung
audio-visuell aufgenommener Reize entwickeln.
Mit einer solchen Blickrichtung greift dieses Buch dominante kommunikative
Kulturtechniken im historischen Wandel auf: Sprechen und Hören, Zeigen und
Sehen, Schreiben und Lesen sowie audiovisuelles Kommunizieren. Diese werden
als kommunikative Kulturtechniken vorausgesetzt, in denen sich Zeichen- und
Ausdruckssysteme, kulturelle Regeln, technische Medienapparate und körperli-
che Praktiken des Kommunizierens historisch unterschiedlich manifestieren. Es
würde den Rahmen einer solchen Einführung, aber auch die Grenzen einer im
engeren Sinne medienwissenschaftlichen Historiografie sprengen, den Wandel
dieser Kulturtechniken umfassend darzustellen, da hiermit empirische Praktiken
des Mediengebrauchs auf dem Plan stünden, deren historischen Wandel zu unter-
suchen ein eigenes Forschungsfeld darstellt. Hier liegt der Fokus vielmehr auf den
Einleitung 15

medialen Techniken und Ausdrucksformen der Körper- und Sinnesadressierung,


welche dem Wandel dieser Kulturtechniken wesentlichen Vorschub geleistet haben.

Zur Struktur der Einführung

In vier Kapiteln widmet sich diese Einführung einschlägigen Medien des Spre-
chens und Hörens, des Schreibens und Lesens, des Zeigens und Sehens sowie des
audiovisuellen Kommunizierens, die eingebunden sind in historisch übergreifende
kommunikative Kulturtechniken – von den Anfängen der Mediengeschichte bis
in die digitale Gegenwart. Zugleich werden über Verweise im Verlaufe des Buches
die historischen Überschneidungen sowie die inter- und transmedialen Bezüge
zwischen ihnen deutlich gemacht, wie sie für diverse Medien charakteristisch sind.
Vorangestellt sind jedem Kapitel ein Gesamtüberblick sowie einleitende Hinweise
zu übergreifenden Charakteristika der jeweils zugrunde liegenden Basismedien
(vgl. Venus 2014, Wiesing 2008): Stimme, Schrift, Bild, bewegte Klangbilder. Dabei
soll vermieden werden, im essentialistischen Sinne (s. o.) die medialen Merkmale
von distinkten Einzelmedien festzuschreiben. Vielmehr werden die mit historisch
konstanten Basismedien einhergehenden kommunikativen und sinnesbasierten
Charakteristika und Zeichensysteme skizziert, die sie in unterschiedlichen me-
dialen Konstellationen der Geschichte wiedererkennbar machen. Ein besonderes
Augenmerk liegt dabei, dem Schwerpunkt gemäß, auf dem Verhältnis zwischen
Techniken, Zeichen- und Ausdruckssystemen und dem menschlichen Körper.
Damit steht besonders die technische und ästhetische Materialität von Medien
im Vordergrund, die für die Frage ihres jeweiligen Sinnesbezuges von elementarer
Bedeutung ist. Aspekte der politischen Geschichte, der Programmgeschichte oder
der Institutionengeschichte von Medien stehen aus diesem Grund hier im Hin-
tergrund. Mit Blick auf eine solche Fokussierung medialer Sinnesadressierungen
im Wandel werden in den einleitenden Abschnitten zur Medialität der jeweiligen
Basismedien wesentliche Voraussetzungen auditiver, visueller und audiovisueller
Wahrnehmung, sowie des Sprechens skizziert, um die medialen Kontinuitäten und
Veränderungen deutlicher hervortreten zu lassen.
Die historischen Darstellungen innerhalb der Kapitel strukturieren sich nach
übergreifenden Schlüsseltechniken des Analogen, Elektronischen und Digitalen.
Außerdem werden gängige Epochenbegriffe der klassischen Geschichtsschrei-
bung aufgegriffen, um den Anschluss dieses Einführungsbuches an einschlägige
historische Überblicke zu vereinfachen. Innerhalb des Buches soll durch solche
wiederkehrenden und übergreifenden Kategorien zudem gewährleistet werden,

15
16 Einleitung

dass Bezüge zwischen den Kapiteln einfach hergestellt werden können. Darüber
hinaus soll dadurch das selektive und modulare Lesen einzelner Kapitel ermöglicht
werden: so können etwa nur die Abschnitte zu den analogen oder den digitalen
Entwicklungen in den vier Kapiteln gelesen und zueinander in Bezug gesetzt wer-
den, oder die Abschnitte zu einzelnen Epochen. Während innerhalb der Kapitel
Zwischenresümees die zentralen Entwicklungsaspekte regelmäßig wiederholen,
laden am Kapitelende Wiederholungsfragen noch mal zur Auseinandersetzung
mit den Inhalten ein.

Literatur

Baudry, Jean-Louis. 1976. The Apparatus: Metapsychological Approaches to the Impression


of Reality in Cinema. In: Camera Obscura 1 (1976). 104-26.
Bausch, Hans. 1980. Rundfunk in Deutschland. 5 Bde. München: Dt. Taschenbuch Verlag.
Benjamin, Walter. 1939/1969. Das Kunstwerk im Zeitalter seiner technischen Reproduzier-
barkeit. Drei Studien zur Kunstsoziologie. Frankfurt a. M.: Suhrkamp.
Bleicher, Joan Kristin. 1993. Institutionsgeschichte des bundesrepublikanischen Fernsehens.
In Institution, Technik und Programm. Rahmenaspekte der Programmgeschichte des
Fernsehens, hrsg. v. Knut Hickethier. 67–132München: Fink.
Bordwell, David. 2010. Film History. An Introduction. New York, NY: McGraw-Hill Higher
Education.
Böhme, Hartmut. 2001. Konjunkturen des Körpers. In ‘No body is perfect’. Körperbilder im
Kino, hrsg. v. Frölich, Middel u. Visarius (Hg.). 29–43. Marburg: Schüren.
Casetti, Francesco. 2015. The Lumière-Galaxy: 7 Key Words for the Cinema to Come. New
York: Columbia University Press.
Crary, Jonathan. 1996. Techniken des Betrachters. Sehen und Moderne im 19. Jahrhundert.
Dresden/Basel: Verlag der Kunst.
Dudenredaktion. 2017. Der Duden. Die deutsche Rechtschreibung. Berlin: Dudenverlag.
Ebeling, Knut. 2006. Das technische Apriori. In Kulturgeschichte als Mediengeschichte
(oder vice versa?), hrsg. v. Lorenz Engell, Josef Vogl u. Bernhard Siegert. 11–22. Weimar:
Univ. Verlag.
Elsaesser, Thomas (Hrsg.). 1990. Early Cinema. Space, Frame, Narrative. London: BFI
Publishing.
Elsaesser, Thomas. 2002. Filmgeschichte und frühes Kino. Archäologie eines Medienwandels.
München: Ed. Text und Kritik.
Elsaesser, Thomas. 2008. Das Digitale und das Kino – Um-Schreibung der Filmgeschichte? In
Zukunft Kino. The End of the Real World, hrsg. v. Daniela Klook. 42-59. Marburg: Schüren.
Engell, Lorenz. 1992. Sinn und Industrie. Einführung in die Filmgeschichte. Frankfurt a. M.
(u. a.): Campus Verlag (u. a.).
Engell, Lorenz/Vogl, Josef/Siegert, Bernhard (Hrsg.). 2006. Kulturgeschichte als Medienge-
schichte (oder vice versa?). Weimar: Univ. Verlag
Einleitung 17

Epping-Jäger, Cornelia/Linz, Erika (Hrsg). 2003. Stimmen/Medien. Köln: DuMont.


Ernst, Wolfgang. 2006. Von der Mediengeschichte zur Zeitkritik. In Kulturgeschichte als
Mediengeschichte (oder vice versa?), hrsg. v. Lorenz Engell, Josef Vogl u. Bernhard Siegert.
23–32. Weimar: Univ. Verlag.
Fahlenbrach, Kathrin. 2010. Audiovisuelle Metaphern. Zur Körper- und Affektästhetik in
Film und Fernsehen. Marburg: Schüren.
Flichy, Patrice. 1994. Tele. Geschichte der modernen Kommunikation. Frankfurt a. M. (u. a.):
Campus Verlag (u. a.).
Flusser, Vilém. 1989. Ins Universum der technischen Bilder. Göttingen: European Photography.
Foucault, Michel. 1995. Archäologie des Wissens. Frankfurt/Main: Suhrkamp.
Gethmann, Daniel/Schulz, Christoph B. (Hrsg.). 2002. Apparaturen bewegter Bilder. Müns-
ter: LIT Verlag.
Grampp, Sven. 2006. Erben der Gutenberg-Galaxis. Kulturgeschichte als Mediengeschichte
im medientheoretischen Diskurs. In Kulturgeschichte als Mediengeschichte (oder vice
versa?), hrsg. v. Lorenz Engell, Josef Vogl u. Bernhard Siegert. 73-86. Weimar: Univ. Verlag.
Griep, Hans-Joachim. 2005. Geschichte des Lesens. Von den Anfängen bis Gutenberg. Darm-
stadt: Primus Verlag.
Gunning, Tom. 1990. The Cinema of Attractions: Early Film, its Spectator and the Avant-Gar-
de. In Early Cinema. Space, Frame, Narrative, hrsg. v. Thomas Elsaesser. 56–64. London:
BFI Publishing.
Hagener, Malte. 2011. Wo ist Film (heute)? Film/Kino im Zeitalter der Medienkonvergenz.
In Orte filmischen Wissens. Filmkultur und Filmvermittlung im Zeitalter digitaler Netz-
werke, Gudrun Sommer, Vinzenz Hediger u. Oliver Fahle. 45–60. Marburg: Schüren.
Hiebler, Heinz. 2018. Die Widerständigkeit des Medialen. Grenzgänge zwischen Aisthetischem
und Diskursivem, Analogem und Digitalem. Hamburg: Avinus.
Hiebel, Hans H./Hiebler, Heinz/Kogler, Karl/Wallitsch, Herwig (Hrsg.). 1999. Große Me-
dienchronik: Von den ersten Schriftzeichen zum Mikrochip. München: Fink.
Hick, Ulrike. 1999. Geschichte optischer Medien. München: Fink.
Hickethier, Knut (Hrsg.). 1993. Geschichte des Fernsehens in der Bundesrepublik Deutschland.
Bd. I: Institution, Technik und Programm. Rahmenaspekte der Programmgeschichte des
Fernsehens. München: Fink.
Hörisch, Jochen. 2001. Der Sinn und die Sinne. Eine Geschichte der Medien. Frankfurt a. M.:
Suhrkamp.
Kittler, Friedrich 1987. Aufschreibesysteme 1800/1900. München: Fink.
Kittler, Friedrich 1999. Grammophone, Film, Typewriter. Stanford: Stanford Univ. Press.
Kittler, Friedrich. 2002. Optische Medien. Berliner Vorlesung 1999. Berlin: Merve Verlag.
Kleinsteuber, Hans. 1982. Rundfunkpolitik in der Bundesrepublik. Der Kampf um die Macht
über Hörfunk und Fernsehen. Opladen: Leske u. Budrich.
Knieper, Thomas/Müller, Marion (Hrsg.). 2003. Authentizität und Inszenierung von Bild-
erwelten. Köln: Halem.
Krämer, Sybille/Bredekamp, Horst. 2009. „Kultur, Technik, Kulturtechnik: Wider die
Diskursivierung der Kultur. In Bild, Schrift, Zahl, hrsg. v. Sybille Krämer u. Horst Bre-
dekamp. 11–22. München: Fink.
Loiperdinger, Martin. 2011. Screen History – Medienkulturen der Projektion um 1900. In
Positionen und Perspektiven der Filmwissenschaft, hrsg. v. Heinz-B. Heller. AugenBlick.
Marburger Hefte zur Medienwissenschaft, 52 (2011): 55–66. Marburg: Schüren.

17
18 Einleitung

Maye, Harun. 2005. Stimme. In Einführung in die Medienkulturwissenschaft, hrsg. v. Claudia


Liebrand, Irmela Schneider, Björn Bohnenkamp u. Laura Frahm. 143–159. Münster: LIT.
Maye, Harun. 2010. Was ist eine Kulturtechnik? In: Zeitschrift für Medien und Kulturfor-
schung, 1,1 (2010): Kulturtechniken. 121–136. Hamburg: Meiner.
McLuhan, Marshall 1962/1992: Die Magischen Kanäle. Understanding Media. Düsseldorf
u. a.: Econ Verlag.
McLuhan, Marshall. 1968. Die Gutenberg-Galaxis. Das Ende des Buchzeitalters. Düsseldorf/
Wien: Econ Verlag.
Mulvey, Laura. 1985. Visual Pleasure and Narrative Cinema. In Movies and Methods. Vol. 2,
hrsg. v. Bill Nichols. 303–315. Berkeley/Los Angeles: Univ. of California Press.
Nannicelli, Ted, Taberham, Paul (Hg.). 2014. Cognitive Media Theory. New York: Routledge.
Posner, Roland. 1985. Terminologiediskussion: Zur Geschichte der Begriffe ‚verbal‘ und ‚non-
verbal‘, ‚Interaktion‘ und ‚Kommunikation‘, ‚Publikum‘ und ‚Öffentlichkeit‘, ‚Medium‘,
‚Massenmedium‘ und ‚multimedial‘. In Zeitschrift für Semiotik 7: 235–271.
Pross, Harry. 1970. Publizistik: Thesen zu einem Grundcolloquium. Neuwied: Luchterhand.
Ruchatz, Jens. 2003. Licht und Wahrheit. Eine Mediumgeschichte der fotografischen Projek-
tion. München: Fink.
Schmidt, Siegfried J., Zurstiege, Guido. 2007. Kommunikationswissenschaft. Systematik und
Ziele. Reinbek: Rowohlt.
Schnell, Ralf. 2000. Medienästhetik. Geschichte und Theorie audiovisueller Wahrnehmungs-
formen. Stuttgart (u. a.): Metzler.
Sobchack, Vivian. 2004. Carnal Thoughts. Embodiment and Moving Image Culture. Berkeley
(u. a.): Univ. of California Press.
Schröter, Jens (Hrsg.). 2014. Handbuch Medienwissenschaft. Stuttgart: Metzler.
Schüttpelz, Erhard. 2006. Die medienanthropologische Kehre der Kulturtechniken. In
Kulturgeschichte als Mediengeschichte (oder vice versa?), hrsg. v. Lorenz Engell, Josef
Vogl u. Bernhard Siegert. Weimar: Univ. Verlag. S. 87-110.
Schüttpelz, Erhard. 2010. Körpertechniken. In Zeitschrift für Medien und Kulturforschung
(ZKM), 1,1 (2010): Kulturtechniken. 101-120. Hamburg: Meiner.
Segeberg, Harro (Hrsg.). 1996. Die Mobilisierung des Sehens: Zur Vor- und Frühgeschichte
des Films in Literatur und Kunst. München: Fink.
Venus, Jochen. 2014. Einzelmedien. In Handbuch Medienwissenschaft, hrsg. v. Jens Schröter,
215–222. Stuttgart/Weimar: Metzler.
Wiesing, Lambert. 2008. Was sind Medien? In Was ist ein Medium? hrsg. v. Stefan Münker,
Andreas Roesler, S. 235-248. Frankfurt/M.: Suhrkamp.
Zielinski, Siegfried 2002. Archäologie der Medien. Zur Tiefenzeit des technischen Hörens
und Sehens. Reinbek: Rowohlt-Taschenbuch-Verlag.
Zielinski, Siegfried. 1993. Zur Technikgeschichte des BRD-Fernsehens. In Institution, Technik
und Programm. Rahmenaspekte der Programmgeschichte des Fernsehens, hrsg. v. Knut
Hickethier. 135–171. München: Fink.
Medien des Sprechens und Hörens
1 Medien des Sprechens und Hörens 1

Übersicht

In diesem Kapitel werden Medien des Sprechens und Hörens vorgestellt, die im
Verlauf der Mediengeschichte das primäre Körpermedium Stimme in unterschied-
lichen Medienkonstellationen verarbeitet und erweitert haben: die schriftlich
vorbereitete öffentliche Rede (Rhetorik), Sprechmaschinen, der Phonograf, das
Grammophon, elektronische Klangmedien (wie Magnetofon), das Radio, das
Telefon und digitale Audiomedien (Mobiltelefon, Netzradio, Audio-Clouds). Das
Kapitel folgt dabei der prominenten These von Walter Ong (1987), dass sich in der
Entwicklung und im Gebrauch dieser Medien unterschiedliche Ausprägungen
sekundärer Oralität ausgebildet haben: durch Schrift und apparative Technologien
der Vermittlung, Speicherung, Bearbeitung und Reproduktion von Stimme und
Klang wurden historisch immer wieder Merkmale mündlicher Kommunikation
simuliert, implementiert, verstärkt und archiviert. Unter Einbezug von Wahrneh-
mungspsychologie, aber auch einiger sprachphilosophischer Grundlagen, werden
einführend wesentliche wahrnehmungsästhetische, kommunikative und mediale
Eigenschaften von Stimme und Klang, des Sprechens und Hörens vorausgestellt.

1.1 Zur Medialität der Stimme und des Sprechens


1.1 Zur Medialität der Stimme und des Sprechens
In der Geschichte der Kommunikationsmedien, die den menschlichen Körper und
die Wahrnehmung einbeziehen, nimmt das Basismedium der Stimme eine geradezu
ursprüngliche Rolle ein. Als angeborenes Körpermedium ist sie eines der wich-
tigsten menschlichen Kommunikationsmedien. Während sie somit einerseits als
körpereigenes Primärmedium (Pross 1970) fungiert, sind andererseits die Stimme
19
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019
K. Fahlenbrach, Medien, Geschichte und Wahrnehmung,
https://doi.org/10.1007/978-3-658-19760-5_2
20 1 Medien des Sprechens und Hörens

und das Sprechen im Laufe der Mediengeschichte – mit Pross gesprochen – zum
Inhalt sekundärer und tertiärer Medien geworden – wie etwa das Telefon, das Radio,
der Tonfilm oder das Internet.
Die Stimme stellt zunächst einmal ein komplexes Körpersystem dar, dessen
Fähigkeit zur Lautbildung auf dem Zusammenspiel verschiedener Organe basiert:
Lunge, Hals, Nase, Mundhöhle und Lippen zu Lenkung des Atems, sowie die durch
Schall in Schwingungen versetzten Stimmlippen bei der Artikulation. Darüber
hinaus wirkt der gesamte Körper als Resonanzraum der Sprechlaute, weshalb
die Stimme großer und voluminöser Menschen i. d. R. auch lauter klingt, als die
kleiner, schmächtiger Menschen. Das Hirn ist als weiteres Körperorgan wesentlich
in den Prozess des Sprechens involviert. Es koordiniert nicht nur, was wir sagen,
sondern steuert zentral das Zusammenwirken der beteiligten Organe und damit
wie wir sprechen.
Als körpereigenes Medium erfüllt die Stimme dabei primäre Funktionen der
zwischenmenschlichen Kommunikation: gestalthafte Eigenschaften der Stimme
(wie Tonhöhe, Tempo) sowie die Artikulations- und Sprechweise informieren das
Gegenüber über körperliche, affektive und kognitive Aspekte, wie Geschlecht,
Temperament, Stimmung, Alter, aber auch kulturelle Aspekte wie das soziales
Selbstbild. Entwicklungspsychologische Studien (z. B. Stern 1993) haben gezeigt,
dass die Stimme in der frühen Eltern-Kind-Interaktion eine hervorgehobene
Rolle besonders für die affektive Abstimmung und Interaktion spielt. Vor allem
bevor Kinder sprechen lernen, sind es die gestalthaften stimmlichen Merkmale,
an denen sie sich orientieren und die geradezu elementar für ihre Kommunikation
mit ihrer sozialen Umwelt sind. Der Klang als zugrundeliegendes physikalisches
Medium bietet dabei Möglichkeiten der unmittelbaren körperlichen Erfahrung
des Gegenübers: Rhythmus und Dauer der gesprochenen Laute etwa vermitteln
affektive Zustände, Volumen und Lautstärke die affektive Intensität des Gespro-
chenen, Tonlage und Modulation emotionale Motivationen und Intentionen (z. B.
emotionale Bindung herstellen bzw. vertiefen, intensivieren). Die Stimme erfüllt
also elementare kommunikative Funktionen, die auch jenseits des frühkindlichen
Alters zwischenmenschliche Interaktion zwar eher unbewusst, aber nachhaltig
prägen. Diese sind gar im menschlichen Wahrnehmungsapparat verwurzelt. Wie es
jüngste neurologische Studien zeigen (Rosandowitz et al. 2018), weist das mensch-
liche Gehirn angeborene Areale zur Erkennung, Verarbeitung und Bewertung von
Stimme auf. Die menschliche Stimme fungiert damit als Primärreiz. In unserer
klanglichen Umgebung richtet sich unsere Aufmerksamkeit reflexhaft immer zuerst
auf die menschliche Stimme, alle anderen akustischen Reize werden nachgeordnet
verarbeitet. Diese körperliche Disposition der Stimmwahrnehmung wird noch
unterstützt durch die Tatsache, dass Klänge und Stimmen eine räumliche Präsenz
1.1 Zur Medialität der Stimme und des Sprechens 21

entfalten, die vom Ohr kaum reguliert werden kann. Während wir beim Sehen die
Augen oder den Kopf von einem visuellen Reiz abwenden können, nehmen die
Ohren erst mal sämtliche Umgebungstöne und -klänge auf (vgl. Goldstein 2002).
Erst das Hirn kann in begrenztem Maße die Aufmerksamkeit auf einzelne Klänge
lenken, wie die geschilderte angeborene Fokussierung auf die Stimme.
Für das körperbasierte Kommunizieren mittels Stimme ist schließlich auch die
ganzheitliche, nonverbale Körperlichkeit bedeutsam. In der zwischenmenschlichen
Interaktion nehmen wir die Stimme unseres Gegenübers nie isoliert wahr, sondern
immer im Zusammenspiel mit Mimik, Gestik, oder auch im direkten physischen
Kontakt. Wie es Stern (1993) ebenfalls in seinen Mutter-Kind-Studien gezeigt hat,
findet gerade affektive Abstimmung dabei in der cross-modalen Verknüpfung von
visuellen, auditiven, taktilen, olfaktorischen und anderen Signalen statt, die zu
einheitlichen Sinneseindrücken verbunden werden.
Während die Stimme also bereits physiologisch betrachtet ein vielschichtiges
Körpersystem darstellt, ist sie daneben ein kommunikatives Instrument, beson-
ders zum Sprechen. In der direkten Kommunikation mit anderen (face-to-face),
fließen dabei weitere körpereigene Kommunikationsformen der ganzheitlichen
Wahrnehmung ein: Mimik, Gestik und Proxemik (Körpernähe zu anderen). Die
nur teilweise bewusst kontrollierbare Begleitung des Sprechens durch mimischen
Ausdruck, Körperbewegungen und die räumliche Nähe bzw. Distanz zum Gegenüber
können als körperliche Signale bereits reflexartig gedeutet werden: als Ausdruck
affektiver Zustände und Emotionen, der Persönlichkeit und des Selbstbilds eines
Sprechenden. Mündliche Kommunikation basiert damit auf Vorgängen, die den
gesamten Körper einbeziehen und bei denen Informationen verschiedener Sinne
verbunden werden.
Als körpereigenes Kommunikationsmedium ist die Stimme einerseits Ausdruck
körperlicher und affektiver Prozesse und erscheint uns damit als Ausdruck von
‚Lebendigkeit‘ (Scholz 2003). Andererseits ist das Sprechen ein wesentlich durch
Kultur geprägter Vorgang, bei dem erlernte sprachliche Zeichen und Regeln
angewandt werden. Der Gebrauch der Stimme ist daher immer auch Ausdruck
von Kultur. Insofern weist Stimme als Kommunikationsmedium einen doppelten
Charakter auf: als körpereigenes und als kulturelles Medium.
Wenn wir die Stimme als Kommunikationsmedium in einem engeren Zusam-
menhang mit dem Sprechen betrachten, führt uns dies zu einigen grundlegenden
kommunikativen Funktionen des Mediums Sprache, die hier selbstverständlich nur
angerissen werden können. Denn auch wenn wir als Menschen die Fähigkeit zur
Signalabstimmung über Laute und andere Körperzeichen mit den Tieren teilen,
verfügen wir mit unserer angeborenen Sprachfähigkeit über ein weit darüberhinaus­
gehendes Instrument der Kommunikation. Während körpernahe Signale und Laute

21
22 1 Medien des Sprechens und Hörens

(z. B. Schreien, Knurren) im animalischen Signalverhalten reflexhaft als eindeutige


Botschaften (z. B. der Drohung oder der Unterwerfung) gedeutet werden, haben
wir mit der symbolischen Sprache ein Zeichensystem, dass uns zur Negation, zum
in-Beziehung-Setzen, zur Unterscheidung und damit auch zur Abstraktion in der
Kommunikation befähigt. Sprache schafft somit einen weiten Raum für Imagina-
tion und Interpretation – und damit für kulturelle Bedeutungen. Im Unterschied
zur reinen Signalkommunikation, in der Bedeutungen körpernah und reflexhaft
eindeutig kodiert und dekodiert werden, stehen sprachliche Zeichen in einem
willkürlichen (auch: arbiträren), durch kulturelle Überlieferung entwickelten
Verhältnis zu dem Bezeichneten. Die sprachlichen Laut- und Schriftgestalten sind
dabei historisch veränderbar. Dies wird bereits anhand der Tatsache deutlich, dass
dasselbe Phänomen in unterschiedlichen Sprachen einen anderen Namen trägt.
Historisch betrachtet, ist die Sprachfähigkeit des Menschen und ihre Entwicklung
die wesentliche Voraussetzung für die Entstehung verschiedener Kulturen (Mer-
ten 1994), da nur in Sprache Ideen, Weltsichten, Normen und Werte sowie darauf
basierende Gesellschaftssysteme entwickelt werden konnten.

Die Medialität von Stimme beim Sprechen kann im Anschluss an Roland Posner
(1985) (s. Einl.) folgendermaßen resümiert werden:
1. Die Stimme als physisches Medium: Die Stimme funktioniert als physikalischer
Apparat, der auf der Basis von Luft und Schall über Töne kommuniziert.
2. Die Stimme als biologisch-sinnliches Medium: Die Stimme ist Teil des Körpers
und kommuniziert körperbasierte Informationen (z. B. über die Emotionen
des Sprechers). Außerdem signalisiert sie grundsätzlich die Lebendigkeit
eines Sprechers.
3. Stimme als kulturelles Medium: Stimme wendet im Sprechen kulturell tradierte
Kodes und Zeichensysteme der Sprache an.

Die mediale Vielschichtigkeit der Stimme verleiht ihr in der Kultur- und Medien-
geschichte eine besondere Rolle. Im Folgenden werden einige einflussreiche sprach-
und medienphilosophische Argumente skizziert, die für das tiefere Verständnis der
in diesem Kapitel aufgezeigten Medien des Sprechens und Hörens hilfreich sind.
In der Verbindung von Körper und Geist wird die Stimme in philosophischen
Positionen immer wieder als besonders authentisches Medium der Kommunika-
tion aufgefasst (vgl. Epping-Jäger/Linz (2003). Leander Scholz spricht treffend vom
„Paradigma der Lebendigkeit“, das sprach- und medienphilosophische Diskurse bis
1.1 Zur Medialität der Stimme und des Sprechens 23

heute prägt: „Das Phänomen der Stimme ist in der abendländischen Metaphysik
ein besonderer Schauplatz der Frage nach dem Menschen, da dem Lautcharakter
der Stimme im Unterschied zum bloßen Klang eines rein materiellen Körpers der
Selbstausdruck des Lebendigen zugesprochen wird.“ (2003, S. 36). Bereits für die
Begründer der abendländischen Sprachphilosophie, Platon (428–348 v. Chr.) und
Aristoteles (384–323 v. Chr.), liegt die menschliche Wesenhaftigkeit des Sprechens im
lebendigen körperlichen Ausdruck der Stimme eines sich selbst bewussten Subjektes,
das seine Gedanken im Prozess des Sprechens artikuliert und entwickelt. Hierbei
handelt es sich um einen komplexen Vorgang, bei dem das Denken mit Artikulation
verbunden ist, also geistige, sprachliche und körperliche Akte koordiniert werden
müssen. Diese vielschichtige Beherrschung wird im momenthaften und flüchtigen
Akt des Sprechens als besonders authentisch und lebendig aufgefasst. Im Gegensatz
zur Schrift oder anderen Speichermedien, die verschiedene Möglichkeiten der Kor-
rektur, Umformulierung und Zuspitzung bieten, erscheint der Akt des Sprechens
spontan aus dem Moment geboren. So tritt bezeichnender Weise die besondere
Qualität des Sprechens für die Entfaltung von Ideen und damit seine kulturelle
Bedeutung in der antiken Philosophie auch mit der Durchsetzung der Schrift in
der abendländischen Kultur hervor. Platon formulierte in seinen Phaidros-Dialogen
eine Kritik der Schrift, die zugleich eine der ersten medientheoretischen Reflek-
tionen darstellt. Hierbei nimmt das „Paradigma der Lebendigkeit“ (Scholz 2003)
der Stimme als Medium eine zentrale Rolle ein.
Für Platon war der Prozess des Denkens und Memorierens notwendig verbunden
mit körperlicher Verinnerlichung. Die Schrift, die wie das Bild als frühes Speicher-
medium eine Entäußerung und Archivierung von Ideen ermöglicht, hatte für ihn
eine den menschlichen Geist nicht nur negierende, sondern gar zerstörende Wirkung.
Seiner Ansicht nach trennt das mit einem Schreibutensil auf ein Trägermedium
(z. B. Papyrus) geschriebene Wort die Sprache vom sprechend denkenden Subjekt
und sei damit grundsätzlich unmenschlich. Auch der Leser könne keinen leiblichen
Bezug zum Sprecher herstellen und sei vielmehr mit leblosen, ent-körperlichten
Worten konfrontiert, mit denen er in keinen wahren Dialog treten könne. Zudem
mache die Schrift das Gedächtnis der Menschen träge und überflüssig: „Denn
diese Erfindung wird in den Seelen derer, die sie erlernen, Vergeßlichkeit bewirken,
weil sie ihr Gedächtnis nicht mehr üben; denn im Vertrauen auf Geschriebenes
lassen sie sich von außen erinnern durch fremde Zeichen, nicht von innen heraus
durch sich selbst. Also hast du ein Mittel nicht für das Gedächtnis, sondern eines
für die Erinnerung gefunden.“ (Platon 365 v. Chr., zit. n. Schöttker 1999, S. 35).
Demgegenüber idealisiert Platon das Sprechen – insbesondere den Dialog – als
einzig lebendigen Ausdruck menschlichen Denkens und Memorierens. Die da-

23
24 1 Medien des Sprechens und Hörens

mit verbundene Idealisierung der Stimme findet sich auch in anderen Positionen
wieder, etwa bei Aristoteles.
Aristoteles entwickelte auf Grundlage einer Auseinandersetzung mit Stimme
und Sprechen die Grundlagen der Rhetorik, die ebenfalls als eine frühe Medienphi-
losophie betrachtet werden kann (vgl. Knape 2012). Seine Lehre der Rhetorik ist für
eine Wahrnehmungsgeschichte der Medien bedeutsam, weil hier die Stimme und
die gesprochene Sprache als körpernahe Medien strategisch eingesetzt werden, um
bei den Hörern spezifische Eindrücke zu hinterlassen. Dabei sollen Körper, Affekte
und Geist gleichermaßen angesprochen werden. Die skizzierte doppelte Natur der
Stimme als körpereigenes sowie als kulturelles Medium steht somit auch bei der
Rhetorik im Vordergrund – etwa im Theater oder in der politischen Rede, die in
der griechischen Antike auch eine Form der Performance darstellte.
Ähnlich wie Platon betrachtet Aristoteles die Stimme dabei als Ausdruck eines
‚beseelten‘ und denkenden Subjektes. Im Rahmen seiner Abhandlung De anima
(Über die Seele) unterscheidet er hierzu die stimmliche Lautbildung von ‚unbe-
seelten‘ Geräuschen, wie Husten oder Räuspern. Die Stimme sei ein „gewisser Ton
des beseelten Wesens“ (II, 8, 420b). In Verbindung mit sprachlicher Lautbildung
setzt er die Stimme grundsätzlich in Verbindung mit einer artikulierten inneren
Vorstellung und damit verbundener menschlicher Wesenhaftigkeit.
In der antiken Rhetorik wird die Stimme zu einem gezielt einsetzbaren medialen
Instrument, das sich durch eine paradoxe Gleichzeitigkeit von Natürlichkeit und
Künstlichkeit auszeichnet (Maye 2005). Der im Fluss des Sprechens und Denkens
erst zu entfaltende Gedankengang wird in der Rhetorik bereits im Voraus schriftlich
entwickelt und für eine körperlich ganzheitliche mündliche Präsentation auswendig
gelernt. Den entscheidenden Aspekt für die Rhetorik liegt dann jedoch in der Art
des mündlichen Vortrages, bei dem durch die körperliche und affektive Präsenz des
Redners die Argumente durch Stimmlage und begleitende Körpersprache wieder
lebendig werden (vgl. Knape 2012). Dabei soll sich der Redner die memorierten
Gedanken und Worte im Sprechen mit seinem gesamten Körperausdruck erneut
aneignen. Um sich als Redner dem Publikum glaubwürdig als geistiges Subjekt
der geäußerten Gedanken zu präsentieren, muss er in sich auch die passenden
Gefühle aufrufen, die sich in entsprechenden Mimiken und Gestiken niederschla-
gen – welche vom Publikum bereits intuitiv erfasst werden. Es ist also gerade der
Schein der Unmittelbarkeit, der sich in der Stimme und im körperlich-affektiven
Ausdruck vermittelt und der für den Eindruck einer Rede als ‚echt‘, ‚natürlich‘ und
‚lebendig‘ verantwortlich ist.
Die Idealisierung der Stimme als authentischem Ausdruck von menschlichem
Wesen und Geist zieht sich auch nach der Antike durch die Sprach- und Medienphi-
losophie. Mit der Aufklärung und dem Humanismus wurde diese Grundauffassung
1.1 Zur Medialität der Stimme und des Sprechens 25

im 18. Jh. unter empirisch hergeleiteten Vorzeichen differenziert. Wilhelm von


Humboldt war einer der ersten Sprachethnologen, der zahlreiche Sprachen (z. B.
indigene Sprachen Amerikas) empirisch erforschte. Im detaillierten Vergleich kam
er zu dem Schluss, dass Sprachen in ihrer grammatikalischen Struktur z. T. gänzlich
unterschiedliche Denk- und Wahrnehmungsweisen entstehen lassen – etwa von
Zeit und Raum. Während es dem Menschen universell eigen sei, sich seine Umwelt
durch die Sprache zu erschließen, unterschieden sich die sprachlich erschlossenen
Wirklichkeitszugänge in den verschiedenen Kulturen. Sprechen und Denken waren
also auch für Humboldt zwei Seiten einer Medaille. Mehr als andere Sprachforscher
vor ihm betonte er aber die kulturelle Varianz von Sprache und ihre Auswirkungen
auf Denken und Verstehen. Auch er sieht dabei die Schrift als sekundär gegenüber
dem Sprechen bzw. dem sprechenden Denken. Da wir permanent die Dinge um
uns deuten, bewerten und sie reflektieren, befinden wir uns nach Humboldt in
einem fortlaufenden inneren Sprechprozess, der durch die Schrift nur sehr partiell
abgebildet werden kann: „Die Sprache, in ihrem wirklichen Wesen aufgefasst, ist
etwas beständig und in jedem Augenblicke Vorübergehendes. Selbst ihre Erhaltung
durch die Schrift ist immer nur eine unvollständige, mumienartige Aufbewahrung,
die es doch erst wieder bedarf, dass man dabei den lebendigen Vortrag zu versinn-
lichen sucht. Sie selbst ist kein Werk (Ergon), sondern eine Tätigkeit (Energeia)“
(Humboldt 1795/2008, S. 324).
Die Vorrangstellung des Sprechens gegenüber der Schrift, und damit der Stimme
als Basismedium, findet sich bis weit in gegenwärtige Sprach- und Medientheorien.
Dies gilt etwa für den kanadischen Medientheoretiker Eric Havelock, der sich mit
der historischen Entwicklung des phonetischen Alphabetes befasste. Er sah einen
eindeutigen evolutionären Vorteil jener Kommunikations- und Zeichenformen,
die mit dem Sprechen verbunden sind:

„Es ist eine biologische Tatsache, dass homo sapiens eine Spezies [sic!] ist, die orale,
vom Mund erzeugte Sprache verwendet, um zu kommunizieren. Dies ist seine De-
finition. Er ist per definitionem kein Schreiber oder Leser. […] Die Gepflogenheit,
geschriebene Symbole zur Darstellung solcher Rede zu verwenden, ist nur ein
nützliches Kunststück, das erst zu kurze Zeit existiert, um sich in unseren Genen
niederzuschlagen, wenn dies vielleicht in einer halben Million Jahren auch geschehen
mag.“ (Havelock 1982, S. 87).

Aus einer solchen medienevolutionären Perspektive erklärt Havelock auch die


Entstehung der Lautsprache und des Alphabetes als Bestreben, Mündlichkeit als
elementare menschliche Kommunikationsform in die Schrift zu überführen (s.
Kap. 2). Eine ähnliche Auffassung vertritt auch der Sprach- und Medientheoretiker
Walter Ong.

25
26 1 Medien des Sprechens und Hörens

In seinen einflussreichen Studien zur Sprach- und Mediengeschichte unterscheidet


Ong (1987) zwei wesentliche historische Typen von Mündlichkeit: die primäre- und
sekundäre Oralität. Die primäre Oralität prägte Kulturen vor der Einführung der
Schrift. Sie ließ sich bei indigenen Kulturen zu beobachten und für frühe Stammes-
kulturen der Vorzeit annehmen – einer Zeit, in der soziale Gemeinschaften noch
in kleineren Gruppen organisiert waren und es noch keine ausgeprägten Formen
von Öffentlichkeit gab. Sekundäre Oralität hingegen lässt sich medienhistorisch
bis heute in vielseitigen Varianten beobachten. ‚Sekundär‘ meint dabei die Wieder-
einführung von Merkmalen mündlicher Kommunikation in Schriftmedien bzw.
andere Medientechniken. Ihren Ursprung hat sie gewissermaßen im Aufkommen
der Lautschrift, wie auch Havellock (1982) argumentiert. Mit der kommunikativen
Kulturtechnik der Rhetorik erlebte sekundäre Oralität eine historisch bedeutsame
Ausprägung, da, wie geschildert, hierbei die Lebendigkeit des Sprechens schrift-
lich vorbereitet, Mündlichkeit des Redestils also gewissermaßen vorab simuliert
wurde. Medienhistorisch relevant wurde Ongs Beobachtung jedoch besonders
für die Betrachtung moderner apparativer Medientechniken, in denen die oben
skizzierten Besonderheiten des Sprechens und der mündlichen Kommunikation
künstlich hergestellt werden. Dies gilt vor allem für jene Medien, die raumzeitliche
und körperliche Ganzheitlichkeit von Dialogen einerseits aufheben und andererseits
simulieren: etwa Telefon, Radio, Internetchat, SMS oder WhatsApp-Nachrichten.
Im kommenden Abschnitt zeigt das Kapitel, wie die Herstellung sekundärer
Oralität im Kern immer wieder Voraussetzung für neue kommunikative Kultur-
techniken schuf. Historisch wird zunächst der Fokus auf der sekundären Oralität
der Antike liegen. Sowohl im Theater und den unterhaltenden Künsten, als auch
in der Politik und der Religion entwickelte sich die Rhetorik zu einer medienstra-
tegischen Kulturtechnik, die öffentliches Sprechen zwischen Natürlichkeit und
Künstlichkeit gezielt in Szene setzte. Anschließend folgt ein Ausblick auf die im
17. Jh. beginnende technisch-apparative Mediengeschichte der Stimme.

1.2 Medien des öffentlichen Sprechens und Hörens


in der antiken Rhetorik
1.2 Medien öffentlichen Sprechens und Hörens in der antiken Rhetorik
Im Folgenden werden Medientechniken und Ausdrucksformen skizziert, in denen
die Stimme als Medium öffentlicher Kommunikation strategisch eingesetzt und in
ihrer zuvor angedeuteten Wirkung als körpernahes Medium verstärkt werden sollten.
In der Antike und bis ins Mittelalter hinein war Öffentlichkeit eng verbunden
mit konkreten Orten, an denen sich die Mitglieder einer Gemeinschaft versam-
1.2 Medien öffentlichen Sprechens und Hörens in der antiken Rhetorik 27

melten, etwa die Bewohner einer Stadt oder die Mitglieder einer politischen oder
sozialen Gruppe. Der Marktplatz oder das Theater waren solche Orte, die nicht
nur qua Konvention als ‚öffentliche Orte‘ aufgefasst wurden, sondern an denen
durch Anwesenheit Mehrerer zur selben Zeit am selben Ort Öffentlichkeit herge-
stellt wurde. Entscheidend war dabei – auch im juristischen Sinne –, dass sich die
Anwesenden gegenseitig wahrnehmen und mit eigenen Augen die Gegenwart der
anderen bezeugen können. Die Größe der öffentlichen Orte musste diese gegen-
seitige Wahrnehmbarkeit gewährleisten. Demgegenüber gab es bis ins Mittelalter
kaum institutionalisierte Gebäude für öffentliche Vorgänge. So diente auch der
Markplatz im Mittelalter für öffentliche Vorgänge aller Art: Handel, politische
Verlautbarungen, Amtshandlungen, Gerichtsvollzüge und Unterhaltung durch
Theateraufführungen oder Jahrmärkte (vgl. Merten/Westerbarkey 1994).
Bis zur Erfindung der Druckpresse im 15. Jh., waren das gesprochene Wort, die
Rede und damit die Stimme, zentrale Medien der öffentlichen Kommunikation.
Dabei haben sich in der Antike die politische Rede und das Sprechen auf der The-
aterbühne als wesentliche Bereiche der Rhetorik entwickelt. Sie hat nicht nur das
öffentliche Sprechen verändert, sondern hatte auch einen großen Einfluss auf die
Architektur öffentlicher Räume.
Die Tradition des Theaters ist in der Antike aus den Ritualen religiöser Kulte
erwachsen, bei denen die anwesenden Bewohner einer Stadt Teilnehmer einer Zere-
monie waren. Zu Beginn waren es noch der Marktplatz und das Forum, die als Stätten
für dionysische Spiele und Satyrspiele dienten. Um 500 v. Chr. wurden kreisförmige
Arenen gebaut, in denen alle Bewohner Platz haben sollten. Damit entstanden frühe
theatrale, spektakelhafte Formen, welche die auf der Tribüne Sitzenden von aktiven
Teilnehmern einer Zeremonie zu einem mehr betrachtenden Publikum machte
(vgl. Göttert 1998). Die aufgeführten Dramen und Komödien, etwa von Aischylos
und Sophokles, basierten auf frühen kultischen Stoffen, die für die öffentliche und
spielerische Vorführung aufbereitet worden waren. Die Sprecher nahmen in die-
sem Zusammenhang eine zentrale Rolle ein. Die bereits in den kultischen Spielen
wichtigen Chöre finden sich auch im Theater. Daneben wurden die Sprechrollen auf
mehrere Schauspieler zu verteilt. Medienhistorisch bedeutsam ist dabei zum einen,
dass das Medium der Stimme im Chor als kollektive Stimme eingesetzt wurde – als
Stimme der Götter, deren Macht den Raum akustisch erfüllt und die nicht einem
einzelnen Individuum zugewiesen wurde. Als Stimme der Götter kommentiert der
Chor auch die Handlungen der menschlichen Figuren und bietet den Zuschauern
Orientierung für ‚ideale‘ Reaktionen auf das Dargestellte (vgl. Vovolis 2003). Zum
anderen erhielt die Stimme der einzeln sprechenden Schauspieler bereits in den ersten
Jahrzehnten der Theateranfänge (um 400 v. Chr.) eine immer größere Bedeutung
für den Erfolg einer Aufführung (Göttert 1998). Die Schauspieler, die i. d. R. mehrere

27
28 1 Medien des Sprechens und Hörens

Rollen sprachen, mussten vorab die Texte auswendig lernen und – wie es von den
Rhetorikern gelehrt wurde – im Vortrag, in Verbindung mit Gesang und Tanz, kör-
perlich lebendig werden lassen. Hier findet sich das oben geschilderte Paradox von
‚Natürlichkeit und Künstlichkeit‘ der rhetorischen Rede in besonders eindrücklicher
Weise wieder. Denn während in der politischen Rede, der Orator (Redner), i. d. R.
immerhin selbst Autor seiner Ansprache war, musste der Schauspieler einen frem-
den Text durch sein Spiel auf glaubwürdige Weise verkörpern und verlebendigen.
Die auf Nachahmung bzw. Mimesis abzielende Darstellung wurde dabei durch die
Ausstattung visuell unterstützt: durch Masken und Kostüme, die Typen und uni-
versale Gefühle schematisch repräsentierten. Die Starrheit der Masken machte die
Verlebendigung durch die Stimme umso wichtiger. Im Unterschied zum modernen
Schauspiel lag der Fokus der Darstellungskunst daher in der Verkörperung der Rol-
len durch Stimme und Tanz. Doch auch die stimmliche Darstellung war gewissen
Normen unterworfen und ließ nur begrenzten Raum für individuellen Ausdruck,
was mit Blick auf die gewollte Typisierung aber auch weniger gefordert war. So gab
es etwa ritualisierte Schreie, um universale Gefühle und Reaktionen zu vermitteln,
wie Lachen, Lamentieren, Weinen, aber auch vorsprachliche archetypische Klänge,
die beim Publikum kalkulierte Reaktionen erzeugen sollten, die sie in der Folge
von starken Emotionen (Affekten) reinigen sollten (Katharsis) (vgl. Vovolis 2003).
Angesichts der erheblichen Bedeutung der Stimme als Medium tragischer und
komödiantischer Darbietungen im antiken Theater ist naheliegend, dass sich auch
die Architekten der Theaterstätten bemühten, diese nach akustischen Kriterien
zu optimieren. Offensichtlich waren die nach oben hin sich öffnenden, runden
Arenen der Amphitheater nicht nur dazu gedacht, die Bewohner eines Ortes
oder einer Stadt zu fassen und diesen einen unverstellten Blick auf die Bühne zu
ermöglichen. Daneben wurde angenommen, dass sich der Klang nach oben hin
entfaltet und verstärkt (Göttert 1998) – eine gleichwohl falsche Annahme. Um
die Klangverstärkung nach oben hin zu unterstützen, entwickelte der Architekt
Vitruv die Idee, hohle Klangkörper unter den Sitzen anzubringen. Die Membrane
der vasenartigen Gefäße aus Metall oder Ton, die er je nach Größe des Theaters
in unterschiedlicher Zahl verteilte, sollten durch den Klang der Stimmen und die
Gesänge auf der Bühne in Schwingung versetzt werden und bis in die letzte Reihe
verstärkende Effekte erzeugen. Vitruv entwickelte somit erste Ideen und Techniken,
um den Zuschauerraum als Klang- und Resonanzraum audiovisueller Darbietun-
gen zu nutzen. Die Bühne als Ort der lebendigen Imagination sollte damit auditiv
intensiviert werden – ein Ansatz, der in der späteren Theater- und Kinoarchitektur
mit den Mitteln und Techniken moderner Akustik weitergeführt wurde (s. Kap. 4).
Neben dem Schauspieler entwickelte sich in der griechischen und römischen
Antike der politische Redner zu einem Typus des öffentlichen Sprechers, der die
1.2 Medien öffentlichen Sprechens und Hörens in der antiken Rhetorik 29

medienstrategische Technik der Rhetorik und den Einsatz von Stimme und Kör-
persprache zunehmend professionalisierte. Während Schauspieler im Theater mit
der vollen Aufmerksamkeit ihres Publikums rechnen konnten, musste der poli-
tische Redner auf dem Markplatz (griechische Agora oder römisches Forum) die
Aufmerksamkeit der zerstreut Anwesenden durch seine Rede erst auf sich lenken
und halten. Hier galt es zudem, die nur eingeschränkt in politische Hintergründe
eingeweihten Bürger von politischen Meinungen, Entscheidungen und Plänen zu
überzeugen, um sie letztlich als Wähler für sich zu gewinnen.
Eine Herausforderung des politischen Redners war dabei zum einen, den offenen
Platz akustisch zu füllen, ohne in unangenehmes Geschrei zu verfallen (Göttert
1998). Die Redner bildeten sich daher mit Hilfe von professionellen Stimmlehrern
in lautem und akzentuiertem Sprechen (pronuntatio) aus, damit die Stimme hinrei-
chendes Volumen erzeugen konnte und wirkungsvolle Modulationen der Tonlage
erlaubte. Um das Publikum auch affektiv anzusprechen, sollte der politische Redner
– ähnlich dem Schauspieler – zudem prototypische Gemütsbewegungen gestisch
und mimisch nachahmen. Die Nachahmung (Mimesis) von Gemütsbewegungen
(etwa Gelassenheit, Erregung, Zorn, Milde) war von entscheidender Bedeutung,
um das Publikum nicht nur argumentativ, sondern auch emotional zu erreichen.
Insgesamt war das Medium der Stimme also in eine komplexe körperliche Insze-
nierung eingebunden, in der Wortwahl, die Dramaturgie von Argumenten und
Affekten, Rhythmus und Tonlage der Artikulation sowie die gesamte Körpersprache
äußerst kalkuliert im Hinblick auf ihre öffentliche Wirkung abgestimmt waren.
Diverse Zeugnisse belegen, dass die Anforderungen der Rhetorik für zahlreiche
Politiker der Antike eine wahre Hürde darstellten (vgl. Göttert 1998). So konnte
bereits mangelnde Stimmfähigkeit und damit die schiere körperliche Unfähigkeit,
die Stimme als Medium der öffentlich-politischen Kommunikation angemessen
einzusetzen, eine politische Karriere nachhaltig beeinträchtigen oder gar verhindern.
Die spätere Erfindung des Mikrofons und Lautsprechers im 19. Jh. erweist sich daher
als politisch und gesellschaftlich folgereiche Erweiterung der menschlichen Stimme.
Wie im Theater die Schauspieler, wurden in der Antike auch die politischen
Redner architektonisch unterstützt. Auf Tribünen erhielten sie eine erhöhte Positi-
on, die ihren Auftritt sowohl optisch als auch akustisch hervorgehoben. Zusätzlich
sorgten rahmende Säulen, die eine weitere Abgrenzung gegenüber den Anwesenden
auf dem Platz boten, für visuelle Aufmerksamkeit.

▶▶ Die Stimme der Redner wurde also eingebettet in ein komplexes Ensemble aus
Medientechniken und Ausdrucksformen der Rhetorik, sowie architektonischer
Anordnungen (vgl. auch Maye 2005). Die künstlich-strategische Inszenierung
der Stimme durfte jedoch nicht als solche in Erscheinung treten, sondern sollte

29
30 1 Medien des Sprechens und Hörens

die Illusion von ‚Natürlichkeit‘ erzeugen. Mit dieser paradoxen Anforderung


sind Redner auch heute noch konfrontiert.

Die oralen Kulturtechniken der Antike, die wir nach Ong als Techniken sekun-
därer Oralität begreifen können, die Mündlichkeit in das Medium der Schrift
übertrugen, wurden in späteren Epochen fortgesetzt und differenziert. Sie finden
sich etwa in den Manuskriptkulturen des Mittelalters wieder, deren ausgeprägt
körperliche Kulturtechniken des Schreibens und Lesens erheblich durch den
Einsatz der Stimme im Vorlesen und Sprechen geprägt waren (s. Kap. 2). Der hier
folgende Abschnitt beleuchtet, wie ausgehend von den Sprechmaschinen des 18.
Jh. ein neues Paradigma sekundärer Oralität entstanden ist: die technisch-appa-
rative, genauer, die mechanische Simulation, die Speicherung und Reproduktion
der Klänge gesprochener Sprache und die damit verbundenen Medientechniken
des Sprechens und Hörens.

1.3 Apparative Medien des Sprechens und Hörens


in der Neuzeit
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit
Bis ins 18. Jh. waren die Kunst des Memorierens (ars memoria) und das Schreiben
die einzigen Kulturtechniken, um gesprochene Sprache zu speichern. Das Spei-
chern in Schriftsprache ging freilich mit einem Medienwechsel einher, der einzelne
Qualitäten von Mündlichkeit zwar imitieren konnte, aber die gesprochenen Laute
in ein abstraktes, visuelles Zeichensystem übertrug (s. Kap. 2). Die Medien und
Kulturtechniken sekundärer Oralität strebten über Jahrtausende – von der Früh-
zeit (Erfindung der Lautsprache, Alphabet), über die Antike (Rhetorik) und das
Mittelalter (Manuskripttechniken) – hinweg immer wieder danach, diesen Medien-
wechsel auszugleichen und Mündlichkeit als ideale und authentische menschliche
Ausdrucksform in der Schrift zu implementieren. Vor diesem Hintergrund liegt es
nahe, dass diese Bestrebungen auch mit den naturwissenschaftlichen Erkenntnissen
über den menschlichen Sprech- und Hörapparat im Zeitalter der Aufklärung mit
neuen Mitteln fortgesetzt wurden.
Frühe technisch-apparative Errungenschaften der Medizin und Mechanik zielten
im 18. Jh. darauf ab, das flüchtige Moment von sprachlichem und musikalischem
Klang speicherbar und damit wiederholbar zu machen: Apparate zu Simulation und
Reproduktion (Sprechmaschinen, Musikapparate), zur Speicherung (Grammophon,
Schallplatte, elektronische Klangmedien) sowie zur Live-Übertragung von Stimme
und Klang (Telefon, Radio). Im Mittelpunkt stand dabei nicht mehr nur der Klang
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 31

der menschlichen Stimme. Das naturwissenschaftliche und technologische Interesse


erweiterte sich vielmehr auf grundsätzliche Phänomene und Gesetzmäßigkeiten der
Akustik, der physikalischen Schallübertragung von Klängen und ihrer Wahrneh-
mung im Hören. Die apparative Erzeugung und Speicherung von Klang als zeitlich
ephemerem Phänomen und damit als Ausdruck ‚gelebter Momente‘ beeinflusste die
weitere Ausbildung von Medien des Sprechens und Hörens in entscheidendem Maße.
Die Gemeinsamkeit der genannten Apparaturen liegt darin, dass ihre Nutzer
ein Sende- bzw. Empfangsgerät benötigen. Aus diesem Grund können wir sie im
Anschluss an Pross in die Kategorie der sekundären (Sprechmaschinen) und tertiären
Medien (Grammophon, Schallplatte, elektronische Klangmedien, Telefon, Radio)
einordnen. Als solche haben sie im Laufe der Mediengeschichte drei zentrale tech-
nische Stadien durchlaufen, die im Folgenden skizziert werden: das mechanische,
das elektronische und das digitale Stadium. Diese Stadien sind wesentlich von der
Tendenz geprägt, die technischen Kanäle der Speicherung, Übertragung und Bear-
beitung der Stimme und anderer Klänge ‚un-hörbar‘ zu machen und den Nutzern
einen maximalen Eindruck von ‚Natürlichkeit‘ und ‚Lebendigkeit‘ zu vermitteln.

1.3.1 Mechanische Medien des Sprechens und Hörens

1.3.1.1 Sprechmaschinen & Musikapparate


Die mechanisch-apparative Technisierung der Stimme und des Sprechens basiert v. a.
seit dem 18. Jh. auf der wissenschaftlichen Erforschung des menschlichen Sprechens
und Hörens, sowie physikalischen Prinzipien der Akustik. Mit der physiologischen
Untersuchung des Sprechapparates entwickelten einzelne Gelehrte auch das Inte-
resse, die Stimme als ‚lebendigstem‘ Ausdruck menschlicher Wesenhaftigkeit nun
mechanisch zu simulieren. Zu ihnen gehört beispielsweise Christian Gottlieb Krat-
zenstein, der mit seiner Sprechorgel (ca. 1761) versuchte, menschenähnliche Vokale
zu erzeugen, indem er die Orgelpfeifen durch Resonanzröhren verstärkte. Ebenfalls
nach dem Prinzip einer Orgel funktionierten auch die „Sprechenden Köpfe“ von
Abbée Mical (1783): Unter zwei Puppenköpfen waren orgelähnliche Hohlräume
angebracht, die mit zungenartigen Membranen versehen waren, die mit einem Bla-
sebalg bewegt wurden. Auf diese Weise gelang die Erzeugung sprachlicher Vokale
und Konsonanten, die synthetisch zu Worten und sogar Sätzen zusammengefügt
werden konnten. Wolfgang von Kempelen konstruierte (um 1791) Sprechmaschinen,
in denen er Zungenpfeifen anlegte, die stimmenähnliche Laute erzeugen konnten.
Während die anderen Maschinen durchaus auch für ein Publikum geschaffen wur-
den, das mit automatisierten Ansprachen erstaunt werden sollte, war von Kempelens
Experiment vorwiegend wissenschaftlich motiviert. (siehe Abbildung 1)
31
32 1 Medien des Sprechens und Hörens

Abb. 1
Sprechmaschine von
Wolfgang von Kempelen
(1791)

Ursprünglich baute er seine Sprechmaschinen zur genaueren Analyse der phoneti-


schen Aussprache des Menschen. Als einer der ersten schuf er dabei eine Maschine,
deren Funktionen auch dem menschlichen Stimmapparat ähnelten: „Das Mund-
stück, oder Stimmrohr, das die menschliche Stimmritze vorstellt. Die Windlade
mit ihren inneren Klappen. Der Blasebalg oder die Lunge. Der Mund mit seinen
Nebentheilen. Die Nasenlöcher“, beschrieb von Kempelen selbst seine Erfindung
(1791, zit. n. Gessinger 1994, S. 593).
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 33

▶▶ Auch wenn Apparaturen und Experimente wie die Sprechmaschine nur mehr
Randmomente in der Mediengeschichte der Stimme darstellen, markieren sie
doch das enge Zusammenspiel von früher naturwissenschaftlicher Erforschung
des menschlichen Körpers und apparativen Techniken der Stimmsimulation.
Daneben zeigen sie die damit einhergehende technische Trennung von Stimme
und Körper, sowie das Bestreben, eben diese in der Wahrnehmung der Nutzer
auch wieder zum Verschwinden zu bringen. In eindrücklicher Weise doku-
mentieren sie daher, wie die Illusion des natürlichen Sprechens zum Ziel von
sekundären Medientechniken (i. S. v. Pross) wurde, die eben diese Trennung
allererst herstellten.

Populärer und historisch wesentlich einflussreicher als die Sprechapparate waren


Musikapparate. Ihre Geschichte reicht bereits ins 9. Jh. v. Chr. zurück, als man
Stiftwalzen als Speichermedien einsetzte. Die Walzen ermöglichten über reliefartige
Erhöhungen, Tonabfolgen zu notieren und mechanisch abzuspielen. Dabei machten
sie sich frühe Formen der musikalischen Notation zunutze. Dieses einfache Grund-
prinzip prägte in verschiedenen Abwandlungen die akustischen Speicher- und
Verbreitungsmedien bis weit ins 20. Jh. hinein. In Europa wurde die Technologie seit
1300 für Glockenspiele eingesetzt, um 1700 dann für Spielorgeln und Spieluhren.
Um 1800 wurden anstelle von Stiftwalzen zunehmend Lochkarten verwendet, bei
denen die Kodierung der Tonabfolgen über die Abfolge von Stanzlöchern auf einer
Papierrolle geschieht. Diese Technik stellt eine entscheidende Grundlage für die
Entwicklung der Computertechnologie dar (s. Kap. 2).
Der Simulation der menschlichen Stimme ging also lange die automatisierte
Erzeugung musikalischer Klänge voraus. Die mit beiden Bestrebungen einherge-
henden Medientechnologien zielten darauf ab, flüchtigen Klang in seiner affektiven
und körperlichen Dimension nicht nur künstlich zu erzeugen, sondern in der
Automatisierung auch wiederholbar und damit speicherbar zu machen.

1.3.1.2 Phonograf, Grammophon und elektronische


Klangmedien
Während ihres Jahrhunderte andauernden Einsatzes wurden die Walzen- und
später die Lochkartentechnik für das mechanische Abspielen instrumentaler Mu-
sik eingesetzt. Die menschliche Stimme ließ sich mit ihnen bis ins 19. Jh. jedoch
nicht simulieren – trotz aller Versuche, die seit dem 18. Jh. unternommen worden
waren. Dies gelang erst, als Thomas Alva Edison auf der Grundlage moderner
naturwissenschaftlicher Kenntnisse über Schallausbreitung und elektronische
Schallerzeugung die Walzentechnik modernisierte. Mit dem Phonografen schuf er
ein Gerät, das den Klang tatsächlich gesprochener Sprache aufzeichnete. Hierzu
33
34 1 Medien des Sprechens und Hörens

erfand er einen speziellen Schalltrichter, der die gesprochenen Laute und Klänge
bündelte und über ein Aufzeichnungsgerät auf die Walzen übertrug. Auf diese Weise
wurde es erstmals möglich, die menschliche Stimme beim Sprechen zu speichern
und auch mechanisch wiederzugeben. Indem er seinen Apparat Phonograf – also
‚Klang-Schreiber‘ (griech. phono: Klang; graph: Schreiber) – nannte, verortete
er diesen eindeutig in der langen Technikgeschichte sekundärer Oralität: dem
Übertragen von sprachlichen Klängen in ein Notationssystem. (siehe Abbildung 2)

Abb. 2
Phonograf von Edison
(1877)

Auch die von Edison erdachten Funktionen entsprachen der Schrift-Tradition.


Er brachte den Phonografen um 1877 als ein Gerät auf den Markt, mit dem das
Aufzeichnen und Abspielen gesprochener Sprache zu pragmatischen Zwecken
ermöglicht werden sollte: als Diktiergerät in Unternehmen und Verwaltungen, das
Arbeitsgänge erleichtern sollte, sowie als ‚Hör-Buch‘ für Blinde. Edisons Erfindung
zielte damit in erster Linie auf eine Erweiterung des Buches und der Schrift ab, also
auf die Notation und Speicherung von Sprache. Für seine Zeitgenossen ging vom
Phonografen jedoch eine besondere Faszination aus, weil er erstmals die flüchtigen
Klänge des Sprechens und damit den Aspekt des ‚lebendiger Wesens‘ in der indi-
viduellen menschlichen Stimme festzuhalten vermochte. Sie verglichen ihn daher
mit einer anderen Erfindung dieser Zeit: der Fotografie (vgl. Flichy 1994, S. 109; s.
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 35

Kap. 3). Während der Phonograf flüchtige Schallwellen speicherte, wandelte die
Camera Obscura des Fotoapparates Lichtwellen foto-chemisch in manifeste Bilder
um und hielt auf diese Weise flüchtige Blickmomente fest. Beide Apparaturen ver-
bindet zudem, dass die von ihnen gespeicherten Eindrücke und Ansichten von nun
an reproduzierbar wurden. In diesem Sinne wurde der Phonograf auch von seinen
Mitstreitern in der Wissenschaft aufgegriffen, etwa von dem Naturwissenschaftler
Louis Figuier. Er sah im Phonografen die einmalige Chance, die Stimmen und
Reden bedeutsamer Persönlichkeiten über ihren Tod hinaus zu archivieren und
wiederholt abspielbar zu machen:

„Das Institut [de France] wird unverzüglich eine Art Bibliothek einrichten, in der
die Walzen mit den Stimmen der Institutsmitglieder gelagert werden sollen. Es wird
nicht das geringste Wunder der Zukunft sein, die Toten zum Sprechen zu bringen“,
prognostizierte Louis Figuier (1889, zit n. Flichy 1994, S. 112).

Die Interessen einzelner Wissenschaftseliten entsprachen jedoch nicht den kollekti-


ven Bedürfnissen ihrer Zeitgenossen, zumal das Abspielen körperloser Sprech-Stim-
men bei einigen Unbehagen erzeugte (s. u.). Seine historische Bedeutung erzielte
der Phonograf daher in einer ganz anderen, vertrauteren Verwendungsweise, für
die es mit den Musikapparaten bereits Vorläufer gab: dem Speichern und Abspielen
von Musik zu Unterhaltungszwecken. Neu war indessen, dass jetzt auch gesungene
Musik abgespielt werden konnte, was besonders für die populären Gattungen des
Schlagers und der Operette von Vorteil war. Auf das kollektive Interesse seiner
Käufer stellte sich Edison allerdings erst ein, als ein Konkurrenzprodukt machtvoll
auf den Markt trat: das Grammophon.
Emil Berliner, der Erfinder des Grammophons (siehe Abbildung 3), hatte sein
Gerät um 1890 als reines Abspielgerät für den breiten Hausgebrauch entwickelt.
Im Hinblick auf die Nachfrage reduzierte er dabei die von Edison geschaffenen
Funktionen: im Unterschied zum Phonografen, war es dem Nutzer jetzt nur noch
möglich, bereits aufgenommene Stimmen und Musik abzuspielen, nicht aber, sie
selbst aufzuzeichnen. Dadurch wurde das Grammophon in seiner Bedienung
einfacher und entsprach in seiner Funktion wesentlich mehr den kollektiven Un-
terhaltungsbedürfnissen der Zeitgenossen, denen das selbstständige Aufnehmen
von Klang noch fremd war. Dementsprechend lautet die wörtliche Bedeutung
des Grammophons: geschriebener Laut (griech: grámma: Geschriebenes; phon:
Klang, Laut). Auch hier wirkt die Vorstellung einer Übertragung von Klang in ein
Schriftmedium bzw. Notationssystem nach. Im Unterschied zum Phonografen ist
hier der Klang aber bereits aufgezeichnet, ‚geschrieben‘.

35
36 1 Medien des Sprechens und Hörens

Abb. 3
Grammophon (ca. 1907)

Das Grammophon bot bedeutsame Vorteile. Denn neben dem Abspielmedium hatte
Berliner ein neues akustisches Trägermedium erfunden: die Schallplatte. Die Schall-
schwingungen stimmlicher, musikalischer und anderer Klänge wurden über einen
Schalltrichter gebündelt und in Form grafischer Reliefs über die Klangschwingungen
einer Nadel rillenförmig in eine flache, beschichtete Platte geprägt. In dieser Form
konnten sie über eine schwingungssensitive Nadel im Abspielgerät des Grammophons
wieder in Klang übertragen werden. Medienhistorisch bedeutsam war dabei, dass
auch eine Negativversion einer Schallplatte erstellt wurde, von der beliebig viele
identische Positivversionen als Kopien gemacht werden konnten. Beim Phonogra-
fen hingegen mussten die Walzen einzeln hergestellt werden. Die Produktion der
Schallplatte und damit auch der Endpreis für die Käufer waren daher wesentlich
günstiger, als dies bei der Walzentechnik der Fall war. Im Bereich der Audio-Medien
wurde die Schallplatte damit das erfolgreiche Äquivalent zum Buchdruck und zur
Fotografie: sie alle erlaubten die massenhafte Reproduzierbarkeit eines medialen
Artefaktes (Buch, Bild, Musikstück usw.). Als günstig und einfach herstellbarer
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 37

Massenartikel entsprach die Schallplatte dem sich ausbreitenden Freizeit- und


Konsummarkt. So entstand um 1900 ein rasch wachsendes Schallplattenangebot,
das die verschiedenen musikalischen Vorlieben der Konsumenten bediente. Dem
Erfolg von Schallplatte und Grammophon als populärem Musikmedium kam
auch die fortschreitende Verbesserung der Klangqualität zugute, die Verlängerung
der Laufzeiten, sowie die schrittweise Vereinfachung der Bedienungstechnik. Als
1912 die Produktion des Phonografen schließlich eingestellt wurde, hatten Gram-
mophon und Schallplatte bereits neue Wahrnehmungsweisen und Praktiken des
Hörens geschaffen, die im Verlaufe der folgenden Jahrzehnte weiter differenziert
wurden. Ihr wesentliches Merkmal war, dass menschliche Stimmen und Musik
losgelöst vom körperlichen Gesamteindruck der Musik rezipiert wurde, wie man
ihn bis dahin bei Konzert- und Bühnenaufführungen kannte. Damit rückte der
Aufführungscharakter der Musik in den Hintergrund, und an seine Stelle trat
der individualisierte, apparativ vermittelte Musikkonsum an unterschiedlichen
privaten oder öffentlichen Orten. Diese Entwicklung wurde mit der Durchsetzung
elektronischer Klangmedien2 der Bearbeitung, Speicherung und Reproduktion
von Klängen weiter vorangetrieben: der elektrodynamische Lautsprecher, das
elektronische Mikrofon und das Magnetband. In ihrem Ensemble handelte es sich
um Schlüsseltechnologien, die in der Entwicklung von Telefon, Rundfunk und
Plattenspieler entstanden und medienübergreifend eingesetzt wurden.
Die schrittweise erfolgte Umstellung elektronischer Klangtechnologien nahm
ihren Anfang, als 1925 der elektrodynamische Lautsprecher auf den Markt kam
(vgl. Hiebel et al. 1999). Klänge wurden nun in elektronische Signale umgewandelt
und akustisch verstärkt, womit sich die Klangqualität beim Hören entscheidend
verbesserte. Mit dem 1926 eingeführten elektronischen Tonabnehmer wurde die
Übertragung für den Plattenspieler noch zusätzlich optimiert. Mithilfe dieser
Technologie fand die elektronische Wandlung bereits beim Abspielen der Platte
statt, womit Störgeräusche zusätzlich vermieden werden konnten.
Wie der Lautsprecher, war auch das Mikrofon ursprünglich eine Erfindung
für das Telefon. Im Mittelpunkt stand daher zunächst die möglichst störungsfreie
Live-Übertragung von Stimmen beim Fern-Sprechen (s. u.). Ebenso wurde das Mi-
krofon im Radio zunächst bei Live-Übertragungen eingesetzt, um die Stimme von
Moderatoren möglichst fokussiert an das Ohr der Hörer zu bringen (s. u.). Für die
Plattenindustrie – und im Laufe der 1940er-Jahre auch für elektronisch vorprodu-

2 Phonograf und Grammophon werden hier nicht als elektronische Klangmedien aufgefasst,
auch wenn sie teilweise mit elektrischem Motor betrieben wurden. Entscheidend für die
hiesige Zuordnung ist die Technik der Übertragung und Speicherung von Klang, die bei
diesen beiden Medien mechanisch, bei den nun folgenden aber elektronisch stattfindet.
37
38 1 Medien des Sprechens und Hörens

zierte Radiosendungen – ermöglichte das Mikrofon zudem hochsensitive Klangauf-


nahmen in den Speichermedien Schallplatte und Magnetband. Die elektronischen
Lautsprecher und Mikrofone dienten also in erster Linie transparenten Effekten des
Hörens: der technische Kanal sollte zum Verschwinden gebracht und die Trennung
von Klangquelle bzw. Körper und Klang im auditiven Erleben nivelliert werden.
Dem gegenüber stand ein intensives Erleben auditiver Präsenz von Stimmen und
anderen Klängen, die den Hörern die physische Distanz vergessen machen sollte.
Die elektronischen Audio-Technologien schufen ein neues Paradigma: das nach-
trägliche Bearbeiten, aber auch genuine Erzeugen von Klängen in elektronischen
Apparaturen, unabhängig von physischen Körpern und Instrumenten. Es entstanden
– wiederum im Medienverbund von Rundfunk und Plattenindustrie – Mischpulte,
in denen Musik, Stimmen und Klänge aller Art und aus unterschiedlichen Quellen
(Radioaufnahmen, Plattenaufnahmen, Studioaufnahmen, synthetisch erzeugte
Klänge etc.) in Form elektronischer Signale gemischt und bearbeitet werden
konnten. In der Plattenindustrie hatte dies zur Folge, dass Musikproduktionen
zunehmend im Studio entstanden und der Konzertcharakter zeitweise völlig in
den Hintergrund trat – eine Entwicklung, die künstlerisch vor allem durch die
Konzeptalben der britischen Popband The Beatles (z. B. Serg. Pepper’s Lonley Hearts
Club Band, 1967) vorangetrieben wurde.
Die Einführung elektronischer Klangmedien hat die Speicherung, Wiedergabe
und erstmals auch die technische Bearbeitung von Stimme und Klang wesentlich
verändert. In den 1970er-Jahren setzte sich mit der Kompaktkassette und dem
Kassettenrekorder ein neues Audio-Medium im allgemeinen Gebrauch durch, das
durchgängig auf elektronischer Klangspeicherung und Wiedergabe beruht. Klang
wurde in elektronischen Signalen auf ein dünnes Magnetband gespeichert, das von
einer Kunststoffhülle umgeben war. Weiter unten werden wir genauer sehen, warum
das Prinzip der Magnetbandaufzeichnung von Klang für die Rundfunkmedien
(Radio, Fernsehen) von entscheidender Bedeutung war. Für den breiten Hausge-
brauch zeichneten sich Kompaktkassette und der Kassettenrekorder dadurch aus,
dass sie einfach zu bedienen waren und den Nutzern erstmals auch das eigenstän-
dige Aufnehmen von Musik und Stimme erlaubten, sei es durch Radiomitschnitte
mittels Aufnahmetaste oder mithilfe eines angeschlossenen Mikrofons, das die
Aufzeichnung unterschiedlicher Ereignisse erlaubte (z. B. Live-Konzerte oder
familiäre Gesprächssituationen). Auch das selbstständige Zusammenstellen von
Musik auf den Kassetten (‚Mix-Tape‘) entwickelte sich zu einer populären Praxis,
die bezeichnend für die Ausweitung der Individualisierung von Hör-Kulturen war.
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 39

▶▶ Resümierend lässt sich festhalten, dass Phonograf, Grammophon und elekt-


ronische Klangmedien die bereits mit Musikapparaten und Sprechmaschinen
etablierten apparativen Technologien sekundärer Oralität fortgeführt haben (vgl.
Hiebler 2005). Gesprochene, gesungene, oder instrumentell erzeugte musika-
lische Klänge wurden jetzt durch apparative Aufnahme- und Abspielsysteme
speicherbar und reproduzierbar. Zugleich waren dies jedoch Systeme, deren
technische Funktionsweise sich dem gemeinen Nutzer immer weniger erschlossen.

1.3.2 Elektronische Medien des Fern-Sprechens und


Fern-Hörens: Telefon und Radio

Wie bereits angedeutet, lagen die Ursprünge elektronischer Klangmedien bereits


im 19. Jh., in der Entwicklung zweier gänzlich neuartiger Kommunikationsmedi-
en: auf der einen Seite das Telefon, das Dialoge über räumliche Distanzen hinweg
ermöglicht, und auf der anderen Seite das Radio, das erste Massenmedium in der
Geschichte, das über elektromagnetische Wellen ein breit verstreutes Publikum in
Echtzeit erreichte. Da beide Medien die gleichzeitige Kommunikation über räumliche
Grenzen hinweg erlauben, werden sie auch als Tele-Medien bezeichnet (griech. tẽle:
fern, weit). In der historischen Genese ihrer kommunikativen Funktionen waren
das Telefon und das Radio anfangs eng verbunden. Es liegt daher nahe, sie auch
hier zusammenhängend vorzustellen.
Für die frühe Geschichte des Telefons (griech. tẽle: fern; phon: Klang, Laut) ist
bedeutsam, dass es aus einem Schriftmedium hervorging – dem Telegrafen (s. Kap.
2) –, das zur schnellen Versendung von Informationen über weite Entfernungen
hinweg entwickelt worden war: schriftliche Botschaften wurden über einen Kode
(Morsekode) in Drucksignale (lang, kurz, Pause) am Sendegerät übertragen und am
Empfangsgerät über einen Wandler in Form eines Telegramms in den sprachlichen
Text zurück übersetzt. Die Erfindung des Telegrafen durch Edward Morse hatte
im Verlauf des 19. Jh. bereits zu einer breiten Verkabelung von Orten und Ländern
gesorgt, die sich sogar über die Meere hinweg erstreckte. Besonders England und
Deutschland hatten – ausgehend von militärischen Interessen an einer raschen
Befehlsübermittlung und strategischen Planung über weite Entfernungen hinweg
– massiv in den internationalen Ausbau der Leitungen investiert (Göttert 1998).
Von dieser neuen Infrastruktur profitierte auch das Nachrichten- und Pressewesen.
Auf einmal konnten in kurzer Zeit Informationen und Nachrichten um die Welt
geschickt und journalistisch verarbeitet werden. Damit wurden Schnelligkeit und
Aktualität zu neuen relevanten Kriterien journalistischer Berichterstattung, was
zu einer weiteren infrastrukturellen Veränderung führte. Um 1850 wurden erste

39
40 1 Medien des Sprechens und Hörens

Nachrichtenagenturen gegründet, die sich der schnellen Vermittlung von Infor-


mationen an die Pressehäuser verschrieben und hier eine neue Aufgabe fanden
(z. B. AP, Reuters oder Wolffs Telegrafenbüro). Hier entstand die moderne Idee
einer vernetzten Welt, in der man nicht nur über die Ereignisse im eigenen Land,
sondern über dessen Grenzen hinaus auf dem Laufenden war.
Während bereits der elektronische Telegraf als Schriftmedium neue Kommuni-
kationsverhältnisse schuf, arbeiteten die Techniker Johann Philipp Reis und Graham
Bell an einer akustischen Versendung von Kurz-Informationen durch das Telefon.
(siehe Abbildung 4) Dabei ging es ihnen nicht um die Erfindung eines Dialogme-
diums im heutigen Sinne. Vielmehr sah man die Chance, Informationen durch
elektromagnetische Weiterleitung von mündlichen Botschaften noch effizienter und
direkter, ohne die Umwandlung in einen abstrakten Zeichen-Kode, versenden zu
können. Reis strebte gleichwohl von Beginn danach, die Komplexität menschlicher
Stimmwahrnehmung in der telefonischen Schallübertragung möglichst optimal
vermitteln zu können, wie dies in einem Bericht über Reis in der Zeitschrift Die
Gartenlaube damals geschildert wird: „[…] Wie sollte ein einziges Instrument die
Gesammtwirkungen aller bei der menschlichen Sprache bethätigten Organe zugleich
reproduciren? – Dies erschien ihm als Hauptfrage, die er nachmals strenger dahin
formulirte: „wie nimmt unser Ohr die Gesammtschwingungen aller zugleich thätigen
Sprachorgane wahr?“ („Der Musiktelegraph“, in: Die Gartenlaube, 1863, S. 808)

Abb. 4 Telefon von Johann Philipp Reis (1863)


1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 41

Das erste von Bell schließlich 1876 erfolgreich getestete Telefon besaß eine Sprech-
und eine Hörapparatur. Über ein Mikrofon im Sprechapparat setzte der Schall der
gesprochenen Worte eine Metallmembran in Schwingungen. Die dabei erzeugten
elektrischen Signale verbreiteten sich über das Telefonkabel und wurden vom
Empfangsgerät wieder in die sprachlich artikulierten Schallwellen rückübertragen.
Damit sich das Telefon auch im breiten Gebrauch durchsetzen konnte, war ein
massiver Ausbau der Infrastrukturen notwendig, allem voran die Ausweitung
des Kabelnetzes, das erst um 1900 in den USA und Europa hierfür hinreichend
ausgebaut war. 1889 wurden in Deutschland 354.000 km Kabel für Ortsgespräche
verlegt, sowie 129.000 km Kabel für Ferngespräche; im Jahr 1928 waren es bereits
1,6 Mio. km Fernkabelnetz in Deutschland mit fast 3 Mio. Telefonanschlüssen
(Göttert 1998, S. 416). Daneben mussten in den Orten und Städten Telefonämter
eingerichtet werden, in denen Telefonate angemeldet und die Verbindung zwischen
zwei Gesprächspartnern manuell hergestellt wurde. (siehe Abbildung 5)
Als Dialogmedium wurde das Telefon in der Anfangszeit nur von einem be-
grenzten, eher privilegierten Teilnehmerkreis genutzt: vom Militär, im Bereich des
Journalismus und in Unternehmen. Dabei stand weniger das interaktive Gespräch
im Vordergrund, als die schnelle Absprache, die Durchgabe von Befehlen und
die Informationsübermittlung. Daher wurde das Telefon zu Beginn auch gern als
„sprechender Telegraph“ bezeichnet (Flichy 1994, S. 205). Der erste Satz, den der
Erfinder Bell durchs Telefon zu seinem Assistenten sprach, hatte auch einen deut-
lichen Befehlscharakter: „Herr Watson, ich möchte, dass Sie kommen!“ Daneben
entwickelten sich massenmediale Nutzungsweisen des Telefons, die ebenfalls noch
weit entfernt waren vom heute üblichen dialogisch, interaktiven Gebrauch. Jour-
nalisten erkannten im Telefon die Chance, ein breites und verstreutes Publikum zu
erreichen und nutzten es teilweise als frühes Rundfunkmedium. Der ungarische
Journalist Theodor Puskás etwa gründete 1893 die Telefonzeitung Hirmondó und
sah ihre Vorzüge in einer schnellen und gleichzeitigen akustischen Vermittlung:
„Meine Telefonzeitung unterscheidet sich von allen bisher bestandenen Zeitungen
vorzüglich dadurch, dass sie nicht auf dem Wege der Druckerpresse erzeugt wird,
sondern dass dieselbe gesprochen und daher all ihre Artikel, Nachrichten und
sonstige Mittheilungen durch Vermittlung des Telefons direct [sic!] den Gehöror-
ganen des Publikums zuführt“ (zit. n. Höflich 2005, S. 185).

41
42 1 Medien des Sprechens und Hörens

Abb. 5 Frühe Illustration des Fern-Sprechens (1877)


1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 43

Im breiteren Alltagsgebrauch wurde das Telefon zudem als musikalisches Massen-


medium populär. Im Unterschied zu Phonograf und Grammophon bot es schließlich
den Vorteil, über weite Entfernungen live Ereignisse vermitteln zu können. Mit
dem „Opern-Telefon“ (siehe Abbildung 6) entstand ein frühes rundfunkähnliches
Live-Medium, das ab 1880 Konzerte und Opern zuhause oder in öffentlichen Ein-
richtungen (mit Namen wie „Theatrophon“ oder „Elektrophon“) übertrug, in denen
Nutzern mehrere Apparate zur Verfügung standen, die mit Münzfernsprecher in
Gang gesetzt werden konnten. „Man hat den Telefonhörer am Ohr, das Textbuch
und vielleicht auch, wenn man musikverständig ist, die Partitur vor sich liegen,
und wohnt trotzdem musikalisch der Aufführung einer Oper bei, obwohl man
irgendwo, nur nicht im Theater ist“ (Willi Feudel, zit. n. Flichy 1994, S. 192), lautet
eine zeitgenössische Beschreibung des Münchner Operntelefons. Wie sich hieran
ablesen lässt, war mit dem Telefon also ein „Proto-Rundfunksystem“ (Höflich 1998,
S. 193) entstanden, welches die wesentlichen Funktionen des kurz darauf entste-
henden Radios bereits entwickelt hatte: das Senden von einzelnen Akteuren an ein
breites, disperses Publikum zum Zwecke der Information und der Unterhaltung.

Abb. 6 Theatrophon (1892)


43
44 1 Medien des Sprechens und Hörens

Die nur zögerliche Durchsetzung des Telefons als privates Dialogmedium lag u. a.
darin begründet, dass die technischen Infrastrukturen über lange Jahre erst aufgebaut
werden mussten: Kabelnetz, Telefonämter, Optimierung der Übertragungsqualität
und Verbreitung der Telefongeräte in der Bevölkerung (siehe Abbildung 7). Ein
weiterer bedeutsamer Grund war, dass sich das technisch vermittelte Fern-Sprechen
als ein gänzlich neuer Kommunikationsmodus in der Wahrnehmung und Praxis
der Menschen zunächst noch entwickeln musste. Die zuvor aufgezeigten ersten
Nutzungsweisen des Telefons waren bezeichnender Weise noch an den vertrauten
Schrift- und Klangmedien orientiert. Die Diskrepanz zwischen der ungewohnten
auditiven Nähe der Stimme des Gesprächspartners am Ohr und seiner räumlichen
Abwesenheit war für die Zeitgenossen zu Beginn irritierend. Die technische Trennung

Abb. 7
Frühes Telefon mit
Wählscheibe (1909)
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 45

von Körper und Stimme, die bereits Phonograf und Grammophon technisch eta-
bliert hatten, wurde mit dem Telefon noch weitergetrieben. Jetzt waren es nicht
mehr nur vormals aufgezeichnete Stimmen öffentlicher Personen (wie Musiker oder
Redner), die körperlos ans Ohr drangen. Es waren die Stimmen von Personen aus
dem eigenen Lebensumfeld, die in Echtzeit übertragen wurden und mit denen man
über Distanz in einen ‚lebendigen‘ Dialog treten konnte. Die bis dato unabdingbare
Voraussetzung für ein zwischenmenschliches Gespräch, nämlich die gleichzeitige
Anwesenheit am selben Ort, die mit gegenseitiger ganzheitlicher Wahrnehmung
(auditiv, visuell, proxemisch, s. o.). einher ging, wurde durch das Telefon aufgeho-
ben. Eine solche, menschheitsgeschichtlich völlig neuartige Erfahrung wurde als
technisches Kuriosum wahrgenommen, das – ähnlich wie die Sprechmaschinen
des 18. Jh. – zunächst unheimliche Effekte erzeugte. Der elektromagnetische
Übertragungsvorgang und das Hören der Stimmen Abwesender lag für Viele im
Bereich unerklärlicher Magie.
Auch nachdem das Medium seine anfänglich mysteriösen Wirkungen verloren
hatte, mussten erst neue Praktiken und Ausdrucksformen des Fern-Sprechens
entwickelt werden, bevor sich das Telefon als interaktives Dialogmedium im pri-
vaten Gebrauch durchsetzen konnte. An erster Stelle stand die Herausforderung,
die körperlose Stimme des Gesprächspartners stellvertretend über den Apparat
zu adressieren. Wie es Vilém Flusser in seiner Schrift zum Telefonieren auf den
Punkt gebracht hat:

„Man muss sich bemühen, das Medium mit dem anderen zu identifizieren (so wie
man seinen Brustkorb mit ihm identifiziert), damit aus dem Dialog am Telefon eine
intersubjektive Beziehung wird“ (Flusser 1991/2000, S. 189).

Die fehlende Sichtbarkeit des Gesprächspartners verhinderte aber zunächst eine


letztgültige Identifikation und schuf neuartige Unsicherheiten in der gegenseitigen
Adressierung. Denn mit dem Akt des Anrufens dringt man in den (privaten oder
beruflichen) Raum des anderen ein, ohne zu wissen, in welcher Situation er sich
gerade befindet. An erster Stelle der Ausbildung neuer Regeln des Telefonierens
stand daher die Frage, was die angemessenen Anlässe für einen Anruf sind. Die
Grenzen zwischen privatem und öffentlichem Leben mussten somit noch mal
neu justiert werden. Daneben galt es, neue Gesprächsregeln auszubilden: für die
Begrüßung und den Abschied, die gegenseitige Identifizierung, sowie für den
Gesprächsverlauf. Eine besondere Herausforderung stellte dabei für die frühen
Nutzer die Koordination des wechselseitigen Sprechens und Hörens dar. Aufgrund
der fehlenden Signale in Gestik und Mimik, die sonst nonverbal die Koordination
ermöglichen, mussten Regeln des Hin- und Her-Sprechens entwickelt werden, wobei

45
46 1 Medien des Sprechens und Hörens

Tonfall, Tempo, Pausen, aber auch neue Redeformeln im Sprechen eine zentrale
Bedeutung erhielten (Höflich 1998).
Mit der zunehmenden Aneignung des Telefons als Medium des Fern-Sprechens,
wurde die Technisierung der menschlichen Kommunikation entscheidend weiter
vorangetrieben. Diese war erst vollzogen, als die neuen kommunikative Kodes und
Regeln in die Alltagspraxis übergegangen waren. Erst dann konnte das technisch
vermittelte Fern-Sprechen als selbstverständlich und quasi natürlich empfunden
werden – wie dies bis heute der Fall ist. Entscheidend beteiligt an dieser ‚Natura-
lisierung‘ technisch vermittelten Sprechens war die Industrie. Die technologische
Entwicklung des Telefons war geprägt von dem Bestreben, die sinnliche Präsenz
der Stimme in maximaler Wiedergabetreue und störungsfrei zu übermitteln, so
dass der technische Übertragungskanal unterhalb der Wahrnehmungsschwelle
geriet. Mit anderen Worten: mit der Perfektionierung der Übertragungstechnik
verschwand diese als apparatives Medium immer mehr aus dem Bewusstsein der
Nutzer. In diesem Sinne stand, wie auch bei anderen technisch-apparativen Medien,
die Simulation körperlicher Präsenz im Vordergrund, welche die Technisierung
des Körpers vergessen machen sollte. Mit den Worten des Medienhistorikers John
Durham Peters: „Das Telefon entstammt einer langen Tradition technischer Geräte,
deren Zweck es ist, Präsenz zu beschwören. Insofern ist es vor allem ein theologisches
Medium. Seine Aufgabe besteht darin, abwesende Körper zu manifestieren – in
der Stimme“ (2000, S. 61).

▶▶ Die frühe Geschichte des Telefons zeigt, wie ein neues Medium zunächst frühere
Medien aufgreift (Telegraf, Presse, Oper, Schallplatte), dann aber mit zuneh-
mender Aneignung durch die Nutzer ganz unterschiedlichen und schließlich
neuen Medien und kommunikativen Praktiken Vorschub geleistet hat. Von
einem akustisch erweiterten Schriftmedium (akustischer Telegraf), über ein
rundfunkähnliches Massenmedium (Proto-Rundfunk), bis hin zu dem bis heute
spezifischen Gebrauch als interaktives Dialogmedium (Telefon). Weiter unten
werden wir sehen, wie sich unter dem Einfluss von Digitalisierung und Internet
weitere mediale Praktiken und Formationen des Telefonierens ausgebildet haben,
welche die frühe Multifunktionalität fortsetzen.

Die Entdeckung elektromagnetischer Wellen durch Heinrich Hertz im Jahr 1886


veranlasste eine Reihe an Erfindern zur Entwicklung von Apparaturen, die die
drahtlose Versendung von Stimme und Klang ermöglichten. In ihrer Kombination
begründeten diese Apparaturen und Technologien ein neues auditives Tele-Medium:
das Radio. Auch die frühe Technikgeschichte des Radios zeigt, dass die mediale
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 47

Konfiguration und Funktion dieses Mediums erst durch das Wechselspiel unter-
schiedlicher Erfinder und Bedürfnisse zeitgenössischer Nutzer entstand.
Für die technische Konfiguration des Radios waren besonders folgende apparative
Komponenten entscheidend: die Entwicklung radioleitender Röhren (Detektoren)
durch Édouard Branly im Jahr 1888, die es ermöglichten, elektromagnetische
Wellen in elektrischen Strom umzuwandeln. Erst als derartige Detektoren in die
Empfangsgeräte eingebaut werden konnten, waren diese in der Lage, elektromag-
netische Wellen kabellos über weitere Entfernungen zu empfangen. Ihre Erfindung
wird daher auch gerne als die wesentliche Voraussetzung des drahtlosen Funks
betrachtet. Ein weiterer Schritt hin zum Radio wurde durch Oliver Lodge geleistet,
der im Jahr 1894 ein Verfahren zur Frequenzabstimmung zwischen Sende- und
Empfangsgerät entwickelte, das es ermöglichte, die Radiogeräte auf die Wellenfre-
quenz der Sender einzustellen. Zur weiteren Optimierung des Kontaktes zwischen
Sender und Empfänger wurde daneben 1895 von Alexander Popow die Antenne
entwickelt, die zu einem wesentlichen Element von Funk- und Radiogeräten wurde,
über das elektronische Frequenzen gezielt empfangen werden konnten. Es dauerte
dann noch bis in die ersten Jahre des 20. Jh., bis die Stimmübertragung durch Funk
ohne massive Störgeräusche wie Rauschen und Knallen funktionierte.
Einer der ersten, der diese bzw. vergleichbare Komponenten der Funk-Technik
kombinierte, öffentlichkeitswirksam vorführte und unternehmerisch zum Radio
ausbaute, war der Italiener Guglielmo Marconi. Aufsehen erregte er erstmals, als er
1895 eine Funkübertragung über zwei Meilen zustande brachte (Gethmann 2005,
S. 89). Schneller als die anderen Erfinder erkannte Marconi auch das ökonomische
Potential der neuen Funk-Technologie und beantragte 1896 das Patent auf die
„Kommunikation über Hertz’sche Wellen“ – sehr zum Ärger seiner Konkurrenten.
Nach größeren Investitionen in den Ausbau des Funksystems gelang Marconi
bereits 1899 eine drahtlose Verbindung über den Ärmelkanal hinweg, 1910 dann
über den Atlantik (ebd.).
Obwohl die wesentlichen technischen Komponenten des Tele-Funks um 1900
also vorhanden waren, dauerte es noch einige Jahre, bis sich neue Medientechni-
ken des Sendens und Empfangens elektromagnetisch vermittelter Stimmen und
Klänge entwickelten, die später kennzeichnend für das Radio wurden. Zunächst
war es wieder das Militär, das als erstes den Vorteil des Funks gegenüber bisheri-
gen Apparaturen des Fern-Sprechens erkannte und für sich nutzte. So besaß der
Funk gegenüber Telegraf und Telefon den Vorzug, unabhängig von aufwendig zu
legenden Kabelnetzwerken zu sein und in breiterer Reichweite Botschaften versen-
den zu können. Seinen ersten medienhistorisch nachhaltigen Einsatz erfuhr der
Funk während des 1. Weltkrieges. Neben dem militärisch-strategischen Nutzen
als Befehls- und Informationsapparat, bildeten sich gänzlich neue Gebrauchs-

47
48 1 Medien des Sprechens und Hörens

weisen des Heeresfunks heraus: zum einen der private Nutzen der Funkgeräte als
Telefon, um Kontakt mit der Familie aufzunehmen; zum anderen ein neuartiger
öffentlicher Gebrauch, der die Grundlage des späteren Rundfunkmediums Radio
legte. So verwendete die Heeresleitung den Funk für „Rundsprüche an alle“, was
Befehle ebenso umfassen konnte wie Bekanntmachungen, Heeresberichte und
andere Informationen. Daneben erkannten einzelne Offiziere, dass der Funk zur
Aufmunterung der Soldaten dienen konnte, wenn man darüber Schallplattenmu-
sik versendet. Zu ihnen gehörte der spätere deutsche Rundfunkbegründer Hans
Bredow. Als Offizier der deutschen Funker-Truppe experimentierte er gezielt mit
dem Potential der neuen Sendemöglichkeiten. Indem er über Funk Zeitungsartikel
vorlas und Schallplatten abspielte, nutzte er ihn als öffentliches, journalistisches
Informations- und Unterhaltungsmedium und begründete damit das neue Mas-
senmedium Radio. Bezeichnend hierfür war die Kombination unterschiedlicher
Medien in einer neuen Konfiguration: gesprochene und geschriebene Sprache,
Presseartikel, Schallplatte, Telefon und Funkgerät. So zeichnete sich im Heeresfunk
bereits das Radio als erstes massenmediales Hybridmedium ab.
Der wahre Wandel vom Funkgerät zum Radio vollzog sich nach dem 1. Welt-
krieg. In Deutschland begann Hans Bredow 1918 das staatliche Rundfunksystem
aufzubauen, das allerdings aufgrund politischer und institutioneller Hemmnisse
erst 1923 in der offiziellen Gründung des Deutschen Reichsrundfunks mündete.
Die Vorstellung des unkontrollierten Empfangens und Sendens von Informationen
in der Bevölkerung erzeugte bei Regierung und Militär der Weimarer Republik
nachhaltige Skepsis. Es war vor allem die Industrie, die aus wirtschaftlichen In-
teressen heraus eine Ausbreitung der Rundfunktechnologie vorantrieb. Indem
sie die Empfangsgeräte zunehmend für den privaten Gebrauch optimierte und
die Produktions- und Verkaufskosten systematisch senkte, sorgte sie für eine
rasche Verbreitung der Radiogeräte. Um zu verhindern, dass sich eine autonome,
rein von wirtschaftlichen Interessen getriebene Medienlandschaft entwickelt,
zog die deutsche Reichspost nach und willigte in den staatlich gestützten Ausbau
des Rundfunksystems ein. Spätestens als die Nationalsozialisten die Vorzüge des
Radios als Propagandamedium erkannten, etablierte es sich auch in Deutschland
als Massenmedium des Fern-Hörens. Dazu trug ab 1933 besonders der sogenannte
Volksempfänger bei, der aufgrund seines erschwinglichen Preises zu einer raschen
Verbreitung von Radiogeräten in der Bevölkerung führte. Damit wurde eine
wirkungsvolle Möglichkeit zur propagandistischen Beeinflussung der Menschen
geschaffen, die direkt an die Ohren der Radiohörer gerichtet war. (siehe Abbildung 8)
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 49

Abb. 8
Volksempfänger VE301W
(1933)

Demgegenüber entwickelte sich in den USA, wo der Rundfunk privatwirtschaftlich


organisiert und weniger staatlich angebunden war, das Rundfunksystem wesentlich
schneller. 1921 gab es dort bereits 35 Sender und 70.000 Empfänger. In England
wurde 1922/23 der staatliche Rundfunk BBC gegründet.
Wie bereits betont, war für die Etablierung des Radios als Massenmedium im
Verlauf des frühen 20. Jh. auch die Ausbildung neuer sinnesadressierender Me-
dientechniken und Ausdrucksformen des Sendens und Empfangens elektronisch
vermittelter Stimmen und Klänge notwendig. Für die Anfänge von Funk und Radio
galt, ähnlich wie für das Telefon, dass sie in der breiten Bevölkerung als ‚magische‘
und damit auch unheimliche Apparaturen wahrgenommen wurden, schließlich
drangen körperlose Stimmen kabellos über unsichtbare Wellen ans Ohr der Hörer
– zunächst über Kopfhörer.

„Es wurde tatsächlich als ein weiterer magischer Vorgang auf dem Feld des Akustischen
empfunden, Stimmen nicht nur von ihren Körpern abgelöst auf Tonaufzeichnungen
zu hören, sondern sie auch noch aus dem Äther drahtlos empfangen zu können.“
(Gethmann 2005, S. 242)

49
50 1 Medien des Sprechens und Hörens

Die anfänglich unheimliche Wirkung des neuen Mediums wurde noch verstärkt,
als ein weiterer Entwicklungsschritt gemacht wurde, der das Radio in seiner tech-
nischen Konfiguration vom Funkgerät unterschied und der eine wesentliche Vor-
aussetzung für seinen breitenwirksamen Erfolg wurde: die Erfindung des externen,
elektrodynamischen Lautsprechers durch Oliver Lodge im Jahr 1925 (s. o.). War es
bis dahin noch nötig gewesen, Funkkopfhörer aufzusetzen, vollzog die Erfindung
des externen Lautsprechers eine entscheidende Wende: von nun an konnten die
öffentlich gesendeten Stimmen und Klänge gänzlich ohne Körperkontakt mit
einem Apparat empfangen werden. Aufgrund der elektronischen Wandlung des
Klangs konnte dieser – im Unterschied zu den frühen Schalltrichtern des Gram-
mophons – in hoher Qualität private und öffentliche Räume auditiv füllen. Der
Lautsprecher erzeugte auf diese Weise auch bei den Radiohörern eine bis dahin
ungekannte auditive Omnipräsenz technisch vermittelter Klangwelten. Damit war
eine wesentliche Voraussetzung für das Entstehen neuer Wahrnehmungskulturen
des Hörens geschaffen, die mit der „radikalste[n] aller sensorischer Reorganisationen
der vergangen zwei Jahrhunderte“ verbunden war (Peters, zit. n. Gethman 2005,
S. 252). Die mit Phonograf, Grammophon und Telefon bereits vollzogene Trennung
von Körper und Stimme und die Aufhebung ganzheitlich-sensorischer Kommunika-
tion wurden mit Radio und Lautsprecher erneut weitergetrieben. Sie vollzog damit
technologisch das Grundprinzip des Radios als Rund-Funk-Medium: das zerstreu-
te, ungerichtete Versenden von Klang und Stimme an ein breites, unbestimmtes
Publikum. Mit anderen Worten: es wurde nicht länger ein spezifischer Empfänger
an einem bestimmten Ort adressiert (auch: Punkt-zu-Punkt-Kommunikation, wie
beim Telefon), sondern eine breite Hörerschaft gleichzeitig an verschiedenen Orten.
Der englische Begriff des Broad-Casting bringt dieses mediale Konzept, für das
der Live-Aspekt eine zentrale Rolle spielt (ausführlich s. Kap. 4), auf den Punkt.
Das Radio als Funkmedium konnte zunächst nur in Echtzeit senden. Erst als um
1940 die elektronische Klangaufzeichnung durch Magnettonband und Magneto-
fon zunehmend in die Rundfunkstationen Eingang fand, konnten aufgezeichnete
Mitschnitte eingespielt und Sendungen vorproduziert werden.

▶▶ Die Live-Übertragung ist jedoch bis heute ein prägendes Kennzeichen der Sende-
und Rezeptionsmodi des Radios. In der Echtzeit-Übertragung von Ereignissen
(z. B. Sportereignisse) wird dem Publikum der Eindruck eines ortsunabhängigen
Dabei-Seins suggeriert. Ebenso vermitteln wiederkehrende Sendungen mit
Live-Charakter (z. B. Nachrichten oder Diskussionen) den Eindruck von geteilter
Zeit zwischen den Hörern, aber auch zwischen Hörern und Radiosprechern.
Der Rundfunk ist damit das erste Tele-Medium, in dem sich die Einzelnen als
Teil einer rein medial etablierten Erlebnis-Gemeinschaft erfahren konnten.
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 51

Ein zentrales Merkmal des Radios als Tele-Medium im Unterschied zu den bisher
vorgestellten ist schließlich, dass es sich hierbei um ein Programmmedium handelt.
Mit anderen Worten: die Inhalte sind in Form wiederkehrender Ordnungsprinzipien
angeordnet, wobei Sendeplätze sich auch an den prototypischen Alltagsrhythmen der
Hörer orientieren. Durch die inhaltliche Adressierung potentieller Hörerbedürfnisse
(z. B. musikalische Vorlieben oder thematische Interessen) und die Anpassung des
Programms an die typischen Tagesabläufe der Hörer, zielten die Programmmacher
von Anfang an auf die Habitualisierung des Radiohörens im Alltag.3
Mit der Institutionalisierung des Rundfunks wurde die Ausrichtung der Struk-
tur und Inhalte des Programms an die Bedürfnisse und Gewohnheiten der Hörer
zunehmend auch durch empirische Datenerhebungen unterstützt. In den USA, wo
das kommerziell betriebene Rundfunksystem von Beginn an wirtschaftliche Inter-
essen verfolgte, widmete man sich bereits ab den 1930er-Jahren der Hörerforschung
(heute: Marktforschung). Mit den frühen Mitteln der empirischen Sozialforschung
ermittelten die Pioniere der Medienwirkungsforschung Karl Bühler und Paul La-
zarsfeld zwischen 1931 und 1933 in einer ersten umfangreichen Hörerstudie die
Wirkung des Radios auf seine Nutzer. Im Mittelpunkt stand dabei die Frage, auf
welche Weise die Radiostimmen der Sprecher emotional und kognitiv bewertet
werden: ob die Stimmen als angenehm oder unangenehm erlebt wurden oder
welche Rückschlüsse die Hörer von der Stimme auf die Persönlichkeit der Sprecher
und ihr Aussehen zogen.
Die frühen Hörerstudien prägten nachhaltig das professionelle Fern-Sprechen
im Radio und die Erfindung der Radio-Stimme (Gethmann 2005). Denn nicht nur
den Hörern verlangte das Radio neue Körper- und Wahrnehmungstechniken ab,
auch die Radioproduzenten mussten spezifische Praktiken, Regeln und Kodes dafür
entwickeln, wie die Hörer rein auditiv zu adressieren sind. So stand auch zu Beginn
des Sendens elektromagnetisch vermittelter Stimmen und Klänge eine große Unsi-
cherheit. Bezeichnend hierfür ist die Begrüßungsformel, mit der Walter Benjamin
in seiner berühmten Rundfunkrede von 1929 die Hörer am Radiogerät ansprach:
„Verehrte Unsichtbare …“. Damit einher ging auch die Angst der Radiosprecher
vor dem Mikrofon als „kalte[m], seelenlose[n]“ Apparat – ein Phänomen, das
gerne als „Mikrofon-Fieber“ beschrieben wird (vgl. Gethmann 2005). Mehr noch
als beim Telefon fand in der Radio-Ansprache schließlich eine Virtualisierung des
Fern-Sprechens statt. Es war eine enorme kognitive, emotionale und praktische
Herausforderung für die Sprecher, ein unbestimmtes, unsichtbares Publikum über

3 An dieser Stelle kann der weitreichenden Programmgeschichte des Radios nicht genüge
getan werden. Vgl. zur Radioprogrammforschung u. a. Bucher/Klingler 1995; Goldham-
mer 1995; Barth/Schröter 1997.
51
52 1 Medien des Sprechens und Hörens

das Mikrofon zu adressieren, wissend, dass die eigene Stimme unterschiedliche


Räume erfüllen und nah an das Ohr individueller Hörer dringen wird. Mit anderen
Worten: die Diskrepanz zwischen sensorischer Nähe des Hörens und räumlicher
Entkoppelung des Sprechens, wie sie für die technischen Klangmedien kenn-
zeichnend ist, musste auch von den Radiomachern und Sprechern erst bewältigt
werden. Es mussten neue Körperpraktiken des technischen Fern-Sprechens zu
einem öffentlichen Publikum entwickelt werden.
Daniel Gethmann (2005) beobachtet drei Stadien der „Erfindung der Radio-Stim-
me“: Zunächst herrschte das Konzept des einsamen Sprechers, der mehr das Mik-
rofon im Studio als seine Hörer adressiert. Zu Beginn wurden dementsprechend
v. a. vorgefertigte Texte abgelesen, sodass es sich nur mehr um eine akustische
Übertragung geschriebener Sprache handelte. Erst mit dem Aufkommen von
Sport-Live-Berichterstattungen entwickelten sich langsam spontanere Sprechweisen,
die das Prinzip mündlicher Rede dem neuen Medium anpassten. Als Schlüsseler-
eignis der deutschen Radiogeschichte gilt die Sendung des Sportjournalisten Paul
Laven zum Fußballländerspiel Deutschland gegen Italien im Jahr 1930. Der Sieg
der deutschen Mannschaft ließ Laven dazu hinreißen, das formalisierte Sprechen
vor dem Mikrofon zu vergessen und seinen Glücksgefühlen spontan Raum zu ge-
ben. Seine begeisterten ‚Tor!‘-Rufe gelten bis heute als akustischer Schlüsselsound
der Epoche (vgl. Stieglitz 2013) und als Beginn eines mündlichen Sprechstils im
deutschsprachigen Radio. Als zweites Stadium in der weiteren Entwicklung der
Radio-Stimme sieht Gethmann das dialogische Sprechen: die direkte Adressie-
rung der Hörer durch Wortwahl (z. B. direkte Ansprachen, Begrüßungen etc.)
und Sprechhaltungen. In dieser dialogischen Sprechhaltung wurde das Mikrofon
erstmals nicht mehr als totes Gerät, sondern als ‚Ohr des Hörers‘ imaginiert und
adressiert. Der Apparat wird so, wie Flusser (2002) es für das Telefonieren konstatiert
hat, zum Substitut für den Körper des Angesprochenen. Mittels dieses kognitiven
‚Tricks‘ konnten sich erstmals ‚natürlichere‘ Sprechweisen entwickeln, die stärker
am interpersonalen Gespräch orientiert waren. Gleichwohl basierte dieses Sprechen
weiterhin auf schriftlichen Vorlagen, um möglichst effektiv die Aufmerksamkeit
der Hörer zu lenken (s. rhetorische Kommunikation). Auf diese Weise fand eine
Normierung des Fern-Sprechens statt, die erneut am Schriftmedium Text orientiert
war, während das mündliche Sprechen weiterhin im Hintergrund stand.
Mit Hilfe der erwähnten Hörerforschung wurde schließlich festgestellt, dass
die Persönlichkeit der Sprecher im Radio von besonderer Bedeutung war, um eine
Wiedererkennbarkeit der Sender zu gewährleisten. Es war die individuelle Ra-
dio-Stimme, die einem Sender ein imaginiertes ‚Gesicht‘ bei den Hörern verleihen
konnte, zu dem sie einen emotionalen Bezug entwickeln können. Wie Gethmann
es treffend formuliert: „Es ist nämlich die Stimme, die aus einem Befehlsmedium
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 53

ein Unterhaltungsmedium macht“ (2005, S. 256). Erst als die Radio-Stimme als
Ausdruck individueller Persönlichkeiten ans Ohr der Hörer drang, konnte das neue
Medium einen Mehrwert bieten, der über die reine Vermittlung von Informationen
hinausging. Nachdem sich diese Erkenntnis durchgesetzt hatte, etablierte sich das
bis heute anhaltende dritte Stadium: die Personalisierung der Radio-Stimme. Mit
der Ausprägung individueller Sprechstile der Moderatoren ging einher, dass das
Hörerleben emotional ansprechender, lebendiger, und damit auch unterhaltender
wurde. Denn auf diese Weise können – wie die Hörerforschung zeigte – die Assozi-
ationen und mentalen Vorstellungen der Hörer beeinflusst werden: die körperlosen
Stimmen erhalten imaginativ eine physische und psychische Identität. Die lebendige
Imagination von Erscheinung und Persönlichkeit der Moderatoren, sowie der Auf-
bau von langfristigen Bindungen an sie, sorgen für eine Vertrautheit auch mit den
Sendern. Im Erleben der Hörer tritt über die persönliche Stimme der Moderatoren
das komplexe technische und institutionelle System des Senders und Rundfunks
in den Hintergrund. Die individuelle Radio-Stimme trägt damit entscheidend zur
‚Naturalisierung‘ des Fern-Hörens über Radio bei. Dazu trägt auch bei, dass der
mündliche, personalisierte Sprechstil, der den Hörern eine individuelle Adressierung
suggeriert, die Tatsache relativiert, dass immer ein breites, unspezifisches Publikum
angesprochen wird. Mit Blick auf die fortlaufende Verbesserung von Klangaufnah-
me- und Sendetechnik, sowie den Körperpraktiken des Radio-Sprechens kann also
auch das Radio zu jenen Medien gezählt werden, das in seiner technischen und
ästhetischen Entwicklung danach strebt, seine Medialität zugunsten sinnlicher
Präsenz im Bewusstsein der Nutzer zum Verschwinden zu bringen.

▶▶ Der Abschnitt hat gezeigt, dass Telefon und Radio als elektronische Medien
des Fern-Sprechens und Fern-Hörens in ihren Anfängen eng miteinander
verbunden waren. Die verkabelte Kommunikation über Telefon wurde sowohl
für das einseitige Senden an ein breites Publikum genutzt (Telefon-Zeitung,
Opern-Telefon), als auch für die interaktiv dialogische Kommunikation zwi-
schen Gesprächspartnern. Das Funk-Gerät stellte gleichwohl die eigentliche
Keimzelle des Radios dar, wobei es elektronische Frequenzen zur kabellosen
Kommunikation nutzte. Damit bot es anfangs eine wesentlich breitere Reich-
weite als das Telefon. Aber auch der Funk wurde zunächst sowohl als interak-
tiv-dialogisches, als auch als ein Rundfunk-Medium genutzt (Heeresfunk), bei
dem ein einzelner Sender ein öffentliches Publikum adressierte. Erst mit der
Differenzierung von Telefon und Radio um 1918 entwickelten sich spezifische
Angebots- und Nutzungsprofile beider Medien, mit ganz eigenen Funktionen
und Kommunikationsmöglichkeiten.

53
54 1 Medien des Sprechens und Hörens

Ein wesentliches verbindendes Moment von Telefon und (Rund-)Funk bzw. Radio
war dabei die Ausweitung von Kommunikationsräumen. Im Vergleich zu früheren
Tele-Medien (wie dem Telegrafen) ging hiermit eine starke Virtualisierung von
Kommunikation einher (vgl. Münker 2000): Ort und Erscheinung der Sender und
Empfänger wurden virtualisiert, indem sie während der Kommunikation nicht mehr
ganzheitlich mit den Sinnen erfasst werden konnten – eine Erfahrung, die durch
die Trennung von Körper und Stimme wesentlich verstärkt wurde. Zudem fanden
interpersonale (Telefongespräche) und öffentliche Kommunikation (Radiosendun-
gen) unter technischen Voraussetzungen statt, die von den meisten Nutzern fortan
nicht mehr nachvollzogen werden konnten und deren technologisch-industrielle
Optimierung darauf abzielte, sie im Bewusstsein der Nutzer zum Verschwinden
zu bringen. Rausch- und störfreie Verbindungen lassen die Technizität der beiden
Audio-Medien in den Hintergrund rücken. Sie tragen aber dazu bei, dass privates
und öffentliches Sprechen und Hören in einem zunehmend virtuellen Kommu-
nikationsraum stattfindet, dessen technische und institutionelle Infrastrukturen
den Nutzern weitgehend verborgen bleiben.

1.3.3 Digitale Online-Medien des Fern-Sprechens und


Fern-Hörens

Das Fern-Sprechen und Fern-Hören erfuhr um die Jahrtausendwende seinen nächs-


ten paradigmatischen Wandlungsmoment, als mit der Kopplung von Computer-
technologie und Internet digitale Tele-Medien entstanden. Vor allem Mobiltelefon
und internetbasierte Audio-Formate haben die Medien und Kulturtechniken des
Fern-Sprechens und -Hörens nachhaltig verändert. Bevor dies genauer betrachtet
werden kann, werden in diesem Abschnitt die durch das Internet etablierten, me-
dientechnologischen und kommunikativen Voraussetzungen skizziert, die diese
Veränderung erlaubten. Denn sowohl der Computer als auch das Internet haben
als Schlüsseltechnologien v. a. ab den 1990er-Jahren die weitere Entwicklung aller
bis dato relevanten apparativen Kommunikationsmedien entscheidend geprägt.

1.3.3.1 Das Internet als digitales Medium der


Tele-Kommunikation
Akustische Tele-Kommunikation war nicht das ursprüngliche Ziel bei der Genese
der beiden Multimedien Computer und Internet. Der digitale Computer ging viel-
mehr aus den analogen Schreib- und Rechenmaschinen sowie den Musikautomaten
hervor und hatte somit die automatisierte Verarbeitung, Speicherung und Ausgabe
von Schrift und Zahl zu seinem eigentlichen Ausgangspunkt (ausführlich in Kap. 2).
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 55

Das Grundprinzip des Computers, Daten unterschiedlicher Art (sprachlich, nume-


risch, grafisch, klanglich etc.) in den binären Kode 1/0 zu übersetzen, ermöglichte
eine bis dahin ungekannte Dimension der vernetzten Auswertung, Bearbeitung
und Speicherung von Informationen. Nicht zuletzt um dieses Potential noch zu
erweitern, entwickelten in den 1960er-Jahren Forschung und Militär digitale
Netzwerke, um Computer an unterschiedlichen Orten miteinander zu verbinden
und ihre Datensysteme zu koppeln (ARPA-Net: Advanced Research Project Agency
Network). Auf diese Weise sollten privilegierte, anfangs v. a. militärisch relevante
Wissensbestände erweitert und geschützt zugänglich werden.
Neben der umfassenden Verknüpfung von Computern und ihren Datensätzen,
stellte Tele-Kommunikation innerhalb digitaler Netzwerke das wesentliche medien-
historische Moment dar: von nun an wurde interaktive Kommunikation computer-
gestützt möglich, auf Grundlage datenverarbeitender Algorithmen. Kennzeichnend
war dabei von Anfang an, dass die beteiligten Nutzer vom Empfänger zum Sender
von Nachrichten und Informationen werden konnten. Tele-Kommunikation wurde
auf diese Weise dezentralisiert.
Mit der kommerziellen Nutzung des World Wide Web ab 1991 entwickelten
sich spezifische Formen der Netzkommunikation. Am Anfang stand dabei die
zeitversetzte Kommunikation zwischen Nutzern: Text-Chat, E-Mailing, Mailing-
listen, Newsgroups oder Webseiten. Ab Mitte der 1990er-Jahre entwickelten sich
daneben auch die technischen Voraussetzungen für zeitgleiche Kommunikation:
das synchrone textbasierte Chatten (auch: Internet Relay Chat) zwischen zwei oder
mehreren Personen, MUD-Foren (Multi-User-Dungeon, oder -Dialogue), die kleinen
und großen Gruppen die Interaktion in digitalen Online-Spielen – in zunächst rein
textbasierten, später auch grafischen Umgebungen (s. Kap. 4) – ermöglichen, sowie
das Instant Messaging, bei dem Nachrichten eines Senders sofort zugestellt werden
(auch: Push-Verfahren). Ab 2010 wurde Instant Messaging durch Dienste wie Face-
book und später durch WhatsApp besonders populär. Ab Mitte der 1990er-Jahre
entstanden zunehmend Netzwerkdienste und Plattformen, die das Netz als tech-
nische Infrastruktur für Gebrauchsweisen nutzbar machte, die den Interessen
und Bedürfnissen der Nutzer nach Unterhaltung, Information und Orientierung
entgegenkamen. Damit setzte sich das Internet als Medium der alltäglichen Kom-
munikation durch. Frühe populäre Meta-Dienste waren digitale Suchmaschinen,
die global gespeicherte und vernetzte Daten einem breiten Publikum zugänglich
machten. Mit dieser Entwicklung ging auch die bis heute anhaltende Ausweitung
digitaler Archive und Datenräume einher, die nicht mehr länger nur von privile-
gierten Institutionen (wie Wissenschaft, Staat, Militär) eingerichtet, verwaltet und
kontrolliert wurden. Vielmehr kann jeder Nutzer im Internet eigene Datenräume

55
56 1 Medien des Sprechens und Hörens

erstellen und auf zahlreichen Plattformen (wie YouTube oder Instagram) eigenes
Datenmaterial einstellen.
Den entscheidenden quantitativen und qualitativen Schub in Richtung der
Individualisierung von Datenräumen erhielt die Netzkommunikation mit dem
Aufkommen der sozialen Online-Medien und der Etablierung des sogenannten
Web 2.0. Es ist Ausdruck einer weitergehenden Implementierung der Netzkom-
munikation im Alltag der Nutzer. So entstanden ab 2005 soziale Online-Dienste
wie StudiVZ, Facebook, Twitter und MySpace, in deren Zentrum die Vernetzung
der Nutzer selbst steht. Hierbei geht es nicht in erster Linie um vorhandene und
interaktiv neu generierte Wissens- und Datenbestände. Vielmehr bieten sich die
sozialen Online-Dienste als genuine Foren der Tele-Kommunikation an. Im Unter-
schied zum Telefon oder Rundfunk hatten sie von Anfang an den Vorteil digitaler
Speichertechnik: unter dem Slogan „Connect yourself“ bietet etwa Facebook den
Nutzern die Möglichkeit, individualisierte Datenräume zu erstellen, die der persön-
lichen Außendarstellung gewidmet sind. Individualität wird öffentlich präsentiert
und algorithmisch von der Plattform ausgewertet, gespeichert und automatisiert
wieder nach außen vermittelt. Auf diese Weise entstehen riesige Datenräume indi-
vidueller Nutzerprofile, die sowohl für die interpersonelle Vernetzung als auch die
kommerzielle Verwertung der Plattform genutzt werden (z. B. personenbezogene
Werbung). Wie es in Bezug auf das Mobiltelefon (s. u.) noch ausgeführt wird, tragen
dabei die erweiterten Möglichkeiten der multimedialen Datenverarbeitung wesent-
lich zur Popularisierung und Verbreitung von internetbasierter Kommunikation
im Alltag und in der Gesellschaft bei. Private, ökonomische, politische und andere
Akteure nutzen Texte, Bilder, Sound-Dateien, Filme usw. für Selbstdarstellung und
Kommunikation.
Aktuell ist das Internet längst als eine erweiterte digitale Realität (augmented
reality) in die außermedialen Alltagsumgebungen seiner Nutzer implementiert,
und lässt die Grenzen zwischen Medium und Alltagsgegenstand bzw. technischem
Medium, Körper und Subjekt verschwimmen (ausführlicher in Kap. 2). Es geht über
den Fokus dieser Mediengeschichte hinaus, die ganze Bandbreite an netzbasierten
Formen der Kommunikation und ihrer Folgen in der Gesellschaft zu umreißen
– zumal die Entwicklung noch lange nicht abgeschlossen ist. An dieser Stelle sei
nur festgehalten, dass das Internet generell neue Kommunikationsverhältnisse
und mediale Voraussetzungen etabliert hat, welche sich nachhaltig auf sämtliche
anderen Körperpraktiken und Medientechniken des Sprechens, Hörens, Lesens,
Sehens, sowie der Audiovision ausgewirkt hat, die im Mittelpunkt dieses Buches
stehen und die an gegebener Stelle aufgezeigt werden. Im Kern dieser neuen Kom-
munikationsverhältnisse können im Anschluss an Nicola Döring (2003) folgende
drei Prägemomente hervorgehoben werden:
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 57

▶▶ (1) Das Internet hat gegenüber Telefon und Radio die Tele-Kommunikations-
räume im globalen Maßstab erheblich ausgeweitet. Räumliche und zeitliche
Differenzen von Nutzern an unterschiedlichen Orten werden nahezu nivelliert.

Das von Marshall McLuhan (1968) bereits mit dem Aufkommen des Fernsehens
konstatierte kommunikative Zusammenrücken der Weltgemeinschaft zu einem
‚globalen Dorf‘ gilt jetzt noch mehr. Persönliche, politische, soziale oder kulturelle
Ereignisse können fast zeitgleich auf der ganzen Welt verfolgt werden, womit auch
neue Wahrnehmungs- und Betroffenheitsverhältnisse entstanden sind.

▶▶ (2) Die Grenzen zwischen interpersonaler Kommunikation und Massenkom-


munikation verschwimmen. Die digitalen Netzmedien implizieren immer
beide Möglichkeiten: die Adressierung eines einzelnen Gegenübers oder eines
breiten Publikums.

Das gilt für E-Mails, SMS-Kurznachrichten oder Mikroblogging über Twitter-,


WhatsApp oder Facebook. Es liegt nur mehr an der Entscheidung des Absenders,
wie viele Adressaten er in die Sendeliste einfügt. Im vernetzten Kommunikations-
raum des Internets können zudem die Nachrichten anderer auf einfache Weise an
ein breiteres Publikum weitergeleitet werden. Dabei stellt das Verbreiten, Verlinken
und öffentliche Anerkennen (‚Liken‘) von Nachrichten sogar eine hervorgehobene
und längst ritualisierte Kommunikationsform dar, bei der öffentliche Aufmerksam-
keit zur Ressource für soziale Anerkennung, aber auch Ablehnung (z. B. Mobbing,
Skandalisierung) in einer Netzgemeinschaft, und manchmal darüber hinaus, wird.
Mit der zunehmenden Verschmelzung von interpersonaler Kommunikation und
Massenkommunikation geht auch einher, dass sich die Grenzen zwischen privater
und öffentlicher Sphäre verschieben, gar teilweise auflösen: Indem die digitalen
Formate der Tele-Kommunikation immer schon für die interpersonale und die
kollektive Adressierung angelegt sind, und digitale Verbreitung von Informationen
einen zentralen Kommunikationsmodus im Internet darstellt, haben sich sowohl
die Strukturen als auch die Vorstellungen dessen verschoben, was einst als ‚privat‘
(dem individuell persönlichen Lebensbereich einzelner angehörig) und ‚öffentlich‘
(die Allgemeinheit betreffend) verstanden und praktiziert wurde. Privatpersonen
können heute über die sozialen Online-Medien Kommentare zu einem politischen
Ereignis abgeben und damit öffentliche Resonanz erzielen; Politiker als öffentliche
Repräsentanten des Staates wiederum bieten über Plattformen wie Twitter und
Facebook Einblick in ihre persönlichen Sichtweisen und Vorlieben. Es können
aber auch gezielt nach außen abgeschlossene Kommunikationsräume über digitale
Kommunikation geöffnet und dann zeitgleich öffentlich beobachtet werden – etwa

57
58 1 Medien des Sprechens und Hörens

wenn in politischen Hintergrundgesprächen einzelne Teilnehmer Informationen


über die sozialen Online-Medien nach außen tragen und dort öffentliche Reaktionen
erzeugen, die (in demokratischen Gesellschaften) neuen politischen Handlungs-
druck entstehen lassen.

▶▶ (3) Die digitale Tele-Kommunikation im Internet hat insbesondere die Produk-


tion, Verbreitung und Rezeption von Bild- und Filmmaterial verändert und
neue Formen „kollaborativer Massenkommunikation“ (Döring 2003) initiiert.

Die interaktive Grundstruktur des Internet erlaubt es jedem Nutzer nicht nur, auf
Dateien und Datenarchive anderer zuzugreifen und sich ihre Inhalte per Down-
load anzueignen, sondern diese auch selbstständig zu verändern und zu gestalten.
Bild- und Videoplattformen wie YouTube und Instagram haben dieses Prinzip
erfolgreich ins Zentrum ihrer Dienste gestellt. Filme und Bilder professioneller bzw.
kommerzieller Akteure und Unternehmen werden als digitale Dateien im Internet
für die Allgemeinheit zugänglich, können neu gestaltet (z. B. in Collagen, Mash-Ups,
Memes usw.) und selbständig verbreitet werden. Daneben stellen Nutzer ihre eigenen
Produktionen (z. B. Videos, Fotos) in die Netzarchive bzw. auf den Plattformen ein,
wo sie die öffentliche Sphäre mit den kommerziellen Produkten teilen. Dies hat
dazu geführt, dass sich die Grenzen zwischen Sender, Empfänger, Produzenten
und Rezipienten öffentlicher Medienprodukte verschoben haben. Wie es Henry
Jenkins (2006) prominent gezeigt hat, haben sich partizipative Medienkulturen
ausgebildet, in denen Konsumenten und Nutzer aktiv in die Planung, Produktion
und Verbreitung von Medienprodukten eingreifen (s. Kap. 4).

▶▶ Die drei wesentlichen Prägemomente digitaler Tele-Kommunikation im Inter-


net machen deutlich, dass sich herkömmliche kommunikative Bezugsgrößen
auflösen, die bis ins klassisch massenmediale Zeitalter hinein Orientierung
gewährt haben: Sender vs. Empfänger, private vs. öffentliche Kommunikation,
interpersonale vs. massenmediale Kommunikation. Vor allem lassen sich die
Sender und Empfänger von Aussagen, Bildern, Filmen usw. nicht mehr eindeutig
bestimmen – schon gar nicht mehr mit den eigenen Sinnen. Insofern führt auch
das Internet als Tele-Kommunikationsmedium die Entkoppelung von Stimme
und Körper weiter fort.

Die Tendenz zur „kollaborativen Massenkommunikation“ (Döring 2003) lässt selbst


ausgewiesene Aussagen Einzelner (etwa in Kommentaren auf Verbraucherseiten
von Amazon) nur eingeschränkt konkreten Subjekten zuordnen, zu gering sind
i. d. R. die Informationen, die die anderen Nutzer über sie erhalten (etwa Name
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 59

bzw. Netzname und Profilbild). Sie werden daher oft weniger als Ausdruck von
individuellen Subjekten wahrgenommen, denn als Bestandteil kollektiver Diskurse
und digitaler Netzwerkstrukturen im Internet (z. B. Algorithmen).
Bezeichnenderweise haben sich im Internet (v. a. im Web 2.0) gleichzeitig diskur-
sive Stile, Regeln und Rituale ausgebildet, die dieser Tendenz zur Entsubjektivierung
entgegenwirken und ermöglichen sollen, eine Aussage kognitiv, emotional und
sozial mit einem kommunizierenden Subjekt zu identifizieren (vgl. Döring 2003).
So hat sich etwa in der Blogosphäre ein Ethos der Authentizität entwickelt, in dem
Spontaneität, Individualität und Originalität im Vordergrund stehen. In der Ver-
wendung von Sprache, Bildern oder Videos haben sich besonders in Blogs und Vlogs
(Video-Logs) Zeichen und Kodes für eine Ästhetik der Authentizität etabliert (z. B.
‚Schnappschussästhetik‘ bei Fotos), die einen Blogger ‚echt‘ und ‚originell‘ wirken
lassen sollen. Die Dokumentation des eigenen Alltags und persönlicher Vorlieben
ist dabei als äußerste Gewähr ‚authentischer Subjektivität‘ besonders populär.
Im Hinblick auf den Fokus dieser Mediengeschichte ist bedeutsam, dass die
Tendenz zur Entsinnlichung und Entsubjektivierung der Tele-Kommunikation im
Internet zugleich Körperpraktiken und Medientechniken befördert hat, die dem
entgegenwirken sollen. Diese beziehen die menschlichen Sinne ein und stehen damit
in der o. a. Tradition der „Präsenzmedien“ (Peters 2000). Denn in den interaktiven
Kommunikationsformen nehmen sich die Nutzer häufig mit Augen und Ohren
wahr und reagieren über Bewegtbilder und Ton körperlich und sprachlich aufei-
nander. Ob bei interpersonaler, zeitgleicher Tele-Interaktion (z. B. via Skype) oder
in der zeitversetzten Tele-Interaktion Einzelner mit Vielen (z. B. Blogger/Vlogger):
die Kommunizierenden können sich als ganzheitlich handelnde, fühlende und
wahrnehmende Subjekte erfahren, deren Verhalten unmittelbare Reaktionen bei
ihrem Gegenüber im digitalen Raum auslöst.
Im Folgenden werden jene Medien betrachtet, die dem Fern-Sprechen und
Hören in digitaler Tele-Kommunikation besonderen Vorschub geleistet haben
und die die anfänglich auf Texte und Schreiben fixierten Medien Computer und
Internet über den Einbezug von Stimme und Klang als Ausdruck von Lebendigkeit
wieder sinnlich zugänglich machen sollten: das Mobiltelefon als multimediales und
multisensorielles Hybridmedium sowie musikalische Audio-Medien im Internet
wie Online-Radio, Streaming-Plattformen und Audio-Clouds.

1.3.3.2 Mobiltelefon
In der Geschichte des apparativen Fern-Sprechens scheint die Idee der mobilen
dialogischen Kommunikation von Anfang an angelegt. Wie oben geschildert, wurde
bereits das drahtlose Funkgerät für militärische Zwecke, aber auch bei der Polizei
und von einzelnen privaten Funkern als dialogisches Medium genutzt. Dabei ging
59
60 1 Medien des Sprechens und Hörens

es i. d. R. um die schnelle Vermittlung von Informationen und Befehlen. Während


sich in westeuropäischen Ländern wie Deutschland, Frankreich oder Großbritannien
das Kabel-Telefon als Gesprächsmedium durchsetzte, wurde in Flächenstaaten wie
den USA und in Skandinavien nach dem 2. Weltkrieg intensiv nach Möglichkeiten
geforscht, das Funkgerät als mobiles Telefon auch für den privaten Gesprächsbedarf
zu entwickeln. Neben dem Walkie-Talkie (ein tragbares Sprechfunkgerät) kam
1946 in den USA das erste Autotelefon auf den Markt, das mobile Gespräche über
elektronische Frequenzen erlaubte. Ein anhaltendes Problem blieb dabei, dass die
Frequenzen, obwohl die Kapazitäten bereits erweitert wurden, nicht ausreichten,
um den wachsenden Bedarf der Nutzer zu decken; die Frequenzen waren so dicht
belegt, dass immer nur einzelne Gesprächsverbindungen hergestellt wurden. Einen
ersten Durchbruch erzielte das analoge Mobiltelefon für den breiteren Gebrauch, als
sich in den 1980er-Jahren die Funkzellentechnologie durchsetzte, die es erlaubte,
dass viele Nutzer dieselbe Frequenz gleichzeitig verwenden konnten. Jedes Gerät
wurde hierbei zu einem Empfänger und Vermittler von Funksignalen und war
in der Lage, den lokal jeweils stärksten Funksender zu orten und noch während
eines Gespräches auf die Frequenz eines stärkeren Senders umzustellen. Obwohl
damit eine wesentliche Voraussetzung für den Mobilfunk geschaffen war, standen
die hohen Anschaffungskosten für die Mobiltelefone und Telefongebühren einer
massenhaften Verbreitung zunächst noch entgegen.
Seinen entscheidenden medienhistorischen Durchbruch erfuhr das Mobiltelefon
mit der Entwicklung digitaler Funknetze ab den 1990er-Jahren. Ein erster Schritt
hierzu war die Digitalisierung der Funksignale und ihre Versendung in immer
dichter werdenden Netzwerken von Anbietern. Mit dem um 2000 aufkommenden
UMTS-Funk (Universal Mobile Telecommunication System) und den Einsatz von
Satellitentechnik wurde es möglich, die digitalen Netzwerke in einem globaleren
Maßstab zu verbinden. Für den Verbraucher besonders spürbar aber waren die
multimedialen Funktionserweiterungen, die UMTS-basierte Netze boten und
die über das auditive Fern-Gespräch weit hinausging: fortan konnte man auch
Texte, Bilder und Videos verschicken und empfangen. Entscheidend hierfür war
eine nutzerfreundliche Verbindung von digitalen Funknetzwerken mit dem In-
ternet. Damit konnten die Nutzer mit dem Mobiltelefon im Internet browsen und
Online-Dienste in Anspruch nehmen: Suchmaschinen, Navigationsdienste oder
Videostreaming und interaktives Fernsehen. Aber auch die oben geschilderten
Tele-Kommunikationsformen des Internets wie E-Mail und Chat lassen sich über
UMTS mit dem Mobiltelefon anwenden und erweiterten damit entscheidend das
Telefon als zunächst rein funkisches Dialogmedium. Im Anschluss daran wandelte
sich die Entwicklung des digitalen Mobiltelefons schon bald in Richtung Multi-
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 61

medialität und Multisensorik. Das Fern-Sprechen wurde damit wieder körperlich


ganzheitlicher.
Der Bedarf an einer Erweiterung der Sprechfunktion beim Mobiltelefonieren
zeichnete sich schon früh ab. So hatte sich in der Nutzung des Mobiltelefons bereits
vor seiner Verbindung mit dem Internet eine neue Kommunikationsform ausge-
bildet, welche das dialogische Sprechen erweiterte: der short message service, kurz
SMS. Seit 1994 konnte der kleine Bildschirm der Mobiltelefone genutzt werden,
um schriftliche Kurznachrichten mit bis zu 160 Zeichen zu versenden. Vorbild für
die Entwickler bei dieser Zeichennormierung war die Postkarte. Zunächst nur als
Zusatzoption angeboten, wurde die Textnachricht – umgangssprachlich als ‚SMS‘
bezeichnet – zum großen Erfolg bei den Verbrauchern. Die Attraktivität der SMS
lag zum einen darin, dass das Versenden einer Textnachricht zu diesem Zeitpunkt
wesentlich günstiger war als ein Telefonat. Zum anderen lassen sich solche Nach-
richten situativ flexibel verschicken: während das Telefonieren in öffentlichen
Kontexten die Gesprächspartner und ihre lokale Umgebung vor soziale Probleme
stellen kann (unfreiwilliges Mithören, öffentliche Aufmerksamkeit für persönliche
Gespräche etc., s. u.), lässt sich mittels Textnachrichten still, unkontrolliert und fast
zeitgleich korrespondieren (vgl. Höflich 2011).
Der Erfolg schriftlicher Kurznachrichten wurde mit der Verkopplung von di-
gitalen Funknetzen mit dem Internet noch erweitert, als mit Twitter (2006) und
WhatsApp (2009) die Tele-Interaktion in den Rahmen sozialer Online-Plattformen
gestellt wurde. Wie oben beschrieben, können die Nutzer seitdem entscheiden,
ob sie ihre Nachrichten nur an einen oder an mehrere Adressaten schicken. Die
Textnachricht wurde damit neu definiert, da sie nicht mehr – wie noch ihre Vor-
gänger Telegramm, Telefax und SMS – per se interpersonal gerichtet ist, sondern
seitdem sowohl die Möglichkeit für dialogische als auch für Massenkommunikation
impliziert.

▶▶ Medienhistorisch bedeutsam ist an dieser Entwicklung, dass das mündliche


Gespräch zwischen zwei Gesprächspartnern auf einem Gerät geführt wird,
das gleichzeitig das Senden und Empfangen von schriftlichen Nachrichten
erlaubt. Diese apparative Verkopplung von Sprechen und Schreiben stellt eine
weitere Variante sekundärer Oralität dar. Die traditionell strengeren Regeln
der Schriftsprache (Grammatik, Regeln der Ansprache etc.) werden nun dem
mündlichen Sprechen angepasst.

Damit geht zum einen eine eher phonetische Schreibweise einher: Worte werden
so geschrieben, wie sie gesprochen, und weniger, wie sie grammatikalisch korrekt
geschrieben werden. Zum anderen zeichnen sich die Kommunikations- und Aus-

61
62 1 Medien des Sprechens und Hörens

drucksformen von SMS durch Spontaneität und Momenthaftigkeit aus, was gleichfalls
mehr an mündlichen Gesprächen orientiert ist, als an schriftlicher Korrespondenz,
in der traditionellerweise (Brief) die Worte sorgfältig gewählt werden. Damit
verbunden ist auch, dass Nutzer bei digitalen Kurzmitteilungen zu persönlichen
und affektiv gefärbten Formulierungen neigen (Döring 2003). Das hängt auch mit
der wesentlichen Funktion dieser Austauschformen zusammen, Kommunikation
mit anderen überhaupt aufrechtzuhalten. Hier steht also weniger die informative
als die phatische Funktion im Vordergrund, die im Sinne des Zeichentheoretikers
Roman Jakobson durch die Herstellung und Erhaltung von Kontakten bestimmt
ist. Ebenso werden mit den mündlichen Schreibstilen expressive und emotive
Funktionen wichtiger – Ausdrucksweisen also, die die eigene Persönlichkeit und
Emotionen betonen. In der mobilen Kurznachricht findet somit eine wesentliche
Funktionsverschiebung gegenüber Telegramm und Telefax statt, bei denen die
effiziente Informationsübermittlung im Vordergrund stand (vgl. Schmidt 2013).
Dieser Wandel von Erscheinung und Funktion schriftlicher Kurznachrichten
zeigt sich auch in der Bedeutung dort verwendeter bildhafter Zeichen. Emotionale
Reaktionen und Haltungen werden oft durch Emoticons kommuniziert, die sprach-
liche Ausdrücke ersetzen. Eine wesentliche Funktion der Emoticons ist der Ersatz
nonverbaler, gestischer und mimischer Signale, die in Face-to-Face-Situationen
die emotionalen Befindlichkeiten und Bewertungen von Sprechern anzeigen und
darüber eine gegenseitige affektive Abstimmung ermöglichen. Während die Ge-
sprächspartner im Austausch von Kurznachrichten zwar physisch auf die manuelle
Bedienung der Tastatur eingeschränkt sind, erlauben ihnen die pictogrammartigen
Zeichen den Mangel an Körpersignalen auszugleichen, die in direkter Interaktion
zur affektiven Abstimmung verhelfen.
Die Option, Bildmaterial via MMS (Multimedia Messaging Service) oder Whats-
App zu verschicken, erweitert den mündlichen Schreibstil zusätzlich in Richtung
Multisensorik. Fotos und andere Bilder können das Schriftmündliche ergänzen,
veranschaulichen, aber auch zum Gegenstand interpersonaler oder kollektiver
Korrespondenzen werden. Somit wird Multimedialität zu einem multisensoriellen
Erfahrungsmodus des Fern-Sprechens. Das digital-apparative Fern-Sprechen mittels
Mobiltelefon bewegte sich also weiter auf eine Substitution jener körperbasierten
Ganzheitlichkeit zu, die das primäre Sprechen begleitet: das gleichzeitige Aussenden
und Empfangen akustischer (z. B. Tonlage beim Sprechen), sprachlicher (Wortwahl)
und visueller (gestischer, mimischer) Signale und Zeichen mit unterschiedlichen
Sinnen (Auge, Ohren, Hand). Auch die Entwickler des Mobiltelefons strebten offenbar
auf diese Weise danach, die apparative Trennung von Stimme und Körper, sowie
die räumliche Distanz des Gegenübers im Bewusstsein der Nutzer aufzuheben.
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 63

Körpernähe und Multisensorialität werden nicht nur in Bezug auf das digitale
Fern-Sprechen hergestellt. Das Mobiltelefon entwickelte sich vielmehr rasch zu
einem Alltagsgegenstand, der vom Nutzer permanent mit sich getragen wird und
ein breites Spektrum an Bedürfnissen bedient. Bereits die Implementierung der
Fotokamera (ab 1999) in das klassische Mobiltelefon trug wesentlich dazu bei.
Es etablierte sich damit als Medium, über das Gegenwart zeitgleich und spon-
tan (und damit ‚authentisch‘) visuell und sprachlich gespeichert, kommentiert
und mit anderen geteilt werden kann. Daneben bedeutete die Integration eines
Musik-Players (ab 2000) eine erhebliche Aufwertung des Gerätes als auditives
Unterhaltungsmedium und erhöhte seinen Mehrwert als fortlaufend mitgeführtes
Alltagsobjekt. Abspielprogramme ermöglichen es seitdem, Musik in weitgehend
ent-materialisierter Speicherform als digitale Dateien und damit unabhängig von
Transportkapazitäten und Ortsgebundenheit abzurufen (s. u.).
Das drahtlose Telefongerät war mit diesen Erweiterungen des apparativen Schrei-
bens, Sehens und Hörens also bereits um 2000 von einem Medium des digitalen
Fern-Sprechens zu einem multimedialen Alltagsgerät geworden, das in der Verbin-
dung mit dem Internet Tele-Kommunikation, Unterhaltung und Information in
sich vereinte. Mit dem Erscheinen des ersten iPhones von Apple (2007) begann eine
neue und bis heute anhaltende Ära körpernaher und multisensorieller Mobiltelefo-
nie – die Ära der sogenannten Smartphones. Seit dem durchbrechenden Erfolg des
ersten iPhones zeichnen sich Smartphones dadurch aus, dass sie als kleine, mobile
Kompaktcomputer am Körper mitgetragen werden können und dem Nutzer damit
zeit- und ortsungebunden alle wichtigen Computer- und Online-Dienste anbieten
(Netzsuche, E-Mail, SMS, Mikroblogging etc.). Damit ermöglichen sie die mobile
Speicherung, Verarbeitung und Verbreitung multimedialer Daten unterschiedlicher
Art, seien dies Gespräche, Texte, Bilder, Videos oder Musik. Im Unterschied zum
herkömmlichen Computer weist das Smartphone zudem Sensoren und Dienste
auf, welche die Bewegungen und Handlungen seiner Nutzer zeitlich, räumlich
und qualitativ registrieren und verarbeiten. In ausgewerteter Form vermitteln sie
diese Daten an den Nutzer selbst (z. B. GPS-gesteuerte Navigation), aber auch an
Dritte (z. B. soziale Plattformen wie Facebook oder Tinder). Die Möglichkeiten der
permanenten Speicherung und Auswertung von Nutzerdaten haben sich mit der
Option des ununterbrochenen Zugriffs auf das Internet stark ausgeweitet. Lokale,
aber auch physiologische Daten vom aktuellen Zustand eines Nutzers werden
algorithmisch abgeglichen mit vergangenen und prognostischen Daten. Zudem
können sie mit denen anderer Nutzer oder Datenbanken verbunden werden: etwa
als Hinweis auf einen Facebook-Freund in der Nähe, oder Tipps für nahe Res-
taurants zur bevorzugten Essenszeit. Zudem sind eine breite Anzahl an digitalen
Anwendungsdiensten (Apps) entstanden, die elementare Bedürfnisse wie räumliche

63
64 1 Medien des Sprechens und Hörens

Orientierung an fremden Orten, soziale Orientierung, Beziehungsaufbau- und


Pflege, oder die Befriedigung leiblicher Bedürfnisse wie Essen und Sex bedienen.
Sie zielen darauf ab, diese rasch, fast reflexartig zu befriedigen.
Bedeutsam für diese enge Kopplung von Körper, Affekten und digitaler Te-
le-Interaktion ist seit dem ersten iPhone der Touchscreen. Während die früheren
Mobiltelefone noch die Eingabe abstrakter sprachlicher Zeichen und Zahlen auf einer
Tastatur voraussetzten, bietet das Interface der Smartphones grafische Oberflächen,
die bereits anschaulich und sinnlich konkret gestaltet sind. Der Touchscreen erlaubt
es den Nutzern, Icons und Zeichen anzufassen und darüber Befehle auf eine als
direkt erfahrene Weise taktil auszuführen – durch Wischen, Drücken oder Schieben
(vgl. Distelmeyer 2017). Die technische Implementierung der archaischen Form
von Kommunikation und Bedürfnisbefriedigung durch taktiles Greifen kann als
die bisher wohl körpernaheste apparative Medientechnologie betrachtet werden
(ausführlich in Kap. 2). Zudem erweitert der Touchscreen die Multisensorialität
dieses Mediums erheblich: das digitale Fern-Sprechen ist jetzt nicht nur visuell,
auditiv, audiovisuell, sondern auch taktil eingebunden.
Ab 2011 setzte sich schließlich eine digitale Klangtechnologie durch, welche die
ganzheitlichen Erfahrungen des zwischenmenschlichen Dialogs beim Gebrauch
des Mobiltelefons noch weitergehend re-installierte: Mit der Software Siri (Speech
Interpretation and Recognition) schuf Apple 2011 ein auditives Interface, mit dem
die Nutzer mündlich mit ihrem Computer interagieren können. Die abgefragten
digitalen Informationen werden also nicht mehr schriftlich oder visuell vermittelt,
sondern auditiv in Gestalt einer synthetisch erzeugten menschlichen Stimme.
Gemäß des alten Paradigmas von der Lebendigkeit der Stimme als Ausdruck
menschlicher ‚Beseeltheit‘, werden im Tonfall und der Akzentuierung der Worte
auch affektive und körperliche Spuren auf eine potentiell existierende weibliche
Person gelegt. Siri reagiert auch auf unsachliche, persönliche und emotionale
Fragen. Diese Antworten basieren zwar auf vorbereiteten Textelementen, ihre
Künstlichkeit kann jedoch zumindest teilweise durch den Akt einer spontanen
mündlichen Reaktion ausgeglichen werden, sodass der Nutzer den Eindruck eines
persönlichen Zwiegesprächs erhalten kann – und soll.

▶▶ Auch die Mobiltelefonie mit ihren Formen sekundärer Oralität re-installiert


also technisch Spontaneität und Unmittelbarkeit im Zeichen des Jahrtausende
alten Ideals von der Stimme als Ausdruck eines ‚authentischen‘, beseelten Selbst,
das durch die Körperlichkeit des Sprechenden verbürgt wird.
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 65

1.3.3.3 Digitales Radio und Netzradio


Neben den Mobilfunkanbietern investierten auch die Rundfunkstationen bereits seit
Ende der 1980er-Jahre in die Digitalisierung ihrer Funksysteme. Hierfür mussten
zunächst digitale terrestrische Funksysteme (DAB: Digital Audio Broadcasting) in
den verschiedenen Senderegionen aufgebaut werden, deren Signale über Kabel und
Antenne empfangen werden konnten. In Deutschland und anderen europäischen
Ländern wird die Umstellung von analogem zu digitalem Senden erst gegenwärtig
abgeschlossen. Während die Radiostationen mit der Digitalisierung von Tonauf-
nahme, Bearbeitung und Speicherung bereits seit den 1990er-Jahren zunehmend
digital produzierten, wurden sie lange noch analog versendet und empfangen. Die
vollständige Digitalisierung erfordert zudem die Verbreitung neuer Empfangsgeräte
(DAB-Radios), was zumindest in Deutschland noch lange nicht vollendet ist. Eine
entscheidende Wende in der Geschichte des Radios hat jedoch längst stattgefunden.
Mit der Verbreitung des Internet traten neue Möglichkeiten des Rund-Funks
auf den Plan: der Live-Stream oder die Archivierung von Sendungen, die Hörern
einen zeitunabhängigen Zugriff erlaubt. Daneben bietet das Internet den Sendern
die Möglichkeit, ihre Sendungen inhaltlich und medial zu ergänzen, etwa durch
Bild- und Videomaterial, sowie durch Kommentare oder durch redaktionelle
Beiträge in Schrifttextform. Zudem haben sich über die Verbindung von Radio
und Internet neue interaktive Formen der Tele-Kommunikation zwischen Sender
und Hörer entwickelt, die letzteren neue Mitsprache- und Einflussmöglichkeiten
bietet (partizipative Medienkulturen, s. o.): sei dies über Kommentarspalten auf
den sendereigenen Webseiten oder über einschlägige soziale Online-Medien wie
Facebook oder Twitter, die auch zeitgleich während einer Live-Sendung als Feed-
backkanäle genutzt werden können.

▶▶ Für Radioangebote bleibt dennoch weiterhin kennzeichnend, dass sie in einem


übergeordneten Programmkontext stehen und ihr Ablauf redaktionell vorab
festgelegt wird. Damit bleibt auch das Netzradio ein ‚Broadcast‘-Medium, das
seine Signale von einem einzelnen Sender an ein breites, unbestimmtes Pub-
likum sendet.

Dies gilt auch für jene Webradios, die ausschließlich das Internet als Verbreitungsme-
dium nutzen. Auch wenn die Grenzen zu den im folgenden Abschnitt vorgestellten
Audio-Clouds verschwimmen, zeichnen sie sich nur dann als Radio im engeren
(massenmedialen) Sinne aus, wenn die Audio-Angebote in Form einer Sendung mit
vorab geplantem Ablauf und im Rahmen eines regelmäßigen Programmschemas
einem breiten Nutzerkreis angeboten werden.

65
66 1 Medien des Sprechens und Hörens

1.3.3.4 Audio-Clouds, Audio-Streaming, Audio-Assistenten


Eine bis heute bedeutende Entwicklung digitaler Medien des Hörens liegt im Bereich
des Cloud-Computing. Hierbei bietet ein Internetdienst größere Datenarchive auf
einer Plattform an, auf die von Nutzern zeitunabhängig zugegriffen werden kann.
Entscheidend dabei ist, dass eine Verbindung zwischen einem Server und vielen
einzelnen Rechnern hergestellt wird. Im Unterschied zum herkömmlichen Rund-
funk findet hier also keine unbestimmt breite Signalversendung statt, sondern eine
spezifische Punkt-zu-Punkt-Verbindung. Aus der Interaktion zwischen Nutzer und
Datendienst, bei der die Nutzerdaten algorithmisch ausgewertet und gespeichert
werden, resultieren spezifische Profile, welche die Vorlieben, Bedürfnisse und
Interessen der Konsumenten repräsentieren und bedienen sollen.
Über die Internetdienste wird den Nutzern ein individualisierter Zugriff auf
riesige Audio-Archive geboten, ohne dass sie für diese eigene Speichermedien
(wie CD oder Festplatte) verwenden müssen. Vielmehr steht es ihnen bei vielen
Anbietern frei, einzelne Audio-Dateien herunter zu laden und andere nur online
anzuhören. Neben dem Download ist damit das Streamen per Audio-on-Demand
zu einer verbreiteten Praxis geworden, besonders für das Musikhören. Hierbei
haben sich unterschiedliche Modelle entwickelt. Eines der ersten Angebote für
das digitale Hören waren Filesharing-Dienste (Napster u. a.), bei denen die Nutzer
untereinander ihre Rechner vernetzten und sich wechselseitigen Zugriff auf ihre
Audio-Archive ermöglichten. Nach längeren juristischen Auseinandersetzungen um
diese digitale Tauschpraxis, bei der die Musikindustrie ihre Rechte und Einkünfte
bedroht sah, setzten sich verschiedene mehr oder weniger kommerzielle Modelle
durch: zum einen Musik-Abonnenten-Dienste, bei denen die Nutzer mit einer
monatlichen Gebühr dafür bezahlen, dass sie auf zentrale Musik-Clouds zugreifen
können (heutiges Napster, Spotify oder Deezer). Zum anderen präsentieren sich
Musiker und Musiklabels auf sozialen Online-Plattformen, in deren Clouds sie ihre
Musikdateien, aber auch Videos anbieten (wie MySpace, SoundCloud, YouTube).
Wenn sich um 2010 das Musik-Streaming zunehmend als eine populäre Pra-
xis des digitalen Hörens durchgesetzt hat, ist dies auch eng verbunden mit dem
Erfolg des Mobil- bzw. Smartphones als multimedialem und allgegenwärtigem
Gebrauchsobjekt. Wie zuvor geschildert, hat das Smartphone dem permanenten
Online-Sein wesentlichen Vorschub geleistet. Der frühe Einbau von Media-Playern
(s. o.) entsprach einem kollektiven Bedürfnis des mobilen Musik-Hörens, das bereits
in den 1980er-Jahren vom Walkman – einem tragbaren Abspielgerät für elektro-
nische Kompaktkassetten – geweckt worden war. Im Unterschied zu diesem sind
nun aber sowohl das musikalische Speichermedium als auch das Abspielmedium
in Form digitaler Dateien (z. B. MP3-Dateien) und Programme (z. B. MP3-Player)
weitgehend ent-materialisiert. Das Smartphone als Multimedium hat das Speichern,
1.3 Apparative Medien des Sprechens und Hörens in der Neuzeit 67

Abrufen bzw. Streamen und Hören von Musik in ein Spektrum weiterer Tätigkeiten
des Sprechens, Schreibens, Lesens und Greifens integriert, deren psychophysische
Koordination sich auf der Bedienungsoberfläche angeglichen hat: auf der Oberfläche
des Touchscreens werden nur noch unterschiedliche Icons gedrückt (zu grafischen
Interfaces und Touchscreen s. Kap. 2).
Die weitgehende Entmaterialisierung musikalischer Speicher- und Abspiel-
medien wird noch weitergetrieben, indem dieselben individualisierten digitalen
‚Klang-Wolken‘ von unterschiedlichen multimedialen Bediengeräten abgerufen
werden können: mobile Tablets, Bordcomputer im Auto oder feste Multi-Me-
dia-Bords im Wohnzimmer. Vereinheitlichte Betriebssysteme (wie Android oder
iOS) und ihre grafischen Interfaces verstärken die Wahrnehmung, sich in einer
omnipräsenten auditiven Datenumgebung zu befinden, die ganz auf die eigenen
Vorlieben und Bedürfnisse zugeschnitten ist.

▶▶ Zusammenfassend lässt sich sagen, dass die digitalen Körperpraktiken und


Medientechnologien des Sprechens und Hörens sich dadurch auszeichnen, dass
die Trennung von Körper und Stimme bzw. die räumliche Distanz zwischen
Kommunizierenden durch computer- und netzbasierte Formen der Interaktivität
und der multisensoriellen Simulation ausgeglichen wird. Dies gelingt, indem
diese Medien die Nutzer in ihren individuellen Bedürfnissen adressieren und
interaktiv die Möglichkeit zur Mitgestaltung geben. Dabei bieten sie in immer
differenzierter Art und Weise das Erlebnis körperlicher Ganzheitlichkeit in
zwischenmenschlicher Kommunikation.

Diesem ganzkörperlichen Kommunizieren wird durch die gleichzeitige Adressierung


von Ohr (Lautsprecher, Telefonhörer, Musikplayer), Auge (Schrift, Fotoapparat,
Videoplayer) und Hand (Touchscreen) durch multimediale und multisensorielle
Apparaturen (etwa beim Mobiltelefon) Vorschub geleistet. Inzwischen simulieren
daneben digitale Sprach-Assistenten menschliche Stimme und mündliche Dialoge
in einem konkreten technischen Sinne: in der Programmierung responsiver Au-
dio-Interfaces, denen mündliche Kommunikationsformen des Menschen modellhaft
zugrunde liegen. Seit 2015 werden von Amazon (Amazon Echo) und Google (Google
Home) Audio-Assistenten angeboten, die als Einzelgeräte aufgestellt werden und
in einem omnipräsenten Hör- und Sprechkontakt mit ihren Nutzern sind. Indem
sie permanent in den Raum ‚hinein lauschen‘ können und online sind, können sie
sekundenschnell auf Fragen und Aufforderungen (z. B. ‚Spiel Musik!‘ ‚Setze Milch
auf die Einkaufsliste!‘) reagieren, womit der Eindruck einer spontanen, ‚lebendigen‘
Kommunikation weiter verstärkt werden soll.

67
68 1 Medien des Sprechens und Hörens

Indem in digitalen Körper- und Medientechnologien die Stimme als Kanal einer
Mensch-Maschine-Interaktion etabliert wird, verschiebt sich das tradierte Ziel von
Medien des Sprechens und Hörens: hier geht es nicht mehr um das Herstellen von
Präsenz in technisch vermittelter Kommunikation zwischen räumlich entfernten
Menschen, stattdessen steht die Interaktion zwischen Mensch und Maschine im
Vordergrund. Mit der Integration der Stimme als primärem Körpermedium des
Menschen soll die Interaktion mit dem Computer endgültig ‚naturalisiert‘ werden.

Wiederholungsfragen

1. Wie wurde die Stimme als primäres Kommunikationsmedium in der Antike für
die öffentliche Ansprache eines Publikums strategisch gestaltet und eingesetzt?
[schriftliche Vorbereitung und Memorieren der Rede; Nachahmung von Emotionen
und Affekten beim Sprechen; physische und teilweise architektonische Anpassung
der Stimme an akustische Bedingungen öffentlicher Räume (wie Theater oder
Marktplatz)]
2. Welche Formen „sekundärer Oralität“ (Walter Ong) lassen sich in der Geschichte
beobachten?
[schriftbasiertes Sprechen in antiker Rhetorik, im Radio, im Fernsehen, über
Computer, z. B. SMS, WhatsApp]
3. Was zeichnet die frühen Umbruchmomente zum Fern-Sprechen-und-Hören
im Wechselspiel von Telefon und Radio aus?
[massenmedialer Gebrauch des Telefons und interaktiver Gebrauch des Ra-
dio-Funks]
4. Wie haben Computer und Internet das Fern-Sprechen-und-Hören verändert?
[Verbindung interaktiver und massenmedialer Aspekte der Telekommunikation;
Multimodalität des Fern-Sprechens-und -Hörens]

Literaturempfehlungen
Literaturempfehlungen
Cornelia Epping-Jäger & Erika Linz (Hrsg). 2003. Medien/Stimmen. Köln: Du-
Mont. Der Sammelband führt einschlägige philosophische und kulturhistorische
Perspektiven auf die Mediengeschichte der Stimme, des Sprechens und Hörens
zusammen.

Karl-Heinz Göttert. 1998. Geschichte der Stimme. München: Fink. Das Buch
rekonstruiert umfangreich die Geschichte der Technisierung und Medialisierung
Literatur 69

des Sprechens, wobei es die verschiedenen Ausprägungen von Öffentlichkeit


ebenso berücksichtigt, wie die Veränderung von Medien- und Kulturtechniken
des Sprechens.

Patrice Flichy. 1994. Tele. Geschichte der modernen Kommunikation. Frankfurt


a. M./New York: Campus. Das Buch bietet einen umfassenden historischen Über-
blick über die technische Genese auditiver, aber auch visueller und audiovisueller
Kommunikationsmedien, die der ortsungebundenen Tele-Kommunikation dienen,
wie Telegraf, Fotografie, Telefon, oder Rundfunk.

Harro Segeberg & Frank Schätzlein (Hrsg.). 2005. Sound. Zur Technologie und
Ästhetik des Akustischen in den Medien. Marburg: Schüren. Der Sammelband
betrachtet unterschiedliche Bereiche der Erforschung und Gestaltung von Klang
in Massenmedien (z. B. Film, Fernsehen, Hörfunk) und digitalen Multimedien des
Sprechens und Hörens (z. B. im Internet).

Literatur
Literatur
Barth, Christof/Schröter, Christian (Hrsg.). 1997. Radioperspektiven. Strukturen und Pro-
gramme. Baden-Baden: Nomos Verlagsgesellschaft.
Bucher, Hans-Jürgen/Klingler, Walter/Schröter, Christian. 1995. Radiotrends. Formate,
Konzepte und Analysen. Baden-Baden: Nomos Verlagsgesellschaft.
Derrida, Jacques. 1967/1999 Grammatologie. In Von der Stimme zum Internet. Texte aus
der Geschichte der Medienanalyse, hrsg. v. Detlev Schöttker. 145–153. Göttingen: Van-
denhoeck & Ruprecht.
Distelmeyer, Jan. 2017. Machtzeichen. Anordnungen des Computers. Berlin: Bertz + Fischer.
Döring, Nicola. 2003. Sozialpsychologie des Internet: Die Bedeutung des Internet für Kommuni-
kationsprozesse, Identitäten, soziale Beziehungen und Gruppen. Göttingen (u. a.): Hogrefe.
Epping-Jäger, Cornelia/Linz, Erika (Hrsg). 2003. Medien/Stimmen. Köln: Dumont.
Flichy, Patrice. 1994. Tele. Geschichte der modernen Kommunikation. Frankfurt a. M./New
York: Campus Verlag.
Flusser, Vilém. 1991/2002. Die Geste des Telefonierens. In Kursbuch Medienkultur. Die
maßgeblichen Theorien von Brecht bis Baudrillard, hrsg. v. Claus Pias, Joseph Vogl, Lo-
renz Engeil, Oliver Fahle u. Britta Neitzel, 185–191. Stuttgart: Deutsche Verlagsanstalt.
Gessinger, Joachim. 1994. Auge & Ohr. Studien zur Erforschung der Sprache am Menschen.
1700–1850. Berlin/New York: De Gruyter.
Gethman, Daniel. 2005. Technologie der Vereinzelung. Das Sprechen am Mikrophon im
frühen Rundfunk. In Sound. Zur Technologie und Ästhetik des Akustischen in den Medien,
hrsg. v. Harro Segeberg u. Frank Schätzlein. 249–266. Marburg: Schüren.

69
70 1 Medien des Sprechens und Hörens

Gethmann, Daniel. 2003. Das Zittern der Luft. Die Erfindung der mechanischen Stimme. In
Medien/Stimmen, hrsg. v. Cornelia Epping-Jäger u. Erika Linz. 211–235. Köln: DuMont.
Goldhammer, Klaus. 1995. Formatradio in Deutschland. Konzepte, Techniken und Hinter-
gründe der Programmgestaltung von Hörfunkstationen. Berlin: Wiss.-Verl. Spiess.
Goldstein, Bruce E. 2002. Wahrnehmungspsychologie. Eine Einführung. Heidelberg: Spektrum.
Göttert, Karl-Heinz. 1998. Geschichte der Stimme. München: Fink.
Havelock, Eric A. 1982/2002. Gesprochener Laut und geschriebenes Zeichen. In Kursbuch
Medienkultur. Die maßgeblichen Theorien von Brecht bis Baudrillard, hrsg. v. Claus
Pias, Joseph Vogl, Lorenz Engell, Oliver Fahle u. Britta Neitzel. 81–95. Stuttgart: DVA.
Hiebel, Hans H., Hiebler, Heinz, Kogler, Karl (Hrsg.). 1999. Große Medienchronik. Mün-
chen: Fink.
Hiebler, Heinz. 2005. Der Sound zwischen technischen Möglichkeiten und kulturellen
Ansprüchen. Eine Medienkulturgeschichte. In Sound. Zur Technologie und Ästhetik
des Akustischen in den Medien, hrsg. v. Harro Segeberg u. Frank Schätzlein. 206–229.
Marburg: Schüren.
Höflich, Joachim. 1998. Telefon: Medienwege – von der einseitigen Kommunikation zu
mediatisierten und medial konstruierten Beziehungen. In Geschichte der Medien, hrsg.
v. Manfred Faßler u. Wulf Halbach. 187–227. München: Fink.
Höflich, Joachim. 2011. Mobile Kommunikation im Kontext. Studien zur Nutzung des Mo-
biltelefons im öffentlichen Raum. Frankfurt a. M. (u. a.): Peter Lang.
Höflich, Joachim. 2005. Vom häuslichen Telefonieren zur Privatisierung des öffentlichen
Raums. Grenzverschiebungen durch das Telefon. In Alte Medien – Neue Medien. Theorie-
perspektiven, Medienprofile, Einsatzfelder, hrsg. v. Klaus Arnold u. Christoph Neuberger.
183-203. Wiesbaden: VS Verlag für Sozialwissenschaften.
Humboldt, Wilhelm von. 1795/2008. Über die Verschiedenheit des menschlichen Sprach-
gebrauchs und ihren Einfluss auf die geistige Entwicklung der Menschheit. In Schriften
zur Sprache. 289–553. Frankfurt a. M.: Zweitausendeins.
Jenkins, Henry. 2006. Convergence Culture: Where Old and New Media Collide. New York/
London: New York Univ. Press.
Klemens, Guy. 2010. The Cellphone. The History and Technology of a Gadget that Changed
the World. Jefferson/London: McFarland.
Knape, Joachim. 2012. Was ist Rhetorik? Stuttgart: Reclam.
Maye, Harun. 2005. Stimme. In Einführung in die Medienkulturwissenschaft, hrsg. v. Claudia
Liebrand, Irmela Schneider, Björn Bohnenkamp u. Laura Frahm. 143–159. Münster: LIT.
McLuhan, Herbert Marshall. 1968. Die Gutenberg-Galaxis. Das Ende des Buchzeitalters.
Düsseldorf/Wien: Econ Verlag.
Merten, Klaus. 1994. Evolution der Kommunikation. In Die Wirklichkeit der Medien, hrsg.
v. Klaus Merten, Siegfried J. Schmidt u. Siegfried Weischenberg. 141–163. Opladen:
Westdeutscher Verlag.
Merten, Klaus/Westerbarkey, Joachim. 1994. Public Opinion und Public Relations. In Die
Wirklichkeit der Medien, hrsg. v. Klaus Merten, Siegfried J. Schmidt u. Siegfried Wei-
schenberg. 188–212. Opladen: Westdeutscher Verlag.
Münker, Stefan. 2000. Vermittelte Stimmen, elektrische Welten. Anmerkungen zur Frühge-
schichte des Virtuellen. In Telefonbuch. Beiträge zu einer Kulturgeschichte des Telefons,
hrsg. v. Stefan Münker u. Alexander Roesler. 185–199. Frankfurt a. M.: Suhrkamp.
Münker, Stefan/Roesler, Alexander. 2000. Telefonbuch. Frankfurt a. M.: Suhrkamp.
Abbildungsnachweise 71

Ong, Walter. 1987. Oralität und Literalität. Die Technologisierung des Wortes. Opladen:
Westdeutscher Verlag.
Peters, John Durham. 2000. Das Telefon als theologisches und erotisches Problem. In
Telefonbuch. Beitrag zu einer Kulturgeschichte des Telefons, hrsg. v. Stefan Münker u.
Alexander Roesler. 61–83. Frankfurt a. M.: Suhrkamp.
Platon. um 365 v. Chr./1999. Phaidros. In Von der Stimme zum Internet. Texte aus der Ge-
schichte der Medienanalyse, hrsg. v. Detlev Schöttker. 33–39. Göttingen: Vandenhoeck
& Ruprecht.
Posner, Roland. 1985. Terminologiediskussion: Zur Geschichte der Begriffe ‚verbal‘ und ‚non-
verbal‘, ‚Interaktion‘ und ‚Kommunikation‘, ‚Publikum‘ und ‚Öffentlichkeit‘, ‚Medium‘,
‚Massenmedium‘ und ‚multimedial‘. In Zeitschrift für Semiotik 7: 235–271.
Pross, Harry. 1970. Publizistik: Thesen zu einem Grundcolloquium. Neuwied: Luchterhand.
Rosandowitz, Claudia/Kappes, Claudia/Obrig, Helmuth/ Kriegsstein, Katharina von. 2018.
Obligatory and facultative brain regions for voice-identity recognition. In Brain. A Journal
for Neurology, 1/1, Vol. 141 (2018): 234–247.
Schmidt, Jan-Hinrik. 2013. Social Media. Wiesbaden: Springer VS.
Scholz, Leander. 2003. Tierstimme/Menschenstimme: Medien der Kognition. In Medien/
Stimmen, hrsg. Cornelia Epping-Jäger u. Erika Linz. 36–50. Köln: DuMont.
Schöttker, Detlev (Hrsg.). 1999. Von der Stimme zum Internet. Texte aus der Geschichte der
Medienanalyse. Göttingen: Vandenhoeck & Ruprecht.
Segeberg, Harro/Schätzlein, Frank (Hrsg.). 2005. Sound. Zur Technologie und Ästhetik des
Akustischen in den Medien. Marburg: Schüren.
Stern, Daniel. 1993. Die Lebenserfahrung des Säuglings. Stuttgart: Klett-Cotta.
Stieglitz, Olaf. 2013. Tor, Toor, Toor, Tooooor. Sportreportagen im Radio. In Sound des
Jahrhunderts. Geräusche, Töne, Stimmen 1889 bis heute, hrsg. v. Gerhard Paul u. Ralph
Schock. 331–337. Bonn: Wallstein Verlag.
Vovolis, Thanos. 2003. The Voice and the Mask in Ancient Greek Tragedy. In Soundscape.
The School of Sound Lectures 1998–2001, hrsg. v. Larry Sider, Diane Freeman u. Jerry
Sider. 73–83. London/New York: Wallflower Press.

Abbildungsnachweise
Abbildungsnachweise
Abb. 1: Sprechmaschine von Wolfgang von Kempelen (1791)
Abgedruckt in: Daniel Gethmann. 2003. Das Zittern der Luft. Die Erfindung der mecha-
nischen Stimme. In Medien/Stimmen, hrsg. v. Cornelia Epping-Jäger, Erika Linz, 211–235.
Köln: DuMont. S. 222.

Abb. 2: Phonograf von Edison (1877)


Illustration aus Scientific American Magazine, Dezember 1922, 1877, S. 384.
Quelle: https://www.nps.gov/edis/learn/historyculture/origins-of-sound-recording-tho-
mas-edison.htm (Zugriff am 10.02.2018)
© CC BY-SA

71
72 1 Medien des Sprechens und Hörens

Abb. 3: Grammophon (um 1907)


Collection of John Lampert-Hopkins
Foto: Norman Bruderhofer
Quelle: https://upload.wikimedia.org/wikipedia/commons/d/d6/VictorVPhonograph.jpg
(Zugriff am 10.02.2018)
© CC BY-SA

Abb. 4: Telefon von Johann Philipp Reis (1863)


Illustration aus Die Gartenlaube, Heft 58, 1863, S. 809.
Quelle: Wikipedia.org (Zugriff am 10.02.2018)
© CC BY-SA

Abb. 5: Frühe Illustration des Fern-Sprechens (1877)


Quelle: Scientific American 10/1877, S. 1.
© Reproduktion: Axel Meintker (2018)
CC BY-SA

Abb. 6: Theatrophon (1892)


Illustration aus: Georges Maréchal, Le théâtrophone, in: La Nature, 20, 1892, S. 55-58, hier:
S. 56.
© Reproduktion: Axel Meintker (2018)
CC BY-SA

Abb. 7: Frühes Telefon mit Wählscheibe (1909)


Museum für Kommunikation, Berlin
© Fotograf: Axel Meintker (2018)
CC BY-SA

Abb. 8: Volksempfänger VE301W (1933)


Quelle: https://commons.wikimedia.org/wiki/File:Ve301w.jpg (Zugriff am 10.02.2018)
© GNU Free Documentation Licence
Medien des Schreibens und Lesens
2 Medien des Schreibens und Lesens 2

Übersicht

Wie Eric Havelock (1982) feststellt, hat der Mensch in seiner Evolution keine
ausgewiesenen Sinne zum Schreiben und Lesen ausgebildet. Gleichwohl haben
sich diese als körperbasierte kommunikative Kulturtechniken ausgebildet, die das
flüchtige Sprechen im Speichermedium der Schrift erweiterten. Die Geschichte
des Schreibens und Lesens ist dabei geprägt von Praktiken und Technologien, die
die menschlichen Sinne unmittelbar einbeziehen: in den verschiedenen Arten
des lauten und leisen Lesens, oder des manuellen Kopierens von Schriften im
Unterschied zum maschinellen Druck, sowie der Lektüre von klein gedruckten
Schriftzeichen im Buch – um vorab nur ein paar Beispiele zu nennen. Dabei
sind es immer wieder das Auge, das Ohr und die Hand, die sekundär kultiviert
werden. Wie in den vorgestellten oralen Kulturtechniken (Kap. 1) ist daneben
der gesamte Körper Gegenstand unterschiedlicher Schreib- und Lesetechniken.
Besonders die Frage der Körperhaltung beim Lesen – ob im Stehen, im Sitzen
oder im Liegen – wird historisch auf unterschiedliche Weise mit idealen Re-
zeptionsweisen in Verbindung gebracht: sollte man zu einer Zeit etwa stehend
körperliche und geistige Kontrolle über einen Text bewahren, galt es zu anderer
Zeit, den Körper in Sitzmöbeln zu immobilisieren und den Leser zur rein geis-
tigen Auseinandersetzung mit einem Text zu bewegen.
Die verschiedenen Medien und Kulturtechniken des Lesens und Schreibens
werden im Folgenden entlang dreier historischer Ausprägungen vorgestellt, die
eng verbunden sind mit der Durchsetzung unterschiedlicher Medientechniken:
Manuskriptkulturen, Druckkulturen und Digitalkulturen. Auch wenn sich die
Darstellung auf jene historischen Momente des Umbruchs fokussiert, an wel-
chen die entsprechenden Medien und kommunikativen Kulturtechniken sich
breitenwirksam v. a. in Europa durchgesetzt haben, ist zu betonen, dass bis heute
keine gänzlich verschwunden ist. Ein Blick in die Gegenwart zeigt, dass es auch
73
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019
K. Fahlenbrach, Medien, Geschichte und Wahrnehmung,
https://doi.org/10.1007/978-3-658-19760-5_3
74 2 Medien des Schreibens und Lesens

in unserem digitalen Zeitalter nicht nur weiterhin mündliche Kommunikation


(mittels primärer und sekundärer Medien) gibt, sondern dass auch immer noch
Texte manuell und gedruckt erstellt und gelesen werden. Entscheidend für die
kulturhistorische Charakterisierung als Manuskript-, Druck-, oder Digitalkultur
ist vielmehr die Dominanz der jeweiligen medienkulturellen Technologien und
Praktiken in einer bestimmten historischen Phase und ihrer breitenwirksamen
Kommunikationsformen (vgl. Merten 1994).

2.1 Zur Medialität von Schrift


2.1 Zur Medialität von Schrift
Im ersten Kapitel wurde gezeigt, dass das Sprechen seit der Frühzeit eine primäre,
körpernahe Form menschlicher Kommunikation darstellt. Als solche ist das Spre-
chen Ausgangs- und Zielpunkt diverser Medien in der Geschichte geworden. Wie
wir gesehen haben, sind diese bis heute durch das Bestreben geprägt, die Leben-
digkeit mündlicher Interaktion artifiziell zu ermöglichen oder gar zu simulieren:
die flüchtige Momenthaftigkeit des stimmlichen Klangs mit seinen Verweisen auf
die innere Verfasstheit der Sprechenden, die psychophysische Ganzheitlichkeit von
Gesprächen sowie ihre spontane und situative Dynamik. Wie bereits angedeutet,
stand die Erfindung der Schrift am Anfang dieser Entwicklung. Mit ihr wurden
innere Vorstellungen, Ideen, Gedanken in ein grafisches Speichermedium über-
tragbar. Auf diese Weise wurde die sprachliche Äußerung vom artikulierenden
Subjekt getrennt. Mit der Schrift sind aber auch neue, spezifische Formen der
Kommunikation entstanden, die weit über Aspekte sekundärer Oralität (Ong 1987,
s. Kap. 1) hinausgehen. Mit anderen Worten: es sind genuin literale bzw. schriftba-
sierte Kommunikationsformen entstanden, die auch die Sinne auf andere Weise
adressieren, als es in oralen Kommunikationsformen geschieht.
Das Basismedium Schrift zeichnet sich zunächst dadurch aus, dass sie vorwie-
gend über das Auge wahrgenommen wird – es handelt es sich somit primär um
ein visuelles Medium. Die historischen Wurzeln der Schrift liegen denn auch in
der Genese von Bildzeichen, wie in der frühzeitlichen Höhlenmalerei oder den
antiken Bildschriften (s. u.). Im Kern liegt ihr dabei die Tendenz zur Symbolisie-
rung zugrunde: ein Bild-, oder später Schriftzeichen, steht für eine Vorstellung
oder Idee, die nicht in der äußeren Erscheinung des Zeichens (z. B. eines Wortes)
aufgeht. Dies gilt erst recht für die Lautsprache, in der das sprachliche Zeichen in
einer arbiträren, also über Konventionen und Regeln einer Sprachkultur etablierten
Verbindung zur Zeichenbedeutung steht (s. Kap. 1).
2.1 Zur Medialität von Schrift 75

In der Gleichzeitigkeit von Visualität und symbolhafter Abstraktion liegt ein


zentrales Wesenselement schriftlicher Medialität. In dieser Eigenschaft sind mit
der Schrift historisch neue Wahrnehmungsformen und Kommunikationsweisen
entstanden, die über die Schrift hinaus nicht nur in weiteren Schriftmedien (Druck-
presse, s. u.), sondern auch in technischen Bildmedien (Camera Obscura, Fotografie,
s. Kap. 3) sowie im Computer (s. u.) fortgeführt wurden. Um die Kontinuitäten und
Varianten schriftlicher Medialität im Verlauf der nächsten Kapitel besser erkennen
zu können, werden vorab einige wesentliche Merkmale skizziert.

▶▶ Mit der Schriftlichkeit sind spezifische kommunikative Funktionen verbunden.


An erster Stelle können die gegenüber gesprochener Sprache erweiterten Mög-
lichkeiten zur Abstraktion genannt werden. Vorstellungen werden symbolisch
in Zeichen übertragen, die raum- und zeitunabhängig an andere kommuniziert
werden.

In der Lautschrift wird dies durch die sogenannte doppelte Gliederung ermöglicht: die
Tatsache, dass sie sich aufgliedern lässt in sinn-freie lautliche Einheiten (Phoneme)
und bedeutungshaltige Einheiten (Morpheme), etwa Worte. Sprachwissenschaftlich
betrachtet, gewährleistet diese doppelte Struktur „auf der Basis von einigen Duzend
verschiedenen Lauten bzw. Phonemen und entsprechenden Kombinationsregeln die
Unendlichkeit natürlicher Sprachen“ (Bußmann 1990, S. 871). In der regelbasierten
(oder auch Kode-basierten) Verbindung von Lauteinheiten zu Worten können da-
mit auch potentiell unendlich viele Vorstellungen artikuliert und kommuniziert
werden. Mit der Fähigkeit zur symbolischen Veräußerung von Vorstellungen in
das grafische Speichermedium Schrift ging daher eine bis heute anhaltende Diffe-
renzierung von Sinndeutungsmustern und Wirklichkeitskonstruktionen einher.
Transzendentale, religiöse, ideelle oder moralische Vorstellungen und Weltbilder
können seitdem, je nach Haltbarkeit und Reproduzierbarkeit des Trägermediums
(Steintafel, Papyrus, Papier, digitale Dateien), über Raum- und Zeitgrenzen hinweg
gespeichert und verbreitet werden und Anstoß für neue Vorstellungen geben. Noch
mehr als die gesprochene Sprache leistet die Schrift daher dem Entstehen von kol-
lektiven Diskursen Vorschub, in denen Vorstellungen und Wissen überindividuell
von ganz unterschiedlichen Akteuren beeinflusst und entwickelt werden (z. B.
gesellschaftliche Diskurse über Erziehung, Sexualität oder Strafe, vgl. Foucault
1974). Damit einher geht eine wesentlich weitreichendere räumliche Verbreitung
schriftbasierter Kulturen im Vergleich zu rein oralen Kulturen (z. B. Stammeskul-
turen). Gesellschaftlich folgenreich war dabei, dass die Schrift von Anfang an auch
als Medium der Dokumentation, Sortierung und Regulierung genutzt wurde. Was
zunächst v. a. für die Planung und Dokumentation von Handelsaktivitäten wich-

75
76 2 Medien des Schreibens und Lesens

tig war (s. u.), trug langfristig wesentlich dazu bei, dass schriftbasierte Kulturen
differenzierte gesellschaftliche Strukturen entwickeln konnten, die über Gesetze
und Regelsysteme organisiert sind (vgl. Merten 1994). Damit verbunden ist eine
weitere Funktion: die Verbürgung von Aussagen, Informationen und Regeln in
einer Gemeinschaft, auf die man sich überindividuell beziehen kann. Werden in
rein oralen Gesellschaften Wissen und Vorstellungen im mündlichen Vortrag, in
Mythen und Gerüchten verbreitet, sind diese in hohem Maße anfällig für spontane
und individuelle Deutungen der jeweils Sprechenden. Mit der Schrift bietet sich
die Möglichkeit überindividueller Kodifizierung und Verbürgung von Aussagen,
etwa durch Angabe von Autorennamen, Absender sowie Orts- und Zeitangaben
eines Dokumentes.

▶▶ Als zentrale kommunikative Funktionen von Schrift können also festgehalten


werden: Das Speichern und das raum- wie zeitunabhängige Verbreiten von
Vorstellungen und Wissen, sowie die Dokumentation und Kodifizierung von
Vereinbarungen, Regeln und Aussagen.

Für diese Mediengeschichte ist, neben den genannten kommunikativen Funktionen


von Schrift, ein weiterer Aspekt von schriftlicher Medialität wichtig: der Bezug zu
den menschlichen Sinnen. Eingangs wurde bereits betont, dass es sich bei der Schrift
um ein visuelles, grafisches Medium handelt, das v. a. die Augen adressiert. Für
Marshall McLuhan (1962/1992) findet daher mit der Durchsetzung der Schrift ein
paradigmatischer Wechsel der Sinnesadressierung vom Ohr zum Auge statt. Dies
lässt sich mit dem Medienhistoriker Derrick de Kerckhove (1995) weiter präzisieren,
der die langfristigen kognitiven Folgen in abendländischen Kulturen untersucht
hat. Unter Einbezug von Wahrnehmungs- und Hirnforschung berücksichtigt er
dabei, dass die Lautschrift sowohl optisch-gestalthaft, als auch linear aufgenommen
wird: das Auge erfasst die grafischen Zeichen in ihrem optischen Gesamteindruck
(z. B. als Textblock); entscheidend für die Lektüre und das Verstehen aber ist die
Anpassung des Auges an die lineare Abfolge der einzelnen Zeichen in Worte, Sätze,
Abschnitte usw. Auch die Ausbildung von Konventionen des linearen Leseflusses und
der Leserichtung können als Ausdruck einer zunehmenden Anpassung optischer
Wahrnehmung an das Medium Schrift und Text betrachtet werden (Kerckhove 1995).
Mit der optischen Erfassung von horizontal angelegten Zeichenfolgen geht
Kerckhove zufolge einher, dass das gestalthaft-ganzheitliche Sehen und Wahrneh-
men zugunsten eines analytisch, synthetisierenden Blicks zurückgedrängt wurde.
Das Auge wird damit gewissermaßen den Regeln der Analyse und Synthese unter-
geordnet, was einer auf Ratio und Logik ausgerichteten Wahrnehmung Vorschub
leistete. Die Kopplung von rationaler Analyse und Auge war ein medienhistorisch
2.1 Zur Medialität von Schrift 77

folgereiches Prinzip, das weit über die Sprache hinausgehend Wahrnehmung und
Kommunikation prägte – erwähnt seien an dieser Stelle nur die Medientechniken
des Sehens, die um Zentralperspektive, Camera Obscura und Fotografie entstanden
sind (ausführlich in Kap. 3). Sie wurzeln in naturwissenschaftlichen Erkenntnissen
über menschliche und physikalische Prinzipien der Optik, die in antiken und später
in aufklärerischen Schriften der Renaissance gesammelt worden waren. Mit den
Worten Kerckhoves:

„Das phonetische Alphabet erlaubte es dem abendländischen Menschen, seinen eigenen


Körper zu analysieren und neurologische, muskuläre und sensorische Anteile aus der
gesamten biologischen Struktur des Organismus zu veräußern und als Simulakren
in die Kultur einzuführen. Denn das phonetische Alphabet entsinnlichte die Sprache
und das Denken und rief im menschlichen Organismus die Fähigkeit hervor, Infor-
mationen völlig losgelöst von einem Kontext und abgesondert von Umwelteinflüssen
zu verrechnen“ (Kerckhove 1995, S. 43).

Vor diesem Hintergrund wird in der Medientheorie und -geschichte auch gerne von
einer ‚Entsinnlichung‘ der Sprache durch die Schrift gesprochen, sowie von einer
anhaltenden Disziplinierung der Sinne durch Ratio und Logik. Diese Sichtweise
wurde in der Sprach- und Medienphilosophie jedoch auch immer wieder relati-
viert, prominent etwa durch den Sprachphilosophen Jacques Lacan, der in seinen
psychoanalytischen Studien untersuchte, wie sich frühkindliche Erfahrungen der
Ich-Umwelt-Wahrnehmung (Spiegelstadium) in die Sprache und ihre Verwendung
‚einschreiben‘. Der schriftlich tradierte, sprachliche Zeichenkörper wird dabei als
Stellvertreter eines gesellschaftlich geprägten Selbst aufgefasst, mit dem sich die
Sprechenden andauernd identifizieren. Sprechen und Schreiben wird damit als
fortlaufender Prozess der Verkörperung eines gesellschaftlichen Selbst aufgefasst.
Auch die kognitive Linguistik relativierte die rationale Dominanz von Sprache
und Schrift. So heben George Lakoff (1980) und Mark Johnson (1987), die beiden
bekanntesten Vertreter dieser Forschungsrichtung, in ihren Studien den Gestaltas-
pekt von Sprache hervor. Dabei interessiert sie v. a. die vorrationale, meist unbewusst
bleibende und auf körperlichen Erfahrungen beruhende Dimension in der Verwen-
dung von Sprache als Medium der Vorstellung, des Denkens und Kommunizierens
– sei dies in mündlicher oder schriftlicher Form. Sprache betrachten sie dabei nicht
als ein rein abstraktes und willkürliches (arbiträres) Zeichensystem, sondern als
durchdrungen von mentalen Charakteristika menschlicher Sprachverwendung.
Sprache realisiert sich dementsprechend erst in den mentalen Räumen und Vor-
stellungen der Sprachnutzer und ist immer eingebunden in kognitive, affektive und
körperliche Prozesse des Sprechens, Schreibens und Lesens. Dem folgend, verstehen
wir die Bedeutung sprachlicher Zeichen mittels kognitiver Schemata, die mental

77
78 2 Medien des Schreibens und Lesens

netzwerkartig verknüpft sind. Schemata sind mentale Muster, in denen Wissen und
Erinnerung je nach individueller und kultureller Prägung gespeichert sind und die
sich fortlaufend dynamisch verändern. Daneben fließen affektive und körperliche
Erfahrungen in das Verstehen und Anwenden sprachlicher Zeichen und Ausdrücke
ein. Lakoff und Johnson heben hierbei sogenannte Vorstellungsschemata hervor, die
auf ganzheitlichem Körpererleben beruhen: z. B. Kraft, Balance, Gefäß oder Pfad.
All diese Vorstellungsschemata besitzen eine mit den Sinnen konkret erfahrbare
und erfassbare Gestalt: Kraft als eine mehr oder weniger intensive Energie, die vom
eigenen Körper ausgehen kann oder von außen auf ihn einwirkt, Balance als die
Position eines Körpers im Verhältnis zu einem horizontalen Untergrund, Gefäß
als eine geschlossene Einheit (z. B. Körper, Haus) und Pfad als eine Linie mit einem
Anfang und einem Ende, die in unterschiedlicher Gestalt verbunden sein können
(z. B. gewunden, direkt). Zahlreiche sprachliche Ausdrücke rekurrieren im Kern
auf derartige Vorstellungsschemata, v. a. wenn es um die Formulierung abstrakter
oder komplexer Zusammenhänge geht. Das abstrakte Konzept von Zeit etwa wird
in dem Wort ‚Zeitfluss‘ gestalthaft und sinnlich konkret erfassbar, indem ihm das
Vorstellungsschema einer natürlichen, fließenden Kraft zugrunde lieg. Folgt man
diesen Studien, wird deutlich, dass Sprache und Schrift neben ihrer ausgeprägten
symbolisch abstrakten Struktur zugleich vor-symbolische und körpernahe Ei-
genschaften aufweisen: der Bezug auf sinnesbasierte Erfahrungsmuster, die beim
Sprechen, Schreiben und Lesen mental aktiviert werden und ihren Niederschlag
in zahlreichen sprachlichen Ausdrücken finden, die auch in der Lautgestalt diese
Erfahrungsmuster (Vorstellungsschemata) aufgreifen.
Weitere körpernahe Aspekte schriftlicher Medialität liegen in der Materialität der
verwendeten Schreib- und Leseinstrumente sowie des jeweiligen Trägermediums
begründet. Das manuelle Schreiben mit Keil, Feder und Stift impliziert immer einen
engen Bezug zum Körper des Schreibenden, der sich auch dem Leser vermittelt: die
Handschrift trägt immer noch die Geste in sich, die für die nonverbale Abstimmung
so bedeutsam ist (s. Kap. 1 u. 3). Sie vermittelt innere Verfasstheit, Selbstbild und
kulturelle Prägung. Durch die Indienstnahme der Hand beim Schreiben wird die
gestische und mündliche Kommunikation in eine kommunikative Kulturtechnik
überführt, die weitergehende Fähigkeiten voraussetzt: das Wissen und die Fähig-
keit, mittels Schreibinstrument auf einem Trägermedium (z. B. Stein, Papier) die
Hand regelbasiert derart zu bewegen, dass die resultierenden Spuren als sprachlich
symbolische Zeichen gelesen und verstanden werden können.
Mit der Drucktechnik und später dem Computer wurde Schreiben in einen
apparativ standardisierten und automatisierten Prozess übertragen, bei dem der
direkte Bezug zum Körper der Schreibenden abhandenkommt. Mit der Technisierung
der Schrift wurden die visuell-grafischen Aspekte der Typografie, des Layouts und
2.2 Medien des Schreibens und Lesens in Manuskriptkulturen 79

der optischen Leseführung durch Textgestaltung standardisiert und zunehmend


eigendynamischen technischen Kodes unterworfen. Wie wir sehen werden, zeich-
nen sich gleichzeitig aber gerade die Medien und Praktiken des Schreibens und
Lesens in Druck- und digitalen Kulturen dadurch aus, dass sie durch die Arten des
Einbezugs des Körpers der apparativen Entsinnlichung entgegenwirken.

2.2 Medien des Schreibens und Lesens


in Manuskriptkulturen
2.2 Medien des Schreibens und Lesens in Manuskriptkulturen
2.2.1 Schreiben und Lesen in Manuskriptkulturen der Antike

Als Platon im 3. Jh. v. Chr. die Schrift als lebloses Speichermedium kritisierte (s.
Kap. 1), existierte sie bereits seit einigen tausend Jahren. Ihre Ursprünge lagen in
der mesopotamischen Keilschrift (um 4.000 v. Chr.) und in der ägyptischen Hiero-
glyphenschrift (um 2.700 v. Chr.). Bei beiden Schriftsystemen handelte es sich um
Bildschriften, in denen Ausdrücke und Vorstellungen piktogrammartig symbolisiert
wurden. Erst zur Zeit Platons setzte sich in Griechenland ein damals noch relativ
junges Schriftsystem durch, das seine Ursprünge um 500 v. Chr. hat (Havelock
2007, S. 92): gemeint ist die Buchstabenschrift bzw. die Lautschrift.
Die Lautschrift hat ihre Wurzeln bereits in der phönizischen Konsonantenschrift
(ca. 2.000 v. Chr.). Die gesprochenen Anfangskonsonanten einer Bezeichnung
wurden in der phönizischen Schrift zu 22 eigenständigen Sprachsymbolen (z. B.
aleph, beth, gimmel), die nicht mehr nur ein und denselben Gegenstand bezeichnen
mussten, sondern für die sprachliche Beschreibung unterschiedlicher Sachverhalte
kombinierbar und übertragbar wurden. Diese Grundlage des phönizischen Alpha-
betes wurde in der griechischen und später römischen Antike ab etwa 900 v. Chr.
weiterentwickelt. Bedeutsam war v. a. die Erweiterung der lautsprachlichen Zeichen
um Vokale, sowie die Anpassung des Konsonantensystems an die griechische und
römische Sprache, genauer: die gesprochene Sprache. Zahlreiche Zeichen, die im
phönizischen Sprachraum konsonantisch ausgesprochen wurden (z. B. aleph),
wurden nun der griechischen und römischen Aussprache entsprechend in Vokale
umgewandelt (z. B. griech.: Alpha, römisch: a). Auch wurde die Verschriftlichung der
sprachlichen Lautzeichen präzisiert, indem Silben (wie ei oder ou) als Lauteinheiten
aufgefasst und im Schriftsystem ergänzt wurden. Damit entstand ein differenziertes
lautsprachliches Notationssystem, das eine Übertragung von Stimmelementen in
Schriftzeichen und damit eine lautmäßige Speicherung des gesprochenen Wortes
ermöglichte. Die Entwicklung der alphabetischen Schrift verdeutlicht damit auf

79
80 2 Medien des Schreibens und Lesens

beeindruckende Weise die Gleichzeitigkeit unterschiedlicher Medientechniken und


ihr historisches Ineinandergreifen im Sinne von McLuhan (1964/1992): Jedes neue
Medium trägt ein vorhergehendes Medium in sich – in diesem Fall beinhaltet das
sekundäre Medium der Schrift das primäre Körpermedium der Stimme (s. Kap. 1).
Ein genereller Vorzug der Lautsprache gegenüber der Verwendung von Pikto-
grammen war die Steigerung von Abstraktionsmöglichkeiten durch sprachliche
Formulierungen (s. o.). Die Abkoppelung von Bildzeichen vereinfachte es, sich nicht
nur auf Konkreta zu beziehen, wie Personen oder Objekte der unmittelbaren Lebens-
welt, sondern schriftlich abstrakte Zusammenhänge herzustellen. Denn während
das Lautsystem einerseits körpersprachlich am Medium der Stimme orientiert ist,
stehen die Buchstaben und Worte der Schriftsprache in einem konventionellen
und damit arbiträren Verhältnis zu ihrem Gegenstand – weshalb jede Sprache
ihre eigenen Worte für vergleichbare Objekte und Phänomene hat. Wie es Jochen
Hörisch treffend formuliert: „Wer schreibt, setzt abstrakte Zeichen für Laute, wer
liest, verwandelt diese Zeichen in Laute zurück“ (2001, S. 94).
Wie Havelock (2007) zeigt, fand mit der Durchsetzung der Lautschrift ein
Paradigmenwechsel in der abendländischen Geistesgeschichte statt: von einer
beispielhaft an Konkreta orientierten Darstellung zu einer zunehmend abstrahie-
renden Argumentation und Reflektion. So schlug sich die gesteigerte Möglichkeit
zur Abstraktion bereits in der Ideen- und Philosophiegeschichte der Antike nieder.
Erste schriftlich dokumentierte literarische Werke zwischen dem 8. und 7. Jh. v. Chr.,
wie die Ilias und die Odyssee, die beide dem Dichter Homer zugeschrieben werden,
standen noch ganz im Zeichen mündlich überlieferter Mythen und Legenden. In
ihnen wurden archetypische Konflikte und Schicksalsverläufe anhand konkreter
Personen und Gottheiten erzählerisch dargestellt. Ab 600 v. Chr. formulierte dann
Thales von Milet erstmals eine eigenständige Philosophie, die das von Mythen
geprägte Weltbild auf Grundlage naturwissenschaftlicher und philosophischer
Erklärungen relativiert. In der Folge entstand bis ins 5. Jh. v. Chr. ein breites Spek-
trum von Texten, z. B. von Pythagoras und Heraklit, die das menschliche Sein vor
dem Hintergrund von Geometrie, Astronomie und Naturlehre reflektierten. Dieser
Wandel von einem mythischen zu einem naturwissenschaftlichen und rationalen
Weltbild gründete nach Havelock wesentlich in der Durchsetzung der Schrift als
eines Mediums, das einerseits zu höherer Abstraktion befähigte und andererseits
Wissen raum- und zeitunabhängig überlieferte.
Während antike Philosophen und Gelehrte lange eine Grundskepsis gegenüber
der Schrift bewahrten, verbreitete sie sich rasch in anderen Bereichen der Gesell-
schaft, v. a. im Handel, dem Verwaltungswesen und dem Militär. Mit der abstrak-
ten Lautschrift ging eine enorme Effizienzsteigerung einher. Das Zeichenarsenal
schrumpfte im europäischen Raum von mehreren tausend Bildzeichen auf 24
2.2 Medien des Schreibens und Lesens in Manuskriptkulturen 81

Buchstaben. Dies erleichterte die Verbreitung und Standardisierung der Sprache,


ebenso wie die grenzüberschreitende Kommunikation. Beides war vor allem für
ökonomische und militärische Expansionen relevant.
Einen entscheidenden Schub erfuhr die Verbreitung der Schrift um 500 v. Chr.
in Griechenland mit der Durchsetzung von Papyrus als flexiblem Trägermedium.
Davor fand Schrift vor allem auf Steintafeln, an Wänden, aber auch auf Vasen
und Trinkgefäßen ihren Einsatz. Damit ging zugleich eine Fixierung auf Texte
einher, die auf Dauer ausgerichtet waren: Inschriften, die Besitz anzeigten oder
an die Toten gerichtet waren (Grabinschriften), sowie die Speicherung mündlicher
Legenden und Mythen. Die Tatsache, dass Hauswände daneben genutzt wurden,
um die Haushaltsführung zu dokumentieren, sowie Holzplatten zur Notierung
von Handelsübersichten und Steuerberechnungen, legt die Vermutung nahe
(Blanck 1992), dass es v. a. in Handel und Verwaltung ein gesteigertes Interesse
an flexiblen Trägermedien gab. Dementsprechend waren die Einführung und der
Import von Papyrus aus Ägypten ab ca. 500 v. Chr. gerade für diese Bereiche von
großer Bedeutung. Daten und Informationen konnten über längere Zeiträume
hinweg archiviert und im größeren Maßstab ausgewertet werden. Dies ermöglichte
langfristige Prognosen und Planungen – eine wichtige Voraussetzung für die Diffe-
renzierung von Handel- und Staatswesen. Die Verschriftlichung und Archivierung
des gesprochenen Wortes war daneben für das Gerichtswesen und das öffentliche
Verwaltungswesen von besonderem Vorteil: für die Dokumentation von Aussagen,
Urteilen und Regeln.
Bereits für das frühe 5. Jh. v. Chr. beobachtet Horst Blanck (1992, S. 29) eine breite
Alphabetisierung der griechischen Bevölkerung, die zumindest die Kenntnis des
Alphabets gewährleistete und die Fähigkeit, einzelne Worte und Namen lesen und
schreiben zu können. Die Alphabetisierung der Bevölkerung korrespondierte mit
dem Aufkommen des Buchhandels, der sich im 4. Jh. v. Chr. zu einem eigenständi-
gen ökonomischen Bereich entwickelte (ebd., S. 115 ff.). Vorhandene Schriften und
Dokumente wurden handschriftlich kopiert, sowie nach Erinnerung und Vortrag
aufgeschrieben und verkauft. Das Trägermedium der Bücher war die Papyrus-Rolle,
die sich mit Schreibfeder und Tinte einfach beschreiben, platzsparend auf Vorrat
archivieren und leicht transportieren ließ.
Obwohl sich die Schrift mit Buch- und Verlagswesen, sowie im Handel und
Verwaltungswesen seit dem 5. Jh. v. Chr. konstant verbreitete, hielt die kulturelle
Bevorzugung des gesprochenen Wortes und der Stimme noch lange an. Dass Schrift
noch nicht als eigenständiges Medium, das Lesen und Schreiben sich noch nicht als
eigenständige Kulturtechnik ausgebildet hatte, zeigt sich bereits am mündlichen
Schriftstil: Es herrschte das Motto: ‚Schreibe, wie Du sprichst‘ (vgl. Raible 2006,
S. 109 ff.). Die Worte reihten sich fließend aneinander zu einem ununterbrochenen

81
82 2 Medien des Schreibens und Lesens

Schreibtext, ohne strukturierende Satzzeichen oder Trennungen zwischen den


Worten. Damit fanden auch regionale Dialekte ihren Eingang in schriftliche Do-
kumente. Die vorherrschende Fixierung auf Mündlichkeit schlug sich daneben in
der Praxis des lauten Lesens nieder. Ausgehend von der Idee, dass die Schriften nur
mehr sprachliche Speicher vormals gesprochen-gedachter Ideen und Argumente
seien, sollten sie in der Rede wieder lebendig werden (s. Kap. 1). Bürger und Gelehrte
delegierten das Schreiben und Lesen bezeichnenderweise an Sklaven, um sich selbst
vor der Unterwerfung unter das Regelwerk der ‚toten Schrift‘ zu bewahren. Auch
die Lehrer an den Schulen der Antike waren meist Sklaven, die den bürgerlichen
Schülern das Memorieren und ‚freie‘ Vortragen von Schriften lehrten.
Bei allen pragmatischen Vorzügen der Schrift in verschiedenen Bereichen des
gesellschaftlichen Lebens blieben die prägenden Kulturtechniken der Kommu-
nikation im Altertum also an die Stimme und das gesprochene Wort gebunden.
Erst um die Zeitenwende fand mit der allmählichen Verbreitung des christlichen
Glaubens eine erste auch kulturelle Umorientierung auf die Schrift statt. Dies galt
umso mehr als im Christentum von Anfang an das geschriebene Wort als Medium
göttlicher Offenbarung betrachtet wurde.
Für die weitere Durchsetzung von Schriftmedien spielte erneut ein Trägermedium
eine zentrale Rolle: das Pergament bzw. das Pergamentbuch (Kodex). Ab etwa 200
n. Chr. übertrugen Anhänger des Christentums die ersten theologischen Schriften
von Papyrusrollen auf Pergament, auch weil die Einfuhr von Papyrus zu dieser Zeit
handelspolitisch beschränkt war. Da es sich weniger leicht rollen ließ als Papyrus,
beförderte es das Entstehen einer neuen Buchform: des Kodex. Dabei wurden, wie
noch heute üblich, Blätter übereinander gestapelt gebunden. Dies brachte diverse
pragmatische Vorteile mit sich. Die Abschrift der ‚heiligen Schriften‘ der Christen
auf Pergament ermöglichte eine dauerhaftere und widerstandsfähigere Speicherung
als es auf Papyrus möglich gewesen wäre. Zum Abschreiben bot die Buchform des
Kodex außerdem den Vorteil, dass es auf eine Unterlage platziert werden konnte.
Waren bei der Papyrus-Rolle beide Hände mit dem Halten und Aufziehen der
Rolle beschäftigt, konnten diese nun frei bleiben, um einen Text zu kopieren, zu
kommentieren und auch mehrere Texte miteinander zu vergleichen (Wittmann
1999). Mit der Umstellung von der Papyrus-Rolle zum Pergament-Kodex wird die
Umorientierung von mündlichen zu literalen bzw. schriftlichen Kulturtechniken
eingeleitet, die sich in den weiteren Jahrhunderten zunehmend verfestigen.
2.2 Medien des Schreibens und Lesens in Manuskriptkulturen 83

2.2.2 Schreiben und Lesen in Manuskriptkulturen


des Mittelalters

Während es bereits in der griechischen und römischen Antike sowie im frühen


Mittelalter ausgeprägte Kulturtechniken und körperliche Praktiken des Schreibens
und Lesens gab, verorten Historiker (z. B. Raible 2006, Wenzel 2007, Bösch 2011) den
eigentlichen Umbruch von Oralkulturen zu Manuskriptkulturen in Europa erst um
1200. Nach den Völkerwanderungen und politischen, militärischen und religiösen
Neuordnungen in Europa hatte die Schriftkultur der griechischen und römischen
Antike massiven Schaden genommen. Nachdem die politischen und kulturellen
Zentren von Griechenland und Italien sich nach Nordeuropa, in Richtung des
heutigen Frankreich und Deutschland verschoben hatten, lässt sich um 1200 eine
kulturelle Hochphase beobachten. In dieser Zeit entstanden philosophische Werke,
die das theologische Glaubenssystem des Christentums um rationale und systemati-
sche Gedanken erweiterten (Scholastik), wobei auch die Wiederentdeckung antiker
Philosophen und ihrer Schriften eine bedeutende Rolle spielte. Klosterschulen,
Universitäten und Bibliotheken wurden ausgebaut. Daneben etablierten sich v. a.
in Frankreich und Deutschland literarische Gattungen, wie der höfische Roman
(z. B. Lancelot von Chrétien von Troyes), das höfische Lied, das Ritterepos (z. B. der
Artusroman von Hartmut von Aue sowie Parzival von Wolfram von Eschenbach)
oder der Minnegesang (z. B. Walther von der Vogelweide). Als augenfällige kulturelle
Hochzeit dokumentiert die Zeit um 1200 damit die Weiterentwicklung von Schrift
und Buch mit zunehmend eigenständigen medialen Formen (z. B. Textgattungen)
und Zeichen. Daran war u. a. die Kirche als machtvolle gesellschaftliche Instituti-
on wesentlich beteiligt. Nahm das Buch, und im Besonderen die Bibel als ‚heilige
Schrift‘, im Christentum per se eine hervorgehobene Rolle ein, so gewann das Lesen,
Schreiben und vergleichende Auslegen theologischer Schriften und ihre lesende
und schreibende Kommentierung zunehmend an Bedeutung.

▶▶ Medienhistorisch bedeutsam für die Zeit um 1200 war, dass das Lesen nicht nur
kulturell weiter aufgewertet wurde, sondern damit auch eine wachsende Orien-
tierung am Auge einherging. Bereits zuvor hatten mit dem Kodex-Format des
Buches die Textgestaltung und das Layout einen hervorgehobenen Stellenwert im
Abschreiben und Kopieren von Schriften erhalten, was bereits darauf hindeutet,
dass das Lesen des geschriebenen Wortes signifikant an Bedeutung gewann.

Um 1200 wurde zudem die Lesefreundlichkeit der Bücher weiter verbessert, sowohl
im Layout als auch in der Schriftsetzung und der Syntax. Dabei stand die konzent-
rierte und aktive Auseinandersetzung mit dem Gelesenen im Vordergrund. Zuvor

83
84 2 Medien des Schreibens und Lesens

wurden die Worte fließend und ununterbrochen aneinandergereiht, so wie sie


gesprochen wurden (s. o.). Nun setzten sich optische Strukturierungen im Textfluss
durch: Leerzeichen zwischen den Worten, Satzzeichen, sowie die Groß- und Klein-
schreibung. Um eine Orientierung des Lesers im Buch zu gewährleisten, wurden
außerdem Inhaltverzeichnisse eingeführt, sowie Kolumnen und Zwischentitel.
Auch lassen sich in den Manuskripten frühe Formen von Hypertextgestaltung
beobachten (Blanck 1992, Raible 2006), die durch Fußnoten und Kommentare der
Schreiber und Leser eines Buches entstanden. Auf diese Weise entstanden intra- und
intertextuelle Verweissysteme, die sowohl Bezüge innerhalb eines Werkes als auch
zu anderen Büchern hervorhoben, während die Lektüren von anderen Lesern auch
durch ihre Kommentare am Rand nachvollziehbar wurden. Die damit einhergehende
Fixierung auf das Auge, das visuell die Zeichen entziffert und die Verweise auf den
Blättern verfolgt, findet ihre Erweiterung durch aufwendig gestaltete Kalligrafie und
eingefügte Illustrationen. Besonders die Anfangsbuchstaben einer Seite bzw. eines
Kapitels wurden häufig kalligrafisch und bildhaft ausgestaltet, wobei sie teilweise
die Länge einer halben Seite beanspruchten. (siehe Abbildung 9) Die von eigens
eingesetzten Illustratoren angefertigten bunten Zeichnungen ergänzten die Schrift
durch Darstellungen religiöser Szenarien. Auch die Einbände waren oft aufwendig
gestaltet und mit wertvollen Intarsien versehen.
Der materielle Wert solcher Bände war auch Ausdruck ihres hohen transzen-
dentalen Wertes. Das Abschreiben und Lesen ‚heiliger Schriften‘ war eine religiöse
Praxis, bei der nicht nur der ritualisierte Einsatz des Körpers von Lesenden und
Schreibenden bedeutsam war (s. u.), sondern auch die ‚heiligen Worte‘ selbst als
Körper aufgefasst wurden. Die Grundlage dieser Vorstellung war der christliche
Eucharistie-Gedanke, nach der Jesus Christus die menschgewordene Verkörperung
Gottes auf Erden sei. Seine göttliche Botschaft wurde entsprechend als Fleischwer-
dung Gottes in der Heiligen Schrift der Bibel aufgefasst. Bereits die ersten christlichen
Schriften zeugen von dieser Idee. In der Johannes-Apokalypse, deren Ursprung um
die Zeitenwende datiert wird, ist die prophetische Weitergabe des göttlichen Wortes
an die Menschen als ein Akt der Speisung dargestellt: „Du aber, Menschensohn,
höre, was ich zu Dir sage […]. Öffne Deinen Mund, und iß, was ich Dir gebe.‘ Und
ich sah: Eine Hand war ausgestreckt zu mir, sie hielt eine Buchrolle. Er rollte sie vor
mir auf. Sie war innen und außen beschrieben, und auf ihr waren Klagen, Seufzer
und Wehrufe geschrieben. Er sagte zu mir: ‚Menschensohn, gib Deinem Bauch zu
essen, fülle dein Inneres mit dieser Rolle, die ich dir gebe.‘ Ich aß sie, und sie wurde
in meinem Mund süß wie Honig. Er sagte zu mir: ‚Geh zum Haus Israel, Menschen-
sohn, und sprich mit meinen Worten zu ihnen!‘“ (Ez 2,8-3,4; zit. n. Wenzel 2007,
S. 30). Ausgehend von der Überzeugung, dass Gottes Botschaft sich in der Bibel als
‚heilige Nahrung‘ verkörpert, entwickelten sich kulturell machtvolle metaphorische
2.2 Medien des Schreibens und Lesens in Manuskriptkulturen 85

Abb. 9
Mittelalterliches Manu-
skript: Nibelungenlied
(zwischen 1220 und 1250)

Vorstellungen des Lesens und Abschreibens ‚heiliger Schriften‘, wonach diese als
körperliches Einverleiben, Verdauen, Wiederkäuen und Ausspeien gedacht und
praktiziert wurden (Wenzel 2007) – die teilweise heute noch existieren (z. B. ‚die
Weisheit mit Löffeln fressen‘). Das Abschreiben der ‚heiligen Schriften‘ wird dabei
als körperlicher Akt der Einverleibung aufgefasst. Ihm geht das Meditieren voraus,
bei dem die Worte „abgeschmeckt“, nämlich auf ihren Sinn hin ergründet werden.
Das laute Lesen wurde in dem Zusammenhang als „Ausspeien“, als abwägendes
Hören verstanden, durch welches die Heilige Schrift wieder zum gesprochenen,
lebendigen Wort wird (Wenzel 2007).
Das Lesen und Schreiben religiöser Schriften in den Klöstern und Klosterschulen
war vor diesem Hintergrund lange geprägt durch ritualisierte Praktiken der lectio-
nes: man sprach laut, was man abschrieb und las. Die seit der Antike fortdauernde
85
86 2 Medien des Schreibens und Lesens

Idee der Verlebendigung des Geschriebenen durch die Stimme wurde dabei durch
die Idee der Einverleibung und des Ausspeiens von Gottes Botschaft theologisch
erweitert (ebd.). Mit dem lauten Lesen war zugleich Kontrolle und Disziplinierung
verbunden. Es erlaubte den Klosterlehrern zu prüfen, ob die Schüler und Schreiber
die Schriften auch vollständig und angemessen verinnerlicht hatten.
Erst ab dem 9. Jh. entwickelten sich langsam auch Praktiken des stillen Lesens
an den Klöstern (ebd.). Dies geschah v. a. aus pragmatischen Gründen. Mit der
Vergrößerung von Bibliotheken, Schreibstuben und Lesesälen störte das laute Lesen
zunehmend die Konzentration der Einzelnen. Auch erkannte man, dass leises Lesen
und Schreiben schneller vonstattengeht. Je mehr die Kirche also an der Verbreitung
der theologischen Schriften interessiert war, desto wichtiger wurde das leise Lesen
und Schreiben für eine effizientere Buchproduktion.
Verbunden mit dem leisen Lesen und Schreiben war schon damals eine stärke-
re Fokussierung auf das Auge und eine zunehmende Verlagerung auf subjektive
Interpretationen. Dies schlug sich v. a. ab 1200 in einer wachsenden Zahl von
sogenannten „Laien“ als Lesern nieder, von Klerikern also, welche die Kirche mit
widerständigen Auslegungen der heiligen Schriften konfrontierten. Diese sahen
häufig einen Widerspruch zwischen der Gerechtigkeits- und Gleichheitsmoral des
Ur-Christentums und dem Reichtum und den Privilegien der damaligen Kirchen-
vertreter. Während derart abweichende Interpretationen mit der Verbreitung von
Manuskripten zunahmen, mussten Zensurpraktiken eingeführt werden, die nicht
mehr beim mündlichen Vortragen, sondern bei den Schriften selbst ansetzten.
Unliebsame Bücher kamen fortan auf einen Index, wurden weggeschlossen oder
gar vernichtet und damit unerwünschten Lesern materiell entzogen.
Ein weiterer Grund für die Veränderung von mündlichen zu schriftlichen
Kulturtechniken des Lesens und Schreibens um 1200 war die Durchsetzung von
Papier als neuem Trägermedium. Das in China bereits um 100 n. Chr. entwickelte
Verfahren der Papierproduktion kam damals über Indien und den arabischen Raum
nach Europa. Es war weitaus günstiger und z. T. auch geeigneter für die Erstellung
von Manuskriptbänden als die alten Trägermedien Papyrus und Pergament. Die
Einführung des Papiers in Europa war daher für die Produktion, Archivierung
und Vermarktung von Büchern von unzweifelhaftem Vorteil, und es ist beachtlich,
wie sehr sich die bestehenden Strukturen des Buch- und Bibliothekswesens mit der
Durchsetzung dieses Trägermediums nach 1200 veränderten. Einerseits wurde das
Kopieren, Übersetzen und Anfertigen von Schriften in den klösterlichen Schreib-
stuben (Skriptorien) massiv ausgeweitet. War die Herstellung von Büchern bis dato
eine eher exklusive Angelegenheit, bei der die klösterlichen Schreibstuben auch oft
im Wettstreit um die aufwendigste Gestaltung in Illustration und Kalligrafie lagen,
ermöglichte Papier nun zusätzlich die Herstellung von weniger wertvollen Bänden.
2.2 Medien des Schreibens und Lesens in Manuskriptkulturen 87

Auch begannen einfache Mönchsorden untereinander die Bände ihrer Bibliotheken


auszutauschen und für den gemeinen Gebrauch der Klosterschüler und Bewohner
zu kopieren (sog. Gebrauchskodices; vgl. hierzu Wittmann 1999). Hinzu kam, dass
neben den religiösen Schriften nun auch literarische Texte verbreitet werden konn-
ten, die sich v. a. an ein höfisches Publikum richteten. So entstand ein wachsender
Handel mit profaner Literatur, der gehobene Unterhaltungsbedürfnisse des Adels
bediente, von dem besonders die Frauen lesen konnten. Daneben profitierten
erneut das Verwaltungswesen und der Handel von dem neuen Trägermedium zur
effizienteren Archivierung von Daten, zur Kalkulation und Planung sowie zur
überregionalen Korrespondenz. Außerdem entstanden juristische, medizinische
und andere Fachtexte, die einer Ausweitung von akademischen Wissensdiskursen
Vorschub leisteten. Damit bildeten sich auch außerhalb von Klerus und Adel neue
Gruppen an Schreibenden und Lesenden aus, etwa im wohlhabenden Bürgertum
oder unter Kaufleuten und Juristen. Ihre Alphabetisierung und Literarisierung,
zunächst an berufliche Interessen gebunden, war eine Grundlage für die weitere
Verbreitung von Bildungs- und Unterhaltungsinteressen in der Gesellschaft. So
konstatiert Reinhard Wittmann zur Langzeitfolge des Mediums Papier:

„Mit diesem Textträger verlor das Buch schon vor der Erfindung des Druckens seine
Exklusivität und sakrale Aura – es wurde zum Gebrauchsgegenstand für die Herr-
schafts-, Bildungs-, und bereits Unterhaltungsbedürfnisse einer vermögenden, teils
lesekundigen Oberschicht“ (1999, S. 18).

Um das gesteigerte Bedürfnis nach Texten religiöser und profaner Art zu bedienen,
entstanden im 14. Jh. zunehmend Schreibwerkstätten, die Aufträge unterschiedli-
cher Kunden annahmen. Sie produzierten vermehrt Bücher auf Vorrat und legten
damit den Grundstein für das moderne Verlagswesen. Mit angestellten Schreibern
und Illustratoren produzierten sie in Serie ein breites Spektrum an Erbauungs- und
Gebrauchstexten, etwa Romane, Lyrik, Bibeln, Rechtsschriften oder medizinische
Schriften (ebd., S. 20). Damit wurde die Monopolstellung der Kirche auf die Pro-
duktion, Verbreitung und Rezeption von Büchern aufgebrochen, und es entstand
ein merkantil orientiertes Buchwesen, das sich erstmals mehr an Marktinteressen
denn an ideell religiösen Interessen orientierte (vgl. Gieseke 2002).
Die Tendenz zur ökonomischen Ausweitung des Buchwesens leistete im weiteren
Verlauf auch einer frühen apparativen Reproduktionstechnik des Papierdrucks
Vorschub: dem Holzdruck. Nicht lange vor der Erfindung der Druckerpresse durch
Johannes Gutenberg wurde ab 1380 der Holzdruck als dessen Vorform populär.
Andachtsbilder, Kartenspiele und dünne Blockbücher mit Bildfolgen wurden als
Holzschnitte auf Papier gedruckt und zu geringen Preisen verkauft. Auch wenn
diese kostengünstigen Drucke aufgrund der weiterhin begrenzten Alphabetisierung
87
88 2 Medien des Schreibens und Lesens

der breiten Bevölkerung nach wie vor ein eingeschränktes Publikum fanden (v. a.
Klerus, Adel, bürgerliche Oberschicht), so standen sie doch bereits im Zeichen
einer Ausweitung des Schrifttums hin zur massenseriellen Reproduktion und Ver-
breitung. Die Erfindung der Druckpresse (s. u.) erscheint vor diesem Hintergrund
als kontinuierliche Weiterentwicklung einer Medientechnik, für die es bereits
ausgeprägte kollektive Bedürfnisse und Verwendungsweisen gab. Die sich schon
damals abzeichnenden langfristigen kommunikativen Folgen zwischen 1200 und
1430 schildert treffend Horst Wenzel: „Schrift wird Bedingung für die Ausbildung
größerer Kommunikationsräume, für eine schnellere und umfassendere Verwen-
dung des gesellschaftlichen Wissens, für die Installierung eines Literatursystems,
in dem die körpergebundene Kommunikation des höfischen Adels beobachtet und
reflektiert wird“ (1994, S. 18f).

2.3 Medien des Schreibens und Lesens in Druckkulturen


2.3 Medien des Schreibens und Lesens in Druckkulturen
Die Durchsetzung der Drucktechnik seit der Mitte des 15. Jh. wird häufig als eine
medienhistorische Zäsur beschrieben (z. B. McLuhan 1968). Wie wir bereits gesehen
haben, trifft dies nur eingeschränkt zu (vgl. auch Gieseke 2002, Raible 2006, Bösch
2011). Als Gutenberg um 1440 die mechanische Druckerpresse erfand, war dies
die Fortführung einer bereits länger anhaltenden Entwicklung, die schon mit der
Verbreitung der manuellen und seriellen Herstellung von Büchern und Schriften
begonnen hatte. Die seriellen und teilweise mechanischen Praktiken der Produkti-
on, Verbreitung und Rezeption von Schriften hatten bereits einen Strukturwandel
des Schrifttums eingeleitet. Mit Blick auf die Praktiken des Schreibens und Lesens
leistete die Drucktechnik jedoch durchaus einem neuartigen technischen Paradig-
ma massenserieller Reproduktion Vorschub, das es erlaubt, von dem Aufkommen
einer neuen Druckkultur zu sprechen, die sich in wesentlichen Aspekten von
früheren Manuskriptkulturen unterscheidet. Dieses neue Paradigma betrifft vor
allem folgende Aspekte: mit der schrittweise voll automatisierten Reproduktion
von Schriften wird die Trennung zwischen artikulierendem Subjekt (Schreibenden)
und seinen Aussagen radikal vorangetrieben. Dazwischen geschaltet ist seitdem
einerseits eine technologisch zunehmend ausgefeilte und voraussetzungsreiche
Maschinerie, die den Schreibenden und Lesenden spätestens ab der Neuzeit nicht
mehr intuitiv zugänglich ist. Der mechanisch automatisierten Reproduktion liegt
differenziertes technisches und analytisches Expertenwissen zugrunde, das ab dem
19. Jh. nur noch von Einzelnen verstanden werden kann (s. u.). Mit anderen Worten:
die Schrift wird in ein technisch basiertes System mit eigenständigen Regeln und
2.3 Medien des Schreibens und Lesens in Druckkulturen 89

Kodes übertragen. Dazwischen geschaltet ist zudem ein ebenfalls im Laufe des 18.
und 19. Jh. immer komplexer werdendes organisatorisches und soziales System des
Buch- und Pressewesens. Schreibende stehen damit nur am Anfang einer langen
Kette von Prozessen, die von technischen Systemen sowie von anderen Akteuren
und Institutionen (Verlage, Redaktionen, Vertrieb, Kritiker etc.) reguliert werden.
Bereits in der Frühen Neuzeit zeichnen sich zudem neue quantitative Maßstäbe ab:
die mechanische Druckpresse erlaubte seit dem 15. Jh. eine massive Ausweitung der
Druckproduktion, womit sich merkantile Prinzipien der Planung und Verbreitung in
einem breiteren Publikum weiter durchsetzen (vgl. Giesecke 2002). Daneben wurde
schon damals die Fixierung auf das Auge beim Lesen in der Buchgestaltung und
Typografie mittels beweglicher Lettern apparativ standardisiert. Wie einleitend im
Anschluss an Kerckhove argumentiert, findet dabei eine Anpassung des Sehsinns
an die analytische Synthese sprachlicher Elemente (Phoneme, Worte usw.) in der
linearen Ordnung von Sätzen, Abschnitten, Seitenfolgen etc. statt. Wie es im Ver-
lauf der nächsten beiden Abschnitte gezeigt wird, geht mit der Fixierung auf das
Auge beim Lesen also eine kontinuierliche Tendenz zum stillen, ent-körperlichten
Lesen einher, bei dem die Imagination und das innere Erleben zunehmend in den
Vordergrund der Leseerfahrung tritt.

2.3.1 Schreiben und Lesen in Druckkulturen der Frühen


Neuzeit

Die Frühe Neuzeit, die als Übergang vom Mittelalter zum Zeitalter der Aufklärung
betrachtet werden kann, ist wesentlich von der Entfaltung der Druckkultur und
der damit verbundenen neuartigen Verbreitung von Wissen geprägt. Die frühe
Druckkultur steht durchaus im Zeichen einer kontinuierlichen Fortsetzung der in
den bis dato herrschenden Manuskriptkulturen entwickelten Kulturtechniken des
Schreibens und Lesens, hat aber auch entscheidende Neuerungen mit sich gebracht.
Die Kontinuität der damals aufkommenden Druckkulturen zeigt sich auch in
der ursprünglich beabsichtigten Funktion der Druckpresse: Gutenberg bezweckte
damit um 1440 zunächst eine Technologie, die die Qualität der handschriftlich er-
stellten Manuskripte verbessern sollte. Die Praxis des handschriftlichen Kopierens
konnte um 1400 mit dem zunehmenden Bedarf an serieller Buchproduktion kaum
noch mithalten, was sich etwa in fahrlässigeren und unleserlichen Handschriften
der Kopisten bemerkbar machte. Mit der Druckpresse wollte Gutenberg daher ein
mechanisches Äquivalent für die handschriftliche Kopie anbieten, die diese nicht
ersetzt, sondern vielmehr simuliert. Es ging ihm also keinesfalls um eine gänzlich
neue Art der Buchproduktion. Waren die optische Gestaltung des Schriftbildes

89
90 2 Medien des Schreibens und Lesens

(Satzzeichen, Trennungszeichen usw.) und die Organisation der Texte in Kapiteln


und hypertextuellen Verweisen zu diesem Zeitpunkt bereits lange etabliert (s. o.),
wurden sie mit der mechanischen Drucktechnologie nur mehr reproduziert und
weiter optimiert. Wie es Wolfgang Raible feststellt: „Die Analyse digitalisierter
Bilder von frühen Drucken zeigt nämlich, dass Gutenberg und die Gleichgesinnten
anfangs die Handschrift mit ihrer Vielfalt, mit ihren nie identischen Buchstaben,
nachmachen wollten und daher viele verschiedene Muster für eine Letter hatten.“
(2006, S. 133). (siehe Abbildung 10)

Abb. 10
Druckpresse von
Gutenberg
(Holzschnitt um 1536)

Wie in zahlreichen anderen medienhistorischen Umbruchmomenten, war die


Einführung des Buchdrucks also nicht nur technisch, sondern auch in der ästheti-
schen Erscheinung und in Bezug auf die kulturelle und körperliche Wahrnehmung
an einem älteren Medium und damit verbundenen Kulturtechniken – in diesem
2.3 Medien des Schreibens und Lesens in Druckkulturen 91

Fall dem manuellen Kopieren und Schreiben – orientiert. Für die Kirche war die
Orientierung an der Handschrift bei der Vervielfältigung theologischer Schriften
vornehmlich ideell begründet. Die Verinnerlichung der ‚heiligen‘ Worte Gottes sollte
ja vormals in der Handschrift des Schreibers dokumentiert und optisch kontrolliert
werden können. In der Folge waren es jedoch eher pragmatische und ökonomische
Gründe, die zur Einführung beweglicher Lettern mit standardisierten Schriftzeichen
(Typografie) im Buchdruck führten, da sie die Buchproduktion schließlich einfacher,
schneller und günstiger machten. Im Vordergrund der Erfindung beweglicher Lettern
stand also vor allem Effizienzsteigerung. Die für die weitere Standardisierung und
Technisierung der Schrift so entscheidenden beweglichen Lettern wurden dagegen
von einem unbekannten Drucker entwickelt, der mehr die produktionstechnische
Optimierung im Sinne hatte (Raible 2006, S. 133).
Auch wenn die Erfindung und Durchsetzung der Drucktechnik zunächst als
Fortsetzung vertrauter Medien und kommunikativen Kulturtechniken gedacht
war, so entfaltete sie doch bereits in der Frühen Neuzeit eine neuartige Dynamik
in der Produktion, Verbreitung und Rezeption von Schriften, die anhaltende ge-
sellschaftliche und kulturelle Veränderungen nach sich zog. Das Privileg, Bücher
zu drucken und damit Wissen zu verbreiten, wurde nun endgültig aus dem engen
Kreis der Kirche in die breitere Gesellschaft getragen (vgl. Gieseke 2002, Bösch 2011).
Eine hervorzuhebende Folge der Drucktechnologie war, dass öffentlich relevante
Informationen, Verlautbarungen, Verträge, Gerichtsurteile, sowie unterhaltende
Stoffe über Druckerzeugnisse verschiedenster Art ein zunehmend breites Publi-
kum erreichten. Der Marktplatz als vormals konstitutiver Ort von Öffentlichkeit
(s. Kap. 1) begann damit in den Hintergrund zu treten. Damit einher ging eine
Differenzierung unterschiedlicher Öffentlichkeiten: Druckerzeugnisse sprachen in
ihrer Thematik, Gestaltung und Verbreitungsart zunehmend unterschiedliche Ziel-
gruppen an. Mit Flugblättern (Einblattdrucke) und Flugschriften (Mehrblattdrucke),
die sich an eine wachsende Leserschaft wendeten, entstanden erste journalistische
Öffentlichkeiten. Als Informationsmedien berichteten vor allem Flugschriften seit
etwa 1502 über Ereignisse und Neuigkeiten (vgl. Bösch 2011, S. 44). Sie gestalteten
sich in ihrem kleinen Format und ihrer Textlastigkeit als frühe Zeitungen. Oft
sprachen sie ein politisch interessiertes und gebildetes Publikum an und zielten auf
eine konzentrierte und kritische Lektüre (ebd., S. 46). Flugblätter wiederum setzten
mit Bilddrucken von Gewaltverbrechen, Gerüchten und mysteriösen Ereignissen
eher auf Spektakelwerte. Vor allem während der Luther’schen Reformation, aber
auch im Dreißigjährigen Krieg, wurden beide wichtige Medien der ideellen und
politischen Agitation (ebd., S. 44). Als besonders wirksam erwies sich dabei, dass
sie mittels Druckpresse schnell und in hohen Auflagen erstellt und verbreitet wer-
den konnten – ein Faktum, das für das Zeitungswesen später entscheidend wurde.

91
92 2 Medien des Schreibens und Lesens

Unter dem Einfluss des erstarkenden bürgerlichen Handelswesens erhielten


ökonomische Gesetze der Druckproduktion einen wachsenden Einfluss auf die
Dynamik der kulturellen Zirkulation von Wissen und Informationen. Die bis dato
vorherrschende Publikations- und Deutungsmacht von Klerus und Adel wurde
weiter geschmälert: Das Privileg dieser Eliten, Bücher zu schreiben, drucken zu
lassen und zu besitzen, geriet mit der Einführung der Drucktechnik endgültig ins
Wanken (vgl. Gieseke 2002). In dem zunehmend nach ökonomischen Gesetzmäßig-
keiten funktionierenden Buchmarkt, der dem Prinzip von Angebot und Nachfrage
folgte, ließ sich die zuvor ausgeübte theologische und politische Kontrolle über die
Schriften immer schwerer aufrechterhalten.

▶▶ Die Umstellung auf die breitenwirksame Reproduktion von Schriften nach öko-
nomischen Prinzipien kann als entscheidendes Merkmal der frühen Druckkultur
betrachtet werden. Die damit verbundene Ausweitung von Öffentlichkeit leistete
nicht nur einer neuartigen Verbreitung von Wissen in der Gesellschaft Vorschub,
sondern auch einer frühen Individualisierung des Lesens und Schreibens. Mit
der drucktechnischen Professionalisierung und Automatisierung von Schrift-
bild und Textgestaltung rückte das Auge weiter in den Vordergrund medialer
Sinnesadressierung – auch wenn das Volumen und Gewicht der Druckwerke
weiterhin für eine körperliche Immobilisierung des Lesens sorgten.

Je mehr sich in der Folge die Druckschrift als Kommunikationsmedium ver-


selbstständigte, desto mehr trat auch ihre Eigenschaft als visuelles Medium in den
Vordergrund. Die Produktion und Rezeption von schriftbasierten Vorstellungen
und Informationen wurde damit zunehmend auf Individuen ausgerichtet: von der
Stimme als kollektiv auditiv erfassbarem, zur Schrift als individuell und optisch
von einzelnen Lesern aufzufassendem Medium.

2.3.2 Schreiben und Lesen in Druckkulturen der Neuzeit

Nach der ersten Blütezeit um 1600 stagnierte die weitere Entwicklung der Druck-
kultur und der damit verbundenen Kulturtechniken des Lesens und Schreibens in
Europa fast 100 Jahre lang. Wesentliche Ursache hierfür war die Ausbreitung der
Pest, die zahlreichen Kriege und die dadurch bedingte Erschütterung des Handels.
Im Heiligen Römischen Reich waren es vor allem die Folgen des Dreißigjährigen
Krieges, die für eine bis ins 18. Jh. andauernde Schwächung des Handelssystems
und damit auch der weiteren Entwicklung des Buch- und Pressewesens sorgten.
2.3 Medien des Schreibens und Lesens in Druckkulturen 93

Wenn erst im 18. Jh. wieder ein entscheidender Entwicklungsschub der Druck-
kulturen stattfand, der die Erzeugung, Verbreitung und Rezeption von Druckmedien
quantitativ und qualitativ nachhaltig veränderte, waren der soziale, kulturelle
und wirtschaftliche Wandel daran wesentlich beteiligt. Es war ein Jahrhundert,
in dem religiöse und feudalistische Strukturen und Sinndeutungsmuster langsam
von neuzeitlichen Gesellschaftsformen und humanistisch-rationalen Weltbildern
abgelöst wurden. Das lange hierarchisch und dirigistisch durch Staat und Kirche
geprägte Handelswesen wurde dabei verdrängt durch eine Marktstruktur, die in
neuem Maßstab durch ent-personalisierte ökonomische Mechanismen geprägt
war. In einem berühmten Vergleich sah der Wirtschaftsphilosoph Adam Smith
(1746/2012) den damals erstarkenden Kapitalismus von einer „invisible hand“
(unsichtbare Hand) geführt: als gleichsam unsichtbare Macht reguliert das Prinzip
der Gewinnmaximierung den Markt und kann nur noch begrenzt durch einzelne
Institutionen oder gar Personen gelenkt und kontrolliert werden. Treibende Kraft
dieser Entwicklung war das Bürgertum, das eine wachsende Bedeutung im mer-
kantil-absolutistischen Staatssystem einnahm. Aber auch im kulturellen Bereich
wurde das Bürgertum zur einflussreichsten Gruppe und trug entscheidend zum
erwähnten Werte- und Gesellschaftswandel bei.
Für die Ausbildung neuer Medien und Kulturtechniken des Lesens war auch
die Ausprägung einer bürgerlich literarischen Öffentlichkeit bedeutsam (Schmidt
1987). Es bildeten sich etwa Lesegesellschaften, deren Mitglieder Zugang zu einem
breiten Spektrum an Printmedien (Belletristik, Fachliteratur, Presse) hatte. Das war
v. a. im Hinblick auf die nach wie vor hohen Buchpreise für die Verbreitung des
Lesens in der Bevölkerung von Bedeutung. Daneben entstanden in der gehobenen
Bürgerschicht Literatursalons, in denen gebildete Teilnehmer sich über Literatur
austauschten. Eine neue Form von Öffentlichkeit entstand darüber hinaus durch
literarische Zeitschriften und Magazine, in denen Schriftsteller und professionelle
Literaturkritiker sich mit Neuerscheinungen auseinandersetzten und als ‚Exper-
tenleser‘ die Maßstäbe der literarischen Ästhetik wesentlich beeinflussten.
Insgesamt erweiterte sich die Leserschaft im Laufe des 18. Jh. erheblich. Allerdings
lasen bis 1770 nur 15 Prozent der deutschen Bevölkerung Literatur (Schmidt 1987,
S. 335). 90 Prozent der Bevölkerung lebte auf dem Land, wo Bücher nicht nur schwer
erhältlich, sondern für die meisten auch unerschwinglich waren. Zudem war dieser
Großteil der Bevölkerung zunächst nur begrenzt alphabetisiert, und es mangelte ihr
auch schlicht an der nötigen Freizeit zum Lesen. Freizeit war vielmehr eine Folge des
wachsenden Wohlstands des Bürgertums in den Städten. Sie wurde ein wichtiger
Bestandteil des bürgerlichen Alltags, den insbesondere nicht berufstätige Frauen,
Kinder und Jugendliche gern lesend verbrachten (Schön 1987). Daneben begannen
auch die in wohlhabenden Häusern angestellten – v. a. weiblichen – Dienstboten

93
94 2 Medien des Schreibens und Lesens

ihre freie Zeit mit dem Lesen zu füllen (ebd.). Mit ihnen erweiterte sich das soziale
Spektrum der Leserschaft. Dabei differenzierten sich im 18. Jh. auch die Praktiken
des Lesens. War das Lesen längerer Schriften zuvor weitgehend Theologen und
Gelehrten vorbehalten, trat nun zunehmend der Freizeit- und Unterhaltungsaspekt
eines breiteren Lesepublikums in den Vordergrund. Bezeichnend hierfür war eine
grundsätzliche Verschiebung vom intensiven Lesen weniger Bücher (v. a. der Bibel
oder des Katechismus) zum extensiven Lesen vieler Bücher (Schmidt 1987). Unter-
stützt vom expandierenden Buchmarkt und den aufkommenden Lesegesellschaften,
war das Publikum mit einer wachsenden Auswahl an Büchern konfrontiert, die von
den meisten nur einmal gelesen wurden. Dabei driftete das Selbstverständnis der
professionell mit Literatur befassten Gelehrten und Kritiker und die Bedürfnisse
des breiten Publikums immer mehr auseinander. Während Gelehrte die Rolle von
Literatur darin sahen, ihr Publikum moralisch in bürgerlichen Tugenden zu bil-
den und zu festigen, wurde das Lesen beim breiten Publikum beliebt, weil es ihm
ermöglichte, andere Lebenswirklichkeiten kennen zu lernen und sich empathisch
mit den fiktiven Helden einer Geschichte zu identifizieren.
Die Differenzierung unterschiedlicher Praktiken des Lesens zu dieser Zeit kommt
in vier Lektüremodi zum Ausdruck, die Siegfried J. Schmidt (1987, S. 354 ff.) im
Anschluss an die Kulturhistorikerin Aleida Assmann unterscheidet. Zu betonen
ist dabei, dass diese vier Modi damals gleichzeitig und keinesfalls in einer zeitli-
chen Abfolge zu beobachten sind: Da war zum einen das sogenannte empathische
Lesen (bei Assmann: „wildes Lesen“), wie es anfangs v. a. unter den Dienstboten
und dem weiblichen Personal wohlhabender Haushalte verbreitet war. Es zeich-
nete sich durch ein starkes Bedürfnis nach affektiver Teilhabe und Identifikation
mit den Helden und ihren Schicksalen aus. Mit der zunehmenden Verbreiterung
literarischer Genres und Erzählformen, die die Grenzziehung zwischen leichter
Unterhaltungsliteratur und aufklärerisch anspruchsvoller Literatur im Laufe des
Jahrhunderts abmilderte, verbreitete sich der empathische Lektüremodus dann
auch in bürgerlichen Milieus, besonders unter Frauen. Daneben entwickelte sich im
Bürgertum der Modus des nützlichen Lesens. Hier standen geistige Erbauung und
höhere Erkenntnis im Vordergrund, etwa in Bezug auf moralische Auffassungen,
Werte und Verhaltensweisen. Eng damit verbunden war das zivile Lesen, bei dem
der Leser in einen inneren, kritischen Dialog mit dem Text tritt und darin seine
eigene Identität weiterbildet. Schließlich gab es das unter den literarisch und philo-
sophisch Gelehrten verbreitete hermeneutische Lesen, bei dem Lesen als eine Kunst
der literarischen Auslegung gepflegt wurde, was eine höhere Vorbildung voraussetzte
und als wissenschaftliche Methode die moderne Literaturwissenschaft begründete.
Während sich das nützliche, das zivile und das hermeneutische Lesen idealtypisch
in das neue Wertesystem des bürgerlichen Selbstverständnisses fügten, war das em-
2.3 Medien des Schreibens und Lesens in Druckkulturen 95

pathische Lesen Gegenstand scharfer Kulturkritik. Gewarnt wurde vor der Flucht in
Parallelwelten, verbunden mit Entfremdung von der alltäglichen Umgebung. Auch
sah man eine große Suchtgefahr in einem Lesemodus, bei dem Identifikation mit
den Helden zum Hauptantrieb wird, was – ganz entgegen bürgerlich-aufklärerischer
Maxime – mit einer nachhaltigen Schwächung des gesellschaftlich verankerten
Selbst-Bewusstseins einhergehe. Die Furcht besonders bürgerlicher Gelehrter vor
den Wirkungen des empathischen Lesens veranschaulicht ein Zitat des Philosophen
und Schriftstellers Johann Gottlieb Fichte:

„So, wie andere narkotische Mittel, versetzt es in den behaglichen Halbzustand


zwischen Schlafen und Wachen, und wiegt ein in süße Selbstvergessenheit, ohne
dass man dabei irgendeines Tuns bedürfe. […] Wer nur einmal die Süßigkeit dieses
Zustandes geschmeckt hat, der will sie immerfort genießen, und mag im Leben nichts
anderes mehr tun; er liest nun, sogar ohne alle Beziehung auf Kenntnis der Literatur
und Fortgehen mit dem Zeitalter, lediglich damit er lese und lesend lebe, und stellt in
seiner Person dar den reinen Leser“ (1804, zit. n. Schmidt 1987, S. 356).

Die Vorbehalte gegenüber dem emphatischen Lesen verdichteten sich in der


Debatte um die sogenannte Lesewut, die bürgerliche Kritiker besonders bei den
einfachen Ständen, jungen Menschen und bei Frauen grassieren sahen. Besonders
am Leseverhalten der Frauen entzündete sich eine Kulturkritik, die den Roman als
Medium weiblicher Irreführung geißelte. Frauen, die lesen – so die Befürchtung
– vernachlässigten ihre Rolle als Hausfrau, Gattin und Mutter. Ein prominentes
Beispiel der Debatte um die Lesewut ist die sogenannte ‚Werther-Hysterie‘, die
angeblich durch Johann Wolfgang von Goethes 1774 veröffentlichten Briefroman
Die Leiden des jungen Werther verursacht wurde. (siehe Abbildung 11)
Der Roman schildert die unglückliche Liebe von Werther zu Lotte, die mit einem
anderen, ihm sozial höher gestellten Mann verlobt ist. Die aus gesellschaftlichen
Gründen ausweglose Liebesgeschichte endet schließlich mit Werthers Suizid. Dieser
Schlüsselroman der Epoche des Sturm und Drang stand in vielerlei Hinsicht im
Widerspruch zu den bürgerlichen Werten und dem damaligen Literaturverständ-
nis. Vor allem die Tatsache, dass der Held die Konflikte am Ende nicht bewältigt,
um dabei moralisch und emotional an ihnen zu reifen, sondern sich ihnen durch
Selbsttötung ergibt, war Anlass zum Skandal – zumal der Roman sich großer Be-
liebtheit, v. a. unter jungen Lesern erfreute. Zusammen mit der Kirche spielten die
bürgerlichen Kritiker den Roman als Anlass einer vermeintlichen ‚Selbstmordwelle‘
unter Jugendlichen auf. Hierfür gab es kaum Belege, es handelte sich vielmehr um
eine Behauptung, mit der vor der empathischen Identifikation mit Romanhel-
den gewarnt wurde. Somit kristallisierte sich an der Debatte um die sogenannte
‚Werther-Hysterie‘ auch die grundsätzliche Kritik am empathischen Lesen heraus,

95
96 2 Medien des Schreibens und Lesens

Abb. 11 „Empfindsame“ Leserinnen von J. W. v. Goethes „Die Leiden des jungen


Werther“ (1774)
2.3 Medien des Schreibens und Lesens in Druckkulturen 97

bei dem zentrale Aspekte moderner Medienkritik formuliert wurden, die bis heute
immer wieder mit der Durchsetzung neuer Unterhaltungsmedien auftauchen: die
Warnung vor Suchtgefahr, vor Realitätsflucht in fiktive Parallelwelten, vor unmo-
ralischer und asozialer Wirkung und vor geistiger Schwächung, verbunden mit
Persönlichkeitsverlusten.
Den skizzierten vier Lektüremodi ist gemein, dass sie gleichwohl Ausdruck
einer grundsätzlich veränderten körperlichen Praxis des Lesens waren: an die Stelle
der gemeinsamen Lektüre in geselliger Runde, bei dem Einzelne laut vorlasen,
und danach das Gelesene gemeinschaftlich interpretiert und bewertet wurde, trat
schrittweise die individualisierte, stille Lektüre. Im Laufe des 18. Jh. setzte sich
somit die Körperpraxis des leisen Lesens durch. In wohlhabenden bürgerlichen
Haushalten wurden zunehmend separate Orte eingerichtet, Lesezimmer und
Ecken, an die man sich für die Lektüre zurückzog (Schön 1987). Damit wurde das
stille, vereinzelte und individualisierte Lesen zum Normalfall. Die seit der Antike
so wichtige körperliche Aktivität von Stimme und Gebärde beim lauten Lesen, die
die Schrift verlebendigte, trat kulturell nun endgültig in den Hintergrund. Dies
entsprach der allgemeinen Individualisierung in der bürgerlichen Gesellschaft.
Mit den Worten Schmidts:

„Durch Zurückdrängen des Körpers als Medium der Texterfahrung entzieht sich
der Leser der Suggestivität des Textes. Im leisen Lesen bleibt der Leser ‚er selbst‘“
(Schmidt 1987, S. 346).

Im Hinblick auf die skizzierten unterschiedlichen Lektüremodi und Bedürfnisse


entwickelten sich verschiedene Körperhaltungen und räumliche Anordnungen des
Lesens. Im Kern zielten diese, je nach Lektüremodus, darauf ab, die beim Lesen frei
gesetzten Affekte und Gefühle entweder zu disziplinieren, oder sich ihnen ganz
hinzugeben. Beim nützlichen, zivilen und hermeneutischen Lesen schlugen sich
rationale Reflexion und Distanz zum Gelesenen in einer aufrechtstehenden Hal-
tung am Lesepult nieder. Diese wurde als Ausdruck der mentalen und physischen
Kontrolle über das Buch aufgefasst (Schön 1987) – so wie es in der Antike das laute
Vortragen im Stehen gewesen war. Bei dem an empathischer und hedonistischer
Lektüre interessierten Publikum dagegen setzte sich im Laufe des 18. Jh. immer
mehr das Lesen im Sitzen und Liegen durch. Es entstanden besondere Lesemöbel,
wie wir sie z. T. bis heute kennen: der Lehnsessel, der Liegestuhl mit Fußbank oder
die Chaise Longue, bei denen die Leser ihren Körper bequem platzieren konnten
und das Lesen zu einer entspannenden Freizeitbetätigung wurde, bei der man sich
ganz den eigenen Gefühlen und dem immersiven Eintauchen in fiktive Welten
hingeben konnte (vgl. ebd.).

97
98 2 Medien des Schreibens und Lesens

Trotz aller Vorbehalte gelehrter Kritiker forcierte – neben Möbelherstellern


und Architekten – der Buchmarkt die Tendenz zur empathischen Lektüre und ihre
damit verbundenen Körperpraktiken. Dies geschah nicht nur durch die gesteigerte
Produktion und Verbreitung, sondern auch durch die weitere drucktechnische
Optimierung der Bücher. Entscheidend dabei war, dass im Verlauf des 18. Jh. die
Bücher kleiner und leichter wurden (ebd.). Dies wirkte sich nachhaltig auf die
Praktiken des Lesens aus. Denn während zuvor der gesamte Körper involviert
war, findet seitdem der Kontakt mit dem Text vorwiegend über die Augen statt.
Wie es der Historiker Erich Schön formuliert, zielt seitdem die gesamte Gestaltung
und Produktion des Buches endgültig auf seine optische Erfassung: „Schriftgröße,
Schrifttyp und Zeilenabstand bestimmen den Augenabstand und den Grad der
Notwendigkeit, den Blick auf die Schrift zu fixieren“ (1987, S. 71). Auch die Ver-
kleinerung des Buchformates fügte sich in die Tendenz, Bücher alleine und still
zu lesen: sie konnten nun, sitzend oder liegend, in der Hand oder auf dem Schoß
gehalten werden und benötigen keine gesonderten Pulte und Unterlagen mehr. Da
Bücher nun potentiell an unterschiedlichen Orten gelesen werden konnten, wurde
das Lesen also räumlich flexibel. Mit der Verringerung von Gewicht und Größe der
Bücher trat zugleich ihre Materialität in den Hintergrund der Leseerfahrung – auch
wenn die Materialität des Papiers das taktile Erleben beim Lesen prägte. Indem sie
die Bücher den Körpern der Lesenden anpasste, unterstützte die Verkleinerung der
Formate den empathischen und immersiven Lektüremodus.
Die Praxis des stillen Lesens, die besonders der empathischen Rezeption als
einer modernen immersiven Medienerfahrung Vorschub leistete, kann in einem
grundlegenden Sinne aber auch als eine Ent-Sinnlichung aufgefasst werden, als ein
„Verlust der Sinnlichkeit“, wie Schön (1987) argumentiert. Denn wenn die körper-
liche Aktivität beim Lesen auf die Augen beschränkt, während der übrige Körper
‚ruhig gestellt‘ wird, immobilisiert auf speziellen Lesemöbeln, lässt sich dies auch
als Ausdruck einer generellen Vernunftorientierung verstehen: das Gelesene wird
nicht mehr mit dem ganzen Körper nachvollzogen und damit auch von außen
kontrollierbar, sondern rein mental und innerlich. Wie Schön betont, fügte sich
dies in das bürgerliche Programm der ‚Naturbeherrschung am Menschen‘ ein.
Diese auf den Philosophen Immanuel Kant zurückgehende Vorstellung zeugt vom
Rationalismus der Aufklärung und dem Ideal der Beherrschung von Emotionen
und körperlichen Empfindungen durch die Vernunft. Die beim Lesen freiwerden-
den Gefühle sollten dementsprechend nicht nach außen dringen, sondern vom
Lesenden selbst innerlich beherrscht werden. Aber auch mit Deutungsfragen muss
der Einzelne nun alleine zurechtkommen. Hierin wurde er von neuen Instanzen
literarischer Gelehrsamkeit, wie dem Literaturkritiker oder in der schulischen
Bildung unterwiesen (Schön 1987, Schmidt 1987).
2.3 Medien des Schreibens und Lesens in Druckkulturen 99

Die Tendenz zur körperlichen Beherrschung und Verinnerlichung von Affekten


und Gefühlen lässt sich zu dieser Zeit auch im Theater beobachten, wo sich das
stille Zuschauen durchsetzte und die körperliche Aktivität des Publikums auf das
Klatschen an einzelnen, meist ritualisiert vorgegebenen Stellen des Theaterablaufs
(v. a. am Ende der Aufführung) begrenzt wurde. Das körperlich-mimetische Mit-
erleben, das früher in lauten Ausrufen, dem Mitsprechen von Dialogen, oder dem
Aufspringen im Publikum zum Ausdruck kam, war nun sozial geächtet. Visuell
und akustisch wird die Aufmerksamkeit im Theaterraum seitdem komplett auf
das Bühnengeschehen gelenkt. Der Zuschauerraum wird verdunkelt und man er-
wartet vom gebildeten Betrachter, dass er bis zum Schluss ruhig und diszipliniert
der Aufführung folgt und seine innere Teilnahme nicht nach außen dringen lässt.
Wie beim Lesen fand also auch in den audiovisuellen Kulturpraktiken (s. Kap.
4) des Theaters im 18. Jh. eine Verinnerlichung der Rezeption statt. Der Einzelne
war fortan gefordert, in seiner Vorstellung das Dargestellte innerlich zu begreifen,
affektiv zu bewältigen und kognitiv zu bewerten – ohne äußere Abstimmungen,
die die expressiven Reaktionen bis dahin evoziert hatten.

▶▶ Resümierend lässt sich festhalten, dass im 18. Jh. ein entscheidender qualitati-
ver Wandel von Medien und Kulturtechniken des Lesens stattfand, der bereits
Ausdruck eines neuzeitlichen, modernen Mediengebrauchs war: einerseits die
massenmediale Verbreitung von Schriften, andererseits ihre individualisierte
Rezeption. Die stille, auf die Augen fixierte Rezeption forderte den einzelnen
Leser in der kognitiven und emotionalen Bewältigung fiktionalen Geschehens
neuartig heraus, leistete aber auch immersiven Praktiken Vorschub, die ebenso
für spätere Massenmedien wie Film, Fernsehen oder Videospiele prägend wurden.

Der qualitative Wandel von Medien und Kulturtechniken des Schreibens und
Lesens wurde im Laufe des 19. Jh. durch die industriell bedingte Ausweitung der
Produktion, Verbreitung und Rezeption von Printmedien in neuem quantitativen
Maßstab fortgeführt und ausgeweitet. In diesem Jahrhundert der Industrialisierung
und der Konsolidierung kapitalistischer Marktprinzipien wurden Buch und Presse
endgültig zu Produkten, von denen ein Großteil für ein Massenpublikum geplant,
hergestellt und vertrieben wurde. Dabei mussten sie zunehmend mit anderen Un-
terhaltungs- und Informationsmedien konkurrieren: erst dem Film (Kap. 4) und
gegen Ende des Jahrhunderts mit dem Radio (Kap. 1).
Eine wesentliche Voraussetzung für die Massenproduktion von Presse und Bü-
chern war eine ganze Reihe an technischen Innovationen in der Papierherstellung
und der Drucktechnologie, die hier nur kurz gelistet seien (vgl. Schön 1987, S. 51
ff.): Um 1790 wurde mit der Lithografie das Flachdruckverfahren erfunden, dass

99
100 2 Medien des Schreibens und Lesens

auch den Abdruck farbiger Blätter ermöglichte – womit die Adressierung des Auges
beim Lesen zusätzlich ausgeweitet wurde. Daneben erfand man in dieser Zeit die
Schüttelmaschine, die erstmals eine rein mechanische Papierherstellung erlaubte.
1812 kam die Schnellpresse auf den Markt, die das ununterbrochene Drucken
erlaubte. Um 1860 fand man dann ein Verfahren zur Herstellung von Zellulose
als neuem Rohstoff zur Papierherstellung. Hatte man hierfür bisher Stofflumpen
verwendet, erlaubten die reißfesten Fasern der Zellulose eine schnellere und v. a.
billigere Produktion. Mit der dampfbetriebenen Gießmaschine (1870) wurde der
Druck automatisiert, und durch die 1872 entwickelte Setzmaschine konnte die
Stückzahl der Drucke pro Stunde von vormals 2.000 auf 7.000 angehoben werden.
Auch das Setzen der Zeilen wurde vereinfacht und automatisiert, als sich um 1884
die integrierte Zeilensetz- und Gießmaschine durchsetzte. Schließlich konnte man mit
der Drahtheftmaschine (1884) und der Falzmaschine (1890) auch die Massenheftung
und Falzung in großen Mengen voll automatisieren. Bereits diese kurze Auflistung
zeigt, dass die massenhafte Herstellung, Reproduktion und Verbreitung von Print-
medien aller Art sich im Laufe des 19. Jh. zu einem komplexen maschinellen System
herausgebildet hatte, das mit einer enormen Professionalisierung von technischen
Wissen und industriellen Prozessen einherging. Die immer voraussetzungsreiche-
ren Bedingungen der Printproduktion stehen dabei im umgekehrt proportionalen
Verhältnis zur Anpassung der Druckerzeugnisse an die Sinne der Leser. Bücher
und andere Printmedien entwickelten sich zu Präsenzmedien, deren körpernahe
Rezeption die technischen, ökonomischen und organisatorischen Bedingungen
der Herstellung vergessen machte.
Während sich die im 18. Jh. entwickelten Praktiken des Lesens also im 19. Jh.
weiterverbreiten und etablieren konnten, erfasste die Mechanisierung damals
noch einen anderen Bereich, der zuvor noch weitgehend unverändert geblieben
war: Praktiken des individuellen Schreibens. Wie zuvor geschildert, fand der
letzte entscheidende Umbruch um 1500 mit der Erfindung der Druckpresse statt.
Seitdem hatte sich eine serialisierte und zunehmend mechanisierte Form des
Schreibens entwickelt, bei der Schriften von einzelnen Instanzen (z. B. Kirche, Staat,
Verlagswesen) für bestimmte Käuferschichten geplant, hergestellt und öffentlich
vertrieben wurden. Das individuelle Schreiben blieb davon selbstredend unberührt.
Auch wenn erwiesener Maßen bis ins 18. Jh. hinein breite Teile der Bevölkerung
nur rudimentär schreiben konnten – offenbar wurde in der Schule lange nur das
Lesen, weniger das Schreiben gelehrt (Schön 1987) –, war dies eine Kulturtechnik,
die bis ins 19. Jh., wenn auch nur von einzelnen, ausschließlich manuell betrieben
wurde. Dies änderte sich mit der Erfindung der Schreibmaschine im 19. Jh., die in
der Geschichte der manuellen Schreibmedien (bis dato etwa: Meißel, Ton-Griffel,
Gänsekiel, Feder, Kreide, Bleistift und Füller) eine wesentliche Erneuerung darstell-
2.3 Medien des Schreibens und Lesens in Druckkulturen 101

te. Mit der Schreibmaschine entstand ein Apparat, der es Individuen ermöglichte,
private oder berufliche Texte in mechanischer Weise zu erstellen.
Die Auffassung von der Handschrift als körperlicher Spur eines ‚beseelten‘
Geistes, der sich beim Abschreiben, Kopieren und Formulieren in der Art der
Handführung des Schreibgerätes verbürgt, hatte die Kulturtechniken und Praktiken
des manuellen Schreibens wesentlich geprägt (s. o.). Mit dem Individualismus und
der Innerlichkeit des 18. Jh. wurde die Handschrift in bürgerlichen Kreisen auch als
Ausdruck von Persönlichkeit aufgefasst, verbunden mit dem habituellen Aspekt,
dass damals das Schreiben noch immer ein Privileg des gebildeten Bürgertums war
(vgl. Kittler 1986). Die Idee von der Handschrift als Ausdruck von Persönlichkeit
wurde in der Folge auch keinesfalls verabschiedet, sondern hat sich in Grenzen
bis heute erhalten. So waren es auch vorwiegend Bereiche im modernen Verwal-
tungswesen und der von Industrialisierung und Kapitalismus geprägten Arbeits-
strukturen, in denen seit dem 19. Jh. die Schreibmaschine zur effizienten, bewusst
ent-individualisierten Anfertigung von Schriftdokumenten und Korrespondenzen
zum Einsatz kam. Es entstanden neue Berufsfelder wie Stenotypisten (vgl. Kittler
1986), deren zentrale Aufgabe das Anfertigen von diktierten Schriftstücken war.
Im Unterschied zu den Kopisten der Klöster war ihre persönliche Durchdringung
und Interpretation der Schrift nicht mehr erwünscht, sie wäre gar hinderlich gewe-
sen. Die Verbindung von Sekretär und Schreibmaschine als Schreibmedien eines
modernen Verwaltungswesens (ebd.) fand um 1900 und im frühen 20. Jh. dann
auch seinen Ausdruck in einer neuen Büroarchitektur, in der die Angestellten in
kleinen Zellen mit ihren Schreibmaschinen eine direkte räumliche Verbindung
eingingen (vgl. auch Kracauer 1930/2006).
Der Einsatz der Schreibmaschine war im 19. Jh. weitgehend auf moderne Ar-
beitsbereiche begrenzt, während sich gleichzeitig das manuelle Schreiben als Kultur­
technik in der breiten Bevölkerung damals überhaupt erst umfassend durchsetzte.
Dennoch kann das individuell-mechanische Schreiben per Schreibmaschine als
Ausdruck einer allgemeinen Mechanisierung und apparativen Mediatisierung von
(beruflicher) Alltagskultur betrachtet werden, welche spätere Formen der digitalen
Kommunikation vorbereitete: Dies betrifft zum einen die enge Verkopplung von
Mensch und Maschine, bei der der Einzelne nicht nur kognitiv Zeichenwissen,
sondern auch praktisch Kulturtechniken beherrschen muss, um kommunikative
Prozesse erfolgreich in Gang zu setzen. Auf der Bedienungsebene der Tastatur
(später: Hardware-Interface) geht damit eine weitere Entkoppelung der Zeichen-
übertragung vom Körper des Schreibenden einher. Wie Jochen Hörisch treffend
feststellt: „Die Geschichte der Übertragungsmedien teilt sich in die Epoche, da
Körper beziehungsweise Materie und Botschaften beziehungsweise Informationen
noch aneinander gekoppelt waren, und […] die Epoche der körperlosen Übertragung

101
102 2 Medien des Schreibens und Lesens

von Information durch Drähte oder Funksignale“ (2001, S. 190). Die Übertragung
von vormals gesprochenen Worten in Schriftzeichen, dann in maschinell erzeugte
Texte durch die Druckerpresse und die Schreibmaschine bereiten in diesem Sinne
die körperlose Übertragung erst elektrischer (Tele-Medien) und dann digitaler
Signale (Computer) vor, zu deren Bedienung es kaum noch körperlicher Betätigung
bedarf bzw. deren körperliche Bedienung nicht mehr unmittelbar, sondern über
abstrakt programmierte Kodes funktioniert.

2.4 Medien des Schreibens und Lesens in Digitalkulturen


2.4 Medien des Schreibens und Lesens in Digitalkulturen
Der letzte Abschnitt hat bereits deutlich gemacht, dass in der Geschichte der Medien
und Kulturtechniken des Schreibens und Lesens nach der Entwicklung des Alphabe-
tes, des Papiers, der Drucktechnologie und der Schreibmaschine die Durchsetzung
des Computers eine weitere Stufe der Technisierung von Schrift darstellt. Auch
wenn der Computer nicht alle vorherigen Zeichen-, Träger- und apparativen Medien
ablöste, sondern diese eher in sich vereint, so stellt er dennoch eine Weiterführung
in der Technisierung und abstrakten Übertragung sprachlicher Zeichenprozesse
beim Lesen und Schreiben dar, die das Verhältnis zwischen Mensch und Medium
grundsätzlich veränderte. Dies betrifft nicht nur das Lesen und Schreiben, sondern
auch das Speichern, Betrachten und Verarbeiten von statischen und bewegten Bil-
dern (Filme, Videos), von Klängen (u. a. Musik und Stimme) sowie generell neue
Formen der Kommunikation. Insofern ließe sich die Geschichte des Computers
auch an anderer Stelle dieser Mediengeschichte einführen. Wenn dies hier geschieht,
hat das v. a. zwei Gründe: zum einen seine genealogische Nähe zu den apparativen
Schreibtechniken (Druckpresse und Schreibmaschine), zum anderen die Tatsache,
dass das Prinzip der Speicherung und Verarbeitung größerer Datenmengen, die der
Computer in historisch neuartiger Weise ermöglichte, sowohl numerische als auch
sprachliche Informationen und Daten betrifft. Im Hinblick auf die Rezeption und
die Praktiken der Computernutzung stellen außerdem das Lesen und Schreiben
nicht nur die ältesten, sondern bis heute immer noch basalen Kulturtechniken
computerbasierter Kommunikation dar – auch wenn dies inzwischen unter hyper-
textuellen, multimodalen und multisensoriellen Vorzeichen geschieht, welche die
Darstellung und Verwendung sprachlicher Zeichen begleiten. Aus diesen Gründen
wird im Folgenden eine historische Genealogie der Computertechnologie skizziert,
sowie wesentliche Grundzüge der Medialität des Computers, um die Ausprägungen
digitaler Medien auch im weiteren Verlauf dieser Mediengeschichte entsprechend
zu rahmen. Hierbei wird ein besonderer Akzent auf der fast durchgängigen, pro-
2.4 Medien des Schreibens und Lesens in Digitalkulturen 103

grammatischen Orientierung der Computerentwicklung am menschlichen Hirn und


Sensorium liegen. In diesem und weiteren Kapiteln wird dann an gegebener Stelle
dargelegt, wie der Computer körperbasierte Praktiken des Lesens und Schreibens,
des Sehens (Kap. 3) und der Audiovision (Kap. 4) verändert hat.

2.4.1 Zur Geschichte und Medialität des Computers

Die Geschichte des Computers, die hier nur grob skizziert werden kann, belegt
erneut das oben erwähnte Diktum McLuhans, dass in jedem neuen Medium vor-
hergehende Medien ‚enthalten‘ sind. Dabei ist es nicht nur ein älteres Medium, das
der Computer im Verlaufe seiner bisherigen Entwicklung integriert hat, sondern
gleich mehrere – gar alle vorherigen Kommunikationsmedien: die Stimme und die
Sprache, die Schrift und ihre technischen Medien des Papiers, der Drucktechnik
und der Schreibmaschine; ebenso gilt dies für die hier noch unerwähnt gebliebe-
nen Rechenmaschinen, die mit der Geschichte der Schrift als Medium verbunden
sind sowie – als eine der wichtigsten Wurzeln der Computertechnologie – die mit
Lochkarten betriebenen Musikautomaten (s. Kap. 1). Allein die Integration dieser
älteren Medien hätte schon ausgereicht, den Computer zu einem neuen „Univer-
salmedium“ (Tholen 1998) zu machen, dessen langfristige und medienkulturelle
Prägekraft mit jener der Druckpresse zu vergleichen ist. Ebenfalls mit McLuhan
lässt sich getrost sagen, dass der Computer die Maßstäbe unserer Welterfassung
und die Art und Weise, wie wir miteinander kommunizieren, in vieler Hinsicht
wesentlich verändert hat. Dies betrifft besonders die sinnesbasierten Ausdrucks-
formen und Medientechniken des Sprechens (sekundäre Oralität der Netz- und
Mobilkommunikation, s. Kap. 1), des Schreibens, Lesens, Sehens und Hörens, sowie
der Audiovision an interaktiven Computerbildschirmen. Dabei hat der Computer
die Ausbildung neuer Hypermedien (Robben 2006) ermöglicht, die unsere gegen-
wärtigen Medienkulturen prägen, und die Bedeutung distinkter Einzelmedien (z. B.
Buch, Printmedien, Fotografie, Film, Fernsehen) zurückdrängt.
Wie es sich bereits bei den vorherigen Bereichen der Mediengeschichte gezeigt
hat, ist auch die Geschichte des Computers gekennzeichnet durch das Aufgreifen
unterschiedlicher vorhandener Medientechniken zu einem neuartigen Medium,
das deren Funktionen und Nutzungsweisen zwar verändert, aber auch langfristig
fortführt. Von den erwähnten Medien sind es vor allem zwei, die zentrale Vorausset-
zungen für die Ausbildung des Computers geboten haben: die Musikautomaten und
die Webautomaten des 18. und 19. Jh. sowie die Rechenmaschinen, deren Anfänge
bis in die Antike zurückreichen. Bemerkenswerter Weise sind es dabei besonders
die Musikautomaten (Kap. 1) und die ihnen zugrundeliegende Lochkartentechnik,

103
104 2 Medien des Schreibens und Lesens

die wegweisend waren für die Ausbildung des Computers als neuem Medium: das
automatische, programmbasierte Speichern und Verarbeiten von Daten.
Bei den Musikautomaten ermöglichten zuerst Stiftwalzen, später Lochkarten,
Musikstücke in identisch wiederholbarer Form automatisch abspielen zu lassen,
also ohne weiteres Zutun durch eine menschliche Hand. Dies gelang, indem die
Lochkarten durch die physische Prägung in Pappkarten in den Klanginstrumen-
ten immer dort einen Klangeffekt auslösten, wo die Löcher gestanzt waren. Als
erster erkannte Charles Babbage, dass dieses Prinzip für die Speicherung und das
automatisierte Abrufen auch anderer Daten, etwa Zahlen geeignet war. Als frühe
binäre Formel (gestanzt/nicht-gestanzt) wurden die Daten auf dem Blatt gemäß
einer zuvor definierten Matrix semantisch kodiert: indem jeder Punkt auf der Karte
vorher mit einer spezifischen Bedeutung (z. B. einer Zahl) definiert war, wurde es
mit dem Einstanzen von Löchern in der Matrix möglich, diese in automatisierter
Form auch wieder abzurufen. Als Babbage 1833 auf dem Papier diese Idee einer
„Analytical Engine“ entwarf, die als eine Ur-Form des Computers betrachtet wer-
den kann, verband er das Prinzip der Lochkarten – als Frühformen der späteren
digitalen Mikrochips – mit dem Prinzip der Rechenmaschine. (siehe Abbildung 12)

Abb. 12
Analytical Engine:
Computer von Charles
Babbage (um 1833)
2.4 Medien des Schreibens und Lesens in Digitalkulturen 105

Rechenmaschinen gab es bereits seit der Antike und funktionierten nach einem
grundsätzlich anderen Prinzip als der Computer: sie erlauben die Addition und
Subtraktion größerer Zahlenmengen auf mechanisierte – später auch elektrome-
chanische – Weise, wobei sie allerdings nicht vollautomatisiert funktionieren. Die
Eingaben werden vom Benutzer gemacht und der Ablauf des Rechenprozesses ist
von seiner mechanischen Bedienung (etwa Kurbeln oder Schieben von Elementen
am Apparat) abhängig. Dabei findet auch kein Übersetzungsprozess in einen
anderen Kode statt, vielmehr gibt der Benutzer Zahlenreihen ein, die als solche
repräsentiert und prozessiert werden. Erst als Babbage das von Musik- aber auch
von Webautomaten entliehene Lochkartenprinzip mit dem Prinzip der Rechen-
maschinen vereinte, wurde es erstmals denkbar, dass eine Maschine selbsttätig
und einem internen Programmkode folgend, in den die Zahlen übertragen werden
müssen, Berechnungen vornimmt, ohne dass die Benutzer die Maschine manuell
oder mechanisch antreiben. In Babbages Vision wäre diese Apparatur per Dampf-
maschine angetrieben worden. Damit war die Idee des „automatischen Computings“
in der Welt – die Idee von einer Maschine also, die das Speichern, Verarbeiten und
Abrufen großer Datenmengen nach einem internen Programmkode automatisiert
prozessiert.
Babbages Idee blieb trotz ihrer Weiterentwicklungen durch seine Nachfolger bis
Anfang des 20. Jh. eine weitgehend unerfüllte Vision. Erst mit der Durchsetzung
elektro-mechanischer Maschinenbauweisen und der Entwicklung interaktiver
Mensch-Maschine-Schnittstellen (Interfaces) nahm der Computer als neue Me-
dientechnologie seit den 1940er-Jahren reelle Gestalt an. Vor allem die Koordi-
nation zwischen der Dateneingabe durch den Nutzer und ihrer gelenkten, aber
automatisierten Verarbeitung und Ausgabe durch die Maschine stellte für mehrere
Jahrzehnte und bis heute unter immer wieder unter neuen Vorzeichen anhaltende
Herausforderung an die Computertechnologie dar (vgl. Hellige 2008). Mit anderen
Worten: es brauchte interaktive Interfaces, die dem Nutzer variable Eingabemög-
lichkeiten bieten, auf die das System intelligent und programmgesteuert reagiert.
Die ersten Lösungen für derartige Interfaces fanden die Pioniere der Compu-
tertechnologie erneut in der Verbindung bisheriger Medientechniken: in diesem
Fall der Lochkartentechnik als Speicher- und Programmiermedium mit den Be-
dientastaturen und Eingabeapparaturen von Rechen- und von Schreibmaschinen.
So wurden bereits zwischen 1908 und 1915 tastenbasierte Fernschreiber als erste
Bedienelemente entwickelt, die eine programmbasierte Eingabe und Ausgabe von
Zahlendaten ermöglichten. Aber es dauert noch bis 1936, bis der Bauingenieur
Konrad Zuse den ersten programmgesteuerten Rechenautomaten entwickelte, der
das neue Prinzip des automatischen ‚Computierens‘ und die dafür notwendigen
Bestandteile an Hard- und Software beinhaltete. Zuses Rechenautomat besaß ein

105
106 2 Medien des Schreibens und Lesens

auf Lochkarten basierendes Speicher- und Programmwerk, ein Rechen-, sowie ein
Ein- und Ausgabewerk. Als das Modell in überarbeiteter Fassung dann erst 1943
mit elektromagnetischem Getriebe tatsächlich realisiert wurde, hatte es zudem
das Prinzip der binären Kodierung von Ein- und Ausgabedaten weiterentwickelt.
Mithilfe der Elektronik war es nun möglich, die in den Lochkarten physisch ge-
speicherten Kodes (gestanzt/nicht-gestanzt) in elektronische Signale zu übertragen.
Als solche konnten sie nicht nur gespeichert, sondern auch in programmierten
Aktionen vollautomatisiert verarbeitet werden. Zuse, aber auch der zur selben Zeit
wirkende Ingenieur Alan Turing, erkannte dabei einen entscheidenden Vorteil
elektronischer Datenverarbeitung: die Vernetzung elektrischer Signale zu kom-
plexen Informationen.
Entscheidend für das Konzept der vernetzten elektronischen Datenverarbeitung
war für Zuse wie für Turing die Orientierung am menschlichen Hirn (vgl. Hellige
2008). Da jeder externe Reiz auf neurologischer Basis in den Verarbeitungszentren
unseres Zentralen Nervensystems in ein physisches Signal übertragen wird, das mit
anderen Hirnzentren vernetzt ist und komplexe Handlungsfolgen auslösen kann
(z. B. ein visueller Angstreiz einen motorischen Fluchtreflex), wurde auch der Com-
puter als ein ‚technisches Hirn‘ aufgefasst: ein System, das komplexe Datenmengen
nicht nur speichert oder nach nur einem einzigen Prinzip verwertet, sondern dessen
Datenspeicher auch miteinander vernetzt und nach unterschiedlichen Kriterien
intelligent verarbeitet. Turing verglich die Eingabe- und Ausgabetechniken treffend
mit Körperorganen, deren Sinnesdaten im ‚Hirn‘ des Computers verarbeitet werden
– von wo aus sie aber auch koordiniert werden. Wie es Hellige erklärt:

„Die verschiedenen Bedienprozesse reduzierten sich für ihn [Turing, KF] auf die
bloße Zu- und Abfuhr von Daten- und Programmträgern bzw. die Abwicklung der
Aufgabenpakete, und er setzte sie mit dem Gehirn dienenden neuronalen Sensorik-
und Motorikapparat gleich“ (2008, S. 12).

Während Zuses Maschine mit seiner Konzentration auf Zahlendaten noch eher
als Rechen-Computer fungierte, ging die von Turing entwickelte Universal Di-
screte Machine bereits darüber hinaus: als eine programmgesteuerte Maschine,
die potentiell Daten unterschiedlicher Speicher in vernetzter Weise ablegen und
verarbeiten konnte und deren Eingabe- und Ausgabestellen interaktiv über ein
Programm verschaltet waren.
Vor allem ab den 1940er-Jahren wurde das Grundprinzip der automatisierten
und vernetzten Datenspeicherung und -verarbeitung weiterentwickelt und der
Turing’sche Universalcomputer zu einem neuen Medium v. a. in der Wissenschaft
und im Militär. Bis zu seiner Verbreitung in der Gesellschaft dauerte es allerdings
noch bis weit in die 1980er-Jahre. Ein entscheidendes Problem hierfür war die lan-
2.4 Medien des Schreibens und Lesens in Digitalkulturen 107

ge Zeit hoch spezialisierte Bedientechnologie. Dabei begann man bereits seit den
1940er-Jahren physisch und kognitiv einfach bedienbare Interface-Technologien zu
entwickeln – anfangs v. a. um Computer für den militärischen Gebrauch zu opti-
mieren, etwa bei der Luftwaffe. Da es sich bei Piloten um keine Computerexperten
handelte, war ein primäres Ziel der frühen Interface-Forschung, Bedienapparaturen
zu entwickeln, die sich ergonomisch der menschlichen Hand anpassten und deren
Software über einen vereinfachten Zeichenkode funktionierte, der eine intuitive
Kommunikation mit dem Computer ermöglichte (Hellige 2008).
Zuerst aus militärischen, später auch aus ökonomischen Interessen heraus,
wurde von Beginn an intensiv in die Entwicklung von Mensch-Computer-Schnitt-
stellen investiert, die auch Laien in die Lage versetzen sollten, einfach und quasi
‚natürlich‘ mit dem Computer zu kommunizieren. Hierfür orientierte man sich
an den menschlichen Sinnen und an primären Medien unserer Kommunikation:
der Stimme, der Sprache, der Geste, dem Tastsinn und dem Auge. Nachdem Zuses
und Turings Orientierung am menschlichen Hirn bereits wichtige Impulse für die
Erfindung der vernetzten und automatisierten Datenverarbeitung lieferte, rückten
nun der menschliche Körper und sinnesbasierte Informationsverarbeitung vollends
ins Zentrum der Entwicklung intuitiv bedienbarer Mensch-Computer-Schnitt-
stellen (Hellige 2008). Die daraus folgenden Konzepte intuitiver Interfaces griffen
vertraute kommunikative Kulturtechniken auf: das Sprechen, das gestische Zeigen,
das Schreiben, die Kommunikation über Bildzeichen und das Greifen.
Für die apparativen Interface-Techniken (auch: Hardware-Interfaces) wurden
schon in den 1940er-Jahren der Joystick und der Light-Pen entworfen (ebd., S. 34)
– zwei Apparaturen, die sich von den bis dato vertrauten Tastaturen der Schreib-
maschine und der automatisierten Rechenmaschinen wesentlich unterschieden.
Denn sie passten sich ergonomisch der menschlichen Hand an, wobei der Light-
Pen an die Urform des Griffels als Schreibinstrument anschloss. Der pragmatische
Vorteil bestand für die Nutzer darin, dass keine Zeichen- oder Sprachsymbole mehr
an einer Tastatur mental und praktisch verarbeitet und angewendet, sondern die
Befehle per Drucksignal und Bewegung der Hand ausgeführt werden konnten.
Seitdem bildet der Tast- und Bewegungssinn eine körperbasierte Kommunikations-
grundlage zwischen Mensch und Computer, der die taktilen und sensomotorischen
Handsignale des Nutzers über den binären Kode 1/0 digital in bedeutungshaltige
Informationen überträgt.
Schon seit den 1950er-Jahren verfolgte man außerdem die Idee eines sprachba-
sierten Dialoges mit dem Computer: die Idee, dass es auch ganz ohne die Bedienung
zwischengeschalteter Apparaturen möglich sein sollte, mit dem Computer ‚direkt‘
zu kommunizieren (ebd., S. 30; 56 ff). Dafür bedarf es einer Software zur Erkennung
und digitalen Übertragung gesprochener Sprache sowie eines Programms, das die

107
108 2 Medien des Schreibens und Lesens

komplexe und meist mehrdeutige Bedeutung gesprochener Sätze in die digitale


Sprache des Computers übersetzt. Es dauerte jedoch bis weit in die 2000er-Jahre,
bis die Umsetzung dieser Idee auch nur annähernd gelang (s. Kap. 1). Zwar war
es bereits vorher möglich, gesprochene Sätze nach der Funktionsweise eines Dik-
tiergerätes digital umzuwandeln und zu speichern, eine semantische Auswertung
und interaktiv-intelligente Reaktion bzw. Übertragung in eine automatisierte
Handlung war jedoch lange Zeit nicht möglich. Zu groß war die Kluft zwischen
dem digitalen Kode, den darin programmierbaren Bedeutungs- und Handlungs-
einheiten und den vieldeutigen semantischen Strukturen kulturell tradierter
Sprachen, deren Bedeutungen immer auch kontextabhängig sind. Dies war auch
der Grund, weshalb ein ähnlicher Versuch von Interface-Technik lange Zeit nicht
funktionierte, der zwischen geschaltete Apparaturen überflüssig machen sollte: die
Mensch-Maschine-Interaktion über Schrifterkennung (ebd., S. 30f.). Die Idee war
hierbei, dass man bereits geschriebene Sätze oder sogar ganze Texte eingibt, und
das Computerprogramm diese in Befehle überträgt. Obwohl geschriebene Sprache
weitgehender standardisiert ist als gesprochene Sprache (s. o.), erwies auch sie sich
lange als zu vieldeutig für die Übertragung an den Computer.
Eine spätere Weiterentwicklung körperbasierter Interfaces war in den 1990er-Jah-
ren die Entwicklung von Natural User Interfaces (ebd., S. 55), die über Gesten
funktionieren – einem anderen Primärmedium menschlicher Kommunikation
(Kap. 1). Was v. a. für die Ausbildung von Virtual-Reality-Konzepten wichtig wurde,
erwies sich lange als eine große Herausforderung, da auch menschliche Gesten sehr
vieldeutig sein können. Der Computer, der auf distinkte Signale angewiesen ist,
benötigte daher ergänzende Eingabeformen, etwa über Tastaturen, die gestische
Signale präzise deutbar machten – womit sie allerdings den technischen Aufwand
nicht lohnten. Damit blieb die Vorstellung, interaktive Apparaturen zwischen Mensch
und Computer durch direkte Körpermedien wie Stimme und Geste hinfällig zu
machen, lange unerfüllt, wurde aber konstant weiterverfolgt.
Die bis heute erfolgreichste Lösung für intuitive Interfaces besteht in der Verwen-
dung visueller Zeichen und Bilder. Der entscheidende Durchbruch zur Durchsetzung
grafischer Interface-Systeme fand in den 1960er-Jahren statt (ebd., S. 43 ff.). Die
Entwicklung von 2-D- und 3-D-Grafiksoftwares erlaubte es nicht nur, anschauliche
grafische Nutzeroberflächen zu generieren, sondern diese auch interaktiv zu pro-
grammieren. Dies ermöglichte es, über Symbole, Icons, Menus, Fenster und andere
grafische Elemente eine visuelle Computersprache zu entwickeln, die an vertrauten
Kodes und Zeichen der Alltagswelt anknüpfte und auch über sprachliche Grenzen
hinweg schnell und intuitiv erfassbar war. Indem sie auch leicht vom Computer
digital übersetzt bzw. repräsentiert werden konnten, war und sind bis heute die
visuellen Zeichensysteme v. a. für den Durchschnittsnutzer eine entscheidende
2.4 Medien des Schreibens und Lesens in Digitalkulturen 109

Voraussetzung für eine komplexere und interaktiv-intelligente Kommunikation


mit dem Computer, die über einfache Befehls- und Zeigesignale hinausgeht. Wie
es Hans Dieter Hellige treffend beschreibt, erlauben die grafischen Schaltflächen

„[…] Hardware-unabhängige symbolische Interaktionsmöglichkeiten, die den Com-


puter als dynamisch-interaktives Medium auszeichnen.“ (2008, S. 48)

In der Kombination interaktiver Hard- und Software konnten seit den 1960er-Jah-
ren verschiedenartige Datenkorpora (Zahlen, Worte, Texte, Bilder usw.) intelligent
verarbeitet werden. Mit der Durchsetzung grafischer Benutzeroberflächen wurde
daher das Potential des Computers als Multi-Medium erstmals in seiner historischen
Dimension absehbar – wenn auch zunächst nur für einen begrenzten Nutzerkreis,
da nach wie vor die Kosten für die Produktion und den Kauf von Computern
weit über massentauglichen Marktpreisen lagen. Zudem war die Entwicklung
bedienfreundlicher Systeme erst im Laufe der 1980er-Jahre in einer Weise ausge-
reift, die eine massenhafte Verbreitung erlaubte. Dabei hatten sich innerhalb der
1960er-Jahre alle wichtigen Hard- und Softwareelemente entwickelt, wie wir sie
in ihrer Grundstruktur noch heute kennen (ebd., S. 42): die Maus als ergonomisch
optimierte Weiterentwicklung des Light-Pen, die in Kombination mit der Tastatur
bzw. dem Keyboard eine punktgenaue Adressierung der interaktiven grafischen
Nutzeroberfläche auf dem Bildschirm erlaubt und die seitdem als zentrales Hard-
ware-Interface dient. Aber auch frühe immersive Techniken von Virtual Reality
haben ihre Wurzeln in diesem Jahrzehnt: mit 3-D-Grafiksoftware konnten erstmals
dreidimensional animierte Räume digital kreiert werden, die interaktiv angelegt
waren und über Datenhandschuhe oder Datenhelme auf Körperbewegungen der
Nutzer reagierten. Auch hierbei handelt es sich um eine zunächst von Militär und
Weltraumforschung zu Trainingszwecken entwickelte Technologie. Mit der Ganz-
körperbewegung hatte man das Spektrum körperlicher Sinne noch weitergehend
in die Mensch-Computer-Interaktion integriert – eine Erweiterung, die heute vor
allem im Bereich der Videospielkultur eine wichtige Rolle spielt und 2013 mit der
Oculus-Rift-Brille (Head-Mounted Display) auf ein neues Niveau gehoben wurde
(Kap. 4).
Im Laufe 1980er-Jahre gelang der kommerzielle Durchbruch des Personal
Computers (PC). Wegweisend war der erste Personal Computer von Apple, der die
Potentiale grafischer Benutzeroberflächen erstmals für ein breites Massenpublikum
nutzbar machte. Während noch bis Ende der 1980er-Jahre PCs aus Kostengründen
für den Alltagsgebrauch vor allem textbasiert über die Tastatur bedient wurden,
setzten sich durch Apple grafische Interfaces durch. Der Bildschirm wurde dabei
bildmetaphorisch als ‚Schreibtisch‘ (Desktop) oder ‚Fenster‘ (Windows) gestaltet.

109
110 2 Medien des Schreibens und Lesens

Er konnte über visuelle Icons (z. B. Dateiordner für Ablageort oder später Briefum-
schlag für E-Mail-Programm) einfach bedient werden. Mit anderen Worten: die
zugrundeliegende digitale Programmsprache wurde zusehends ‚unsichtbar‘ und
verschwand auf der Nutzeroberfläche hinter eingängigen visuellen Symbolen. Damit
wurde sie für jeden Verbraucher ohne IT-Expertenwissen intuitiv handhabbar.
In Kombination mit dem Internet (Kap. 1) entstanden seit den 1990er-Jahren
neue Visionen von Mensch-Computer-Schnittstellen, die diese immer ‚unsichtba-
rer‘ machten – flankiert von der geschilderten Suche nach Natural User Interfaces.
Hellige macht in dieser Hinsicht zwei wesentliche Tendenzen in der Geschichte der
Interface-Techniken aus: einerseits die Anthropomorphisierung des Computers und
andererseits seine Verdinglichung durch Einbettung in die Alltagswelt (2008, S. 64
ff.). In beiden Tendenzen spiegelt sich die seit Erfindung der Computertechnologie
existierende Vision einer gewissermaßen mit Körper und Geist der Nutzer verschmel-
zenden Schnittstelle. Auf Basis von Mikrochips wurden portable Minicomputer
entwickelt, die in Form von Kleidungsstücken direkt am Körper getragen werden
(z. B. Handschuhe, Gürtel, Uhren) oder Prothesen wie Brillen (Shutterbrillen) und
Hörgeräte. Der physisch-mentale Bedienaufwand sollte durch die Anpassung an
den Körper auf ein Minimum reduziert werden. Waren derartige Interfaces bis in
die 1990er-Jahre vorwiegend auf VR-Umgebungen reduziert, erhalten sie seitdem
einen neuen Aufschwung, in der Einbettung von Computertechnologien in die
Alltagsdinge und -umgebungen des Nutzers. Dabei wird die Alltagsumgebung
selbst als Interface genutzt. Unter dem Schlagwort Augmented Reality (erweiterte
Wirklichkeit, vgl. Kap. 1) entwickelten sich in den 1990er-Jahren bereits erste Ideen,
reale Objekte der Alltagswelt mit wissensbasierten und grafisch repräsentierten
Informationen zu überlagern: Kleidung mit digitalem Gewebe oder intelligente
Küchengeräte, die unterschiedliche Nutzerdaten (etwa Terminkalender, Tages-
ablaufzeiten etc.) vernetzt auswerten. Wie es der Computer-Philosoph Nicholas
Negroponte bereits Anfang der 1990er-Jahre anschaulich prophezeite: „Computers
will go underground. My refrigerator will know when it is out of milk, but take
appropriate action only after a conversation with my calendar or travel planning
agent“ (1991, zit. n. Helliger 2008, S. 70). Diese unsichtbaren und intelligenten
Interfaces erhalten durch die Internet-basierte Vernetzung lokaler Nutzerdaten
mit global abrufbaren Informationen eine ganz neue Dimension. Vor allem das
Smartphone hat die Möglichkeiten einer Augmented Reality wesentlich erweitert
(Kap. 1). Als omnipräsentes Alltagsobjekt kann es Nutzerdaten aller Art aufneh-
men: Körperdaten, Daten zu zeitlichen und lokalen Aufenthalten, zu Interessen,
Bedürfnissen, Kommunikationsdaten usw. Der Nutzer kann diese Daten mit ex-
ternen Datennetzwerken wie Google, Facebook oder Tinder verbinden und dem
Smartphone ermöglichen, pro-aktiv dem Nutzer Informationen aus den globalen
2.4 Medien des Schreibens und Lesens in Digitalkulturen 111

Netzwerken zur Verfügung zu stellen bzw. ihn zu bestimmten Entscheidungen und


Handlungen (z. B. Konsum) aufzufordern.
Neben der Orientierung am Sprechen und Schreiben, der Geste und der Kom-
munikation über Bildzeichen, war die Orientierung am Tastsinn und dem Greifen
als primärer, gar archetypischer Form menschlicher Kommunikation ein bis heute
erfolgreicher Entwicklungsschritt intuitiver Interfaces. Nachdem der Touchscreen
in den 1960er-Jahren erstmals für die Luftfahrt entwickelt worden war, und sich
später auf digitalen Geräten des öffentlichen Raums durchsetzte (z. B. Bank- und
Fahrkartenautomaten), war es bezeichnenderweise das Smartphone, das ihm zum
breitenwirksamen Durchbruch verhalf (Kaerlein 2013). Mit der Markteinführung
des iPhone im Jahr 2010 initiierte Apple ein neues Paradigma der multisensoriellen
Tele-Kommunikation. Das Mobiltelefon wurde nicht nur zu einem omnipräsenten
Multitask-Instrument (Kap. 1), es bot auch eine sensorielle Erweiterung der Kon-
taktaufnahme mit anderen über gesprochene und geschriebene Sprache, Bilder und
Klänge um den primären Nahsinn der haptischen Kontaktaufnahme. Das mit der
Tastfunktion ausgestattete Display des iPhones wendet die archetypische Form
animalischer Welterkundung und körperlicher Signalkommunikation durch An-
greifen, Anfassen, taktiles Erfühlen auf den Umgang mit dem Computer an – dem
bisher abstraktesten und voraussetzungsreichsten technischen Kommunikations-
medium der Geschichte. Die Symbole und Icons auf dem grafischen Interface, die
bereits der intuitiv-gestalthaften Vermittlung komplexer Handlungsoperationen
dienten, lassen sich nun durch direktes Anfassen aktivieren, benötigen also nicht
mal mehr die Übertragung auf eine vermittelnde Handlung wie der Bewegung des
Mauscursors auf dem Bildschirm. Timo Kaerlein sieht hier zu Recht eine sensuelle
Kompensation:

„Der Touchscreen stellt möglicherweise einen Kompensationsversuch für diese


Einbuße an erfahrungsmäßiger Unmittelbarkeit dar, indem er sie auf verschiedenen
alternativen Ebenen wiedereinführt. Organisiert wird diese Restitution von der
zentralen Unmittelbarkeit des Hautkontakts.“ (2013, S. 12)

Mit Blick auf die etymologische Herkunft des Begriffs der Digitalität ist dabei er-
wähnenswert, dass der Touchscreen das genealogische Grundprinzip des Digitalen
für die Nutzer nun konkret technisch und phänomenal sinnfällig werden lässt:
das lateinische Wort digitus hieß zunächst ‚Finger‘ und das Wort digitalis meinte
‚zum Finger gehörig‘ bzw. ‚das den Finger Betreffende‘. Im Mittelalter wurde di-
gitus mit dem Zählen und Rechnen verbunden und meinte die mit den Händen
zählbaren Zahlen 1–10 (vgl. Heilmann 2010). Hier findet sich das Grundprinzip
digitaler Datenverarbeitung: abstrakte Einheiten (wie Zahlen) werden über den
Tastsinn repräsentiert und verarbeitet. Nachdem die digitale Datenverarbeitung
111
112 2 Medien des Schreibens und Lesens

um ein Vielfaches algorithmisch erweitert und automatisiert in der Black Box des
Computers für den Nutzer unsichtbar geworden ist, suggeriert der Touchscreen
eine Rückkehr des digitalen Ur-Prinzips: das Er-Fassen und Verarbeiten von Um-
weltinformationen mit den bloßen Fingern.
Die Medialität des Computers weist in ihrer Beziehung zum menschlichen
Körper ein grundsätzliches Paradox auf. Mehr als jedes Medium zuvor vermag der
Computer unterschiedliche Körpersinne in kommunikative und interaktive Pro-
zesse einzubinden. In einzigartiger Weise adaptiert er wesentliche Prinzipien und
Eigenschaften des menschlichen Körpers und Geistes für die Entwicklung seiner
technischen Komponenten. Dies ist aber nur auf Grund höchster Abstraktion des
zugrundeliegenden Programmkodes möglich: der Übertragung von zuvor sinnes-
basierten Zeichen und Modi der Kommunikation in den binären Kode 1/0. Die
aus der gesprochenen Sprache abgeleiteten Schriftzeichen, die Bilder und visuellen
Zeichen, die Klänge (stimmlich, musikalisch usw.), aber auch Körperbewegungen
und sensorische Daten werden über die digitalen Interfaces in den abstrakten binären
Kode übertragen, und „übersetzen“ (Robben 2006) sie auf der Nutzeroberfläche
erneut in sprachliche, visuelle, auditive, oder auch multimodale Zeichen. Für den
Nutzer unsichtbar und sinnlich nicht greifbar, fungiert der binäre Kode 1/0 als
Übertragungskode, der spezifische Zeichensysteme und Daten aus der analogen
Welt in unspezifische digitale Daten umwandelt. Auch wenn die Repräsentation
dieser Daten auf dem Display als ‚schriftliche‘, ‚auditive‘, ‚visuelle‘ usw. Erschei-
nungen von den meisten Nutzern nicht bzw. inzwischen nicht mehr von jenen der
analogen Repräsentation unterschieden werden können, so handelt sich bei ihnen
doch um reine Simulationen: rechnerisch generierte Objekte, Räume und Zeichen,
deren materiale Existenz rein digital und damit weitgehend ent-körperlicht ist.
Während etwa die Schrift sich zuvor mittels Griffel oder Stift in der Handschrift,
auf dem Papier als Trägermedium, aber auch den analogen Typen der bleiernen
Lettern der Druckpresse physisch manifestierte, besteht sie nun in digitalen Pixeln
auf dem Bildschirm. Mit den Worten Hörischs: „Die digits 1/0 unterhalten zu dem,
was sie da registrieren, keinerlei analogen oder gar intimen Bezug. Ihnen ist es
bemerkenswert gleichgültig, ob sie Schall- oder Lichtwellen, Ziffern oder Lettern,
Töne oder Bilder, Konstruktionspläne oder E-Mails speichern, übertragen und
bearbeiten“ (2001, S. 383, Herv. i. O.).
Allerdings haben sich die Techniken der digitalen Repräsentation unterschied-
licher sinnesbasierter Modi in der Simulation von Materialität und Körperlichkeit
von Objekten, Räumen und Zeichen der analogen Welt immer weiter perfektioniert.
Im Film etwa haben die rechnerisch generierten Bilder (CGI) ein Maß an natura-
listischer Nähe zu den abgebildeten Gegenständen und ihren analogen Abbildern
erreicht, das ihren Simulationscharakter unsichtbar werden ließ (vgl. Kap. 4): di-
2.4 Medien des Schreibens und Lesens in Digitalkulturen 113

gital generierte Landschaften etwa lassen sich im Film von den Betrachtern kaum
noch von ihren fotografischen Abbildern oder auch realweltlich wahrgenommen
Eindrücken unterscheiden.
Der weitgehend ent-materialisierte digitale Kode ist die Voraussetzung dafür,
dass der Computer unterschiedliche Daten, Repräsentations- und Zeichensysteme
integrieren kann. Damit wird der Computer zugleich zum Übersetzer unterschied-
licher Einzelmedien, schließlich lassen sich mit dem digitalen Übersetzungskode
die Zeichen und Kodes der Musik, des Telefonierens, des Radios, der Fotografie,
des Films oder des Fernsehens simulieren und repräsentieren. Bernard Robben
definiert den Computer daher treffend als ein „Medium der Über-Setzung“:

„Den Computer als Medium der Über-Setzungen deute ich als ein Mittleres und
einen Mittler, wodurch ein leerer Platz markiert ist. […] Während der Kode, die
Übersetzung des Programms in die Maschinensprache, den menschlichen Sinnen
entzogen in der Maschine verschwindet, bedarf die Mensch-Computer-Interaktion
der wahrnehmbaren Darstellung. Dieses Verhältnis nenne ich Notation. Mit Notation
bezeichne ich die Form der Über-Setzung des Mediums Computer, eine prozessierende
Relation zwischen Kode und Darstellung“ (2006, S. 12/3).

Wie es zuvor schon anklang: Der Computer repräsentiert nicht nur Dinge und
Zeichen, er generiert bzw. simuliert sie dabei auch eigenständig neu. Eine Voraus-
setzung hierfür ist das automatische und vernetzte Prozessieren von Daten nach
Regeln und Prinzipien, die im Programm angelegt sind. Wie es in der historischen
Skizze bereits betont wurde, liegt hier der entscheidende Unterschied zu anderen
Apparaturen – etwa zur Verarbeitung von Schrift und Zahl durch die Druckpresse,
die Schreibmaschine und Rechenmaschinen. Das Prinzip des programmbasierten,
automatisierten Prozessierens von Daten ist dabei wesentliche Voraussetzung für
ein weiteres Kernmerkmal des Computers als Kommunikationsmedium: seine In-
teraktivität. Das Prinzip der automatisierten Datenverarbeitung ermöglicht es, dass
externe Daten nicht nur aufgenommen werden. Vielmehr findet Datenverarbeitung
vermittelt über Programme und Interfaces (s. o.) in fortlaufender Wechselwirkung
statt mit den Handlungen und Eingaben der Nutzer. Damit verbunden ist ein me-
diales Paradoxon: auf der einen Seite die intuitive Bedienbarkeit von Computern,
deren Technizität inzwischen fast ‚unsichtbar‘ und die zu zentralen Gegenständen
von Alltagsumgebungen geworden sind; auf der anderen Seite ihre immer kom-
plexeren Programmlogiken, die längst nur noch von ausgewiesenen Experten
und Programmierern verstanden werden können. Kritische Medienphilosophen
wie Vilém Flusser (2000) und Friedrich Kittler (1996) sahen daher schon früh die
Gefahr eines neuen Analphabetismus aufkommen: Wenn nämlich ein Großteil
der Gesellschaft die genuin algorithmische Sprache des Universalmediums und

113
114 2 Medien des Schreibens und Lesens

Alltagsgegenstandes Computer eben nicht versteht, sondern nunmehr sensuell über


intuitiv gestaltete Oberflächen bedienen kann. Für den Computer gilt daher, was
Flusser bereits für die Fotografie konstatiert hat: „Übrig bleiben dimensionslose
Punktelemente, die weder fassbar noch vorstellbar, noch begreifbar sind – unzu-
gänglich für Hände, Augen, Finger; aber sie sind kalkulierbar und können mittels
spezieller, mit Tasten versehener Apparate gerafft (komputiert) werden. Man kann
diese mit Fingerspitzen auf Apparat-Tasten drückende Gesten ‚Kalkulieren und
Komputieren‘ nennen“ (2000, S. 14).

2.4.2 Digitale Medien des Schreibens und Lesens

Im Laufe der Durchsetzung des PC als Standardinstrument privater und öffentlicher


Kommunikation sind eine Vielzahl unterschiedlicher neuer Textformen entstanden:
neben Büchern (e-books), Online-Zeitungen und -Magazinen (die noch in vieler
Hinsicht die Erscheinung ihrer analogen Vorläufer aufweisen), haben sich mit
Blog-Kommentaren, Webseiten und textuellen Formen der Tele-Kommunikation
wie E-Mails oder Chats in den Sozialen Online-Medien (wie Facebook oder Twitter)
neue Formen von Textualität entwickelt, die wesentlich durch die zuvor skizzierten
Merkmale des Computers charakterisiert sind: ihre Schriftzeichen sind digital
simuliert und die jeweilige Textgestaltung (Länge, Format etc.) wird über eine
interne Software generiert. Digitale Texte sind als technisch-materiale Einheiten
nicht mehr in erster Linie als Druckerzeugnisse vorhanden, sondern existieren vor
allem als Dateien (z. B. Textdateien von MS Word- oder PDF-Dateien), in Softwares
(z. B. in MS Word oder Adobe) und – in Verbindung mit externen Netzwerken
des Internet – eingebunden in Apps (z. B. einer Online-Zeitung), browserbasierte
Webservices (z. B. Online-Lexika), oder Online-Clouds (z. B. Serien-Reader, der
Nutzerdaten via App mit externem Server aktualisiert) (vgl. Oppmann 2014). Die
vormals in Druckform auf Papier und in unterschiedlichen Ausgabeformaten wie
dem Buchkodex oder der Faltzeitung materialisierten Texte werden im digitalen
Zeitalter zunehmend zu sekundären Ausgabeformaten, während sowohl das Schrei-
ben als auch das Lesen von Texten vorwiegend auf Grundlage digitaler Formate
wie der Textdatei oder eines Webservices geschieht.
Mit diesen digitalen Eingabe- und Darstellungsformaten geht einher, dass
Texte in einem bis dato ungekanntem Ausmaß hypertextuell mit anderen Texten,
Dateien, Programmen und Netzwerken verbunden werden können. Das hat zum
einen zur Folge, dass Texte nicht mehr nur schreib- und lesbar sind, sondern mit
weiteren Tätigkeiten verbunden sein können: etwa dem Einbinden und Betrachten
von Bildern, Videos oder Musik, sowie dem individuellen Verbinden und Kom-
2.4 Medien des Schreibens und Lesens in Digitalkulturen 115

mentieren von Textstellen im Rahmen von Sozialen Online-Medien (s. Kap. 1).
Durch derartige Bearbeitungen und (Re-)Kontextualisierungen sind digitale Texte
zu variablen und multi-funktionalen Medien geworden, deren Erscheinung und
Funktion sich in der Nutzung fortlaufend verändern kann. Zum anderen haben
die digitalen Eingabe- und Darstellungsformate zur Folge, dass derartig vernetzte
Texte nicht nur sprachlich erstellt und rezipiert werden.

▶▶ Digitale Texte sind heute nicht nur multimedial, indem sie unterschiedliche
mediale Repräsentationssysteme integrieren, wie das Buch, Zeitungen, Musik,
Film oder Fernsehen, sie sind auch multimodal, da sie unterschiedliche Zeichen-
systeme integrieren wie Schrift, gesprochene Sprache, Klang, Bild, Bewegtbild;
darüber hinaus sind digitale Texte multisensoriell, weil sie unterschiedliche
Sinne adressieren, wie Auge, Ohr, Bewegungssinn und Tastsinn.

Damit spiegelt sich auch in den digitalen Texten wider, was bereits als ein mediales
Paradoxon des Computers geschildert worden war: die Tatsache, dass die Eingabe,
die Darstellung und die Wahrnehmung wesentlich mehr Sinne anspricht, als dies im
Druckzeitalter der Fall war, während sie gleichzeitig in ihrer digitalen Materialität
so abstrakt und damit ent-körperlicht sind, wie nie zuvor.
Mit dem Computer wurde die mit dem Aufkommen des Alphabetes und der
Schrift kontinuierlich fortschreitende Technisierung der menschlichen Sprache
und die damit einhergehend wachsende Distanzierung zwischen schreibendem
Subjekt und Schrift zu einem vorläufig maximalen Endpunkt getrieben: Schrift löst
sich im Moment der Eingabe, für den Nutzer unsichtbar und ungreifbar, in binäre
Kodes und algorithmische Berechnungen in der ‚Black Box‘ des Computers auf.
Paradox dazu verhält sich die zunehmende ‚Versinnlichung‘ der Interfaces sowie
der Anwendungs- und Darstellungsmodi digitaler Texte. Wie es für die Entwick-
lung der Computer- und Interfacetechnologie skizziert wurde, gilt auch für die
Unternehmen und Forscher, die an der Verbreitung von Text- und Readersoftwares,
von digitalen Lesegeräten (wie e-book-Reader oder Tablet-Computer), und an der
Präsentation und Vermittlung von digitalen Texten (Verlage, Online-Unterneh-
men usw.) beteiligt sind, dass sie kontinuierlich in die Entwicklung von digitalen
Infrastrukturen investiert haben, um die Soft- und Hardware des Schreibens und
Lesens für die Nutzer immer intuitiver und sinnlich ‚greifbarer‘ zu machen (vgl.
Oppmann 2014). Die komplexer werdenden Programme und apparativen Com-
putersysteme werden auch hier über multisensoriell gestaltete Interfaces auf eine
gestalthaft-sinnbasierte Weise navigierbar.
Für die Praktiken des digitalen Schreibens und Lesens ist insbesondere die
Interaktivität von Computern prägend: das Speichern an verschiedenen Orten, das

115
116 2 Medien des Schreibens und Lesens

schriftliche, grafische usw. Bearbeiten, Kommentieren und Kopieren von Textstellen,


der automatisierten Suchlauf durch Dokumente und Speicherorte, oder eben auch
die oben genannten Modi der Verbindung mit externen Netzwerken über Internet.
Intelligente Softwaresysteme bieten daneben fortlaufende Sprachkorrekturen und
Textformatierungen an, sowie das automatisierte Einbinden unterschiedlicher Ma-
terialien (z. B. Bild- oder Sounddateien), die Übersetzung von Textteilen in andere
Sprachen oder gar das inhaltliche Zusammenfassen von Textabschnitten. Auch
wenn die beiden zuletzt genannten Funktionen erst rudimentär ausgebildet sind,
so zeigen sie doch, dass an einer Weiterentwicklung des Computers als Mit-Autor
gearbeitet wird – als einem sprachlich und inhaltlich ‚denkendem‘ System und
‚Partner‘ von schreibenden und lesenden Nutzern.
Auch die taktile Disposition des Touchscreens auf Tablets oder Smartphones
wirkt sich entscheidend auf die Praktiken des Lesens und Schreibens aus. Der
Touchscreen hat die Distanz zwischen dem schreibenden bzw. lesenden Subjekt
und der Schrift durch die taktile Greifbarkeit der Schriftsymbole auf dem Display
wieder reduziert. Vor allem mit Blick auf die Medientechniken sekundärer Oralität
(Ong 1987), wie sie zuvor für die Internet- und Mobilkommunikation beschrieben
wurden (Kap. 1), kann davon ausgegangen werden, dass der Touchscreen über diese
physische Annäherung von Subjekt und Schrift dem ‚mündlichen Schreiben‘ gerade
in der Online-Tele-Kommunikation weiter Vorschub leistet. Aber auch das Lesen
von abgeschlossenen Texten, wie digitale Bücher oder journalistische Artikel, ver-
ändert sich durch ihre taktile Greifbarkeit: Textflächen und Schriftzeichen werden
mit dem Finger subjektiv veränderbar und modulierbar, können vergrößert oder
verschoben werden und dabei dem individuellen Blick ebenso angepasst werden,
wie den jeweiligen Lesebedürfnissen und Aufmerksamkeitsverläufen. Damit gleicht
der Touchscreen schließlich auch einen wichtigen sinnlichen Verlust digitaler
Texte zumindest teilweise aus: den Verlust des taktilen Fühlens und Blätterns von
Papierseiten, die je nach Druckerzeugnis von unterschiedlicher Materialität und
Volumen sind und das sinnliche Erleben von klassischen Druckmedien mitprägen.
Resümierend lässt sich zum Abschluss dieses Kapitels festhalten, dass in digitalen
Kulturen die mit dem Alphabet begonnene Distanzierung eines artikulierenden,
schreibenden Subjektes von seinen Aussagen (Kap. 1) an einen vorläufigen End-
punkt geraten ist. Mit dem Aufkommen der Lautschrift fand die erste signifikante
Übertragung gesprochener Sprache in einen symbolischen Kode statt. Die damit
verbundene optische Speicherung von Sprache in die grafischen Zeichen des Alpha-
bets war Grundlage ihrer weiteren Technisierung. Betraf dies bis zum 15. Jh. vor
allem die Schreibinstrumente (Keil, Griffel, Federhalter, Stift) und Trägermedien
(Stein, Papyrus, Papier), fand mit der Etablierung der Druckkultur ein nächster
Paradigmenwechsel statt: die Schrift selbst wurde in einen technischen Kode
Wiederholungsfragen 117

übertragen, der ihre mechanische und später industrielle Herstellung und Repro-
duktion automatisiert bewerkstelligen sollte. Erstmals stand also ein mechanischer
Apparat zwischen dem Schreibendem und seiner Schrift, aber auch zwischen Leser
und Schreiber. Die Schrift wurde dabei schrittweise dem technischen System ange-
passt, durch bewegliche Lettern und Standardisierungen der Druckverfahren. Der
Computer steht einerseits in der Kontinuität dieser Entwicklung, führt sie aber in
neuartigen Maßstäben weiter: die symbolischen Zeichen der Schrift sind nunmehr
Repräsentationen auf den Bedienungsoberflächen der Computer. Bei Eingabe auf
der Tastatur werden sie in den binären Kode und die Algorithmen des Computers
übertragen, unsichtbar und unverständlich für die gemeinen Nutzer. Diese Über-
tragung des vertrauten Schriftsystems in ein anderes, abstraktes Zeichensystem ist
die Voraussetzung für interaktive Formen des Schreibens und Lesens in digitalen
Kulturen, die die faktische Distanz zwischen Mensch und Computer relativiert
oder gar ganz vergessen macht.

▶▶ Die Geschichte der Medien und Kulturtechniken des Schreibens und Lesens ist
also untrennbar mit der Geschichte der Technisierung der Schrift verbunden.
Als ein kontinuierliches Moment lässt sich dabei die fortdauernde Tendenz
beobachten, die Trennung der artikulierenden Subjekte von ihren Aussagen,
aber auch des Lesenden vom Schreibenden und seinen Worten aufzuheben: sei
dies in den Praktiken der Rhetorik (s. Kap. 1) oder der Manuskriptkulturen, die
durch lautes Vortragen und Vorlesen die Stimme und den Körper als Medium
der Re-Naturalisierung des Geschriebenen einsetzen; sei es durch die kognitive
und affektive Aneignung und Bewältigung des Gelesenen im stillen Lesen der
Druckkulturen, oder durch die Reintegration körperlicher und dialogischer
Kommunikationsformen in den Interfaces der Digitalkulturen.

Wiederholungsfragen
Wiederholungsfragen
1. Welche Medien haben einer Technisierung von Schrift in der Geschichte Vor-
schub geleistet?
[Lautschrift, technisch hergestellte Trägermedien (v. a. Papyrus, Papier, Bildschirm),
Buchdruck, Computer]
2. Welche Praktiken des Schreibens und Lesens gab es in den Manuskriptkulturen
des Mittelalters?
[lautes Lesen in Klosterschulen, manuelles Kopieren von theologischen Schriften,
stilles Lesen und Schreiben zur effizienteren Vervielfältigung von Schriften]

117
118 2 Medien des Schreibens und Lesens

3. Wie veränderten sich die Praktiken des Schreibens und Lesens im Druckzeitalter?
[Durchsetzung des stillen Lesens, Wandel vom intensiven zum extensiven Lesen,
Differenzierung unterschiedlicher Lektüremodi (emphatisch, nützlich, zivil,
hermeneutisch)]
4. Welche Folgen hatte die Digitalisierung für das Schreiben und Lesen?
[Lesen und Schreiben werden multimodal und multisensoriell; interaktive Ge-
staltung und Rezeption von Texten; Texte werden beim Lesen auch taktil erfahr-
bar- und bearbeitbar]

Literaturempfehlungen

Eric A. Havelock 2007. Als die Muse schreiben lernte. Eine Medientheorie. Berlin:
Wagenbach Verlag. Havelock reflektiert auf einschlägige Weise Wandlungsprozesse
zwischen Oralität und Literarität seit der Antike.

Derrick de Kerckhove. 1995. Schriftgeburten. Vom Alphabet zum Computer.


München: Fink. In diesem Standardwerk betrachtet de Kerckhove die Auswirkungen
in den verschiedenen Schritten der Technisierung von Schrift für Wahrnehmung
und Denken.

Walter Ong. 1987. Oralität und Literalität. Die Technologisierung des Wortes.
Opladen: Westdeutscher Verlag. Dieses Buch ist ein Grundlagenbuch zur Medi-
engeschichte der Schrift, in der Ong seine einflussreiche These von „primärer“ und
„sekundärer Oralität“ entfaltet.

Erich Schön. 1987. Der Verlust der Sinnlichkeit oder Die Verwandlung des Le-
sers. Mentalitätswandel um 1800. Stuttgart: Klett-Cotta. Schön bietet eine auf
reichhaltigem sozialhistorischem und buchhistorischem Quellenmaterial fundierte
Untersuchung von Praktiken des Lesens in der Druckkultur des 18. Jahrhunderts.

Horst Wenzel. 2007. Mediengeschichte vor und nach Gutenberg. Darmstadt:


WGB. Wenzel untersucht auf Grundlage umfangreichen historischer und ideen-
geschichtlicher Zeugnisse Praktiken des Schreibens und Lebens im Wechsel von
Manuskript- zu Druckkulturen.
Literatur 119

Literatur
Literatur
Blanck, Horst. 1992. Das Buch in der Antike. München: Beck.
Bösch, Frank. 2011. Mediengeschichte: Vom asiatischen Buchdruck zum Fernsehen. Frankfurt
a. M. (u. a.): Campus Verlag.
Bußmann, Hadumond. 1990. Lexikon der Sprachwissenschaft. Stuttgart: Kröner.
Flusser, Vilém. 2000. Ins Universum der technischen Bilder. Göttingen: European Photography.
Foucault, Michel. 1974. Die Ordnung des Diskurses. München: Hanser.
Giesecke, Michael. 2002. Von den Mythen der Buchkultur zu den Visionen der Informationsge-
sellschaft. Trendforschungen zur kulturellen Medienökonomie. Frankfurt a. M.: Suhrkamp.
Havelock, Eric A. 1982/2002. Gesprochener Laut und geschriebenes Zeichen. In Kursbuch
Medienkultur. Die maßgeblichen Theorien von Brecht bis Baudrillard, hrsg. v. Claus
Pias, Joseph Vogl, Lorenz Engeil, Oliver Fahle u. Britta Neitzel. 81–95. Stuttgart: DVA.
Havelock, Eric A. 2007. Als die Muse schreiben lernte. Eine Medientheorie. Berlin: Wagen-
bach Verlag.
Heilmann, Till A. 2010. Digitalität als Taktilität. McLuhan, der Computer und die Taste. In
Zeitschrift für Medienwissenschaft 3,2: 25–134.
Hellige, Hans Dieter. 2008. Krisen- und Innovationsphasen in der Mensch-Maschine-In-
teraktion. In Mensch-Computer-Interface. Zur Geschichte und Zukunft der Computer-
bedienung, hrsg. v. Hans Dieter Hellige. 11–94. Bielefeld: transcript.
Hörisch, Jochen. 2001. Der Sinn und die Sinne. Eine Geschichte der Medien. Frankfurt a. M.:
Suhrkamp.
Johnson, Mark. 1987. The Body in the Mind. The Bodily Basis of Meaning, Imagination, and
Reason. Chicago (u .a.): Univ. of Chicago Press.
Kaerlein, Timo 2013. Aporien des Touchscreens. Faszination und Diskrepanzen eines allge-
genwärtigen Interfaces. In Medienwissenschaft. Rezensionen. Reviews 1: 7–25.
Kerckhove, Derrick de. 1995. Schriftgeburten. Vom Alphabet zum Computer. München: Fink.
Kittler, Friedrich. 1986. Grammophon, Film, Typewriter. Berlin: Brinkmann & Bose.
Kittler, Friedrich (1996). Computeranalphabetismus. In Literatur im Informationszeitalter,
hrsg. v. Friedrich Kittler u. Dirk Matejovsi. 237–251. Frankfurt a. M. (u. a.): Campus Verlag.
Kracauer, Siegfried (1930/2006). Die Angestellten. In Werke, hrsg. v. Inka Mülder-Bach u.
Ingrid Belke, Bd. 1. 211–310. Frankfurt a. M.: Suhrkamp.
Lakoff, George. 1980. Metaphors we live by. Chicago (u. a.): Univ. of Chicago Press.
Leroi-Gourhan, André. 1980. Hand und Wort. Die Evolution von Technik, Sprache und
Kunst. Frankfurt a. M.: Suhrkamp.
McLuhan, Marshall. 1962/1992. Die Magischen Kanäle. Understanding Media. Düsseldorf
u. a.: Econ Verlag.
McLuhan, Marshall. 1968. Die Gutenberg-Galaxis. Das Ende des Buchzeitalters. Düsseldorf/
Wien: Econ Verlag.
Merten, Klaus (1994). Evolution der Kommunikation. In Die Wirklichkeit der Medien,
hrsg. v. Klaus Merten, Siegfried Johannes Schmidt u. Siegfried Weischenberg. 141–163.
Opladen: Westdeutscher Verlag.
Ong, Walter. 1987. Oralität und Literalität. Die Technologisierung des Wortes. Opladen:
Westdeutscher Verlag.
Oppmann, Volker. 2014. E-Reader, Smartphones & Tablets – Von der Vielfalt und ihrer
Bedrohung. In Bücherdämmerung. Über die Zukunft der Buchkultur, hrsg. v. Detlev
Bluhm. 104–122. Darmstadt: WBG.
119
120 2 Medien des Schreibens und Lesens

Raible, Wolfgang. 2006. Medien-Kulturgeschichte. Mediatisierung als Grundlage unserer


kulturellen Entwicklung. Heidelberg: Winter.
Robben, Bernard. 2006. Der Computer als Medium. Eine transdisziplinäre Theorie. Bielefeld:
Transcript Verlag.
Schmidt, Siegfried J. 1987. Die Selbstorganisation des Sozialsystems Literatur im 18. Jahr-
hundert. Frankfurt a. M.: Suhrkamp.
Schön, Erich. 1987. Der Verlust der Sinnlichkeit oder Die Verwandlung des Lesers. Mentali-
tätswandel um 1800. Stuttgart: Klett-Cotta.
Smith, Adam. 1746/2012. An Inquiry into the Nature and Causes of the Wealth of Nations.
Ware Hertfordshire: Wordsworth.
Tholen, Christoph. 1998. Die Zäsur der Medien. In Intervalle 2. Medientheorie und die digi-
talen Medien, hrsg. v. Winfried Nöth, Karin Wenz. 61–88. Kassel: Univ. Press.
Wenzel, Horst. 2007. Mediengeschichte vor und nach Gutenberg. Darmstadt: WGB.
Wittmann, Reinhard. 1999. Geschichte des deutschen Buchhandels im Überblick. München: Beck.

Abbildungsnachweise

Abb. 9: Mittelalterliches Manuskript: Nibelungenlied (zwischen 1220 und 1250)


Manuskript: Nibelungenlied (Codex Donaueschingen 63), im Besitz der Landesbank Ba-
den-Württemberg und der Bundesrepublik Deutschland.
Quelle: Wikipedia.org (Zugriff am 10.02.2018)
© CC BY-SA

Abb. 10: Druckpresse von Gutenberg (Holzdruck um 1536)


Ausschnitt aus der Titelseite des Buches De Studio Literarum, von Jodocus Badius, 1536.
Nachgedruckt in Albrecht F. Butsch, Die Bücher-Ornamentik der Renaissance (Vol. 2),
München: Hirth: 1881.
Quelle: https://www.fromoldbooks.org/Butsch-RenaissanceOrnament-VolII/pages/008-de-
studio-literarum-1536-detail-press/ (Zugriff am 10.02.2018)
© CC BY-SA

Abb. 11: „Empfindsame“ Leserinnen von J. W. v. Goethes Die Leiden des jungen Werther
(1774)
Abgedruckt in: Erich Schön. 1987. Der Verlust der Sinnlichkeit oder Die Verwandlung des
Lesers. Mentalitätswandel um 1800. Stuttgart: Klett-Cotta. S. 8.

Abb. 12: Analytical Engine: Computer von Charles Babbage (um 1833)
Science Museum, London
Quelle: Wikimedia Commons (Zugriff am 10.02.2018)
© Fotograf: Bruno Barral (2009)
CC BY-SA
Medien des Zeigens und Sehens
3 Medien des Zeigens und Sehens 3

Übersicht

Lange vor der Erfindung der Lautsprache entstanden visuelle Zeichen und Bilder
als Speichermedien für Vorstellungen. Wie zuvor gezeigt (s. Kap. 2), bildeten
visuelle Zeichen gar die Grundlage für die Entstehung der Schrift als abstraktem
Ausdruckssystem. Mit dem Aufkommen einer bildhaften Zeichensprache fand
damit auch eine erste Aufhebung körperlich ganzheitlicher Kommunikation
statt. Schon mit den ersten Bildern und visuellen Zeichen lösten sich visuell
kommunizierte Inhalte materiell vom Körper und Geist des Zeigenden ab.
Wie wir im Folgenden sehen werden, haben sich historisch unterschiedliche
Medien ausgebildet, die im Kern diese Loslösung zu nivellieren trachten und
in der Gestaltung und Rezeption von Bildern diese als ‚Verlebendigung‘ eines
abwesenden Anderen modellieren: sei dies eine göttliche oder transzendentale
Präsenz, eine weltliche Macht, ein reelles Individuum oder ein fiktives Wesen, von
denen die Betrachter den Eindruck erhalten sollen, dass sie im Bild gegenwärtig
sind. Eng damit verbunden sind historisch dominante Funktionen von Bildern,
die im ersten Abschnitt dieses Kapitels kurz vorgestellt werden. Im Mittelpunkt
des Kapitels stehen indessen Bilder als kommunikative Basismedien, die in
unterschiedlichen medialen Konstellationen immer eine zeigende Instanz (z. B.
Bildgestalter) und einen Betrachter voraussetzen, die kommunikativ aufeinander
bezogen sind. Das Bild wird also anthropologisch im Zusammenhang mit dem
körperlich-gestischen Akt des visuellen Zeigens gesehen. Zudem wird das Bild
generell als ein Speichermedium betrachtet, das (ursprünglich körperbasierte)
visuelle Kommunikation überindividuell und zeitunabhängig ermöglicht.
Im historischen Blick auf dominante Kulturtechniken des Zeigens und Sehens
unterscheidet das Kapitel analoge und digitale Ausprägungen. Auch wenn beide
bis heute nebeneinander bestehen, können hiermit zwei wesentliche medien-
technische und -kulturelle Bedingungshintergründe benannt werden. Bei den
121
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019
K. Fahlenbrach, Medien, Geschichte und Wahrnehmung,
https://doi.org/10.1007/978-3-658-19760-5_4
122 3 Medien des Zeigens und Sehens

analogen Medien werden manuell gemalte, gezeichnete Bilder, mathematisch


hergeleitete (z. B. Zentralperspektive) und mechanisch produzierte (Camera
Obscura, Fotografie) Bilder im Mittelpunkt stehen. Da mit der Fotografie ein
gänzlich neues Paradigma technisch basierten Zeigens und Sehens entstanden
ist, das bis heute prägend ist, wird ihr ein eigener Abschnitt gewidmet. Wie sich
das Paradigma, verändert um die Möglichkeiten von Computer und Internet,
im digitalen Zeitalter fortsetzt, erläutert der anschließende Abschnitt zu den
digitalen Medien des Sehens und Zeigens.

3.1 Zur Medialität von Bildern als Medien des Zeigens


und Sehens
3.1 Zur Medialität von Bildern als Medien des Zeigens und Sehens
Das Auge ist eines der zentralen Sinne des Menschen, um Kontakt mit der Außenwelt
aufzunehmen und sich in der räumlichen und sozialen Umgebung zu orientieren.
Der Akt des Sehens beinhaltet daher nicht nur das physische Aufnehmen visueller
Reize. In enger Verschränkung mit dem Hirn werden diese mit Wissen, Erinne-
rungen, evolutionär verankerten Reaktionsmustern und mit Gefühlen verbunden.
Das Sehen ist damit wesentlich an der Koordination menschlicher Handlungen,
sowie an der Deutung und Bewertung von Welt beteiligt. Daneben sind Blicke ein
primäres körpereigenes Medium der Kommunikation. Über Blicke signalisieren
wir einem Gegenüber Interesse, Aufmerksamkeit, aber auch Affekte und Emotionen
wie Freude, Wut oder Ekel. Blicke sind damit nach innen wie nach außen gerichtet:
zur Aufnahme von äußeren Informationen und der Signalisierung innerer Zu-
stände. Damit liegen der Akt des Sehens und des Sich-Zeigens bzw. des Anzeigens
von Vorstellungen, Ideen und inneren Zuständen v. a. in zwischenmenschlicher
Kommunikation eng beieinander. Wie mehrfach betont, sind dabei Körpersprache
(Gestik, Mimik, Proxemik) und die Stimme ganzheitlich aufeinander bezogen.
Die Kulturgeschichte ist in entscheidendem Maße von der Welterfassung und
Kommunikation über die Augen geprägt. Seit der Frühgeschichte entwickeln Men-
schen visuelle Zeichen und Kodes, um ihre Umwelt zu verstehen, zu erklären, aber
auch, um sie und sich selbst in ihr zu gestalten und damit Einfluss auf die Deutung
anderer zu nehmen. Visuelle Kodes bezeichnen dabei die impliziten Regeln, nach
denen die visuellen Zeichen als ihre konkrete Manifestation gestaltet und gedeutet
werden (vgl. Eco 1994). Ein Beispiel: Bezogen auf Kleidung bedeutet dies, dass es
einen Kleidungskode gibt, den alle Mitglieder einer Gemeinschaft kennen. Dazu
gehörte etwa der Kode der abendländisch aristokratischen Kleiderordnung, wonach
3.1 Zur Medialität von Bildern als Medien des Zeigens und Sehens 123

Rot und Gold nur von Königen getragen werden durfte, die über dieses Privileg
ihre Macht symbolisierten. Das konkrete Kleidungsstück (z. B. der Königsmantel)
materialisiert diesen Kode in einer konkreten Ausführung, die als visuelle Zeichen
von der Umgebung aufgefasst und über den Kode in seiner Bedeutung ‚entschlüs-
selt‘ und verstanden werden. Neben der visuell-zeichenhaften Gestaltung des
menschlichen Körpers, haben Menschen seit der frühen Kulturgeschichte sich und
ihre Umgebung (z. B. in Architektur, Städtebau usw.) visuell-zeichenhaft gestaltet.
In diesem Sinne sind visuelle Zeichen in ihren unterschiedlichen materiellen
Manifestationen (wie Kleidung, Architektur oder Design) grundlegende mediale
Formen der Kommunikation.
In diesem Kapitel jedoch liegt der Fokus auf Medien und Kulturtechniken des
Sehens und Zeigens, die Bilder als gestaltete Grundeinheiten in den Mittelpunkt
stellen. Im Kern handelt es sich dabei immer um die Geste des Zeigens an Andere
und damit um einen kommunikativen Akt. Auch dem Bild kommt eine zentrale
Rolle in der Geschichte der des Sehens und Zeigens zu. Der Bildwissenschaftler Hans
Belting sieht gar eine anthropologisch verankerte Verbindung von Körper und Bild:

„Der Wechsel der Bilderfahrung drückt auch einen Wechsel der Körpererfahrung
aus, weshalb sich die Kulturgeschichte des Bildes in einer analogen Kulturgeschichte
des Körpers spiegelt. Dabei kommt dem Medium, über das unsere Körper mit Bildern
kommunizieren, eine Schlüsselstellung zu. Körper und Bild, die stets neu definiert
worden sind, weil sie immer da waren, sind demnach geborene Themen der Anth-
ropologie“ (2001, S. 23).

Auch wenn sich das Verständnis dessen, was ein Bild ist, im Laufe der Geschichte
stark verändert und differenziert hat, so gibt es doch im Unterschied zu dem zuvor
skizzierten weiten Phänomenbereich visueller Zeichen eine markante Gemeinsam-
keit: Bilder weisen immer eine gerahmte zwei- bzw. dreidimensionale Fläche auf,
auf der einzelne Bildelemente nach einem spezifischen Gestaltungskode kompo-
niert und aufeinander bezogen sind, und deren Bedeutung wesentlich durch den
gesetzten Rahmen hergestellt wird. „Bilder benötigen eine Begrenzung, einen
Rand (der auch unscharf und diffus sein kann). Begrenzung und Rand scheiden
das Bild vom Nicht-Bild, schaffen damit eine Bildfläche und definieren das Bild
als Bild. […] Bilder sind ‚gestaltete Oberflächen‘ (Fricke 2001, S. 142 f), sie sind
dreidimensional (weil sie einen materiellen Träger besitzen), werden aber in ihrer
Bildlichkeit nur zweidimensional genutzt“ (Hickethier 2003, S. 83). Als begrenzte
und gestaltete Oberflächen beinhalten freilich auch Bilder visuelle Zeichen, die
einem jeweiligen ästhetischen Bildkode folgen (z. B. religiöser Bildkode der christ-
lichen Ikonenmalerei oder künstlerischer Bildkode des autonomen Kunstwerks in
der Avantgarde). Ihre Bedeutung und ihre Wahrnehmung gehen aber weit über

123
124 3 Medien des Zeigens und Sehens

das Zeichenhafte hinaus, da die einzelnen Bildelemente und ihre Gesamtkompo-


sition meist vieldeutig sind. Da im weiteren Verlauf der folgenden Ausführungen
unterschiedliche Bildmedien und bildhafte Praktiken des Zeigens und Sehens in
ihren historischen Ausprägungen im Mittelpunkt stehen werden, seien vorab einige
wiederkehrende mediale Strukturmerkmale und Typen von Bildern genannt. Der
Kunsthistoriker William Mitchell (1987, S. 9 ff.) sieht im breiten Spektrum von
Bildern fünf grundlegende Bildtypen:

• grafische Bilder, wie Gemälde oder bildhaft gestaltete Objekte wie Statuen
• optische Bilder, die durch physikalische Effekte der Optik entstehen, wie
Spiegelbilder oder Projektionsbilder
• perzeptuelle Bilder, die durch visuelle Wahrnehmungseindrücke im Hirn
entstehen und die somit immer Teil der betrachteten Bilder sind
• mentale Bilder, die in der Vorstellung, der Erinnerung evoziert werden, wie
Traumbilder, Fantasiebilder, Erinnerungsbilder
• manifesten Bilder, die sich in einem spezifischen visuellen Medium ausdrücken,
das sowohl statisch (z. B. Gemälde oder Fotografie) als auch bewegt sein kann
(z. B. Film oder Fernsehbilder)

Neben einer phänomenalen Unterscheidung von Bildtypen nach ihren Erschei-


nungsformen und medialen Manifestationen, weisen Bilder generell unterschiedliche
semiotische bzw. zeichenhafte Qualitäten auf, wie dies zuvor bereits angedeutet
wurde. In der westlichen Kulturgeschichte und Philosophie gilt die mimetische
(nachahmende) Ähnlichkeit von Bildern gegenüber den dargestellten Wirklich-
keiten immer wieder als ihr herausragendes mediales Kennzeichen. Wie wir noch
sehen werden, ist dies historisch eng mit der Erzeugung einer bildhaften Präsenz
des Gezeigten verbunden (vgl. auch Wiesing 2008). Charles Sander Peirce, der Be-
gründer der modernen Semiotik (Lehre der Zeichen), spricht bei jenen Bildern, bei
denen die Ähnlichkeit zum dargestellten Gegenstand im Vordergrund steht, von
ikonischen Zeichen (z. B. bei einem realistischen Gemälde oder einer Fotografie).
Peirce (1991) unterscheidet daneben bildliche bzw. visuelle Symbole, deren Bedeu-
tung auf Konventionen beruht, und die nur mit einem entsprechenden kulturellen
Wissen verstanden werden können (z. B. Piktogramme). Daneben existieren auch
indexikalische Bilder und Bildzeichen, die in einem kausalen Verhältnis zu den
von ihnen dargestellten Objekten stehen, also Teil dessen sind, was sie abbilden
(z. B. Gipsmasken oder Rauchzeichen). Allerdings weisen Bilder i. d. R. nie nur eine
dieser semiotischen Eigenschaften auf, sondern verbinden sie häufig. So kann die
3.1 Zur Medialität von Bildern als Medien des Zeigens und Sehens 125

Fotografie eines weinenden Kindes hohe ikonische Abbildqualitäten aufweisen.


Daneben kann der abgebildete Gefühlsausdruck ein visueller Index für die inneren
Empfindungen des Kindes in dem abgebildeten Moment sein; schließlich können
kompositorische Merkmale wie eine starke Auf- oder Untersicht, Kameraeffekte
oder die Farbwahl auch symbolische Bedeutungen implizieren, deren Dekodierung
kulturelles Wissen voraussetzen (z. B. die Aufsicht als stereotyp symbolische Bild-
formel zur Darstellung von Opfern in der Pressefotografie).
Die Vieldeutigkeit, die mit der Gleichzeitigkeit unterschiedlicher semiotischer
Qualitäten in Bildern einhergehen kann, wird durch ein weiteres Merkmal ver-
stärkt, das in der Kultur- und Ideengeschichte der Bilder ebenfalls als eine ihrer
markanten Eigenschaften betrachtet wurde und wird: ihre affektive Qualität. So-
wohl Bildwissenschaft und Semiotik als auch die Psychologie haben die Gründe
erforscht, warum Menschen Bilder in hohem Maße affektiv erleben – einige seien
hier kurz genannt. Als einer der einflussreichsten Bildtheoretiker argumentiert
Roland Barthes (1985, 1990), dass die auf Konventionen beruhenden Bedeutungen
von Bildern im Unterschied zur Sprache eher schwach und daher mehr konnotativ
(auch: assoziativ, mit-bedeutend) als denotativ (auf konventionell vereinbarten
Bedeutungen beruhend) angelegt sei. Damit geht zum einen einher, dass die Be-
deutung von Bildern wesentlich von der Rahmung bzw. dem jeweiligen Kontext
abhängt, in deren Zusammenhang sie gezeigt werden – etwa die Rahmung eines
Bildes durch einen Pressekommentar und Titel in einer Zeitung im Unterschied zur
Rahmung durch einen Ausstellungskontext. Zum anderen geht mit der vieldeutigen
Struktur von Bildern einher, dass ihre Bedeutung auch stärker als etwa bei der
Sprache von den Assoziationen und Affekten der Betrachter abhängt, bei denen
sie subjektive Erinnerungen sowie perzeptuelle und mentale Bilder evozieren. Die
sensorielle und affektive Dimension speziell von fotografischen Bildern bezeichnet
Barthes als ihr „punctum“ (1985, S. 26). Damit verweist er auf den unmittelbaren
subjektiven Effekt, den sie aufgrund ihrer affektiven Qualität bei den Betrachtern
auslösen können und der entscheidend daran beteiligt ist, dass sie das Bild als
‚wahrhaftig‘ erleben. Die visuelle Evidenz (Anschaulichkeit) von Bildern ist damit
eng an ihre affektive Qualität gekoppelt. Diese These wird teilweise durch psycho-
logische Studien unterstützt, die die enge Vernetzung des visuellen Apparates mit
dem Gefühlszentrum im Hirn aufgezeigt haben (Paivio 1978, Ekman 2003). Vor
allem die Abbildung emotionaler Schlüsselreize (wie schutzbedürftige Kinder oder
erotische Körperabbildungen), die als solche bereits evolutionär im Hirn angelegt
sind, führt zu einer reflexhaften affektiven Reaktion und auch Deutung des Bildes.
Neben der motivischen Abbildung affektiver Reize, können auch visuelle Gestal-
telemente wie Farben, Licht, die Größenverhältnisse von Objekten oder Personen

125
126 3 Medien des Zeigens und Sehens

im Bild körperlich-affektive Assoziationen und mentale Bilder bei den Betrachtern


evozieren (Goldstein 2014).
Sowohl die ikonische Abbildhaftigkeit von Bildern als auch ihre affektiven
Qualitäten sind eine wesentliche Voraussetzung für den Effekt visueller Evidenz,
der kulturhistorisch von besonderer Bedeutung für die Medien des Zeigens und
Sehens ist: je realistischer eine bildliche Darstellung und je reflexhafter sie sich
den menschlichen Sinnen und Affekten erschließt, desto stärker ihr Eindruck,
‚Teil der abgebildeten Realität‘ zu sein und damit eine physisch materielle Spur
derselben (auch: Dokument). Diese moderne Idee des Bildes verbreitet sich v. a.
mit der Fotografie (s. u.).
Neben ihren phänomenalen, semiotischen und affektiven Qualitäten lassen sich
bildliche Medientechniken auch nach ihren Verwendungsweisen und Funktionen
sowie kulturellen Bildpraktiken unterscheiden, die eng mit diesen Eigenschaften
verbunden sind. Von ihnen seien hier nur vier historisch bedeutsame vorab genannt,
deren unterschiedliche historische Ausprägungen im weiteren Verlauf des Kapitels
immer wieder aufgegriffen werden:

1. Bei den transzendental-rituellen Bildpraktiken wird das Bild im wahrsten Sinne


des Wortes als Medium aufgefasst: als Medium zwischen Mensch und einer
höheren Macht oder einem jenseitigen Universum. Gemeint sind hier kultisch-ri-
tuelle und religiöse Bilder, die seit der frühen Menschheitsgeschichte existieren,
um Kontakt mit einer Sphäre jenseits der weltlichen sowie einer ihr zugeschrie-
benen übermenschlichen Macht aufzunehmen. Im transzendental-kultischen
Bildgebrauch dominieren symbolische Bildformen, deren Bedeutung in einem
Ritus bzw. einer Religion kodiert sind (vgl. Belting 2001).
2. Bei den dokumentierenden Bildpraktiken steht hingegen die Abbildung der
äußeren Wirklichkeit im Vordergrund – seit der Moderne etwa zum Zwecke
der kritisch-diagnostischen Dokumentation sozialer Wirklichkeiten (v. a. in
dokumentarischen Bildmedien, wie Pressefotografie und Reportage).
3. Unterhaltende Bildpraktiken implizieren daneben meist realistische Darstellungs-
weisen zum Zwecke mimetischer Illusionseffekte und der bildhaften Präsenz
eines Abwesenden (v. a. in fiktionalen Unterhaltungsmedien, etwa im Spielfilm)
(vgl. Wiesing 2008). Beide zeichnen sich dadurch aus, dass sie Bilder v. a. in ihrer
ikonischen und indexikalischen Qualität in den Vordergrund stellen.
4. Die rhetorischen Bildtechniken schließlich stellen die oben genannten phäno-
menalen, semiotischen und affektiven Eigenschaften von Bildern in den Dienst
ideeller, politischer oder ökonomischer Überzeugungs- und Persuasionsstra-
tegien (vgl. Knape 2007). Historisch bedeutsam ist v. a. die Bildpropaganda
durch aristokratische Herrscher, Militär und moderne Diktatoren, aber auch
3.2 Medien des Zeigens und des Sehens in analogen Bildmedien 127

die Verwendung von Bildern durch politische und soziale Bewegungen (z. B.
Friedensbewegung; vgl. Fahlenbrach 2017) sowie der persuasive Bildgebrauch
in der Werbung.

3.2 Medien des Zeigens und des Sehens in analogen


Bildmedien
3.2 Medien des Zeigens und des Sehens in analogen Bildmedien
In den folgenden Abschnitten schlagen wir einen Bogen von den gemalten Bildern
und Statuen der Frühgeschichte und Antike, über die gemalten Bilder des Mittel-
alters und der Frühen Neuzeit bis zu den mechanischen Bildern der Fotografie.
Im Mittelpunkt stehen dabei analoge Medien und Kulturtechniken des Sehens
und Zeigens, welche die Hand und das Auge als primäre Körpermedien der Kom-
munikation in Dienst nehmen: Zum einen setzt die malende, zeichnende und
skulpturierende Hand seit der Frühgeschichte die kommunizierende und zeigende
Geste ganzkörperlicher Kommunikation im Medium des Bildes (s. o.) fort. Zum
anderen wird seitdem das Auge in den Dienst einer Kommunikation gestellt, die das
Gezeigte vom Körper des Zeigenden entkoppelt. Damit einher geht eine bis heute
anhaltende Technisierung des Zeigens und Sehens in (i. S. v. Pross 1970) sekundäre
(mechanische Apparaturen, z. B. Camera Obscura und Fotografie, Abschn. 2.4) und
tertiäre Bildmedien (digitale Bildapparaturen, z. B. digitale Fotografie, Abschn. 3.2).
Seit der Frühgeschichte wurden abstrakte Vorstellungen, Ideen und Wissen visuell
speicherbar und überindividuell vermittel- und wahrnehmbar, auch über große
Zeiträume hinweg. Wie wir sehen werden, findet die Technisierung des Zeigens
und Sehens dabei in engem Wechselspiel mit der Erkundung des menschlichen
Körpers statt: die antike Auseinandersetzung mit dem menschlichen Auge als Ort
der Sinnesaufnahme und Erkenntnis und damit verbundene Techniken mimetischer
Bildpraxis, die Entwicklung der Camera Obscura als Modell der Betrachtung und
Bilderzeugung in der Frühen Neuzeit zur Optimierung mimetischer Bilder, und
schließlich die Durchsetzung des Fotoapparates in der Neuzeit, im Zuge derer sich
ein neues und bis heute wirksames Paradigma apparativen Sehens und Zeigens
etabliert hat.

3.2.1 Medien des Zeigens und Sehens in der Frühgeschichte

Bilder und visuelle Zeichen sind die ersten kommunikativen Speichermedien.


Ihre Anfänge reichen in die Frühgeschichte zurück. Da meist Stein und Metall

127
128 3 Medien des Zeigens und Sehens

ihre Trägermedien darstellen, sind sie teilweise bis heute überliefert. Die ersten
überlieferten Bilder der Frühgeschichte datieren in die Zeit um 30.000 v. Chr. Ihre
genaue Bedeutung und Funktion kann aufgrund der damals noch nicht existieren-
den Schrift jedoch nur sehr eingeschränkt bestimmt werden.
Der Historiker und Ethnologe André Leroi-Gourhan (1981, S. 97 ff.) unterschei-
det vier Phasen prähistorischer Bildkultur, die mit jeweils ausgeprägten Stilen
und Techniken verbunden sind. In der längsten Phase, der primitiven Periode
(30.000–25.000 v. Chr.), dominierten schematische Darstellungen von Tieren sowie,
gegen Ende dieser Phase, erste stilisierte und un-proportionale Menschenfiguren.
In der folgenden archaischen Periode (ca. 20.000–150.00 v. Chr.) zeugen die Bilder
von einer hohen technischen Beherrschung in unterschiedlichen Bereichen: Ma-
lerei, Skulptur und Gravierungen, die stilistisch allerdings noch der primitiven
Phase entsprechen. Ihre Ästhetik änderte sich erst mit der klassischen Periode (ca.
15.000–11.000 v. Chr.), in der die Bilder zunehmend abbildhaft wurden, etwa in
der Darstellung von Körperproportionen der Tiere. Dies ist zugleich die Hochzeit
der Höhlenmalerei, sowohl in ihrer geografischen Verbreitung als auch in ihrer
ästhetischen Kunstfertigkeit. Höhlen wurden zu dieser Zeit kilometerweit in die
Tiefe erschlossen und häufig über mehrere Kammern hinweg reich bemalt. In der
späten Periode (um 10.000) wich die Höhlenmalerei einer starken Verbreitung mobiler
Bildkunst: Bilder auf Steinpaletten, sowie kleine Statuetten (v. a. Frauenfiguren). Zu
diesem Zeitpunkt hatte sich ein ausgeprägter, teilweise perspektivischer Realismus
der Tierabbildungen entwickelt, wobei v. a. Form und Bewegung der Tiere in ho-
her Exaktheit wiedergegeben wurden. Bemerkenswert an dieser Entwicklung ist
die Verlagerung der Bilder zwischen 30.000–9.000 v. Chr. vom Tageslicht bei den
Wohnstätten, in die dunklen Tiefen der Höhlen, und schließlich ihre Rückkehr in
die Nähe der Wohnstätten und ans Tageslicht in Form mobiler Bilder (Leroi-Gour-
han 1981, S. 102, s. u.). Generell beobachtet Leroi-Gourhan im Zeitraum von 30.000
bis 9.000 v. Chr. drei Bildtypen: Wandmalereien (Höhlenmalerei und Malerei auf
Wänden von Wohnstätten), mobile Kunst (eingravierte Plaketten und figürliche
Statuetten) sowie stilisierte Bildzeichen und -symbole. Besonders häufige Bildmotive
sind Tiere, menschliche Figuren (v. a. Frauen), Jagdszenen und Handabdrucke an
Höhlenwänden (1981, S. 131 ff.).
Sowohl die Differenzierung der Bildstile, die besondere Häufung bestimmter
Motive und Bildtypen, als auch die Veränderung der Bildorte legen die Hypothese
nahe, dass die prähistorischen Bilder Bestandteil ritueller Praktiken und transzen-
denter Vorstellungswelten waren. Dabei fällt auf, dass die frühen Menschen ihre
natürliche Umwelt abbildhaft dargestellten (v. a. die Tierwelt) und Bildtechniken
entwickelten, die auf eine naturgetreue Wiedergabe abzielten. Neben dieser Ten-
denz zum Mimetischen wird aber auch eine Tendenz zur visuellen Symbolisierung
3.2 Medien des Zeigens und des Sehens in analogen Bildmedien 129

und Abstraktion erkennbar, die auf eine bildhafte Vermittlung übergeordneter


Bedeutungszusammenhänge schließen lässt. Dies gilt einerseits für die Darstellung
weiblicher Figuren, die auch zu Zeiten einer entwickelten Abbildhaftigkeit stili-
siert blieben. Noch eindeutiger gilt dies andererseits für das ausgeprägte visuelle
Zeichenarsenal, etwa an den Höhlenwänden, das symbolisch auf Bildbedeutungen
verweist, die uns heute weitgehend verschlossen sind (Leroi-Gourhan 1981).
Das Zusammenspiel abbildhafter und symbolischer Bild- und Zeichenformen
leitet zu der Vermutung hin, dass vor allem die Höhlenmalerei im Dienste eines
transzendental-rituellen Bildgebrauches stand. Eine prominente These ist, dass
die Höhlen Orte einer ritualisierten Konfrontation mit dem Jenseits darstellten
(z. B. Lewis-Williams 2002). Zahlreiche Ethnologen und Historiker haben die
Auseinandersetzung mit einem Jenseits des Lebens nicht nur als Wurzel von Re-
ligion (Durkheim 1912/2007), sondern auch von Sprache und Kultur betrachtet
(Leroi-Gourhan 1981, S. 88). Vor diesem Hintergrund stellt sich die Höhlenmalerei
als Bestandteil einer bereits fortgeschrittenen kultischen Praxis dar, in der die Höhle
ein Ort der ritualisierten Auseinandersetzung mit einem ungreifbaren Jenseits und
damit verbundenen transzendenten Mächten darstellte, deren Präsenz bildhaft
beschworen wurde. Medienhistorisch interessant sind an der Höhlenmalerei vor
allem drei Aspekte: erstens die zunehmende Verlagerung des Ortes der Bilder in
die Tiefe der Höhle. Die Bilder konnten also nur mit künstlicher Beleuchtung (etwa
Fackeln) betrachtet werden. Die Distanz zur alltäglichen Umgebung, sowie die nur
durch künstliches Licht gebrochene Dunkelheit der Höhle machten sie tendenziell
zu einem Ort konzentrierter, eventuell sogar immersiver Bildbetrachtung – einem
Ort also, an dem Aufmerksamkeit und Affekte der Betrachter besonders auf den
Bildern und dem damit verbundenen rituellen Geschehen gelegen haben dürften.
In dem Zusammenhang sind, zweitens, auch die im Verlauf der Frühgeschichte
differenzierten mimetischen Bildtechniken bemerkenswert. Wie wir es von späteren
Projektionsmedien wie der Laterna Magica und dem Kino kennen (Kap. 4), entfalten
gerade abbildhafte Bilder in dunklen Räumen eine besondere Illusionswirkung,
zu der auch die künstliche Beleuchtung entscheidend beiträgt. Wahrscheinlich
haben bewegte Feuerflammen in der Höhle die Bilder an den Wänden auf leben-
dige Weise animiert und konnten damit ihre suggestive Wirkung entscheidend
unterstützen. In der Gesamtanlage der bemalten Höhlen beschreibt Leroi-Gourhan
(1981, S. 102) gar den Eindruck zusammenhängender Bilderfolgen, die beim Gang
durch die verschiedenen Kammern und unter der künstlichen Beleuchtung ein
sequentielles und räumliches Bilderszenario entfaltet haben können, womit der
dritte medienhistorisch bedeutsame Aspekt benannt ist. Es lässt sich vermuten,
dass die bewegungsbasierte Betrachtung der Bilder stimmlich, klanglich, eventuell
auch sprachlich und durch bestimmte Handlungsabfolgen flankiert wurde, was die

129
130 3 Medien des Zeigens und Sehens

animierende Bildwirkung noch verstärkt haben dürfte – auch im Hinblick auf die
Höhle als akustischem Resonanzraum. Somit ist anzunehmen, dass die Bilder an
den Wänden in sinnlich ganzheitliche Praktiken des Zeigens und Sehens einge-
bunden waren, die einer Verlebendigung oder auch Animation der Bilder in dem
Erleben der Betrachter Vorschub leisteten.
Möglicherweise weisen die Höhlenmalereien – wie es von Medienhistorikern auch
immer wieder argumentiert wurde (z. B. Schnell 2000) – also allererste Strukturen
von Bildmedien auf, die ihre Bedeutung und Wirkung in sequentiellen Bildfolgen,
eventuell auch im audiovisuellen Zusammenspiel von Bild, Klang und Sprache
entfaltet haben. Wenn man zudem der These folgt, dass die ‚Bild-Höhlen‘ für die
Menschen der Frühgeschichte Orte der Begegnung mit einem transzendentalen
Jenseits darstellten, lässt sich der Strukturvergleich mit späteren Projektionsme-
dien wie dem Kino noch weiterführen: Die Wand ist dann nicht nur Ort künstlich
beleuchteter Bilder, sondern zugleich eine ‚magische‘ Wand zu einen imaginierten
Sinn-Universum, das die Bedeutung der Bilder wesentlich prägt und die illusionäre
Bildwirkung mit übergeordneten mythischen Inhalten auflädt.
Bereits diese grobe Skizze unterschiedlicher Medien und Kulturtechniken des
Zeigens und Sehens in der Frühzeit macht deutlich, dass die Hand und das Auge
als primäre Körpermedien in den Fokus überindividueller und zeitunabhängiger
Kommunikationsformen traten, gar den Ausgangspunkt hierfür darstellten. Der
damit einhergehende Verlust an Unmittelbarkeit und körperlicher Ganzheitlichkeit
wurde offenbar in zweifacher Hinsicht relativiert: zum einen durch die Optimierung
mimetischer Darstellungskünste, wodurch bildlich die Präsenz Abwesender bzw.
imaginierter Sphären suggeriert wurde. Zum anderen gelang dies möglicherweise
durch performative Praktiken der Bildrezeption zu Zeiten der Höhlenmalerei, bei
denen der ganze Körper einbezogen war und zudem die Bilder an den Wänden
durch künstliches Licht zusätzlich verlebendigt wurden. Wie auch deutlich wurde,
waren wahrscheinlich in der Frühzeit besonders mimetische Bilder eingebunden
in rituelle Bildpraktiken. Wir werden in der Folge sehen, dass die abbildhafte
Darstellung auch weiterhin im Zeichen transzendentaler Glaubenssysteme, aber
auch weltlicher Überzeugungen stand, deren abstrakte Sinndeutungsmuster in der
realistischen Darstellung bildlicher Figuren, Objekte und Szenarien mimetisch und
damit auch illusionär wahrgenommen und sinnlich erfahrbar werden.

3.2.2 Medien des Zeigens und Sehens in der Antike

Ein bis heute bedeutsamer Schritt war die Einbindung realistischer Abbildtech-
niken in rational begründete, weltliche Bildprogramme der griechischen Antike.
3.2 Medien des Zeigens und des Sehens in analogen Bildmedien 131

Seit dem 5. Jh. v. Chr. wurde mit der Verbreitung des Schrifttums die lange Tra-
dition mythisch-religiöser Glaubenssysteme und der Naturphilosophie durch ein
rationaleres und wissenschaftlich fundiertes Menschen- und Weltbild abgelöst (s.
Kap. 2). In diesem Zusammenhang setzte man sich erstmals mit physiologischen
Prozessen des Sehens auseinander, eingebunden in philosophische Betrachtungen
zum menschlichen Denken und Erkennen. Historisch einflussreich waren besonders
die Arbeiten von Aristoteles. Er vertritt er die Auffassung, dass das Sehen sowohl
ein physiologischer Akt der optischen Reizaufnahme als auch ein geistiger Akt des
Erkennens sei. Zentral ist hierbei seine Vorstellung, dass das „äußere Auge“ ein
transparenter Apparat sei, durch den die „Seele“ hindurchsieht (Aristoteles, zit. n.
Berns 2000, S. 15). Das „innere Auge“ wiederum werde durch ein Licht erhellt, von
dem die von außen eindringenden Wahrnehmungen rational erkannt werden. Das
„innere Licht“ galt ihm also gewissermaßen als Medium der Erkenntnis. Der Akt
des Sehens wurde von Aristoteles nach dem Modell eines Sehapparates modelliert,
der in der Verbindung äußerer sinnlicher Reize und mentaler Ideen innere Vor-
stellungsbilder erzeugt, die zugleich Ausdruck einer geistigen Durchdringung des
Gesehenen darstellen (vgl. Berns 2000). Die blickbasierte Erkenntnis beschreibt er
dabei als einen Raum: eine geschlossene, gleichwohl lichtdurchlässige Kammer,
in der das Medium Licht sowohl visuelle Eigenschaften der betrachteten Objekte,
als auch das geistige Verständnis des Betrachters auf (transparente) Membrane
projiziert, die er im Akt des Sehens als solche nicht wahrnehmen kann. Damit
erhielten mimetische, auf Nachahmung beruhende, Bildtechniken eine neuartige
Bestimmung: So, wie das physiologisch exakte Sehen mit ‚wahrer‘ Erkenntnis der
Dinge einhergeht, implizierten mimetische Bildakte nun eine genaue, analytische
und erkennende Durchdringung des Abgebildeten. Dies wird auch in Aristoteles’
Auffassung deutlich, dass die Wahrnehmung (aisthesis) und die Sinne eine wesent-
liche Rolle als Instrumente der Erkenntnis spielen. Eine konträre Position vertrat
Platon. Ausgehend von seiner Auffassung, dass die Ideen das Sein bestimmen (vgl.
Kap. 1) und alles Sichtbare bzw. sinnlich Erfasste nur auf Täuschungen beruht, war
eine mimetische Nachahmung von Dingen und Menschen für ihn eine irreführende
und falsche Art, um zu Erkenntnis über die Welt zu gelangen. Die bildenden Künste
betrachtete er ebenso wie die Schrift als technische Medien, die die lebendigen
Ideen und den Geist des Menschen in tote Materie übertragen (vgl. Belting 2001).
Die Positionen beider Philosophen können auch als eine Auseinandersetzung
mit neuartigen Kulturtechniken eines mimetischen Zeigens und Sehens betrachtet
werden, die sich zu dieser Zeit im antiken Griechenland etablierten. In der Ma-
lerei und besonders in der Bildhauerei stand dabei die mimetische Verdopplung
des menschlichen Körpers im Mittelpunkt, die in bürgerliche Bildprogramme
eingebunden war. Ausgangspunkt waren Bildpraktiken des Totenkults, den die

131
132 3 Medien des Zeigens und Sehens

Griechen von den Ägyptern aufgegriffen hatten: Die Körper Verstorbener wurden
als realistisch gestaltete Menschenstatuen (Kouros-Figuren) nachgebildet und an
den Gräbern aufgestellt. In realistischem Stil – aber gleichwohl ent-individualisiert
und idealisiert – sollten sie das mentale Erinnerungsbild an die Verstorbenen
vorbildhaft prägen. Wie es Belting erklärt:

„Diese heroisierten Körper waren dazu bestimmt, ein Standesideal vor Augen zu
führen, das über eine individuelle Existenz hinaus wies: der Tote ist ein Vorbild
(agathos aner), das im sozialen Gedächtnis am Leben gehalten wird.“ (2001, S. 169).

Nachdem man sich um 500 v. Chr. von der Herrschaft aristokratischer Eliten und
Tyrannen befreit hatte (Walde 2009), rückte nun also der Bürger in den Mittel-
punkt der Bildprogramme. Hatten Porträts und Skulpturen bis dato vorwiegend
den Adel und Götter zum Gegenstand, entstand ein neuer Figurentypus, der die
Ideale des Staatsbürgertums repräsentierte und propagierte (ebd.). Am Abbild des
menschlichen Körpers manifestierten sich die Ideale einer aufstrebenden bürger-
lichen Kultur. Bildästhetisch schlug sich diese Idealisierung v. a. im Konzept der
Symmetria nieder: der harmonischen Ausgewogenheit von Körperproportionen,
der Gleichmäßigkeit von Gesichtszügen und einem athletisch geformten Körper,
der als Ausdruck physischer und mentaler Stärke aufgefasst wurde. Dieses klas-
sisch-griechische Bildprogramm verband die Idealisierung des menschlichen Körpers
mit Werten wie Selbstbeherrschung und heldenhafter Bereitschaft zur Verteidigung
der Gemeinschaft. Mit den Worten der Kunsthistorikerin Elisabeth Walde: „Jeder
Einzelne erscheint als Verkörperung eines heldenhaften Idealstaatsbürgers. Innere
Erregung, Wut, Schmerz, Trauer sind keine Elemente künstlerischer Gestaltung.
Selbstkontrolle und Gleichmut heißt es zu wahren […]“ (2009, S. 23). Vor dem Hin-
tergrund eines derart überhöhten Menschen- und Körperbildes verschmolzen die
Grenzen zwischen der bildhaften Beschwörung göttlicher und menschlicher Präsenz
im Bild. Besonders augenfällig wurde diese Heroisierung in Gestalt überlebens-
großer Statuen, die Bürger und Götter gleichermaßen in Menschengestalt zeigten.

▶▶ Die unsere Bildkultur bis heute prägenden Praktiken des bildhaft-mimetischen


Zeigens in der Antike zeichneten sich durch einen doppelten Bezug auf den
menschlichen Körper aus: der Körper ist einerseits Abbildungsgegenstand (oder
auch Motiv), andererseits zielt die Bildgestaltung auf den Körper der Betrachter
als Ort der sehenden und affektiven Erkenntnis.

Die zugleich analytische, affektive und ideelle Durchdringung dieser beiden Kör-
perbezüge innerhalb der bürgerlichen Bildprogramme der Antike hat wesentlich
3.2 Medien des Zeigens und des Sehens in analogen Bildmedien 133

zur weiteren Technisierung des Zeigens und Sehens und – paradoxer Weise –
ihrer schrittweisen Entkopplung vom Körper der Zeigenden und der Betrachter
beigetragen.

3.2.3 Medien des Zeigens und Sehens im Mittelalter

Die Unterscheidung von innerem und äußerem Auge, und damit implizit auch von
materialen und mentalen Bildern (s. o.), wie sie von Aristoteles gedacht wurde, fand
ihre Fortsetzung zu einer späteren Phase, deren Bildprogramme sich gleichwohl
gänzlich von denen der Antike unterschieden: die religiös-theologischen Bilder
des mittelalterlichen Christentums. Dabei waren es vor allem ihre prominentesten
Bildtypen, die fortan über mehrere Jahrhunderte weitgehend vernachlässigt, ja
verschmäht wurden: die mimetischen Bilder, die weltliche Objekte und Menschen
ebenso wie mythische Helden und Götter in Menschengestalt in einer realistischen
Manier darstellten. In den Vordergrund rückten demgegenüber nun symbolische
Bilder in transzendental-rituellen Bildpraktiken: die Heiligenbildnisse.
Die christliche Religion war von Beginn an eher schriftbasiert (s. Kap. 2) und
geprägt von einer tiefgreifenden Bilderskepsis. Während die antiken Gesellschaf-
ten Ägyptens, Griechenlands und Roms mehrere Gottheiten kannten, die sie in
idealisierter Menschengestalt ‚abbildeten‘, entwickelte das Christentum ein mo-
notheistisches Glaubenssystem um einen Gott, dem die Gläubigen ‚wahrhaftig‘
nur in ihrer Imagination und damit vor ihrem inneren, ‚beseelten‘ Auge begegnen
konnten (etwa nach ‚Verspeisung‘ der göttlichen Botschaft im Lesen, vgl. Kap.
2). Dennoch nahmen materielle Bilder von Heiligen (Gemälde, Skulpturen oder
auch Druckgrafiken) einen großen Stellenwert ein, um den Prozess der inneren
Vergegenwärtigung anzuregen und zu lenken – v. a. unter den Gläubigen, die nicht
lesen konnten. Im Anschluss an die Imaginationslehre des Thomas von Aquin im
13. Jh. macht der Historiker Jochen Berns drei Stufen der seelisch-imaginativen
Erfahrung aus, in denen das Wechselspiel von äußeren und inneren Bildern sich
am Ende zu mystischen Visionen intensivieren sollte (Berns 2000, S. 25): die erste
Stufe eines solchen mystischen Bilderlebens ist die Bildandacht vor dem äußeren
Heiligenbild (vita contemplativa); die zweite Stufe besteht in der Evokation innerer
Bilder der Heiligen und der Erinnerung an ihre Taten und Botschaften, während
sich die dritte Stufe durch völlige Bildlosigkeit auszeichnet. Im besten Fall ist sie eine
unmittelbare mystische Erfahrung göttlicher Präsenz. Da im christlichen Glauben
das Wort am Anfang aller Botschaften steht (Kap. 2), ist es auch die körperlose
Stimme Gottes, die in solchen Momenten zum Gläubigen spricht.

133
134 3 Medien des Zeigens und Sehens

Es sind v. a. zwei Arten des Heiligenbildes, die auf idealtypische Weise das
transzendental-rituelle Bilderleben initiieren und lenken sollten: der Körperabdruck
von heiligen Personen als (indexikalische) Ur-Ikonen und die symbolischen Iko-
nenbildnisse4. Beide stehen in der Tradition von Bildern, die jenseits menschlichen
Gestaltungswillens göttliche Präsenz und ‚Echtheit‘ herstellen (vgl. Belting 1991).
Damit sind sie nicht einfach nur Abbilder oder Bilder, die eine heilige Botschaft
repräsentieren; vielmehr werden sie qua bildtechnischem Verfahren selbst zu heiligen
Gegenständen und überschreiten damit in der Glaubenspraxis auch die Grenzen
eines Mediums: für die Gläubigen vermitteln sie also nicht göttliche Präsenz,
sondern sind Teil davon. Besonders offensichtlich ist dies bei Körperabdrucken
Heiliger, wie dem „Schweißtuch der Veronika“ oder dem „Turiner Leichentuch“,
die auf Leinenstoff den Abdruck des Körpers Jesu Christi zeigen. Der begleitende
Mythos lautet, dass diese Stoffe Christus Leib während seines Martyriums be-
deckt haben. Sie werden als pars pro toto des Heilands und damit als Reliquien
verehrt, weil sie Spuren seines Körpers vor seiner göttlichen Ent-Körperlichung
aufweisen. Diese Druckbilder stehen in einer weit in die Frühzeit zurückreichen-
den Tradition von Totenkulten, die über Totenschädel-Statuen, Totenmasken und
Körperabgüsse den Körper der Verstorbenen physisch über den Tod hinaus ver-
ewigten. Hans Belting (2001, S. 41) bezeichnet sie treffend als „technische Bilder“,
deren magisch-transzendentale Wirkung gerade darauf beruht, dass sie nicht von
Menschenhand geschaffen wurden, also keine artifiziellen Bilder, sondern heilige
Objekte darstellen. „Anstelle der üblichen Mimesis wurde eine technische Garantie
für Ähnlichkeit eingefordert“ (ebd.). Wie wir später sehen werden, lassen sich hier
medientechnische Ähnlichkeiten zur analogen Fotografie ausmachen, die in der
foto-chemisch fixierten Speicherung von Licht und Schatten physische Spuren des
fotografierten Momentes in sich trägt.
Eng verbunden mit den heiligen Körperbildern waren die symbolischen Iko-
nenbildnisse, wenngleich sie auf einem ganz anderen Verfahren beruhten (Belting
1991): Ihre ‚Echtheit‘ als heilige Objekte und Manifestationen göttlicher Präsenz
verbürgten sie mittels theologisch und damit über-individuell kodierten Regeln
und Kodes der Bildgestaltung, deren symbolische Bedeutung rituell festgelegt war.
An die Stelle des mechanischen Bildverfahrens im Körperabdruck trat damit ein
symbolisches Verfahren, das den Maler oder Bildhauer zum eigentlichen Medium
der Gestaltung machte: seine subjektive Deutung sollte durch ritualisierte Muster
der Bildgestaltung so weit wie möglich ausgeschlossen werden. Der Maler wurde

4 Die hier skizzierte religiöse Bildauffassung von Ikonen ist zu unterscheiden von dem
eingangs eingeführten semiotischen Bildbegriff des Ikons nach Charles S. Peirce, der
hiermit eine allgemeine Zeichenqualität von Bildern bezeichnet.
3.2 Medien des Zeigens und des Sehens in analogen Bildmedien 135

damit zu einem anonymen – gewissermaßen mechanisch operierenden – Medium


und selbst als solches unsichtbar. Mit den Worten Beltings:

„Der Wunsch nach authentischen Abbildern wurde schon früh von anonymen tech-
nischen Verfahren erfüllt, die jeder menschlichen Nachahmung entzogen sind und
die menschliche Intervention mit ihrer Impräzision eines Blicks, der doch nur dem
Blick des Betrachters gleichen konnte, ausschalten“ (2001, S. 41).

Als ‚echt‘ galt demnach nur, was dem tradierten Kode der Darstellung Heiliger
entsprach. Die ritualisierten Bildkodes und -zeichen gerannen gewissermaßen zu
visuellen Archetypen, vermittelt über den kodierten Einsatz von Farben, Material
(z. B. Blattgold für Jesus Christus) und symbolischen anstelle von realistischen
Größenverhältnissen zwischen den Figuren (z. B. Mutter Maria überproportional
groß) oder auch ihre räumliche Anordnung (vgl. Belting 1991, S. 28 ff.)
Auch wenn der Bildtypus der religiösen Ikone, der eine durchgängig symbo-
lische Bildgestaltung an die Stelle der mimetischen stellt, nur in eingeschränkter
Weise in die Gegenwart fortgesetzt wurde (z. B. bei noch heute produzierten
religiösen Heiligenbildnissen der orthodoxen Kirche), so zielt er doch in seinem
transzendental-religiösen Gebrauch auf innere Imagination und lebendiges Er-
leben von ‚Echtheit‘ im Bilderleben ab, das den Gebrauch von Bildern bis heute
prägt. Dies lässt sich ebenso für einen verwandten Typus mittelalterlich-religiöser
Bilder sagen, die Andachtsbilder, die die innere Anteilnahme und das lebendige
Vergegenwärtigen heiliger Botschaften und Geschichten beim Betrachter über
fragmentarisch-sequentielle Bildkompositionen zu evozieren suchten. Während die
Ikonen idealerweise die Imagination bis hin zur mystischen Vision unterstützen
sollten, waren Andachtsbilder vorwiegend an religiöse Laien gerichtet, deren Gebete
sie imaginativ lenken sollten. Medienhistorisch bemerkenswert an diesen ist, dass
sie komplexe Bildszenarien entwarfen, bei denen um ein zentrales Bild (meist eines
Heiligen) kreisförmig oder zentrifugal auf eine Figur zulaufende Einzelbilder ange-
ordnet wurden (Berns 2000, S. 28). Sie zeigen etwa die auf Jesu Christi gerichteten
Folter- und Tötungsinstrumente, sowie wichtige Momente und Figuren aus seinem
Martyrium (Arma Christi-Bilder). Die Tableau-artige Anordnung der verschiedenen
Bildelemente präsentierte die dargestellten Geschichten in einfachen und schnell
erfassbaren Einzelbildern, die in einen simultan erfahrbaren Zusammenhang ge-
stellt wurden. Entscheidend hierbei ist, dass die Betrachter ihre Blicke entlang der
Einzelbilder wandern lassen konnten und damit – wie Jörg Jochen Berns (2000)
argumentiert – einen inneren, imaginären ‚Film‘ evozierten, der die Einzelbilder in
eine sequentielle Reihe erinnerter und vorgestellter Bilder übertrug. Mit Blick auf
das produktive Zusammenspiel von äußeren, materialen und inneren, mentalen

135
136 3 Medien des Zeigens und Sehens

Bildern zielten die Andachtsbilder dezidiert auf die innere Vergegenwärtigung der
heiligen Geschichten in der Einbildungskraft der Betenden ab (2000, S. 30; 36).

▶▶ Erneut steht also der Betrachter mit seinen inneren Vorstellungen und Emp-
findungen im Zentrum eines Bildprogramms, das auf Suggestion und Präsen-
zerleben abzielte – auch wenn an die Stelle mimetischer Bilder hier symbolisch
abstrakte Bilder traten.

Zu medienhistorischer Bedeutung gelangen Andachtsbilder noch in einer anderen


Hinsicht: Die Art ihrer Tableau-artigen Bildkomposition wurde auch zur Matrix
zahlreicher profaner Bilder, vor allem mit der Durchsetzung der Drucktechnik
im 15. Jh. (Kap. 2). Von da an wurden nicht nur religiöse Andachtsbilder für den
privaten Gebrauch verbreitet – etwa in Form von Einblattdrucken –, sondern man
wendete das Bildmuster auch für unterhaltende und lehrreiche Bilderzählungen an,
die Themen wie Ehe, Liebe und die Biographien weltlicher Personen zum Gegenstand
hatten (ebd., S. 29). Diese Bilder wurden seit ihrer Ausbreitung als Druckgrafiken
auch zum prominenten Gegenstand einer zunehmenden Mechanisierung von
Bildfolgen: zuerst in Form abgebildeter Zahnräder und Drehscheiben, auf denen
die Einzelbilder dargestellt wurden, ab dem 16. Jh. dann auch in Form tatsächlich
bewegter und rotierender Bild-Scheiben, die auf drehbaren Apparaturen angebracht
wurden und die Einzelbilder physisch in Bewegung versetzten (ebd., S. 69 f.). Vor
diesem Hintergrund sieht Berns eine frühe Analogie zu kinematografischen Bild-
medien, deren suggestive Illusionskraft durch animierte und bewegte Einzelbilder
die innere Einbildungskraft der Betrachter aktiv einbezogen.

▶▶ Resümierend lässt sich festhalten: Gleichzeitig zur klösterlichen Manuskriptkultur


des Mittelalters (Kap. 2), welche die Schrift zur Verkörperung der christlichen
Lehre bevorzugte, entstanden bildliche Symbolsysteme und transzendental-ritu-
elle Bildpraktiken, an denen auch die breitere, vorwiegend illiterate Bevölkerung
teilnehmen konnten. Mit Blick auf die Kulturtechniken des Zeigens und Sehens
ist zu betonen, dass zu dieser Zeit, wie auch durch Schrift und Buch, das Auge
zum zentralen Organ der Aufnahme symbolisch abstrahierender Zeichen und
Kodes wurde.

Während die Manuskriptkulturen damals allerdings noch das laute Lesen und
Vortragen als eine Form der ganzheitlichen Verkörperung praktizierten (Kap. 2),
verlagerte sich die Rezeption der Bilder bereits stärker auf das innere Erleben und
die Imagination der Betrachter. Gelenkt wurden diese im Mittelalter durch ver-
innerlichte rituelle Abläufe und Regeln der Bildrezeption. Damit verbunden war
3.2 Medien des Zeigens und des Sehens in analogen Bildmedien 137

auch eine rhythmisierte Betrachtung in sequentiellen Bildabfolgen, die schließlich


durch Apparaturen rotierender Bildscheiben noch mechanisch unterstützt wurde.
Die symbolischen Bilder und Zeichen des christlichen Sinnkosmos konnten durch
den verlebendigenden Rhythmus der Abfolgen und durch das manuelle Bedienen
der Bildscheiben körperlich intensiver erfahren werden. Wie bereits angedeutet,
erkannte man damals auch bereits das unterhaltende Potential solcher Medien und
Praktiken, die im Verlauf der Frühen Neuzeit mit der Camera Obscura entschei-
dend ausgeweitet wurden.

3.2.4 Medien des Zeigens und Sehens in Früher Neuzeit

Als im Laufe der Frühen Neuzeit, deren Beginn sich mit der Verbreitung von Druck-
technik und der Reformation im 15. Jh. verbinden lässt (Kap. 2), das theologische
Glaubenssystem zunehmend von naturwissenschaftlich fundierten, rationalistischen
Welt- und Menschenbildern abgelöst wurde, entstanden auch neue Medien und
Kulturtechniken des Zeigens und Sehens, die auf bildnerischer Illusionswirkung
basierten. Der religiöse, transzendental-rituelle Bildgebrauch wurde erneuert durch
mimetische Abbildtechniken und z. T. auch durch unterhaltende Bildpraktiken
abgelöst. Dabei erfuhren realistische Abbildtechniken der Antike eine Wiederbe-
lebung und Fortsetzung. Wie bereits für die Geschichte der Schriftmedien gezeigt
wurde (Kap. 2), zeichnete sich die Epoche (Renaissance) durch eine Neuentdeckung
antiker Gelehrtenschriften, etwa von Aristoteles und Platon aus.
Eine prominente wissensgeschichtliche Rolle für die weitere Entwicklung mi-
metischer Bildtechniken spielte die Erkundung des physikalischen Camera-Ob-
scura-Effektes: dem Phänomen, dass die Projektion von Lichtstrahlen durch ein
Loch in einer dunklen Kammer die auf der anderen Seite liegenden Objekte sei-
tenverkehrt und verkleinert, aber präzise wiedergibt. Leonardo da Vinci zog im 16.
Jh. aus diesem optisch-physikalischen Phänomen Rückschlüsse auf die Physiologie
des menschlichen Sehapparates. In einer visuellen Darstellung des Augenschemas
unterschied er bereits physiologisch präzise zwischen dem Augenkörper, den Seh-
nerven und der Pupille, die zur Hornhaut hin geöffnet ist. Die alte aristotelische Idee
vom „inneren Auge“ (s. o.) bliebt dennoch erhalten: so platzierte er als vermittelnde
Instanz zwischen physiologischer Reizaufnahme und ihrer mentalen Verarbeitung
eine innere Persona, die durch den Augapfel hindurchschaut. Die Verbindung
zwischen Sehorgan und blickendem Subjekt wird dabei nach dem Prinzip der Ca-
mera Obscura modelliert: „Indem er mit seinem Kopf die Ballon-Camera [Linse]
abdichtet und abdunkelt, muss das Lichtbild, das durch die Pupillenöffnung einfällt
und durch die innere Kristallkugel gebrochen wird, unmittelbar in sein Gesicht

137
138 3 Medien des Zeigens und Sehens

projiziert werden“ (Berns 2000, S. 16). Der Sehvorgang funktioniert nach diesem
Modell also auf Grundlage einer im Auge angelegten Projektionsapparatur, die der
Camera Obscura gleicht. Der Philosoph Renée Descartes führte diese Auffassung
1637 weiter, wobei er ebenfalls den Vorgang des Sehens und des (rationalen) Er-
kennens auf Grundlage der Camera Obscura erklärte: In seiner Anordnung bildet
das Auge eine optische Linse, die in eine dunkle Kammer eingebettet ist, in der
eine menschliche Gestalt steht und von unten durch die Linse hindurchschaut.
Abermals fungiert die Rückseite des Auges gewissermaßen als Mattscheibe, auf die
über die Lichtprojektion die Außenwelt gespiegelt wird und die von einer inneren,
menschlichen Persona betrachtet und ausgewertet wird. (siehe Abbildung 13)
Während da Vinci die innere Persona in den Augapfel eingefügt hatte, schaut
sie bei Descartes aus einer räumlichen Distanz durch die Camera Obscura des Au-
genapparates. Dies entsprach seiner Auffassung, wonach der Mensch nicht durch
Sinne und Instinkte, sondern durch seine rationale Erfassung und Selbstbestimmung
definiert sei (cogito ergo sum – „Ich denke, also bin ich“). Beide Beispiele zeigen,
dass die Camera Obscura nicht nur als Modell des Sehens, sondern auch als eine
rationalistische Auffassung der Erkenntnis fungierte. Das Sehen wurde dement-
sprechend als ein gemäß den Naturgesetzen der Optik gehorchendes Vermögen
definiert, das vom Mensch als vernunftbegabtem Wesen zur rationalen Analyse
und Erkenntnis der ‚äußeren Welt‘ eingesetzt wird.
Im weiteren Verlauf des 16. Jh. entwickelte man mechanisch optische Apparaturen
wie das Fernrohr oder das Mikroskop, die nach dem Prinzip der Camera Obscura
funktionierten. Sie dienten der empirischen Erforschung von Naturphänomenen
und der Astronomie. Durch sie wurden die Fähigkeiten des menschlichen Auges,
in die Ferne und in die Nähe zu sehen, weit über die angeborenen Grenzen hinaus
erweitert. Bemerkenswert ist, dass im Zuge dieser Entwicklungen bereits im 16.
Jh. alle wesentlichen technischen Bestandteile der Camera Obscura als Apparat
erfunden wurden, die für ihre mediale Nutzung und spätere Weiterentwicklung
zum Fotoapparat entscheidend waren: Hohlspiegel, bikonvexe Linsen und Spiegel
im 45-Grad-Winkel, welche die Bündelung und Lenkung der Lichtstrahlen ver-
knüpften, um das Projektionsbild optisch zu verbessern (Hick 1999, S. 30).
Mit dem naturwissenschaftlichen Interesse an den Gesetzen der Optik ging
auch ein neuartiges Interesse an mimetischen Techniken der Bildgestaltung einher.
Die Wurzeln hierzu liegen bereits im 15. Jh., als die Architekten Filippo Brunel-
leschi (um 1420) und Leon Battista Alberti (1435) die antike Linearperspektive
wiederentdeckten und mit neuen mathematischen Berechnungsmethoden zur
Zentralperspektive weiterführten. Hierzu nahmen sie die geschilderten naturwis-
senschaftlichen Kenntnisse über den natürlichen Sehprozess zur Grundlage. Im
Mittelpunkt der zentralperspektivischen Bildtechnik steht das betrachtende und
3.2 Medien des Zeigens und des Sehens in analogen Bildmedien 139

Abb. 13
Auge als Camera
Obscura, Renée Descartes
(1637)

139
140 3 Medien des Zeigens und Sehens

abbildende Subjekt (Maler, Zeichner u. ä.), dessen Perspektive von nun an auf den
Bildbetrachter übertragen wird: Ausgehend von seinem Blickpunkt werden Linien
zu einem imaginären Fluchtpunkt im Bild projiziert. Diese Fluchtlinien lassen den
abgebildeten Raum und die in ihm verteilten Objekte in Bezug auf den gesetzten
Blickpunkt darstellen, womit ihre Größe und Proportionen, ebenso wie Lichtfall
und Schatten, immer relational auf die imaginäre Blickperspektive bezogen sind
und einen natürlichen Seh-Eindruck entstehen lassen. Wie es der Medienhistoriker
Ralf Schnell treffend beschreibt:

„Mit der Entdeckung der Perspektive wird der Mensch der Renaissance zum Herrn
des Wahrnehmungsprozesses. Er unterwirft die Wirklichkeit seinem Blick. Sein
Blickwinkel wird zum Ordnung stiftenden Prinzip, das gliedert, staffelt, hierarchi-
siert. Mehr als nur ein technisches Verfahren zur exakten Wirklichkeitserfassung,
repräsentiert die Entdeckung der Perspektive eine Etappe der Medienanthropologie,
die ein neues Ich- und Selbstbewusstsein darstellt“ (2001, S. 76).

Hiermit zeigt sich der radikale Paradigmenwechsel gegenüber den Bildtechni-


ken des Mittelalters: das Bild ist nicht länger Anbetungsobjekt, das auf einen
transzendentalen, ritualisierten Sinnzusammenhang ausgerichtet ist, der norma-
tiv deutend durch Theologie und Kirche vermittelt wird. Vielmehr tritt nun das
Subjekt in Gestalt von (zeigendem) Bildgestalter und (sehendem) Bildbetrachter
in den Mittelpunkt der Komposition. In gewisser Weise paradox ist dabei, dass
gerade die Zentrierung auf den empirischen Beobachter Voraussetzung für eine
naturwissenschaftlich begründete Objektivierung von Bildtechniken wird (Crary
2002). Denn es sind die überindividuellen Naturgesetze des physiologischen Se-
hens, die hier zugrunde gelegt werden und zu einer maximalen Anpassung von
Bildtechniken an das menschliche Sehen führen. Die Zentralperspektive machte
das menschliche Auge also auf einmal technisch operationalisierbar (Kittler 1999)
und simulierbar, womit sie eine wesentliche Voraussetzung für spätere apparative
Bildmedien schuf (s. u.). Die mathematische Berechnung und mechanische Simu-
lation natürlichen Sehens durch die Zentralperspektive stand dabei von Anfang
an auch im Zeichen der Herstellung bildnerischer Illusion, bei der ein imaginärer
Bildbetrachter adressiert wird.
Die bildnerische Illusionswirkung der Zentralperspektive wurde gezielt ver-
stärkt, als Leon Battista Alberti (1435) in seiner Bildtheorie die Rolle des Rahmens
herausstellte. Alberti schlug vor, die Bilder als Fenster zu betrachten, durch die die
Betrachter in die Welt hinausschauen: „Zuerst zeichne ich auf der Fläche, die das
Gemälde tragen soll, ein vierwinkliges Rechteck beliebiger Größe: es dient mir
gewissermaßen als offen stehendes Fenster, durch welches der ‚Vorgang‘ betrachtet
wird“ (1435/2000, S. 225). Damit betonte Alberti, dass die äußeren Rahmenlinien
3.2 Medien des Zeigens und des Sehens in analogen Bildmedien 141

ein quasi natürliches Sichtfeld markieren, auf das alle Elemente innerhalb des Bildes
bezogen sind. Der körperbasierte Blick wird somit in Kombination von Rahmen-
setzung (selektiver Blickwinkel) und perspektivischer Komposition der Bildfläche
technisch standardisiert. Das Bild tritt dabei als Medium in den Hintergrund
und macht sich gewissermaßen ‚unsichtbar‘. Wie es später Fotografie und Film
perfektionierten, war mit dem zentralperspektivischen Bild als ‚Fenster‘ also die
Idee eines Bildmediums geschaffen, das seine eigene Medialität negiert und gerade
darin seine Illusionswirkung entfaltet. Mit den Worten Beltings: „Es [das Gemälde,
KF] verlangte einem Betrachter […] eine Abstraktionsleistung ab, denn es leugnete
seine eigene Oberfläche, um ‚dahinter‘ einen Blickraum zu simulieren, der sich in
der Projektion des Betrachters an die Stelle von Erfahrung setzte“ (2001, S. 43).

▶▶ Auf diese Weise entstanden in der Weiterentwicklung der Fluchtpunkt- bzw.


Zentralperspektive als Bildtechnik im 16. Jh. bereits frühe Kodes bildlicher
Transparenz, bei denen das Bild seine eigene Konstruktivität und Medialität
unsichtbar macht und sich als ‚Fenster zur Wirklichkeit‘ präsentiert – wie später
die Filmleinwand, der Fernsehbildschirm oder der Computerbildschirm.

Im Verlauf des 16. Jh. hatte man sich also über die Camera Obscura das menschliche
Sehen als einen analytischen und auf optischen Naturgesetzen beruhenden Prozess
erklärt und mittels der Fluchtpunkt- bzw. Zentralperspektive eine mathematische
Technik entwickelt, die diese Erkenntnisse in ein Bildverfahren zur objektivierbaren
Wiedergabe von Welt übertrug. Mit Belting (2001, S. 42) gesprochen, entstand damit
eine Bildtechnik zur „Selbstverdopplung des Körpers“, die – wie schon die frühen
Körperdrucke an Höhlenwänden – ein mechanisches Verfahren nutzten, um die
Natur sich so weit wie möglich unabhängig vom beobachtenden und abbildenden
Subjekt ‚selbst darstellen zu lassen‘ (vgl. Kittler 1999). In diesem Fall jedoch brauchte
es noch die analytische Rekonstruktion des Künstlers.
Die analytische und zeichnerische Kompetenz, aber auch die sinnlichen Ein-
drücke des Bildgestalters als Zeigendem, wurden ab dem 17. Jh. immer weiter an
Bildapparaturen abgegeben. Erneut fungierte die Camera Obscura als Modell,
das nun die Gestalt technischer Apparate und Instrumente zur Bildproduktion
annahm, die bis weit ins 18. Jh. hinein die Herstellung und Rezeption von Bildern
prägte (Hick 1999). Als Zeichen- und Malapparatur entwickelt der Jesuitenpater
Athanasius Kircher (1646) eine frühe begehbare Camera Obscura: Der Maler oder
Zeichner begab sich dabei in den dunklen Innenraum einer Kammer, an deren
Außenwänden ein Loch angebracht war. (siehe Abbildung 14)

141
142 3 Medien des Zeigens und Sehens

Abb. 14 Camera Obscura als Bildapparatur, Athanasius Kircher (1646)

Die durch das Loch fallenden Lichtstrahlen projizierten die umgebenden Dinge der
Außenwelt auf transparente Leinwände, die innerhalb der Kammer aufgespannt
waren. Der Maler konnte die projizierten Lichtbilder somit abmalen, wie sie sich
qua physikalischem Naturgesetz auf der Leinwand darstellten. Wie schon bei der
Ikonenmalerei wird der Maler hier zum Medium – diesmal allerdings zum Medium
der Übertragung optischer Projektionsbilder in ein manifestes Speicherbild. Damit
war der Anfang gemacht für eine weitere Technisierung des Zeigens und Sehens.
Dabei erlaubte die apparative Camera Obscura nicht nur eine objektivierbare, son-
dern auch unbegrenzte Produktion vergleichbarer Wirklichkeitsansichten im Bild
(je nach Tageslicht, Witterung usw.). Von Bedeutung war dabei, dass der Künstler
im Innern der Kammer isoliert von der Umwelt platziert war: abgeschnitten von
der direkten Anschauung der Dinge, macht er sich abhängig von der übertragen-
den Apparatur, deren Bilder er aufzeichnete. Das apparative Sehen dominiert also
in dieser Anordnung erstmals durchgängig den Prozess der Bildproduktion. Der
Prozess der Bildgestaltung wird somit ent-körperlicht und durch ein technisches
Verfahren ersetzt, das mathematisch-naturwissenschaftlich begründet ist. Bild-
und Medienhistoriker beobachten in dieser Mechanisierung und empirischen
Objektivierung des Bildverfahrens auch Folgen für die Betrachter. Jonathan Crary
(1996) etwa sieht hier ein rationalistisches Menschenbild zu einer komplexen
Machttechnik geronnen, die nicht nur den Blick der Bildgestalter, sondern auch
der Bildbetrachter normiert und diszipliniert.
3.2 Medien des Zeigens und des Sehens in analogen Bildmedien 143

Wie Ulrike Hick (1999) zeigt, wurde die Mechanik der Camera Obscura als
Medium der Bildproduktion im Laufe des 17. Jh. rasch differenziert, etwa durch
den Einsatz technischer Linsen, aber auch durch eine generelle Miniaturisie-
rung der Geräte, die den mobilen Gebrauch vereinfachten. Mit den sogenannten
„Box-Kameras“ entstanden bereits Mitte des 17. Jh. mobile Kästen mit ineinander
verschiebbaren Linsen und komplexen Spiegelvorrichtungen, die es erlaubten,
Objekte mittels technischer Optik zu fokussieren. Damit wurden die Geräte zu-
gleich zu einer ‚Black Box‘, deren technische Konstruktion sich nicht mehr direkt
vermittelte. Die Camera Obscura wurde zu einer kleinen, mobilen geschlossenen
Box, durch das die Künstler direkt schauen konnten, wenn sie sie an ihr Gesichtsfeld
führten. Auge und Bildapparatur wurden damit unmittelbar physisch verbunden.
Besonders deutlich tritt dies bei den Modellen von Robert Hooke aus den Jahren
1684 und 1694 zutage, die vom Künstler regelrecht über den Kopf gezogen wurden
und somit gewissermaßen als Gesichtsaufsatz fungierten. Spätestens hier wird
deutlich, dass die Camera Obscura als Bildmedium das menschliche Sehen nicht
nur erweiterte, sondern im Sinne Marshall McLuhans gar als Prothese angelegt war,
die das bildhafte Erfassen von Welt durch das menschliche Auge ersetzten sollte.
Es ist naheliegend, dass eine Apparatur, die die Projektion von wirklichkeits-
getreuen Bildern in einen geschlossenen dunklen Raum ermöglicht, nicht nur für
das bildliche Zeigen, die Bildproduktion, sondern auch für das Betrachten und
einen Bilderkonsum geeignet war, dessen Unterhaltungswert in hohem Maße in der
Illusionswirkung optischer Projektionseffekte bestand. Wie Hick (1999) ausführlich
dokumentiert, entstanden im Laufe des 17. Jh. unterschiedliche begehbare dunkle
Kammern, in denen mehrere Personen Platz fanden. Nach dem Prinzip der Camera
Obscura wurden außerhalb der Kammer inszenierte Szenen, Puppenspiele oder
auch Scherenschnitte in das Innere projiziert. Der magische Reiz dieses frühen
apparativen Spektakels lag wesentlich in der für viele Betrachter unerklärlichen
Übertragung der realen Handlungen und Bewegungen außerhalb der Kammer
in ent-materialisierte Projektionsbilder in ihrem Inneren. Was auf dem einfachen
optisch-physikalischen Camera-Obscura-Effekt beruhte, wurde als übersinnliche
Magie präsentiert, deren suggestive Illusionswirkung durch die Begleitung von
Stimmen, Musik und Geräuschen noch verstärkt wurde. Bezeichnenderweise
waren es v. a. religiöse Pädagogen, die die Vorteile dieser neuen Medientechnik
für ihre Zwecke entdeckten. Allen voran hat Athanasius Kircher entscheidend zur
Weiterentwicklung der Camera Obscura zu einem populären Medium der Bildbe-
trachtung beigetragen und es gleichzeitig zur moralisch-seelischen Belehrung seiner
Zeitgenossen eingesetzt. Er erfand u. a. eine „Metamorphosen Apparatur“ (1646),
in der er die Projektion von Szenen und Figuren von außerhalb der Kammer mit
der Projektion gemalter oder gezeichneter Bilder im Innern der Kammer verband,

143
144 3 Medien des Zeigens und Sehens

die durch Spiegelkombinationen übereinander geblendet wurden (vgl. Hick 1999).


Die Spiegelvorrichtungen waren so installiert, dass Figuren und Bilder mit zwei-
facher Reflektion in eine Kulisse hineinprojiziert wurden. Auf diese Weise konnte
er seinem Publikum die Verwandlung menschlicher Figuren in Tiergestalt ebenso
plastisch vor Augen führen, wie Heiligenerscheinungen, aber auch Teufelsgestal-
ten. Er nutzte also ganz bewusst die Möglichkeiten der optischen Projektion, um
täuschende Effekte zu erzielen, die er in einen höheren, transzendental-religiösen
Sinn-Zusammenhang stellte. Auf diese Weise fügt sich die Nutzung der Camera
Obscura in die Tendenz des 17. Jh., das Sehen nicht nur in den Dienst eines wis-
senschaftlich fundierten Rationalismus zu stellen, sondern auch der theologischen
und sozialen (Selbst-)Disziplinierung des Individuums. Mit dem allmählichen
Machtverlust der Kirche im Zuge von Aufklärung und bürgerlicher Emanzipation
mussten neue populäre Formen der Rückbindung an den christlichen Sinnkosmos
gefunden werden. Dabei griff die Kirche, wie das Beispiel von Kircher zeigt, die
mimetischen Medientechniken und Apparaturen auf, um sich als Disziplinierungs-
instanz neu aufzustellen. In Verbindung mit den unterhalten Begleiterscheinungen
dürfte bei den Zeitgenossen jedoch der Spektakeleffekt dominiert haben – und auf
diese Weise eine freiwillige Unterziehung unter ein Bildprogramm, dessen Inhalte
zwar altbekannt, dessen Wirkungsform aber den einzelnen Betrachter sinnlich in
einer bisher ungekannten Weise ‚überwältigte‘ (vgl. Hick 1999, S. 108).

▶▶ Im Verlauf der Neuzeit fand ab dem 18. Jh. eine schrittweise Differenzierung
von zwei in der Camera Obscura angelegten Medientechniken statt: als Medium
der Herstellung und als Medium der Projektion mimetischer Bilder.

Auf der einen Seite wurde der Gebrauch der Camera Obscura als visuelles Pro-
jektionsmedium im 18. Jh. von der Laterna Magica übernommen, die zu einem
der populärsten Bildmedien bis weit in das 19. Jh. wurde. Wie wir weiter unten
sehen werden (Kap. 4), kann diese als erste audiovisuelle Medienapparatur gelten,
die manifeste (gemalte, gezeichnete, fotografische) Bilder durch ein künstliches
Licht innerhalb der dunklen Kammer auf eine Leinwand projizierte und durch
optische Täuschungstricks den Eindruck bewegter Bilder erzeugte. Nach dieser
Ablösung im Bereich der Bildprojektion grenzte sich der Gebrauch von Camera
Obscura-Apparaturen wieder auf Techniken mimetischer Bildherstellung ein (vgl.
Hockney 2006). Bei aller gebotenen Vorsicht gegenüber zu einfachen historischen
Analogieschlüssen lässt sich konstatieren, dass die Camera Obscura gerade als
Medium der mimetischen Abbildung realer Objekte der empirischen Welt eine
auffallende Nähe zum Fotoapparat aufweist, die im Verlauf des 19. Jh. entwickelt
wurde. Die Durchsetzung und der Erfolg der Laterna Magica daneben war, wie
3.4 Analoge Medien fotografischen Zeigens und Sehens 145

wir später sehen werden, Ausdruck eines kollektiven Bedürfnisses nach bewegten
Bildern und imaginären Audiovisionen, wie sie später für den Film und das Kino
typisch wurden (Kap. 4).
Mit Blick auf die im 18. Jh. stattfindende Differenzierung dieser beiden Me-
dientechniken – Camera Obscura und Laterna Magica –, werden wir in diesem
Kapitel nun einen Zeitsprung vornehmen und mit der Entstehung und Entwicklung
fotografischer Techniken des Sehens ab dem 19. Jh. fortsetzen.

▶▶ Festhalten lässt sich für diesen Abschnitt, dass die Technisierung des bildbasierten
Zeigens und Sehens mit dem Einfluss von Natur- und Humanwissenschaften in
der Frühen Neuzeit einen entscheidenden Schub erlebte. Die Entkoppelung des
Gezeigten vom Körper des Zeigenden wurde dabei erstmals durch (mechanische)
Apparaturen der Bilderzeugung und der Bildprojektion weiter vorangetrieben.
Indem das Auge im Fokus der neuen bildbasierten Praktiken des Zeigens und
Sehens stand, verlagerte sich das Bilderleben über das Auge immer mehr ins
Innere des subjektiven Erlebens.

3.3 Analoge Medien fotografischen Zeigens und Sehens


3.4 Analoge Medien fotografischen Zeigens und Sehens
Als Mitte des 19. Jh. erste fotografische Techniken erfunden wurden, die Bilder
der empirischen Wirklichkeit nicht nur flüchtig projizieren, sondern chemisch und
physikalisch fixieren und speichern konnten, entstand ein neues Paradigma, das
die Kulturtechniken des Zeigens und Sehens bis heute prägt. Hatte die Camera
Obscura bereits zuvor in den Bildkünsten als Instrument gedient, das die naturge-
treue Abbildung von Wirklichkeit auf Grundlage wissenschaftlicher Erkenntnisse
optimieren sollte, wurde mit dem Fotoapparat eine Technologie erfunden, welche
den gesamten Vorgang der Bildproduktion mechanisierte: der Mensch war hierbei
nicht länger Medium der Übertragung von Lichtprojektionen auf eine Leinwand –
wie dies bei den Camera-Obscura-Apparaturen der Maler und Zeichner noch der
Fall war –, sondern seine bildgebende Rolle wurde nun beschränkt auf die Auswahl
von Ausschnitten und die Bedienung der fotografischen Apparatur, die mittels phy-
sikalisch-chemischer Prozesse die Bild-Projektionen auf einer lichtempfindlichen
Oberfläche fixiert. Das im Bild Gezeigte wurde damit fast vollständig vom Körper
des Zeigenden entkoppelt. Zwar blickt das Auge noch durch den Sucher (bzw. heute
auf ein Display), die Hand löst die Aufnahme aus, und auch die Ausbelichtung der
Fotografien war zunächst ein eigentätiger Prozess der optisch-manuellen Entwick-
lung durch die Fotografen. Die Prozesse der Bilderzeugung aber beruhen sämtlich

145
146 3 Medien des Zeigens und Sehens

auf mechanischen und chemo-physikalischen Vorgängen in einem geschlossenen


apparativen System, auf das die Fotografen im Zuge der weiteren Entwicklung immer
weniger Zugriff hatten. Die Optimierung der Abbildhaftigkeit und die Transparenz
der Bilder steht damit im umgekehrt proportionalen Verhältnis zur wachsenden
Intransparenz der technischen Vorgänge – zumindest für das Gros der Nutzer.
Die Art und Weise, wie ein Foto die menschliche Wahrnehmung adressiert, wird
gleichzeitig durch die fotografische Apparatur bestimmt. Wie es Walter Benjamin
prominent formulierte:

„So wird handgreiflich, dass es eine andere Natur ist, die zu der Kamera als die zum
Auge spricht. Anders vor allem dadurch, dass an die Stelle eines vom Menschen mit
Bewusstsein durchwirkten Raums ein unbewusst durchwirkter tritt.“ (1969, S. 41).

Bezeichnend für den Übergang von der Camera Obscura als Instrument mimetischer
Bildtechniken (s. o.) zum Fotoapparat sind die ersten fotografischen Versuche durch
Joseph Nicéphore Nièpce zwischen 1820 und 1830. Er gilt als der erste, der die Bilder
einer Camera Obscura foto-chemisch zu fixieren versuchte. (siehe Abbildung 15)

Abb. 15
Blick aus dem Fenster,
Joseph Nicéphore Nièpce
(1826) (Reproduktion
von 1952)

Anstelle der Leinwand setzte Nièpce schon bald eine Zinnplatte ein, die er mit
lichtempfindlichem Asphalt (Bitumen) bestrich. Eine der ersten Fotografien, die
ihm dabei gelang, reproduzierte seinen Blick aus einem Fenster. Allerdings zeigt
die acht Stunden mit Sonnenstrahlen belichtete Metallplatte nur dunkle Schatten
mit groben Umrissen der abgebildeten Gebäude, deren Konturen Nièpce durch
nachträgliche Bearbeitung der Platte mit Öl herauszuheben versuchte. Auch wenn
3.4 Analoge Medien fotografischen Zeigens und Sehens 147

das Bild bei weitem die Abbildgenauigkeit bisheriger mimetischer Bildkünste un-
terschritt, zeugt es vom paradigmatischen Umbruch in den Medientechniken des
Zeigens und Sehens: zwar noch in den alten Techniken verwurzelt, wie Camera
Obscura und Lithografie, von der Nièpce die Bildfixierung auf Metall und ihrer
nachträglichen Bearbeitung übernahm, steht das fotografische Bild zugleich erstmals
im Zeichen durchgängig mechanisierter Bildproduktion und Speicherung, wie sie
für das fotografische Sehen fortan gelten sollte. Mit den Worten Matthias Bruhns:
„Die Menschen haben sich seit dieser ersten Belichtung eines neuen Bildträgers
und im Laufe des 19. Jh. daran gewöhnt, dass die Umwelt mithilfe chemischer
Mittel auf einem chemischen Untergrund wie Metall, Glas oder Papier reproduziert
werden kann“ (2008, S. 12).
Ab den 1830er-Jahren folgten in kurzen Zeitabständen weitere Entwicklungen,
durch die sich die Spezifik fotografischer Medientechniken gegenüber allen vorheri-
gen Medientechniken des Zeigens und Sehens auszeichnete, welche die Aufnahme,
Fixierung und schließlich auch die Reproduktion technischer Bilder in bisher
unerreichter Abbildhaftigkeit in sich vereinten. Nach Nièpces Erfindungen war es
Louis Jacques Daguerre, dem es ab 1833 gelang, die Abbildqualität fotografischer
Bilder wesentlich zu optimieren. (siehe Abbildung 16)

Abb. 16 Daguerrotypiekamera: Werbeillustration von 1846

Hierzu verwendete er Metallplatten, die er mit lichtempfindlichem Silber und Jod


bearbeitete. Damit wurde das Trägermaterial mittels moderner Erkenntnisse der

147
148 3 Medien des Zeigens und Sehens

Chemie aufwendig präpariert, bevor es eingesetzt werden konnte. Aber auch das
neue Wissen der Physik machte sich Daguerre zunutze, um die Aufnahmetechnik
der Kamera zu verbessern. Dies betraf zum einen die Lichtstärke der Objektive und
die Möglichkeit sie auf Gegenstände scharf zu stellen; zum anderen ließ sich die
Entfernung zum Objekt vor der Kamera durch Ineinander-Verschieben der beiden
Kastenelemente des Apparates optisch verändern. In der Kombination physikalischer
Linsen- und chemischer Speichertechnik gelang es Daguerre, bei einer wesentlich
kürzeren Belichtungszeit als Nièpce (anfangs etwa 10 Minuten, später eine halbe
Minute), bereits scharf konturierte fotografische Bilder mit einer hohen Abbildhaf-
tigkeit zu erzeugen. Dabei handelte es sich bei den Daguerrotypien um Unikate, die
nur schwierig reproduzierbar waren. Als bedeutsamer Entwicklungssprung kann
daher die Erfindung von lichtempfindlichem Fotopapier gelten, das William Henry
Fox Talbot ab 1840 verwendete. Aufgrund verbesserter chemischer Verfahren wies
es eine erhöhte Lichtempfindlichkeit auf, weshalb die Belichtungszeit noch mal
verkürzt werden konnte. Die Vorteile der Belichtung auf Papier erwiesen sich als
bahnbrechend, als Talbot ein Jahr später mit der Kalotypie ein Verfahren erfand,
das es erlaubte, mehrfache Abzüge von einer Fotografie zu machen. Das zuerst als
Negativ entstandene Bild, bei dem Helles dunkel wird und umgekehrt. Beim an-
schließenden Kontaktabzug werden Negativbild und Papier aufeinandergelegt und
einer Lichtquelle ausgesetzt, wobei ein naturgetreues Positivbild entsteht (Dunkles
wird dunkel, Helles wird hell). Diese – für die analoge Fotografie seitdem prägende
– Technik war gleich in mehrfacher Hinsicht folgereich: zum einen ermöglichte es
die fast endlose Reproduktion eines fotografischen Bildes. Wie wir weiter unten
sehen werden, führte dies zu gänzlich neuen Medien und Praktiken des Zeigens
und Sehens. Zum anderen ermöglichte Talbot mit der Einführung des zweiten
Belichtungsvorgangs im Labor die nachträgliche Bearbeitung der Abzüge. Auch
dies führte zu neuartigen Bildpraktiken, bei denen nicht nur die Lichtverhältnisse
eines Bildes manipuliert, sondern auch Bildobjekte bearbeitet (etwa koloriert) oder
gar wegretuschiert werden konnten. Während das fotografische Bild also einerseits
technisch generierte Dokumentarizität und ‚Echtheit‘ versprach, konnte es anderer-
seits auch das Auge der Betrachter mittels technischer Verfahren täuschen, deren
Manipulationscharakter im Bild i. d. R. unsichtbar blieb.
Damit wird schon deutlich, dass es sich mit dem Aufkommen der Fotografie
nicht nur um die Erfindung neuer Apparaturen des Zeigens und Sehens handelte,
sondern dass ihr Gebrauch ein neues Bildverständnis mit sich brachte, das auch
die bildlichen Kodes und Zeichen entscheidend prägte.
3.4 Analoge Medien fotografischen Zeigens und Sehens 149

▶▶ Ein wesentliches Merkmal dieses fotografischen Bildverständnisses war, dass


Fotografien zuallererst als Dokumente von Wirklichkeit betrachtet wurden,
welche mittels chemo-physikalischen Verfahrens nicht nur eine ikonisch hohe
Abbildhaftigkeit, sondern auch indexikalische Spuren des abgebildeten Momentes
aufweisen. Wie bereits angedeutet (3.2.3), setzen sie damit die Idee von tech-
nischen Bildern als ‚echten‘ Bildern fort, die über ein mechanisches Verfahren
selbst Teil der abgebildeten Wirklichkeit sind.

Technische Bürgschaft tritt dabei in einer neuen Qualität an die Stelle menschlicher
Bürgschaft (über Autorschaft, Handwerk bzw. künstlerischen Stil) des Dargestellten.
Die Fotografie weist – im Vergleich zu Masken und ‚heiligen‘ Körperabdrucken
– eine zuvor nicht erreichte Realistik und Abbildhaftigkeit auf. Die durchgängig
technische Mechanisierung der Bilderzeugung wurde daher auch von ihren Er-
findern als neue Stufe eines naturwissenschaftlich begründeten Fortschritts und
einer nie dagewesen Objektivierung von Bildern gefeiert. Talbot bezeichnete die
Fotografie euphorisch als „Pencil of Nature“ (Stift der Natur):

„Das gläserne Objektiv ist das Auge des Instrumentes – das lichtempfindliche Papier
lässt sich mit der Retina vergleichen. Und das Auge sollte keine zu große Pupille haben,
d. h. der Lichteinfall der Linse sollte durch eine Blende verringert werden können, in
der ein kleines rundes Loch ist“ (1844, zit. n. Kemp 1999, S. 6).

In seiner Analogie greift Talbot die Idee des menschlichen Auges als Camera Obscura
noch mal auf, wie wir sie seit da Vinci kennen (s. o.). Wenn Talbot die einzelnen
technischen Elemente der Kamera als verfeinerte Formen dieses ‚technischen Auges‘
beschreibt, ist es aber nicht mehr der menschliche Betrachter, der durch die Camera
Obscura schaut. Es ist nun vielmehr die Natur selbst, die sich über die Kamera und
das technische Verfahren ‚selbstständig‘ abbildet. Das menschliche Auge scheint in
dieser Anordnung gewissermaßen überflüssig. Konkrete Vorteile einer dergestalt
technischen ‚Reproduktion‘ von Wirklichkeit lagen für Talbot auf der Hand: die
Kamera erweitert erheblich den menschlichen Wahrnehmungshorizont, indem sie
Dinge in der Nähe und Ferne abbildet, die das menschliche Auge auf natürliche
Weise nicht erfassen kann. Daneben bietet die Fotografie in der euphorischen
Vorstellung Talbots eine interpretationsunabhängige, objektive Darstellung von
Welt – v. a. mit Blick auf ihre Detailgenauigkeit.
Die fotografische Detailgenauigkeit und ihre Wirkung auf den Betrachter
standen im 19. Jh. auch im Zentrum der zeitgenössischen Kritik an der Fotografie.
Auf der einen Seite beklagte die Kirche die „Seelenlosigkeit“ der präzisen fotogra-
fischen Bilder, die einem rein technischen Programm gehorchten und nicht mehr
einer transzendental durchwirkten Bildprogrammatik. Auf der anderen Seite gab
149
150 3 Medien des Zeigens und Sehens

es innerhalb des etablierten Kunst- und Literaturbereiches massive Vorbehalte


gegenüber der Fotografie. Kritiker wie der Dichter Charles Baudelaire hielten sie
für grundsätzlich ungeeignet zum künstlerischen Ausdruck. Vielmehr liefere sie
eine detailgenaue Kopie von Wirklichkeit: „Kopiert die Natur, kopiert nichts als die
Natur!“ (1859, zit. n. Helmes/Köster 2002, S. 213). Solchen Vorbehalten versuchten
die ersten fotografischen Künstler gezielt zu begegnen. Die bekannteste künstleri-
sche Bewegung waren die sogenannten Piktorialisten. Sie griffen traditionelle und
zeitgenössische Formen und Motive der bildenden Kunst auf und übertrugen sie
ins Medium der Fotografie. Interessanterweise versuchten sie dabei auch teilwei-
se, den transzendental-religiösen Bildgebrauch wieder aufleben zu lassen. (siehe
Abbildung 17)

Abb. 17 „Two Ways of Life“, Fotograf: Oskar Gustav Rejländer (1857)

Fotografen wie Oskar G. Rejländer oder Julia Margaret Cameron adaptierten Motive
der christlichen Malerei und schufen fotografisch-religiöse Tafelbilder, in denen
sie etwa durch Kostümierung der Models, Kulissen, aber auch durch ikonografi-
sche Bildkomposition und nachträgliche Kolorierung die Fotos den historischen
Beispielen anglichen.
Während die künstlerischen Imitationen der Piktorialisten in der Kunstwelt
als pures Epigonentum abgelehnt wurden, erkundete eine andere Gruppe unter
diesen die neuartigen medienästhetischen und künstlerischen Potentiale der Fo-
tografie. Allerdings orientierten auch sie sich zunächst an der Malerei, genauer am
3.4 Analoge Medien fotografischen Zeigens und Sehens 151

Impressionismus. So wie die Impressionisten den malerischen Zugang zur Natur


als abhängig von Licht, Bewegung, und subjektiver Wahrnehmung zeigten, nutzten
impressionistische Fotografen wie Peter Henry Emerson Unschärfeeffekte, Bild-
komposition, Laborbelichtung, sowie die Qualitäten unterschiedlicher Papiere, um
die momenthafte Subjektivität einer Naturwahrnehmung bildhaft zur Anschauung
zu bringen. (siehe Abbildung 18)

Abb. 18 „Cantley: Wherries Waiting for the Turn of the Tide“, Fotograf: Peter Henry
Emerson (1886)

Vor allem Unschärfe wurde zu einem wesentlichen Kennzeichen für subjektives


und selektives Wahrnehmen – und damit für eine vom Künstler ‚wahrhaft erlebte
und empfundene‘ Abbildung, die einer technisch detailgenauen Darstellung der
Fotografie entgegengesetzt wurde. So argumentierte etwa Emerson – auf die
menschlichen Wahrnehmungsprinzipien verweisend –, dass auch das menschliche
Auge immer nur einzelne Bereiche im Blickfeld fokussieren könne, während die
Peripherie unscharf bliebe.

„Aus dem, was vorhergesagt wurde, kann man nun verstehen, dass ein Bild nicht in
jedem Teil zu scharf sein sollte, denn dann wird es falsch. Es sollte gerade so scharf

151
152 3 Medien des Zeigens und Sehens

werden, dass es am besten die Erscheinung der Natur, so wie man sie von einem
bestimmten Standpunkt aus wahrnimmt, wiedergibt und nicht schärfer, denn man
muss bedenken, dass das Auge die Dinge nicht so scharf sieht wie die fotografische
Linse […], blinder Fleck […]“ (Emerson 1889, zit. n. Kemp 1999, S. 164 f.).

Unschärfe und ihre Wahrnehmungswirkung wurde damit für die impressionisti-


sche Fotografie zum eigenständigen Ausdruck fotografischer Authentizität. Ebenso
wurde sie zum Ausdruck eines genuin künstlerischen – weil nicht pur abbildenden
– Gestaltungswillens des Fotografen. Dies galt umso mehr, als der gezielte Einsatz
von Unschärfe eine hohe handwerkliche Kenntnis voraussetzte: im Umgang mit
der Kamera, der Fokussierung der Linse und des Blendeneinsatzes, in der Aus-
beleuchtung der Negative im Labor, sowie schließlich des gezielten Einsatzes von
Fotopapier, das mittels unterschiedlicher Materialitäten den Bildeindruck entschei-
dend beeinflussen konnte (etwa Oberflächenbeschaffenheit, Farbton, chemische
Beschaffenheit etc.). Besonders grobes Fotopapier wurde gern verwendet, um die
fotografischen Unschärfeeffekte noch weiter zu verstärken und dem Bild mittels
seiner Oberflächentextur eine genuine Materialität zu geben, vergleichbar mit
der Leinwand gemalter Bilder. Während die technischen Erfinder der Fotografie
(wie Talbot) also die Detailgenauigkeit und Abbildqualität technisch fortlaufend
optimierten, orientierten sich künstlerische Fotografen an der Malerei als vorgän-
gigem Bildmedium und entdeckten dabei die Unschärfe und Verwischung von
Kontrasten auf dem Papier als eigenständige, ‚authentische‘ Ausdrucksformen
des neuen Mediums.
Die hier skizzierten Diskussionen um 1900 um die Folgen der Fotografie auf
Kunst und Kultur beschränkten sich freilich auf eine intellektuelle und künst-
lerische Elite. Gleichzeitig erfuhr das Medium in vieler Hinsicht einen rasanten
Erfolg in den Massenmedien und der Alltagskultur. Entscheidend dabei war, dass
es kulturhistorisch weniger in der Tradition künstlerischer Ausdrucksmedien
bzw. eines transzendental-rituellen Bildgebrauchs stand. Vielmehr stand der
breitere Gebrauch der Fotografie von Anfang an eher im Zeichen populärer und
unterhaltender Bildpraktiken, wie sie der Jahrmarkt, die Laterna Magica und das
Panorama boten (vgl. Scheurer 1987, s. Kap. 4), aber auch die Lithografie, die bereits
massenhafte Bildproduktionen ermöglichte (Kap. 2).
Die Fotografin und Fotografiehistorikerin Gisèle Freund (1979) betont die beson-
dere Bedeutung des neuen Mediums im 19. Jh. für bürgerliche Schichten. Ihr zufolge
spiegeln gerade die bürgerlichen Bildpraktiken der Fotografie den endgültigen Über-
gang von einer statisch, ständischen zu einer dynamischen modernen Gesellschaft,
in der weniger die Geburt über sozialen Status entscheidet, als die Funktion, die
ein Individuum beruflich und sozial in der Gesellschaft übernimmt. Offensichtlich
wird dies vor allem mit Blick auf ein besonders populäres Bildgenre der Zeit, die
3.4 Analoge Medien fotografischen Zeigens und Sehens 153

Portraitfotografie. Abgesehen von günstigen Schattenrissbildern konnten bis dato


einzig Herrscher, Kirchenvertreter und reiche Unternehmer ein Bildnis ihrer selbst
in Auftrag geben. Mit den Fotostudios nach dem Vorbild französischer Fotografen
wie Nadar (bürgerlich: Gaspard-Félix Tournachon) und André Disdérie wurde es
möglich, dass der ‚gemeine Bürger‘ jederzeit ein professionell erstelltes Selbstbild
anfertigen lassen konnte. Wie bereits die malerischen Herrscherbilder boten auch
die Fotostudios die Möglichkeit zur idealisierenden Selbstinszenierung. Durch
Kostüme, Masken und Kulissen konnten die Bürger Wunschbilder ihrer selbst
entwerfen, die Ausdruck der neuen Selbstfindung des Bürgertums war. Während
sie dabei einerseits neue, bürgerliche Kodes der Selbstdarstellung entwickelten (z. B.
in der Kleidung und Körpersprache), orientierten sich die Portraitfotografen – wie
die Kunstfotografen – an tradierten Regeln der Malerei. Dies wird deutlich in den
Gestaltungskriterien, die Disdéri für die Portraitfotografie formulierte und zu
denen etwa ‚angenehmes Äußeres‘, die Betonung natürlicher Proportionen und
‚Schönheit‘ der Gesamtkomposition (vgl. Freund 1979, S. 77) gehören. Wir haben
es also auch bei diesem ersten populärkulturellen Bildgebrauch der Fotografie mit
einer Anpassung an frühere Ikonografien und Bildästhetiken zu tun, die in die-
sem Fall stark geprägt war von der im 19. Jh. verbreiteten Idee des Kunstschönen.
Die fotografischen Abbildqualitäten wurden somit in den Dienst von idealistisch
inszenierten Selbstentwürfen gestellt. Mit dieser Möglichkeit erhielt die Fotografie
bereits um 1900 eine prägende Rolle in der Alltagskultur als Medium bürgerlicher
Selbstdarstellung.
Einen weiteren Schub erhielt diese Entwicklung mit der Durchsetzung von
einfach bedienbaren und günstigen Kleinbildkameras. Pionier war hierbei der
Unternehmer George Eastman, der das Marktpotential erkannte, das in einer Ver-
breitung der Fotografie im Alltag der breiten Bevölkerung lag. Seinem Unternehmen
Kodak gelang dies bereits in kurzer Zeit, indem er die Fotoapparate schrittweisen
in ihrer Bedienbarkeit vereinfachte, sie verkleinerte und die Anschaffungskosten
für die Kunden heruntersetzte. Eine zentrale Voraussetzung war die Durchset-
zung des Kodak-Rollfilms ab 1890, der eine Abkehr von den großen Plattenka-
meras ermöglichte. Ebenso bedeutsam war die Geschäftsidee, die Entwicklung
der Fotofilme für die Kunden zu übernehmen. Bis dahin war die Erstellung von
Fotoabzügen vorwiegend eine Domäne von professionellen Fotografen gewesen,
was eine entscheidende Hürde für die weitere Verbreitung darstellte. Getreu ihres
Werbeslogans „You press the bottom, we do the rest!“ wurde diese Hürde nun von
Kodak aufgehoben, und fortan konnten sich auch Laien als Fotografen betätigen.
Die Filme mussten nur abgeben werden, die Kunden erhielten dann die fertigen
Abzüge zugeschickt. Wie Eastman es selbst erklärte:

153
154 3 Medien des Zeigens und Sehens

„Das Prinzip des Kodak-Systems liegt in der Trennung der Arbeit, die jeder beim
Fotografieren ausüben kann und der des Spezialisten. […] [J]eder, der in der Lage ist,
einen Kasten in Richtung auf ein Objekt zu halten und auf einen Knopf zu drücken, hat
nun ein Gerät zur Verfügung, für dessen Bedienung er keine besonderen Kenntnisse
mehr braucht, geschweige denn spezielles Wissen“ (zit. n. Gautrand 1998, S. 239).

Mit dieser Arbeitstrennung trug Kodak ganz wesentlich zur weiteren technischen
Entkopplung zwischen im Bild Gezeigtem und Zeigendem bei. Die Prozesse der
Bilderzeugung lagen für das Gros der Fotografierenden fortan nicht mehr nur in
der unzugänglichen und geschlossenen ‚Black Box‘ des Fotoapparates verborgen.
Die durch Auge und Hand individuell ausgelösten Bilder wurden auch in ein
unsichtbares industrielles System aus Maschinen und anonymen Akteuren ein-
gespeist, das erst dafür sorgte, dass jeder Einzelne fotografische Abbilder seiner
Lebenswelt erhalten konnte.
Für die weitere Verbreitung fotografischer Medien des Zeigens und Sehens
hatte das Kodak-System beachtliche Folgen. Bedeutsam war in dieser Hinsicht
generell, dass die Körperpose und mit ihr die ganzkörperliche Kommunikation
wieder stärker in den Vordergrund rückte. Das Bild als Medium des optischen
Zeigens rückte wieder näher an die körperliche Geste, die nun auch foto-optisch
speicherbar wurde. Die machte sich bereits in den Anfängen der Alltagsfotografie
in einer neuen Bildpraxis bemerkbar: dem Schnappschuss. Neben der sorgfältig in-
szenierten Selbstdarstellung im Fotostudio erkannte man rasch, dass die Fotografie
ganz neue Optionen der Dokumentation von Selbst und Lebenswirklichkeit bot.
Besonders auf Reisen wurden spontane Aufnahmen beliebt, die vermeintlich oder
tatsächlich ungestellt waren und die Erinnerung auf besonders lebendige Weise
im Bild festhalten sollten (Gautrand 1998, Frizot 1998). Die Abbildung von Mimik
und Gestik der Fotografierten zeugt dabei von der ‚Echtheit‘ und Momenthaftigkeit
eines Bildes (vgl. Barthes 1985, s. o.). Daneben wurden für die Medien alltägli-
chen Zeigens und Sehens um 1900 ritualisierte Bildpraktiken prägend: gestellte
Familienbilder und Gruppenbilder von Arbeitskollegen, sowie Bilder biografisch
hervorgehobener Momente wie Taufen oder Hochzeiten (vgl. Frizot 1998). Wie es
der Soziologe Pierre Bourdieu (1981) einschlägig gezeigt hat, nimmt die Fotografie
seitdem eine zentrale Rolle als Medium sozialer Selbstdarstellung in der Moderne
ein. In frühen ritualisierten Gruppenfotos betraf dies sowohl die Darstellung
sozialer Relationen – z. B. Hierarchien innerhalb einer Gruppe, die durch die Po-
sitionierung der Personen im Bild deutlich wurde – als auch die soziale Verortung
der abgebildeten Gruppe im gesellschaftlichen Feld: Kleidung, Körpersprache, aber
auch der räumliche Kontext standen häufig im Zeichen sozialer Kodes bzw. eines
sozialen Habitus (Bourdieu 1981).
3.4 Analoge Medien fotografischen Zeigens und Sehens 155

▶▶ Neben der neuartigen Ausweitung fotografischer Kulturtechniken im unmit-


telbaren Alltag der Menschen, entwickelte die Fotografie um 1900 in ihrem
journalistischen Gebrauch im expandierenden Pressewesen neue massenmediale
Formen, Stile und Funktionen.

Auch in der öffentlichen Sphäre entfaltete sich eine neue Kultur des Zeigens und
Sehens, die in ihren Grundzügen bis heute anhält. Dabei wurde die technisch
verbürgte Abbildhaftigkeit zum entscheidenden Faktor für ein Bildverständnis
von journalistischen Bildern als ‚authentischen Dokumenten‘ der Wirklichkeit.
Seit dem Umbruch zum 20. Jh. haben journalistische Fotografien die Aufgabe, das
Publikum mit aktuellen Wirklichkeitsansichten aus aller Welt zu versorgen und
ihnen damit eine sinnlich bildhafte Anschauung politischer, sozialer oder wirt-
schaftlicher Ereignisse und Prozesse zu vermitteln. Die Entstehung dieses neuen,
journalistischen Bildverständnisses geschah jedoch erst schrittweise im Übergang
vom 19. Jh. ins 20. Jh. und war abhängig von technischen, institutionellen und
ästhetischen Entwicklungen, von denen nur einige zentrale im Folgenden skizziert
seien: die Weiterentwicklung von Kamera-, Reproduktions-, und Verbreitungstech-
niken, die Professionalisierung und Institutionalisierung von Pressefotografen,
Bildredakteuren, Bildagenturen und Layoutern, sowie schließlich die Ausbildung
journalistischer Bildkodes und Zeichen.
Eine wesentliche Bedingung, dass sich die Fotografie als öffentliches Medium
journalistischer Dokumentation durchsetzte, waren neben der bereits geschilder-
ten Reproduzierbarkeit der Bilder auch Techniken, um diese in eine Zeitung zu
implementieren und in der Rotationspresse zu drucken. Bis zum Ende des 19. Jh.
hatte man sich auf die Einbindung von Druckgrafiken wie Lithografien beschränkt
(s. Kap. 2), die Ereignisse zeichnerisch darstellten. Erst Ende des 19. Jh. wurde es
dann möglich, Fotomaterial in Printmedien zu integrieren. Eine Voraussetzung
lag in der Autotypie-Technik (s. o.), die ab etwa 1890 eine direkte mechanische
Reproduktion ermöglichte. Bei dieser Hochdrucktechnik wurde das Foto von
einer Reproduktionskamera abfotografiert, wobei die Grauwerte durch größere
bzw. kleinere Punkte simuliert werden. Während der Druck selbst schwarz-weiß
bleibt, entstehen im Auge des Betrachters dabei differenzierte Grauwerte. Das
Rasterbild wurde auf eine Metallplatte kopiert, die in die Druckpresse gegeben
werden konnte. Mit dieser Technologie ging eine institutionelle und professionelle
Neuerung einher: viele Pressehäuser bauten eigene Druckwerkstätten, bei denen die
Fotos intern reproduziert und gedruckt wurden (vgl. Albert/Feyel 1998). Während
man sich zunächst noch auf gesonderte Bildbeilagen innerhalb der Zeitungen und
Magazine beschränken musste, wurde es im frühen 20. Jh. möglich, Fotografien
in die Textteile des Zeitungslayouts zu integrieren. Voraussetzung hierfür war der

155
156 3 Medien des Zeigens und Sehens

ab 1912 aufkommende Offset-Druck auf Rollen (Rollenoffset), bei dem Text und
Bild gemeinsam auf eine gummierte Matrix übertragen wurden. Während die
Druckpresse auf Metallplattenbasis in dieser Hinsicht nur begrenzte Druckmengen
erlaubte, war mithilfe der neuen Technik der massenhafte Rotationsdruck möglich.
Damit bot die Kombination von (Rollen-)Offset-Druck und Rotationspresse (s. Kap.
2) den Zeitungsverlagen gleich zwei Vorteile: die erhebliche Ausweitung der Druck-
produktion und die Integration von Fotografien in das Layout der Artikel. Beides
trug entscheidend zum Durchbruch der Zeitung als modernem Massenmedium bei.
Um der Pressefotografie zu jener Geltung zu verhelfen, die wir heute kennen, gab
es eine andere technische Hürde zu überwinden: die Übertragung von Fotografien
über weite Entfernungen hinweg. Bis zum Ende des 19. Jh. konnten Fotografien
nur per Post transportiert werden. Die Transportwege mit den ersten technischen
Verkehrsmitteln Bahn, Schiff und Automobil dauerten, je nach Entfernung, Tage
oder gar Wochen. Die Fotos besaßen bei Ankunft im Verlag daher kaum noch Ak-
tualitätsgehalt. Deshalb bevorzugte man noch bis Anfang des 20. Jh. Lithografien,
um Geschehnisse zu illustrieren. Selbst für eines der ersten international verfolgten
Medienereignisse, den Untergang des Luxusschiffes Titanic im Jahr 1912, gab es noch
keine aktuellen Pressefotos, sondern man behalf sich interpretierender Zeichner
und Lithografen. Erst als man frühe elektronische Kommunikationsmedien wie
den Telegrafen und das Telefon (s. Kap. 1) für die elektronische Bildübertragung
entdeckte, wurde die Aktualität von Pressefotos zu einem wesentlichen Bestandteil
ihrer Funktion. Die Erfinder Arthur Korn (Telefonkopie, 1902/1907) und Edouard
Bélin (Fototelegrafie, 1912) trugen entscheidend zur Entwicklung der Bildtelegrafie
bei (vgl. Albert/Feyel 1998). Statt der Übertragung gesprochener (Telefon) oder
geschriebener (Telegraf ) Sprache, wurde hiermit ein Verfahren entwickelt, um
Bilder in elektrische Signale zu übersetzen und über Kabel zu senden. Dies hatte
beträchtliche Auswirkungen auf die journalistischen Standards der Bildverwen-
dung. Schnelligkeit und Aktualität wurden erst jetzt zu wesentlichen Kriterien des
journalistischen Bildgebrauchs und der öffentlichen Bildwahrnehmung. Wie der
Kunsthistoriker Hubertus v. Amelunxen schreibt:

„Die Modernität der Fotografie zeigt sich in ihrer Verbindung zum Ereignis, zum
Unerwarteten, zur Aktualität und zum zeitgenössischen Leben. Mit der Verkürzung
der Zeit zwischen Ereignis und Aufnahme wurde der Fotograf mehr und mehr zum
direkten Augenzeugen“ (1998, S. 131).

Mit Schnelligkeit und Aktualität verbunden waren daher auch veränderte Formen
der massenmedialen Teilhabe an Ereignissen. Entfernt stattfindende Begebenheiten
rückten zeitlich und visuell näher an die Menschen heran. Durch das Medium der
Fotografie wurden damit soziale, politische, wirtschaftliche und kulturelle Prozesse
3.4 Analoge Medien fotografischen Zeigens und Sehens 157

auf neuartige Weise zeig- und sichtbar. Der optische Wahrnehmungshorizont wurde
also entscheidend ausgeweitet.
Eine weitere Voraussetzung für den journalistischen Bildgebrauch war die Ver-
kleinerung und Optimierung der Fotoapparate. Bis Anfang des 20. Jh. waren bei
professionellen Fotografen die großen Plattenkameras verbreitet, deren Glasnega-
tive i. d. R. 13 x 18 cm maßen. Anfang der 1930er Jahre wurden auch die qualitativ
hochwertigen Kameras kleiner, bedienungsfreundlicher und mit lichtstärkeren
Objektiven ausgestattet. Besonders die Entwicklung der Kleinbildkamera brachte
für die Pressefotografie einen wichtigen Entwicklungsschub. Die Ermanox-Kamera
(1924) etwa ermöglichte erstmals Aufnahmen bei Nacht bzw. wenig Tageslicht und
ohne Blitz. Die Leica-I-Kamera (1924) bot kurz darauf die Möglichkeit, ohne den
aufwendigen Wechsel von Glasplatten 36 Bilder hintereinander auf einer Fotofilm-
rolle zu speichern. Damit war auch in der professionellen Fotografie der Schritt von
der Glasplattenkamera weg zur modernen Kleinbildkamera mit austauschbarer
Filmrolle getan, die für die Pressefotografen eine höhere Flexibilität, Mobilität und
durch lichtstärkere Objektive auch eine optimierte Bildqualität mit sich brachte.

▶▶ Die skizzierten technischen und institutionellen Entwicklungen der Fotografie,


einhergehend mit der angedeuteten umfassenden Differenzierung und Professi-
onalisierung journalistischer Standards, leisteten einem neuen, massenmedial
geprägten Bildverständnis von Pressefotografie Vorschub, dessen leitende Kodes
mit den Schlagworten Aktualität, Authentizität und Objektivität (vgl. Grittmann
2007) gekennzeichnet werden können.

Dies ging einher mit der Ausbildung bis heute geltender Kodes, Regeln und Konven-
tionen einer journalistischen Bildrhetorik. Diese zielt einerseits strategisch darauf ab,
die Aufmerksamkeit eines möglichst breiten Publikums zu erreichen, andererseits
legitimiert sich der Journalismus seitdem als Mittler zwischen politischen Vertre-
tern und der Bevölkerung. Dies machte sich bereits im frühen 20. Jh. besonders in
zwei journalistischen Bereichen bemerkbar: der politischen Berichterstattung über
staatliche Vertreter und ihre Handlungen, sowie in der Kriegsberichterstattung.
In der Geschichte der politischen Berichterstattung übernahm das gemalte oder
gezeichnete Bild traditioneller Weise die Rolle der Herrschaftsrepräsentation, die
in feudalen Zeiten wesentlich vom Herrscher selbst gelenkt war (von Karikaturen
abgesehen). Allerdings erkannten auch feudale Herrscher des 19. und frühen 20.
Jh. die Vorzüge der Fotografie zur öffentlichkeitswirksamen und volksnahen
Selbstdarstellung. Die britische Königin Victoria und der deutsche Kaiser Friedrich
Wilhelm II. etwa ließen Fotoportraits von sich für die massenhafte Verbreitung
auf Postkarten und in der Presse erstellen (vgl. Kohlrausch 2009). Dabei boten Er-

157
158 3 Medien des Zeigens und Sehens

eignisse wie das Goldene Thronjubiläum von Queen Victoria (vgl. Nünning/Rupp
2008) besondere Anlässe für die massenmedial fotografische Selbstinszenierung.
Für die journalistische Berichterstattung wiederum brachte das kapitalistisch
und bürgerlich geprägte Pressewesen seit der Weimarer Republik eine wachsende
Autonomie der Journalisten mit sich, denen in den demokratischen Gesellschaften
des 20. Jh. eine zunehmend kritisch-beobachtende Rolle zukam. Ab dem Zeitpunkt,
als staatliche Repräsentanten in den USA und Europa demokratisch gewählt wurden,
waren Politiker zudem auf die journalistischen Medien als öffentlichen Foren und
als Mittler zu den Wählern angewiesen. Öffentliche Meinungsbildung ist seitdem
ein schwer vorhersehbarer, dynamischer Prozess, an dem Massenmedien, Politiker
und Bevölkerung auf je eigene Weise zusammenwirken. Angesichts dieser immer
komplexer werdenden Entwicklung bot sich die Fotografie bereits um 1900 zur
bildhaften Veranschaulichung abstrakter politischer Prozesse und zur Vermittlung
politischer Botschaften und Personen an. Dabei hatte sie historisch einen wesent-
lichen Anteil daran, dass die visuell dargestellte Persönlichkeit und Individualität
von Politikern in demokratischen Gesellschaften einen machtvollen Einfluss
auf politische Meinungsbildung gewann – womit sich der Kode der politischen
Berichterstattung in dieser Hinsicht änderte. Welche Folgen das für die Auswahl
von Motiven und die Art der Bildkomposition hatte, und damit für die Zeichen
des Fotojournalismus, sei kurz am Beispiel des einflussreichen Pressefotografen
Erich Salomon (1886–1944) veranschaulicht.
Salomon war einer der ersten Fotografen, der die journalistischen Vorzüge der
Kleinbildkamera entdeckte und mit ihr neue Formen der fotografischen Reportage
entwickelte. Statt wie bisher üblich, sorgfältig geplante Zeremonien wie Staatsemp-
fänge oder öffentliche Reden zu dokumentieren, begab er sich mit der Kamera hinter
die Kulissen politischer Ereignisse. Oft ohne offizielle Genehmigung, fotografierte
er Staatsleute und Politiker bei Gipfeltreffen und internationalen Konferenzen,
die unter Ausschluss der Öffentlichkeit stattfanden. Dabei zeigte er die Politiker
an Orten, die der Öffentlichkeit bis dato verschlossen waren: in Amtsräumen, im
Innern von Konferenzgebäuden, aber auch in privaten Situationen: beim Frühstück
im Hotel oder mit ihren Gattinnen beim Tee. Dabei erlaubte ihm die lichtstarke
Ermanox-Kamera, diese Innenräume erstmals ohne Blitz abzulichten. Auch andere
technische Hilfsmittel wie Stativ und leise Kameraauslöser setzte er ein. Auf diese
Weise blieb er vor Ort meist unbemerkt, was den Authentizitätsgestus seiner Bilder
entsprechend erhöhte, da es eben keine gestellten, inszenierten Bilder, sondern
spontane Momentaufnahmen waren, die häufig auch die überraschten Reaktionen
der Fotografierten festhielten. (siehe Abbildung 19)
3.4 Analoge Medien fotografischen Zeigens und Sehens 159

Abb. 19
„Quai d’Orsay“,
Fotograf: Erich Salomon
(1931)

Damit verbunden war eine ganz neue journalistische Haltung, wonach der Foto-
journalist sich zum teilnehmenden Augenzeugen eines Ereignisses macht. Genau
dies verschaffte Salomons Bildern damals einen Spektakelwert, der ihnen eine hohe
Aufmerksamkeit sicherte. Dabei erkannten die Politiker rasch die Vorteile solcher
‚spontaner Augenzeugenbilder‘, schließlich bedienten sie zentrale bürgerliche
Werte in der Bevölkerung: sie zeigten die Staatsvertreter jenseits ihrer staatlichen
Rolle als Individuen mit Gefühlen und persönlichen Eigenschaften, aber auch als
Leistungsträger der Gesellschaft bei der Arbeit.
Das Beispiel von Salomon zeigt also, wie technische Innovationen, institutionelle
Professionalisierung und semiotische Neubildung von Kodes und Zeichen in der
Pressefotografie zu dieser Zeit ineinandergriffen. Seitdem ist es immer üblicher
geworden, Aufnahmen politischer Ereignisse und Persönlichkeiten als vermeintlich
spontan und unverstellt zu präsentieren. Wenn sich heute Politiker professionell
von PR-Agenturen beraten lassen, um ihre Botschaften in einer ‚menschlichen‘
und ‚volksnahen‘ Weise den Wählern vermitteln zu können, zeigt sich (inszenierte)
Authentizität als ein längst etablierter zentraler Kode fotojournalistischer Rhetorik
(vgl. Schicha 2003).
Eine ähnliche Veränderung wie in der politischen Berichterstattung lässt sich im
frühen 20. Jh. auch anhand der Kriegsbildberichterstattung beobachten. In feudalen
Gesellschaften erstellten vormals Hofmaler Schlachtengemälde, die im Auftrag
der Herrscher den Krieg in meist idealisierender Weise darstellten. Die modernen
Formen medialer Teilhabe in der nun massenmedial geprägten Öffentlichkeit
veränderten um 1900 auch die journalistischen Kodes der Kriegsbildberichterstat-
tung. Dabei wurde das Dokumentarische des Fotos zuerst noch den politischen
159
160 3 Medien des Zeigens und Sehens

Repräsentationsinteressen der Herrschenden angepasst. Frühe Kriegsfotografen


neigten dementsprechend weiterhin zur Idealisierung des Krieges, wobei sie sich
an den Kodes von Schlachtengemälden orientieren: sie zeigen Feldherren und Sol-
daten vor oder nach der Schlacht und vermieden vor allem, Tod und Zerstörung als
Folgen des Krieges zu dokumentieren. Dies zeigt sich etwa an den Fotos, die Roger
Fenton Mitte der 1880er-Jahre vom Krimkrieg anfertigte. Im Auftrag von Prinz
Albert sollte er die militärischen Erfolge der britischen Armee dokumentieren.
Neben den gestellten Fotografien von Generälen und Soldaten an der Front schoss
Fenton jedoch einige weitere Bilder, die damals nicht in der Presse erschienen und
die bis heute als historischer Beginn für die Ausbildung des Authentizitätskodes
in der Kriegsfotografie gewertet werden. Unter dem Titel Valley of the shadow of
death zeigen zwei fast identische Bilder einen menschenleeren Weg in einer kargen
Landschaft, ohne Baum und Strauch. (siehe Abbildung 20)

Abb. 20
Valley of the shadow
of death,
Fotograf: Roger Fenton
(1855)
3.4 Analoge Medien fotografischen Zeigens und Sehens 161

Im Bildvordergrund sind einige Kanonenkugeln zu sehen, was darauf hindeutet,


dass es sich hier um einen Kriegsschauplatz handelt. Die Abwesenheit von Menschen
und die Kargheit der Landschaft lassen in Verbindung mit diesen Kanonenkugeln
im Bildvordergrund ein nüchternes Bild des Krieges entstehen, das seine zerstö-
rerische Wirkung und die Auslöschung allen Lebens symbolisiert. Im Vergleich
dieser beiden Fotos stellte die Fotografietheoretikerin Susan Sontag (2004) fest,
dass Fenton in einem der beiden Bildversionen die Kanonenkugeln gezielt auf dem
Gehweg angeordnet hat, um die Bildwirkung auf die Betrachter zu intensivieren.
Möglicherweise griff Fenton also in inszenierendem Gestus in die Bildkomposition
ein, auch unter Rückgriff vertrauter Motive und Kompositionen der Landschafts-
malerei. Diese frühen Kriegsfotos zeigen also ebenfalls das allmähliche Entstehen
bildjournalistischer Kodes des Authentischen, die jedoch noch verbunden waren
mit früheren Bildkodes der Malerei. Der Fotografiehistoriker von Amelunxen
konstatiert hierzu treffend: „Der dokumentarische Charakter der Fotografie liegt
hier in ihrer technisch bedingten, vermeintlichen Authentizität und nicht in der
dargestellten Szene. Noch hatte das Medium die Wahrnehmung nicht so entschei-
dend geändert, als dass der Fotograf und Betrachter sich von der traditionellen,
kanonisierten Bildästhetik losgesagt hätte“ (1998, S. 137 f.).
1936 fotografierte Robert Capa während des Spanischen Bürgerkrieges einen
im Augenblick des Sterbens fallenden Soldaten. Damals hatte sich der Kode der
Authentizität und medialen Augenzeugenschaft in der Kriegsfotografie zwar be-
reits etabliert. Der Tod wurde aber erstmals in solcher Unmittelbarkeit gezeigt: das
Bild hält buchstäblich den Moment des Sterbens fest. Inzwischen weiß man, dass
unmittelbar vor dieser Aufnahme die Soldaten für Capas Kamera posierten. Auch
wenn die Fotografie des Falling Soldier sehr wahrscheinlich in einem unerwarteten
Angriffsmoment entstand und einen ‚echten‘ Moment des Sterbens dokumentiert,
ist sie also auch Ausdruck einer inszenierten Situation (vgl. Schaber 1998).
Die Beispiele von Fenton und Capa verdeutlichen, dass gerade jene Bilder, die als
besonders ‚authentisch‘ wahrgenommen werden, häufig ein inszenatorisches Moment
aufweisen, sei es durch die Bildkomposition, durch nachträgliche Bearbeitung im
Labor (z. B. Belichtung) oder im Layout (Bildbeschnitt und Rahmung), oder gar
durch das Arrangement der Situation. Es zeigt sich auch, dass mediale Teilhabe
und Authentizitätseindruck schon früh zu Kennzeichen einer gezielten (rhetori-
schen) Wirkungsästhetik in der Pressefotografie wurden, die den Betrachtern einen
affektiven und sinnlichen Zugang zum Weltgeschehen ermöglichen. Im weiteren
Verlauf des 20. Jh. machten sich Diktatoren wie Hitler oder Stalin diese Potentiale
der Fotografie auf propagandistische Weise zunutze. Die Fotografie wurde, wie
auch Rundfunk und Presse, zu einem wichtigen Medium, um der Bevölkerung
die staatliche Ideologie bildhaft nahe zu bringen. Die Kodes eines freien Journalis-

161
162 3 Medien des Zeigens und Sehens

mus traten in den gleichgeschalteten Mediensystemen des nationalsozialistischen


Deutschland und der Sowjetunion dabei in den Hintergrund.
Nach dem 2. Weltkrieg wurden Authentizität, Objektivität und Aktualität als
Kodes der Pressefotografie im Rahmen demokratischer, kapitalistisch geprägter
Mediensysteme weiter differenziert. Eine besondere Blütezeit erfuhr die Pressefoto-
grafie zwischen den 1950er- und 1960er-Jahren in Europa und den USA. Zu dieser
Zeit mussten sich die Printmedien immer gezielter gegenüber der Medienkonkur-
renz des Fernsehens wappnen. Weitere Optimierungen von Kameratechnik und
Fotofilm, die Durchsetzung der Farbfotografie, sowie Verbesserungen im Druck
unterstützten sie dabei. Magazine wie das Life Magazine, Stern, twen oder Paris
Match stellten die Reportagefotografie in den Mittelpunkt ihrer journalistischen
Profile. Mehrseitige und großformatige Fotoreportagen füllten ganze Hefte. Im
Layout dominierten die Fotos die gesamte Heftgestaltung, wobei die Texte inhaltlich
und typografisch den Bildern untergeordnet wurden. Diese Überdimensionalität
der fotografischen Bilder setzte auf einen sinnlich-affektiven Zugang zur Welt und
stellte damit die Wahrnehmungsadressierung der Betrachter in den Mittelpunkt
ihrer Ästhetik. Auf diese Weise rückten Bilder zunehmend in den Vordergrund
öffentlicher Wahrnehmung und Diskurse (Ludes 1993). Politisch und historisch
besonders einflussreich war zu dieser Zeit die Bildberichterstattung zum Vietnam-
krieg in den Reportagemagazinen Life Magazine und Stern. Die großformatigen
Nahaufnahmen von vietnamesischen Frauen und Kindern, die den Angriffen
der US-Armee zum Opfer gefallen waren, zeigten die Folgen des Krieges in einer
zuvor ungekannten Drastik. Die Bilder wurden von Studentenbewegungen und
Friedensaktivisten in den USA und Europa bei Demonstrationen mitgeführt
und machten auch jene mit ihnen vertraut, die sie noch nicht aus den Magazinen
kannten. Besonders ein Bild des Fotografen Eddie Adams, welches den Moment
der Erschießung eines Vietcong durch einen südvietnamesischen General doku-
mentiert, wurde zu einem Symbol und einer Medienikone gegen den Krieg (vgl.
Fahlenbrach 2013). Derartige Bilder veränderten in ihrer appellativen Wirkung die
öffentliche Wahrnehmung des Vietnamkrieges und brachten die US-Regierung
schließlich in militärische Legitimationsnot.
Die umfassende Visualisierung öffentlicher Diskurse – auch im globalen Kon-
text – wurde seit den 1960er-Jahren zunehmend durch Fernsehbilder geprägt. Die
Reportagefotografie konnte dieser Konkurrenz langfristig nur schwer standhalten.
Bereits in den 1970er-Jahren gingen die Auflagen dieser Magazine stark zurück, z. T.
mussten sie eingestellt werden, wie etwa das Life Magazine oder twen. Die Fotore-
portage hat seitdem zunehmend an Ausstellungswert gewonnen – eine Eigenschaft,
die Walter Benjamin (1969) einst als konstitutiv für Kunst betrachtete. Angesehene
Foto-Wettbewerbe wie der World-Press-Award wandern als Ausstellungen durch
3.5 Digitale Medien fotografischen Zeigens und Sehens 163

die Lande und geben den Bildern auch jenseits ihrer journalistischen Aktualität
eine kulturelle Bestimmung. Die prämierten Pressefotografen wie James Nachtwey
oder Sebastiao Selgado sind häufig Mitglieder renommierter Fotoagenturen wie
Magnum, die eigene ästhetische Grundsätze des Authentischen verfolgen. Zwar
werden einzelne Bilder der ausgezeichneten Reportagen auch gedruckt. Meist
können sie aber erst in den Ausstellungen der Wettbewerbe in ihrem gestalterischen
Gesamtzusammenhang gesehen werden, womit ihre Wirkung sich v. a. jenseits
aktueller journalistischer Kontexte entfaltet (s. u.). Weitere Gründe für diese und
andere Veränderungen der Pressefotografie liegen in den Folgen der Digitalisierung
begründet, und werden im nächsten Abschnitte betrachtet.

▶▶ Wie deutlich wurde, zeichnen sich analoge Medien fotografischen Zeigens und
Sehens von Anfang an durch das Paradoxon aus, einen hohen mimetischen
Abbildungscharakter aufzuweisen und gleichzeitig in ihren Bildpraktiken von
Kodes, Regeln und Zeichen geprägt zu sein, die sie als kulturell durchwirkte und
eben nicht rein technische Bilder ausweisen. Die Authentizitätswirkung erweist
sich vor diesem Hintergrund immer als kodiert durch gemeinsames Bildwissen
von Zeigenden und Betrachtenden.

3.5 Digitale Medien fotografischen Zeigens und Sehens


3.5 Digitale Medien fotografischen Zeigens und Sehens
3.5.1 Mediale Spezifika digitaler Bilder

Der Computer als Übersetzungsmedium (Robben 2006, Kap. 2), das alle Medien
des Sehens, Hörens, Sprechens und Schreibens in den binären Kode 1/0 überträgt,
speichert und verarbeitet, erfasste ab den 1980er-Jahren auch zunehmend die Fo-
tografie. Bereits seit den 1960er-Jahren gab es immer wieder Versuche in Compu-
terforschung und Industrie (z. B. Bell-Labs und Kodak), Bilder digital zu speichern
und zu erzeugen. Dabei lagen die technischen Hürden v. a. in der Entwicklung von
Dateiformaten, welche die optischen Informationen der Kameralinse in digitale
Daten zu übertragen, speichern und auf einem Computerbildschirm darzustellen
erlaubten. Anfang der 1980er-Jahre entwickelte Microsoft für den PC und damit
für den Normalverbraucher ein digitales Dateiformat (bitmap bzw. BMP), das die
bildhafte Darstellung optischer Informationen auf einem Computerbildschirm
ermöglichte. Als bald darauf das jpg-Format große Bilddateien auf Mikrochips in
den Kameras komprimierbar machten, beschleunigte sich die Entwicklung digitaler
Fototechnologien auf dem weiteren Markt. Auch die Entwicklung digitaler Bild-

163
164 3 Medien des Zeigens und Sehens

bearbeitungsprogramme wie Adobe Photoshop (ab 1990) waren eine wesentliche


Voraussetzung für die Verbreitung der digitalen Fotoapparate. Während man jetzt
zwar auf die foto-chemische Entwicklung von Filmen im Labor verzichten konnte,
brauchte es nun Software als Übersetzungsprogramme, über die Bilddateien im
Computer gespeichert, verwaltet, bearbeitet und schließlich auch versandt werden
konnten. Der Durchsetzung digitaler Fototechnologien gingen also weniger Fragen
der Optik als mehr solche der digitalen Hard- und Softwareentwicklung voraus.
Vor diesem Hintergrund stellen sich einige grundlegende Fragen nach der medialen
Spezifik digitaler Bilder, von denen hier einige zentrale genannt seien, welche die
digitalen Praktiken fotografischen Zeigens und Sehens nachhaltig geprägt haben
und weiterhin prägen.
Mit dem Medienwissenschaftler Jens Schröter (2004a, S. 338) lassen sich zunächst
zwei wesentliche Typen digitaler Bilder ausmachen: digitalisierte Bilder, bei denen
Umwelt optisch abgetastet und digital übersetzt wird und simulierte Bilder, die
ausschließlich auf Grundlage eines Computerprogramms erzeugt werden (etwa
für Computerspiele oder den digitalen Spielfilm, s. Kap. 4). In diesem Abschnitt
wird es um den ersten Bildtypus gehen.

▶▶ Lev Manovich (2001, S. 289) unterscheidet daneben zwei grundlegende Di-


mensionen digitaler Bilder, die in einem gewissermaßen paradoxen Verhältnis
zueinanderstehen: die Oberflächenerscheinung bzw. die Ebene der bildlichen
Repräsentation und die zugrundeliegende Ebene des Computerkodes.

Die bildliche Repräsentation digitaler Fotografien zeichnet sich durch hohen Fo-
torealismus und ikonische Abbildhaftigkeit aus, die sich dem menschlichen Auge
sofort erschließt und vertraute Bildkodes bedient. Die Ebene des binären Compu-
terkodes und die Algorithmen der Bildprogramme jedoch sind abstrakt, opak und
für das Gros der Nutzer nicht greifbar, sondern nur über bedienungsfreundliche
Interfaces (s. o.) steuerbar. Mehr noch als in der analogen Fotografie also steht die
sinnlich konkrete Präsenz abgebildeter Wirklichkeit im Bild (Repräsentations-Ebe-
ne) im Kontrast zu einer nun mit abstrakten Zahlencodes operierenden Technik
der Aufnahme, Speicherung und Bearbeitung von Bildern (Kode-Ebene). Hieraus
ergeben sich einige grundlegende mediale Aspekte digitaler Bilder.
Im Vergleich zur analogen Fotografie lässt sich für digitale Bilder eine wesent-
liche Verschiebung des dokumentarischen Charakters technischer Bilder feststel-
len. Bei der analogen Fotografie hinterlässt der aufgenommene Moment über den
physikalisch-chemischen Prozess der Lichtumwandlung materielle Spuren im
Bild, die das Verhältnis von Bild und Gegenstand nach Peirce (1991, s. o.) in einen
indexikalischen und somit kausalen Zusammenhang bringen. Bei der digitalen
3.5 Digitale Medien fotografischen Zeigens und Sehens 165

Fotografie hingegen werden die vom Kameraobjektiv aufgenommenen optischen


Informationen über lichtempfindliche Sensoren in den digitalen Zahlencode über-
tragen, welcher der Universalkode aller Computer-Übersetzungen ist – egal, ob es
sich um sprachliche, visuelle oder audiovisuelle Informationen handelt (s. Kap.
2). Die Informationen des Objektivs werden dabei über einen lichtempfindlichen
Sensor in ein zahlenbasiertes Rasterbild aus Punkten bzw. Pixeln transferiert. In
einem weiteren Übersetzungsprozess werden die Pixel in konkrete Bildelemente
übertragen, so dass die optischen Informationen des Objektivs als ‚Bild‘ dargestellt
werden. Im Unterschied zur analogen Fotografie werden die optischen Informatio-
nen zudem algorithmisch – je nach Programm – mehrfach über digitale Speicher-,
Verarbeitungs- und Darstellungsprozesse vermittelt.
In all diesen Übersetzungsprozessen der digitalen Fotografie finden zwar auch
externe visuelle Informationen Eingang in das Bild (vgl. Schröter 2004a; 2004b,
Flückiger 2008). Es steht aber nur noch in einem indirekten Verhältnis zur ab-
gebildeten Situation, da diese keine unmittelbar physikalischen Spuren mehr im
Fotomaterial hinterlässt. Vor diesem Hintergrund wurde die digitale Fotografie
lange als ‚referenzlos‘ und artifiziell betrachtet, ohne direkten Bezug zur abgebil-
deten Wirklichkeit (vgl. Engell/Neitzel 2004, Schröter 2004a; 2004b). Dem sei mit
Schröter widersprochen, der präzisiert:

„Der entscheidende Unterschied zwischen den digital gespeicherten und den analog
elektromagnetisch oder analog foto-chemisch gespeicherten Daten liegt […] nicht im
Weltbezug, sondern in der mathematischen Form der digitalen Daten“ (2004a, S. 346).

Mit der Übertragung physikalischer in mathematische Daten führt die digitale


Fotografie gleichwohl eine historische Entwicklung weiter, die der Medienphilo-
soph Vilém Flusser (1985) bereits mit dem Aufkommen der analogen Fotografie
für technische Bilder beobachtet hat: eine weitgehende Entmaterialisierung des
Bildes durch die Übertragung in einen abstrakten Kode. In dieser Hinsicht steht
das digitale Bild am vorläufigen Endpunkt des „Universums technischer Bilder“
(Flusser 1985). Die technischen Prinzipien der Bilderzeugung haben mit dem
Computerkode einen Grad an Abstraktion und Technizität erreicht, der von den
meisten Anwendern der Apparate weder sinnlich noch kognitiv erfasst werden
kann (s. o.). Das bedeutet, dass der Gestaltungs- und Ausdrucksrahmen für die
Anwender technisch und industriell gesetzt ist.
Damit kommen wir zur Ebene der Repräsentation, die dieser Entsinnlichung
der Bildtechnologie entgegensteht: Auf der phänomenalen Seite der Bildbetrach-
tung stellen digitale Fotografien die abgebildete Wirklichkeit in gewohnt präzisem
– inzwischen sogar optimiertem – Fotorealismus ab. In der langen Tradition mi-

165
166 3 Medien des Zeigens und Sehens

metischer Bilder zeigen sie dem Auge der Betrachter sinnlich konkrete Ansichten,
wobei die Bildtechnik selbst sich unsichtbar macht. Die Idee des Bildes als ‚Fenster
zur Wirklichkeit‘, die Alberti bereits in der Frühen Neuzeit formuliert hatte (s. o.),
wird nun mit Mitteln digitaler Bildtechniken erfolgreich fortgesetzt. So lässt sich
mit der Filmwissenschaftlerin Barbara Flückiger, die Manovichs Unterscheidung
aufgreift, treffend resümieren:

„Durch die Oberflächeneigenschaften, nämlich eine analoge Erscheinungsweise


als Bild, ist es [das digitale Bild, KF] Teil einer allgemeinen Bildtradition. Mit dem
zugrundeliegenden Kode stehen ihm alle Möglichkeiten digitaler Bildbearbeitung
offen, und gleichzeitig wird das Bild Teil eines digitalen Ökosystems“ (2008, S. 40).

Genauere Besonderheiten dieses Systems und der Entwicklung digitaler Kulturtech-


niken fotografischen Zeigens und Sehens lassen sich nur mit Blick auf die Genese
neuer fotografischer Bildpraktiken genauer erklären. Wie schon in den früheren
Ausführungen zu digitalen Kulturen des Sprechens und Hörens (Kap. 1) sowie
des Schreibens und Lesens (Kap. 2) gilt auch hier, dass sich im Zusammenwirken
von digitaler Computertechnologie und Internet neue mediale Dispositive und
Konstellationen entwickelten, in denen sich vormals distinkte Grenzen zwischen
Einzelmedien, sowie zwischen den Sphären privater und öffentlicher Kommunika-
tion verschieben und teilweise auflösen. Mit Blick auf die Produktion, Speicherung,
Bearbeitung und Verbreitung fotografischer Bilder ist besonders die Vermischung
des Zeigens und Sehens in öffentlicher und privater Sphäre relevant. Dies soll im
folgenden Überblick gezeigt werden.

3.5.2 Digitale Medien des Zeigens und Sehens

Im Abschnitt 3.4 hatten wir bereits gesehen, dass die Fotografie einen grundlegen-
den sozialen Wandel in der Bildkultur eröffnet hat: die Aufhebung des vormals
herrschaftlichen Privilegs bildlicher Selbstdarstellung. Schon in ihren frühen An-
fängen wurde sie als ein genuin bürgerliches Medium emanzipativ beansprucht und
ermöglichte bald jedem, sein soziales Selbst ‚ins Bild zu setzen‘. Es hatte sich eine
eigene Bildkultur der privaten Fotografie und der Selbstdokumentation entwickelt,
die durchzogen war von eigenständigen Ritualen (z. B. Familienfotografie) und
Bildkodes. Als sich ab den 1990er-Jahren die Digitalkameras auf dem breiten Markt
durchzusetzen begannen, erhielt diese Kultur eine neue emanzipative Dynamik.
Eine wesentliche Voraussetzung für die Veränderungen war die Erfahrung,
dass Bilder auf einmal quantitativ und qualitativ beliebig produzierbar, speicher-
bar und bearbeitbar wurden. Nachdem man sich an die neuen Medientechniken
3.5 Digitale Medien fotografischen Zeigens und Sehens 167

der Computer-Interface-Bedienung gewöhnt hatte, die die Alltagskultur seit den


1990er-Jahren immer weitreichender prägte (Kap. 2), entwickelte sich mit der
digitalen Fotografie ein Bereich, in dem sowohl eigene als auch die Bilder anderer
auf neuartige Weise zugänglich wurden. Die stetig wachsenden Speicherplätze der
privaten Computer, erweitert um Bildplattformen im Internet wie MySpace (ab
2003) oder Instagram (seit 2010), schufen ein endlos scheinendes Bildarchiv, das den
vormals hürdenreichen Zugang zu privaten und öffentlichen Bildern entscheidend
erleichterte. In Verbindung mit der Erfahrung einfacher Bearbeitbarkeit digitaler
Bilder entstand ein neues Bildverständnis, nach dem Bilder ganz grundsätzlich
– wie es Wolfgang Ullrich bereits 1997 postulierte – als flexible und temporäre
Konstrukte wahrgenommen werden, deren Erscheinung und Bedeutung potentiell
endlos wandelbar ist. Bezeichnend für dieses Verständnis sind Bildpraktiken, die
vorgefundene Bilder aus den digitalen Speichern aufgreifen, verändern und re-kon-
textualisieren. Seit den 2010er-Jahren gilt dies etwa für die populäre Meme-Praxis
(vgl. Shifman 2013). Hierbei werden vorgefundene Fotografien aus den Massen-
medien und dem Internet in Zusammenhang mit einem aktuellen Thema – oft
auch eines Skandals oder Empörungsdiskurses – über die sozialen Online-Medien
verbreitet. Dabei wird das Foto von verschiedenen Nutzern immer wieder neu
bearbeitet (z. B. durch Montagen) und kommentiert. Prominentes Beispiel ist das
Foto einer grimmig schauen Katze, das unter dem Namen „Grumpy Cat“ seit 2012
in unterschiedlichen Versionen durchs Internet wandert, zuletzt mit dem Gesicht
des US-Präsidenten Donald Trump (auch unter dem Slogan „Trumpy Cat“ oder
„Donald Grump“). Durch immer neue Bearbeitungen und Kontextualisierungen
wird ein Bild somit zum Gegenstand eines performativen, kollektiven Bild-Aktes
und schafft Gemeinsamkeit zwischen den Nutzern.
Daneben lässt sich im Bereich der Amateurfotografie mit Aufkommen von Bild-
plattformen wie Flickr und Instagram die Tendenz beobachten, dass der Umgang
mit den Bildbearbeitungsprogrammen als Ausdruck fotografischer Kompetenz
bewertet wird. Fotoamateure, die traditioneller Weise kreative und künstlerische
Ansprüche an ihre eigene Fotografie stellen (Regener 2009), betrachten häufig nicht
die Aufnahme als Endprodukt ihres Schaffens, sondern das digital bearbeitete Bild.
Der kreative Einsatz von speziellen Bildprogrammen und digitalen Filtern wird
dabei zum Ausdruck fotografischer Könnerschaft. Dazu gehören auch solche, die
die analoge Bildlichkeit in ihrer eingeschränkten und vergänglichen Materialität
simulieren: Alterungsspuren wie verblichene Farben und Materialrisse, defizitäre
Aufnahmequalitäten wie Unterbelichtungen, Verzerrungen zum Bildrand bzw. Vig-
nettierungen und Grobkörnigkeit werden mit speziellen Programmen nachträglich
auf das ursprünglich perfekt berechnete digitale Bild übertragen und verleihen ihm
eine Aura von Historizität, welche auf die dargestellten Personen, Orte und Objekte

167
168 3 Medien des Zeigens und Sehens

ausstrahlen soll. Mit dem Aufkommen von speziellen Online-Foto-Plattformen


haben Amateurfotografen ein öffentliches Forum, in dem ihre Bilder auch breitere
Aufmerksamkeit erzielen können – sei es durch Weiterleiten und Teilen innerhalb
der sozialen Online-Medien, oder auch durch den Zugriff der Massenmedien (s. u.).
In anderen privaten Bildpraktiken verbindet sich die Re-Inszenierung digitaler
Fotos mit dem Anspruch auf Authentizität. Dies gilt besonders für Selbstporträts,
die als Profilbilder auf Sozialen Online-Portalen wie Facebook als visuelles Aus-
hängeschild eines Nutzers dienen. Als semi-öffentliche Bilder nehmen sie eine
prominente Rolle in der Selbstdarstellung ein, weshalb sie die Balance zwischen
idealisierendem und dokumentierendem Selbstbild finden müssen. Daneben nimmt
seit der Einführung von fotofähigen Smartphones (2007) (Kap. 1) die Dokumentation
des eigenen Alltags eine neuartige Bedeutung ein. Wurden früher ausgewählte und
besondere Ereignisse des Alltags (Familienfeiern, Reisen, etc.) in stark ritualisierter
Weise dokumentiert, und waren nur einem engeren Familien- und Freundeskreis
zugänglich, so hat hier ein radikaler Wandel stattgefunden: Eingebunden in neue
Praktiken und Rituale der Online-Kommunikation nimmt die fotografische Do-
kumentation des Alltags neuartige soziale Funktionen ein.
Im Anschluss an die Forschung des Kommunikationswissenschaftlers Jan
Hinrik Schmidt (2009) zu sozialen Online-Medien lassen sich v. a. zwei wesentliche
Funktionen dieser Bildpraktiken ausmachen:

▶▶ Der Einsatz digitaler Fotografien des eigenen Selbst auf Profilseiten u. ä. er-
möglicht das gezielte „Zugänglichmachen von Aspekten der eigenen Person“
(Identitätsmanagement) (2009, S. 71), während das Weiterleiten von Fotos aus dem
eigenen Alltag „der Pflege bestehender und dem Knüpfen neuer Beziehungen“
(Beziehungsmanagement) dient (ebd.).

Hatte Fotografie von Anfang an eine hervorgehobene Bedeutung für die soziale
Selbst- und Fremdwahrnehmung (s. o.), so ist diese Funktion nun an einen vorläu-
figen Höhepunkt gelangt, wenn potentiell jeder Moment des Alltags mit anderen
fotografisch geteilt werden kann. Die Ästhetik der Beiläufigkeit und Spontaneität
dieser Bilder (etwa schiefe Rahmung, unausgewogene Komposition, Verwischun-
gen) sowie der Realitätsgehalt des abgebildeten Alltagsmomentes stehen dabei
weiterhin im Zeichen des tradierten fotografischen Authentizitätskodes (s. 2.4).
Im privaten Bildgebrauch des kollektiven Teilens solcher Alltagsfotos drückt sich
damit das Bedürfnis aus, Gemeinschaft über das Teilen ‚echter‘ Bilder des Selbst
herzustellen und aufrecht zu erhalten. Hierbei treten ganzkörperliche Posen und
Gesten als einer primären Form zwischenmenschlicher Kommunikation erneut in
den Vordergrund fotografischer Praktiken des Zeigens und Sehens.
3.5 Digitale Medien fotografischen Zeigens und Sehens 169

Mit diesen Bildpraktiken haben sich die Grenzen zwischen privater und öffent-
licher Sphäre unter dem Einfluss von Computertechnologie und Internet verscho-
ben. Vormals rein ‚private‘ Bilder geraten seitdem in die öffentlichen Sphären des
Internet und können von da aus auch massenmediale Aufmerksamkeit erzielen.
Dies hatte auch nachhaltige Folgen für den Fotojournalismus.
Zwei wesentliche Voraussetzungen für fotografische Bildpraktiken im öffentlichen
Bereich, die sich mit Digitalisierung und Internet verändert hat, wurden bereits
angesprochen: die globale Ausweitung des Bilderangebots in den fotografischen
Online-Archiven und ihre einfache Zugänglichkeit. Dies veränderte nicht nur
die privaten Bildpraktiken, sondern auch im professionell öffentlichen Bereich
des Journalismus die Strukturen von Angebot und Nachfrage an fotografischen
Bildern (vgl. Grittmann 2008). In erster Linie betraf es die Pressefotografen selbst.
Bis in die 1980er-Jahre galten Nachrichten- und Bildagenturen wie AP (Associ-
ated Press) oder NPPA (National Press Photographers Association) als zentrale
Schnittstellen zwischen den Fotografen, den Presseverlagen und Redaktionen (vgl.
Vowinckel 2016). Sie kauften die Bilder von Fotografen und boten sie Redaktionen
an. Foto-Agenturen wie Magnum hatten zudem fest angestellte Fotografen, die
exklusiv für sie arbeiteten und deren Renommee hohen Marktwert sowohl für die
Agenturen als auch die Presseverlage hatte s. o.). Diese Infrastruktur änderte sich
entscheidend mit dem Aufkommen digitaler Bildplattformen und der massiven
Ausweitung von Online-Agenturen, die Fotografien für unterschiedliche öffentliche
(Journalismus, PR, Werbung, Mode etc.) und private Zwecke anbieten (vgl. Bül-
lesbach 2008). Damit verloren die auf professionellen Journalismus spezialisierten
Agenturen ihre privilegierte Stellung auf dem Markt der Bildangebote, wovon
seitdem die Verlage ökonomisch profitieren, die zunehmend auf günstige, aber auch
nicht-professionelle Bilder von Amateuren zurückgreifen, die im Internet angebo-
ten werden (s. o.). Diese Tendenz spitzte sich weiter zu, als unter dem Einfluss der
Mobilfotografie sogenannte Handy-Fotos von Lesern eine besondere Attraktivität
für die Redaktionen bekamen. Auf diese Weise können sie Augenzeugenbilder
liefern, etwa von aktuellen Katastrophenorten, denen aufgrund ihres beiläufigen
und unprofessionellen Charakters eine besondere Authentizität zugeschrieben wird.
Unter dem Stichwort Leserjournalismus wurde dieser Trend von Zeitungen wie Bild
oder dem Magazin Stern zum Programm erhoben, die gezielt Leser aufforderten,
für ein geringes Honorar eigene Aufnahmen einzureichen, die in die Print- und
Online-Ausgaben (z. B. augenzeugen.de) integriert wurden.
Für die Bildpraktiken und Bildprogramme (Kodes, Regeln und Zeichen) des
professionellen Fotojournalismus wirkten sich diese Veränderungen bis heute aus.
So ist mit den Verschiebungen zwischen privaten und öffentlichen Bildpraktiken
und der massiven Ausweitung der Konkurrenz das Kernverständnis dessen ins

169
170 3 Medien des Zeigens und Sehens

Wanken geraten, was Pressefotografie zu leisten hat. Bezeichnend hierfür ist ein
allgemeiner Wandel vom dokumentarischen zum symbolischen Bildgebrauch im
Fotojournalismus (vgl. Büllesbach 2008). Hieran sind alle traditionellen Akteure,
die Fotografen, Agenturen und die Bildredaktionen beteiligt. Mit wachsender
Online-Konkurrenz weiten die Fotoagenturen ihr Angebot auf andere Bereiche
wie Werbung, PR und Amateurbilder aus und bieten ein breites Spektrum an
symbolhaltigen Archivbildern (auch: Stock-Photography) an, die in unterschied-
lichen Bereichen eingesetzt werden können. Sie umfassen gesellschaftliche, poli-
tische, wirtschaftliche und kulturelle Themen und lassen sich entsprechend breit
einsetzen, was ihren Ankauf besonders effizient macht. Aus diesem Grund lässt
sich auch bei den Redaktionen beobachten, dass sie seltener Fotojournalisten zur
Dokumentation eines Ereignisses beauftragen, sondern Archivbilder zur Illust-
ration einsetzen, die keinen dokumentarischen, sondern einen mehr allgemein
symbolischen Zusammenhang zum Ereignis haben. Dieser Tendenz haben sich aus
pragmatischen Gründen längst auch die Pressefotografen angepasst, die ihrerseits
eine Auswahl an symbolischen Archivbildern anbieten. Auf diese Weise hat sich
der Kernbereich fotojournalistischer Bildpraktiken, die Dokumentation politischer,
kultureller, gesellschaftlicher und wirtschaftlicher Ereignisse und Prozesse an den
Rändern aufgelöst.
Neben der Veränderung von Rahmenbedingungen und Infrastrukturen jour-
nalistischer Bildpraktiken, trug die Medialität des digitalen Fotos (s. o.) zu einer
bis heute anhaltenden Reflektion über das Selbstverständnis und die Aufgaben des
Fotojournalismus im digitalen Medienzeitalter bei. Im Mittelpunkt stehen dabei
Fragen nach der Wahrnehmung und Ästhetik des digitalen Fotos, die die Neubestim-
mung von Authentizität und Glaubwürdigkeit betreffen. So war mit Durchsetzung
digitaler Medientechniken rasch offenkundig, dass die Dokumentarizität des foto-
grafischen Bildes, welche die Grundlage fotojournalistischen Selbstverständnisses
ausmacht, nun ins Wanken gerät (Büllesbach 2008), und sich digitale Pressefotos
einem allgemeinen Manipulationsverdacht ausgesetzt sehen. Im Mittelpunkt dieser
Auseinandersetzung, die seit den 1980er-Jahren von Journalisten, Fotografen und
Medienwissenschaftlern geführt wird, steht die Frage nach der Grenze zwischen
illegitimer Bildmanipulation und legitimer Bildbearbeitung. Diese Frage wird bis
heute an wiederkehrenden Anlässen sogenannter Bildfälschungen verhandelt, die
besonders dann skandalisiert werden, wenn sie Medien mit hohem journalistischen
Ansehen nachzuweisen sind. Der erste Skandal dieser Art fand bereits zu Beginn
der Ära des digitalen Fotojournalismus statt. Im Jahr 1982 veröffentlichte das re-
nommierte US-amerikanische Magazin National Geographic auf seiner Titelseite
ein Foto der Pyramiden von Gizeh, das man mit Photoshop in der Breite verengt
hatte, so dass die Pyramiden visuell weit näher aneinanderrückten, als dies reell
3.5 Digitale Medien fotografischen Zeigens und Sehens 171

der Fall ist. Der im Vergleich zu anderen ‚Fälschungen‘ relativ harmlose Eingriff
löste einen Sturm der Empörung aus, der das Magazin nachhaltig in seinem Ruf
schädigte. Ähnlich erging es im Jahr 1994 dem Times Magazine, als es auf seinem
Cover das Foto des schwarzen American-Football-Spielers O. J. Simpson nach
seiner Verurteilung wegen Mordes an seiner Frau in nachgedunkelter Hautfarbe
zeigte, was ihm in den Augen vieler Betrachter ein dämonisches Aussehen verlieh.
Mit der globalen Aufmerksamkeit, die derartige Skandale durch das Internet
heute erfahren, hat der Fotojournalismus mit einem generell wachsenden Misstrau-
en des Publikums und dem Schwinden von Glaubwürdigkeit als journalistischer
Kernressource zu kämpfen. Daher bemühen sich die beteiligten Akteure seit den
1990er-Jahren, allgemeingültige Standards im Einsatz und der Kennzeichnung
von Bildmanipulationen und Bildbearbeitungen durchzusetzen. Im Jahr 1997
etwa hat der deutsche Fotografenverband Leitlinien in seinem „Memorandum zur
Kennzeichnungspflicht manipulierter Fotos“ formuliert:

„Als manipuliert ist ein Bild zu kennzeichnen, wenn Personen oder Gegenstände
hinzugefügt bzw. entfernt werden, wenn verschiedene Bildelemente oder Bilder zu
einem neuen Bild zusammengefügt werden, und wenn maßstäbliche und farbliche,
inhaltsbezogene Veränderungen vorgenommen werden. Erlaubt sind demgegenüber
Formen der Bildbearbeitung, die traditionell in der Dunkelkammer durchgeführt
wurden, wie die Steuerung von Helligkeit, Kontrast, Farbe, oder Bildbeschnitt.“
(Büllesbach 2008, S. 114)

Auch einzelne Verlage, Redaktionen und Agenturen haben ihre internen Bestimmun-
gen zum Umgang mit Bildmanipulationen in diesem Sinne verschärft. Allerdings
erweist sich die konkrete Umsetzung gerade angesichts der zuvor geschilderten
Neukonfiguration fotojournalistischer Praktiken, bei der zunehmend die Fotos
von Amateuren eingebunden werden, die sich außerhalb journalistischer Kodes
bewegen, als schwierig. Auch die Aufweichung der Kernbestimmung journalis-
tischer Bilder mit der Tendenz vom dokumentarischen zum symbolischen (und
damit auch: inszenierten) Gebrauch, erschwert eine strenge Orientierung an den
aufgestellten Leitlinien. Dem gegenüber erfahren journalistisch und ästhetisch
hochwertige Pressefotos, welche die Standards der journalistischen Beglaubigung
einhalten, seit den 2010er-Jahren auch eine allgemeine Aufwertung. Ausdruck
hierfür sind etwa die bereits erwähnten Ausstellungen prämierter Pressefotos (wie
World Press Award), in denen sie großformatig und im Bildkontext kompletter
Reportagereihen gezeigt werden. Antizyklisch zur weitreichenden Zugänglichkeit
zu Bildern aller Art werden also ausgerechnet Reportagebilder an ausgewählten
Ausstellungsorten gezeigt, zu denen sich die Betrachter hinbegeben müssen, um
sie, ähnlich wie Kunstwerke, in konzentriert zu betrachten. Was Benjamin (1969)

171
172 3 Medien des Zeigens und Sehens

einst für die auratischen Bilder traditioneller Kunst beobachtet hatte, kommt
gewissermaßen nun auch für diese Fotos zum Tragen: das Wiederherstellen von
Distanz zwischen Betrachter und Bild.

▶▶ Prägend für digitale Medien des Zeigens und Sehens sind gleichwohl andere
Aspekte, die hier noch einmal kurz resümiert seien: Einerseits die im analogen
Zeitalter bereits angelegte und nun weiter geführte Ent-Körperlichung des
bildbasierten Zeigens, da die Prozesse der Bilderzeugung mit dem Computer
auf der Kode-Ebene noch abstrakter und für die meisten undurchdringlicher
geworden sind. Diese Tendenz wird andererseits teilweise ausgeglichen durch
die der Computertechnologie eigene Ausrichtung an menschlichem Denken
und Wahrnehmen (Kap. 2) und die fotorealistische Repräsentation.

Dies schlägt sich in der fortlaufenden Optimierung des digitalen Fotorealismus


nieder, der auch materiale Qualitäten analoger Bilder simuliert. Die Differenz
digitaler und analoger Fotografien wurde damit in der Wahrnehmung der Betrach-
ter weitgehend zum Verschwinden gebracht. Die für mimetische Bilder typische
visuell-mimetische Präsenz des Gezeigten wird also fortgeführt und sogar noch
verbessert. Für das damit verbundene Authentizitätsversprechen fotografischer
Bilder implizieren die optimierten Möglichkeiten der Bildbearbeitung einerseits eine
höhere Täuschungsmöglichkeit des Auges, andererseits aber auch ein gestiegenes
kulturelles Bewusstsein gegenüber der Konstruktivität von Bildern (Ullrich 1997).
Gleichwohl zeigen gerade die alltagskulturellen Bildpraktiken der Selbstdarstellung,
dass über die Abbildung des eigenen Körpers der Geste als primärem Körper-
medium ein erhöhter Stellenwert zur kommunikativen Beglaubigung zukommt.
Dies wird verstärkt durch die omnipräsente Verwendung digitaler Fotografien
im Alltag. Vor allem mit der Integration ins Mobiltelefon wurde die Fototechnik
(s. o.) zu einer jederzeit einsetzbaren Apparatur, die am Körper getragen wird, und
sämtliche Momente des Alltags spontan im Bild ‚zeigbar‘ macht. In multimodaler
Verbindung von Bildern mit Textnachrichten oder Telefonaten werden die Fotos
in Prozesse zwischenmenschlicher Interaktion eingebunden, die sich wieder der
ganzkörperlichen Kommunikation annähern. Aber auch jenseits dieser unmittelbar
sozialen Bildpraktiken trägt die interaktive und netzbasierte Computertechnologie
dazu bei, dass fotografische Bilder als „temporäre Bilder“ (Ullrich 1997) mehr als je
zuvor Gegenstand kommunikativer Prozesse sind. Die Bearbeitung, Verbreitung,
Kommentierung und Kontextualisierung von Fotos bezieht dabei häufig das Spre-
chen, Schreiben, Hören und Greifen (Touchscreen) mit ein.
Wiederholungsfragen 173

Wiederholungsfragen
Wiederholungsfragen
1. Welche mimetischen Bildpraktiken haben sich in der Antike ausgebildet und
warum nahm der menschliche Körper hierbei in mehrfacher Hinsicht eine
zentrale Rolle ein?
[Idealisierend realistische Abbildung des menschlichen Körpers in Statuen und Bild-
nissen, etwa Totenstatuen und Heldenstatuen; menschlicher Körper als Bildmotiv
und körper- und wahrnehmungsorientierte Wirkungsabsichten der Gestaltung]
2. Wie wurde göttliche Präsenz in den transzendental-religiösen Bildern des Mit-
telalters evoziert und welche Praktiken waren damit verbunden?
[religiöse Ikonen als ‚technische Bilder‘ folgen Prinzip des Körperabdruckes oder
rein symbolisch tradierten Bildkodes, Maler tritt als ‚Medium‘ hinter den Bildkode
zurück; Ikonen werden als ‚heilige Gegenstände‘ angebetet]
3. Wie hat die naturwissenschaftliche Erkundung menschlicher Sinne in der Frühen
Neuzeit die Technisierung des Zeigens und Sehens über Bilder verändert und
welche unterschiedlichen Medientechniken entstanden hierbei?
[Entdeckung des optisch-physikalischen Camera-Obscura-Effektes und weitere
Gesetze der Optik werden zu Grundlagen mimetischer Abbildtechniken; Bild als
Medium der analytischen Erkenntnis; apparative Techniken der Bilderzeugung
(Camera Obscura-Apparate) und der Bildbetrachtung (Laterna Magica)]
4. Wie hat sich die Wahrnehmung von Bildern durch das Aufkommen der Foto-
grafie geändert und welche Folgen hatte dies für die Medien und Praktiken des
Zeigens und Sehens im künstlerischen, privaten und journalistischen Bereich?
[foto-chemische Darstellung impliziert Idee der Fotografie als ‚Stift der Natur‘
(Talbott); moderne dokumentarische Bildauffassung, die mit neuen Praktiken
des Zeigens einhergeht (journalistische Fotografie, private Selbstbildnisse, im-
pressionistische Kunstfotografie)]
5. Welche Folgen hatte die Digitalisierung der Fotografie für die Wahrnehmung
der Bilder und wie haben sich private und öffentliche Praktiken des Zeigens
und Sehens seitdem verändert?
[Auf Repräsentationsebene wird Fotorealismus optimiert; aufgrund der opaken
Kode-Ebene entsteht allgemeiner Misstrauensverdacht gegenüber digitalen Bil-
dern; Private und öffentliche Praktiken des Zeigens und Sehens vermischen sich]

173
174 3 Medien des Zeigens und Sehens

Literaturempfehlungen

Benjamin, Walter. 1969. Das Kunstwerk im Zeitalter seiner technischen Repro-


duzierbarkeit. Drei Studien zur Kunstsoziologie. Frankfurt a. M.: Suhrkamp.
Das Buch ist ein Grundlagenwerk der Medientheorie, in dem Walter Benjamin die
kulturellen und wahrnehmungsästhetischen Folgen des Medienwandels betrachtet,
der mit dem Aufkommen der Fotografie um 1900 stattgefunden hat.

Hans Belting. 1991. Bild und Kult. Eine Geschichte des Bildes vor dem Zeitalter
der Kunst. München: Beck. Bei dem Buch handelt es sich um ein Standardwerk der
Bildgeschichte, in dem der Kunsthistoriker Hans Belting kultische und transzen-
dental-religiöse Bilder und ihre Funktionen in der ausgehenden Antike und im
Mittelalter untersucht.

Michel Frizot (Hrsg.). 1998. Neue Geschichte der Fotografie. Köln: Könemann.
Der Sammelband bietet einen umfassenden und mit sorgfältig ausgewähltem Bild-
material versehenen Einblick in die historische Genese unterschiedlicher Bereiche
der Fotografie, etwa künstlerischer Fotografie, Presse-, Werbe- und Modefotografie.

Ulrike Hick. 1999. Geschichte optischer Medien. München: Fink. Auf Grundlage
eines umfassenden historischen Quellenkorpus bietet Ulrike Hick einen detail-
lierten Einblick in die Ideen- und Technikgeschichte optischer Medien von der
Zentralperspektive der Renaissance bis zur Erfindung des Kinematografen im 19. Jh.

Jens Schröter/Alexander Böhnke (Hrsg.). 2004. Analog/Digital – Opposition


oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung. Bielefeld:
transcript. Verlag: Der Sammelband präsentiert einschlägige Forschung zur
theoretischen Reflektion des Digitalen im Verhältnis zum Analogen, sowie zur
historischen Genese digitaler Medien und ihren technischen, ästhetischen und
medienkulturellen Implikationen.

Literatur
Literatur
Albert, Pierre/Feyel, Gilles. 1998. Fotografie und Medien. Die Veränderungen der illustrierten
Presse. In Neue Geschichte der Fotografie, hrsg. v. Michel Frizot. 358–369. Köln: Könemann.
Literatur 175

Alberti, Leon Battista. 1435/2000. Das Standbild. Die Malkunst. Grundlagen der Malerei,
hrsg., eingel. u. übers. v. Oskar Bätschmann u. Christoph Schäublin. Darmstadt: WBG.
Amelunxen, Hubertus v. 1996. Fotografie nach der Fotografie. München: Verlag der Kunst.
Amelunxen, Hubertus v. 1998. Das Memorial des Jahrhunderts. Fotografie u. Ereignis. In
Neue Geschichte der Fotografie, hrsg. v. Michel Frizot. 131–147. Köln: Könemann.
Aristoteles. 1982. Poetik, übers. u. hrsg. v. Manfred Fuhrmann. Stuttgart: Reclam.
Barthes, Roland. 1985. Die Helle Kammer. Bemerkungen zur Fotografie. Frankfurt a. M.:
Suhrkamp.
Barthes, Roland. 1990. Die Fotografie als Botschaft. In Der entgegenkommende und der
stumpfe Sinn. Kritische Essays III. Frankfurt a. M.: Suhrkamp.
Belting, Hans. 1991. Bild und Kult. Eine Geschichte des Bildes vor dem Zeitalter der Kunst.
München: Beck.
Belting, Hans. 2001. Bild-Anthropologie. Entwürfe für eine Bildwissenschaft. München: Fink.
Benjamin, Walter. 1939/1969. Das Kunstwerk im Zeitalter seiner technischen Reproduzier-
barkeit. Drei Studien zur Kunstsoziologie. Frankfurt a. M.: Suhrkamp.
Berns, Jörg Jochen. 2000. Film vor dem Film. Bewegende und bewegliche Bilder als Mittel
der Imaginationssteuerung in Mittelalter und Früher Neuzeit. Marburg: Jonas Verlag.
Bourdieu, Pierre. 1981. Eine illegitime Kunst: Die sozialen Gebrauchsweisen der Photographie.
Frankfurt a. M.: Suhrkamp.
Bruhn, Matthias. 2008. Spannungen, Entladungen. Evolutionen und Revolutionen kollektiven
Sehens. In Modernisierung des Sehens. Sehweisen zwischen Künsten und Medien, hrsg.
v. Matthias Bruhn u. Kai-Uwe Hemken. 11–24. Bielefeld: transcript.
Bruhn, Matthias/Hemken, Kai-Uwe (Hrsg.). 2008. Modernisierung des Sehens. Sehweisen
zwischen Künsten und Medien. Bielefeld: transcript.
Büllesbach, Alfred. 2008. Digitale Bildmanipulation und Ethik. Aktuelle Tendenzen im
Fotojournalismus. In Global, lokal, digital. Fotojournalismus heute, hrsg. v. Elke Gritt-
mann. 108–137. Köln: Herbert von Halem Verlag.
Crary, Jonathan. 1996. Techniken des Betrachters. Sehen und Moderne im 19. Jahrhundert.
Dresden/Basel: Verlag der Kunst.
Crary, Jonathan. 2002. Die Modernisierung des Sehens. In Paradigma Fotografie, hrsg. v.
Herta Wolf. 67–82. Frankfurt a. M.: Suhrkamp.
Durkheim, Émile. 1912/2007. Die elementaren Formen des religiösen Lebens. Frankfurt a. M./
Leipzig: Verlag der Weltreligionen.
Eco, Umberto. 1994. Einführung in die Semiotik. München: Fink
Ekman, Paul. 2003. Emotions Revealed. Understanding Faces and Feelings. London: Phoenix.
Engell, Lorenz/Neitzel, Britta. 2004. Das Gesicht der Welt. Medien in der digitalen Kultur.
München: Fink.
Fahlenbrach, Kathrin. 2013. Medienikonen und Schlüsselbilder der Revolte um 1968. Ein
diachroner Blick auf Akteure und Strukturen der Ikonisierung. In Fotografien im 20.
Jahrhundert, hrsg. v. Annelie Ramsbrock, Annette Vowinckel u. Malte Zierenberg.
102–126. Göttingen: Wallstein.
Fahlenbrach, Kathrin. 2017. Images and Imagery of Protest. In Protest Cultures. A Com-
panion, hrsg. v. Kathrin Fahlenbrach, Martin Klimke u. Joachim Scharloth. 243–258.
Oxford/New York: Berghahn.
Flusser, Vilém. 1985. Ins Universum der technischen Bilder. Göttingen: European Photography.
Flückiger, Barbara. 2008. Visual Effects. Filmbilder aus dem Computer. Marburg: Schüren.
Freund, Gisèle. 1979. Photographie und Gesellschaft. Reinbek bei Hamburg: Rowohlt.

175
176 3 Medien des Zeigens und Sehens

Frizot, Michel. 1998. Riten und Bräuche. Fotografien als Erinnerungsstücke. In Neue Ge-
schichte der Fotografie, hrsg. v. Michael Frizot.746–755. Köln: Könemann.
Frizot, Michel (Hrsg.). 1998. Neue Geschichte der Fotografie. Köln: Könemann.
Gautrand, Jean-Claude. 1998. Spontanes Fotografieren. Schnappschüsse und Momentaufnah-
men. In Neue Geschichte der Fotografie, hrsg. v. Michel Frizot.. 231–241. Köln: Könemann.
Goldstein, Bruce E. 2014. Sensation and Perception. Belmont, C.A.: Wadsworth.
Grittmann, Elke. 2007. Das politische Bild. Fotojournalismus und Pressefotografie in Theorie
und Empirie. Köln: Herbert von Halem Verlag.
Grittmann, Elke (Hrsg.). 2008. Global, lokal, digital. Fotojournalismus heute. Köln: Herbert
von Halem Verlag.
Helmes, Günter/Köster, Werner (Hrsg.). 2002. Texte zur Medientheorie. Stuttgart: Reclam.
Hick, Ulrike. 1999. Geschichte optischer Medien. München: Fink.
Hickethier, Knut. 2003. Einführung in die Medienwissenschaft. Stuttgart: Metzler.
Hockney, David. 2006. Geheimes Wissen: verlorene Techniken der alten Meister. München:
Knesebeck.
Kemp, Wolfgang (Hrsg.). 1999. Theorie der Fotografie. Bd. I. 1839–1912. München: Schirmer/
Mosel.
Kittler, Friedrich. 2002. Optische Medien. Berliner Vorlesung 1999. Berlin: Merve Verlag.
Knape, Joachim (Hrsg.). 2007. Bildrhetorik. Baden-Baden: Koerner.
Kohlrausch, Martin. 2009. Der Mann mit dem Adlerhelm. Wilhelm der II. – Medienstar
um 1900. In Das Jahrhundert der Bilder. Bd. I.: 1900 bis 1949, hrsg. v. Gerhard Paul.
[Seitenzahlen]. Göttingen: Vandenhoeck und Ruprecht.
Leroi-Gourhan, André. 1981. Die Religionen der Vorgeschichte. Paläolithikum. Frankfurt
a. M.: Suhrkamp.
Lewis-Williams, David. 2002. The Mind in the Cave. Consciousness and the Origins of Art.
London: Thames & Hudson.
Ludes, Peter. 1993. Visualisierung als Teilprozess der Modernisierung der Moderne. In
Geschichte des Fernsehens in der Bundesrepublik Deutschland. Bd. 1: Institution, Technik
und Programm. Rahmenaspekte der Programmgeschichte des Fernsehens, hrsg. v. Knut
Hickethier. 353–371. München: Fink.
Manovich, Lev. 2001. The Language of New Media. Cambridge [u. a.]: MIT Press.
Mitchell, William J.T. 1987. Iconology. Image, Text, Ideology. Chicago/London: Univ. of
Chicago Press.
Paivio, Allan. 1978. Imagery and verbal Processes. New York: Lawrence Erlbaum Associates.
Peirce, Charles Sander. 1991. Peirce on Signs: Writings on Semiotic. Chapel Hill: Univ. of
North Carolina Press.
Pross, Harry. 1970. Publizistik: Thesen zu einem Grundcolloquium. Neuwied (u. a.): Lucht-
erhand.
Regener, Susanne. 2009. Medienamateure im digitalen Zeitalter. In Fotogeschichte 29,
H.111: 5–9.
Robben, Bernard. 2006. Der Computer als Medium. Eine transdisziplinäre Theorie. Bielefeld:
Transcript Verlag.
Ruchatz, Jens. 2003. Licht und Wahrheit. Eine Mediumgeschichte der fotografischen Projek-
tion. München: Fink.
Schaber, Irme. 1998. The Falling Soldier. Eine politische Ikone des 20. Jahrhunderts. In Das
Jahrhundert der Bilder. Bd. I.: 1900 bis 1949, hrsg. v. Gerhard Paul. 514–523. Göttingen:
Vandenhoeck und Ruprecht.
Literatur 177

Scheurer, Hans J. 1987. Zur Kultur- und Mediengeschichte der Fotografie: Die Industrialisie-
rung des Blicks. Köln: DuMont.
Schicha, Christian. 2003. Die Inszenierung von Authentizität und Emotionen. Zur Selbst-
darstellung von Politikern auf den Bühnen der Mediendemokratie. In Authentizität
und Inszenierung von Bilderwelten, hrsg. v. Thomas Knieper und Marion Müller. 25–42.
Köln: Halem.
Schmidt, Jan-Hinrik. 2009. Das neue Netz. Merkmale, Praktiken und Folgen des Web 2.0.
Konstanz: UVK.
Schnell, Ralf. 2000. Medienästhetik. Geschichte und Theorie audiovisueller Wahrnehmungs-
formen. Stuttgart (u. a.): Metzler.
Schröter, Jens/Böhnke, Alexander (Hrsg.). 2004. Analog/Digital – Opposition oder Konti-
nuum? Zur Theorie und Geschichte einer Unterscheidung. Bielefeld: transcript Verlag.
Schröter, Jens. 2004a. Das Ende der Welt. Analoge vs. digitale Bilder – mehr und weniger
‚Realität‘? In Analog/Digital – Opposition oder Kontinuum? Zur Theorie und Geschichte
einer Unterscheidung, hrsg. v. Jens Schröter u. Alexander Böhnke. 335–354. Bielefeld:
transcript.
Schröter, Jens. 2004b. Analog/Digital – Opposition oder Kontinuum? In Analog/Digital –
Opposition oder Kontinuum? Zur Theorie und Geschichte einer Unterscheidung, hrsg. v.
Jens Schröter u. Alexander Böhnke. 7–32. Bielefeld: transcript Verlag.
Shifman, Limor. 2013. Memes in a Digital World: Reconciling with a Conceptual Trouble-
maker. In Journal of Computer-Mediated Communication, H.18: 362–377.
Sontag, Susan. 2004. Regarding the Pain of Others. New York: Picador.
Ullrich, Wolfgang (1997). Digitaler Nominalismus. Zum Status der Computerfotografie. In:
Fotogeschichte. Beiträge zur Geschichte und Ästhetik der Fotografie, H. 64, Jg.17: 63–73.
Virilio, Paul. 1992. Bunker-Archäologie. München: Carl Hanser Verlag.
Vowinckel, Annette. 2016. Agenten der Bilder. Fotografisches Handeln im 20. Jahrhundert.
Göttingen: Wallstein Verlag.
Walde, Elisabeth. 2009. Klassik und Gewalt. Der „neue Mensch“ in der griechischen Klassik
des 5. Jahrhunderts. In Bildmagie und Brunnensturz. Visuelle Kommunikation von der
klassischen Antike bis zur aktuellen medialen Kriegsberichterstattung, hrsg. v. Elisabeth
Walde. 18–40. Innsbruck (u. a.): Studien Verlag.
Wolf, Herta (Hrsg.). 2002. Paradigma Fotografie. Frankfurt a. M.: Suhrkamp.

Abbildungsnachweise

Abb. 13: Auge als Camera Obscura, Versuchsanordnung, Renée Descartes (1637)
Abgedruckt in: Jörg Jochen Berns. 2000. Film vor dem Film. Bewegende und bewegliche
Bilder als Mittel der Imaginationssteuerung in Mittelalter und Früher Neuzeit. Marburg:
Jonas Verlag. S. 18.

Abb. 14: Camera Obscura als Bildapparatur (1646)


Illustration einer mobilen Camera Obscura in: Athanasius Kircher. 1646. Ars Magna Lucis
Et Umbra: In Decem Libros Digesta. Rom: Hermann Scheus. S. 931.

177
178 3 Medien des Zeigens und Sehens

Quelle: Wikimedia.org (Zugriff am 10.02.2018)


© CC BY-SA

Abb. 15: Blick aus dem Fenster, Joseph Nicéphore Nièpce (1826)
Retuschierte Reproduktion (1952)
Quelle: Wikimedia.org. (Zugriff am 10.02.2018)
© CC BY-SA

Abb 16: Daguerrotypiekamera: Werbeillustration von 1846


Quelle: http://www.photohistory-sussex.co.uk/dagprocess.htm (Zugriff am 10.02.2018)
© CC BY-SA

Abb. 17: Two Ways of Life, Fotograf: Oskar Gustav Rejländer (1857)
Quelle: Metropolitan Museum of Arts
© CC BY-SA

Abb. 18: Cantley: Wherries Waiting for the Turn of the Tide, Fotograf: Peter Henry
Emerson (1886)
Quelle: Metropolitan Museum of Arts
© CC BY-SA

Abb. 19: Quai d’Orsay, Fotograf: Erich Salomon (1931)


Erich Salomon Archiv, Berlinische Galerie, Landesmuseum für Moderne Kunst, Fotografie
und Architektur
Quelle: https://www.document.no/2017/07/28/quai-dorsay-1931/ (Zugriff am 10.02.2018)
© CC BY-SA

Abb. 20: Valley of the shadow of death, Fotograf: Roger Fenton (1855)
Quelle: Wikipedia.org (Zugriff am 10.02.2018)
© CC BY-SA
Medien der Audiovision
4 Medien der Audiovision
4 Medien Der Audiovision
4

In den bisherigen Kapiteln hatten wir gesehen, dass basale Speichermedien wie Bild
und Schrift in ihren historisch unterschiedlichen medialen Formationen immer
neuen kommunikativen Kulturtechniken Vorschub geleistet haben, bei denen das
direkte und körperlich ganzheitliche Kommunizieren fragmentiert und virtua-
lisiert wird: Es werden nur einzelne Sinne angesprochen und das zeigende bzw.
kommunizierende Gegenüber befindet sich nicht mehr zur selben Zeit am selben
Ort. Wie wir ebenfalls gesehen haben, wurde diese Tendenz mit dem Aufkommen
technisch-apparativer Medien (wie Fotografie, Presse, Rundfunk) einerseits ver-
stärkt. Andererseits entwickelten gerade die apparativen Medien Techniken und
Ausdrucksformen, um die Fragmentierung der Sinne und die physische Abwesen-
heit eines Gegenübers auszugleichen. Im Mittelpunkt standen und stehen dabei bis
heute Strategien sinnlicher Präsenz, die sich menschlicher Wahrnehmungsprin-
zipien bedienen. Die abstrakte Technizität medialer Apparaturen soll dabei durch
intuitive Bedienbarkeit, Verstehbarkeit und sinnliches Präsenzerleben im Akt des
Kommunizierens nivelliert werden.
Vor dem Hintergrund einer solchen Tendenz der kontinuierlichen Annäherung
medientechnischer Apparaturen an die menschlichen Sinne stellte das Aufkommen
audiovisueller Medienapparaturen eine bedeutsame Ausweitung dar. Zwar gibt es
seit der frühen Menschheitsgeschichte primäre, performative Medien, die Auge und
Ohr gleichzeitig ansprechen – wie die öffentliche Rede oder das Theater (s. Kap. 1).
Bis zur Genese technisch-apparativer Medien der Audiovision dauerte es jedoch
bis ins 18. Jh. Angefangen bei Vorführtechniken mit einzelnen Bildern (Laterna
Magica, s. u.), über den Film bis später zu Fernsehen und Video entstanden komplexe
mediale Formationen, die ein Aspekt verbindet: in der Kopplung von Bildern und
Klängen entfalten sie eine zeitliche Dimension, die ihren kommunikativen Akten
generell die Anmutung von ‚Lebendigkeit‘ verleiht – wie wir es bereits für das
Medium der Stimme gesehen haben. Damit adressieren sie eine körperliche und
mentale Grunderfahrung des Menschen, die gerade für die zwischenmenschliche
179
© Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature 2019
K. Fahlenbrach, Medien, Geschichte und Wahrnehmung,
https://doi.org/10.1007/978-3-658-19760-5_5
180 4 Medien der Audiovision

Kommunikation prägend ist: der Rhythmus und die Dauer von Blicken, Gesten
und des Sprechens sind Modi der zwischenmenschlichen affektiven Abstimmung.
Sie bieten Rückschlüsse auf innere Zustände eines Gegenübers und werden als
grundlegender Ausdruck von ‚Lebendigkeit‘ aufgefasst. Die technisch-apparativen
Medien audiovisuellen Kommunizierens greifen diese Grunderfahrung auf, indem
sie Bilder im Bewegungsfluss zeigen und dies mit originären oder technisch integ-
rierten Klängen verbinden. Als elementare Basismedien sämtlicher audiovisueller
Medien werden in diesem Kapitel daher bewegte Klangbilder betrachtet. Ob in
Film, Fernsehen, Video oder Computerspiel – immer sind es bewegte Klangbilder,
die als technisch-, zeichenhaft- und ästhetische Einheiten die Sinne der Betrachter
oder Nutzer adressieren.

Übersicht

Wie dieses Kapitel zeigen wird, stellen sich audiovisuellen Medien dabei drei
zentralen Problemen, auf die sie historisch mit der Ausbildung unterschiedlicher
apparativer Techniken und Ausdrucksformen reagiert haben, und bei denen
jeweils die Adressierung der Betrachtersinne im Mittelpunkt steht:

1. Es brauchte apparative Projektions- oder Ausstrahlungstechniken, die in


einer an der menschlichen Bewegungswahrnehmung orientierten Frequenz
den Eindruck eines ununterbrochenen Bilderflusses evozieren.
2. Es mussten sich ästhetische Ausdruckformen und Konventionen der Bil-
derreihung entwickeln (z. B. in der Montage), wobei unterschiedliche (z. B.
gattungs- und genreabhängige) Zeige- und Wirkungsabsichten (z. B. in
Unterhaltung oder Information) zum Tragen kommen. Wie wir unten sehen
werden, bildeten sich verschiedene Paradigmen aus, welche in ihren Kodes
und Regeln der Bilddramaturgie menschliche Wahrnehmung auf unter-
schiedliche Weise einbeziehen (z. B. Konvention des ‚unsichtbaren Schnitts‘
vs. ‚materiale Montage‘, s. u.).
3. Es mussten sich apparative Techniken und Ausdrucksformen für die Kopplung
von Bildern und Klängen ausbilden. Im Mittelpunkt stehen dabei Grund-
prinzipien der ‚natürlichen‘ audiovisuellen Wahrnehmung. Unser perzeptives
System verarbeitet die visuellen und akustischen Reize der ‚realen Welt‘ und
der medial vermittelten Welt prinzipiell nach denselben Mechanismen, ohne
hierbei Realitätsgrade von Reizen zu unterscheiden (vgl. Anderson 1996). Die
Orientierung am menschlichen Wahrnehmungssystem für die Verbindung
4 Medien Der Audiovision 181

von Bild und Ton stellt daher eine wesentliche Voraussetzung für audiovi-
suelles Illusions- und Präsenzerleben dar.

Wie schon angedeutet, gibt es eine lange Geschichte an audiovisuellen Medien,


die Auge und Ohr zugleich ansprechen. Die unterschiedlichen audiovisuellen
Medien zeichnen sich – ebenso wie die zuvor behandelten – dadurch aus, dass
sie bestehende kommunikative Kulturtechniken aufgreifen, weiterentwickeln
und dabei auch immer wieder neue entstehen lassen. In diesem Sinne stehen
Theater, Laterna Magica, optische Trickmedien, Film, Fernsehen und Compu-
terspiele in einem übergreifenden genealogischen Zusammenhang, auch wenn
sie jeweils spezifischen kommunikativen Kulturtechniken Vorschub geleistet
haben. Aus diesem historischen Grund werden sie hier in einem gemeinsamen
Kapitel dargestellt. Ein weiterer Grund hierfür liegt in der Gegenwart: in den
digitalen Medienkulturen löste sich die Spezifik audiovisueller Einzelmedien
immer mehr auf. So ist der Film etwa längst nicht mehr nur an die Kinoprojektion
gebunden, sondern findet sich in den unterschiedlichsten Medienumgebungen:
auf häuslichen Fernseh- und Computerbildschirmen oder mobilen Geräten wie
Tablets und Smartphones. Darüber hinaus werden filmische Ausdrucksformen
auch in Gattungen und Genres des Internet verwendet, etwa in Netzserien oder in
Amateurvideos auf YouTube. In der digitalen Mediengeschichte erweist sich ein
kategorisches Festhalten an distinkten Einzelmedien daher als undurchführbar.
Der Blick auf die medientechnische und -ästhetische Sinnesadressierung erlaubt
es, sowohl die gegenwärtigen audiovisuellen Formationen zu unterscheiden als
auch die historischen Wechselbeziehungen früherer Medien stärker zu berück-
sichtigen. Ausgehend von einer allgemeinen Skizze audiovisueller Medien, die
diese Perspektive näher umreißt, werden drei wesentliche Gruppen ausgemacht:
audiovisuelle Aufführungsmedien (z. B. Theater), audiovisuelle Projektionsme-
dien (z. B. Film) und audiovisuelle Bildschirmmedien (Fernsehen, Computer).
Die historische Entwicklung von Projektions- und Bildschirmmedien unter
dem Aspekt ihrer Sinnesadressierung wird im folgenden Teilkapitel in drei
großen Abschnitten betrachtet: analoge, elektronische sowie digitale Medien
audiovisuellen Kommunizierens.
Die analogen Medien umfassen Projektionsmedien, bei denen körperlich
ganzheitliche Illusionswirkungen im Vordergrund der technischen, räumlichen
und ästhetischen Sinnesadressierung stehen. Dies gilt besonders für audiovisuelle
Lichtbildshows mit der Laterna Magica sowie für den Film bzw. das Kino, die
im Fokus des Abschnitts stehen. Mit den Bildschirmmedien Fernsehen und
Video, die sich durch interaktive Modi tele-medialer Teilhabe an Öffentlichkeit
auszeichnen, werden im Anschluss elektronische Medien betrachtet. Da sich der

181
182 4 Medien der Audiovision

Film mit der Videotechnologie bereits in Richtung des elektronischen Zeitalters


bewegte und zum Gegenstand interaktiver und individueller Rezeption wurde,
begannen sich schon mit dem Aufkommen elektronischer Technologien die
tradierten Grenzen von Einzelmedien aufzuweichen. Diese Veränderung in
der audiovisuellen Medialität verstärkte sich unter den Bedingungen der Di-
gitalisierung. Der erste Abschnitt zur digitalen Audiovision wird daher durch
Anmerkungen eingeleitet, die die veränderte digitale audiovisuelle Medialität
näher erläutert. Dabei werden folgende Gruppen digitaler audiovisueller Medien
unterschieden und in ihrer historischen Genese skizziert: (1) interaktive Audio-
vision (wie DVD und Computerspiel), (2) tele-interaktive Audiovision (digitales
Fernsehen, Internetfernsehen, Online-Computerspiele) und (3) kinematografische
Audiovision (Kinoprojektionen).

4.1 Zur Medialität bewegter Klangbilder


4.1 Zur Medialität bewegter Klangbilder
Angesichts der Bandbreite audiovisueller Medien wie Theater, Laterna Magica,
Film bzw. Kino, Fernsehen oder Computerspiel scheint es kaum möglich, eine
gemeinsame Medialitätsbestimmung vorzunehmen. Zu unterschiedlich sind ihre
Techniken, Ausrucksformen und Funktionen. Wie angekündigt werden daher in
diesem Abschnitt bewegte Klangbilder als ihre gemeinsamen Basismedien betrachtet.

▶▶ Audiovisuelle Artefakte werden immer aus technisch, zeichenhaft und ästhetisch


gestalteten, bewegten Klangbildern erzeugt, die Bildfolgen, Klänge und Bewe-
gung verbinden. Dabei machen sich die verschiedenen audiovisuellen Medien
die Mechanismen unserer multisensoriellen Wahrnehmung zunutze, die es uns
ermöglichen, die mit den verschiedenen Sinnen gleichzeitig aufgenommen Reize
zu einheitlichen Sinneseindrücken zu verschmelzen.

Das kognitive Streben nach einheitlichen Eindrücken nutzen seit der frühen Kultur-
geschichte das Theater und andere Aufführungsmedien, wenn eine Stimme gelöst
von ihrem Sprecher auf eine fiktive Figur auf der Bühne übertragen wird – wie
beim Marionettentheater und bei Bauchredner-Aufführungen (weshalb auch vom
Bauchredner-Effekt gesprochen wird). Die Betrachter können intuitiv die Stimme
mit dem Körper einer synchron sichtbaren Person oder Figur verbinden. Auch
technisch-apparative Medien nutzen diesen Effekt, etwa bei der Synchronisierung
von Filmen oder im sogenannten Foley-Verfahren (s. u.), in dem die reell erzeug-
4.1 Zur Medialität bewegter Klangbilder 183

ten Geräusche auf fiktive Objekte der Filmwelt übertragen werden. Ein weiterer
zentraler perzeptiver Mechanismus, der für die Ausbildung von technischen und
ästhetischen Konventionen der Bild-Ton-Kopplung in audiovisuellen Medien von
Bedeutung ist, ist die menschliche Fähigkeit zur cross-modalen Vernetzung von
Sinneseindrücken. Wesentliche Gestaltmerkmale von Tönen und Geräuschen (wie
Lautstärke, Rhythmus, Klangfarbe) koordinieren wir reflexhaft mit jenen visueller
Reize (wie Größe, Bewegungsrhythmus, Farbe, Oberflächenbeschaffenheit). Die
audiovisuelle Erscheinung eines Bärs etwa wird dann als audiovisueller (bzw. unter
Berücksichtigung weiterer Eindrücke multisensorieller) Gesamteindruck erlebt:
z. B. ein großes, braunes, felliges Wesen, das sich langsam mit lauten, tiefen und
langsamen Brülltönen bewegt. Diese Grundprinzipien der Wahrnehmung konnten
im Laufe der Geschichte immer differenzierter durch Klangbilder adressiert werden,
um das Präsenz- und Illusionserleben des Gezeigten zu optimieren.

▶▶ Die bewegten Klangbilder audiovisueller Medien weisen allgemein zwei zen-


trale Eigenschaften auf: (1) Die ästhetische, zeichenhafte und z. T. technische
Kopplung von Klang und Bild zu einer audiovisuellen Einheit, die mehr ist als
die Summe ihrer Teile.
(2) Die zeitliche Struktur von Klangbildern, die bedingt ist durch Tempo,
Rhythmus und Dauer der Klänge (Stimme, Musik, Geräusche), der bewegten
Bilder (durch Projektion, Kamerabewegungen, Montage) und der dargestellten
Bewegung in den Bildern, sowie der resultierenden audiovisuellen Zeitlichkeit.

Der audiovisuelle Mehrwert basiert dabei wesentlich auf den assoziativen Kon-
notationen, die im Zusammenspiel von Bild und Ton in der Imagination der
Betrachter evoziert werden und die auf der zuvor geschilderten cross-modalen
Wahrnehmung basieren.
Diese Kerneigenschaften stehen – bis heute – im Mittelpunkt der Entwicklung
unterschiedlicher audiovisueller Medien, ihrer Techniken, Zeichen, gestalterischen
Stile und deren Rezeptionsweisen. Weitere allgemeine Merkmale, Typen und Funk-
tionen von Klangbildern audiovisueller Medien lassen sich in Anlehnung an W.J.T.
Mitchell (1987) vornehmen, dessen Kategorisierung von Bildtypen bereits aufgegrif-
fen wurde (s. Kap. 3). Demnach können grundsätzlich physikalische und mentale
Klangbilder von den materialen Klangbildern unterschieden werden. Physikalische
Klangbilder entstehen in der Wahrnehmung durch audiovisuelle Eindrücke. Dies
umfasst Alltagswahrnehmung ebenso wie Medienwahrnehmung. Mentale bewegte
Klangbilder entstehen in der Vorstellung und Erinnerung. Sie können durch audio-
visuelle Medien gezielt evoziert werden. So bauen die Zuschauer von jenen fiktiven
Orten, die im Verlauf eines Filmes oder einer Fernsehserie schließlich immer nur

183
184 4 Medien der Audiovision

in Fragmenten gezeigt werden, eine mentale Landkarte auf, die auch die ‚Lücken‘
in der Präsentation auffüllt. Die manifesten bewegten Klangbilder sind daneben all
jene, die sich in einem audiovisuellen Artefakt (als Einstellungen, Sequenzen oder
Szenen) materialisieren. Wie zuvor betont, stellen sie die Basis im Kontakt zwischen
einem audiovisuellen Medium und seinem Rezipienten dar. Als solche weisen be-
wegte Klangbilder ein komplexes Gefüge technischer, zeichenhafter, ästhetischer
und funktionaler Eigenschaften auf, die hier in prägenden medienhistorischen
Formationen audiovisueller Medien dargestellt werden sollen.
Dabei lassen sich drei wesentliche Gruppen audiovisueller Medien ausmachen,
die bereits genannt wurden:

1. Aufführungsmedien wie Theater, Oper, Konzert oder Bänkelgesang und Jahr-


marktspektakel
2. Projektionsmedien wie musikalisch begleitetes Schattentheater und Lichtshows
(Laterna Magica), Kino und Film
3. Bildschirmmedien wie Fernsehen, Video und Computerspiel.

Sie alle präsentieren einem Publikum zeitlich strukturierte Abfolgen von audiovisu-
ellen Akten, die durch den gleichzeitigen Einbezug von Auge und Ohr, manchmal
auch weiterer Sinne (z. T. dem Tastsinn) bis heute am weitreichendsten ganzheitliche
Wahrnehmung und Kommunikation ermöglichen. Die Zeitlichkeit von Bewegungen
und Körperhandlungen (auf der Bühne oder im Film) sowie Rhythmus, Tempo und
Dauer der Bilder- und Klangfolgen tragen hierzu entscheidend bei. Es entspricht
unserer alltäglichen Lebenserfahrung, dass Momente in der Zeit vergehen und dass
das Wahrnehmungsfeld unserer Sinne sich bereits mit der eigenen Körperbewegung
fortlaufend verändert. Wie wir festgestellt haben, gelten Stimme und Klänge in den
Medien seit jeher als Ausdruck von ‚Lebendigkeit‘, weil sie als zeitbasierte Phäno-
mene Teil dieser menschlichen Grunderfahrung sind. Schon Telefon, Radio und
andere Audiomedien (Kap. 1) verdanken ihre Prägekraft wesentlich dieser Nähe
zu unserer zeit- und bewegungsbasierten Wahrnehmungserfahrung. Audiovisuelle
Medien erweitern dieses mediale Erlebnisspektrum durch die Verkopplung von
Stimme und Klang mit ganzkörperlichen Performances (Handlungen, Gesten)
und zeitlich strukturierten, bewegten Bildfolgen. Hinzu kommt eine weitere Ge-
meinsamkeit: die genannten audiovisuellen Medien beziehen sämtlich den Raum
ihrer Präsentation und Rezeption mit ein.
In den Aufführungsmedien (z. B. Theater, Konzert) sind die audiovisuellen Akte
auf den Zuschauerraum und seine optisch-auditiven Wahrnehmungsverhältnisse
ausgerichtet. Wir haben gesehen, dass im Theater der Antike die Stimme den Ort
der Vorstellung akustisch erfüllen musste, was architektonisch unterstützt wur-
4.1 Zur Medialität bewegter Klangbilder 185

de. Mit den Projektionsmedien kam ein medienhistorisch neues Paradigma auf.
Angefangen bei der Laterna Magica bis zum Film und Kino werden hier artifiziell
gestaltete Bilderfolgen in den Raum der Vorführung projiziert und in der Regel
mit begleitenden (z. B. Live-Musik) oder technisch integrierten Klängen (z. B. Film-
sound) gekoppelt. Da die Projektion die Bilder vergrößert, dominieren sie optisch
den Vorführraum und füllen das Sichtfeld der Betrachter aus. Die Projektion trägt
aber auch grundlegend zur Verlebendigung (Animation) der Bilder in der Wahrneh-
mung der Betrachter bei. Mit dem Licht als Trägermedium verlieren sie ihre feste
Materialität, werden flüchtig, wie es der Klang im Medium der Schallwellen ist. Die
Bilder werden in der Lichtprojektion damit zu zeitlich vergänglichen Phänomenen,
womit ihnen eine wesentliche Eigenschaft des ‚Lebendigen‘ zu eigen wird – ähnlich
der Stimme, der Musik und anderer Klänge, die sich in der Projektion mit ihnen
verbinden. Die Entdeckung opto-technischer Tricks und Effekte der Projektion,
um Einzelbilder als kontinuierlichen Bilderfluss erscheinen zu lassen, verstärken
diese animierende Wirkung.
Vor allem mit dem Aufkommen des Films entfalteten Projektionsmedien eine neu-
artige Qualität der Wahrnehmungsadressierung. Das Präsenz- und Illusionserleben
bewegter Klangbilder beruht seitdem auf einer Verbindung von Medientechniken
und Ausdrucksformen, die an angeborenen Prinzipen menschlicher Bewegung und
Bewegungswahrnehmung anknüpfen, welche in den ältesten Arealen unseres Hirns
verankert sind. Wie es die Wahrnehmungspsychologie zeigt (vgl. Goldstein 2002),
ist das menschliche Hirn evolutionär auf das reflexhafte Erkennen von Bewegung
ausgerichtet. Bei kurzfristigen Bewegungen verarbeitet es daher auch nicht nur
reale Bewegungen, sondern ab einer gewissen Frequenz aufeinanderfolgender Reize
evoziert es den Eindruck einer Scheinbewegung. Diesen gestaltpsychologischen
Mechanismus macht sich der Film zunutze. Mit der Projektionsfrequenz von 24
Bildern pro Sekunde wurde im Filmprojektor jene Frequenz erreicht, ab der bei den
Betrachtern der Eindruck einer Scheinbewegung evoziert wird (Anderson 1996).
Um Flickereffekte bei den Hell-Dunkel-Wechseln zu vermeiden, wurde außerdem
die Umlaufblende erfunden, die die Projektion jedes Bildes noch einmal kurz un-
terbricht, so dass für das Betrachterauge 48 Hell-Dunkel-Wechsel erzeugt werden,
eine Frequenz, in der das Flimmern nicht mehr bewusst erlebt wird.
Im Film, aber z. T. auch in Bildschirmmedien wie Fernsehen und Video, kommt
noch eine weitere Form der Bewegungswahrnehmung zum Tragen: die Adressierung
von Erfahrungsmustern der Eigenbewegung. Der Wahrnehmungspsychologe Bruce
Goldstein (2002, S. 284) unterscheidet zwei Aspekte der Bewegungswahrnehmung:
„lokale Bewegung innerhalb des Gesichtsfeldes“ und „Bewegung des gesamten
Gesichtsfeldes“. Während die Bildprojektion sich perzeptive Mechanismen zunutze
macht, die das Sehen von kurzfristigen Bewegungen innerhalb des Gesichtsfeldes

185
186 4 Medien der Audiovision

auszeichnen, lassen sich die gestalterischen Formen der Bilderfolge in engem Bezug
zum Bewegungserleben durch eigene Kopf- und Körperbewegung charakterisieren.
Vor allem die klassischen – auch ‚analytisch‘ genannten – Montageverfahren, bewegte
Klangbilder nach dem Prinzip kontinuierlicher Perspektiv- und Handlungslogi-
ken aufeinander folgen zu lassen, entspricht dem angeborenen Erkundungssehen
durch Kopf- und Körperbewegungen: etwa in Schuss-Gegenschuss-Montage bei
Dialogen oder bei der Darstellung von Handlungsfolgen innerhalb einer Sequenz
(vgl. Anderson 1996, Bordwell 2010, Bordwell/Thompson 2003). Bezeichnend dabei
ist, dass die Konventionen der Montage bzw. der Reihung von bewegten Klang-
bildern immer auch die Verkürzung, Fragmentierung und Verdichtung mit sich
bringen. Die sequentiellen Folgen unterscheiden sich somit von der ‚natürlichen‘
Bewegungswahrnehmung darin, dass sie auf einzelne, signifikante Momente im
Ablauf fokussieren und diesen nie vollständig abbilden – was die Unterhaltsam-
keit entscheidend beeinträchtigen würde. Mit dem Filmwissenschaftler Joseph
Anderson (1996) lassen sich resümierend zwei grundlegende Aspekte der filmi-
schen Dramaturgie bewegter Klangbilder in ihrer Adressierung der angeborenen
Bewegungswahrnehmung unterscheiden:

▶▶ 1) die Simulation der Bewegung des Gesichtsfeldes durch Kamera, Montage


(Continuity-Editing) und Sound, sowie durch visuelle und akustische Perspek-
tiven auf bewegte Objekte; 2) die Simulation lokaler Bewegung im Gesichtsfeld
durch Bewegtbildillusion in der Bildprojektion, sowie durch bewegte Objekte
im Bild (Abbildung realer Bewegung).

Für die Rezeption bewegter Klangbilder bedeutsam ist schließlich auch, dass die
Projektionsmedien sich mechanischer (z. B. durch die Ausstattung mit Kerzen
oder Gaslicht), elektronischer und digitaler Projektionsapparaturen bedienen, die
hinter den Betrachtern angebracht sind. In der Film- und Medienwissenschaft wird
diese Anordnung als wesentliches Merkmal des „Dispositiv des Kinos“ (Baudry
1976) angesehen. Damit verbunden ist die These, dass die Unsichtbarkeit der
Projektionsapparatur für die Betrachter die Illusionswirkung der Bilder auf der
Leinwand noch verstärkt.
Bildschirmmedien zeichnen sich im Unterschied dazu dadurch aus, dass die
Apparatur als elektronische oder digitale Lichtquelle (z. B. Fernseh- oder Compu-
terbildschirm) frontal zum Betrachter angeordnet ist. Wie wir noch sehen werden,
manifestieren sich deren Bilder in einer Vielzahl elektronischer bzw. digitaler
Signale, die auf dem Bildschirm zu einheitlichen Darstellungen zusammengefügt
werden – je nach Auflösung mehr oder weniger homogen. Mit den Empfangsgeräten
ist auch die Klangquelle primär frontal angeordnet, selbst wenn moderne Laut-
4.2 Analoge Medien der Audiovision 187

sprechersysteme längst raumfüllende Übertragung ermöglichen. Typischerweise


sind die Bildschirme von Fernsehen und Computer bis heute wesentlich kleiner als
die Leinwand des Kinos bzw. der Projektionsmedien. Als Merkmal des „Dispositiv
des Fernsehens“ (Hickethier 1993) wird daher vorausgesetzt, dass die immersive
Wirkung von Audiovisionen auf dem Bildschirm tendenziell geringer ist. Dazu
trägt bei, dass diese nicht auf einen dunklen Raum angewiesen sind und somit die
optische Aufmerksamkeit auf das Bildschirmgeschehen durch das Umgebungs-
licht geschwächt ist. Hinzu kommt, dass Fernsehen und Computer vorwiegend
im eigenen häuslichen Umfeld genutzt werden bzw. an Orten, die nicht genuin
für die Rezeption von Audiovisionen konzipiert sind (vgl. auch Casetti 2015). Mit
der Diversifikation von mobilen Computergeräten wie Tablets und Smartphones
wurde diese Tendenz noch verstärkt.
Freilich gibt es längst Hybridformen zwischen Projektions- und Bildschirm-
medien, denen sich dieses Kapitel auch widmen wird. Mit dem wachsenden Erfolg
von Beamern im privaten Gebrauch wurde es möglich, eine dem „Kino-Dispositiv“
(Baudry 1994) ähnliche Situation herzustellen, indem die Lichtquelle an der Decke
oder hinter den Betrachtern installiert wird. Gleichwohl werden wir weiter unten
sehen, dass es bis heute entscheidende Differenzen zwischen dem Kino als Ort der
Projektion filmischer Audiovisionen und dem digitalen ‚Heimkino‘ gibt.
Da in dieser Mediengeschichte die technisch-apparativen Kommunikations-
medien im Vordergrund stehen, liegt der Schwerpunkt im Folgenden auf den
Projektions- und Bildschirmmedien, während die Aufführungsmedien (die in den
Kapiteln 1 und 2 gestreift wurden) außen vor bleiben. Die folgenden Abschnitte
zeigen somit, wie bewegte Klangbilder sich historisch in Laterna-Magica, Film
und Kino, Fernsehen und Video sowie schließlich in digitaler Audiovision (z. B.
Computerspiel) auf spezifische Weise materialisiert haben. Dabei werden wir sehen,
dass die bewegten Bilderfolgen in ihren populären und dominanten Präsentations-
und Rezeptionsweisen schon lange vor Aufkommen des Tonfilms fast immer mit
Klang verbunden waren: durch die Stimme begleitender Kommentatoren, Musik,
oder inszenierte Geräuschkulissen.

4.2 Analoge Medien der Audiovision


4.2 Analoge Medien der Audiovision
Im folgenden Abschnitt werden Projektions- und Bildschirmmedien im Mittelpunkt
stehen: Ausgehend von audiovisuellen Vorführpraktiken mit der Laterna Magica vor
einem Massenpublikum, über Film, Fernsehen und Video stehen analoge Medien
im Vordergrund, bei denen die Verbindung von bewegten Bildern und Klang die

187
188 4 Medien der Audiovision

Vorführ- und Rezeptionspraktiken prägte. Dabei werden wir sehen, dass Stimme,
Musik und Geräusche anfangs nicht technisch in den Bildapparaturen implemen-
tiert waren, sondern während der Vorführungen performativ eingesetzt wurden. In
ihren populären Formen, die hier im Vordergrund stehen, prägten Bild und Klang
jedoch schon früh in ihrem gleichzeitigen Zusammenspiel die Wahrnehmung und
das Erleben bewegter Bilder.

4.2.1 Mechanische Medien zeitbasierter Audiovision:


Laterna Magica

Im Kapitel 3 wurde bereits darauf hingewiesen, dass sich mit der Differenzierung von
Camera Obscura und Laterna Magica im Laufe des 17. Jh. zwei analog-mechanische
Bildapparaturen herausgebildet hatten, die Bilder technisch erzeugten. Die Camera
Obscura produzierte in ihrer späteren Form als Fotoapparat manifeste Bilder, bei
der die Projektion von Lichtstrahlen in eine dunkle Kammer genutzt wurde, um
äußere Wirklichkeit mimetisch abzubilden (Gemälde, Zeichnungen, Fotografien).
Bei der Laterna Magica war es umgekehrt: hier wurden vorab gemalte, gezeichnete
oder fotografierte Bilder, die nicht notwendig mimetisch, sondern auch fantastisch
sein konnten, vor die Linse einer dunklen Kammer gesetzt, die künstliches Licht
von innen nach außen projizierte und auf diese Weise das manifeste Bild (etwa als
gemaltes oder fotografiertes Bild auf einer Glasscheibe) in ein ephemeres Lichtbild
auf eine Leinwand außerhalb der Kammer übertrug. Damit ist bereits ein Merkmal
genannt, das die Laterna Magica zu einem wichtigen Vorläufermedium des Films und
des Kinos machte: die Erzeugung von Projektionsbildern, die mit der räumlichen
und apparativen Anordnung einer Bildrezeption einhergeht, die bereits seit dem 17.
Jh. wesentliche Elemente des späteren Kinos vorwegnahm: die Zuschauer befanden
sich in einem abgedunkelten Raum vor einer Leinwand, auf die von einem hinter
ihnen platzierten Projektionsapparat flüchtige Bilder auf die Leinwand projiziert
wurden. Für das Wahrnehmungserleben ist dabei bedeutsam, dass die Bilder durch
die Projektion vergrößert werden und auf diese Weise ihre Suggestivkraft gesteigert
wird. Somit wurde – wie später im Kino – die Aufmerksamkeit der Zuschauer auf
eine beleuchtete Leinwand und dort wechselnde Projektionsbilder gelenkt.
Als einer der ersten erkannte Mitte des 17. Jh. der Jesuitenpater Athanasius Kir-
cher die Suggestivkraft dieser Projektionsanordnung und setzte sie gezielt ein. Mit
dem Einsatz von Hohlspiegeln, Linsen und künstlichem Licht trug er entscheidend
zur Entwicklung von Lichtbildprojektionen als populärem Unterhaltungsmedium
bei. Dabei nutzte Athanasius Kirchner das neue Medium gleichwohl zur Erziehung
und moralischen Disziplinierung seiner Zuschauer. Dazu führte er ihnen Heiligen­
4.2 Analoge Medien der Audiovision 189

erscheinungen ebenso vor Augen, wie die vermeintlichen Höllenqualen sündiger


Menschen. In seinen Vorführungen ließ er durch die Kombination von teilweise
mehreren projizierten Bildern heilige und teuflische Figuren gleichermaßen vor
den Augen der Betrachter – gleichsam als religiöse Epiphanie – erscheinen (vgl.
Hick 1999). (siehe Abbildung 21)

Abb. 21
Laterna Magica,
Gulielmo Jacobo’s
Gravesande (1742)

Zum magischen Effekt der für die Zeitgenossen zunächst unerklärlichen bildhaften
Erscheinungen trug wesentlich bei, dass die gemalten oder gezeichneten Bilder
durch die Lichtprojektion in doppeltem Sinne animiert und damit ‚belebt‘ wurden.
Zum einen erhielten die Bilder, die an die Dauer der Projektion und die Intensität
des Lichtstrahls gebunden waren, eine flüchtige Zeitlichkeit. Zum anderen erzeugt
der Wechsel zwischen momenthafter Erscheinung eines Bildes und seines Ver-
schwindens in seiner Abfolge Bewegungseindrücke. Mit diesem Bewegungseffekt,

189
190 4 Medien der Audiovision

der bis dato nur mit den bewegten Bildern des Schattentheaters vergleichbar war,
geht eine Verlebendigung bzw. Animation der bildhaft dargestellten Figuren und
Objekte einher. Darüber hinaus begann man aber auch bereits im 17. Jh., nicht
nur einzelne Bilder, sondern Bilderreihen zu projizieren (vgl. Hick 1999). Diese
Bilderabfolge vermittelte Bewegungsrelationen zwischen den Einzelbildern und
den auf ihnen dargestellten Figuren und Objekten. Je nach Tempo der Bilderfolge
konnten damit in der Bildprojektion komplexere Bewegungsabläufe von Figuren
und Gegenständen suggeriert werden.
Die bereits im 17. Jh. in ihren Grundzügen entwickelte Medientechnik der
Projektionskunst (ars magna lucis et umbrae) mittels Laterna Magica erfuhr ihre
eigentliche Hochzeit als populäres Unterhaltungsmedium im 19. Jh. Wie an an-
derer Stelle bereits geschildert (Kap. 2), war dieses Jahrhundert geprägt durch die
kommerzielle Industrialisierung, soziale Differenzierung der Gesellschaft und die
Ausweitung von Wissenschaft und Bildung. Vor diesem Hintergrund entstand
ein wachsender Konsum- und Freizeitmarkt, der auch immer neue mediale Kon-
stellationen beförderte. Noch bevor Fotografie, Film, Rundfunk und Telefon im
Laufe des 19. Jh. als Medien der Kommunikation, Unterhaltung und Information
heranreiften, entwickelte sich die Laterna Magica zum ersten audiovisuellen Mas-
senmedium (Hick 1999). Die besondere Kombination von Projektionsbildern und
performativer Live-Begleitung durch Stimme, Musik und Klangkulissen wurde dabei
mit den neuen technischen und industriellen Mitteln optimiert und professiona-
lisiert. Mitte des 19. Jh. entstand so ein regelrechter Markt um die Lichtbildshows,
die aufgrund verbesserter Projektionstechnik große Säle mit Publikum füllten.
(siehe Abbildung 22)
Projektionsgeräte in unterschiedlicher Ausstattung wurden zum Verkauf und
Verleih angeboten. Ebenso gab es spezialisierte Fachzeitschriften und Verkaufska-
taloge (Loiperdinger 2011). Daneben entstand ein eigenständiger Markt an Bild-
produzenten, die mit dem Aufkommen der Fotografie Studios aufbauten, in denen
sie sogenannte ‚life model slides‘ für die Lichtbildshows produzierten, in denen
Schausteller für die Bildergeschichten vor einem Fotoapparat in gemalten Kulissen
posierten. Auf diese Weise wurde eine komplexe Infrastruktur der Bilderprodukti-
on- und Distribution aufgebaut und kommerziell professionalisiert, die wesentlich
zur Verbreitung sowie zum massenhaften Erfolg der Laterna-Magica-Vorführun-
gen im 19. Jh. beitrug. Daneben professionalisierte sich der Beruf des Vorführers,
der die Bildgeschichten live kommentierte oder aus literarischen Vorlagen vorlas.
Damit ergänzte er die Bildwahrnehmung nicht nur um ein wesentliches auditives
Element, sondern seine Vorführkunst bestand auch darin, das Publikum durch
direkte Adressierung mental und affektiv zu fesseln.
4.2 Analoge Medien der Audiovision 191

Abb. 22 Lichtshow mit Laterna Magica (1897)

Neben der Professionalisierung und Institutionalisierung von Produktions- und


Distributionsweisen fand auch in der inhaltlichen und formalen Gestaltung der
audiovisuellen Shows eine zunehmende Standardisierung der Publikumsadres-
sierung statt (Hick 1999). Dabei bildeten sich genretypische Gestaltungsmuster
heraus, die auch mit spezifischen Funktionen verbunden waren. Es entstanden
fiktionale und non-fiktionale Genres, mit denen man unterschiedliche Ziele ver-
folgte und nicht zuletzt verschiedene Zuschauerinteressen bedienen wollte: Mit der
Übertragung von Kolportageromanen, Märchen und Kriminalgeschichten in live
kommentierte und auditiv untermalte Bildergeschichten entstanden audiovisuelle
Unterhaltungsgenres, die sich an ein Massenpublikum richteten. Dies galt ebenso
für die dem Varieté und der Comedy entlehnten Bildergeschichten aus Gags und
Sketchen (ebd., S. 179). Aber auch aktuelles Geschehen wurde dokumentiert, wie
die Geburt des britischen Thronfolgers Edward VII. oder die Entdeckung der Vic-
toriafälle (Mosi-oa-Tunya) im Jahr 1855, die in projizierten und handkolorierten
Bildern einem breiten Publikum vor Augen geführt wurden (ebd.). Daneben gab es
Dokumentationen naturwissenschaftlicher Errungenschaften und von touristischen
Sehenswürdigkeiten. Außerdem wurden nach wie vor religiöse Stoffe und Themen
präsentiert, die sich in moralisierend-erzieherischer Absicht an das Publikum

191
192 4 Medien der Audiovision

wandten. All diese unterschiedlichen Genres wechselten sich in der Regel während
einer Vorstellung ab. Auf diese Weise wurde das Gesamtprogramm zur Attraktion
und verband herkömmliche Prinzipien von Bühnen- und Varietévorstellungen mit
neuen Formen technisch-apparativer Projektionskunst.
Neben dem weiten inhaltlichen Spektrum bildeten sich neue Formen und Tech-
niken für die Abfolge der Einzelbilder aus, bei denen illusionäre Bewegungseffekte
im Mittelpunkt standen. Bilder wurden nicht mehr einzeln, sondern in Bewe-
gungsfolgen und damit zunehmend als Sequenzen und Szenen konzipiert. Dies
begann mit einfachen Bewegungseffekten, bei denen Bilder vor der Projektionslinse
bewegt wurden: entweder in Form von aufeinanderfolgenden Einzelbildern oder
von langen Panoramabildern, die langsam vor der Linse entlanggeführt wurden.
Daneben entstanden Effekte der Überblendung und Einblendung durch Zieh-,
Schiebe-, Hebel-, oder Drehmechanismen (vgl. ebd.). Auch wurden die Projekti-
onen mehrerer Apparate überlagert, um entsprechende Blendeffekte zu erzeugen.
Stroboskopische Effekte der Lichtprojektion sorgten dafür, dass die Betrachter die
Übergänge zwischen den Einzelbildern nicht wahrnehmen. Dies wurde besonders
effektiv bei sogenannten Zweiphasenbildern eingesetzt, bei denen ein und dieselbe
Figur in leicht abgewandelten Erscheinungen gezeigt wurde, wodurch die Illusion
sekundenschneller Veränderung evoziert werden konnte. So wurde beispielsweise bei
einer britischen Show im Jahr 1889 ein schlafender Mann gezeigt, dem im schnellen
Bildwechsel Ratten in den weit geöffneten Mund wanderten (Loiperdinger 2011).
Besonders beliebt waren auch Nebelbilder, bei denen zwischen zwei aufeinanderfol-
genden Bildern Unschärfen an den Rändern oder Verdunkelungen vorgenommen
wurden, die raum-zeitliche Verläufe zwischen den Einzelbildern suggerierten.
Während Bewegungseffekte einerseits den Attraktions- und Spektakelwert der
Shows erhöhten, wurden sie, wie Ulrike Hick (1999) eindrücklich zeigt, zunehmend
auch Bestandteil elaborierter erzählerischer Bildprogramme.

▶▶ Das heißt, die inhaltliche und formale Verknüpfung der Einzelbilder zu Bildse-
quenzen folgte Erzählmustern, bei denen zeitliche und räumliche Veränderun-
gen zwischen den Bildern in die Erzählung von Ereignissen und Handlungen
eingebunden wurden. Die Abfolge der Einzelbilder konnte Handlungsfolgen in
der zeitlichen (vorher-nachher) und räumlichen (innen-außen, Vordergrund-Hin-
tergrund) Dimension suggerieren.

Aber auch komplexere narrative Zeitstrukturen wurden visuell realisiert: Rück-


blenden, Vorschauen, innere Vorstellungen von Figuren sowie gleichzeitiges Ge-
schehen an unterschiedlichen Orten wurden mithilfe der Bildanordnung erzählt
(ebd., S. 156 ff.). Mittels Überblendungen oder Nebelbildern wurden also neue
4.2 Analoge Medien der Audiovision 193

Bildräume eingeführt, die narrativ mit einer Figur verbunden waren (etwa als ihre
Erinnerungen, Träume oder Visionen). Hierzu wurde auch manchmal die Leinwand
geteilt, und neben dem Bild einer Figur erschien ein zweiter Bildraum, der ihre
inneren Vorstellungen repräsentierte. Aber auch erste Formen der Parallelmontage
existierten bereits, wenn gleichzeitiges Geschehen an unterschiedlichen Orten
nacheinander oder simultan auf der Leinwand gezeigt wurde. Hinzu kamen frühe
Formen des elliptischen Erzählens in der Bilderfolge, bei der durch Auslassungen
von Handlungsmomenten Zeitraffungen und Verdichtungen erzeugt wurden.
Damit wiesen die Bildprogramme der Lichtshows bereits ausgefeilte Muster auf,
mit deren Hilfe unterschiedliche Raum-, Zeit-, und Realitätsordnungen etabliert
wurden (ebd.). Hick weist darauf hin, dass die Komposition der Einzelbilder zu-
dem dramaturgische Elemente aufwies: Mittels Detaildarstellungen etwa wurde
die Aufmerksamkeit der Zuschauer auf bestimmte Handlungselemente gelenkt.
Besonders nahe Darstellungen von Gesichtern sollten die emotionale Teilnahme
der Betrachter intensivieren (ebd.).
Die Bildgeschichten der Laterna-Magica-Vorführungen waren eingebunden in ein
komplexes intermediales Zusammenspiel von Projektionsbildern, Live-Kommenta-
ren, Musik und Geräuschen. Durch die begleitende menschliche Stimme des Vorfüh-
rers wurden die Figuren auf der Leinwand zusätzlich animiert, also ‚verlebendigt‘.
Geräuschkulissen sorgten überdies dafür, dass die Bildräume ins Dreidimensionale
ausgeweitet wurden, indem synchron im Zuschauerraum atmosphärische Klänge
und Einzelgeräusche erklangen. Schließlich trug auch die begleitende Musik dazu
bei, die emotionale Involviertheit des Publikums zu intensivieren.

▶▶ Es lässt sich somit festhalten, dass sich mit den Lichtbild-Shows im 19. Jh. ein
differenziertes Technik- und Formenarsenal, professionelle Vorführpraktiken,
sowie institutionalisierte Produktions- und Distributionsstrukturen etablierten,
welche die Laterna Magica damals zu einem modernen audiovisuellen Mas-
senmedium machten. Als solches verband es Traditionen des Varietés und der
Bühnenshow mit apparativ und mechanisch erzeugten Projektionsbildern, die
animierte Bildräume entstehen ließen.

Mit der Verwendung fotografischer Bilder erlangten diese Bildräume eine neuartige
mimetische und damit auch illusionistische Qualität. In der Kopplung technischer
Effekte und narrativer Bildprogramme verbanden sich optische Tricks und Täu-
schungen mit ausgefeilten inszenierten Bildkompositionen, welche die Imagination
und emotionale Teilhabe der Betrachter beeinflussen und intensivieren sollten.
Im 19. Jh. war es aber nicht allein die Laterna Magica, die Standbilder appa-
rativ in Bewegung versetzte und durch optische Tricks Bilderserien animierte.

193
194 4 Medien der Audiovision

Gleichzeitig gab es weitere populäre Medientechniken, die bildliche Bewegungsil-


lusionen schufen bzw. Bewegungsabläufe im Bild speicherten: optische Spielzeuge
wie das Daumenkino, das Phenakistiskop und das Zoetrop, die Serienfotografien
von Eadweard Muybridge und Étienne-Jules Marey sowie das Kaiserpanorama.
Im Vordergrund stand hierbei jedoch weniger die Audiovision als vielmehr die
Faszination für in-Bewegung-versetzte Bilder und ihre Effekte. Sie alle nutzen die
damals jüngsten Erkenntnisse der Humanwissenschaften und Physik, um optische
Illusionseffekte zu erzeugen. Gemeinsam war ihnen dabei – im Unterschied zu
den Lichtbildshows und dem Panorama – die Miniaturisierung von Bildern (vgl.
Doane 2006).
Die optischen Spielzeuge entdecken zudem die Wirkung des Stroboskopeffektes,
um den Eindruck fließender Bewegungen zu erzeugen: Im Buch (Daumenkino),
auf einer Scheibe (Phenakistiskop), oder auf der Innenwand einer Trommel mit
Sehschlitzen (Zoetrop) wurden Bilderreihen gemalt, gezeichnet oder gedruckt,
die eine Bewegungsabfolge in einzelnen Phasen darstellten. (siehe Abbildung 23)

Abb. 23 Zoetrope: Patentzeichnung von William Lincoln (1867)

Durch die manuell erzeugte schnelle Bewegung der Blätter, der Scheibe oder der
Trommel verschmelzen die Einzelbilder im Wahrnehmungseindruck zu einem
Bewegungsfluss. Wie im 20. Jh. die Wahrnehmungspsychologie erkannte, entsteht
ab einer Frequenz von 16 Einzelbildern pro Sekunde der Eindruck einer Scheinbe-
4.2 Analoge Medien der Audiovision 195

wegung bei den Betrachtern (vgl. Kap. 3.1). Die optischen Spielzeuge machten sich
diesen Wahrnehmungseffekt gezielt zunutze, um optische Bewegungsillusionen zu
erzeugen. Umgekehrt war es die damit verbundene Überraschung und Schaulust,
die sie bei den Betrachtern so beliebt machten.
Das Phenakistiskop und Zoetrop profitierten ab 1870 von einer weiteren Medien-
technik, die die fotografisch genaue Abbildung von Bewegungsabläufen ermöglichte:
die Serienfotografie. Das damals junge Medium der Fotografie faszinierte die Zeitge-
nossen von Anfang an durch das apparativ bildhafte Speichern von Augenblicken (s.
Kap. 3). Eadweard Muybridge und Étienne-Jules Marey entdeckten die Fotografie nun
als ein Medium, um jene Momente natürlicher Bewegungsabläufe medial sichtbar
zu machen, die unterhalb der menschlichen Wahrnehmungsschwelle liegen: exakte
Bewegungsabläufe im Gehen, Laufen oder Fallen von Menschen und Tieren. Hierzu
stellte man eine Reihe mehrerer Fotoapparate frontal vor einem bewegten Objekt
auf und versah sie mit Selbstauslösern, die durch die Bewegungen nacheinander
aktiviert wurden. Auf diese Weise entstanden serielle Phasenbilder, die die einzelnen
Bewegungsmomente exakt dokumentierten. Auf diesem Wege erfuhr ein Auftrag-
geber von Muybridge, dass ein Pferd im Galopp zu einem bestimmten Moment alle
Hufe in der Luft hat (vgl. Hediger 2006). Wurden diese Phasenbilder als statische
Einzelbilder von Muybridge und Marey in Serie gezeigt, konnten Phenakistiskop
und Zoetrop diese auf ihren Scheiben und Trommeln mechanisch in Bewegung
versetzen und auf diese Weise optisch in den Bewegungsfluss rückübersetzen. Das
Sehen bewegter Bilder verband damit multisensoriell auch Auge und Hand der
Betrachter (vgl. Doane 2006).
Im 19. Jh. entstanden weitere Medientechniken, in denen statische Bilder apparativ
und automatisiert in Bewegung versetzt wurden. Dazu zählt das Kaiserpanorama,
bei dem es sich gewissermaßen um ein frühes Bildschirmmedium handelte. Hierbei
saßen die Betrachter um einen kreisförmigen Kasten mit Gucklöchern, innerhalb
dessen projizierte Fotografien in einem Loop abliefen. Es handelte sich um statische
Einzelbilder, deren optischer Schauwert einerseits in ihrer automatisierten Abfolge
lag, andererseits durch stereoskopische Effekte erhöht wurde. Hierzu wurden je-
weils zwei Fotos aus leicht unterschiedlicher Perspektive nebeneinander projiziert,
sodass für den Betrachter ein dreidimensionaler Effekt entstand. Die bereits mit
der Lichtprojektion einhergehende animierende Wirkung wurde auf diese Weise
noch verstärkt.

▶▶ Resümierend lässt sich festhalten, dass sowohl Laterna-Magica-Shows als auch


die optischen Spielzeuge und das Kaiserpanorama im Laufe des 19. Jh. sich als
populäre Medientechniken etablierten, die sich der Verlebendigung statischer
Bilder (gemalt, gezeichnet, fotografiert) verschrieben hatten.

195
196 4 Medien der Audiovision

Die Animation der Bilder geschah dabei in erster Linie durch ihre apparative Be-
wegung und die hiermit erzeugten optischen Täuschungen. Daneben lassen sich
aber auch wesentliche Unterschiede zwischen den Techniken und Ausdrucksformen
dieser frühen apparativen Bewegtbildmedien ausmachen. Bei den Lichtprojektionen
der Laterna Magica wurde das Bild gewissermaßen ent-materialisiert und vor den
Augen der Betrachter zu einer ephemeren, temporären Erscheinung. Die gleich
zweifache Animation (durch apparative Bildbewegung und Projektion) wurde
zudem eingebettet in eine audiovisuelle Gesamtinszenierung, in der die Bilder
zum Bestandteil fiktiver Geschichten wurden und zu mentaler und emotionaler
Immersion einluden. Zudem handelte es sich bei den Lichtshows um öffentliche
Veranstaltungen, die kollektiv erlebt wurden. Damit waren wichtige Wahrneh-
mungs- und Erlebnisqualitäten entwickelt, die später auch die Filmbetrachtung
im Kino kennzeichnete. Im Unterschied dazu handelte es sich bei den optischen
Spielzeugen und dem Kaiserpanorama um Geräte, die individuell rezipiert wur-
den und bei denen die reinen Bewegungseffekte im Vordergrund standen. Beim
Phenakistiskop und Zoetrop setzten die Betrachter die Bilder zudem selbst über
die manuelle Bedienung der Apparatur in Bewegung. Damit ging einher, dass die
Mechanik offen lag, sich sogar in Form dekorativer Ausstattung der Scheiben und
Trommeln selbst zur Schau stellte (Doane 2006), während die Apparatur der Laterna
Magica vor den Augen der Zuschauer verborgen wurde. Auch waren die optischen
Spielzeuge mit ihren einfachen Bewegungseffekten weit weniger auf ganzheitliches
Illusions- und Immersionserleben ausgerichtet als die Laterna Magica. In der Ge-
samtschau lässt sich jedoch festhalten, dass es seit dem 17. Jh. – und verstärkt im 19.
Jh. – eine Mehrzahl an populären Bildapparaten gab, in denen die Belebung statischer
Bilder durch mechanisches In-Bewegung-Setzen sowie durch ihre Projektion im
Vordergrund stand. In allen Fällen beruhte der Erfolg dieser Bildapparaturen auf
der gelungenen Täuschung des menschlichen Auges als Sehspektakel.

4.2.2 Analoge Medien filmischen Sehens:


Kinematograf, Film, Kino

Wie der vorige Abschnitt gezeigt hat, gab es bereits lange vor der Durchsetzung von
Film und Kino als Massenmedium diverse Medienapparaturen, die verwandte Ele-
mente filmischer Bildanimation aufwiesen. Obwohl die Aufführpraktiken den Ton
i. d. R. einbezogen, stand bis zum Aufkommen des Tonfilms Ende der 1920er-Jahre
das Sehen in bewegten Bildern im Fokus der technischen und ästhetischen Ent-
wicklung. Die Konventionen der Musikbegleitung (live oder durch Grammophon)
blieben bis dahin weitgehend konstant, auch in der Wahrnehmung der Zuschauer.
4.2 Analoge Medien der Audiovision 197

Daher wird der folgende Abschnitt zunächst die Genese des filmischen Sehens in
den Blick nehmen, die für die Produzenten und Rezipienten mit neuen Praktiken
und Wahrnehmungsformen einherging, bevor wir im Anschluss die mit dem
Tonfilm aufkommende genuin filmische Audiovisualität betrachten.
Zur Entstehung filmischer Techniken des Sehens trug 1895 ein fotografischer
Apparat und seine unvorhersehbare Wirkung beim Publikum entscheidend bei:
der Kinematograf. Die Serienfotografie von Muybridge und Marey hatte einzelne
Erfinder wie Thomas Edison (USA), die Brüder Max und Emil Skladanovsky
(Deutschland) sowie Auguste und Louis Lumière (Frankreich) inspiriert, neue
Technologien zu entwickeln, die die Aufnahme von seriellen Einzelfotos nicht
mehr über mehrere Fotoapparate, sondern mittels einer einzelnen Kamera erlaubte.
Auf diese Weise wollte man noch detailgenauere Phasenbilder erstellen, auch von
länger andauernden Bewegungs- und Handlungsabläufen. Edison baute 1890 eine
Kamera, deren Aufnahmen auf Zelluloid aufgenommen wurden. Dieses Kinetoskop
(altgriech. kinesis: bewegen; skopein: sehen) genannte Aufnahmegerät setzte Edisons
Phonograf (Kap. 1) fort: diesmal sollten nicht vergängliche Stimmen gespeichert
werden, sondern bewegte, flüchtige Bewegungen und Ereignisse im Bild. Dem
Betrachter wurden diese ‚laufenden Fotografien‘ in kurzen Endlosstreifen gezeigt,
die über elektrisches Licht in einem Guckkasten projiziert wurden. Ähnlich wie
beim Kaiserpanorama schaute man durch ein kleines Guckloch in einen Kasten,
wo in automatisierter Weise Bewegungsbilder kurze Handlungsfolgen zeigten.
(siehe Abbildung 24)
Die Aufnahmen, die in einem eigens gebauten Studio („Black Maria“) gedreht
wurden, dokumentierten handwerkliche Tätigkeiten, aber auch akrobatische Kunst-
stücke. Als einer der ersten erkannte Edison das unterhaltsame und kommerzielle
Potential von derartigen artifiziell erzeugten Foto-Serien in Bewegung. Zwischen
1890 und 1895 erfreute sich seine Erfindung großer Beliebtheit, wurde aber mit der
Konkurrenz europäischer Entwickler um 1895 schon wieder gedämpft.
Vor allem die Gebrüder Lumière sorgten mit ihrer Erfindung des Kinematografen
für den entscheidenden medienhistorischen Wandlungsmoment hin zu Film und
Kino – ein Wandel, den sie selbst anfänglich weder absehen konnten, noch inten-
diert hatten (vgl. Loiperdinger 2011). Ursprünglich entwarfen die Lumières den
Kinematografen nämlich als einen erweiterten Fotoapparat, der es seinen Nutzern
nach dem Prinzip der Serienfotografie erlauben sollte, Ereignisse ihres Alltags in
bewegten Bilderreihen zu dokumentieren. Auch sie nutzten hierzu eine Kamera-
technologie, die Abläufe aller Art in detailgenauen Phasenbildern speicherten, die
sie auf perforiertem Zelluloid auf einer Spule in Bewegung versetzten. Auf diese
Weise wurden die in der Aufnahme seriell fragmentierten Bilder automatisiert
wieder in Bewegungen übersetzt. Das Ergebnis erschien weitaus flüssiger als die

197
198 4 Medien der Audiovision

Abb. 24
Kinetoskop (1894)

zuvor geschilderten Apparaturen es bis dato leisten konnten. Daneben bot das Gerät
den besonderen Mehrwert, die Bilder nach Aufnahme und Entwicklung auch in
den Raum projizieren zu können, um sie etwa gemeinsam im Familien- und Freun-
deskreis zu betrachten. Das unerwartete historische Moment stellte sich ein, als die
Lumières ihre Erfindung 1895 im Grand Café in Paris erstmals einer potentiellen
Käuferschaft vorführten. Die Vorstellung zog nicht nur wohlhabende Amateur-
fotografen, sondern auch ein breites schaulustiges Publikum an, das sich weniger
für den Kinematografen als für die vom ihm projizierten ‚laufenden Fotografien‘
auf der Leinwand begeisterte. Die auf die Leinwand projizierten, vergrößerten
Bewegungsbilder von einem fahrenden Zug, der direkt auf die Kamera und damit
auf die Betrachter zufährt, hatte in seiner fotografischen Abbildqualität und dem
lebensnahen Bewegungsfluss völlig neuartige mimetische Präsenz und Spektakelwert.
4.2 Analoge Medien der Audiovision 199

Denn hier waren es nicht nur kurze Loops von Einzelbildern, sondern komplexere
Handlungsfolgen, die fotografisch in fließenden Bewegungen festgehalten wurden.
Vom unerwarteten Erfolg ihrer Erfindung beflügelt, änderten die Lumières
nach den ersten Vorstellungen kurzerhand ihr kommerzielles Konzept. Fortan
boten sie nicht mehr den Kinematografen zum Kauf an, sondern Vorstellungen
ihrer selbst produzierten ‚laufenden Bilder‘. Damit waren diese nun nicht mehr
Werbemedien für den Kinematografen, sondern wurden selbst zum Marktobjekt
(Loiperdinger 2011). Das Zielpublikum wurde somit um ein Vielfaches erweitert:
statt wohlhabender Fotoamateure wurde nun ein unterhaltungsbegieriges Saal­
publikum angesprochen. Geschäftlich war dieses Konzept auch deshalb wesentlich
lukrativer, weil die Lumières Vorführlizenzen an Dritte verkaufen konnten. In
kurzer Zeit entstand ein wachsender Absatzmarkt für Filmvorführungen, den sie
schon bald nicht mehr alleine decken konnten. Sie begannen Kameramänner um die
Welt zu schicken, um Filme von Ereignissen, Sehenswürdigkeiten und Spektakeln
an unterschiedlichen Orten aufzunehmen.
Nach dem durchschlagenden Erfolg des Kinematografen änderte auch Edison
sein Konzept der ‚laufenden Fotografien‘. Nachdem er sein Kinetoskop (dann auch:
Kinetophon) attraktiver zu machen suchte, indem er die Filme mittels Phonograf
durch Musik begleiten ließ, erkannte er rasch, dass das eigentliche Geheimnis des
Erfolges in der Raumprojektion lag. Anstelle des Guckkastens für Einzelbetrachter,
nutzte er daher ein externes Projektionsgerät, das mithilfe elektrischen Lichts die
fotografischen Streifen überdimensional auf eine Leinwand im dunklen Raum
projizierte. Erfolgreich wurde er dann aber vor allem mit einer zunehmend pro-
fessionalisierten Filmproduktion. Das thematische und genrespezifische Spektrum
seiner Filme war dabei noch stark an den Programmen der Laterna-Magica-Shows
orientiert: Tanz- und Akrobatiknummern, Gags, Dokumentarisches und schließlich
auch komplexere Geschichten wie kurze Westernszenen (The Great Train Robbery,
R.: Edwin S. Porter, USA 1903) oder Rettungsgeschichten (Life of an American
Fireman, R.: Edwin S. Porter/George S. Flemming, USA 1903).
An dieser Stelle sei noch einmal die Bedeutung der Laterna-Magica-Shows als
institutioneller, kultureller und sinnlicher Erfahrungshintergrund sowohl für das
zeitgenössische Publikum als auch für die frühen Filmproduzenten betont. Zum
einen griffen die frühen Hersteller und Vorführer von Filmen auf die Infrastruk-
turen zurück, die sich bereits für die Produktion, Verbreitung und Projektion von
Laterna-Magica-Bildern etabliert hatten: Schausteller, die für die fotografischen
‚life model slides‘ posiert hatten, wurden nun für die kurzen Filme engagiert. Die
Fotostudios, in denen vormals die Bilder für die Lichtshows produziert worden
waren, wurden zu Filmstudios umfunktioniert. Die früheren Vorführer der La-
terna-Magica-Shows kommentierten nun auch die frühen kinematografischen

199
200 4 Medien der Audiovision

Shows, teilweise noch in Abwechslung mit projizierten Laterna Magica-Bildern. So


zeichnet sich die Umbruchphase von der Laterna Magica zum Kino auch durch die
Gleichzeitigkeit dieser beiden Medien aus. Solange es nur wenige Filme gab, und
diese auch nur sehr kurz waren, wurden sie zwischen den Laterna-Magica-Vor-
führungen gezeigt, gerahmt von einem Bühnenprogramm des jeweiligen Variétés
oder der Jahrmarktshow. Einige Vorführer dieser Shows wurden später die ersten
Filmregisseure, wie Edwin S. Porter (s. o.), den Edison in seinem Studio engagierte.
Entscheidend für den Erfolg des Films bei den Zuschauern war schließlich die
sinnliche Vertrautheit mit projizierten Bewegungsbildern im öffentlichen Raum.
Wie bei der Laterna Magica wurden die fotografischen Bewegungsbilder durch die
Projektion entmaterialisiert und machten das Dargestellte zu ephemeren Erschei-
nungen, die den gesamten Blickraum der Betrachter ausfüllten. So sprachen die
frühen kinematografischen Vorführungen beim Publikum vertraute Praktiken und
Erfahrungen der Audiovision an. Wie Martin Loiperdinger es treffend beschreibt:

„Für das zahlende Publikum steht der Cinématographe Lumière im ästhetisch-sinn-


lichen Erleben der Lichtbilderprojektion gleichwohl in unmittelbarer Nähe der
Projektionskunst. Es ist gewohnt, vor der Leinwand Platz zu nehmen und in sicherer
Erwartung, dass dort Lichtbilder erscheinen werden“ (2011, S. 62).

Daneben bestand die sinnliche Verwandtschaft zu den Lichtshows im audiovisu-


ellen Erleben. Auch bei den frühen kinematografischen Vorführungen wurden die
laufenden Bilder durch Musik sowie durch die Stimme eines Vorführers auditiv
gerahmt und begleitet. Die Medien Film und Kino sind also aus dem dynamischen
Zusammenspiel unterschiedlicher medientechnischer Erfindungen und medienkul-
tureller Praktiken entstanden, das auch durch verschiedenartigste Interessen geprägt
war. Abermals waren es die Nutzer, die auf unvorhergesehene Weise wesentlich
zum entscheidenden Umbruch beitrugen. Erneut bildeten dabei bereits eingeführte
Medien wie Laterna Magica und Fotografie den kulturellen, sinnlichen, aber auch
technischen und infrastrukturellen Erfahrungshintergrund.

▶▶ Prägend für filmische Praktiken der Audiovision wurden dann zwei Merkmale,
die im folgenden Abschnitt in ihrer Genese skizziert werden: die Entwicklung
des Kinos als sinnlichem Erlebnisraum der Filmrezeption und die Ausbildung
spezifisch filmischer Ausdrucksformen in Kameraführung, Montage, Schauspiel
und Tongestaltung.

Zuvor klang bereits an, dass die ersten Filmvorführungen an denselben Orten ge-
zeigt wurden, wie die Laterna-Magica-Shows, mit denen sie auch noch eine Weile
gemeinsam präsentiert wurden. Dies waren v. a. Schaubuden auf Jahrmärkten,
4.2 Analoge Medien der Audiovision 201

Variété-Bühnen, aber auch Hinterräume von Cafés und Kneipen, in denen sich
ein ständig wechselndes Laufpublikum versammelte. Das Programm wiederholte
sich in kurzen Abständen und zeigte wiederkehrende Kurzfilme, gerahmt von Dia-
Shows, Musik und Kommentaren der Vorführer. Loiperdinger (2011) weist darauf
hin, dass die Stimme des Vorführers und die Musik gerade auf den Jahrmärkten
besonders laut sein mussten, um die Aufmerksamkeit des Publikums nicht von den
Außengeräuschen ablenken zu lassen. Auch kann davon ausgegangen werden, dass
das Publikum selbst nicht still und konzentriert zuschaute, sondern das Gesehene
ebenfalls kommentierte bzw. seinen Reaktionen lautstarken Ausdruck verlieh.
Insofern nimmt das Auditive bereits in diesen allerfrühesten Präsentations- und
Rezeptionsformen des Films eine wesentliche Rolle ein (vgl. ebd.).
Eine Übergangsform zwischen den dynamischen Versammlungsorten der Jahr-
märkte (Müller/Segeberg 2008) und dem später ortsfesten Kinoraum um 1900 war
das Wanderkino. Professionelle Filmvorführer zogen mit ihrem selbst zusammen-
gestelltem Programm und ihrer technischen Ausstattung durch die Lande. Einige
mieteten öffentliche Säle, andere hatten transportable Holzbauten, in denen bis zu
700 Personen Platz hatten (Garncarz 2008), und mit denen sie auf Märkten, Festen
und Messen ihre Programme präsentierten. Während sich die Wanderkinos v. a.
in Europa um 1900 zu zentralen Orten der Filmrezeption entwickelten, entstand
ab 1905 ein neues cineastisches Raumkonzept: das Ladenkino. Ursprünglich war
es aus einer ökonomischen Not heraus entstanden. Im Zuge des Warenhausbooms
gerieten zahlreiche Ladenbesitzer in eine Krise. Angesichts des großen Erfolgs von
Filmvorführungen kauften sie sich Vorführlizenzen und präsentierten in ihren Lä-
den Filme (Garncarz 2008). Wie Josef Garncarz betont, kam damit eine ganz neue
Berufsgruppe auf den Markt der Filmvorführer, die bis dato keinerlei professionelle
Verbindung zu dem jungen Medium hatte. Aus diesem Grund orientierten sich die
Ladenbesitzer zunächst an den Programmen der Wanderkinos (Garncarz 2008).
Da ihnen aber die Praxis der Show- und Filmkommentierung fehlte, zeigten sie
mehrere Filme hintereinander, ohne Begleitprogramm. Unbeabsichtigt schufen sie
damit eine neue Form der Präsentation und Rezeption von Filmen, die sich nun
gänzlich von der Tradition der Bühnen- und Live-Performance verabschiedete.
Filme standen fortan im Mittelpunkt der Vorführung und wurden akustisch nur
noch musikalisch begleitet – auf Klavier, Orgel oder Pianola. Dieser neuen, ganz auf
Filme konzentrierten Präsentationsform kam entgegen, dass die Filmproduktion
bereits um 1905 derart angestiegen war, dass die Ladenbesitzer bald ein vielfältiges
und abendfüllendes Filmprogramm von 1–2 Stunden anbieten konnten. Auch waren
die Filme um 1910 bereits halbstündig und länger (s. u.), was das Begleitprogramm
zunehmend verzichtbar machte. Gegenüber den Wanderkinos hatten die Laden-

201
202 4 Medien der Audiovision

kinos schließlich den Vorteil, dass sie ganzjährig geöffnet waren, während jene an
saisonale Betriebszeiten gebunden waren.
Mit den Ladenkinos – in Deutschland auch Kintopps genannt, in den USA
Nickleodeon – entstanden erste Formen des Kinos, die als dauerhafte Orte gänz-
lich der Projektion und Betrachtung von Filmen gewidmet waren. Auch wenn
das US-amerikanische Nickelodeon zunächst noch ein hybrider Vorführort war,
wo Live-Performance und Lichtbild-Shows verbunden wurden (Bredella 2009),
entwickelte es sich auch dort zu einem genuinen Kino-Raum. Besonders in Eu-
ropa zeigt diese Entwicklung erneut, wie unvorhergesehen und ungeplant sich
Medienumbrüche entfalten können. War bereits der Film Resultat eines solchen
nicht-intendierten Prozesses, so auch das Kino als sein medienspezifischer Vor-
führort. Das unvorhergesehene Zusammenspiel einer wirtschaftlichen Krise im
Einzelhandel, der industriellen Ausweitung der Filmproduktion sowie – erneut
– die Publikumsresonanz sorgten dafür, dass das Kino als ein neuer öffentlicher
Raum filmischer Wahrnehmung entstand (vgl. Müller/Segeberg 2008).
Für die weitere Genese des Kinos als eines medialen Raums, den es in dieser
spezifischen Konstellation vorher noch nicht gab, stand noch ein weiteres tradi-
tionelles Medium Pate, an dem sich die frühen Kinobetreiber orientierten: das
Theater. Genauer gesagt war es die Theaterarchitektur, die v. a. in Europa für die
weitere Entwicklung der Kinoräume als Vorbild genutzt wurde. (siehe Abbildung 25)
Ein zentraler Grund hierfür war das Bestreben der Kinobetreiber, auch bür-
gerliche Publikumsschichten zu erreichen. Daher orientierte man sich in der
Gestaltung der Kinoräume an der Theaterarchitektur: Der Zuschauerraum wurde
in ansteigendem Halbrund vor einem erhöhten ‚Guckkasten‘ angeordnet, auf dem
die Leinwand platziert war, versehen mit einem Vorhang. Der aus dem Theater ver-
traute ritualisierte Eintritt in eine fiktive Erzählwelt durch das langsame Aufziehen
des Vorhangs wurde nun auch für das Kino übernommen. Damit einher ging die
körperliche und affektive Anpassung an die Rezeptionsformen des bürgerlichen
Theaters (vgl. Kap. 2): wie im Theater musste das Publikum nun auch im Kino in
einem verdunkelten Raum stillsitzen und seine Affekte kontrollieren. Auch die
Platzierung der Besucher durch einen Platzanweiser erinnerte ans Theater und war
Ausdruck dieser Anpassung. Auf diese Weise sollte das bürgerliche Publikum nicht
nur mit vertrauten Ritualen und Konventionen ins Kino gelockt werden, sondern
man begegnete damit auch seinen Vorbehalten gegenüber einem ‚unbeherrschten‘
proletarischen Publikum, das auf diese Weise diszipliniert wurde. Daneben sollte
die theaterhafte Architektur für eine kulturelle Aufwertung des Kinos sorgen und
bürgerlicher Skepsis gegenüber dem Film als ‚primitivem Spektakel für die Massen‘
entgegenwirken.
4.2 Analoge Medien der Audiovision 203

Abb. 25 Kinopalast, Brüssel (1920)

Diese Entwicklung spiegelte sich auch in der Programmgestaltung. Waren es in


den Anfangsjahren der Ladenkinos ganztägig laufende Abfolgen wiederkehrender
Filmreihen, so entwickelte sich das Kino zunehmend zu einem Veranstaltungsort
mit festen Programmzeiten. Statt sich also zu einem beliebigen Zeitpunkt in ein
laufendes Endlosprogramm zu begeben, muss sich der Zuschauer seitdem im
Voraus entscheiden, zu welchen Programmzeiten er das Kino besuchen möchte.
Eine Programmeinheit setzte sich damals zumeist aus drei Filmen zusammen:
der Wochenschau, in der Ereignisse der Woche dokumentiert wurden, einem
komödiantischen Kurzfilm und dem Hauptfilm. Um 1910 lag die übliche Länge
des Hauptfilms bei 20–30 Min. Zwar gab es auch einzelne Ausnahmen, wie das
filmische Epos Birth of a Nation (R.: David L. W. Griffith, USA 1915), das mit drei
Stunden Laufzeit für lange Zeit der längste Film blieb. Üblich wurden Spielfilme
mit einer Länge von 60 Minuten und ab den 1920er-Jahren auch länger.

203
204 4 Medien der Audiovision

Die zunehmende Ausweitung und Professionalisierung der Filmproduktionen


führte zu einer entsprechenden Anpassung der Vorführpraktiken und Programme.
Dies galt auch für die begleitende akustische Untermalung. Am Anfang stand die
mehr oder weniger stereotype musikalische Begleitung auf dem Klavier oder der
Orgel. Dramatische, traurige oder heitere filmische Momente wurden mit variie-
renden musikalischen Themen (cue sheeds) untermalt. Unter den Filmbegleitern
entwickelten sich auch regelrechte Filmkomponisten, die speziell für einzelne Filme
Musik entwarfen. Sobald die Kinos größer und prächtiger wurden, traten zudem
professionelle Filmorchester auf den Plan, die das Geschehen auf der Leinwand
begleiteten. Auf diese Weise entstanden filmische Soundtracks, welche die Bilder
synästhetisch ergänzten und die Filmbetrachtung zu einem komplexen sinnlichen
Erlebnis werden ließen. Indem der orchestrale Klang den Betrachter im Kinoraum
umgab, schuf er ein auditives Äquivalent zu den übergroßen Bewegtbildern auf der
Leinwand, womit das immersive Erleben noch einmal entscheidend verstärkt wurde.
Die Genese des Kinos als Ort audiovisueller Immersion ging mit dem Wandel
vom Attraktionskino zum Erzählkino einher (Gunning 1990; s. u.). Es war nun nicht
mehr der reine Schauwert der ‚lebenden Bilder‘, mit dem das Publikum gelockt wurde,
sondern filmische Erzählungen, die illusionäre Wahrnehmungswelten entstehen
ließen. Diese narrative Ausgestaltung der Filme wurde ab etwa 1913 begleitet von
einer Kinoarchitektur, die die Besucher physisch und mental in imaginationsanre-
gende Vorräume eintreten ließen, architektonische Übergänge zu den Erzählwelten
der Filme. Ausgehend vom New Yorker Broadway wurden zahlreiche Kinos in den
USA und Europa zu spektakulären Erlebnisräumen, die bereits mit ihren Außenfas-
saden den Eintritt in eine Welt der Mythen, Geschichten und Fiktionen versprach.
Für diese Kinopaläste stand nun nicht mehr allein das Theater Pate, sondern ein
reiches Spektrum an mythisierten Architekturen: Schlösser, griechische Tempel
oder asiatische Pagoden bildeten die Vorlage für eine dramaturgisch gestaltete
Raumarchitektur (Bredella 2009). Vom Eintritt in die Lobby bis zum Kinosaal
wurde der Besucher durch eine Erlebniskulisse geleitet, die ihn mental mit jedem
Schritt vom Alltag in die Illusionssphären des Kinos überführen sollte. In diesen
auch „atmospheric theatres“ genannten Kinos (ebd.) wurden die Zuschauer um-
geben von einer Atmosphäre des Glamours, der Exotik und des Abenteuers. Mit
dem Einbezug von Getränke- und Speiseverkauf, der Einrichtung von Lounges und
Kosmetikräumen (ebd.) in die Spektakelarchitektur wurde ein ganzer Parcours an
Angeboten geschaffen, der den Kinobesuch zu einem vielseitig sinnlichen Erlebnis
machte. Den besonders in den 1920er-Jahren boomenden Kinopalästen gelang es
auf diese Weise, ein Massenpublikum über verschiedene soziale Schichten hinweg
zu erreichen. In der Verbindung von bürgerlicher Theaterkonvention und den
ins Glamouröse überhöhten Schauwerte des Variétés, aber auch des Jahrmarktes
4.2 Analoge Medien der Audiovision 205

(ebd.), schufen sie sinnliche Erlebnisräume, die für ein breites Publikum attraktiv
waren. Somit trugen die Kinopaläste wesentlich dazu bei, dass sich das Kino als
neues Massenmedium im 20. Jh. etablierte.

▶▶ Während sich die Orte der Filmprojektion zwischen dem Ende des 19. Jh. und
den ersten zwanzig Jahren des 20. Jh. zunehmend als multisensorielle Erleb-
nisorte entfalteten, fand auch in der Genese filmischer Ausdrucksformen eine
immer weitreichendere technische und ästhetische Adressierung der Zuschau-
erwahrnehmung statt.

Für die frühe Entwicklung hat der der Filmhistoriker Tom Gunning (1990) zwei
wesentliche Phasen ausgemacht: Die Jahre vor 1906 bezeichnet er als die Phase
eines Attraktionskinos („Cinema of Attraction“), in dem die neuen Möglichkeiten,
fotografische Bilder zum Laufen zu bringen und zu animieren im Vordergrund
standen. Wie Gunning betont, zeichnet sich das Attraktionskino durch einen
dezidiert exhibitionistischen Gestus aus: die technischen und gestalterischen
Tricks und Errungenschaften wurden als eigenständiges Spektakel vorgeführt.
Filmisches Illusionserleben beschränkt sich hier noch weitgehend auf einfache
Animations- und Bewegungseffekte und ist nur begrenzt in fiktionale Szenarien
eingebunden. Zwischen 1907 und 1913 folgt die Phase des frühen Erzählkinos, in
der die fiktionalen Filme geschlossene Erzählwelten zu schaffen begannen. In dieser
Phase entstand eine neue Illusionsästhetik, die auf dem Verbergen von filmischer
Apparatur und Inszenierung beruhte. In beiden frühen Phasen steht die Adres-
sierung der Zuschauerwahrnehmung im Mittelpunkt apparativer Entwicklungen
und filmischer Ausdrucksformen.
In der Phase des Attraktionskinos stand die Faszination für und das Experimen-
tieren mit den ‚laufenden Bildern‘ im Vordergrund. Wie es oben bereits anklang,
setzten die Gebrüder Lumière, Edison und die Gebrüder Skladanovsky, aber auch
Georges Méliès die Tradition der Bilderspektakel fort, wie sie über Jahrmärkte
und Variétés bereits vertraut waren, einschließlich der Laterna-Magica-Shows.
Das thematische Spektrum ihrer kurzen „one-reeler“ (Einspuler) reichte von der
Darstellung alltäglicher Handlungen und Ereignisse über die Dokumentation ak-
robatischer Nummern, Gags und, bei Méliès, auch der ersten fiktiven Geschichten.
Ihre Bildgestaltung zeichnete sich durch eine feste Kameraposition aus. In statischen
Einstellungen wurde Bewegung im Bild in Szene gesetzt: Ein Zug fährt entlang
eines Bahnhofgleises auf die Kamera zu, Menschen steigen aus und gehen auf die
Kamera zu; Arbeiter verlassen eine Fabrik, kommen der Kamera entgegen und
gehen an ihr vorbei; ein Mann sprengt einen Rasen und wird durch den Streich
einer unsichtbaren Person im Off selbst vom Schlauch bespritzt; ein Känguru mit

205
206 4 Medien der Audiovision

Handschuhen boxt mit einem Mann. Bereits diese wenigen Beispiele mögen ge-
nügen, um zu zeigen, dass der Anfang filmischen Ausdrucks darin lag, Bewegung
von Menschen und Dingen mit der Kamera aufzunehmen und in der Projektion
optisch wiederherzustellen, sodass der Eindruck lebensechter Bewegung auf der
Leinwand entsteht. Während die Kamera sich selbst noch nicht bewegte, lag der Fokus
filmischer Komposition auf ihrer Positionierung gegenüber ihren Filmobjekten.
Vor allem bei tiefengestaffelten Raumansichten (etwa eines Bahnhofs) wurden die
Bewegungen von Personen und Objekten im Verhältnis zur Kamera unterstrichen.
Auf diese Weise konnte auch die Dreidimensionalität des Bildraumes betont werden.
Kompositionen hingegen, die das Geschehen (z. B. den Boxkampf vor einer Wand)
im Bildvordergrund platzierten, produzierten flache Raumansichten, um den Blick
der Zuschauer zu fokussieren.
Mit den Bewegungen auf die Kamera zu wurde die Koordination von Kamera­
blick und Zuschauerblick als zentrales Gestaltungsprinzip erprobt, um filmische
Illusion zu erzeugen. Bezeichnender Weise schauen die Personen in den beiden
erwähnten Filmen der Lumières nicht in die Kamera. Auch wenn sie auf diese Weise
rein technisch verbürgte Dokumentarizität behaupteten, sind bereits diese Filme
der Lumières Ausdruck einer wirkungsorientierten Inszenierung von Wirklich-
keit. Indem die Darsteller die Kamera ignorieren, machen sie sie für die Betrachter
unsichtbar. – Der visuelle Schauwert bestand also für das Publikum damals in der
Animation der dargestellten Ereignisse durch den detailgenauen Bilderfluss, sowie
in Illusion einer dokumentierten Wirklichkeit, die ‚unvermittelt‘ und in übergroßer
Projektion den Augen der Betrachter dargeboten wird.
Offensichtlicher als die Lumières, nutzte Georges Méliès die ‚lebenden Bilder‘ als
Augenspektakel und überführte sie als einer der ersten in das Reich der Fiktion. Vom
Theater und Variété kommend, wo er Zaubertricks und magische Shows vorführte,
entdeckte er den Film zunächst als ein Medium, um seine optischen Täuschungen
zu erweitern. Dabei kombinierte er Bühnen- und Filmtechnik in einer Weise, die
die Illusionstechniken beider Medien völlig neuartig verknüpfte. In seinem glä-
sernen Filmstudio, das mit verstellbaren Bühnen und diversen Kulissenelementen
ausgestattet war, filmte er unter Einsatz von Tageslicht sowohl kurze Szenen mit
Kunststücken und optischen Täuschungen, als auch bald längere Filme, die eine
erzählerische Rahmenhandlung hatten. So war er einer der ersten Filmemacher, der
gezielt für die Kamera Geschichten inszenierte und damit den bloßen Schauwert
‚lebender Bilder‘ um fiktionale Erzählungen erweiterte. In seinem berühmtesten
Film, Reise zum Mond (F 1902, 16 Min.), griff er eine Science-Fiction Geschichte
von Jules Verne auf. Der damals im Reich des Fantastischen angesiedelten Utopie
der Mondreise verhalf er in der Verbindung von Bühnen- und Filmtechnik zu
einer neuartig fotografischen Illusion. Das Geschehen fand auf einer Bühne statt,
4.2 Analoge Medien der Audiovision 207

die keinerlei Anspruch auf Realismus erhob, sondern vielmehr ein typisch kulis-
senartiges Setting des Theaters darstellte. In aufwändiger Ausstattung gestaltete
Méliès mehrere Szenenbilder für die verschiedenen Ereignisse in der Geschichte. Die
Schauspieler bewegten sich innerhalb der festen Szenenbilder und vor der Kamera
in sorgfältig choreografierter Weise. Diese theaterhafte Inszenierung wurde jedoch
entscheidend um neue filmische Ausdrucksformen erweitert. Als einer der ersten
erkannte Méliès nämlich die Möglichkeit, den Bilderfluss dramaturgisch zu gestalten.
Im Unterschied zu anderen frühen Filmemachern ließ Méliès die Kamera nicht
einfach laufen, um das Geschehen in seinem kontinuierlichen Verlauf einzufangen,
sondern wechselte zwischen unterschiedlichen Szenenbildern. Für die Übergänge
gestaltete er Überblendungen, indem er den Film anhielt, zurückspulte und vor dem
nächsten Szenenbild erneut belichtete. Die auf diese Weise entstanden Blendeffekte
stellten weiche Übergänge zwischen zwei Szenenbildern her, und konnten zugleich
Kontinuität der Handlung suggerieren. Darüber hinaus bediente sich Méliès als
einer der ersten Filmemacher der Stopp-Trick-Technik. Was er ursprünglich als
‚magischen‘ Trick für seine Zauberfilme entdeckt hatte, um Personen oder Dinge
im Bild von einem Moment zum anderen verschwinden zu lassen, nutzte er in Reise
zum Mond auch als dramaturgisches Element des Szenenwechsels. In der bekann-
testen Szene des Films, in der ein menschliches Gesicht in Mondgestalt auftaucht
und im nächsten Moment eine Rakete in seinem linken Auge landet, nutzte Méliès
den Stopp-Trick außerdem, um eine plötzliche Zustandsveränderung des Mondes
im Bild zu inszenieren. (siehe Abbildung 26)

Abb. 26 Voyage à la lune (Reise zum Mond) (R: George Méliès, F 1902)

Die Mondszene ist jedoch auch in anderer Hinsicht aufschlussreich: Mittels Bühnen-
technik ließ er das Mondgesicht zuvor aus der Totalen am Himmel auf die Kamera
zu bewegen, bis es in der Nahaufnahme vor dem Auge der Zuschauer erschien. Auf
diese Weise nutzte Méliès einerseits die Kopplung von Kamera- und Zuschauerblick,
um Dynamik und Augenkitzel beim Zuschauer zu evozieren. Andererseits war damit

207
208 4 Medien der Audiovision

auch ein fiktionalisierendes Moment verbunden. Mit der Annäherung des Mondes
zur Kamera wurde den Betrachtern auch die Überwindung raum-zeitlicher Distanz
der Astronauten bei ihrer Reise zum Mond sinnlich vermittelt. In der Verbindung
von Bühnen- und Filmtechnik schuf Méliès also fantastische Illusionsräume, die
durch die filmfotografischen Bilder eine realistische Erscheinung erhielten.

„Was dem Publikum am Kinophantastischen tatsächlich gefällt“, formulierte der


Kinotheoretiker André Bazin mit Blick auf Méliès treffend, „ist gerade dessen Re-
alismus, das heißt der Widerspruch zwischen der unbestreitbaren Objektivität des
fotografischen Bildes und dem unglaublichen Charakter des Geschehens“ (2009, S. 164).

In der Phase des frühen Attraktionskinos wurden die neuen filmischen Ausdrucks-
möglichkeiten auch im Umfeld der britischen School of Brighton erprobt. George
Albert Smith und James Williamson experimentierten erstmals mit unterschied-
lichen Einstellungsgrößen in Einzelbildern und in Bildfolgen. Bei Smith handelte
es sich um einen ehemaligen Vorführer von Laterna-Magica-Shows, der also die
Dramaturgie von Bilderfolgen bereits gezielt eingesetzt hatte und seine Erfahrungen
nun im Medium des Films fortsetzte. Zwischen 1896 und 1910 erprobten die Fil-
memacher aus Brighton in zahlreichen Kurzfilmen bildformale Grundelemente des
späteren Erzählfilms: Die Auflösung einer Szene in eine Abfolge unterschiedlicher
Einstellungsgrößen, sowie den Wechsel von Perspektiven. Auch hierbei stand die
Bildwirkung auf die Betrachter im Vordergrund. In Grand Ma’s Reading Glasses (1900)
etwa wechselt Smith mehrfach zwischen einer Halbnahen, die eine Großmutter mit
ihrem Enkel zeigt, und verschiedenen Detailaufnahmen. Während die Halbnahen
zeigen, wie der Junge mit einer Lupe unterschiedliche Objekte fokussiert, zeigen
die Detailaufnahmen seinen Blick durch die Lupe auf die Objekte. In Seen through
a Telescope (1900) wechselt Smith zwischen Totaler und Detailaufnahme: der An-
sicht eines Mannes auf der Straße mit einem Fernrohr und der Detailaufnahme des
Damenbeins einer Radfahrerin, das er mit damit betrachtet. (siehe Abbildung 27)
Indem sie mittels Stopp-Trick unterschiedliche Einstellungen aufeinander folgen
ließen, entdeckten sie auch wesentliche Grundregeln der alternierenden Montage,
die dem Prinzip transparenter Blickführung folgt und die später zum wesentlichen
Ausdrucksmittel des Unterhaltungsfilms in seiner sogenannten ‚klassischen‘ Form
wurde. In diesen frühen Montageformen wurden einfache Blickfolgen und Wechsel
zwischen betrachtendem Subjekt und dem Gegenstand der Betrachtung aus einer
subjektiven Perspektive (Point of View) kombiniert. Aspekte des angeborenen
Erkundungssehens wurden zu Prinzipien der Verknüpfung von Einstellungen.
Auf diese Weise wurde den Betrachtern ein natürlicher Sehakt suggeriert, den sie
problemlos antizipieren sollten. Damit schufen sie wesentliche Grundlage einer
an der angeborenen Bewegungswahrnehmung orientierten Bilderreihung (s. o.).
4.2 Analoge Medien der Audiovision 209

Abb. 27 Einfache Blickkonstruktionen in der frühen Montage: As seen through a


telescope (R: George Albert Smith, GB 1900)

Bereits 1899 experimentierte Smith auch mit dem Wechsel von Außen- und Innen-
aufnahmen, wobei er sogar Filmausschnitte mit Kamerafahrten einsetzte. In Kiss
in a Tunnel (USA 1899) fährt ein Zug aus einem Tunnel auf die Kamera zu und an
ihr vorbei; daraufhin fährt die Kamera entlang der Schienen auf den dunklen Tun-
neleingang zu; nach einem Schwarzbild folgt ein Szenenwechsel auf das Innere eines
Zugabteils, wo ein Mann und eine Frau die kurzfristige Dunkelheit nutzen, um sich
zu küssen. Es folgen erneut ein Schwarzbild und eine Kamerafahrt aus dem Tunnel
heraus. Der Wechsel zwischen Außen- und Innenraum ist hier nicht nur durch eine
intuitive Blickführung motiviert, sondern spielt auch mit dem voyeuristischen Reiz
für die Betrachter, unbeobachtet einer intimen Szene beizuwohnen. Auch dies wurde
in Zukunft ein wichtiges psychologisches Wirkungsprinzip des Unterhaltungsfilms.
Der Wechsel zwischen szenischen Innen- und Außenräumen wurde besonders
für die Inszenierung actionreicher Handlungen immer wichtiger. In The Great
Train Robbery (USA 1903) erzählt Edwin S. Porter den Überfall auf einen Zug.
Die Zusammenstellung der Szenen folgt hier dem Prinzip filmischer Kontinuität,
wobei unterschiedliche Handlungsmomente verdichtet und chronologisch darge-
stellt werden. Während die Bildfolgen zunächst kontinuierlich die Handlungen der
Räuber zeigen – vom Überfall des Bahnwärters und des Schaffners, über das Kapern
der Lokomotive bis zur Flucht mit ihrer Beute –, fügt Porter in der zweiten Hälfte
Parallelhandlungen ein: ein Mädchen findet den gefesselten Bahnwärter und ruft
Hilfe; Polizisten auf einem Fest erreicht die Nachricht und sie brechen auf, die Räuber
zu fangen. Indem Porter zwischen den flüchtenden Räubern, der Entdeckung des
Raubs und der Verfolgung durch die Polizei wechselte, schuf er in der Bilderfolge
mehrere gleichzeitig und kontinuierlich stattfindende Handlungsstränge. Auf diese
Weise steigerte er das Spannungserleben der Betrachter und zeigte das Potential
209
210 4 Medien der Audiovision

der Montage gerade für das Actionkino. Das Prinzip filmischer Kontinuität, das
für die Erfahrung geschlossener Erzählwelten zentral ist, wurde hierbei erweitert:
die kontinuierliche Verfolgung von Handlungen an unterschiedlichen Orten,
verbunden mit orientierenden Zwischeneinstellungen.
Obgleich sie wesentliche Wirkungsprinzipien filmischer Illusion in der Bilder-
folge entdeckten, stehen auch diese Filme noch im Zeichen des Attraktionskinos,
das seine Tricks und Schauwerte dem Publikum in exhibitionistischer Weise
vorführt. Mit anderen Worten: sie laden weniger zur imaginativen Versenkung
in eine fiktionale Welt ein, als sie die kurzen und intensiven Spektakeleffekte des
neuen Mediums vorführen. Wie Gunning es formuliert:

„To summarize, the cinema of attractions directly solicits spectator’s attention, inci-
ting visual curiosity, and supplying pleasure through an exciting spectacle – a unique
event, whether fictional or documentary that is of interest in itself“ (1990, S. 58).

Um 1907 geriet das Attraktionskino in eine nachhaltige Krise. Auf der einen
Seite traten beim Publikum offenbar Gewöhnungseffekte auf, sodass das reine
Augenspektakel an Attraktivität verlor. Auf der anderen Seite sah sich das Kino
wachsender Kritik von bürgerlicher Seite ausgesetzt, besonders in Frankreich und
Deutschland. Die bürgerliche Kunstkritik und Pädagogik sah durch die Konzen-
tration auf sinnliche Erregung die Gefahr einer gravierenden Überreizung und
Verrohung des Publikums aufkommen. Vor dem Hintergrund eines idealistisch
geprägten Kunstverständnisses wurde der Film als ein primitives Massenspektakel
abgelehnt. In der deutschen „Kinodebatte“ wurde gefordert, den Film vielmehr als
Medium der moralischen und ideellen Bildung zu nutzen.
Die Bewegung, den Film an die bürgerlichen Werte und Kunstauffassungen
heranzuführen, fand 1908 in Frankreich ihren wichtigsten Niederschlag in der
Gründung der Firma „Film d’Art“ von Léon und Paul Lafitte. Ihre Strategie der
kulturellen Aufwertung bestand darin, den Film mit dem Theater zu verbinden.
Hierzu inszenierten sie Theaterstücke auf der Bühne, oft mit Schauspielern der
renommierten Comédie Francaise, und filmten das Bühnengeschehen mit einer
statischen Kamera ab. Gestalterisch fielen sie damit jedoch weit hinter die bereits
etablierten Standards filmischer Ausdrucksformen zurück und konnten weder das
schaulustige, noch das kulturbeflissene Publikum gewinnen. Wesentlich erfolgrei-
cher in der Adaptation literarischer Vorlagen waren die italienischen Regisseure.
Sie trugen wesentlich dazu bei, dass sich der europäische, aber auch der US-ame-
rikanische Film vom Attraktionskino zum Erzählkino wandelte.
Die italienischen Filmemacher hatten schon früh begonnen, historische Stoffe
filmisch umzusetzen, wie etwa Die letzten Tage von Pompeii (I 1913), eine Verfilmung
4.2 Analoge Medien der Audiovision 211

des gleichnamigen Romans von Edward Bulwer-Lytton. In der Verfilmung von


Mario Caserini wurden wesentliche Grundsteine für den Historienfilm und damit
auch für die Entwicklung des Erzählkinos gelegt. In aufwändigen Kulissen und im
Wechsel zwischen Studio- und Außenaufnahmen wurde die Geschichte eines jungen
Liebespaares erzählt, das sich im Jahr 79 v. Chr., kurz vor dem Vulkanausbruch des
Vesuv, in Pompei findet und mit diversen Intrigen, gesellschaftlichen und religiösen
Konflikten zu kämpfen hat. Im Sinne Gunnings zeichnet sich hier eine neue Tendenz
zu geschlossenen filmischen Erzählwelten ab, die den Zuschauern über die Hand-
lungen und Gefühle von einzelnen Figuren vermittelt werden. In den Bilderfolgen
entstehen elliptisch verdichtete Darstellungen von Handlungen und Ereignissen,
die mit Bezug auf unterschiedliche Figuren perspektivisch gebrochen sind. Zur
erzählerischen Ausgestaltung der fiktiven Welt tragen Zwischentitel bei, auf denen
wichtige Informationen zum Handlungsgeschehen, den Gefühlen der Figuren, aber
auch ihren Dialogen vermittelt werden, und die damit die Aufgabe der Vorführer
in der Frühzeit des Films übernehmen (vgl. Mann 2015). Während die Stimme der
Vorführer die Zuschauer immer wieder an ihre eigene Präsenz im Vorführraum
erinnerte, sind die Zwischentitel in den Filmfluss integriert. Insofern trugen sie
wesentlich zur immersiven Wirkung filmisch geschlossener Erzählwelten bei.
Ein Meilenstein des italienischen Historienfilmes, der die internationale Ent-
wicklung des Erzählkinos wesentlich beeinflusste, war Cabiria von Giovanne
Pastrone (I, 1914). Das Drehbuch des Autors Gabriele D’Annunzio, inspiriert von
Gustave Flauberts Roman Salambo (1862), legte seine Geschichte als umfassendes
Epos an, das in mehreren Kapiteln erzählt wird. Auch hier dienten Zwischentitel
der erzählerischen Strukturierung und der Ergänzung der Bilder. Die im 3. Jh. v.
Chr. im antiken Catania angesiedelte Geschichte schildert die Wirren und Kon-
flikte im Umfeld des Punischen Krieges zwischen Römern und Kathargern aus der
Perspektive einzelner Figuren. Der dreistündige Film setzte völlig neue Maßstäbe
filmischer Ausstattung und Technik. Die monumentalen Kulissen erinnerten nun
nicht mehr an Theaterbauten. Vielmehr handelte es sich erstmals um eine genuine
Filmarchitektur, die durchgängig auf die Produktions- und Wirkungsweisen des
Films abgestimmt war (vgl. auch Weihsmann 1976). In weitläufigen Studios wurden
Paläste und monumentale kultische Stätten aus Gips gebaut, die auch vor der nahen
Kameralinse den plastischen Anschein massiver Steinbauten hatten. Die Kulissen
waren zudem so konstruiert, dass die Kamera an verschiedenen Stellen aufgebaut
und unterschiedliche Ansichten eines Szenenbildes aufnehmen konnte – etwa
bei den Katastrophenszenen des Vulkanausbruchs oder einer Verfolgungsjagd
auf einer riesigen kultischen Moloch-Statue. Die Filmarchitektur erlaubte auch
erstmals Kamerafahrten und Raumschwenks, wodurch die bis dato herrschenden
statischen Frontalansichten einer Szene ebenfalls dynamisiert wurden und neue

211
212 4 Medien der Audiovision

dreidimensionale Effekte des filmischen Raums entstanden (vgl. Weihsmann 1976).


Auf diese Weise verlor der erzählende Film seine Bühnenhaftigkeit und näherte sich
dem Prinzip eines mimetischen Illusionismus, wie er für das Unterhaltungskino
prägend wurde.
Einen wesentlichen Beitrag zum filmischen Illusionismus des Erzählkinos
leistete in der Folge das US-amerikanische Kino. Filmemacher in Hollywood wie
Porter und David W. Griffith loteten die vielseitigen Möglichkeiten der Montage
aus, die Zuschauer an die Handlungen und Ereignisse einer Geschichte in einer
sinnlich und affektiv vereinnahmenden Weise heranzuführen. Die Montage, das
Aneinanderreihen einzelner Einstellungen im Filmschnitt, wurde von nun an zu
einem wesentlichen Ausdrucksmittel des Films und zugleich zum entscheidenden
Element, die Wahrnehmung und das Verstehen des Filmgeschehens beim Betrachter
zu strukturieren.

▶▶ Mit der Durchsetzung des Films als Erzählmediums wurde das Prinzip filmischer
Kontinuität in allen Bereichen der Produktion und Darstellung professionalisiert
und optimiert: Drehbuch, Schauspiel, Kostüme, Kamerapositionen, Bewegun-
gen, Montage. Dazu gehörte wesentlich die Blickführung des Publikums, die
mithilfe der Montage unterschiedlicher Kameraperspektiven organisiert wurde.

Während man schon vorher Kamerablicke mit den Zuschauerblicken koordinierte,


galt es nun, in ihrer montierten Reihung die Blickführung weitergehend zu optimie-
ren. Im Trial-and-Error-Verfahren wurden die wahrnehmungspsychologischen Ef-
fekte unterschiedlicher Montagemuster erprobt, wobei die Nachahmung natürlicher
Seh- und Verstehensvorgänge im Vordergrund stand (vgl. Bordwell 2001, Anderson
1996): etwa durch Verknüpfungen zwischen den einzelnen Einstellungen, die für
das Erleben flüssiger Handlungs- und Perspektivfolgen sorgen, indem raum-zeitlich
und logisch passende Anschlüsse hergestellt werden (z. B. kontinuierliche Bewe-
gungsrichtung, Kontinuität der Figurenerscheinung, Kontinuität der Räume); in
der regelmäßigen Verwendung von Einstellungen, welche die physisch-räumliche
Relation zwischen Figuren oder Objekten anzeigen (z. B. Schuss-Gegenschuss,
POV, Over-Shoulder, Eyeline Matches bzw. Blickachsen Schnitt); oder das Einfü-
gen von Einstellungen und Sequenzen, welche übergreifende Relationen zwischen
Ereignissen und Orten in der gesamten diegetischen Welt des Films vermitteln,
wie Cross-Cutting, Rückblenden und Vorblenden (z. B. bei Verfolgungsjagden).
Vor allem Griffith erkannte in seinen Kurz- und Langfilmen um 1915 das
Potential der Montage, den Informationsfluss beim Zuschauer erzähltaktisch zu
lenken. In seinem dreistündigen Spielfilm Birth of a Nation (USA 1915) entfaltete
er die wahrnehmungspsychologische Kunst der Montage auf historisch einfluss-
4.2 Analoge Medien der Audiovision 213

reiche Weise. In den ersten zwanzig Minuten präsentiert er im Zusammenschnitt


unterschiedlicher Sequenzen das soziale Panorama vor dem Amerikanischen Bür-
gerkrieg am Beispiel zweier befreundeter weißer Patrizierfamilien und den ihnen
untergeordneten schwarzen Sklaven und Dienstboten. Die Montage dient hier v. a.
der Einführung zentraler Figuren, Gruppen und ihrer sozialen Kontexte. Daneben
bieten die in der Montage eingefügten Zwischentitel weitergehende Informationen.
Nach der allgemeinen Orientierung der Zuschauer am Filmanfang, fokussiert die
Darstellung mit dem Aufkommen der ersten gewalttätigen Konflikte zwischen den
sozialen Gruppen zunehmend auf einzelne Charaktere. Während die aufbegehrende
unterdrückte Gruppe der Schwarzen jedoch vorwiegend als Kollektiv gezeigt wird,
vermittelt Griffith die individuellen Erlebniswelten der weißen Protagonisten auf
empathische Weise. Besonders dramatisch lässt er die Zuschauer an dem Erleben
von zwei weißen Mädchen teilnehmen, deren Haus von schwarzen Guerillakämpfern
überfallen wird. In einer dynamischen Parallelmontage (siehe Abbildungen 28 und
29) wechselt Griffith in kürzer werdenden Abständen zwischen der angreifenden
Masse und den verängstigten jungen Frauen, die sich immer weiter in den Tiefen
des Hauses verschanzen, bis sie ein Versteck unter den Bodendielen erreicht haben,
während die Guerilleros ihnen immer näherkommen. Griffith setzt die Montage
hier gleich auf mehreren Ebenen ein, in einer Weise, die seitdem ihren Einsatz im
Erzählkino wesentlich charakterisiert: die visuelle, räumliche und zeitliche Ori-
entierung der Betrachter; die Vermittlung subjektiver Figurenperspektiven, sowie
als erzählerisches Ausdrucksmittel (vgl. Peters 1999, S. 37 ff.).

Abb. 28 + 29 Parallelmontage: Birth of a Nation (R: David W. Griffith, USA 1915)

213
214 4 Medien der Audiovision

Als Mittel der Betrachterorientierung fügt Griffith in der Montage die Ansichten
von Angreifern und Angegriffenen nach dem Prinzip der Kontinuität zusammen.
Die Fragmente der beiden Handlungsstränge (Angriff und Flucht) werden derart
miteinander verkettet, dass die Zuschauer visuell die Gruppen bzw. Charaktere in
raum-zeitlicher und handlungslogischer Kontinuität verfolgen können. Dabei bietet
die Montage in der Abwechslung der Ansichten, mit Jan-Marie Peters gesprochen,
einen „idealen Wahrnehmungsstandpunkt“ (1999, S. 40). Daneben vermittelt
Griffith den Betrachtern durch den Einbezug von Nahaufnahmen der Gesichter
und dem Wechsel von Point-of-View- und Reaktionseinstellungen der verfolgten
jungen Frauen auch sinnlich affektive Teilhabe am subjektiven Erleben der beiden.
Mit dieser Subjektivierung zielt die Montage auf die Identifikation mit den Figuren
ab. Außerdem ist sie in der spezifischen Verknüpfungsform hier auch Ausdruck
eines erzählerischen Aktes, und zwar in mehrfacher Hinsicht: Zum einen zeugt die
geschilderte Lenkung des Zuschauerblicks, sowie die im Laufe der Szene häufiger
werdenden Wechsel zwischen den Akteuren und ihren Orten, von dem erzähleri-
schen Willen zur Dramatisierung des Geschehens und der maximalen sinnlichen
und affektiven Involvierung der Zuschauer. Zum anderen weist die Parallel­montage
mit ihrer Gegenüberstellung der schwarzen Angreifer als aggressiver Masse und
der weißen und subjektiv empfindenden Individuen eine symbolisch expressive
Bedeutung auf. Indem die Zuschauer nämlich zur Identifikation mit der bürgerli-
chen, weißen Familie eingeladen werden, deren Bedrohung, Flucht und Verteidi-
gung gegenüber einer Masse an schwarzen Guerilleros in der Montage empathisch
inszeniert wird, vermittelt sie eine deutlich rassistische Aussage, die sich durch
den gesamten Film zieht, und für die Griffith – bei aller gelobten künstlerischer
Brillanz und Innovation – immer wieder kritisiert worden ist.
Mit Birth of a Nation erfuhr das im südlichen Kalifornien gelegene Hollywood
seinen ersten bahnbrechenden Erfolg gegenüber der Filmindustrie an der Ostküste.
Seit dieser Zeit etablierte sich Hollywood immer mehr zum Zentrum der US-ameri-
kanischen Filmproduktion, in denen die Prinzipien der Zuschauerinvolvierung des
erzählenden Illusionskinos zunehmend perfektioniert wurden. Dies betraf neben
der Verbesserung von Aufnahme- und Kameratechnik etwa die Standardisierung
von Regeln des sogenannten unsichtbaren Schnitts, der aufgrund seiner maximalen
Anpassung an Prozesse menschlicher Wahrnehmung und Verstehens die Bilder
auf der Leinwand wie durch ein Fenster betrachten lässt. Dem Prinzip logischer
und raum-zeitlicher Kontinuität gehorchend, etablierte sich zu diesem Zwecke in
der Montage das klassische continuity-editing-system, in dem die Informations-
vermittlung und Blicklenkung der Betrachter hierarchisch aufgebaut war: von der
allgemeinen Orientierung in einem establishing shot in einer Totalen über immer
näher an die Figuren und handlungsrelevante Details heranrückende Perspekti-
4.2 Analoge Medien der Audiovision 215

ven (vgl. Beller 1995, Bordwell/Thompson 2003). Auch die Berücksichtigung von
Handlungs- und Blickachsen, die sich durch die Positionierung von Schauspielern
vor der Kamera (innerhalb eines 180-Grad-Winkels) ergeben, zielte darauf ab, diese
für die Betrachter sinnlich und kognitiv auf intuitive Weise nachvollziehbar und
damit als quasi ‚natürliche‘ Blickfolge erfahrbar zu machen.

▶▶ In der Tradition früherer Bildmedien seit der Renaissance (Kap. 3) zielt die
unsichtbare oder transparente Montage mit ihren sogenannten ‚klassischen‘
Kontinuitätsregeln seitdem auf das Verdecken medialer Konstruktionstechni-
ken zugunsten sinnlicher, affektiver und kognitiver Immersion der Betrachter.

Die identifikatorische Wirkung der Erzähl- und Bildtechniken wurde in Hollywood


durch den strategischen Einsatz von Stars noch weitergetrieben. Die geschilderten
filmischen Immersionstechniken intensivierten mit der Darstellung psychologischer
Figuren die affektive Steigerung, wenn diese mit dem Image populärer Filmstars
verschmolzen. Die Nahaufnahme wurde daher auch zur bevorzugten Einstellung
im Hollywoodkino, da sie dem Publikum eine perzeptive Nähe zum übergroßen
Körperbild der Stars auf der Leinwand erlaubte (vgl. Dyer 1986).
In der medialen Umbruchsituation um 1900 hatten der Film und das Kino also
bereits spezifische Strukturen ausgebildet, die in weiten Bereichen auf die Präsenz
und das mimetische Illusionserleben filmischer Welten während der Betrachtung
abzielten: Dies betraf zum einen die Platzierung der Zuschauer im dunklen Kino-
saal vor einer Leinwand, auf welcher das fiktive Geschehen in überlebensgroßer
Projektion gezeigt wurde. Indem das Blickfeld der Zuschauer auf diese Weise
weiträumig durch die Leinwandbilder ausgefüllt wurde und das Projektionsgerät
hinter ihren Rücken verdeckt war, zielte die körperliche Betrachtersituation auf
Präsenzerleben der Filmwelt. Die damit verbundenen immersiven Effekte wurden
unterstützt durch den skizzierten Wandel vom Attraktions- zum Erzählkino: die
Ausbildung filmischer Ausdrucksformen in Kameraeinstellungen, Montage und
Filmton (vgl. Balász 1924, 1930/2004), durch welche natürliche Blickfolgen simuliert
und der Zuschauerblick mit der Kameraperspektive gekoppelt wurden.

▶▶ Diese besondere Verbindung von Kino- und Filmtechnik, filmischen Ausdrucks-


formen und filmischer Rezeption im Zeichen optimalen Präsenzerlebens wird in
der Film- und Medienwissenschaft auch als „Dispositiv des Kinos“ bezeichnet
(Baudry 1994).

Die Ausbildung des immersiven Erzählkinos rief jedoch schon bald Gegenbewe-
gungen hervor. Diese waren historisch nicht minder einflussreich für die bis heute

215
216 4 Medien der Audiovision

herrschenden Kulturtechniken filmischer Audiovision, wenn auch auf indirekte


und nicht notwendig intendierte Weise. Gemeint sind avantgardistische Filmbewe-
gungen, die in der frühen Sowjetunion, aber auch in Europa in den 1920er-Jahren
den Film als künstlerisches und politisches Ausdruckmedium entdeckten. Im Mit-
telpunkt stand auch hier die sinnliche, kognitive und affektive Wirkung filmischer
Bilder auf die Betrachter – jedoch unter Vorzeichen, die dem Erzählkino zunächst
programmatisch entgegenstanden. Dem US-amerikanischen Film warfen die
avantgardistischen Filmemacher vor, das Publikum durch sinnliche und affektive
Überreizung zu überwältigen und damit in einen Zustand passiver Empfänglichkeit
für ideologisch geprägte Sichtweisen zu versetzen, wie etwa in Griffith’ Birth of a
Nation. Demgegenüber verfolgten avantgardistische Filmemacher wie Sergej M.
Eisenstein oder Wsewolod I. Pudowkin das Ziel, das sinnliche Potential filmischer
Bilder zu nutzen, um assoziative und gedankliche Prozesse bei den Betrachtern
frei zu setzen. Dabei sollte es möglich werden, bestehende Anschauungsweisen,
Regeln und gesellschaftliche Verhältnisse – vermittelt durch die filmische Erfah-
rung – kritisch zu hinterfragen. Geprägt wurde dieses neue Verständnis anfänglich
besonders von Regisseuren, die den Film als ein Medium entdeckten, mit dem
sie die breite Bevölkerung für die Ideale und Ziele des Kommunismus gewinnen
wollten. Insofern war der Impetus durchaus ein propagandistischer. Eine zentrale
Rolle nahm dabei von Anfang an die Montage ein.
Während die Montageregeln des Erzählkinos v. a. auf ‚Unsichtbarkeit‘ zugunsten
immersiver Effekte abzielten, nutzten das sowjetische Revolutionskino und seine
frühen avantgardistischen Nachfolger den Schnitt und die Montage dezidiert
anti-illusionistisch. Der konstruierte Charakter von Filmen sollte durchgängig
sichtbar und bewusst gemacht werden.

▶▶ Während die Montageprinzipien des Erzählkinos also darauf abzielen, sich im


Prozess der Wahrnehmung unsichtbar zu machen, zielt das Revolutionskino
umgekehrt darauf ab, die Bilder und Klänge in ihrer artifiziellen ‚Gemachtheit‘
zu betonen (vgl. Beller 1995, Hickethier 2012).

Die Verknüpfung einzelner Einstellungen erfolgte dabei nach expressiven und


symbolischen Kriterien, mit dem übergeordneten Ziel, die Zuschauer durch die
Kombination von Motiven und Bildelementen zu neuen Wahrnehmungen und
Assoziationen zu bewegen. Ein einflussreiches Beispiel ist Eisensteins Film Streik
(SU, 1925), in dem er die blutige Niederschlagung eines Arbeiterstreikes durch
zaristische Soldaten schildert. In der berühmtesten Szene des Films alterniert die
Montage zwischen Aufnahmen der vor den Soldaten flüchtenden Arbeiter und
Ansichten von der Schlachtung eines Ochsen. (siehe Abbildungen 30 und 31)
4.2 Analoge Medien der Audiovision 217

Abb. 30 + 31 Schlacht-Metapher in der Montage für Massaker an Streikenden, Streik


(R: Sergej Eisenstein, SU 1924)

In immer kürzer werdenden Abständen wird die Schlachthausszene mehrfach zwi-


schen die Flucht- und Erschießungsszene montiert. Nachdem am Ende der Ochse
tot in seinem Blut liegend gezeigt wird, folgen Aufnahmen von den massenhaft
erschossenen Arbeitern. Typisch für die avantgardistische Auffassung des Films als
Erkenntnismedium, schafft die Montage hier symbolische Beziehungen zwischen
den Bildern und evoziert somit neue Deutungszusammenhänge. Indem sie eine
bildliche Analogie zwischen den Menschen und dem Schlachtvieh herstellt, kreiert
die Montage eine Metapher für die Unmenschlichkeit des zaristischen Systems. Das
sinnliche und affektive Potential filmischer Bilder wird dabei gezielt eingesetzt, um
die Zuschauer diese Analogie nicht nur verstehbar, sondern auch sinnlich fühlbar
und erlebbar zu machen. Das physische Leiden des Tieres in Großaufnahme zu
sehen, soll das kollektive Leiden der Arbeiter körperlich und affektiv empfinden
lassen. Die Montage wird hier zum spezifischen Ausdrucksmittel des Films, weniger
im Dienste einer Geschichte, sondern einer kritischen Reflexion außerfilmischer,
217
218 4 Medien der Audiovision

gesellschaftlicher Zustände. Das Beispiel verdeutlicht zudem, dass auch die ex-
pressive Gestaltung der Montage im Avantgardefilm wahrnehmungsstrategisch
geprägt war. Wie es Eisenstein (1925) in seinen Überlegungen zur sogenannten
„Attraktionsmontage“ formulierte, sollten gezielte Wahrnehmungsreflexe, phy-
siologische „Attraktionen“, bei den Betrachtern ausgelöst werden, die über die
Montage in einen reflektierten Zusammenhang gestellt wurden. Das sinnlich
und affektiv reflexhafte Erleben – etwa der Bilder der Rinderschlachtung – wurde
somit eingebunden in einen übergeordneten gesellschaftskritischen Kontext (vgl.
Eisenstein 1925/1988a; 1925/1988b). Damit wurde die Montage für Eisenstein zum
wichtigsten Ausdrucksmittel des Films schlechthin:

„Montage ist das stärkste Kompositionsmittel für die künstlerische Realisierung eines
Sujets. […] Montage ist die Syntax des richtigen Aufbaus aller Einzelfragmente eines
künstlerischen Films. […] Montage ist schlicht und einfach eine elementare Regel
filmischer Orthografie. […] Einstellungen ohne Verbindung mit einem Montagege-
danken und der Komposition werden zu ästhetischen Spielereien und Selbstzweck.“
(Eisenstein 1934/2004, S. 288)

Die sowjetischen Regisseure experimentierten gezielt mit den verschiedenen af-


fektiven, kognitiven und körperlichen Effekten unterschiedlicher Montagefolgen.
Einflussreich für das Verständnis vom psychologischen Potential der Montage wurde
das sogenannte „Kuleshov-Experiment“ (ca. 1928). Der auch als Lehrer Eisensteins
geltende sowjetische Filmemacher Lev W. Kuleshov reihte hier in unterschiedlicher
Abfolge das Bild eines Mannes mit neutralem Gesichtsausdruck an Bilder einer
lasziv auf einem Divan liegenden Frau, eines Tellers Suppe und eines toten Mäd-
chens. Je nachdem, welche Bilderfolge er seinem Publikum zeigte, interpretierten
die Zuschauer den Blick des Mannes als sexuell begehrend, hungrig oder traurig.
Aus seinem Experiment folgerte er, dass für die Wirkung einzelner filmischer Bilder
entscheidender ist, wie sie in der Montage aneinandergereiht werden, als was die
einzelnen Einstellungen zeigen. Diese Erkenntnis hatte nachhaltige Folgen für die
weitere Entwicklung der Montage, nicht nur im Avantgardefilm, sondern auch im
Erzählkino. Wie es der Filmwissenschaftler Hans J. Wulff (1995, S. 178) formuliert,
wurden hier zwei zentrale Aspekte der Filmmontage deutlich:

▶▶ erstens, die Bedeutung einer Einstellung hängt immer vom jeweiligen Kontext
in der Bilderfolge ab, und zweitens, eine Veränderung der Reihenfolge von
Einstellungen in einer Sequenz verändert auch die Bedeutung der einzelnen
Einstellungen, sowie die der Gesamtsequenz.
4.2 Analoge Medien der Audiovision 219

Die Experimente der sowjetischen Avantgardebewegung haben neben der Bedeutung


der Reihenfolge von Bildern für filmischen Ausdruck auch weitere sinnliche Dimen-
sionen offenbart. Dies gilt etwa für die Bedeutung von Tempo und Rhythmus der
aufeinanderfolgenden Bildansichten (z. B. kürzere Abstände zwischen Ansichten bei
eskalierender Konfrontation von Streikenden und Soldaten in Streik), im Verhältnis
zu den abgebildeten Bewegungen im Bild (z. B. die rennenden Arbeiter in Streik).
Sie erkannten, dass etwa die Kopplung von schnellem Tempo und Rhythmus in
Bild und Montage entscheidend zur Dramatisierung des Dargestellten beitragen
kann. Ebenso kann durch Verlangsamung und Loop-artige Wiederholung von
Einstellungen eine Szene intensiver verstanden und erlebt werden. Die affektive
und körperliche Wirkung von Rhythmus und Tempo der montierten Bilderfolgen
sah der Filmtheoretiker und Regisseur Béla Balázs bezeichnender Weise in direkter
Analogie zu den menschlichen Blicken:

„Ein langer Blick hat eine andere Bedeutung als ein kurzer. Die Länge oder Kürze der
Szenen ist nicht nur eine rhythmische Angelegenheit, sondern bestimmt ihren Sinn.
[…] Jede Sekunde zählt. Nur ein Meter wird weggeschnitten, und die Szene – wenn
sie gut war – wird nicht kürzer, sondern verändert ihre Bedeutung. Sie hat einen
anderen Stimmungsgehalt bekommen.“ (Balázs 1924/2004, S. 254)

Das besondere Wirkungspotential von Tempo und Rhythmus in der Montage


zeigte Eisenstein in seinem Film Panzerkreuzer Potemkin (SU 1925). In einer viel
beachteten Szene des Films treiben bewaffnete zaristische Soldaten die Bürger der
aufständischen Stadt Odessa eine lange Treppe hinunter. In der Montage wechselt
Eisenstein zwischen kurzen Einstellungen der von oben langsam herab schreiten-
den Soldaten und langen Einstellungen der Flüchtenden. In der wiederkehrenden
Konfrontation dieser beiden Bewegungen entsteht eine zeitliche Dehnung der
Situation, die die Wirkung der Einzelbilder intensiviert. Zwischen die anhaltenden
und wiederholt gezeigten Angriffs- und Fluchtbewegungen setzte Eisenstein Auf-
nahmen von Müttern und weiteren Frauen, die sich den Soldaten entgegenstellen
und erschossen werden. Ein Kinderwagen rollt unkontrolliert die Treppe hinab,
den Geschossen der Soldaten ausgesetzt. Die affektive Teilnahme am Leiden der
Opfer wird durch die zeitliche Dehnung entscheidend verstärkt.
Neben dem sowjetischen Revolutionskino war auch das Kino der Neuen Sach-
lichkeit eine Filmbewegung, die in den 1920er-Jahren die verschiedenen Ausdrucks-
und Erkenntnismöglichkeiten der Montage mit Bezug auf ihre Wirkung erkundete.
Filme wie Berlin. Symphonie einer Großstadt (R.: Walter Ruttmann, D 1927) oder,
in einer Verbindung von Revolutionskino und Neuer Sachlichkeit, Der Mann
mit der Kamera (R.: Dziga Vertov, SU 1929), dokumentierten das moderne und
technisierte Großstadtleben. Tempo, Rhythmus und assoziative Verknüpfungen
219
220 4 Medien der Audiovision

vermittelten in der Montage typische Erlebnisaspekte: flüchtige Blicke aus dem


Zug oder der Straßenbahn, die collageartig verknüpft wurden, oder das in hoher
Schnittfrequenz vermittelte hohe Tempo, das in der Großstadt durch rationelle
Arbeitsteilung, Verkehr und Maschinen bestimmt wird.

▶▶ Abschließend lässt sich resümieren, dass das sinnliche Potential von Film
und Kino im Zentrum unterschiedlicher filmischer Entwicklungen stand: die
Anpassung der Kinoprojektion an die Wahrnehmungsvoraussetzungen und
Bedürfnisse der Zuschauer.

Im Anschluss an vertraute audiovisuelle Rezeptionsmodi der Lichtshows wurde


das Kino zu einem medientechnisch optimierten Erlebnisraum, der die Sinne
architektonisch sowie mit den Mitteln optischer Tricktechnik adressierte, um fil-
mische Welten auf eine Weise erfahrbar zu machen, die neben Auge und Ohr den
gesamten Körper der Zuschauer einbezieht: es konfrontiert sie mit überlebensgroßen
Körpern und Räumen auf der Leinwand, und platziert sie, in der Gemeinschaft mit
anderen, in einem dunklen Saal, der einer erhöhten Sensibilisierung des Sehens
und Hörens Vorschub leistet.
Auch die filmischen Ausdrucksformen sind bereits in den ersten Jahrzehnten
unmittelbar an der Wahrnehmung und den Emotionen der Zuschauer orientiert,
wobei sich drei wesentliche Tendenzen unterscheiden lassen:

▶▶ die unmittelbare Reizwirkung durch den Spektakelwert der ersten Filmbilder


und ihrer kinematografischen Vorführung im Attraktionskino; anschließend
die Einbindung menschlicher Wahrnehmungsprinzipien in eine sich unsichtbar
machende Ausdrucksprache des Erzählkinos; und schließlich die anti-illusionis-
tischen Tendenzen des Avantgardefilms, der gleichwohl ebenso strategisch das
Wissen um reflexhafte assoziative, affektive und sinnliche Wirkungen einsetzte,
um die Zuschauer politisch aufzuklären und zu mobilisieren.

Sowohl das Erzählkino als auch das Avantgardekino erfuhren mit dem Aufkommen
des Tonfilms zunächst eine Erschütterung, entdeckten aber rasch das Potential, das
der Filmton für die Bestrebungen beider Bewegungen bot.

4.2.3 Analoge Medien filmischer Audiovisualität

Wie wir gesehen haben, hatte sich das filmische Sehen bis Mitte der 1920er-Jahre
in vielseitiger Hinsicht entwickelt und unterschiedliche Techniken und Stile der
4.2 Analoge Medien der Audiovision 221

Sinnesadressierung ausgebildet. In der vorherrschenden Fixierung auf das Auge


wurde das Ohr bis dahin nur partiell angesprochen: in der begleitenden Live-Mu-
sik auf Klavier oder durch ein Orchester, sowie durch das Abspielen einer Platte
auf dem Grammophon, wie dies Edison bei seinem Kinetoskop bzw. Kinetophon
bereits um 1895 praktiziert hatte. Daneben nahmen Zwischentitel auf indirekte
Weise die Rolle der Stimme ein: zur Wiedergabe von Dialogen und zur Vermittlung
einer Erzählerstimme, wie sie aus Bühnenshows zuvor bekannt war. Zwar boten
Zwischentitel darüber hinaus wichtige erzählerische und außer-erzählerische
Informationen (wie Credits). Im Zentrum standen aber meist gesprochene Worte
der Figuren, oder eine erzählerische Instanz, die das Geschehen kommentierte.
Insofern ist dem Filmwissenschaftler Martin Mann zuzustimmen, wenn er in
den Zwischentiteln eine schriftliche „Prothese“ für die Stimme sieht (2015, S. 138
ff.). Auch wenn sie den Szenenfluss regelmäßig unterbrachen und nur partiell die
Sprechbewegungen der Schauspieler begleiteten, waren die schriftlich vermittelten
Dialoge und Kommentare ein wichtiges Element zur weiteren Verlebendigung der
Figuren auf der Leinwand. So konnte durch die zumindest teilweise imaginative
Verbindung der geschriebenen Worte mit den Gesichtern und Interaktionen im
Bild das spezifische Wesen der Figuren zusätzlich veranschaulicht werden. Durch
die Einbindung der Schrifttafeln in das filmische Material wurden sie zum Bestand-
teil des Films, was die Konzentration auf die Leinwand gegenüber gesprochenen
Live-Kommentaren erhöht haben dürfte.
Die imaginative Verknüpfung der geschriebenen Stimmbeiträge mit den Figuren
im Bild wurde zudem durch das Schauspiel gezielt unterstützt. Die Schauspieler
sprachen nicht nur vor der Kamera, sie überhöhten ihren mimischen und gesti-
schen Ausdruck auch, um die fehlende Tonalität und körperliche Expressivität
der Stimme auszugleichen (over-acting). Insofern trifft das bekannte Diktum des
Filmwissenschaftlers Michel Chion (1994) zu, dass der Stummfilm weniger stumm,
als eher taub war: er konnte die Stimmen der Schauspieler eben noch nicht akus-
tisch übermitteln. Daher war er auf entsprechende „Prothesen“ angewiesen, die
gleichwohl den Hörsinn und damit verbundene Vorstellungen und Erfahrungen
ansprachen: Begleitmusik, imaginäre Stimmen auf Zwischentiteln und expressive
Mimik und Körpersprache der Schauspieler beim Sprechen vor der Kamera.
Während sich das Publikum an diese Form der Auslagerung der Stimmen in
die Texttafeln gewöhnt hatte, stellte man fest, dass die akustische Begleitung durch
Musik die Popularität der Kinoaufführungen zusätzlich steigerte. Wie bereits
erwähnt, entstand in den 1920er-Jahren Filmmusik als neue Musikgattung, die
eigens für die jeweiligen Filme komponiert wurde. Besonders ihre Umsetzung
durch ein Orchester in den großen Kinopalästen intensivierte das sinnliche und
affektive Erleben filmischer Welten. Ähnlich wie in der Oper wurden einzelne

221
222 4 Medien der Audiovision

Figuren mit musikalischen Leitmotiven begleitet, sowie Stimmungen, Konflikte


und Spannungsverläufe musikalisch untermalt. Die Musik bereicherte die bewegten
Bilder durch die Klangfarben der Instrumente, Rhythmus und Tempo des Spiels,
sowie durch ihre melodischen Verläufe. Sie boten einen direkten körperlichen und
affektiven Zugang, evozierten Gefühle und Assoziationen, die sich mit Figuren und
Geschehen auf der Leinwand verbanden. Auf diese Weise erweiterte die Live-Mu-
sik den Filmraum auf der Leinwand in den akustischen Raum des Kinos, der die
Zuschauer auditiv umgab.

▶▶ Insgesamt zeichnete sich der Film bis Mitte der 1920er-Jahre also durch das
intermediale Zusammenspiel bewegter Bilder, Texttafeln und begleitender Musik
im Kinosaal aus. Das audiovisuelle Erleben basierte auf dem sinnenbasierten
und imaginären Verschmelzen dieser unterschiedlichen Medien zu ganzheit-
lichen Eindrücken. Die weitere Entwicklung audiovisueller Techniken und
Ausdrucksformen des Films zielte auf die vollständige Integration des Tons in
das filmische Material – mit anderen Worten: das Hörbarmachen der vor der
Kamera gesprochenen Worte und die Einbindung weiterer Klänge und Musik
in die Filmspur.

Es war vor allem die US-amerikanische Filmindustrie, die die Wende vom Stumm-
film zum Tonfilm vorantrieb. Hierfür gab es mehrere Gründe. Zum einen erwartete
man sich eine weitere Popularitätssteigerung von Film und Kino: die Stars nicht
nur zu sehen, sondern auch sprechen zu hören, versprach ein wesentliches Attrak-
tionsmoment, gepaart mit einer ganzheitlicheren Adressierung des Publikums.
Zum anderen war die Filmindustrie an einer weitergehenden Standardisierung
der Filmproduktion und Verbreitung interessiert, v. a. was das Abspieltempo,
die Länge und Einheitlichkeit der Filmkopien anbelangte (vgl. O’Brien 2005). In
dieser Hinsicht variierten die Stummfilme teilweise erheblich. Der Einbezug einer
Tonspur versprach Abhilfe, sobald bewegte Bilder, gesprochene Worte und Klänge
im Filmmaterial vereint wurden. Dies galt besonders für die Synchronität des
Sprechens der Schauspieler in Bild und im Ton, die ein einheitliches Abspieltempo
ebenso erforderlich machte, wie es das eigenwillige Kürzen und Neu-Montieren
von Kopien erschwerte.
Zur auditiven Erweiterung des Filmes bedurfte es einer ganzen Reihe neuer
Technologien, die die Speicherung und das bild-synchrone Abspielen von Ton im
Film ermöglichten: eine Aufnahmeapparatur (Mikrofonsystem), einen Aufzeich-
nungsträger (z. B. Schallplatte, Filmstreifen oder Magnetband), eine Wiedergabeap-
paratur, einen Verstärker sowie ein Beschallungssystem im Kino (Flückiger 2002).
Wichtige Impulse für diese technischen Innovationen übernahm die Filmindustrie
4.2 Analoge Medien der Audiovision 223

aus der Rundfunk- und Telekommunikationsindustrie. Dort arbeitete man bereits


seit dem ausgehenden 19. Jh. an der steten Verbesserung von Mikrofonsystemen
und Wiedergabeapparaturen zur Klangübertragung in Hörfunk und Telefon (s.
Kap. 1). Auch die Möglichkeiten der Speicherung und gezielten Bearbeitung von
Klang wurden dort schon früh ausgelotet, v. a. für den Hörfunk.
Für das Einspielen aufgenommener Stimmen und Musik musste sich die Filmin-
dustrie bis 1927 allerdings noch des Grammophons bedienen, das die Wiedergabe
gespeicherter Klänge erlaubte. Edison hatte bereits um 1895 sein Guckkastenkino,
den Kinetograph, mit dem Phonografen verbunden, um die bewegten Bilder mit
Musik zu begleiten, damit aber keinen durchschlagenden Erfolg beim Publikum
erzielen können. Erst das ab 1927 von Warner Brothers eingesetzte Vitaphone-Ver-
fahren wies erstmals in Richtung einer synchronen Aufnahme und Wiedergabe
von Bild und Ton. Hierzu wurden die Stimmen der Schauspieler bei laufender
Kamera am Set auf einer Wachsplatte aufgezeichnet, die bei der Filmvorführung
über einen mit dem Bildprojektor gekoppelten Plattenspieler synchron zum Bild
abgespielt wurde. Der erste erfolgreiche Film, der auf diese Weise die Schauspieler
auf der Leinwand zum Singen und Sprechen brachte, war The Jazz Singer (R.: Alan
Crosland, USA 1927). In dem am Musical orientierten Film dominierte zwar vor
allem die orchestrale Musik, schloss aber auch die singende und sprechende Stimme
der Schauspieler mit ein und ermöglichte erstmals ein audiovisuelles und damit
ganzheitlicheres Wahrnehmen der Personen auf der Leinwand. Die Tonqualität ließ
allerdings zu wünschen übrig, sowohl in der Aufnahme, als auch beim Abspielen
im Kinosaal. Aussichtsreicher war das Lichtton-Verfahren, das Tonaufnahme und
-wiedergabe in das filmische Zelluloid integrierte. Die Schallwellen wurden über
ein Mikrofon in elektrische Signale übersetzt, deren variierende Dichte fotoche-
misch in schwarz-weiß Muster auf dem Zelluloid übertragen wurden. Die daraus
entstehenden Schriften (Sprossenschrift, Zackenschrift) erlaubten ein optisches
Abtasten und eine Rücküberführung in elektrische Schallwellen zur Wiedergabe
der aufgezeichneten gesprochenen Sprache und Musik. Obwohl bereits seit 1921 an
seiner Entwicklung gearbeitet wurde, setzte sich das Lichtton-Verfahren erst ab 1928
durch und löste in der Folge rasch das Vitaphone-Verfahren ab. Als langjähriges
Standardverfahren trug es entscheidend zur Durchsetzung des Tonfilms bei, der
bereits um 1930 den kommerziellen Filmmarkt dominierte.

▶▶ Die technologischen Bestrebungen in der Entwicklung des Tonfilms zielten


nicht nur auf technische Standardisierung von Filmproduktion und Projekti-
on, sondern auch auf einen sinnlichen Mehrwert für das Publikum, dem ein
‚natürlicheres‘ ganzheitliches Erleben durch die gleichzeitige Adressierung von
Auge und Ohr geboten werden sollte.

223
224 4 Medien der Audiovision

Allerdings ging die Einführung des Filmtons mit neuen gestalterischen Proble-
men einher, die auch die beabsichtigte Wirkung entscheidend einschränkte. Die
Kopplung von Bild und Ton in Aufnahme und Wiedergabe stellte sich zunächst
als eine massive Einschränkung der bildlichen Gestaltung und des filmischen
Sehens dar. Der Grund hierfür war v. a. die schlechte Aufnahmesensibilität der
Mikrofone, die zu Beginn nicht fokussiert werden konnten. Vielmehr nahmen sie
alles auf, was im Umfeld eines sprechenden Schauspielers Geräusche produzierte.
Um eine Stimme möglichst nah und störungsfrei aufzuzeichnen, wurde das Mi-
krofon daher unmittelbar im Kamerabereich positioniert. Damit Synchronizität
von Bild und Ton gewährleisten werden konnte, wurden zudem Kamera- und Mi-
krofonaufnahmen gekoppelt. All dies führte zu erheblichen Einschränkungen des
Bewegungsraums sowohl der Kamera als auch der Schauspieler. Damit waren zwei
wesentliche Ausdruckselemente des Films betroffen, die das dynamische, an den
Wahrnehmungen der Betrachter orientierte filmische Sehen wieder einschränkte.
Indem die Kamera an die jeweils sprechenden Schauspieler gebunden war, näherte
sich der Film wieder dem Theater an, in dem Dialoge und weniger eine blick- und
bildbasierte Darstellung im Vordergrund steht.
Die Tragweite der Probleme, die sich aus dieser technisch bedingten Abhängig-
keit von Bild- und Tonaufnahme ergaben, wurde besonders von den sowjetischen
Avantgardefilmern erkannt. In ihrem Manifest zum Tonfilm warnten einige von
ihnen davor, dass die gerade gewonnenen filmischen Ausdrucksformen wieder
zerstört werden könnten:

„Amerikaner haben die Technik des tönenden Films erschlossen und die erste Stufe
seiner baldigen Verwirklichung erreicht. […] Die ganze Welt spricht davon, dass
der große Stumme redet. Der unrichtige Begriff der Möglichkeiten der neuen tech-
nischen Entdeckung kann aber nicht nur die Entwicklung des künstlerischen Films
hemmen, sondern er droht auch, alle seine bisherigen Errungenschaften der Form
zu vernichten.“ (Eisenstein/Pudovkin/Alexandrow 1928/2004, S. 355)

Während der Ton vom US-amerikanischen Kino aus kommerziellen Gründen in-
tegriert worden sei, um das Illusionserleben weiter zu optimieren, gelinge nurmehr
eine Verdopplung der Dialoge im Bild. Die visuelle Gestaltung reduziere sich auf
die pure Abbildung sprechender Figuren, womit die Autonomie der Bilder zerstört
werde. Vor allem die Montage als neues und eigenständiges Ausdrucksmittel laufe
Gefahr, weitgehend überflüssig zu werden. Tatsächlich zeigen frühe Tonfilme wie
der Western The Virginian (R.: Victor Flemming, USA 1929), dass die Anzahl
der Schnitte drastisch reduziert wurde und Szenen in langen Einstellungen bzw.
einfachen Wechseln der Kameraansichten zwischen sprechenden Schauspielern
gedreht wurden. Auf diese Weise ging eine wichtige wahrnehmungsästhetische
4.2 Analoge Medien der Audiovision 225

Qualität filmischen Sehens verloren: die Dramaturgie der Blickführung durch


Kamera und Montage im Wechselspiel fragmentarischer Perspektiven von Figu-
ren, Erzählinstanz und adressierter Zuschauerperspektive. Das im Stummfilm so
erzeugte multiperspektivische Illusionserleben bot dem Publikum – zumindest im
Erzählkino – ideale Betrachterstandpunkte (s. o.). Gezielt in der Montage hergestellte
Auslassungen, Gleichzeitigkeiten sowie Kontraste in der bildlichen Präsentation
verschiedener Perspektiven hatten wesentlich zum Unterhaltungswert von Filmen
beigetragen. Nun ging mit der Einführung des Tons und der damit verbundenen
Konzentration auf die pure Abbildung von Dialogen die Gefahr einer visuellen
Vereinfachung einher, die auch den Unterhaltungswert der Filme minderte.
Als Ironie der Geschichte kann angesehen werden, dass wesentliche Impulse zu
einem produktiven und anregenden Einsatz des Filmtons – der die Möglichkeiten
von Kamera und Montage nicht einschränkte, sondern vielmehr noch erweiterte
–, von den Avantgardefilmern kam. Es waren besonders ihre Ansätze der Filmton-
gestaltung, die – über den Umweg des europäischen Unterhaltungskinos – dem
kommerziellen Tonfilm zu genuin filmischen audiovisuellen Formen verhalfen. Wie
es bereits für die Erkundung filmischen Sehens im Erzählkino und im Avantgar-
dekino stattgefunden hatte, war für diese Entwicklung eine Auseinandersetzung
mit dem menschlichen Sinnesapparat entscheidend. Prägend für die Genese genuin
filmischer Audio-Visualität war besonders das Prinzip der Asynchronität von Bild
und Ton. Dabei erkannten die Avantgardefilmer als erste, dass die starre Kopplung
von Bild und Ton, Auge und Ohr, wie sie in den frühen US-Amerikanischen Ton-
filmen realisiert wurde, dem menschlichen Wahrnehmen eigentlich entgegensteht.
Pudowkin (1934/2004) etwa stellte fest, dass es in der natürlichen Wahrnehmung
eine produktive Diskrepanz zwischen Hören und Sehen gibt. So ist das Hörfeld
meist wesentlich weiter als das Sehfeld, und die Quellen eines Klanges sind oft
nicht sichtbar, können aber aufgrund von Erfahrung und Wissen (Schema-Wissen)
abgeleitet werden. Ebenso findet in der alltäglichen Wahrnehmung häufig eine ge-
richtete Fokussierung auf einzelne Sinnesdaten statt, wie das bewusste Ausblenden
akustischer Umgebungsgeräusche und die Konzentration von Auge und Ohr auf
ein Gegenüber. Der menschliche Wahrnehmungsapparat muss daher permanent
diskrepante Sinneseindrücke integrieren und fehlende Informationen kognitive
und imaginativ ergänzen. Pudowkin erkannte, ebenso wie Bálazs (1930/2004b),
zudem, dass der dynamischen Koordination von Auge und Ohr immer auch eine
mentale Perspektivierung zugrunde liegt. Das heißt, was wir sehen und hören hängt
wesentlich von unseren momentanen Emotionen, Bedürfnissen und Interessen
ab. Für filmische Audiovision, die die Wahrnehmung der Zuschauer ansprechen
will, sind dies folgereiche Voraussetzungen. Wie Pudowkin es in seiner Schrift
zum Tonfilm formuliert:

225
226 4 Medien der Audiovision

„Es existieren immer zwei Rhythmen: der rhythmische Ablauf der objektiven Welt
und der Rhythmus und das Tempo, mit denen ein Mensch diese Welt beobachtet. Die
Welt – das ist ein einheitlicher Rhythmus, während der Mensch über seine Augen, seine
Ohren und in geringerem Maße über seinen Tastsinn lediglich einzelne Eindrücke
von dieser Welt wahrnimmt. Das Tempo, mit dem ein Mensch Eindrücke aufnimmt,
verändert sich in Abhängigkeit von seinen Emotionen, wie erregt oder gelassen sie
sind, während der Rhythmus der von ihm wahrgenommenen objektiven Welt sein
unverändertes Tempo beibehält.“ (Pudowkin 1934/2004, S. 383)

Für den Film folgerte Pudowkin daraus, dass Bild und Ton verschiedene sinnesba-
sierte Perspektiven auf ein Geschehen bieten können, die entweder auf subjektives
Erleben bezogen sind (z. B. durch reduzierte Lautstärke oder gar Stille), oder auf eine
dargestellte ‚objektive‘ Realität. Entscheidend hierfür war für ihn der kontrapunkti-
sche Einsatz des Filmtons, der das Bild eben nicht einfach verdoppelt, sondern eine
andere, klangliche Perspektive bietet, die in ein produktives Wechselverhältnis zur
bildlichen tritt. Die Zuschauer werden somit aufgefordert, die unterschiedlichen,
z. T. diskrepanten sinnlichen Eindrücke zu integrieren – wie es dem menschlichen
Wahrnehmen entspricht.
In seinem Film Deserteur (SU 1933) machte Eisenstein weitreichend Gebrauch
vom Prinzip audiovisueller Asynchronizität und des kontrapunktischen Einsatzes
von Ton. In einer Szene lässt er die Kamera über die strahlenden Gesichter eines
Auditoriums wandern, während im Off die emotional aufgerührte Stimme des
Redners, eines deutschen Kommunisten, zu hören ist, der den Arbeiterkampf in
Russland unterstützt. Den anschließenden Applaus wiederum zieht er auditiv in
die Länge, während die Kamera nicht nur die klatschenden Zuhörer zeigt, sondern
auch das Gesicht des Redners. Auf diese Weise vermittelt Eisenstein den Betrach-
tern in Bild und Tod unterschiedliche Perspektiven, die sie kognitiv miteinander
in Einklang bringen müssen, aber aufgrund gewohnter Wahrnehmungsmuster
auf gewissermaßen natürliche Weise bewältigen können. Im Erzählkino wurde
der asynchrone Wechsel von Bild und Ton in dialogischen Szenen später zu einer
standardisierten Gestaltungsform, die der intuitiven und wechselhaften Dynamik
von Blick- und Hörbewegungen zwischen Sprecher und Zuhörendem weit mehr
entspricht, als etwa die starre und gleichzeitige Fokussierung beider Sinne auf
einen Sprecher.
Die sowjetischen Avantgardefilmer erkannten, dass das filmische Sehen durch
Filmton auch dynamisiert werden kann, indem auf Klangebene, etwa im Off-Raum,
Informationen vermittelt werden, die erklärende Bildeinstellungen überflüssig
machen. So können bei der Einführung eines neuen Handlungsortes räumliche
Kontexte bereits durch entsprechende Raumklänge vermittelt werden, z. B. durch
eine städtische Klangkulisse im Off-Raum. Hinzu kommt, dass auf Ebene der Narra-
4.2 Analoge Medien der Audiovision 227

tion im produktiven Zusammenspiel von Bild und Ton komplexe Erzählstrukturen


erzeugt werden können. Der Ton kann in der Montage unterschiedliche Einstellun-
gen auditiv verknüpfen und dabei den Bildern eine zusätzliche Erzähldimension
verschaffen (Soundbridge). Anstatt den Ton also nur als eine Ergänzung des Bildes
zu betrachten, sahen ihn die Avantgardisten als eigenständiges Montageelement. In
Fortführung der Montagetheorien von Eisenstein und anderen schrieben sie daher
auch dem Ton die Fähigkeit zu, symbolische Bezüge herzustellen, ob im Verhältnis
zum Bild oder als reine Klangsymbole. Ein Beispiel dafür findet sich in G. W. Papsts
von den sowjetischen Avantgardisten inspiriertem Film Kameradschaft (D 1931).
Dieser erzählt die Geschichte von deutschen Bergarbeitern an der französischen
Grenze, die ihren Kameraden auf der anderen Seite unter Einsatz des eigenen Lebens
helfen, als diese verschüttet werden. In einer Schlüsselszene dominiert das laute,
metallische Quietschen der Maschinen und das Rasseln von Kettenbändern, womit
die Atmosphäre im Bergwerk auditiv ins Symbolische überhöht wird.
Balázs war der erste, der die besonderen gestalterischen Komponenten des Tons
in filmischer Audiovision auch jenseits des Dialogs erkannte. An erster Stelle ist
die Stille zu nennen, die im Tonfilm als Abwesenheit von Klang zu einem eigenen
Ausdruckselement wurde. Balázs (1930/2004b) zeigte unterschiedliche dramatur-
gische Einsatzmöglichkeiten von Stille auf und betonte ihre Bedeutung gerade in
Verbindung mit dem menschlichen Gesichtsausdruck. Daneben wies er darauf hin,
dass Klänge auch aktiv Fragen und Suchbewegungen evozieren können (vgl. auch
Flückiger 2002), auf die sich in der Montage dann erklärende Bilder beziehen können.
Ebenso sprach er von akustischen Nahaufnahmen, die subjektive Wahrnehmungen
und Emotionen einer Figur vermitteln können, etwa durch übertriebene auditive
Fokussierung und Lautstärke eines Geräusches in der Aufnahme. Schließlich er-
kannte Balázs auch, dass Töne im Alltag wie im Film immer an einen konkreten
Raum gebunden sind, dessen akustische Eigenschaften sie erst zum Klingen bringen.
Da Klänge damals audiotechnisch noch nicht isolierbar waren, transportierten sie
in der Aufnahme immer die lokale Klanglichkeit des Aufnahmeortes. Bálázs schlug
vor, diese als räumliche Klangbilder produktiv im Film zu nutzen, um die darge-
stellten Räume (z. B. Stadt, Land, Milieus) zu charakterisieren. Zusammengefasst,
erkannte Balázs also als einer der ersten, dass der Tonfilm im Zusammenwirken
von Kamera, Mikrofon und Lautsprecher Augen und Ohren der Zuschauer auf eine
dem ‚natürlichen‘ audiovisuellen Wahrnehmen vergleichbare Weise ansprechen
können und damit die Präsenz filmischer Darstellungen erhöhen können:

„Wie unser Auge mit dem Objektiv, so wird unser Ohr mit der Membran identifiziert.
Beim Tonfilm geschieht nicht nur optisch, sondern auch akustisch jene Aufhebung
der Distanz, zwischen Zuschauer und dargestelltem Werk, von deren entscheidender
Bedeutung ich schon gesprochen habe.“ (Balázs 1930/2004b, S. 365)
227
228 4 Medien der Audiovision

Es waren besonders europäische Filmemacher wie G.W. Pabst, Renée Clair, Ernst
Lubitsch und Fritz Lang, die den Filmton in diesem produktiven und illusionsstei-
gernden Sinne als eigenständiges Gestaltungselemente für den Erzählfilm erkundeten
und damit das filmische Sehen zu einer genuin filmischen Audiovision erweiter-
ten. Besonders die Asynchronität wurde weidlich genutzt, um Kamera, Montage
und Schauspiel wieder ‚zu befreien‘. Asynchronität wurde etwa zum wesentlichen
Bestandteil des bald zum Schuss-Gegenschuss standardisierten Verfahrens der
Inszenierung von Dialogen. Um das anfängliche Problem der Mikrofonbindung zu
umgehen, drehte man solche Szenen mit mehreren Kameras. Man erkannte, dass im
asynchronen Wechsel zwischen Sprechern und Zuhörer (auch shot-reaction-shot)
die Anteilnahme der Zuschauer gesteigert werden konnte, womit die mimischen
und affektiven Reaktionen auf das Gesprochene in den Fokus rückten. Schließlich
wurde damit auch die Fokussierung von Gesichtern in Nahaufnahme wieder möglich,
während die Gesprächspartner zuvor mindestens in der Halbnahen gleichzeitig
im Bild gezeigt werden mussten. Damit war nicht nur eine weitere Anpassung an
alltägliche Wahrnehmungserfahrungen verbunden, sondern auch eine Steigerung
affektiver Erlebnisqualitäten filmischer Betrachtung.
Da die dynamische Dialoginszenierung anfangs technisch noch recht aufwändig
war, entschieden sich einige Regisseure, Gespräche nur noch punktuell einzusetzen.
Um dennoch dem Tonfilm gerecht zu werden, setzten sie wieder vermehrt Musik
ein. Neben der begleitenden Filmmusik, die über mehrere Einstellungen hinweg
Stimmungen, Atmosphären, aber auch symbolische Zusammenhänge schaffen
sollte, galt dies auch für diegetische Musik, die in der erzählerischen Welt verankert
war. In seinem Film Es lebe die Freiheit (F 1931) experimentierte Renée Clair mit
beiden Möglichkeiten und kombinierte sie miteinander. In einer längeren Monta-
gesequenz schildert er über mehrere Einstellungen den Ort der Herstellung einer
Schallplatte, die zu Beginn von einem Plattenverkäufer auf einem Grammophon
aufgelegt wird. Die damit im Erzählraum verankerte Plattenmusik löst sich mit
der nächsten Einstellung von ihrer gezeigten Klangquelle, dem Grammophon, und
begleitet im Off-Raum Aufnahmen von einer Schallplattenfabrik, dem aus seinem
Wagen steigenden Fabrikanten, sowie den Arbeitern, die in die Fabrik strömen.
(siehe Abbildung 32)
Einzelne Details wie das Unternehmenslogo auf dem Fabrikschlot und die gro-
ßen Stechuhren für die Arbeiter werden ebenfalls gezeigt. All diese verschiedenen
Ansichten werden durch die fortlaufende Musik verbunden, die hier zum erzäh-
lerischen Gegenstand wird. An einer anderen Stelle zeigt derselbe Film auch, wie
audiovisuelle Asynchronität gerade im europäischen Film der Zeit genutzt wurde,
um durch das Etablieren eines zunächst unsichtbaren auditiven Off-Raums beim
Betrachter Neugier, Imagination und Teilnahme zu evozieren. Die Szene beginnt
4.2 Analoge Medien der Audiovision 229

Abb. 32 Bild-Ton-Montage in A Nous la Liberté (Es lebe die Freiheit) (R: René Clair, F
1931)

in einer Gefängniszelle, wo der Ganove Louis gerade einen Strick ans Gitter bin-
det, um sich damit das Leben zu nehmen. Konterkariert wird dieses dramatische
Moment durch den im Off-Raum einsetzenden Gesang einer Frauenstimme, die
Louis sehnsüchtig aus dem Fenster gucken lässt. Die Kamera folgt seinem Blick
und wir sehen aus der Entfernung ein rosenumkränztes Fenster, in dem eine
junge Frau steht. Wie auch die Figur werden die Zuschauer angeregt, die Frau
als die Sängerin zu identifizieren. Im Unterschied zu Louis erfahren wir aber im
nächsten Moment durch die Montage, dass der Gesang von einer Platte stammt,
die im Zimmer der Frau abgespielt wird. Mit diesem Wissensvorsprung verfolgt
der Betrachter amüsiert, wie Louis weiterhin seiner Illusion verhaftet bleibt. Als
er kurz darauf fliehen kann und vor dem Haus der jungen Frau steht, realisiert
er erst in dem Moment seine Täuschung, als die Angebetete die Haustür verlässt,
während oben in der Wohnung die Platte zu leiern beginnt. Das Beispiel zeigt,
wie spielerisch mit den Möglichkeiten der Asynchronität experimentiert wurde,
hier gar in einem medienreflexiven Sinne. Für die Erkundung des narrativen und
dramaturgischen Potentials des Filmtons waren die frühen Tonfilme von Fritz Lang
besonders einflussreich. Wie Clair setzte er die Asychronität ein, um Erwartungen
zu evozieren und Spannung aufzubauen. Dabei entdeckte Lang die Möglichkeit,
ein klangliches Motiv als erzählerisches Leitmotiv einzusetzen. In M. Eine Stadt
sucht einen Mörder (D 1931) lässt er den Mörder vor jeder Tat dieselbe Melodie
pfeifen. Während der Zuschauer ihn gleich zu Beginn kennenlernt, nimmt er an
der Suche der Bürger umso intensiver teil, zumal er den Mörder auditiv immer
schon identifiziert, bevor er im Bild zu sehen ist. Das akustische Motiv des Pfeifens
wird nicht nur zum Gegenstand der Erzählung, sondern auch zum dramaturgisch
eingesetzten auditiven Leitmotiv. Daneben setzt Lang Bild und Ton asynchron ein,
indem er Stimmen von Figuren in der Montage über mehrere szenische Orte legt.
Ebenso konstruiert er Parallelmontagen von On- und Off-Räumen: Als die Mutter
der kleinen Elsie etwa verzweifelt in den Hof nach ihrer Tochter ruft, löst sich die

229
230 4 Medien der Audiovision

Kamera von ihrem Standort und in der Montage werden verschiedene Orte gezeigt,
an denen Elsie sein könnte, aber nicht ist. Die im Off weiter erklingende Stimme der
Mutter verbindet die Orte und stellt den Eindruck einer gleichzeitigen Beobachtung
her, die die Abwesenheit von Elsie an all diesen Orten dramatisch unterstreicht.
Die Erkundungen audiovisueller Asynchronität trugen entscheidend zur Op-
timierung illusionistischer und psychologischer Darstellungskonventionen des
Erzählfilms bei. Es zeigte sich, dass in der produktiven Gestaltung von Bild und
Ton als eigenständigen, aber auch dramaturgisch aufeinander abgestimmten
Ausdruckselementen die Multiperspektivik der Montage sogar noch erweitert
werden konnte. Der Film gewann damit eine zusätzliche Dimension sinnesba-
sierter Adressierung der Zuschauer, die ihn dem ganzheitlichen, multisensoriellen
Wahrnehmungsspektrum des Menschen weiter annäherte.
Von entscheidender Bedeutung für die Dynamisierung und Optimierung filmi-
schen Illusionserlebens war daneben die Entdeckung klanglicher Atmosphären. Wie
es Bálázs festgestellt hatte, boten lokale Klangatmosphären eines Aufnahmeortes die
Chance, einen komplexen auditiven Eindruck von einem Schauplatz zu vermitteln,
indem man sie als Klangbilder dramaturgisch einbezieht. So erkannten auch einige
Pioniere des Tonfilms, dass klangliche Atmosphären dann besonders wirkungsvoll
waren, wenn sie unterschiedliche, aber typische Geräusche eines Ortes verbanden.
Da man vor dem Aufkommen des Magnetton-Verfahrens (s. u.) solche Atmosphären
noch nicht künstlich mischen konnte, war man darauf angewiesen, Aufnahmeorte
zu finden, an denen derartige Klangkonstellation möglichst prägnant zum Aus-
druck kamen. So war es etwa bei der zuvor geschilderten Bergwerkszene in Pabsts
Kameradschaft. Ein anderes Beispiel, das zeigt, wie Atmosphären auch narrativ
gezielt eingesetzt wurden, findet sich in Rouben Mammoulians Film Applause
(USA 1929). In einer markanten Montage lässt Mammoulian eine junge Frau ein
Kloster verlassen, in dem sie ihre Kindheit verbracht hat. Ihr letzter Gang durch
das Kloster wird begleitet von Franz P. Schuberts religiösem Choral Ave Maria.
Als sie das Tor des Klosters verlässt, folgt ein harter Schnitt, und sie befindet sich
im Grand Central Station in New York, begleitet von den lärmenden Geräuschen
des riesigen Bahnhofs, einem Gemisch aus hallenden Motorengeräuschen, dröh-
nenden Schritten der Massen auf metallenen Treppen und lautem Stimmengewirr.
Es findet somit eine prägnante Kontrastierung der beiden Handlungsorte statt, die
den Zuschauer auditiv auf den Wandel im Leben der Figur einstimmt.
Der nächste technologische und ästhetische Qualitätssprung in der Filmton-
technologie fand statt, als die US-amerikanische Filmindustrie ab 1948 auf das
Magnetton-Verfahren umstellte. Fortan wurde Ton auf Magnetfilm aufgezeichnet,
der synchron zum Filmbild abgespielt werden konnte. Dieses Verfahren hatte
neben der verbesserten Klangqualität auch den entscheidenden Vorteil, dass der
4.2 Analoge Medien der Audiovision 231

so aufgezeichnete Ton getrennt vom Bild bearbeitet werden kann. Damit war ab
1948 die technische Grundlage für neue Formen des Sounddesigns gelegt, bei dem
Klänge gemischt, manipuliert und damit die Tonspur eigenständig gestaltet werden
konnte. Die zentralen Elemente des Filmtons konnten nun isoliert bearbeitet und im
audiovisuellen Gefüge mit dem Bild komponiert werden: Stimme, Einzelgeräusche,
Klangatmosphären und Musik. Es war der Beginn des modernen Sounddesigns,
das aufgenommene Klänge von ihren Ursprungsquellen trennt, isoliert bearbeitet
und im audiovisuellen Gefüge einer fiktiven Klangquelle im Bild zuordnet (vgl.
Flückiger 2002). Von besonderer Tragweite waren die Möglichkeiten des Mag-
netton-Verfahrens für die Gestaltung von Einzelgeräuschen (z. B. Faustschläge)
und Atmosphären. In den 1950er-Jahren wurde hierfür u. a. das sogenannte
Foley-Verfahren entdeckt, benannt nach seinem Erfinder Jack Donovan Foley: die
Nachahmung von Geräuschen durch die Aufnahme verwandter Klänge und ihre
nachträgliche Mischung. Im Mittelpunkt steht auch hier eine Sinnesadressierung,
die den illusionären Eindruck lebensechter Geräusche vermittelt. Dazu werden be-
sonders markante Klangmerkmale ausgewählt, die an bestehende Erwartungen der
Zuschauer anschließen. Das Zuschlagen einer Autotür oder die urbane Atmosphäre
einer Großstadt etwa werden aus einer Vielzahl stereotypisierter Einzelklängen
zusammengesetzt, die bestehende Wissensschemata aufgreifen (Flückiger 2002). Sie
verdichten Klangstereotype auf eine Weise, die sie realistisch erscheinen lassen – in
einer Stadtatmosphäre beispielsweise Hup- und Motorengeräusche in Verbindung
mit Sirenen. Das besondere Potential des Sounddesigns für filmische Audiovision
liegt dabei nicht nur in der gezielten Komposition realistisch wirkender Räume,
sondern auch in der beglaubigenden Wirkung, die dies für die Wahrnehmung der
Figuren und Handlungen in einem Film hat.

▶▶ In Abstimmung mit ihrer bildlichen Erscheinung liefern auditive Sinnesinfor-


mationen den Zuschauern wesentliche Orientierungen über Räume, Figuren und
Objekte einer filmischen Welt: etwa über ihre Größe, Massivität (weich, fest)
und Materialität (metallen, fleischig, hölzern etc.), über die Wahrnehmungs-
perspektive einer Figur, oder ihren Gemütszustand. Indem sie derart zentrale
Eigenschaften mit definieren, verschaffen Klänge audiovisuellen Räumen, Fi-
guren und Objekten eine lebendige Plastizität. Die Resonanz der Klänge, die
audiovisuelle Räume und Körper erzeugen, lassen die Zuschauer ihre physische
Präsenz damit in einem dreidimensionalen Raum antizipieren.

Für das Filmerleben im Kinoraum war die Einführung des Stereotons Ende der
1950er-Jahre wichtig. Die seitdem immer weiter optimierten Klangsysteme nutzen
das gesamte Hörfeld der Kinobesucher, indem sie den Kinoraum als auditiven

231
232 4 Medien der Audiovision

Wahrnehmungsraum komplett einbeziehen. Da er die Zuschauer auditiv umgibt,


verstärkt der Kinosound bis heute auch den Eindruck dreidimensionaler Räumlich-
keit des Leinwandgeschehens. Bewegungen, Handlungen, Ereignisse im Bild erhalten
eine zusätzliche klangliche Dimension, die sich im Raum des Zuschauers entfaltet.
An dieser Stelle seien zwei weitere Technologien der Kinoprojektion erwähnt,
die eben diese räumlich sinnliche Adressierung der Zuschauer im Kino verstärkten:
die 3-D-Technik und das Breitwandformat. Die Idee, die Grenze zwischen Leinwand
und Kinoraum durch 3-D-Projektion in der Wahrnehmung des Publikums zum
Verschwinden zu bringen, ist fast so alt wie das Kino selbst und wurde zu verschie-
denen Phasen immer wieder aufgegriffen (vgl. Schröter 2009). Populär wurde sie
erstmals Anfang der 1950er-Jahre in den USA. Damals ebbte die Begeisterung für
die 3-D-Filmprojektion allerdings nach zwei Jahren schon wieder ab. Ein Grund
hierfür waren etwa die als störend empfundenen 3-D-Brillen. Gewissermaßen als
sinnliche Alternative entwickelte die Filmindustrie Anfang der 1950er-Jahre das
Breitwandformat (z. B. Cinemascope, Panavision) (vgl. Distelmeyer 2011). Indem
es die volle Breite der Kinoleinwand ausfüllte, überstieg das Breitwandformat an
das Sichtfeld der Betrachter noch mehr, als dies zuvor bereits mit dem Normalfor-
mat der Fall war. Seitdem müssen sie regelrecht den Kopf bewegen, um das volle
Bildfeld zu erfassen. Wie es Jan Distelmeyer (2011) treffend beobachtet, wird das
Leinwandgeschehen damit optisch überhöht, rückt aber zugleich in eine intensi-
vierte intime Nähe zu den Augen der Betrachter.

▶▶ In Verbindung von Breitwandformaten und Stereo-Surround-Ton bietet das


Kino damit bis heute ein auf ganzheitliche Immersion abzielendes Filmerleben,
die es von anderen audiovisuellen Medien unterscheidet.

Die fortlaufende Optimierung der Sinnesadressierung zugunsten immersiver Il-


lusionswirkungen wurde mit der Digitalisierung der Bild- und Klangbearbeitung
fortgesetzt – eine Entwicklung, die, wie der letzte Abschnitt dieses Kapitels (4.4).
näher erläutern wird, bereits in den 1970er-Jahren einsetzte. Im nächsten Abschnitt
werden mit den elektronischen Medien audiovisuellen Kommunizierens wie Fern-
sehen und Video Entwicklungen aufgezeigt, die im Unterschied zu Film und Kino
historisch von Anfang an interaktiv angelegt waren.
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 233

4.3 Elektronische Medien der Audiovision:


Fernsehen, Video
4.3 Elektronische Medien der Audiovision: Fernsehen, Video
Eine ganz neue Qualität medialer Audiovision entstand mit der Ausweitung des
Rundfunks von einem Hörmedium zu einem Medium, das Klang und Bild bzw.
bewegte Klangbilder über elektromagnetische Wellen versendet: das Fernsehen.
Wie in diesem Abschnitt gezeigt wird, war die Verankerung in der Rundfunktech-
nologie entscheidend für das Verständnis, die Nutzung und die Wahrnehmung
dieses und weiterer Bildschirmmedien. Im Unterschied zu den Projektionsmedien
stand bei ihnen nämlich Tele-Kommunikation von Anfang an im Vordergrund:
die kommunikative Verbindung von Menschen über Entfernungen hinweg. Im
physikalischen Medium elektromagnetischer Wellen werden Empfänger an un-
terschiedlichen Orten zur selben Zeit erreicht, womit Öffentlichkeit auf einmal
audiovisuell generiert und erfahrbar wird – was woanders passiert, kann von vielen
gleichzeitig mit Augen und Ohren verfolgt werden. Ein zentrales Merkmal elek­
tronischer Medien der Audiovision ist damit die tele-mediale Teilhabe an öffentlich
wahrnehmbaren Ereignissen.
Im Unterschied zu den Projektionsmedien zeichnen sich elektronische Bild-
schirmmedien wie Fernsehen und Video von Anfang an durch Interaktivität aus.
Wie wir sehen werden, wird tele-mediale Teilhabe auf vielseitige Weise durch den
interaktiven Einbezug des Publikums ermöglicht:

• das Prinzip der Live-Übertragungen


• das Prinzip der Serialität, bei dem para-soziale (quasi soziale) Bindungen
zu Bildschirmakteuren aufgebaut werden sollen (z. B. Moderatoren, Serien-
schauspieler)
• die Möglichkeit individualisierter Programmauswahl durch Fernbedienung
und Videorekorder

Im Übergang zu digitalen Medien ermöglichte die elektronische Bildaufzeichnung


und Videotechnik schließlich auch den individuellen, interaktiven Zugriff auf die
aufgenommenen Klangbilder (Abspieltempo, Mischen etc.).
Bezeichnend für die interaktive Ausrichtung der Bildschirmmedien waren die
frühen Vorstellungen von elektronischem Fern-Sehen als eine optische Ausweitung
des Fern-Sprechens. So lagen die allerersten Ansätze zum Fernsehen auch in der
Telefontechnik – die bereits Grundlagen des Rundfunks als Hör-Funk schuf (Kap. 1).

233
234 4 Medien der Audiovision

Wie in 4.2 gezeigt wurde, hatten sich Film und Kino bereits um 1900 als popu-
läre Unterhaltungsmedien apparativer Audiovision durchgesetzt. Die daneben die
Alltagswahrnehmung um 1900 zunehmend prägenden Praktiken der Tele-Kommu-
nikation mit Telefon und Radio, waren demgegenüber noch auf das Ohr fixiert (s.
Kap. 1). Wie erläutert, erlaubten sie erstmals gleichzeitiges Sprechen und Hören über
räumliche Distanzen hinweg, wobei sie die Stimme von ihren Sprechern entkoppel-
ten. Dies weckte bereits mit Aufkommen des Telefons die Fantasie, dem apparativ
vermittelten Klang das Bild des Gesprächspartners folgen zu lassen. Bereits zwischen
1870 und 1890 entstand in Science-Fiction-Erzählungen, Bildillustrationen, aber
auch frühen technischen Experimenten die Idee eines Bildtelefons, das neben der
Übertragung der Stimme das Gegenüber zeitgleich auch optisch vermittelt. Eine
berühmte Illustration aus dem Magazin Punch (1878) zeigt ein Paar, das über ein
Telephonoskop mit seinen erwachsenen Kindern im Ausland spricht. Die Bilder der
gerade Tennis spielenden Kinder werden auf eine große Leinwand projiziert, sodass
die Eltern genau beobachten können, was sie in der Ferne gerade tun. Auf Nachfrage
des Vaters gibt die Tochter auch noch genauere Auskünfte zu anderen Personen
im Bild. In dieser und ähnlichen Schilderungen drückte sich die Vorstellung einer
apparativen Komplettierung der Sinne in der Tele-Kommunikation aus, die die
ganzheitliche Wahrnehmung im Gespräch zumindest teilweise – über den Einbezug
des Auges – wiederherstellt. Solche fiktionalen Entwürfe waren sowohl Ausdruck
utopischer Fantasien als auch parodistischer Reflexionen über die Langzeitfolgen
technisierter zwischenmenschlicher Kommunikation (vgl. Keilbach 2005).
Daneben gab es schon bald nach Erfindung von Telegrafie und Telefon technolo-
gische, militärische und industrielle Bestrebungen, Informationen über räumliche
Distanzen hinweg nicht nur schriftlich und auditiv, sondern auch visuell zu vermit-
teln. Den Anfang hierzu machte bereits um 1848 der Erfinder Alexander Bain. Mit
seinem Kopiertelegraphen hatte er ein Verfahren zur Bildübertragung entwickelt,
das auf elektronischer Bildzerlegung beruhte. Wie Friedrich Kittler feststellt, legte
er damit die Grundlage für elektronische und später digitale Übersetzung von
Bildern bzw. optischen Informationen in diskrete Datenmengen, was bis dato in
Telegrafie und Druck nur für die Schrift passiert war (2002, S. 291).
Ein nächster entscheidender Schritt in Richtung audiovisueller Tele-Kommu-
nikation wurde 1885 von Paul Nipkow geleistet. Die Idee, ein Bild in Echtzeit über
räumliche Distanzen hinweg mittels elektrischer Signalübertragung dem mensch-
lichen Auge sichtbar zu machen, verglich er mit dem Teleskop: einem Apparat zur
Ferneinstellung des Auges über die Grenzen menschlicher Wahrnehmung hinaus.
Mit seinem elektronischen Teleskop schuf er die Grundlage für die Fernübertra-
gung von Bildern zwischen zwei distinkten Orten. Nipkow formulierte das selbst
in einem viel zitierten Satz:
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 235

„Das elektrische Teleskop ist eine Apparatur mit dem Zweck, ein an einem Orte
A befindliches Objekt an einem anderen Orte B sichtbar zu machen“ (1884, zit. n.
Hickethier 1998, S. 15).

Hierfür entwickelte er eine bewegliche, kreisrunde Platte, in der spiralförmig 24


Löcher eingefügt waren. Vor dieser rotierenden Scheibe – der nach ihm benannten
Nipkow-Scheibe – wurde das abzubildende Objekt zeilenweise optisch abgetastet und
in Bildpunkte zerlegt, die als elektronische Signale an ein Empfangsgerät gesendet
und dort wieder zusammengesetzt wurden. Die Umsetzung seiner Idee scheiterte
allerdings zunächst an der Entwicklung eines adäquaten Empfangsgerätes.
Während sich in der Zwischenzeit Film und Kino als audiovisuelle Projekti-
onsmedien durchgesetzt hatten, erfuhr die audiovisuelle Tele-Kommunikation erst
im Laufe der 1920er-Jahre einen weiteren Entwicklungsschritt. Um 1925 gelang es
dem Briten John Logie Baird notwendige Komponenten zu produzieren, die neben
der elektronischen Bildzerlegung durch die Nipkow-Scheibe, welche die elektro-
nische Fernübertragung, sowie die Synthese von Bildsignalen im Empfangsgerät,
auf befriedigende Weise ermöglichte. Hierzu baute er auch in die Empfangsgeräte
eine Nipkow-Scheibe ein, die ein simultanes Senden und Empfangen der elektro-
nischen Bildsignale ermöglichte, deren Auflösung er zugleich auf 30 Zeilen pro
Bild erhöhte. (siehe Abbildung 33)
Wie bei den Filmprojektoren stand in der weiteren Entwicklung die technische
Optimierung im Zeichen der Anpassung der Bildauflösung an die menschli-
che Wahrnehmung. Nach erfolgreichen Experimenten gründete Baird 1926 das
Fernsehunternehmen Baird Television Development Company. Unter dem Slogan
„Fernsehen für alle“ und „Fernsehen zuhause“ verkaufte er die ersten Fernsehge-
räte für den privaten Gebrauch. In Kooperation mit der BBC entwickelte er auch
Sendungen für das neue Medium, wobei man sich an erfolgreichen Inhalten des
Radios und des Theaters orientierte, wie Live-Berichte von Sportereignissen oder
Übertragungen von Theateraufführungen. 1928 gelang es Baird, Fernsehbilder
erstmals transatlantisch zu senden, von London nach New York. Im Unterschied
zu Nipkows früher Versuchsanordnung ermöglichte das Fernsehsystem Bairds die
Versendung nicht nur an einen sondern mehrere Orte zugleich, die mit entsprechen-
den Sende- und Empfangsanlagen ausgestattet waren. Bis Mitte der 1930er-Jahre
war das Baird’sche Fernsehsystem Standard, v. a. in Großbritannien und den USA,
wo erste Fernsehgesellschaften das neue Medium bereits in den 1930er-Jahren zu
einem Rundfunkmedium mit unterhaltenden und informativen Programmele-
menten ausbauten. Allerdings sorgten die geringe Bildauflösung und die schwache
Verbreitung von Empfangsgeräten dafür, dass das Fernsehen in dieser Zeit eher

235
236 4 Medien der Audiovision

Abb. 33
Fernsehempfänger mit
Nipkow-Scheibe (1930/31)

das Dasein eines Nischen-Mediums führte und weder dem Radio noch dem Kino
zur ernsthaften Konkurrenz wurde (siehe Abbildung 34).
Ab 1931 wurde das apparative Fernsehsystem schrittweise auf eine vollelektro-
nische Bildzerlegung, Vermittlung und Bildsynthese beim Empfang umgestellt und
damit die technologischen Voraussetzungen für das Fernsehen als Massenmedium
weiter verbessert. Entscheidend hierfür war die Einführung der Kathodenstrahlröhre
(auch Braunsche Röhre nach ihrem Erfinder Karl Ferdinand Braun genannt), die
erst in den Empfangsgeräten, später auch in den elektronischen Fernsehkameras
(auch: Ikonoskop) eingebaut wurden. Sie eröffnete die bis ins 21. Jh. reichende Ära
der Röhrenfernseher. Während die Nipkow-Scheibe die optischen Objekte zuvor
durch mechanische Bewegungen abgetastet hatte, gelang dies fortan vollelektronisch:
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 237

Abb. 34
Frühe Fernsehbilder mit
Kathodenstrahlröhre
(1931)

Ein Elektronenstrahl in der Röhre las nun die durch Strom erzeugten opto-elek-
tronischen Signale, in wesentlich höherer Dichte und Geschwindigkeit als zuvor.
Aufgrund der gesteigerten Datendichte musste jedoch der Sendekanal gewechselt
werden – von den niedrigfrequenten Kurz- und Mittelwellen zum hochfrequen-
ten UKW-Kanal. Einen entscheidenden Beitrag zur technologischen Innovation
leistete dabei das deutsche Militär, das ein Radarsystem zur opto-elektronischen
Fernlenkung von Bomben entwickelt hatte.
In Deutschland bemühten sich damals die Nationalsozialisten, das Fernsehen als
Propagandamedium auszubauen. Als sie 1935 den Sender Paul Nipkow eröffneten,
war dies der erste fernseheigene Rundfunksender mit festen Programmelementen.
Als Ziel kündigte der Reichssendeleiter Eugen Hadamovsky damals an „Das Bild
des Führers fest in die Herzen aller Volksgenossen zu senken“ (zit. n. Braune Matt-
scheibe. Fernsehen unterm Hakenkreuz, Spiegel-TV, D 2000). An drei Abenden in der
Woche wurden Wochenschauen zu politischen und gesellschaftlichen Ereignissen
(wie Großkundgebungen und Heldengedenkfeiern), Unterhaltungsshows und
Fernsehspiele angeboten. Allerdings waren Empfangsgeräte in privaten Haushalten
in Deutschland nur wenig verbreitet. Stattdessen dominierten Fernsehstuben, in
denen man sich kollektiv und öffentlich vor einem kleinen Bildschirm versammelte.

237
238 4 Medien der Audiovision

Als ein Medium, das öffentliche Ereignisse in die privaten Räume bringt, wie
es Baird bereits seit 1926 propagierte, erfuhr das Fernsehen seine Anfänge eher in
Großbritannien und den USA. Wesentlicher Grund hierfür war die dort industriell
voran getriebene Verbreitung von Empfangsgeräten in der Bevölkerung – ein Markt,
der in Deutschland durch staatliche Gleichschaltung und Kontrolle blockiert war.
Ab 1939 verbreitete man aus propagandistischen Gründen jedoch den Deutschen
Einheits-Empfänger zu einem erschwinglichen Preis. Allerdings konnte das staatliche
Programm die Zuschauer offenbar nur mäßig begeistern. Hinzu kam, dass nach
wie vor, trotz der Innovationen des vollelektronischen Fernsehens, die Übertra-
gungsqualität noch schwach war, v. a. im Vergleich zu den technisch-apparativen
Bildern der Fotografie und des Films. Die unscharfen schwarz-weiß-Bilder, die
über die kleinen Bildschirme flackerten, hatten eher die optische Anmutung von
grobkörnigen bewegten Zeitungsbildern. Im Unterschied zu den hochauflösenden
fotografischen Bewegungsbildern des Films, die in der Kino-Projektion die Zu-
schauer raum-sinnlich umgaben, konnten die Fernsehbilder keine vergleichbaren
immersiven Wirkungen entfalten. Das Fernsehen eignete sich anfangs also noch
nicht als Präsenzmedium. Es war vielmehr eine andere Qualität audiovisueller
Tele-Kommunikation, die das Interesse an dem neuen Medium aufrechterhielt: die
bereits mit Telegraf, Telefon und Radio in die Welt getragene Idee einer ortsunge-
bunden und simultanen Kommunikation, die nun um das Bild erweitert wurde
und damit eine bis dato neue ganzheitlichere Qualität ermöglichte. Dies betraf
einerseits die individuelle Kommunikation, das Gespräch zwischen Menschen an
unterschiedlichen Orten. Mit dem Fernsehen wurde die vormals utopisch scheinende
Idee des Bildtelefons realisierbar. Das Fernsehen war in seinen Anfängen daher
auch als Dialogmedium beliebt. In Deutschland wurden besonders im Kontext
der Olympiade 1936 Telefonzellen mit Fernsehgeräten eingerichtet, in denen die
Nutzer ihre Gesprächspartner auch optisch vor Augen hatten. Daneben war die
Fernsehübertragung der Olympischen Sommerspiele in Deutschland das erste
Medienereignis, das an verschiedenen Orten gleichzeitig miterlebt werden konnte.
Auch wenn es in Deutschland vorwiegend von Fernsehstuben aus verfolgt wurde,
wurde hier das neuartige Potential dieses Mediums für eine breitere Bevölkerung
erfahrbar: das gleichzeitige mediale Dabei-Sein an gesellschaftlichen Ereignissen
in Bild und Ton. Das Fernsehbild wurde dabei, ähnlich der Fotografie, als glaub-
haftes Bilddokument aufgefasst, dass trotz seiner mangelhaften Qualität fernes
Geschehen auf technisch verbürgte Weise vor Augen führt. Wie es ein britischer
Kommentator bereits 1931 erkannt hatte:
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 239

„Wir stehen am Anfang eines neuen Zeitalters, in dem das mechanische Auge alle
großen Ereignisse für uns betrachten und ins Haus liefern kann.“ (Daily Herald
[4.6.1931], zit. n. Flichy 1994, S. 230)

Hier kommt noch einmal Nipkows Ursprungsidee zum Ausdruck, das Fernsehen als
„elektronisches Teleskop“ zu entwickeln, das Fernes nah an das Auge heranrückt.
Nach dem 2. Weltkrieg entwickelte sich das Fernsehen dann kontinuierlich zu
einem allgegenwärtigen Tele-Medium. Die von den Nationalsozialisten errungenen
technologischen Innovationen wurden nach der Niederlage der Deutschen besonders
von US-amerikanischen und britischen Unternehmen übernommen und in ihre
Fernsehsysteme integriert, die sie auch international vermarkteten (vgl. Uricchio
2005). In Deutschland wiederum entstand ein öffentliches Rundfunksystem, das
Fernsehen zu einem vielfältigen Programmmedium ausbaute, mit wachsendem
Angebot und festen Sendeplätzen. Unter Aufsicht der Alliierten galt hierbei –
und gilt bis heute – das Gebot der Staatsferne. Die Inhalte und Programme des
öffentlich-rechtlichen Fernsehens haben seitdem in Deutschland die Aufgabe,
demokratische Werte zu fördern und zur Information, Bildung und Unterhaltung
der Bevölkerung beizutragen.
Wie auch in anderen Ländern, war die technische und institutionelle Ausweitung
der Sendeanstalten eine zentrale Voraussetzung dafür, dass sich das Fernsehen als
allgegenwärtiges Tele-Kommunikationsmedium durchsetzen konnte. Nur durch
weiträumige und bald flächendeckende Vernetzung von Sendeanlagen konnte das
Versprechen eines simultanen und ortsunabhängigen Empfanges gewährleistet
werden. 1950 wurde in der Bundesrepublik die ARD (Allgemeine Rundfunkanstalt
Deutschlands) als Zusammenschluss mehrerer Landesrundfunkanstalten (BR, HR,
RB, SDR, SWF, NWDR) gegründet. Gesendet wurde zunächst nur an einzelnen Tagen
und für wenige Stunden. Erst 1952 begannen tägliche Programmausstrahlungen
(vgl. Bleicher 2001). Voraussetzung für die tele-kommunikative Ausweitung war
daneben die Verbreitung der Empfangsgeräte. Bereits um 1957 war der neue Markt
an Fernsehgeräten gesättigt (Zielinski 1993). Damit wuchs, wie zuvor bereits für
das Radio, ein ubiquitärer Sende- und Empfangsraum heran, in dem die Adressaten
nicht mehr individuell und spezifisch angesprochen werden, sondern als breites,
über das Land verstreutes Publikum (Broadcasting, s. Kap. 1).
Von Anfang an verfolgten die Sender das Ziel, das Fernsehen als Erweiterung
sinnlicher Teilhabe an der Welt in der Wahrnehmung und den Alltagspraktiken
seines Publikums zu etablieren und damit nicht zuletzt auch die eigene gesell-
schaftliche Bedeutung zu festigen. Besonders das Live-Prinzip schuf eine wesent-
liche Voraussetzung für einen neuen kommunikativen Modus des öffentlichen
‚Dabei-Seins‘. Bezeichnend hierfür sind frühe Selbstbeschreibungen, in denen das

239
240 4 Medien der Audiovision

Fernsehen als genuines Medium der Teilhabe am Weltgeschehen dargestellt wird.


Adolf Grimme, der Generaldirektor des NWDR, erklärte:

„So hat uns denn die Technik jene kunstvolle Schale geliefert, die sich fortan alltäglich
mit dem bunten Weltgeschehen füllen wird. […] Das Schicksal der Anderen wird
künftig mitten in unserer eigenen Stube stehen, und das Fernsehen kann so aus dem
Entfernten unseren Nächsten machen.“ (1953, zit. n. Elsner et al. 1993, S. 42)

Typisch für damalige Selbstdarstellungen, sah Grimme eine zentrale Aufgabe von
Rundfunk und Fernsehen darin, die Menschen grenzüberschreitend zu verbinden
und möglichst direkt anzusprechen. Hier zeichnet sich bereits eine für das spätere
Selbstverständnis des Fernsehens prägende Metapher ab: ab den 1950er-Jahren
positioniert sich das Medium immer mehr als ein ‚Fenster zur Welt‘, durch das die
Zuschauer von ihren Wohnzimmern aus die fernen Ereignisse betrachten können
(vgl. Gumbrecht 1988). (siehe Abbildung 35)
Damit verbunden war auch, wie Monika Elsner und Thomas Müller treffend
feststellen, eine Anthropomorphisierung des Fernsehgerätes als Sehorgan, welche die
„Differenz zwischen Sehen und Fernsehen“ (Elsner/Müller 1988, S. 395) aufzuheben
trachtete. Als ‚elektronisches Auge‘ macht das Fernsehen nach diesem Verständnis
im Unterschied zum Kino Alltagswirklichkeit – häufig gar in Echtzeit – beobachtbar.
Einschneidende Erfahrungen unmittelbar sinnlicher, tele-medialer Teilhabe
am Weltgeschehen waren in dieser Hinsicht die Live-Übertragung der Krönung
Queen Elisabeths 1953 und das Endspiel der Fußballweltmeisterschaft 1954. Die
grenzüberschreitende Übertragung der Krönungszeremonie war gar Auftakt zum
internationalen Senderverbund Eurovision. Europäische Sendeanstalten begannen,
gegenseitig Programme auszutauschen und bei Live-Übertragungen international
relevanter Ereignisse zu kooperieren. Der Beauftrage der Eurovision für das deutsche
Fernsehen, Heinz von Plato, beschwor bei der Eröffnung programmatisch das be-
sondere Potential des Fernsehens zur grenzüberschreitenden Völkerverständigung:

„In Zukunft werden die Zuschauer erwarten, dass man sie an großen Ereignissen
anderer Länder teilnehmen lässt – das Fernsehen wird sich bemühen, diese Erwar-
tung nicht zu enttäuschen. […] Das Dabeisein bei interessanten Ereignissen, die
Begegnung mit den großen Persönlichkeiten anderer Länder und die Bekanntschaft
mit Land und Leuten jenseits der Grenzen dürften auch in Zukunft das Rückgrat der
Eurovision bleiben“ (1954, S. 228).
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 241

Abb. 35
Telefunken-Werbung:
Fernsehgerät als „Fenster
zur Welt“ (1955)

Wie Elsner et al. (1993) zu Recht feststellen, symbolisiert die Eurovision die neue
Bedeutung, die das Fernsehen für das Erleben von Weltgeschehen seitdem einnimmt.
In den folgenden Jahrzehnten wurde das zunächst als Sensation empfundene mediale
Dabei-Sein durch das Fernsehen als normale, alltägliche Kommunikationsform
habitualisiert, so dass es sich immer mehr zur vertrauten Form des Wahrnehmens
und Erlebens von Weltwirklichkeit entwickelte (Elsner et al. 1993, S. 55).
Zur Gewöhnung an das Fernsehen als ‚Fenster zur Welt‘ trug wesentlich bei,
dass die Live-Übertragung in einem wachsenden Spektrum informativer und
unterhaltender Sendeformen immer vertrauter wurde: in Nachrichtensendun-

241
242 4 Medien der Audiovision

gen, Ereignis-Live-Berichterstattungen (z. B. im Sport), ebenso wie in Talk- und


Spielshows. Damit einher ging die zunehmende Erwartungshaltung des Publikums,
fortlaufend Zeuge gesellschaftlicher Ereignisse zu sein. Der Psychologe Max Simo-
neit konstatierte damals, dass

„[…] der Mensch des heutigen Abendlandes ein merkwürdiges Bedürfnis hochge-
züchtet hat, beim Entstehen der Wirklichkeit dabei sein zu können. Es ist dabei für
ihn nicht entscheidend, daß diese Wirklichkeit eine aktuell-wesentliche oder gar eine
entscheidend-wesentliche sei, – der Mensch der breiten europäischen Volksschichten
will bei allen möglichen Wirklichkeits-Geburten dabei sein.“ (1954, 4 zit. n. Elsner
et al. 1993, S. 47)

Indem es sich selbst nicht nur zum Vermittler, sondern auch zum Organisator
öffentlicher Geschehnisse machte, errang das Fernsehen schon bald eine hervorge-
hobene gesellschaftliche Rolle als öffentlicher Ort. Besonders offenbar wurde dies
im Bereich der politischen Öffentlichkeit. NWDR-Generaldirektor Grimme etwa
formulierte eindeutig den Selbstanspruch, dass das Fernsehen zu einem Ort der
direkten Bürgerbeteiligung werde, vergleichbar mit der antiken Agora: „Gewiss,
an einer Sitzung des Bundestages nehmen aktiv auch fernerhin nur die Repräsen-
tanten des Volkes teil. Aber was dort entschieden wird und wie, das wird fortan
zum Miterleben für jedermann, und wir gewinnen damit ein Stück unmittelbarer
Demokratie zurück“ (1955, zit. n. Elsner et al. 1993, S. 43-44). Tatsächlich eröffneten
politische Talkshows und Live-Übertragungen aus dem Bundestag den Bürgern auf
einmal völlig neue Zugänge zu politischen Prozessen und Entscheidungsträgern.
Es war erklärtes Ziel der Sender, Politik öffentlich und sichtbar, sowie kritisch
beobachtbar zu machen. In der Sendung Im Kreuzfeuer etwa wurden seit 1953
Regierungsvertreter interviewt. Vor den Augen und Ohren der Zuschauer trat
neben dem Gesagten nun aber auch Verhalten, Körpersprache und Stimmlage der
Interviewten in den Fokus der Wahrnehmung. Kameraführung und journalisti-
scher Interviewstil zielten darauf ab, den Zuschauern vor dem Bildschirm einen
vermeintlich transparenten, unverstellten Blick auf die Gäste zu bieten. Mittels der
apparativen Verlängerung des Zuschauerauges, gekoppelt mit dem tele-medialen
Hörsystem von Mikrofon und Lautsprecher, bieten sich Talkshows seitdem als
Momente direkter Begegnung zwischen Politikern und Bürgern an. Seit Beginn
trug das Live-Prinzip hierzu entscheidend bei, denn die Befragten müssen spontan
auf Fragen und Redebeiträge reagieren, während die Zuschauer ihre Reaktionen
zeitgleich auf den Bildschirmen verfolgen können. So fand mit dem Aufkommen
politischer Talkshows eine Konzentration auf sinnesbasierte Eindrücke statt, die
selbst bei bemüht ausgeglichener Vermittlung durch Fernsehkamera und Inter-
viewstil einen primär affektiv sinnlichen Zugang zu den beteiligten Gesprächs-
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 243

partnern bietet. Erwiesenermaßen ziehen Mimik und Gestik und ihre affektiven
Signale unwillkürlich die meiste Aufmerksamkeit eines Gegenübers auf sich. Mit der
Erfindung der Fernsehtalk-Show wurde auch deshalb die performative Kompetenz
von politischen Akteuren zu einem bis heute zentralen Kriterium ihres Erfolges.
Medienhistorisch betrachtet, ging damit eine Anpassung politischen Handelns
an die medialen Voraussetzungen des Fernsehens einher, an ein Medium also, das
bereits aufgrund seiner audio-visuellen Bedingtheit die körpernahen und affektiven
Eindrücke stärker in den Fokus rückt, als dies in Schriftmedien der Fall war und
ist. Gleichwohl bedeutete das keine gänzlich neue Herausforderung für öffentliche
Akteure. Vielmehr erfahren seitdem rhetorische Praktiken (Kap. 1) eine erneute
Relevanz, die bereits seit der Antike den strategischen Einsatz von Stimme und
Körpersprache zum Gegenstand haben (vgl. Ullrich/Knape 2015). Im Unterschied
zur öffentlichen Rede in der antiken Agora haben die heutigen Akteure jedoch nur
begrenzte Kontrolle über den Verlauf und die mediale Vermittlung ihres Auftritts.
Sie müssen vielmehr sprachlich und non-verbal spontan vor laufender Kamera
überzeugen.
Auch in unterhaltenden Showformaten wurde das Live-Prinzip seit den
1950er-Jahren zu einem prägenden Merkmal tele-medialer Teilhabe. Unterhaltende
Live-Shows gehörten zu den frühesten Sendeformaten des Fernsehens. Wie man es
bereits im Radio eingeführt hatte, stand hier von Anfang an die Interaktion mit dem
Publikum im Vordergrund, v. a. die direkte mit Saalpublikum und ausgewählten
Gästen. Das Studiopublikum erhielt die Möglichkeit, sich am Geschehen vor der
Kamera zu beteiligen und selbst Akteur öffentlicher Ereignisse zu werden: in Form
von Ratespielen, Wettkämpfen, Abstimmungen oder Redebeiträgen. Erste Beispiele
sind die Talentshow Wer will, der kann (NWDR 1953–1956) mit Peter Frankenfeld,
oder die ebenfalls von ihm moderierte Familienspielshow 1:0 für Sie. In Wer will,
der kann, einer frühen Form der Castingshow, ließ Frankenfeld das Saalpublikum
per Applaus über das Gesangstalent der sich präsentierenden Amateure abstim-
men. Auch bei der Spielshow wurde das Saalpublikum zu einem zentralen Akteur.
Frankenfeld warf kleine Rädchen ins Publikum und wählte diejenigen Gäste als
Mitspieler vor der Kamera aus, die sie auffingen. Andere frühe populäre Spielshows
wie Einer wird gewinnen (u. a. HR 1964–1967) mit Hans-Joachim Kulenkampff
stellten ebenfalls die Live-Interaktion mit unbekannten Gästen und Studiopubli-
kum in den Mittelpunkt, die nicht zuletzt als Stellvertreter der Zuschauer vor den
Bildschirmen fungierten. Trotz ihres offen inszenatorischen Charakters stellen
Quiz-, Wett- und andere Live-Shows bewusst unberechenbare Momente in den
Mittelpunkt, die ihnen ein gewisses Maß an Authentizität verleihen: das Spiel mit
dem Zufall, mit individuellen Dispositionen (Wissen, Emotionen, Biografien usw.)
von Gästen und den Improvisationsfähigkeiten aller Beteiligter auf der Bühne.

243
244 4 Medien der Audiovision

Wie bei den Talkshows, konnten die Zuschauer auch in den anderen Showforma-
ten öffentlich agierende Personen mit den eigenen Sinnen beobachten und bewerten.
Als Menschen, die ihnen als unbekannte Durchschnittsbürger sozial ähnlich sind,
ist Anteilnahme an ihren Auftritten tendenziell intensiver als bei prominenten Ak-
teuren (vgl. Vorderer 1996). Soziale Nähe wurde damit zu einem zentralen Merkmal
der Programmgestaltung. Die eher stereotype Auswahl von Bühnengästen unter
dem Gesichtspunkt sozialer Ähnlichkeit wurde in den 1960er-Jahren bereits von
Theodor W. Adorno kritisch kommentiert:

„Die aber aus dem Publikum herausgeholt werden, um dem Publikum sich zu
zeigen, dürften so sehr ausgesiebt werden, dass sie in Wahrheit kaum jene Leute
von der anderen Seite der Trennungslinie sind, als welche man sie vorführt. Selbst
wenn sie wie die legendäre mythische Hausfrau aussehen, sind sie zu ihrer eigenen
Durchschnittlichkeit erst stilisiert; je natürlicher sie sich gebärden, umso peinlicher
empfindet man die Situation.“ (1963, zit. n. Elsner et al. 1993, S. 59)

Die Auswahl von Gästen, mit denen sich die Zuschauer sozial vergleichen können,
trägt bis heute entscheidend zum Wahrnehmungserleben von Fernseh-Shows bei.
Seit den frühen Anfängen ist tele-mediale Teilhabe geprägt durch das, was die
Medienpsychologie heute als para-soziale Interaktion beschreibt: die Zuschauer
reagieren mental und affektiv auf wiederholt auftretende Akteure auf dem Bild-
schirm (wie Moderatoren oder Seriendarsteller) in vieler Hinsicht wie auf Men-
schen ihrer alltäglichen Umgebung. Dieser Effekt wird in der Fernsehinszenierung
seit den ersten Live-Shows durch direkte Adressierung in der Moderation und
Kameraführung, sowie durch verbale und non-verbale Zuschaueransprache der
Moderatoren verstärkt.
Auf para-soziale Interaktion zielten neben den Shows auch fiktionale Fernseh-
gattungen wie Fernsehserien und Fernsehspiele ab, die bis in die 1960er-Jahre hinein
ganz oder teilweise live gesendet wurden. Als eine frühe Form der Fernsehunter-
haltung griffen Fernsehspiele in ihren Anfängen mediale Formen des Theaters
und des Hörspiels auf. Dies betraf zum einen die Stoffe, v. a. bei Adaptation aus
diesen beiden früheren Medien (Bleicher 2011), und zum anderen die ästhetischen
Ausdrucksformen: vom Theater, besonders dem Kammerspiel, übernahm man die
Erzählung einer abgeschlossenen Handlung mit einem klar umgrenzten Persone-
nensemble und die Fokussierung auf Dialoge. Die Szenen fanden in einem räumlich
und zeitlich umgrenzten Setting statt, die zumeist in Innenräumen situiert waren.
Die sich in einer überschaubaren linearen Chronologie entfaltenden Konflikte und
dialogischen Szenen konnten also bei laufender Kamera und mit einem begrenzten
Schauspielerensemble live im Studio gedreht werden – ähnlich wie auf der Thea-
terbühne. Im Unterschied zum Theater jedoch bot das Fernsehen Nahaufnahmen
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 245

von den Gesichtern der Schauspieler. Sowohl im Hinblick auf die Dialoglastigkeit
der Szenen, als auch auf die Wirkungsästhetik des kleinen Bildschirms wurde die
Naheinstellung zur wichtigsten visuellen Ausdrucksform des frühen Fernsehens.
In den Adaptionen aus dem Hörspiel bot das Fernsehen generell eine sensuelle
Erweiterung um das Optische – eine Erweiterung, die freilich von avancierten
Hörspielkritikern der Zeit, wie Rudolf Arnheim (1936/2001) als äußerst zweifelhaft
betrachtet wurde. In ihrer statischen Form und schlechten Bildqualität konnten die
frühen Fernsehbilder noch kaum als eigenständige Ausdrucksformen betrachtet
werden, die dem Klang eine zusätzlich die Imagination anregende Dimension bei-
fügte. Wie es in der frühen Kritik am Filmton moniert worden war, war es hier das
Bild, das von einigen als überflüssig und ästhetisch verflachend betrachtet wurde.
Dagegen machte das dokumentarische Moment, zur selben Zeit vorm Bildschirm
optisch an einem Bühnengeschehen teilzunehmen, den neuen Reiz tele-medialer
Audiovision aus.
Mit dem Radio verband das Fernsehen nicht nur im Fernsehspiel, sondern in
allen Sendeformen bis in die 1990er-Jahre hinein noch ein anderer Wesenszug: Die
hervorgehobene Rolle des Tons (vgl. Caldwell 2002). Gerade weil die Bilder auf den
kleinen Fernsehbildschirmen nur geringes Potential zur immersiven Vertiefung
boten, und das Fernsehprogramm in der weiteren Entwicklung sich daher immer
mehr auf den Modus der zerstreuten Nebenbei-Betrachtung einstellte, hatte der
Ton die Aufgabe, die sensuelle Verbindung der Betrachter zum Programm aufrecht-
zuerhalten, auch wenn er seinen Blick vom Bildschirm abwendet oder sich gar in
einen anderen Raum begibt. Die Stimmen von Moderatoren und Schauspielern,
ebenso wie Begleitmusik und Geräusche geben auch dem zerstreuten Betrachter
noch relevante Informationen über das laufende Bildschirmgeschehen.

▶▶ Entscheidend für die Ausprägung von kommunikativen Kulturtechniken


tele-medialer Teilhabe war seit Beginn, neben dem Live-Prinzip, das Prinzip
der Serialität.

Im Fernsehen ursprünglich an das Live-Prinzip gekoppelt, setzte sich der bereits


erwähnte Anspruch, dem Publikum möglichst authentische Ansichten seiner eigenen
Alltagswelt zu bieten, auch in fiktionalen Sendeformen durch. Dies gilt besonders
für die Fernsehserien, die in den ersten Jahren noch live gesendet, ab 1958 dann
zunehmend mit vorproduziertem Film- bzw. MAZ-Material arbeiten konnten.
Das Fernsehen konnte damit auf die seriellen Erzähl- und Sendeformen des älteren
Mediums Radio zurückgreifen. Dort hatte man schon längere Erfahrungen darin,
durch die regelmäßige Ausstrahlung einer Fortsetzungsgeschichte im Hörspiel die
Bindung des Publikums an einen Sender zu stärken. Dies galt besonders dann,

245
246 4 Medien der Audiovision

wenn die Geschichte mit einem konstanten Figurenensemble ausgestattet war,


an dessen Erlebnissen die Zuhörer und Zuschauer bereits aufgrund sozialer Nähe
empathisch Anteil nehmen konnten.
Die über Jahrzehnte idealtypische Zielgruppe der Sender waren Familien, deren
typische Rollenbilder, Konflikte und Werte im Mittelpunkt standen (Ellis 2002).
Die erste westdeutsche Familienserie, Unsere Nachbarn heute Abend: Familie
Schölermann (NWDR, 1954–60), zielte bereits im Titel darauf ab, den Zuschauern
Menschen zu präsentieren, mit denen sie Tür an Tür leben könnten. Verstärkt
wurde die Verschränkung der Serienwelt mit der Alltagswelt u. a. dadurch, dass die
abendliche Ausstrahlungszeit identisch war mit der erzählten Zeit der Serienwelt,
und auch tagesaktuelle Ereignisse aufgriff. Derartige Fernsehserien sorgten in ihrer
seriellen Fortsetzung schon damals dafür, dass die Zuschauer langfristig mit den
Eigenschaften und Dispositionen der Figuren vertraut werden konnten. Sie sollten
ihnen vor dem Bildschirm begegnen, als seien sie Bekannte, über die man im Fa-
milien- und Freundeskreis noch spricht, wenn der Fernseher ausgeschaltet ist. Auf
diese Weise wurde auch in den Fernsehserien das Selbstverständnis des Mediums
als ‚Fenster-zur-Welt‘ zu einem tragenden Prinzip. Mit dem Versprechen, echtes
Leben zu zeigen, bot sich den Zuschauern auf einmal ein voyeuristischer Blick –
vergleichbar dem heimlichen Blick aus dem eigenen Fenster in die Wohnungen
der Nachbarn. Auf diese Weise begann, wie Hans-Ulrich Gumbrecht (1988, S. 247)
bemerkt, „die Privatsphäre der Fernsehzuschauer und die Situation der Fernseh-
sendung […] zu einer Wirklichkeit zu verschmelzen – zur Fernsehwirklichkeit“.
Im Verlauf der 1950er-Jahre wurde Serialität in mehrfacher Hinsicht zu einem
zentralen Strukturmerkmal tele-medialer Techniken und Ausdrucksformen – weit
über die Gattung der Fernsehserie hinaus. An erster Stelle ist die serielle Pro-
grammgestaltung zu nennen, die von Beginn an wiederkehrende Sendeplätze für
bestimmte Sendeformen, wie Nachrichten, Fernsehshows, Serien, oder Ratgeber-
sendungen etablierte (vgl. Hickethier 1993, Bleicher 2001). Dies vereinfachte nicht
nur die Planung des Sendeablaufs. Es zielte vor allem darauf ab, die Erwartungen
der Zuschauer zu lenken und die Bindung an persönlich bevorzugte Sendeplätze
durch Konstanz zu festigen. Dabei hoffte man, dass die Zuschauer die Zeiten des
Fernsehprogramms in den eigenen Alltagsrhythmus integrieren – sei dies die
abendliche Nachrichtensendung oder die wöchentliche Fernsehshow oder Serie
(Hickethier 1993). Die Wiedererkennbarkeit von festen Sendeplätzen wurde dabei
durch seriell wiederkehrende Akteure und audiovisuelle Erscheinungsformen ver-
stärkt. Regelmäßig auftretende Ansager, Moderatoren, Nachrichtensprecher und
Serienschauspieler boten schon früh durch ihr öffentliches Image (Medienpersona)
sowie durch ihre physische Erscheinung ein personalisiertes Bild der Sender – ein
Faktor, der mit wachsender Senderkonkurrenz immer wichtiger wurde. Das Sen-
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 247

derlogo, Erkennungsmelodien oder die Studioausstattung einzelner Sendungen


wurden daneben bereits in dieser frühen Phase zu seriellen audiovisuellen Erschei-
nungsformen, welche die Gewöhnung der Zuschauer an das Fernsehprogramm
und seine Einbindung in den Alltag wesentlich unterstützte (vgl. Caldwell 2002,
Bleicher et al. 2010).
Serialität wurde schließlich noch in einer weiteren Hinsicht zu einem markanten
Strukturmerkmal des Fernsehens: Über die verschiedenen Fernsehgattungen und
-genres hinweg entstanden serielle Narrative, in denen wiederkehrende Ereignisse
und Akteure aufgegriffen und in einer spezifischen Abfolge und Darstellung als
Geschichten forterzählt wurden (vgl. Bleicher 1999). Neben den bereits erwähnten
Fernsehserien gilt dies bis heute auch für non-fiktionale Gattungen wie Nachrichten-
sendungen: In der Rolle der Erzähler und Welterklärer treten seit den 1950er-Jahren
Nachrichtensprecher den Zuschauern allabendlich auf den Bildschirmen entgegen.
Auch die Fernsehredaktion nimmt, für die Zuschauer unsichtbar, durch Auswahl
und Anordnung der Nachrichten seitdem eine narrativ gestaltende Rolle ein. Dabei
ist sie bemüht, die tagesaktuellen Ereignisse dramaturgisch so zu gestalten, dass
sie Aufmerksamkeits- und Spannungsbögen für die Zuschauer aufrechterhält. Die
Berichte über politische, gesellschaftliche und kulturelle Ereignisse haben zudem
häufig wiederkehrende öffentliche Personen, ihre Entscheidungen und Hand-
lungen zum Gegenstand. Schließlich gibt es offene Enden in den Berichten jeder
Nachrichtensendung, die an einem der Folgeabende wieder aufgegriffen werden.
Auf diese Weise entsteht für das regelmäßig einschaltende Publikum der Eindruck
kontinuierlich forterzählter Geschichten, an denen sie aufgrund ihres Vorwissens
kognitiv und emotional teilhaben können.

▶▶ Bis Anfang der 1960er-Jahre hatte sich das Fernsehen als ein Medium etabliert, das
das natürliche Wahrnehmungsspektrum des In-die-Ferne-Sehens-und-Hörens
ubiquitär erweiterte: potentiell wurden Ereignisse auf der ganzen Welt fortan im
eigenen Wohnzimmer beobachtbar. Die technischen, programmgestalterischen
und ästhetischen Strukturen und ihrer Gewöhnung durch das Publikum, er-
möglichten sinnliche, affektive und soziale Teilhabe an öffentlichen Ereignissen.

Mit anderen Worten: es hatten sich bereits Grundzüge des Fernsehens als eines
Präsenzmediums ausgebildet, das – ähnlich der bildhistorischen Tradition seit
der Renaissance – den Blick auf den Bildschirm als Blick durch ein transparentes
Fenster erfahren lässt (vgl. 3.2.4). Die mediale Vermittlung zielte auch hier auf
ihre eigene Unsichtbarmachung. Im Unterschied zu anderen Bildmedien, wie die
zentralperspektivische Malerei, die Fotografie oder der Film, wurden und werden
bis heute jedoch weniger in sich abgeschlossenen Bildwelten gezeigt (vgl. hierzu

247
248 4 Medien der Audiovision

Fahle 2006). Vielmehr handelt es sich im Gesamtkontext der Fernsehprogramme


um heterogene Bildräume. Diese waren von Anfang an zum Publikum hin geöffnet,
bezogen es aktiv mit ein. Durch die Verankerung im Alltag der Zuschauer wird
ihre Adressierung, im Unterschied zu Theater und Film, daher auch nicht als Un-
terbrechung eines Illusionserlebens empfunden. Vielmehr wurden das Fernsehen
und seine Bildschirmakteure seit den 1950er-Jahren als Bestandteil der eigenen
sozialen Umwelt etabliert, mit der man para-sozial alltäglich interagiert. Als prä-
gend zeichneten sich bereits damals Serialität und eine vom Live-Prinzip geprägte
Ästhetik der Unmittelbarkeit ab. Diese beiden Grundzüge tele-medialer Audiovision
wurden im Laufe der 1960er-Jahre durch das Aufkommen von Farbfernsehen und
Techniken der Magnetbandaufzeichnung (MAZ) entschieden vorangetrieben und
differenziert. Sie trugen zunächst einmal dazu bei, realistische Fernsehstile (vgl.
Bleicher et al. 2010) weiter zu entwickeln und damit den Eindruck transparenter
‚Durchsicht‘ auf ferne Ereignisse und den damit verbundenen Anschein von Un-
mittelbarkeit und Authentizität.
Mit der Magnetbandaufzeichnung setzte sich im Fernsehen der Bundesrepublik
zu Beginn der 1960er-Jahre ein Verfahren durch, das nicht nur die Aufzeichnung
und Archivierung, sondern auch das Abspielen von audiovisuellem Material
erlaubte. Bis dato musste live übertragen werden bzw. wurde filmisches Material
während einer laufenden Sendung ‚abgefilmt‘. Mittels des neuen Verfahrens der
MAZ wurden Bild- und Tonsignale durch Strom in Magnetfelder übertragen, die
von einem elektromagnetischen Kopf ausgelesen werden konnten. Indem Bild und
Klang dabei in gleichartige elektronische Signale umgewandelt wurden, wurde es
wesentlich einfacher, sie synchron zu verarbeiten und abzuspielen. Zunächst nutzte
man die MAZ zur Archivierung einzelner Live-Sendungen und zur Vorproduktion
von Sicherheitskopien, die man im Falle von Pannen in einer Live-Ausstrahlung
einspielen konnte, schließlich barg das Zufallsprinzip der Live-Shows auch das Risiko
von Ausfällen und unvorhersehbaren Problemen. Je günstiger die MAZ-Bänder
wurden, desto mehr setzten sich diese im Laufe der 1960er-Jahre als Trägerma-
terial durch, und somit auch die Praxis, aufgezeichnete Sendungen und Sendele-
mente auszustrahlen. Häufig bemühte man sich dabei jedoch, den Charakter der
Live-Übertragung aufrechtzuerhalten, der für das sensuelle Erleben tele-medialer
Teilhabe entscheidend ist.
Die eingespielten Berichte und Reportagen in den abendlichen Nachrichten-
sendungen orientieren sich bis heute an der Ästhetik des Live-Effektes: Korre-
spondenten, die in die Kamera sprechen und das Publikum vermeintlich zeit-
gleich ansprechen, der Einsatz von Handkameras bei Reportagen, aber auch die
Ausstrahlung von Ereignissen mit nur kurzer zeitlicher Verzögerung. Durch den
Einsatz der MAZ-Technik wird seitdem in diesen Sendeformen regelmäßig ein
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 249

Schein von Unmittelbarkeit erzeugt, der den Zuschauern das direkte Dabei-Sein
an den Orten der Berichterstattung suggeriert (Zielinski 1993, S. 151). Je mehr sich
mobile MAZ-Aufnahmegeräte durchsetzten, erweiterte sich daneben das räumliche
Spektrum der Berichterstattung in Bild und Ton und somit auch der tele-mediale
Wahrnehmungsraum für die Zuschauer. Allerdings dauerte es noch bis in die
1980er-Jahre, bis sich die „elektronische Berichterstattung“ über MAZ auch für
Außenaufnahmen etablierte (vgl. Hoffmann 2011). Zum einen war die umfassende
technische Ausstattung der Sender mit hohen Kosten verbunden, zum anderen
war erst seitdem die aufgezeichnete Bildqualität zufriedenstellend. Gleichwohl bot
die MAZ gerade für die mobilen Drehteams vor Ort enorme Vorteile: die Bilder
standen im Unterschied zum Film sofort zu Verfügung und konnten bereits bei der
Aufnahme über Monitor kontrolliert werden. Das bedeutete nicht nur eine Materi-
alersparnis, sondern verkürzte auch die Zeit zwischen Aufnahme und Versendung.
Eine zusätzliche Veränderung, die mit der Einführung von MAZ langfristig
einherging, war die elektronische Bearbeitung des Fernsehbildes. Die Komposition
und Gestaltung von Live-Aufnahmen und vorproduzierten Bildern überschritt schon
bald die Inszenierung vor der Kamera. Zum einen erlauben multiple Sets von in den
Studios installierten elektronischen Kameras Live-Aufnahmen aus unterschiedlichen
Perspektiven aufzunehmen, die von der Regie in laufender Sendung ausgewählt
und kombiniert werden. Zum anderen konnte in Live-Shows fortan aufgezeichnetes
Material eingespielt werden, das zuvor geschnitten, bearbeitet und durch nachträg-
liches Einfügen von Kommentaren erweitert worden war. Auch grafische Elemente,
wie Senderlogo, Inserts mit Namen von Bildschirmpersonen und zusätzlichen
Informationen, sowie elektronisch erstellte Infografiken erweiterten das optische
Spektrum. Auf auditiver Ebene begann man Erkennungsklänge (wie der Gong der
Tagesschau) und -melodien von Sendungen einzuspielen, die über die MAZ in der
elektronischen Vorproduktion auf ihren optimalen Effekt hin bearbeitet wurden
(vgl. Schätzlein 2005). Die elektronische Gestaltung der Bildschirmansichten geht
damit weit über die Komposition vor einer Kamera hinaus, unterscheidet sich aber
auch wesentlich von der Mise-en-Scène des Films, wo alle Einzelelemente auf eine
geschlossene erzählerische Welt bezogen sind. Im Fernsehen, besonders in Live-
Shows und Nachrichtensendungen, wird seit der Einführung von MAZ dagegen
visuelles und auditives Material unterschiedlicher Art elektronisch miteinander
zu verschmolzen: etwa Live-Aufnahmen, Video-Aufzeichnungen, elektronische
Grafiken, eingespielte oder aufgezeichnete Kommentare und Musik. So entstehen
audiovisuelle Schichten, die sich zu einem heterogenen Darstellungsraum verbin-
den, welcher den Zuschauern auf mehreren Ebenen sensuelle tele-mediale Teilhabe
bietet und damit – im Unterschied zum Film – interaktiv geöffnet ist. Audiovisuelle
Wahrnehmung von gleichzeitig und zeitlich versetzt stattfindenden Ereignissen

249
250 4 Medien der Audiovision

verbinden sich dadurch im Rahmen des Bildschirms ebenso, wie schriftliche und
grafische Informationen über die dargestellten Ereignisse und Personen, sowie
Informationen über den Sender und die Sendung selbst (Logos, Klangmarken etc.).
Besonders die sendereigenen Formen nahmen bereits im Laufe der 1960er-Jahre
eine zunehmend wichtige Rolle ein (vgl. Bleicher 2010). Dies traf gerade dort zu,
wo sich einzelne Sender von ihrer Monopolstellung verabschieden mussten und
Konkurrenzverhältnisse entstanden. In der Bundesrepublik trat dies bereits 1963
mit dem Sendestart des ZDF (Zweites Deutsches Fernsehen) als weiterem öffent-
lich-rechtlichen Sender ein. Während dieser sich in seinen Ausdrucksformen
zunächst stark an der ARD orientierte, wurde die inhaltliche und stilistische
Abgrenzung schon bald für beide zu einem zentralen Movens der Programmgestal-
tung (Bleicher 2010). Die vollelektronische Produktion, Bearbeitung, Speicherung
und Ausstrahlung von audiovisuellem Material in der MAZ wurde genutzt, um
grafische und animierte Senderlogos, Trailer und Clips für Werbetrenner usw. zu
produzieren, die den Zuschauern die Identität des jeweiligen Senders fortlaufend
vergegenwärtigen sollen. Insofern trägt die MAZ-Technik im Laufe der 1960er-Jah-
re zu zwei unterschiedlichen Tendenzen im Fernsehen bei: der Optimierung von
Realitätseffekten, sowie der Ausprägung designerischer Ausdrucksformen, die vor
allem auf die Senderidentität bezogen sind (vgl. Caldwell 2002, Bleicher 2010).
Als 1967 in der Bundesrepublik das Farbfernsehen eingeführt wurde, ergaben sich
für beide Tendenzen zusätzliche Gestaltungsspielräume. Der Realismuseindruck von
Nachrichtenbildern, aber auch von Bildern aus Fernsehserien und Fernsehspielen
wurde durch Farbe noch einmal wesentlich erhöht. Damit fand eine weitergehende
Anpassung an die natürliche Wahrnehmung der Betrachter statt. Aber auch für
die designerischen Ausdrucksformen war das Farbfernsehen folgereich. Zum einen
konnten fortan Farben als visuelle Identitätsmarker in Senderlogos, Studiogestaltung
und Moderatorenausstattung (Kleidung) fungieren. Die Farbe Blau etwa wurde zu
einem visuellen Erkennungsmarker der ARD-Nachrichtensendung Tagesschau.
Daneben boten Fernsehfarbe und MAZ einem ab Mitte der 1960er-Jahre aufkom-
menden neuen Genre, der Pop-Musiksendung, wichtige Gestaltungsmöglichkeiten.
Die erste westdeutsche Pop-Musiksendung, Beat-Club, lief ab 1965. Sie griff erstmals
im Fernsehen aktuelle Strömungen der Jugendkultur auf, indem sie Rockbands zu
Konzerten ins Studio einlud, das als ‚Beat-Schuppen‘ ausgestattet war. Durch die
Live-Übertragung und den Einbezug eines jungen Konzertpublikums, das zu der
Musik tanzte, standen die ersten anderthalb Jahre der Sendung im Zeichen direkter
tele-medialer Teilhabe: die dynamisch abwechselnden Kameras beschränken sich
auf die teilnehmende Beobachtung an der Interaktion von Musikern und Publikum.
Gerade durch nahe Einstellungen wurden auch die Zuschauer vor den Bildschir-
men sensuell und affektiv mit einbezogen. Mit der Durchsetzung von MAZ und
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 251

Farbfernsehen wurden die Konzert-Auftritte nach 1967 dann zunehmend durch


Fernsehdesign gerahmt. So bereitete der Regisseur Michael Leckebusch die Live-Auf-
tritte elektronisch auf, etwa durch Collagen mehrerer Bildelemente, Überblendungen
von Ansichten der Bands mit Bildern ihrer Plattencover und multiplen Aufsplit-
tungen von Kameraperspektiven auf dem Bildschirm (Fahlenbrach/Viehoff 2003).
Leckebusch nutzte das ganze damalige Spektrum elektronischer Bilderzeugung,
von frühen Stanztechniken (Blue-Box-Verfahren), über Positiv-Negativ-Umwand-
lungen bis hin zu Mehrfachprojektionen. Somit wurde die tele-mediale Teilhabe
an dem simultan stattfindenden Pop-Ereignis durch videografische Begleitung
synästhetisch intensiviert. (siehe Abbildung 36)

Abb. 36 Steppenwolf-Auftritt in Beat Club (Radio Bremen), Folge 43 (07.06.1969)

Mit seinen elektronischen Bildeffekten, die in Rhythmus und Gestalt auf die Mu-
sik abgestimmt waren, trug Leckebusch wesentlich zur Ausprägung der späteren
Musikvideo-Ästhetik bei. Derartige Experimente machten auch eine zentrale Be-
sonderheit von Fernsehästhetik im Unterschied zum Film offenbar: die Erzeugung

251
252 4 Medien der Audiovision

heterogener audiovisueller Darstellungsräume, basierend auf dem Prinzip elek­


tronischer Schichtung von (statischen, bewegten, filmischen und elektronischen)
Bildern und Klängen.
Mit zunehmender Senderkonkurrenz, die in den USA, aber auch in Italien und
Frankreich bereits in den 1970er-Jahren einsetzte, wurden designerische Ausdrucks-
formen immer bedeutsamer, um die einzelnen Sender in ihrem audiovisuellen
Erscheinungsbild voneinander abzugrenzen. Der damit einhergehende artifizielle
Designcharakter tele-medialer Bilder und Klänge ließ den vormaligen Fokus auf
audiovisuellen Realismus und Authentizität stärker in den Hintergrund rücken
(vgl. auch Bleicher 2010). Der Bildschirm verlor zunehmend seinen transparenten
‚Fenster‘-Charakter. Denn mit der Dauerpräsenz von Logos und designerischen
Programmverbindungen wie Trailern und Inserts auf dem Bildschirm traten Mar-
kenelemente der Sender zwischen den Blick der Zuschauer und die Wirklichkeit
auf dem Bildschirm (Link 2008).

▶▶ In der weiteren Entwicklung des Fernsehens, die im folgenden Abschnitt näher


betrachtet wird, veränderte sich die tele-medialer Teilhabe für die Zuschauer
durch den konstanten Ausbau interaktiver Strukturen. Dies leistete einer Indi-
vidualisierung tele-medialer Audiovision Vorschub.

Die zuvor geschilderten technischen, ästhetischen und programmlichen Veränderun-


gen tele-medialer Teilhabe hatten noch alle mehr oder weniger die traditionelle Hie-
rarchie zwischen Sender und Zuschauer zur Grundlage. Die Medienwissenschaftler
Roger Odin und Francesco Casetti (2002) nennen dieses frühe, hierarchisch geprägte
Fernsehen Paläo-Fernsehen, womit sie es gewissermaßen in der ‚Steinzeit‘ seiner
Mediengeschichte verorten. Den Zuschauern wurde Teilhabe mehr suggeriert, als
dass sie tatsächlich auf das Bildschirmgeschehen Einfluss nehmen konnten. Dieses
Machtverhältnis änderte sich erstmals mit der kontinuierlichen Diversifizierung
von Fernsehsendern. Die Verbreitung privater Anbieter vollzog sich in den verschie-
denen westlichen Ländern unterschiedlich schnell. Während die USA, Frankreich
und Italien in dieser Hinsicht vorangingen – in Italien gab es 1970 bereits 30–40
Sender – dauerte es in der Bundesrepublik noch bis weit in die 1980er-Jahre, bis die
privaten Anbieter die Fernsehlandschaft nachhaltig erweiterten (s. u.). Seit 1984,
dem Jahr der offiziellen Einführung des dualen Rundfunksystems, gab es auch
hier erste Versuche, in Kabelpilotprojekten das öffentlich-rechtliche Fernsehen
durch Kabelfernsehen zu erweitern, für das man die Lizenzen an private Anbieter
abgeben wollte. Fortan bescherte das Duale System den öffentlich-rechtlichen
Rundfunkanstalten privatwirtschaftliche Konkurrenz. Ein zentraler Unterschied
zwischen beiden Systemen ist bis heute, dass sich die privaten Rundfunkanstalten
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 253

nicht über öffentliche Rundfunkgebühren finanzieren. Aus diesem Grund waren


sie von Beginn an auf Werbung angewiesen, was ihre Programmstrukturen und
Sendeformen bis heute entscheidend prägt.
Mit der zunehmenden Senderkonkurrenz und Ausweitung des kommerziellen
Fernsehens ging ein paradigmatischer Wandel einher, den Casetti und Odin (2002)
als Wandel vom hierarchischen Paläo- zum interaktiven Neo-Fernsehen beschreiben.
Im Mittelpunkt steht dabei die zunehmende Ermächtigung und Autonomisierung
der Zuschauer. Obwohl das Publikum indirekt von Anfang an einbezogen wurde,
basierte dies auf stark verallgemeinerten Vorstellungen der Fernsehproduzenten.
Durch die kontinuierliche Ausweitung von privaten und öffentlichen Fernsehan-
stalten, und der damit verbundene Senderkonkurrenz, änderte sich die Rolle des
Zuschauers grundlegend: er wurde vom indirekt adressierten passiven zum direkt
adressierten und aktiv in das Bildschirmgeschehen eingreifenden Subjekt. Diese
Ermächtigung der Zuschauer und Steigerung von Interaktivität, die von Sendern
und der Elektroindustrie aktiv vorangetrieben wurde, fand auf mehreren Ebenen
statt (vgl. auch Caldwell 2002):

1. in aufmerksamkeitslenkenden Programmstrukturen
2. durch die auf Zuschauerforschung basierende Formatierung von Sendungen
3. in der Ausbildung interaktiver Sendeformen
4. in der Entwicklung von interaktiven Empfangstechnologien

(1) Aufmerksamkeitslenkende Programmstrukturen: Mit der Zunahme an Sender-


konkurrenz änderten sich die Fernsehprogramme nachhaltig. Dies betraf zum
einen die gesamte Sendedauer. In der Bundesrepublik wurde bis in die 1990er-Jahre
kein durchgängiges Tages- und Nachtprogramm ausgestrahlt. Nachdem man bis
in die 1960er-Jahre hinein nur zu einzelnen Tageszeiten sendete – v. a. abends und
am Wochenende (Hickethier 1998) –, war die schrittweisen Ausweitung auf ein
ganztägiges Programm ab den 1960er-Jahren bereits dem erhöhten Selektions- und
Erwartungsdruck geschuldet, der sich in der Konkurrenz der zwei Sender ARD
und ZDF aufgebaut hatte. Um Mitternacht endete das Programm mit einem kurz
eingeblendeten Testbild, gefolgt von einem bis zum Programmbeginn am nächsten
Tag andauernden schwarz-weiß gepixelten Sendebild. Dieses ‚Schneebild‘ wurde
begleitet von einem dauerhaften Rauschen. Auf diese Weise wurde das pure Fort-
bestehen des technischen Kanals im zeitlichen Modus des Klangs ebenso vermit-
telt wie die nächtliche Unterbrechung des Programms mit seinen tele-medialen
Weltansichten. Erst ab 1990 wurde schrittweise von den einzelnen Sendern auf
253
254 4 Medien der Audiovision

durchgehende Programmausstrahlung umgestellt, wobei bezeichnenderweise die


Privatsender den Anfang machten.
Mit der Ausweitung der Sendezeit auf 24 Stunden fand in den 1990er-Jahren
ein grundlegender Wandel der Programmstrukturen statt: vom Raster- zum
Fließprogramm. Kennzeichen des bis in die 1980er-Jahre im öffentlich-rechtlichen
Fernsehen dominanten Rasterprogramms war, dass es eindeutig voneinander
abgrenzbare Sendeeinheiten aufwies (s. o.). Diese waren nach Sparten (z. B. Unter-
haltung, Information, Ratgeber) und Gattungen (z. B. Serie, Spielshow, Talkshow,
Nachrichtensendung) sortiert. Innerhalb einer wiederkehrenden Rasterstruktur
wurden dieselben Sendeplätze mit bestimmten Sparten und Gattungen belegt (z. B.
Abendnachrichten um 20 Uhr, die Krimireihe am Sonntagabend um 20:15 Uhr).
Dabei herrschte das Prinzip des Wechsels vor (Hickethier 1998, Bleicher 2001). Um
den tele-medialen Aufenthalt an einem Sender hinreichend abwechslungsreich für
die Zuschauer zu gestalten, bemühten sich die Programmgestalter, unterschiedliche
Sparten und Gattungen aufeinander folgen zu lassen. Mit der Familie als idealtypi-
scher Zielgruppe sprach man zu den verschiedenen Sendezeiten unterschiedliche
Personen an: mit dem Frühstücksfernsehen die Hausfrau, mit dem frühen Vor-
abendprogramm die Kinder, das Abendprogramm war dann an das Elternpaar
gerichtet, ab den 1970er-Jahren zunehmend auch an Jugendliche.
Als die Zuschauer begannen, selbstständig in dem immer größer werdenden
Angebotsspektrum zu wählen, sahen sich die Sender genötigt, ihre idealisierten
Zuschreibungen zu revidieren. Sie gingen dazu über, Programme zu konzipieren, die
sich an möglichst breit gefächerte Publikumsgruppen richteten und somit ästhetisch
wie inhaltlich entsprechend weiter gestreut werden konnten. Um die Aufmerksamkeit
und das Interesse der Zuschauer möglichst lange auf dem eigenen Kanal zu halten,
wurden auch zunehmend Einschübe und Verweise auf später folgende Sendungen
eingebaut. Vorschauen, Vorankündigungen, Teaser und Trailer wurden ab den
1990er-Jahren immer wichtiger, um noch in laufenden Sendungen bzw. in kurzen
Unterbrechungspausen (Werbung), sowie in Momenten des Sendungsübergangs
dem Publikum neue Erlebnisversprechen zu machen und sie vom Umschalten
abzuhalten. So fand sowohl durch die weitgehende Auflösung zielgruppenorien-
tierter Sendeplätze, als auch durch die Ausbildung senderbezogener Verweis- und
Verknüpfungsstrukturen ein grundlegender Strukturwandel zum Fließprogramm
statt. Dieser Wandel wurde in der Fernsehforschung einflussreich von Raymond
Williams (1974/1990; 2002) als Programmflow beschrieben, bei dem die Sender auf
eine maximale Synchronisation mit dem „Alltagsfluss“ der Zuschauer abzielen. Dem
entgegen kam die Ausweitung des Fernsehgerätemarktes, der dafür sorgte, dass
in den Haushalten mehrere Fernseher angeschafft wurden. Das Fern-Sehen-und-
Hören wurde damit zu einer zunehmend allgegenwärtigen Praxis, die die flüchtige
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 255

Nebenrezeption ebenso umfasste, wie die fokussierte Rezeption. Gleichzeitig leistete


die Verbreitung von Fernsehgeräten innerhalb einzelner Haushalte der allgemeinen
Individualisierung telemedialer Audiovision Vorschub.

(2) Die auf Zuschauerforschung basierende Formatierung von Sendungen: Angesichts


verschärfter Konkurrenzverhältnisse zwischen öffentlich-rechtlichen und privaten
Sendern wurden die Interessen und Bedürfnisse der Zuschauer auch zum zentralen
Gegenstand in der Planung und Gestaltung von einzelnen Sendungen: Indem sie
empirisch durch Marktstudien und laufende Erhebungen der Einschaltquoten er-
fasst wurden, wurden die Zuschauer indirekt gewissermaßen zum „Auftraggeber“
(Odin/Casetti 2002) der Sender und konnten durch ihr Konsumverhalten Einfluss
auf das Angebot nehmen. Während die Sender sich zuvor um ein möglichst brei-
tes Spektrum an Themen, Genres und Sparten bemüht (s. o.) hatten, wurden v. a.
Sendungen von privaten Sendern auf Grundlage von empirischer Marktforschung
entwickelt. Private Produktionsfirmen, wie die erfolgreiche niederländische Firma
Endemol (u. a. Traumhochzeit, RTL 1992–2000; Big Brother, RTL II, 2000–2011; 2015)
konzipieren seit Mitte der 1990er-Jahre sogenannte Formate, in denen sämtliche
Elemente einer Sendung mit Blick auf vorher getestete Zuschauervorlieben und auf
die Corporate Identity eines Senders hin entwickelt werden. Die Art der Zuschauer-
adressierung durch die Moderatoren, das situative, räumliche und zeitliche Setting,
sowie sämtliche audiovisuellen Gestaltungselemente (Farben, Studiodesign etc.)
einer Sendung werden in sogenannten Formatbibeln festgelegt. Als ökonomisch,
inhaltlich und gestalterisch konzipiertes Sendungskonzept werden Formate seitdem
auch in unterschiedliche Ländern verkauft (z. B. Popstars, DSDS). Indem nicht mehr
idealisierte, sondern mit empirischen Methoden ermittelte Betrachterbedürfnisse
und Interessen ins Zentrum der Programmplanung rücken, erhält das Publikum mit
seinem Konsumverhalten einen neuartigen Einfluss auf das Bildschirmgeschehen.

Weiterer Ausdruck einer allgemeinen Ermächtigung der Zuschauer ist die Ten-
denz zu (3) interaktiven Sendeformen, in denen neue technische und konzeptuelle
Elemente zusammenwirken. So hatten bereits in den 1970er-Jahren die Fernsehzu-
schauer einerseits neue technische Möglichkeiten als aktive Teilnehmer in laufende
Sendungen einzugreifen: durch telefonische Call-In-Optionen, oder durch das
Einblenden von Zuschauerkommentaren in Textinserts. Daneben fand die direkte
Ermächtigung der Zuschauer ihren Niederschlag in neuen Showformaten, in denen
die Zugangsschwelle von Bürgern zur Teilnahme im Fernsehstudio weiter gesenkt
und auch das Bildschirm-Publikum zu einem aktiven Mitspieler wurde.
Durch die Wahl alltagsnaher Themen in den Shows, den aktiven Einbezug
des Publikums, sowie durch die Inszenierung alltäglicher Fernsehräume (z. B.

255
256 4 Medien der Audiovision

Reality-TV-Formate) präsentieren sich die Fernsehsender nicht mehr nur als Ver-
mittler authentischer Ansichten auf die soziale Wirklichkeit der Zuschauer, wie
dies in früheren Zeiten bereits der Fall gewesen war. Vielmehr bieten sie sich als
eigenständiges, im Alltag der Zuschauer verankertes tele-soziales Kontaktmedium
an. Bezeichnend hierfür ist die Ausweitung von Talkshows, vor allem das Aufkom-
men von Daily-Talks bzw. sogenannter „Affect-Talks“ (Bente/Fromm 1997), die
im westdeutschen Fernsehen ab 1987 populär wurden. Daily-Talks wie Arabella
oder Schreinemakers live (SAT 1, 1992–1996), Beziehungsshows wie Verzeih mir
(RTL, 1992–1994; 2010–2012) oder Nur die Liebe zählt (RTL, 1993–1994, SAT 1,
1995–2011) oder Suchsendungen wie Vermisst (RTL, seit 2007) oder Bitte melde
Dich (SAT 1, 1993–1998) bieten eine weit über frühere Talkshows hinausgehende
soziale Nähe zu ihrem Publikum. Statt soziale Wirklichkeit nur zu repräsentieren,
inszenieren sich diese Sendungen als Orte, an denen sich Momente aus der Lebens-
wirklichkeit einzelner Gäste in Echtzeit tele-medial vor den Augen und Ohren der
Zuschauer vollziehen. Das Fernsehen greift hier direkt in persönliche Schicksale
der Menschen ein und bietet neue Formen der vormals privaten Kommunikation
sowie der Lösung von persönlichen Konflikten. Vor laufender Kamera begegnen
sich Paare, Familienmitglieder, Freunde oder Kollegen und sprechen über ihre
privaten, oft intimen Probleme. Auch Einzelpersonen reden öffentlich über ihre
psychischen Krisen oder gesellschaftlich tabuisierte sexuelle oder anderweitige
Neigungen. Von besonderer Bedeutung sind dabei die Moderatoren, die als ihre
unmittelbaren Gesprächspartner vor der Kamera fungieren. Dabei zeigen sie ihren
Gesprächspartnern gegenüber verständige Offenheit und nehmen somit die Rolle
eines Therapeuten oder Beichtvaters ein (Bente/Fromm 1997). Dieses Vorgehen
zielt darauf ab, den Gästen möglichst viele intime Geständnisse und Gefühle zu
entlocken. Andererseits sind sich die Moderatoren in diesen Sendungen immer
auch ihrer Stellvertreterrolle gegenüber dem Bildschirmpublikum bewusst. Da-
her bemühen sie sich, den Wertekonsens mit dem Tele-Publikum immer wieder
zu betonen. Dies geschieht durch vereinzelte Signale der Abgrenzung gegenüber
den Gesprächspartnern, häufig nonverbal, wie durch eine abschätzige Mimik in
Richtung Kamera. Im Zentrum steht gleichwohl die Suggestion, den Gesprächs-
partnern in zentralen Lebensfragen zu helfen, sowohl durch das professionelle,
quasi therapeutische Gespräch mit dem Moderator, als auch durch die kollektive
emotionale Teilhabe von Saal- und Bildschirmpublikum (vgl. ebd.).
Während sich das Fernsehen als Ort des unmittelbaren Sozialkontaktes prä-
sentiert, werden den Zuschauern erweiterte Möglichkeiten aktiver tele-medialer
Teilhabe geboten. Dies gilt zum einen für die generelle Zugänglichkeit zu derartigen
Sendungen: jeder kann sich bewerben. Entscheidend sind nicht besondere Kompe-
tenzen, Wissen, sozialer Status oder gar Prominenz. Ausschlaggebend ist vielmehr
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 257

das affektive Konfliktpotential, das die persönliche Geschichte eines Bewerbers


für die Show und ihren Unterhaltungswert bietet. Das Wissen um die niedrige
Zugangsschwelle ist geeignet, die affektive Teilnahme des Bildschirmpublikums
und die para-soziale Interaktion mit den ausgewählten Gästen aufgrund sozialer
Nähe zu verstärken. Daneben können sich in einigen dieser Shows die Zuschauer
durch Call-In-Optionen oder durch eingeblendete Kommentare in die Auseinan-
dersetzungen im Studio einmischen – eine Form der direkten Partizipation, die
später durch das Web 2.0 wesentlich erweitert wurde. Die Zuschauer werden damit
zu öffentlich wahrnehmbaren und in das Studiogeschehen eingreifenden Akteuren.
Nachdem sich die Daily-Talk-Formate zum Ende der 1990er-Jahre weitgehend
erschöpft hatten, trat mit dem sogenannten Reality-TV eine Fernsehgattung auf den
Plan, die eine weitere affektive und sensuelle Steigerung tele-medialer Interaktion
mit sich brachte. Sie fügte sich ein in die Tendenz, das Fernsehen vom Medium
zum Ort der Genese sozialer Wirklichkeit zu machen. Im Reality-TV wird reales
Alltagsleben entweder vermeintlich unverstellt dokumentiert oder wirklichkeits-
getreu, häufig mit Laienschauspielern nachgestellt (vgl. Bleicher 2009a; 2018). Zum
Jahrtausendwechsel entwickelte sich international ein breites Spektrum an Formaten,
in denen Menschen in der Bewältigung ganz unterschiedlicher Schicksalsmomen-
te und Konfliktsituationen gezeigt werden. Den Anfang machte bereits 1991 die
niederländische Sendung Nummer 28, in der einander bisher fremde Menschen
längere Zeit in einem Haus zusammen verbrachten, wo sie durchgängig gefilmt
wurden. Das Fernsehen wurde hier zum Ort eines sich real vollziehenden Sozial­
experimentes, an dem die Zuschauer vor den Bildschirmen mental und affektiv
teilnehmen konnten. Konflikte zwischen den Unbekannten und ihre Bewältigung
sozialer – auch durch die öffentliche Teilnahme erzeugten – Stresssituationen,
wurden zum zentralen Gegenstand tele-medialer Teilhabe. Das Konzept des So-
zialexperimentes wurde in verschiedenen Folgeformaten weitergeführt, einfluss­
reich etwa in der Sendung Big Brother. Das von der Produktionsfirma Endemol
entwickelte Format wurde in 70 Länder verkauft und gehört zu den erfolgreichsten
Reality-TV-Formaten. Auch hier wurden Fremde in einer künstlich gestalteten
Wohnung, dem sogenannten „Container“, zusammengebracht und über mehrere
Wochen von der Außenwelt isoliert. Die Fernsehkameras und Mikrofone, die im
Container angebracht waren, um alle Handlungen und Äußerungen der Bewohner
rund um die Uhr aufzuzeichnen, stellten die einzige Kontaktstelle zur Außenwelt
dar. Damit wurde eine Extremsituation erzeugt, in der soziales Verhalten, aber
auch die Lösung von spezifischen Spiel-Aufgaben vor den prüfenden Blicken der
Fernsehzuschauer bestehen musste, die als aktiv Teilnehmende in den Verlauf der
Sendung eingebunden waren. Sie stimmten per Tele-Voting darüber ab, welche

257
258 4 Medien der Audiovision

Bewohner ausziehen mussten. Gewinner war am Ende, wer alle Votings überstand
und als Letzter im „Container“ war.
Als ein wesentliches Merkmal von Reality-TV etablierte sich mit Big Brother
auch der moralische Tabubruch. Indem die Sendung bewusst Grenzen des Persön-
lichkeitsschutzes verletzte, lösten sie anhaltende öffentliche Skandalisierungen aus,
die ihren kommerziellen Erfolg noch verstärkten (vgl. Bleicher 2000). Das Konzept
der Sozialexperimente durch das Fernsehen wird bis heute weitergeführt, indem
Personen an z. T. unwirtliche Orte gebracht werden, wo sie sich im existentiellen
Überlebenskampf in fremder Gemeinschaft bewähren müssen (z. B. Das Insel-Duell,
SAT 1, 2000; Ich bin ein Star – Holt mich hier raus, RTL seit 2004). Der Kampf ums
Überleben wird hier gekoppelt mit dem Kampf um die Gunst der Zuschauer vor
den heimischen Bildschirmen.
Inzwischen decken Reality-TV-Formate ein breites Spektrum an existentiellen
Szenarien ab, bei denen das Tele-Publikum an sozialen, physischen und emotionalen
Grenzsituationen anderer Menschen teilhat und durch aktive Bewertungen über
deren Erfolg oder Misserfolg als Fernsehakteure entscheidet. Das Fernsehen und
sein Publikum greifen auf diese Weise in Liebesbeziehungen ein, indem es Partner
zusammenbringt, wie in Bauer sucht Frau (RTL, seit 2005) oder trennt, wie Adam
sucht Eva. Gestrandet im Paradies (RTL, seit 2014). In Casting-Shows wird über
die Karriere von Musikern oder Models entschieden (z. B. Deutschland sucht den
Superstar, RTL, seit 2002). In extremen Fällen begleiten die Fernsehzuschauer sogar
tele-medial die Geburt eines Kindes (Born in the Wild, USA seit 2015) oder den
Kampf ums Abnehmen von Übergewichtigen (The Biggest Loser, Pro Sieben/Sat
1, seit 2009). Indem vormals private und intime Lebensrealitäten zu öffentlichen
Ereignissen werden, an denen jeder teilnehmen kann, sind Reality-Formate präg-
nanter Ausdruck der Ursprungsidee des Fernsehens, audiovisuell ganzheitliche,
vermeintlich direkte Interaktion zwischen Menschen an unterschiedlichen Orten
herzustellen und sich gar als genuiner Ort von geteilter Lebensrealität anzubieten.

(4) Interaktive Empfangstechnologien: Entscheidend für die Ermächtigung der


Zuschauer gegenüber den Sendern wurde neben den geschilderten interaktiven
Sendeformen auch, dass sie im wachsenden Angebotsspektrum zunehmend selbst-
ständig entscheiden können, welche Sendung sie auf welchem Kanal wie lange
einschalten. Damit verloren die Sender die finale Kontrolle über das individuelle
Bildschirmgeschehen an die Konsumenten. Einen entscheidenden Schub erfuhr
diese Entwicklung bereits mit der Durchsetzung der Fernbedienung. In den USA,
wo die Konkurrenz von Radio- und Fernsehsendern von Anfang an gegeben war,
wurde sie bezeichnender Weise schon Ende der 1940er-Jahre entwickelt. Im west-
lichen Europa setzte sie sich erst ab den 1970er-Jahren im Zuge der wachsenden
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 259

Diversifizierung der Sender und Programme durch. Damit einher ging eine völlig
neue kommunikative Kulturtechnik: das Ein-, Aus- und Umschalten tele-medialer
Audiovisionen per Knopfdruck auf einer Tastatur – womit die tele-mediale Au-
diovision nun auch den Tastsinn einbezog. Im wachsenden Angebot gleichzeitig
ausgestrahlter Sendungen wurde der Zuschauer ermächtigt, fortlaufende Bilder und
Klänge selbstständig ein- und auszuschalten und ihre Abfolge mit nur minima-
lem körperlichem Aufwand selbst zu bestimmen. Der von den Sendern gestaltete
Programmzusammenhang geriet damit zunehmend in den Hintergrund. Diese
verbinden sich seitdem im Rundfunkäther zu einem heterogenen tele-medialen
Angebotsspektrum, aus dem sich die Zuschauer individuell bedienen können.
In den 1980er-Jahren wurde die technisch-interaktive Individualisierung
tele-medialer Teilhabe durch die Verbreitung einer weiteren Medienapparatur
vorangetrieben: dem Videorekorder. Basierend auf der MAZ-Technik, die sich für
den professionellen Gebrauch längst durchgesetzt hatte, entwickelte man Ende
der 1970er-Jahre eine Apparatur zur Speicherung elektronischer Audiovisionen
aus Film und Fernsehen für den privaten Hausgebrauch. Aufgezeichnet wurde
auf Videokassetten mit Magnetband, die mehrfach bespielt werden konnten. Pate
stand dabei auch die Kompaktkassette (vgl. Haupts 2014), die zum Aufzeichnen
musikalischen Tonmaterials aus dem Radio bereits vertraut war (s. Kap. 1). Nachdem
Videorekorder im Laufe der 1980er-Jahre handlicher und preisgünstiger geworden
waren, setzten sie sich besonders auf dem westdeutschen Markt durch. Der im Ver-
gleich zu anderen Ländern erfolgreiche Absatz der Geräte war u. a. eine Folge der
damals noch relativ begrenzten Senderangebote (Haupts 2014, S. 43). Während in
anderen Ländern die Verbreitung von Kabelsendern bereits weit vorangeschritten
war (s. o.), vollzog sich der Ausbau der Senderlandschaft in der Bundesrepublik zu
der Zeit erst schrittweise. Wie oben erwähnt, gab es zudem zu dieser Zeit noch kein
durchgängiges Sendeprogramm, sodass sich der Videorekorder den Zuschauern
als ein probates Medium anbot, Sendelücken zu füllen.

▶▶ Was zunächst als apparative Ergänzung zum Fernsehen gedacht war, erwies
sich schon bald als eine Medienapparatur, deren Nutzung sich weitgehend vom
Fernsehen entkoppelte und die das Tele-Publikum mit zusätzlichen Zugriffs-
möglichkeiten auf das Fernsehprogramm ausstattete.

Bereits der Begriff video (lat. ich sehe) war programmatisch und zeigte das Aufkom-
men einer individualisierten Form der Betrachtung audiovisueller Produkte an.
Fortan hatten die Zuschauer die Möglichkeit, die zu einem bestimmten Zeitpunkt
gleichzeitig an ein breites Publikum ausgestrahlten Sendungen dem festgelegten
Programmfluss zu entnehmen, sie aufzuzeichnen und zeitversetzt, individuell zu

259
260 4 Medien der Audiovision

betrachten. Dies bot in mehrfacher Hinsicht nachhaltige Neuerungen: Zum einen


wurden nun vormals tele-medial rezipierte Inhalte auf Videokassette materiell
angeeignet und damit personalisiert. Das tele-mediale Prinzip des vernetzten,
gleichzeitigen und damit auch flüchtigen Sendens und Empfangens wurde damit
aufgehoben. Zum anderen bot sich erstmals auch für die Nutzer die Möglichkeit
individueller Eingriffsmöglichkeiten auf das elektronisch gespeicherte Material.
Sämtliche Angebote erreichbarer Sender konnten nun selektiert und in beliebiger
Reihenfolge neu kombiniert werden. Die für die Sender ökonomisch so wichtigen
Markierungen durch Programmverknüpfungen, wie Trailer, Vorschauen und
auch Werbung, konnten einfach herausgeschnitten werden. Ihrem Senderkontext
entnommen, der im Zweifel nur noch über die eingeblendeten Logos präsent blieb,
fügten sich die ausgewählten Sendungen und Filme auf den Videokassetten zu
einem unabhängigen, speziell von individuellen Zuschauerinteressen geprägten
Nutzerzusammenhang. Da sie wiederbespielbar war, konnte dieselbe Videokas-
sette mehrmals neu individuell gestaltet werden. Aber auch beim Abspielen boten
sich den Betrachtern historisch neuartige Möglichkeiten: Durch die Verwendung
von Stopp-, Vorlauf- und Rückwärtstaste konnte auf einmal die zeitliche Struktur
von Sendungen und Filmen verändert werden. Einzelne Einstellungen und Bilder
konnten als Standbilder im audiovisuellen Fluss angehalten und genau betrachtet
werden; im Schnell- und Rücklauf wurde die zeitliche Struktur noch weitergehend
verändert. Auf diese Weise wurde das bisher tele-mediale, flüchtige in-die-Ferne-
Sehen-und-Hören nun in selbst regulierbarer Detailgenauigkeit optisch und auditiv
sezierbar. Die Betrachter hatten fortan eine Apparatur, die es ihnen erlaubte, sich
die Inhalte und Gestaltungsprinzipien von Sendungen und Filmen wiederholt
und in individuell gesteuerter Zeitlichkeit vor Augen und Ohren zu führen. Der
Videorekorder bot damit eine unmittelbar sinnliche und intime Aneignung von
vormals öffentlich verbreitetem Material. Während nämlich nicht nur im Kino,
sondern auch im Fernsehen die Produzenten die Macht über das Leinwand- bzw.
Bildschirmgeschehen hatten, wurde genau diese Macht durch den Videorekorder
erstmals grundlegend gebrochen. Nicht umsonst stand die Videotechnologie im
Mittelpunkt diverser revolutionärer Medienutopien in den 1970er- und 1980er-Jah-
ren, die hierin eine wesentliche Befreiung des Rezipienten vom Programmdiktat
machtvoller Film- und Rundfunkproduzenten sahen (vgl. Zielinski 1992). Die
v. a. im Fernsehen konstant voran getriebene Öffnung zum Zuschauer hin und
die Verringerung der Distanz fand mit der Video-Technologie einen vorläufigen
Endpunkt, der erst mit der Digitalisierung fortgeführt wurde (Kap. 4.4).

▶▶ Resümierend lässt sich folgendes festhalten: Im Zusammenspiel von aufmerk-


samkeitslenken Programmstrukturen, Zuschauer basierter Formatierung von
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 261

Sendungen, interaktiven Sendeformen und interaktiven Empfangstechnologien


wurde das Publikum immer mehr zum eigenmächtigen Gestalter tele-medialen
Geschehens.

Mit dieser Öffnung zu den Zuschauern veränderten sich die Bedingungen audio-
visueller Präsenz des Gezeigten. Diese entfaltete sich immer weniger durch in sich
geschlossene Bild- und Klangräume, deren Komposition ihre mediale Konstruiertheit
vergessen machen soll und – wie im Film – den Betrachtern einen transparenten
Blick auf das Gezeigte suggeriert. Vielmehr tritt mit der Ermächtigung der Zu-
schauer die Interaktion von Bildschirmakteuren und Zuschauern immer mehr
in den Vordergrund, wobei außermedialer Alltagsraum und tele-medialer Raum
zunehmend verschränkt werden. Dabei bietet sich das Fernsehen als Ort der Re-
präsentation und Aushandlung von ‚realen‘ Bedürfnissen, Interessen, Selbst- und
Fremdbildern und Konflikten des Publikums an. Dies bringt spezifisch interaktive
Erfahrungen von Präsenz mit sich: die Erfahrung, indirekten (durch Fernbedie-
nung, Videorekorder, Konsumverhalten) und direkten (interaktive Formate wie
Reality-Shows) Einfluss auf das Bildschirmgeschehen und seine Protagonisten zu
haben bzw. direkt mit ihnen kommunizieren zu können. Auf der Ebene ästhetischer
Ausdrucksformen fand diese Orientierung am Zuschauer ihren Niederschlag in
der Ausweitung audiovisuellen Designs, die die Senderidentität sicht- und hörbar
im Programmfluss verankern soll.

Filmische Fernsehästhetik
Neben der geschilderten Tendenz zur engen Verkopplung tele-medialer und außer-
medialer Alltagsräume zeichnet sich eine parallele Entwicklung ab: die Ausbildung
einer filmischen Fernsehästhetik (Caldwell 2002), die in programmatischem Kontrast
zur vorherrschenden interaktiven Audiovisualität des Fernsehens (Caldwell 2002)
stand: Ziel war es, das Fernsehen gleichzeitig zu einem immersiven Präsenzmedium
zu erweitern, das – ähnlich wie das Kino – geschlossene audiovisuelle Erzählwelten
präsentiert, welche die Sinne der Zuschauer auf intensive Weise emotional und
sinnlich beansprucht.
Zu betonen ist jedoch, dass beide Ausprägungen, die filmische und die desi-
gnerische, gleichzeitig fortbestanden und bis heute fortbestehen, hier also kein
einseitiger paradigmatischer Wandel der Fernsehästhetik stattgefunden hat, son-
dern vielmehr eine Ausweitung ihres stilistischen Spektrums. Außerdem ist die
Ausbildung filmischer Tendenzen in den einzelnen Ländern von unterschiedlichen
Prägemomenten und zeitlichen Entwicklungen gekennzeichnet.
Im öffentlich-rechtlichen Fernsehen der Bundesrepublik gab es bereits in
den 1960er-Jahren nachhaltige Orientierungen am Film als Erzählmedium (vgl.
261
262 4 Medien der Audiovision

Bleicher 2011). Prägend hierfür war unter anderem der staatlich verordnete Bil-
dungsauftrag der öffentlich-rechtlichen Sendeanstalten. Im Fernsehprogramm
wurden Klassiker der Filmgeschichte gezeigt, ebenso wie jüngere ambitionierte
Kinofilme. Daneben veränderte sich das Fernsehspiel im Zuge der Durchsetzung
von elektronischen Übertragungs- und Aufzeichnungstechniken (s. o.) von einer
bühnenhaft anmutenden Live-Form zu einer frühen Form des Fernsehfilms. Wie
im Film wurde seit Mitte der 1960er-Jahre am Schneidetisch die Reihenfolge von
Szenen komponiert, womit die Montage auch im Fernsehen zu einem zentralen
dramaturgischen Gestaltungsmoment wurde.
Durch die Verbindung von filmischer und elektronischer Produktion konnten
die Ausdrucksformen wesentlich erweitert werden. Die Filmkamera ‚befreite‘ von
der Studioaufnahme und man orientiert sich an den Aufnahmestilen des Films. Wie
Joan Kristin Bleicher (2011) zeigt, unterschieden sich die frühen Fernsehspiele der
Bundesrepublik vom Kinospielfilm zudem in einem fernsehtypischen Realismus.
Die Wahl der Themen, Konflikte und Handlungsorte, sowie die Ästhetik dieser
frühen Fernsehfilme zielten auf die Inszenierung von Geschichten, die nah an der
gesellschaftlichen und alltäglichen Realität der Zuschauer waren. Besonders im
Verlauf der 1970er-Jahre entwickelte sich das Fernsehspiel zu einer aufklärerisch
motivierten Form, die die Zuschauer mit aktuellen gesellschaftlichen Konflikten
konfrontierte. Ein frühes Beispiel dieser Entwicklung ist Egon Monks Fernsehspiel
Wilhelmsburger Freitag (NDR 1964), in dem ein junges Paar aus dem Arbeitermi-
lieu geschildert wird, das seinen Kinderwunsch aus ökonomischen Gründen nicht
realisieren kann. Während die Familienserien der Zeit den Zuschauern also seriell
fortlaufende Teilhabe an Alltagsgeschichten wiederkehrender Figuren bot (s. o.),
erweiterte man mit den Fernsehspielen das Spektrum realistischer Wirklichkeits-
inszenierungen um abgeschlossene filmische Geschichten, die Einzelschicksale in
größere gesellschaftliche und historische Kontexte stellten, häufig mit gesellschafts-
kritischer Intention. Die Möglichkeiten, das Ausdrucksspektrum des Fernsehens
um das Filmische zu erweitern, wurden ab den 1970er-Jahren ausgeweitet (Bleicher
2011). Prägend waren die Kooperationen westdeutscher Sender mit prominenten
Filmregisseuren wie Rainer Werner Fassbinder und Edgar Reitz, sowie Vertretern
des jungen Autorenkinos, das sich im Umfeld der Oberhausener Festspiele etablierte
(vgl. Segeberg 2011b).
Für die internationale Verbreitung filmischer Ausdrucksformen des Fernsehens
waren besonders die Entwicklungen in den USA einflussreich. Im dortigen pri-
vatwirtschaftlichen Fernsehsystem waren diese weniger durch einen allgemeinen
Bildungsauftrag geprägt, als durch die Fokussierung auf publikumswirksame Un-
terhaltung. Zu diesem Zweck suchten US-Sender bereits seit 1949 die Kooperation
mit der Filmindustrie, die hierfür spezielle Fernsehabteilungen einrichtete (z. B.
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 263

Universal Pictures). Angefangen bei Fernseh-Remakes erfolgreicher Kinofilme pro-


duzierten die Sender bald auch eigenständige TV-Movies. Dafür engagierten sie junge
Filmregisseure, von denen einige später als Kinoregisseure erfolgreich wurden. So
drehte etwa auch Steven Spielberg vor seiner Kinokarriere mehrere Fernsehfilme.
Sein 1971 zu einem niedrigen Fixpreis für ABC gedrehter Fernsehfilm Duell war
ein durchschlagender Erfolg und zeigte das Potential dieser neuen Fernsehform,
Zuschauer im konkurrierenden Programmfluss auf dem eigenen Kanal zu halten.
Unter Mottos wie „Movie of the Week“ präsentierten die Sender Fernsehfilme als
besondere Unterhaltungsereignisse im Programm (Bleicher 2011). Vor allem die
sendereigenen Produktionen waren als Prestigeprodukte gedacht, die das Image
und die Identität des Senders nach außen hin erweitern sollten. Dabei griffen die
Sender gezielt filmische Stile und Formen auf, um einen Kontrast zum Standard
des audiovisuellen Fernsehdesigns zu setzen.
Auch die Kinogenres und ihre typischen Ausdrucksformen wurden aufgegriffen.
Wichtig wurden vor allem Action- und Thriller-Elemente, die nicht nur in US-Pro-
duktionen, sondern seit den 1990er-Jahren auch in der Bundesrepublik besonders
für Privatsender im Vordergrund standen (z. B. Schrei, denn ich werde Dich töten!,
RTL, 1999; Tornado – Zorn des Himmels, ProSieben, 2006). Weitere Kinogenres,
deren Konventionen seitdem aufgegriffen werden, sind der Katastrophenfilm, das
Melodrama und die Liebeskomödie (ebd.). Während die genretypischen Kon-
flikte, Figurenkonstellationen und Erzählformen solcher Genres gerne gemischt
werden, entstehen auch in Verbindung mit fernsehtypischen Merkmalen gänzlich
neue Fernsehgenres, die sich in einiger Hinsicht vom Kinospielfilm unterschei-
den. Dies gilt besonders für das seit den 1990er-Jahren wachsende Spektrum an
Fernsehfilmen, die Dokumentation und Fiktion vermischen. Im Hinblick auf die
ursprüngliche Selbstbestimmung des Fernsehens, gesellschaftliche Wirklichkeit
den Zuschauern aus allernächster Nähe sinnlich vorzuführen, werden aktuelles
Geschehen, politische und historische Ereignisse, die die Menschen beschäftigen,
aufgegriffen und im Rahmen fiktionaler Filmerzählungen dramatisch re-inszeniert.
Daraus entstanden fernsehspezifische Genres wie der sogenannte Schlagzeilenfilm
oder das Dokudrama, die spektakuläre Ereignisse aus der Presse oder aus der
jüngeren Geschichte aufgreifen, etwa Amokläufe oder Entführungen. Als weitere
Genres des Fernsehfilms nennt Bleicher (2011) Biopics, Gerichtsdramen oder das
Sozialdrama. Während dabei die Grenzen zwischen dokumentarischem und fik-
tionalem Erzählen zu verschwimmen tendieren, zeichnen sie sich sämtlich durch
einen hohen Produktionsaufwand und eine die Emotionen und Sinne intensiv
adressierende Inszenierung aus. Der deutsche Produzent Nico Hofmann betont
hierbei die Rolle von Bildästhetik und Sounddesign:

263
264 4 Medien der Audiovision

„Bei RTL ist der Film schneller geschnitten. Er kriegt ein viel aggressiveres Sounddesign,
wird die Action stärker betonen, die Männer tauchen früher auf. Viele Szenen der
Sturmflut [R.: Jorgo Papavassiliou, D 2006, KF] haben eine andere Rohheit, Edginess –
auch kein schönes Wort: Es ist härter.“ (zit. n. Bleicher 2011, S. 237)

Während sich die Entwicklung zum wirkungsintensiven Unterhaltungsfilm in den


USA bereits seit den 1970er-Jahren abzeichnete, setzte sie sich in Deutschland erst ab
den 1990er-Jahren durch, vorangetrieben durch die wachsende Senderkonkurrenz.
Auch die öffentlich-rechtlichen Sender passten sich dieser Tendenz an und ließen
ihren vormals aufklärerischen Impetus zunehmend zugunsten kommerzieller
Unterhaltungskriterien zurücktreten (Bleicher 2011). Neben Fernsehfilmen bzw.
TV-Movies prägt die kinematografische Fernsehästhetik seit den 1990er-Jahren
auch Serien. Sie begannen komplexe, teilweise rätselartige Spannungsbögen über
mehrere Folgen und Episoden (Mittell 2015) zu entfalten. Zuschauer sollen auf diese
Weise langfristig imaginativ und emotional in die Ereignisse und Handlungskon-
flikte von Figuren involviert werden, zu denen sie über den monate-, manchmal
jahrelangen Verlauf einer Serie para-soziale Beziehungen aufbauen können. Im
Unterschied zum konventionellen Fernsehrealismus anderer Sendungen liegt der
Reiz hier in der imaginativen und emotionalen Teilhabe an Figuren außerhalb der
eigenen Alltagswelt.

▶▶ Die Ausbildung filmischer Fernsehästhetik ist neben der inhaltlichen, narrativen


und personellen Orientierung am Kinofilm wesentlich geprägt durch filmäs-
thetische Stile in der Gestaltung von Bild und Ton.

Das elektronische Fernsehbild galt bis in die 1980er-Jahre hinein als qualitativ eher
minderwertig, vor allem im Vergleich zum Film: die Bildauflösung der Fernsehüber-
tragungen und damit die Bildschärfe war immer noch geringer, das Fernsehbild
daher auch eher kontrastrastarm und flach (Caldwell 2002). Für qualitativ hoch-
wertige, gar an Filmästhetik orientierte Produktionen wurde daher die Aufnahme
auf fotografischem Filmmaterial zum Standard. Damit die Aufnahmen möglichst
optimal ins elektronische Fernsehbild übertragen werden konnten, fanden daneben
zwei zentrale Entwicklungen statt: die foto-chemische Anpassung des Filmmaterials
an die Bedingungen der elektronischen Fernsehübertragung – was vor allem die
Erhöhung der Lichtempfindlichkeit betraf, aber auch die Kontraste und den Sätti-
gungsgrad der Farben; daneben die Entwicklung spezieller Übertragungsmaschinen
(Rank-Cintel), bei denen die filmischen Aufnahmen in hoher Qualität elektronisch
auf Videoband übertragen und gespeichert werden konnten (Caldwell 2002, S. 195).
Hinzu kam, dass auch die Speichermedien der Übertragungsmaschinen mit der Zeit
immer leistungsstärker wurden. Das Videoband wurde erst durch eine Laserdisk
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 265

ersetzt, später durch die digitale Festplatte und den digitalen Chip, wodurch die
Speicherkapazitäten stark ausgeweitet wurden.
Die elektronische Speicherung der filmischen Aufnahmen ermöglichte auch
neuartige Möglichkeiten der Postproduktion. Hierbei kamen die für das Fernsehen
typischen Techniken der elektronischen Mischung von Aufnahmematerial zum
Tragen. Da das gesamte Filmmaterial einer Produktion, inklusive verschiedener
Drehversionen, nun potentiell in Form elektronischer Daten vorlag, konnten die
Szenenfolgen durch das Einspielen und Übereinanderlegen von Ausschnitten und
Elementen aus dem Quellmaterial neu komponiert werden. Dies wurde durch elekt-
ronische Mischpulte möglich, an denen das Aufnahmematerial sortiert und selektiv
nach den Vorstellungen von Regie und Cutter zusammengeführt bzw. gemischt
wurde. Das ermöglichte eine immer kleinteiligere Bearbeitung von filmischem
Fernsehmaterial. Dies kam dem Bestreben der Sender entgegen, in der Postproduk-
tion den kinematografischen Stil einer Sendung auf aufmerksamkeitsheischende,
expressive Weise zu gestalten. Das Tempo der Schnittfrequenz erhöhte sich zusehends
und die Verknüpfung der Einstellungen in der Montage gehorchte immer häufiger
assoziativen, auf den sensuellen und affektiven Effekt hin orientierten Verbindungen.
Die Kombination filmischer Aufnahmetechniken und elektronischer Postpro-
duktionstechniken erlaubte eine Fülle an neuen Gestaltungsmöglichkeiten: Bei
Filmdreharbeiten konnte vor und mit der Kamera frei komponiert werden. Das
Filmmaterial sorgte dabei auch für eine hochwertige Bildqualität. Die Gestaltungs-
freiheit des Drehteams wurde noch gesteigert, als sich in den 1980er Videomonitore
durchsetzten, auf denen die Kameraaufnahmen direkt in ein elektronisches Bild
übertragen und auf einem externen Monitor für alle sichtbar wurde (Caldwell 2002,
S. 185). Auf diese Weise konnten bereits während der Dreharbeiten die Aufnahmen
auf ihre Wirkung hin überprüft und noch vor Ort korrigiert werden.
Da die filmischen Aufnahmen mit der Übertragung für die Postproduktion auch
als elektronische Daten vorlagen, konnten sie nachträglich mehrfach umkopiert
und immer wieder neu bearbeitet werden, was punktgenaue Schnitte, Mischungen,
die Manipulation von Bildqualitäten (z. B. Helligkeit, Farbsättigung etc.) und ge-
zielte Bild-Ton-Abstimmungen ermöglichte. Gegenüber der klassischen filmischen
Postproduktion hatte man durch die Übertragung auf Video also zusätzliche
Gestaltungsfreiheiten gewonnen. Damit deutete sich bereits eine Entwicklung
an, die mit den digitalen Techniken später noch weiter vorangetrieben wurde: die
nachträgliche Bearbeitung von Bild und Ton zum Zwecke optimaler Adressierung
der Zuschauersinne rückt mit den elektronischen Aufzeichnungs- und Bearbei-
tungstechniken in den Vordergrund audiovisueller Gestaltung.
Angesichts der neuen technischen Möglichkeiten entwickelten die Sender seit
den 1990er-Jahren einen wachsenden Ehrgeiz, das Publikum durch expressive Aus-

265
266 4 Medien der Audiovision

drucksformen und Stile der sendereigenen Produktionen zu beeindrucken und zu


binden (vgl. Caldwell 2002, Butler 2010, Bleicher 2011). Im Konkurrenzkampf um die
Aufmerksamkeit der Zuschauer wurden damit die ästhetischen Möglichkeiten des
Fernsehens völlig neu ausgelotet. Vom ästhetischen ‚Nullmedium‘ (zero-degree-TV)
(Caldwell 2002) entwickelte es sich zu einem Medium, in dem die Möglichkeiten
audiovisueller Gestaltung wirkungsstrategisch ausgeweitet wurden.
Mit der Ausbildung filmischer Fernsehästhetik ging auch eine technologische
Veränderung der Empfangsgeräte einher: die Optimierung und Vergrößerung
der Fernsehbildschirme. Die am Kino orientierte Bildästhetik verlangte geradezu
nach einer Anpassung der Empfangstechnik. Ab 1997 kamen Plasma-Bildschirme
auf den Markt, die nicht nur eine wesentlich höhere Bildauflösung ermöglichten,
sondern sich mit der erweiterten Größe dem Breitwandformat der Kinoleinwand
immerhin annäherten. Sie luden zu einer immersiven Art der Fernsehrezeption
ein, bei der das Sichtfeld zumindest bei immobiler und frontaler Betrachtung weit-
gehend vom Bildschirm ausgefüllt war. Dies bedeutete einen Bruch zu vorherigen
Standards, denn der vormals kleine Bildschirm hielt den Umraum der Betrachter
optisch fortlaufend präsent und erschwert ein intensives imaginatives Versenken
in eine audiovisuelle Erzählwelt.
Die stilistische Tendenz zur expressiven Tele-Audiovisualität schlug sich nicht nur
in der Produktion von narrativen Serien, Fernsehfilmen und Mehrteilern nieder,
sondern prägte auch neue Formen des Musikfernsehens. Wie es oben beschrieben
wurde, gab es bereits mit Durchsetzung der MAZ-Technik erste Ansätze zur
elektronischen Bearbeitung und Abstimmung von Musik und Bild in einzelnen
Musiksendungen wie Ready Steady Go! (GB 1963–1966) oder Beat Club (Radio
Bremen, 1965–1972). Gleichwohl waren Musiksendungen bis Ende der 1970er-Jahre
geprägt von Live-Auftritten der Bands im Studio. Als 1981 der US-amerikanische,
international ausgerichtete Kabelsender MTV (Music Television) gegründet wurde,
war dies der Beginn einer neuen Ära des Musikfernsehens (vgl. Neumann-Braun
1999). MTV zeigte in den ersten 10 Jahren seines Bestehens keine Live-Konzerte
von Bands, sondern von den Plattenfirmen produzierte Musikvideos. Das Musik-
video wurde fortan zu einer neuen Fernsehgattung und erfüllte gleich mehrere
Aufgaben: der Plattenindustrie diente es als populäres Marketinginstrument; den
Bands ermöglichte es eine weitere expressive Dimension in der Selbstdarstellung
und der musikalischen Präsentation; den Zuschauern bot es einen sensuell und
affektiv erweiterten Zugang zur Musik und den Stars; dem Sender eine distinkte
Markenidentität mit der Fokussierung auf ein jugendliches Zielpublikum.
Das Musikvideo war medienhistorisch von Bedeutung, weil es, im Fernsehen, in
der Werbung, aber auch im Film nachhaltige ästhetische Folgen auslöste. Bezeich-
nend hierfür war, dass es sich sämtlicher filmischer, aber auch dem audiovisuellen
4.3 Elektronische Medien der Audiovision: Fernsehen, Video 267

Fernsehdesign entspringenden Stile und Techniken bediente, die es bisher gab und
diese noch weiter vorantrieb. Im Mittelpunkt stand dabei, das Erleben der Musik ins
Audiovisuelle zu erweitern und den Betrachtern ein gewissermaßen synästhetisches
Gesamterlebnis zu bieten. In der Regel wurde auch hier auf fotografischem Filmma-
terial gedreht, um dann in der elektronischen Postproduktion alle Möglichkeiten der
Feinabstimmung von Bild und Musik zu nutzen. Dabei bediente man sich teilweise
auch Techniken, die zuvor in der experimentellen Videokunst entwickelt worden
waren: Video-Synthesizer, die synthetische Bilder in verschiedenen Formen und
Farben generierten und Audio-Video-Interfaces, bei denen visuelle Signale einer
Bildaufzeichnung automatisierte elektronische Klänge erzeugten. Daneben kamen
aber auch herkömmliche elektronische Mischtechniken des Fernsehens zum Ein-
satz, die das Ein-, Aus- und Überblenden heterogenen Bild- und Klangmaterials
ermöglichten (z. B. Filmaufnahmen, Grafiken, Animationen, Texte). Elektronische
Stanztechniken, die auf dem Blue-Box-Verfahren basierten, wurden in optimierter
Weise genutzt, um Bildelemente auszuschneiden und in ihren Konturen, oder
Größenverhältnissen zu verändern und zu collagieren. Einzelne Bildelemente
konnten durch elektronische Wischtechniken auch visuell ‚weg geklappt‘ werden.
Der Fernsehbildschirm wurde damit zu einer experimentell unendlich gestaltbaren
dynamischen Fläche, die die Sinne der Betrachter auf assoziative Weise adressierte.
Im Laufe der 1990er-Jahre entwickelte sich das Musikvideo zu einer der avan-
ciertesten audiovisuellen Mediengattungen, die sich kreativ des Formenarsenals
von Malerei, Film, Fernsehen, Comic und anderen Medien bediente (vgl. Bódy/
Weibel 1987). In kurzer Zeit entstanden unterschiedliche Genres (wie Performan-
ce-Video, Narratives Video und Kunst-Video), mit eigenständigen audiovisuellen
Stilen und Kodes. Gemeinsam war allen das Bestreben, die Expressivität der Musik
in bewegte Bilder zu übertragen, zu erweitern oder auch zu kontrastieren. Die wir-
kungsästhetische Kopplung musikalischer und visueller Formen wurde auf hohem
technischem Niveau realisiert – mit einem Produktionsaufwand, wie er bis heute
in der Werbung angewendet wird. Unter diesen Bedingungen konnten Videore-
gisseure und ihr Team Musik und Bewegtbild bis in ihre kleinsten gestalterischen
Bestandteile hinein aufeinander abstimmen. Dies bedeutete etwa, den Rhythmus
von Kamerabewegungen, Bewegungen im Bild oder elektronisch eingefügten
Animationen und bewegten Elementen, sowie den Rhythmus und das Tempo der
Schnittfrequenz präzise zum musikalischen Rhythmus und Tempo der Songs ins
Verhältnis zu setzen (vgl. Fahlenbrach 2005).
Die Stile des Musikvideos, besonders die schnellen und häufig assoziativ ge-
stalteten Montagen, sowie collageartige Schichtungen von Bildelementen wurden
auch in anderen audiovisuellen Mediengattungen aufgegriffen, etwa in Spielfilmen
der späten 1990er-Jahre, die oft als postmoderne Filme bezeichnet werden. Das

267
268 4 Medien der Audiovision

Musikvideo nahm mit seinen hybriden Techniken und Formen, sowie mit Blick
auf seine Rolle im Ensemble von Fernsehen, Film, Werbung und Popmusik bereits
eine Entwicklung voraus, die ab den 2000er-Jahren durch die Digitalisierung weiter
vorangetrieben wurde: das zunehmende Verschmelzen der Grenzen von Einzel-
medien zugunsten hybrider bzw. transmedialer Ausdrucksformen.
Das Fernsehen hat in seiner Geschichte als elektronisches Tele-Medium bis Ende
der 1990er-Jahre eine beachtliche Entwicklung genommen. Besonders augenfällig
ist die enorme Vielfalt an Techniken, Sende- und Ausdrucksformen, die es von
Anfang an zu einem heterogenen Medium machen.

▶▶ Die tele-mediale Teilhabe des Publikums wurde dabei konstant erweitert,


sowohl was das Spektrum an Techniken und Ausdrucksformen anbelangt, als
auch die sensuellen, affektiven und sozialen Formen der Teilhabe selbst. Wie
geschildert, wird der Zuschauer immer mehr zum Zentrum der Konzipierung
von Programmen und Sendekonzepten. Die Ermächtigung und Individualisie-
rung der Zuschauer wird dabei durch Medienapparaturen wie Fernbedienung
und Videorekorder zusätzlich vorangetrieben.

Mit dem Aufkommen filmischer Fernsehästhetik in Fernsehfilmen und Serien


wiederum macht sich das Medium die Techniken und Ausdrucksformen des Films
zunutze, geschlossene audiovisuelle Erzählwelten zu schaffen, die tele-mediale
Teilhabe mit immersivem Erleben fiktiver Welten verbindet.

4.4 Digitale Medien der Audiovision


4.4 Digitale Medien der Audiovision
4.4.1 Zur Medialität digitaler Audiovision

Bereits mit der Durchsetzung elektronischer Aufnahme-, Speicher- und Bearbei-


tungstechnologien in Fernsehen und Film hatte ein wesentlicher Wandel stattge-
funden: Im Unterschied zum fotografischen Filmstreifen, auf dem sich die Bilder
in optisch wiedererkennbarer Weise im Trägermaterial manifestieren, wurden nun
Bilder und Klänge in elektronische Signale übertragen und auf einem Datenträ-
ger – dem Videoband – als Dateninformationen gespeichert, die mit den bloßen
Sinnen nicht mehr erfasst werden konnten. Retrospektiv betrachtet, bereitete die
elektronische Videotechnik vor, was mit der Digitalisierung durch den Computer
vollendet wurde: die Übertragung optischer und auditiver Reize in abstrakte
Daten, die in der weiteren Verarbeitung endlos kombiniert werden können mit
4.4 Digitale Medien der Audiovision 269

anderen Daten aus grafischen, filmischen, akustischen oder sprachlichen Medien.


Wie zuvor dargelegt (s. Kap. 2), zeichnet sich der Computer als universales Über-
setzungsmedium (Robben 2006) dadurch aus, dass er spezifische Informationen
(etwa Licht- und Farbwerte in einem Bild oder die Frequenz eines Klangs) in den
unspezifischen, abstrakten Binärkode 1/0 überträgt. Insofern führt er die bereits
mit der elektronischen Videotechnik vollzogene Übertragung sinnlich-konkreter
Reize eines Mediums in einen abstrakten Kode noch weiter. Damit einher geht
eine enorme Ausweitung der Möglichkeiten zur Bearbeitung und Verschmelzung
von bildlichen, klanglichen und sprachlichen Daten unterschiedlicher Herkunft.
Die Digitalisierung führte daher zu neuen medialen Formationen, innerhalb de-
rer sich die Grenzen vormals unterscheidbarer audiovisueller Einzelmedien wie
Film und Fernsehen auflösten. Die Betrachter sind seitdem mit einer wachsenden
Differenzierung audiovisueller Formen in unterschiedlichen Medienumgebungen
konfrontiert. Darüber hinaus wurde die mit der Videotechnik bereits eingeführte
Autonomisierung und Ermächtigung der Zuschauer auf radikale Weise erweitert:
Die aktive und selbstbestimmte Auswahl innerhalb eines globalisierten Spektrums
von Angeboten wurde ebenso zum dominanten Prinzip der Rezeption wie die
Möglichkeit, die Erscheinungsweise audiovisueller Produkte zu beeinflussen (z. B.
durch Wahl des Empfangsgerätes/Bildschirms), aber auch in ihre (zeichenhafte)
Textur einzugreifen. Neben den oben beschriebenen Optionen des Videorekorders,
die auch beim DVD- oder Streaming-Empfang fortdauern, können die Betrachter
über einfache Bearbeitungssoftwares selbständig audiovisuelles Material kopieren,
schneiden und mit anderen Materialien mischen etc. (z. B. Mash-Ups).
Im Folgenden werden drei Rezeptionsmodi audiovisueller Produkte unterschie-
den, die sich durch eine jeweils spezifische kommunikative Struktur auszeichnen,
in der Nutzer, Anbieter und Produkt miteinander interagieren. Sie haben sich in-
nerhalb der immer neu konstituierenden medialen Formationen digitaler Kulturen
bis heute als Konstanten herauskristallisiert:

1. interaktive Audiovision (Computer, DVD, Computerspiele)


2. tele-interaktive Audiovision (Fernsehen, netzbasierte Plattformen)
3. kinematografische Audiovision (Kino)

Daneben werden drei Typen audiovisueller Ausdrucksformen unterschieden, die in


verschiedenen medientechnischen Konstellationen die Ästhetik und Wahrnehmung
audiovisueller Produkte entscheidend prägen: filmische Audiovisualität, hypertex-
tuelle Audiovisualität und audiovisuelles Design. Sowohl die Rezeptionsmodi als
269
270 4 Medien der Audiovision

auch die Ausdrucksformen können in unterschiedlichen Formationen auftauchen


und fluktuieren jenseits der Grenzen von Einzelmedien wie Film bzw. Kino, Fern-
sehen oder Videospiele.

4.4.1.1 Audiovisuelle Rezeptionsmodi in digitalen Medien


Die zuvor unterschiedenen drei audiovisuellen Rezeptionsmodi seien im Folgenden
kurz erläutert.

(1) Die interaktive Audiovision basiert historisch auf der elektronischen Videotechnik
und zeichnet sich dadurch aus, dass die Betrachter audiovisueller Produkte diese
mittels Computertechnologien nach ihren spezifischen Seh- und Nutzerinteressen
beeinflussen und verändern können (Abspieltempo, Kopieren, Kürzen, Mixen
etc.). Die Interaktion zwischen Betrachter/Nutzer und Computer wird dabei
durch Hardware (z. B. Grafikkarten) und Software (z. B. Videoplayer, DVD-Menü,
Videobearbeitungssoftwares) strukturiert.
Eine spezifische Form interaktiver Audiovision findet im Computerspiel statt. Der
Handlungsspielraum der Nutzer folgt Skripts und Regeln, die in einer Spielesoft-
ware – seit den 1990er Jahren oft der sogenannten Game Engine – programmiert
sind. Audiovisuell ist hier die Spieloberfläche, die als zwei- oder dreidimensionaler
Raum gestaltet sein kann. Die abstrakten Regeln und Ebenen eines Spiels werden
durch Grafiken und Animationen in audiovisuelle Nutzeroberflächen übertragen,
die zugleich fiktive Räume, Figuren und Objekte entstehen lassen, auf die sich die
Spieler sensuell, affektiv, kognitiv und senso-motorisch konkret beziehen können (vgl.
Fahlenbrach/Schröter 2015). Das ermöglicht ihnen erst eine intuitive Interaktion mit
den Regeln und Ebenen eines Spiels. Der audiovisuelle Raum ist dabei veränderbar,
dynamisch und wird in seiner aktuellen Erscheinung durch die Handlungen der
Spieler beeinflusst. Entscheidendes rezeptionsästhetisches Element ist hierbei die
Übertragung von Spielentscheidungen über einfache Handbewegungen am Joy­
stick oder an der Maus, die im audiovisuellen Rau