[1]
Die Beobachtung funktionierender Technik ist eine wichtige Quelle fr Ideen... Niklas Luhmann.[2]
0. Einleitung Zwei Beobachtungen stehen am Anfang der vorliegenden berlegungen: Erstens ist der Begriff der Intermedialitt seit Anfang der neunziger Jahre des letzten Jahrhunderts zunehmend gebruchlicher geworden. Er scheint erstmals 1981 von Dick Higgins und im deutschen Sprachraum 1983 von Hansen-Lve in einem Aufsatz zum Verhltnis von Wort und Bild in der russischen Kunst der Moderne verwendet worden zu sein.[3] Die bald darauf einsetzende Verbreitung verrt eine zunehmende Aufmerksamkeit dafr, dass Medien stets in komplexen medialen Konfigurationen befindlich sind. An sich ist das keine neue Erkenntnis. So waren Konzepte wie das Gesamtkunstwerk oder die wechselseitige Erhellung der Knste schon viel lnger bekannt. Allerdings werden die intermedialen Beziehungen in jngerer Zeit immer weniger (wie noch bei Hansen-Lve) als intendierte Strategien im Dialog der Knste, sondern eher als unvermeidliche, grundlegende Phnomene aufgefasst. Dabei berschreitet Intermedialitt die Felder der Intertextualitt oder Interdiskursivitt, d. h. der Semantik und des Diskursiven. Vielmehr gert die Ebene der materiellen Medien(spezifika) selbst in den Verdacht, immer schon von Querverbindungen jenseits bloer technischer Verwandtschaften kontaminiert zu sein. Die zweite Beobachtung ist, dass sich etwa im selben Zeitraum die Vorstellung ausbreitete, die getrennten Medien wrden bald im Universalmedium Computer aufgehen. Folgt daraus, dass es schon wieder sinnlos geworden ist von Intermedialitt zu sprechen, da es keine differenten Entitten mehr gibt, zwischen denen eine solche stattfinden knnte? Oder msste mit Tholen[4] vielmehr vermutet werden, dass die wachsende Aufmerksamkeit fr das Intermediale eine Begleiterscheinung der Diffusion der universellen Maschine Computer ist? Tatschlich sieht Jrgen E. Mller das zunehmende Interesse fr die Intermedialitt [...] zweifellos durch die historische [...] Entwicklung medialer Apparate (die zum digitalen Schein der postmodernen Hybrid-Medien gefhrt hat) angestoen. Er fhrt noch ein weiteres, damit nicht direkt verbundenes Argument an: Den entscheidenden Ansto zum Formulieren dieser Position [also der Aufmerksamkeit fr das Intermediale, J.S.] haben zweifellos postmoderne Kunstprodukte geliefert, die sich als zu unbotmig und zu sperrig gegenber den eindimensional zugeschnittenen Medien-Theorien und -Methoden erwiesen.[5]Dieses Argument ist allerdings problematisch, denn entgegen Mllers Annahme, dass Kunstprodukte die Theorie zur Abkehr vom Monomedialen zwangen, gibt es auch den umgekehrten Fall. So haben sthetische Theorien Kunstprodukte immer wieder kritisiert, geradeweil sie nicht rein und medienspezifisch waren. Der modernistische Diskurs Clement Greenbergs, der die amerikanische Nachkriegskunst bis in die spten sechziger Jahre dominierte, ist ein Beispiel dafr. In seinem Aufsatz Modernist Painting von 1960 betonte er, dass der Gegenstandsbereich jeder einzelnen Kunst genau das ist, was ausschlielich in dem Wesen ihres jeweiligen Mediums angelegt ist.[6] Greenberg bevorzugte die abstrakten, amerikanischen Nachkriegsmaler (Pollock, Newman, Rothko, Still), weil diese sowohl Farbe als auch Flchigkeit als Grundkonstituenten der Malerei in den Mittelpunkt ihrer Arbeit gerckt hatten. Noch 1981 verdammte er in seinem
Artikel Intermediadie intermediale Kunst als Niedergang des Geschmacks.[7] Mindestens in diesem Fall lie sich die Theorie keineswegs von postmodernen Kunstprodukten irritieren. Also msste man eher fragen, wie es aus immanenten und/oder exogenen Grnden dazu kam, dass sich die Kunst selbst von Greenbergs Modernismus abgewandt hat.[8] Obwohl diese Abwendung der Kunst vom monomedialen Purismus ab Mitte der Sechziger Jahre, wobei im Zusammenhang mit Fluxus der Begriff Intermedia auftauchte[9], fr genauere Beschreibungen einer Genealogie der Intermedialitt erforderlich wre, soll Mllers Hinweis auf die postmodernen Kunstprodukte nicht weiter verfolgt werden. Hier steht die von Mller genannte Entwicklung medialer Apparate (die zum digitalen Schein) gefhrt habe, das heit das Auftauchen des Computers als Medium im Mittelpunkt. Die Frage ist, ob und wenn ja, wie dieser Leitbildwechsel[10] das Konzept der Medien vom Spezifischen zum Intermedialen verschoben hat. 1. Das Universalmedium Computer. Sampling, Simulation, Virtualitt. Im Zusammenhang mit den Berechnungen fr die Entwicklung der Atom- und dann der Wasserstoffbombe entstand um 1945 die so genannte von Neumann-Architektur. Der bis dahin verfgbare Computer, der ENIAC, war zu langsam. Da die Programme nicht von ihm selbst gespeichert wurden, musste die Maschine fr jedes neue Problem umgebaut und neu verschaltet werden. Die Lsung war eine Maschine, die die Instruktionen neben den Daten im selben elektronischen Speicher aufbewahren konnte: Dieses stored program-Prinzip, mit dem die heute selbstverstndliche Unterscheidung in Software und Hardware eingefhrt wurde, ist eine grundlegende Komponente der von Neumann-Architektur. Von Neumann selbst hob hervor, dass der EDVAC, der erste Rechner mit der neuen Architektur, fast eine Allzweck-Maschine sei. Darin lag auch das Geheimnis des kommerziellen Erfolgs der nachfolgenden und derselben Architektur verpflichteten Grorechner (wie z. B. dem UNIVAC), denn sie konnten von verschiedenen Kunden zu verschiedenen Zwecken eingesetzt werden.[11] Und noch heute basieren fast alle Computer auf der von Neumann-Architektur. Weil von Neumann-Maschinen programmierbar sind, knnen sie als universelle Maschinen bezeichnet werden, d. h. sie knnen im Prinzip alles ausfhren und darstellen, was sich mathematisch-algorithmisch beschreiben lsst.[12] Und weil sie universell sind, mssen sie fr jede konkrete Anwendung spezifiziert werden: So stehen Computer in verschiedenen diskursiven Praktiken im Rahmen je unterschiedlicher und bisweilen auch konfligierender Metaphorisierungen, die beschreiben, wozu die programmierbare Maschine ntzlich sein soll, ja das digitale Medium ek-sistiert nur in seiner vielgestaltigen Metaphorizitt.[13] In Folge solcher manchmal impliziter Leitbilder werden Computer (im Rahmen des technisch Mglichen) mit je anderer Hardware, den keineswegs blo sekundren Peripherien, verbunden und mit je anderer Software programmiert. Programmroutinen, die in einer spezifischen diskursiven Praxis zentral sind, knnen wiederum buchstblich sedimentieren, denn jede Software kann als Verschaltung logischer Gatter zu Hardware werden, wie Shannon schon 1938 bewiesen hatte.[14] Solche Entwicklungen sind heute als special purpose chips alltglich. Es gibt viele Beispiele fr folgenreiche Metaphorisierungen der universellen Maschine: Bekannt ist etwa die Beschreibung des Rechners als Elektronengehirn, die schon auf von Neumanns ersten Text zu seiner neuen Architektur zurckgeht und in den fnfziger Jahren eine groe Rolle spielte.[15] Heute ist der in den sechziger Jahren beginnende Leitbildwechsel zum Computer als Medium von grerem Interesse paradigmatisch hierfr ist u. a. Michael Nolls Text The Digital Computer as a Creative Medium von 1967.[16] Abbildung 1, Titelblatt von Michael Nolls, The Computer as a Creative Medium, 1967.
Schon bald zeigte sich, dass eine Besonderheit dieses neuen Mediums darin bestand, auf Grund seines mathematischen Charakters andere Medien nachahmen zu knnen. In den Sechziger Jahren wurde diese Fhigkeit zunchst an relativ einfach zu simulierenden Darstellungen erprobt der geometrisch-konstruktiven Malerei.[17] Ein Beispiel dafr ist, dass Noll einen echten und einen computererzeugten Mondrian einander gegenberstellte (Abb. 2, 3). Abbildung 2, Piet Mondrian, Komposition mit Linien, 1917, aus: Piehler 2002, Abb. 44.
Abbildung 3, Michael Noll, Computer Composition with Lines, 1964, aus: Piehler 2002, Abb. 45. Letzterer basierte auf angenherten Verteilungswerten fr Lnge, Dicke und Dichte der Balken des echten Mondrians. brigens stellte Noll durch eine Art sthetischen Turing-Test fest, dass die Mehrheit der Betrachter das Computerbild fr den echten Mondrian hielt.[18] Es gibt zwei grundstzlich verschiedene Verfahren, mit denen Rechner die bisherigen Medien beerben knnen[19]: Erstens das Sampling, also die berfhrung von Analog- in Digitaldaten mit Hilfe von Analog/Digital-Wandlern. Das Sampling erlaubt die digitale Abbildung von frequenzbandbegrenzten Signalen und ermglicht es durch Digital/Analog-Wandlung, einen Output zu erzeugen, der von dem des Quellmediums kaum unterschieden werden kann. Es liegt z. B. allen Scannern, mit denen z. B. Fotos abgetastet und so digitalisiert werden knnen, zu Grunde.[20] Es ist fr die Diskussion ber Intermedialitt jedoch nicht sehr interessant, da es sich bei der Digitalisierung letztlich nur um eine Reprsentation eines Mediums durch ein anderes Medium handelt vergleichbar etwa der Darstellung eines Gemldes in einem Film. Das viel bemerkenswertere Verfahren ist zweitens die Simulation. Bei Simulationen muss der reale Proze [...] in Mathematik abgebildet werden, um dann mittels Algorithmen im Rechner simuliert werden zu knnen.[21] Aus Messdaten aller Art und aus diesen abgeleiteten, mathematisch formulierbaren Gesetzmigkeiten ber das Verhalten des Objektes oder Prozesses werden mathematische Modelle konstruiert, die das Objekt bzw. den Prozess mit mehr oder weniger groer Annherung beschreiben (wie bei Nolls Computer Composition with Lines). Simulation war die erste Anwendung des ENIAC und diente zur Berechnung der Wasserstoffbombe. Im brigen wren heute ohne die Hilfe solcher Simulationen viele Formen von Wissenschaft, wie z. B. die Teilchenphysik, aber auch konomische und politische Planungen nicht mglich.[22] Simulationen basieren auf mathematischen Modellen, d. h. virtuellen Objekten. Zur Verdeutlichung sei kurz das Auftauchen und die Verwendung des Begriffs des Virtuellen im Diskurs der Informatik umrissen, wo virtuell zuerst im Kontext der Forschung an virtuellen Speichern ( virtual memory) verwendet wurde.[23] Sptestens ab 1962 nimmt virtual memory die heute gelufige Bedeutung an: Das Hauptproblem elektronischer Computer war, dass Speicher mit kurzer Zugriffszeit teuer waren. Folglich mussten aktuell nicht bentigte Informationen aus dem Hauptspeicher (main memory) in Hilfsspeicher ausgelagert werden - Speicherallokation bezeichnet den Prozess, durch den entschieden wird, welche Daten aktuell im Hauptspeicher bentigt werden und welche in Hilfsspeicher ausgelagert werden knnen. Als Mitte der fnfziger Jahre hhere Programmiersprachen zum Einsatz kamen und die Programme komplexer wurden, stellten sich die bis dahin bestehenden manuellen Verfahren als Hemmnis heraus. Es gab eine Reihe von Lsungsvorschlgen, von denen sich letztlich das Konzept des virtual memory durchsetzte.[24] Dabei handelt es sich um ein automatisches Verfahren der Speicherallokation, das zum ersten Mal im 1961 entwickelten Atlas-Computer zum Einsatz kam. Virtuelle Speicher erzeugen die Illusion eines groen, verfgbaren Speichers. Das Computersystem ordnet, fr den Programmierer unmerklich, den virtual addresses mit Hilfe einer address-translation function die realen Adressen im memory
space[25]zu. Virtuelle Speicher operieren also auf der Basis der Trennung des logischen Adressraums vom materiellen Speicherraum. Diese Trennung von (logischer) Struktur und materiellem Substrat man mag fast sagen: von Form und Medium (s. u.) ist der Kern des Virtuellen, zumindest im Diskurs der Informatik.[26] Mit Deleuze knnte formuliert werden: Die Struktur ist die Realitt des Virtuellen.[27] Die Simulation eines Mediums hiee dann, dessen Struktur oder Form, abgelst von seiner Materie, als mathematisches Modell im Rechner abzubilden. 2. Ein Beispiel: Computergrafischer Fotorealismus. Eine derartige Virtualisierung lterer Medien durch Computer ist jederzeit im Special Effects-Kino Hollywoodscher Provenienz zu bestaunen: Und zwar in Form des computergrafischen Fotorealismus, d. h. von generierten Bildern, die hinsichtlich ihrer Bildlichkeit von fotografischen und filmischen Bildern kaum oder nicht unterschieden werden knnen. Fotorealistische Grafik ist insofern Simulation, als die Eigenschaften (bestimmter Ausprgungen) von Fotografie und Film empirisch vermessen und diese Daten den Rechnermodellen zu Grunde gelegt werden. Das Fotografische des Fotorealismus ist also keineswegs nur rhetorisch in dem Sinne, dass oberflchliche Zeichen der Fotografie nachgeahmt werden wie z. B. in der knstlerischen Strmung der fotorealistischen Malerei, die etwa zeitgleich mit den ersten fotorealistischen Bemhungen der Computergrafiker entstand. Abbildung 4, Richard Estes, Rappaports Pharmacy, 1976. Vielmehr werden die Eigenschaften der fotografischen (und auch kinematographischen) Apparatesimuliert. Das heit, eine virtuelle Kamera ist eine wirkliche Kamera nicht blo eine scheinhafte Imitation oder gar bloe Fiktion. Sie kann je nach Magabe der zur Verfgung stehenden Daten immer mehr ihrem materiellen Vorbild angenhert werden. Eine virtuelle Kamera ist sozusagen die logische Struktur einer Kamera abgelst von jeder realen Kamera-Materie. Diese virtuelle Kamera wird nun benutzt, um ein virtuelles Objektfeld, das von einer virtuellen Lichtquelle beleuchtet wird, virtuell zu fotografieren.[28] Abbildung 5, Schema der virtuellen Kamera, aus Binkley 1993, 104. Virtuelle Fotografien oder Filme folgen in Hinsicht auf ihre Bildlichkeit[29] mithin den spezifischenCharakteristika der chemischen Fotografie, von denen hier nur drei benannt werden sollen Fotogramme ausgenommen: Erstens der Reichtum an unintendierten Details, die ein wichtiger Bestandteil des fotografischen Realittseffekts (Barthes) sind. Viele generierte Grafiken werden gerade deshalb als noch nicht realistisch genug eingestuft, weil sie zu clean erscheinen, also zuwenig Kratzer, Flecken u. . auf den Oberflchen aufweisen.[30] Zweitens sind die durch die Kameraoptik bedingten Effekte zu nennen, vor allem die Bildorganisation gem den Regeln der Zentralperspektive. Computergenerierte Bilder knnten als mathematische Gebilde auch jeder anderen Projektion gehorchen, folgen aber, wenn sie fotorealistisch sein sollen, der durch Fotografie und Film tradierten perspektivischen Organisation. In der computergrafischen Forschung wird berdies angestrebt, nicht nur die perspektivische Projektion, sondern die spezifischen Effekte der Kameras, wie die empirisch messbaren Verzerrungen und Schrfeneffekte von Linsen und Blenden oder die von der Verschlusszeit abhngige Bewegungsunschrfe (motion blur), d. h. das Verwischen von schnell bewegten Objekten, zu simulieren.[31] Drittens sind es die Eigenschaften der fotografischen Emulsion selbst, z. B. die krnige Struktur des Bildes insbesondere bei Vergrerungen oder sehr lichtempfindlichen Filmen, die man in der fotorealistischen Computergrafik virtuell zu modellieren sucht.[32]
Abb. 6 ist aus einem Standardwerk zur Computergrafik.[33] Ein Foto einer Szene wird mit einer gleichartigen, berechneten Szene verglichen quod erat demonstrandum. Abbildung 6, Fotografie und fotorealistisches Bild, aus Foley et al. 1990, Plate III. 19. Wie am Beispiel des Fotorealismus deutlich wird, spricht Tholen zurecht von der medienunspezifischen Darstellbarkeit von medienspezifischen Darstellungsweisen als einem charakteristischen Zug der mediale[n] Nicht-Koinzidenz des digitalen Mediums mit sich selbst.[34] Die selbst unspezifischen Computer knnen mathematisch alle formalisierbaren Medienspezifika[35] approximativ simulieren, dadurch von ihren materialen Bedingungen ablsen und archivier-, kombinier- und transformierbar machen. Das zeigt sich z. B. auch im Bereich des Computers als Tonmedium: Eine der bei den Anhngern der neuen elektronischen Tanzmusik uerst beliebte Software ist Reason, die virtuell zahlreiche legendre Synthesizer, Drumcomputer etc. simuliert, virtuell verkabel- und verschaltbar macht.[36] Virtuelle Fotografie kann nach Shannon selbst wieder Hardware werden: Ein Beispiel ist die von der Film- und dann Computerspielindustrie gefrderte Entwicklung von Grafikchips, in denen Algorithmen fr die fotorealistische Generierung von Bildern in Hardware gegossen und so beschleunigt werden. Fotografische Bildformen und ihre Bildlichkeit werden so bis in die Hardware verfestigt und damit tradiert (das gilt auch fr die auf Sampling beruhenden, handelsblichen Digitalkameras). Keineswegs fhrt die digitale Revolution nur wie eine modische Floskel lautet das Ende des fotografischen Zeitalters herbei, vielmehr macht sich die immer noch sehr fotografische Gegenwart auch die programmierbaren Maschinen zurecht. 3. Das Verschwinden der Medien? Nur ein Jahr nach Hansen-Lves anfnglich genanntem Text zur Intermedialitt von 1983 kam der Apple MacIntosh als erster Rechner mit einer grafischen Oberflche auf den Markt damit begann erst langsam, dann immer rasender die Ausbreitung von Computern, deren Potentiale zur Simulation und zum Sampling stets zunahmen. So entstand bald und etwa zeitgleich mit dem Diskurs zur Intermedialitt die Vorstellung, im Universalmedium Computer verschwnden die Einzelmedien. So heit es in Kittlers Grammophon Film Typewriter von 1986: In der allgemeinen Digitalisierung von Nachrichten und Kanlen verschwinden die Unterschiede zwischen einzelnen Medien. Nur noch als Oberflcheneffekte [...] gibt es Ton und Bild, Stimme und Text. [...] Und wenn die Verkabelung bislang getrennte Datenflsse alle auf eine digital standardisierte Zahlenfolge bringt, kann jedes Medium in jedes andere bergehen. [...].[37] Daraus kann dann das langsame Verschwinden des Intermedialen im Paradigma des Digitalen[38]abgeleitet werden. Allerdings betont Kittler doch, dass es die verschiedenen Medien noch alsunterscheidbare Effekte auf einer multimedialen Oberflche gibt. berdies existieren fr Bild-, Film-, Ton- und Schriftfiles ganz verschiedene Datenformate.[39] Von einer im brigen kaum vorstellbaren totalen Einebnung der Differenz zwischen verschiedenen medialen Formen, davon dass mittels Computertechnik alle Medien zu einem allgemeinen Supermedium verschmelzen[40], kann keine Rede sein. Vielmehr existieren durch Sampling und Simulation die Spezifika der verschiedenen Medien abgelst von ihrer technischen Materialitt als virtuelle Form auf derselben Basis des digitalen Codes. 4. Intermedialitt und Monomedien. Fr Kittler sind die einzelnen Medien unter Computerbedingungen folglich begrenzte Fenster [...]
[i]m Spektrum des allgemeinen Datenflusses[41], so dass jedes Medium in jedes andere bergehen[42] kann. Auerdem knnen die virtualisierten Medien, wie am Beispiel des zu Grafikkarten sedimentierten Fotorealismus deutlich geworden sein drfte, durch die Herstellung entsprechender special purpose chips selbst zu physisch separaten Neuen Medien (WAP-Handys, UMTS-Handys, CD, CD-RW, MP3-Player, DVD-Player etc.) werden. Diese sind Ausdifferenzierungen der dispersiven Turing/von Neumann-Maschine, zwischen denen auf Grund ihres gemeinsamen digitalen Basiscodes buchstbliche Anschlusskommunikationen mglich sind sie knnen von Fall zu Fall direkt verkabelt werden. Der Eindruck von Intermedialitt drngt sich zunchst also dadurch auf, dass neben der Koprsenz verschiedener Formate auf einer Oberflche handelsblicher PCs verschiedene Neue Medien relativ umstandslos zu multimedialenMedienverbnden vernetzt werden knnen. So begnstigt die Virtualisierung der Medien intermediale Knste: Der Fluxus-Knstler Jud Yalkut hatte sich in seinem Text Understanding Intermedia 1973 noch beklagt: Allein die Beschwerlichkeit und Umstndlichkeit, die mit dem Gebrauch der gegenwrtigen Instrumente und Ausrstungen verbunden ist (Filmprojektoren, Lichtapparaturen, elektronische Apparate), bestimmt die Beschaffenheit und den Umfang der Intermediadarbietungen im Augenblick.[43] Die widerspenstige Materialitt der elektronischen Apparate fllt jedenfalls teilweise weg, sobald viele der Instrumente und Ausrstungen virtuell simuliert oder zumindest weniger umstndlich ber eine zentrale Instanz, den Computer, gesteuert und koordiniert werden knnen. Noll hatte schon frh zum Computer bemerkt: This is an active medium with which the artist can interact on a new level, freed from many of the physical limitations of all other previous media.[44] Die Ausbreitung der Computer und die Hinwendung der Kunst zu intermedialen Strategien sind etwa zeitgleich und das ist das Mindeste, was man sagen kann ergnzen sich hervorragend. Doch die Effekte der Virtualisierung gehen darber hinaus: Kittler bezeichnet es als Euphemismus, von Neuen Medien im Plural zu reden, wo es doch nur ein einziges neues Medium, nmlich Digitalcomputer gibt.[45] Umgekehrt knnte man genauso formulieren, dass es problematisch ist, von dem Computer im Singular zu sprechen. Der dispersive Computer es wurde gesagt wird je anders metaphorisiert, programmiert, mit anderen Peripherien verschaltet, um ein jeweils anderes Neues Medium (oder andere Maschinen) hervorzubringen. Der Computer im Reinzustand ist kein Medium insbesondere, enthlt aber potentiell jedes Medium approximativ. Legt auf diese Weise der Computer nicht nahe, dass es ein unspezifisches, inter- bzw. protomediales Feld gibt, das sich jeweilig zu spezifischen Medien kristallisiert? So kann Intermedialitt zunehmend als vorgngig, als ursprnglicher als die spezifischen Monomedien erscheinen, was schon 1983 Hansen-Lve vermutet hatte wenn auch ohne direkte Bezugnahme auf zeitgenssische intermediale Kunst oder gar Computer.[46] Wenn aber keine monomedialen Aprioris mehr vorausgesetzt werden knnen, mssen die Monomedien letztlich Ergebnisse von Purifikationsprozeduren, von Einschnitten und Eingrenzungen sein. Seit der Ausbreitung des universellen Mediums erscheint jede Berufung auf das Wesen [des] Mediums[47] als ontologisierende, naturalisierende Rechtfertigung einer durch kontingente Faktoren bedingten Form.[48] Die Neuen Medien sind temporre Programmierungen und Verschaltungen einer digitalen Elektronik mit keineswegs rein zustzlichen, sondern jeweils wesentlichen intermedialen Peripherien so wie es den Computer als Bildmedium eben nur mit den gerade verfgbaren Grafikkarten, Monitoren, Scannern, Printern gibt. Oft haben diese konstellativen Anordnungen die Funktion, traditionelle Medien zu substituieren, so wie z. B. die CD die Vinylplatte, spter die Digitalkamera die Super-8-Kamera ersetzt hat. Der temporre, nicht-essentielle Charakter der Neuen Medien zeigt sich an der stndigen und offenkundig allen Phantasien eines digitalen Verschmelzens der Medien widersprechenden Proliferation immer neuer Techniken, Formate und Konstellationen, die oftmals nur eine kurze Halbwertszeit besitzen Beispiele wren das DAT oder
das Tamagotchi, ganz zu schweigen von den schon beim Kauf tendenziell veralteten Multimedia PCs und Softwarepaketen. Die industriell fixierten Standards der digital basierten Neuen Medien sind ursprnglich oft militrisch und/oder konomisch motivierte Spezialisierungen, Zurechtmachungen (Nietzsche) der universellen Maschine. Das zeigt sich auch am oben diskutierten Fotorealismus: Ab den spteren siebziger Jahren wird die Forschung an realistischer Computergrafik immer weniger vom Militr, das realistische Grafiken fr Flugsimulatoren bentigte[49], sondern in steigendem Mae von der Filmindustrie gefrdert. Zum Beispiel geht 1979 Edwin Catmull, einer der fhrenden Entwickler von Computergrafik in den siebziger Jahren, der zuvor direkt oder indirekt fr das Militr gearbeitet hatte, zu Lucasfilm, um dort die Computer Graphics Division zu leiten. Fr zahlreiche militrische Applikationen ist fotorealistische Grafik gar nicht geeignet, weil sie zu viele Informationen liefert, weshalb oft komplexittsreduzierte Displays zum Einsatz kommen. Abbildung 7, Komplexittsreduziertes militrisches Pilotendisplay. Wenn hingegen generierte Bilder als special effect in einen Film oder auch in eine Print-Werbung eingefgt werden sollen es sei denn die Knstlichkeit der Bilder ist narrativ motiviert mssen sie ausreichend vom fotografisch-filmischen Kontext ununterscheidbar sein. Inzwischen werden die meisten Fortschritte der fotorealistischen Computergrafik durch die Film-, aber auch Computerspiel-Industrie angestoen. Abbildung 8, Werbung fr fotorealistische Grafik in Computerspielen und durch Grafikkarten (ELSAs Grafik-Know-how mit GeForce Chiptechnologie bringt Ihnen Spiele nher, als es Ihnen vielleicht lieb ist. So realistisch und authentisch, dass es von der Wirklichkeit kaum noch zu unterscheiden ist.).[50] Es drngt sich die Frage auf, mit welchem theoretischem Ansatz sich die Einrichtung der auch zeitlich, d. h. von ihrer Lebensdauer begrenzten Fenster der Neuen Medien beschreiben lsst. 5. Virtualitt und Medientheorie. Performative Formungen der dispersiven Maschine. Zunchst sei die These, dass Intermedialitt in dem Moment (etwa ab Mitte der achtziger Jahre) in den Blick rckt, in dem Medien nicht mehr als bestimmte Materien mit exakt spezifizierbaren Eigenschaften sein mssen, theoriehistorisch kontextualisiert. Sie erscheint dabei sofort als problematisch, denn offenkundig ist, dass seit Mitte der achtziger Jahre mehr und mehr von der Materialitt der Kommunikation gesprochen wurde. Im Anschluss an Nietzsche, Benjamin, McLuhan, Innis und andere wurden die Medientechnologien und ihre Eigendynamiken vor allem in den Arbeiten Kittlers als bislang verdrngtes Forschungsfeld entdeckt. Aber der Rekurs auf die Spezifik von Medientechniken und ihre verschiedenen Weisen der bertragung, Speicherung und Verarbeitung von Information[51] fhrt paradoxerweise gerade dazu, dass der Medien elektronisches Ende[52] in der Nicht-Spezifik des kommenden Universalmediums angenommen werden muss. Nur solange Kittlers Satz Noch gibt es Medien[53] gilt so knnte man berpointiert sagen gibt es noch Diskurse ber diese getrennten Medien. Oder vielleicht ist gerade das Gegenteil richtig: Wenn z. B. gilt, dass die Aufmerksamkeit [...] fr das mediale Phnomen der Schriftlichkeit geboren sein knnte aus der Einsicht in ihren drohenden Funktionsverlust[54], dann mag ebenso stimmen, dass technikhistorische Medienwissenschaft in dem Moment anhebt, in dem spezifische Medientechniken historisch werden. Das zeigt sich kaum deutlicher als bei Kittler selbst. Als 1986 sein Grammophon Film Typewriter erschien, war das Grammophon bzw. der Plattenspieler gerade fnf Jahre obsolet geworden (1981 Vorstellung der CD) sieht man von seiner Nischen-Fortexistenz in der DJ-Culture ab. In den frhen achtziger Jahren wandte sich die Filmindustrie der Frderung und Entwicklung jener oben skizzierten fotorealistischen Bildverfahren
zu, die das Medium Film durchdringen und bald praktisch ersetzen wrden[55] siehe als beeindruckendes Beispiel den 1997 erschienenen Film Titanic (James Cameron), in dem die Hintergrnde vieler Szenen visuell unmerklich computergeneriert sind. Und der Typewriter begann schon seit den spten siebziger Jahren von Office-Personalcomputern abgelst zu werden.[56] Im selben Jahr (1986) als Kittler das kommende Ende der Medien in dem einen Medium Computer mutmat (und auch zurcknimmt), publiziert Niklas Luhmann seinen Aufsatz Das Medium der Kunst. In diesem wurde seine Unterscheidung von Medium/Form eingefhrt.[57] Das Medium Luhmanns ist keine spezifische Materialitt, sondern eine unterbestimmte Ansammlung lose gekoppelter Elemente, die durch sich temporal ablsende Formen strikt gekoppelt werden. Diese funktionale und abstrakte Beschreibung lsst sich praktisch universell anwenden. Er teilt folglich die Auffassung von der Technik als Urszenerie des Medialen [...] gerade nicht.[58] Dies legt einen Gedanken nahe, dem Bernhard Dotzler durch eine Analyse der Herkunft der Systemtheorie aus der Kybernetik Wort verliehen hat.[59] Die Idee eines selbst leeren und daher unbeobachtbaren Mediums als wie Luhmann bezeichnend formuliert reine Virtualitt[60], das durch sich ablsende Formen strikt gekoppelt, man mag fast sagen programmiert[61] wird, knnte sich selbst dem historischen Auftauchen des Computers verdanken unabhngig davon, dass die Inspiration fr dieses Konzept urschlich von Fritz Heider stammt. Nicht umsonst nennt Luhmann Computer unsichtbare Maschinen und vergleicht den Prozess der Medium/Form-Kopplung explizit mit der von Neumann-Maschine.[62] Zeitgleich mit dem tendenziellen Verschwinden der spezifischen Medientechniken durch Virtualisierung entsteht also ein technisch unspezifischer Medienbegriff. Aber selbst wenn man der starken These vom Computer als einer Bedingung des Luhmannschen Medienbegriffs nicht folgen will, bleibt zu sagen, dass die systemtheoretische Medientheorie operationale Begrifflichkeiten zur Verfgung stellt. Gerade weil das Medium bei Luhmann keine fixe Materialitt, sondern eine beobachterrelativ strker oder loser gekoppelte Menge von selbst beobachterrelativen Elementen ist, kann eine Form selbst ein Medium fr weitere Formen bzw. ein Medium Form in anderen Medien sein. Es gibt also eine prozessuale Substituierbarkeit von Medium und Form. So passt Luhmanns Medium/Form-Differenz gerade auf die virtuelle Ablsung der Medienspezifika von der Materialitt: Virtuelle Fotografie bzw. Fotorealismus erscheint dann als spezifische Form Fotografie, die das unspezifische digitale Medium strikter koppelt. Virtuelle Filme sind die strikte Kopplung des digitalen Mediums durch die Form Film etc. Virtuelle Skulpturen sind die strikte Kopplung des digitalen Mediums durch die Form Skulptur usw.[63] Sybille Krmer hat an Luhmanns Medium/Form-Kopplung unterstrichen, dass Form dort performativ konzipiert sei, dass sie zur temporalisierten, instabilen, flchtigen, kontingenten Konkretisierung eines jener Potentiale zur Formbildung [wird], die bereitzustellen die Aufgabe des Mediums ausmacht.[64] Diese performative Auffassung der Form scheint auch der Tatsache der Proliferation stndig neuer digitaler Medien und Formate Rechnung tragen zu knnen. Anschlieend an Luhmanns These, dass im Schema von Medium und Form [...] alle Formen akzidentiell erscheinen [...]: keine von ihnen drckt das Wesen des Mediums aus[65], knnte man formulieren: Kein Neues Medium drckt das Wesen des Computers aus, weil dieses gerade dispersiv ist. Vielmehr werden immer neue Formen in das digitale Medium in seine Metaphern, Soft- und Hardware(peripherien) eingeprgt. Allerdings ist hier eine Przisierung notwendig, denn der Grad der Kopplung ist offenbar unterschiedlich strikt. So kann die Form Fotografie in Software oder in Hardware realisiert werden. Die Verfestigung bestimmter Algorithmen zu Chips macht die Formen stabiler, weniger flchtig, als wenn sie bloes Programm sind. Diese Sedimentierung, durch die bestimmte, nicht allealgorithmischen Pro-Gramme und z. B. auch bestimmte mediale Formen verfestigt und stabilisiert werden, ist ein eminent politischer Prozess. Wie wird bestimmt, was sich in Hardware sedimentieren kann und was nicht? Welche medialen Formen, z. B. ein fotografisch inspirierter
Realismus, werden Standard? Diese Beschreibung des Prozesses, durch die eine Vorgeschichte oder Firmenbrokratie [...] umstandslos in Hardware kristallisiert[66], evoziert noch einen anderen Begriff von Performativitt. Judith Butler hat in einem ganz anderen Zusammenhang der feministischen Diskussion ber das Verhltnis von biologischem (sex) und sozialem (gender) Geschlecht einen performativen Begriff von Materie vorgeschlagen. Es sei an ihrer komplexen Diskussion nur ein Punkt hervorgehoben, der fr eine Theorie der Begrenzung und Stabilisierung von Segmenten des intermedialen Spektrums zu einzelnen Neuen Medien von Interesse ist. Butler insistiert nmlich darauf, dass das biologi sche Geschlecht, also die Materie des Krpers, keine schlicht gegebene Oberflche ist, in die sich ein soziales Geschlecht einschreibt. Vielmehr begreift sie die Materie als Proze der Materialisierung, der im Laufe der Zeit stabil wird, so dass sich die Wirkung von Begrenzung, Festigkeit und Oberflche herstellt, den wir Materie nennen.[67] Schlielich betont Butler mit Foucault, dass Materialitt, also das was positiv gegebenes Faktum zu sein scheint, genau das ist, wo Macht sich am effektivsten durchsetzt, gerade weil sie sich im scheinbar natrlich oder eben technisch Gegebenen verbirgt: Materialitt ist die unkenntlich gewordene Wirkung von Macht.[68] Wenn man ihr Argument einmal von der Krperfrage ablst, wird deutlich, dass auch und gerade bei digitalen Neuen Medien von Prozessen einer Sedimentierung[69] gesprochen werden kann. Durch kommerziell und ideologisch motivierte Wiederholungen herrschender Normen, etwa einer stndigen Beschwrung eines zu erreichenden, vollkommenen und letztlich am Modell der fotografischen Medien orientierten Realismus (s. Abb. 9), werden bestimmte Monomedien erzeugt bzw. bestimmte mediale Formen zu Technik verfestigt und so naturalisiert. Abbildung 9, Cinematic Computing, Slogan der Nvidia-Website, Letzter Zugriff 20.4.2003. Frei nach Butlers Begriff der heterosexuellen Matrix[70], die die Zurichtungen der Krper erklren soll, knnte von einer fotografischen Matrix gesprochen werden, welche performative Materialisierungen der Computergrafik reguliert. Die stndig iterierten Anrufungen dieser Matrix in Form eines phantasmatischen, endgltigen Realismus der Computersimulation berufen sich nicht nur auf das Kino, sondern finden sich auch in ihm, siehe den bezeichnend so betitelten und vor allem beraus populren Film The Matrix (USA 1999, Andy und Larry Wachowski), oder im Fernsehen, siehe die Fiktion des so genannten Holodecks in der Fernsehserie Star Trek The Next Generation (USA 1987 ff.). Aber auch und gerade die Proceedings der wichtigsten internationalen Konferenz der Computergrafik, der SIGGRAPH, zeigen diesen Trend berdeutlich. Der Fotorealismus erscheint so als das natrliche Telos des als Bildmaschine metaphorisierten Computers. Also knnte man auch rckblickend auf alle anderen Medien die Frage bertragen, wie ihre jeweils so und so bestimmte Spezifik durch stndig wiederholte Anrufungen einer Materialitt gebildet wurde... 6. Fazit. Mit der beginnenden Metaphorisierung und Funktionalisierung des Computers als Universalmedium wird es mglich, die Spezifika der Medien unabhngig von ihrer technologischen Materialitt zu beobachten. Die materiellen bzw. technologischen Strukturen verdampfen zu Formen, die performativ das digitale Medium koppeln. So werden auch die scheinbar klar fixierten Monomedien retrospektiv als temporre, performativ, diskursiv und damit politisch erzeugte Eingrenzungen eines vorgngigen intermedialen Spektrums denkbar. Es wre sicher falsch anzunehmen, dass Intermedialitt allererst mit Computern entsteht, schon weil transmediale Beziehungen zwischen Medien auf der Ebene (relativ) medienunspezifischer Strukturen wie Rhythmus, Serialitt, Narration etc. schon immer existiert und die reine und spezifische Selbstidentitt eines gegebenen Medium subvertiert haben.[71] Wenigstens muss aber eingerumt werden, dass Intermedialitt sich historisch verndert, dass mit dem Computer eine
neue, virtuelleArt derselben und in deren Gefolge erst der Begriff Intermedialitt auftaucht. Ob und wie diese Verschiebung genealogisch mit der Abwendung der Kunst vom tendenziell monomedialen Modernismus einem Prozess, dessen Zusammenhang mit der Entwicklung der elektronischen und dann digitalen Medien selbst zu untersuchen wre[72] in Verbindung steht, muss Thema eines anderen Aufsatzes bleiben. Jedenfalls erffnet die Virtualisierung bisheriger Medien auch fr die Kunst neue Optionen jenseits der multimedialen Installation. Die Kunst knnte die Verfestigung und Tradierung traditioneller Bildformen in den ach so Neuen Medien angreifen.[73] Bei einer virtuellen Fotokamera z. B. knnten alle Parameter auch ber das fr eine reale und handelsbliche Kamera physikalisch Mgliche hinaus verndert und somit die Grenzen der Kamera-Spezifik enorm erweitert, knstlerisch ausgetestet werden. In der neueren elektronischen E-Musik sind vergleichbare Experimente unter dem Titel Physical Modeling schon angedacht worden. Abbildung 10, Querschnitt einer Klarinette, aus: Brse 1994. Abbildung 11, Physik einer Klarinette, aus: Brse 1994. Abbildung 12, Blockschaltbild eines Physical Models einer Klarinette, aus: Brse 1994. Brse weist zwar daraufhin, dass man die Grenzen so sensibler Anordnungen wie von selbstoszillierenden Instrumenten nur wenig verndern kann, soll berhaupt noch ein Klang hrbar werden, doch am Horizont knnten auf der Basis von simulativen Modellen entsprechender Instrumente, eine Riesentrompete oder eine auf dem Mond gestrichene Balalaika[74] stehen. So wre im Virtuellen Greenbergs fast vergessene Forderung, eine modernistische Kunst msse sich durch Medienreflexion auszeichnen, auf ganz neue Art zu erfllen. Die Spezifik der Medien und ihre (virtuelle) Intermedialitt knnten einen neuen Frieden schlieen.
Literatur: BATCHEN, Geoffrey (2001) Obediant Numbers, Soft Delight. In: ders.: Each Wild Idea: Writing, Photography, History. Cambridge, MA: The MIT Press, S. 164-174. BORN, Gnther (2000) Dateiformate - die Referenz: Tabellenkalkulation, Text, Grafik, Multimedia, Sound und Internet. Bonn: Addison Wesley. BRSE, Claudius (1994) Physical Modeling - Die neue Klangsynthese. In: Keyboards, Nr. 4, S. 4473. BUTLER, Judith (1997) Krper von Gewicht. Frankfurt a. M.: Suhrkamp. CARROLL, Noel (1984/85) Medium Specifity Arguments and Self-Consciously Invented Arts: Film, Video and Photography. In: Millenium Film Journal, No. 14/15, S. 127-153. CARROLL, Noel (1985) The Specifity of Media in the Arts. In: Journal of Aesthetic Education, Vol. 19, No. 4, S. 5-20. CERUZZI, Paul (2000) A History of Modern Computing. Cambridge, Massachusetts und London: MIT Press. COCKE, John / KOLSKY, Harwood G. (1959) The Virtual Memory in the STRETCH Computer. In: Proceedings of the 1959 Eastern Joint Computer Conference. Papers presented at the Joint IRE-AIEE-ACM Computer Conference, Boston, Massachusetts, S. 82-93. COCKROFT, Eva (1974) Abstract Expressionism: Weapon of the Cold War. In: Artforum, Vol. 12, No. 10, S. 39-41. DEDUVE, Thierry (1993) Kant nach Duchamp. Mnchen: Boer. DELEUZE, Gilles (1997) Differenz und Wiederholung. Mnchen: Fink.
DENNING, Peter J. (1970) Virtual Memory. In: ACM Computing Surveys, Vol. 2, No. 3, S. 153189. DOTZLER, Bernhard (1999) Unsichtbare Maschinen Irritationsbestnde aus der Geschichte der Kybernetik erster Ordnung. In: Widerstnde der Systemtheorie. Kulturtheoretische Analysen zum Werk von Niklas Luhmann. Hrsg. von Albrecht Koschorke und Cornelia Vismann. Berlin: Akademie-Verlag, S. 121-132. ECKL, Rainer / PTGENS, Leonhard / WALTER, Jrgen (1990) A/D- und D/A-Wandler. Grundlagen, Prinzipschaltungen und Applikationen. Mnchen: Franzis. ESPOSITO, Elena (1998) Fiktion und Virtualitt. In: Medien Computer Realitt. Wirklichkeitsvorstellungen und neue Medien. Hrsg. von Sybille Krmer. Frankfurt a. M.: Suhrkamp, S. 269-296. FOLEY, James D. / VAN DAM, Andries / FEINER, Steven K. / HUGHES, John F. / PHILIPS, Richard L. (1990) Computer Graphics: Principles and Practice. Reading, Massachusetts u. a.: Addison-Wesley. GALISON, Peter (1997) Image and Logic. A Material Culture of Microphysics. Chicago und London: Chicago University Press. GEIGEL, Joe / MUSGRAVE, F. Kenton (1997) A Model for Simulating the Photographic Development Process on Digital Images. In: SIGGRAPH Proceedings 1997, S. 135-142. GREENBERG, Clement (1997) Die Essenz der Moderne. Ausgewhlte Essays und Kritiken. Hrsg. von Karlheinz Ldeking. Amsterdam, Dresden: Verlag der Kunst. HANSEN-LVE, Aage A. (1983) Intermedialitt und Intertextualitt. Probleme der Korrelation von Wort- und Bildkunst Am Beispiel der russischen Moderne. In: Dialog der Texte. Hamburger Kolloquium zur Intertextualitt. Hrsg. von Wolf Schmid & Wolf-Dieter Stempel. Wien (=Wiener Slawistischer Alamanach, Sonderband II), S. 291-360. HIGGINS, Dick (1984) Horizons. The Poetics and Theory of the Intermedia. Carbondale and Edwardsville: Southern Illinois University Press. HOLMES, Sir Oliver Wendell (1980) Das Stereoskop und der Stereograph. In: Theorie der Fotografie I. 1839-1912. Hrsg. von Wolfgang Kemp. Mnchen: Schirmer und Mosel, S. 114-122. KITTLER, Friedrich (1986) Grammophon Film Typewriter. Berlin: Brinkmann & Bose. KITTLER, Friedrich (1993) Draculas Vermchtnis. Technische Schriften. Leipzig: Reclam. KITTLER, Friedrich (1998) Hardware, das unbekannte Wesen. In: Medien Computer Realitt. Wirklichkeitsvorstellungen und neue Medien. Hrsg. von Sybille Krmer. Frankfurt a. M.: Suhrkamp, S. 119-132 KITTLER, Friedrich (1999) Von der optischen Telegraphie zur Photonentechnik. In: Mehr Licht. Hrsg. von VVS Saarbrcken. Berlin: Merve, S. 51-68. KRMER, Sybille (1996) Computer: Werkzeug oder Medium? ber die Implikationen eines Leitbildwechsels. In: Nachhaltigkeit als Leitbild fr die Technikgestaltung. Hrsg. von Hans-Peter Bhm, Helmut Gebauer und Bernhard Irrgang. Forum fr interdisziplinre Forschung 14. Dettelbach: Rll, S. 107-116. KRMER, Sybille (1998a) Das Medium als Spur und als Apparat. In: Medien Computer Realitt. Wirklichkeitsvorstellungen und neue Medien. Hrsg. von Sybille Krmer. Frankfurt a. M.: Suhrkamp, S. 73-94. KRMER, Sybille (1998b) Form als Vollzug oder: Was gewinnen wir mit Niklas Luhmanns Unterscheidung von Medium und Form? In: Rechtshistorisches Journal, Nr. 17, S. 558-573. KRAUSS, Rosalind (2000) A Voyage on the North Sea. Art in the Age of the Post-Medium Condition. New York: Thames and Hudson. LICKLIDER, J. C. R. / TAYLOR, Robert (1968) The Computer as a Communication Device. In:Science and Technology, April 1968, S. 21-31. LUHMANN, Niklas (1986) Das Medium der Kunst. In: Delfin, Jg. 4, Nr. 1, S. 6-16. LUHMANN, Niklas (1993) Die Form der Schrift. In: Schrift. Hrsg. von Hans-Ulrich Gumbrecht und K. Ludwig Pfeiffer. Mnchen: Fink, S. 349-366.
LUHMANN, Niklas (1997) Die Kunst der Gesellschaft. Frankfurt a. M.: Suhrkamp. LUHMANN, Niklas (1998) Die Gesellschaft der Gesellschaft. 2 Bde. Frankfurt a. M.: Suhrkamp. MITCHELL, William J. (1992) The Reconfigured Eye. Visual Truth in the Post-Photographic Era, Cambridge, Mass. und London: MIT Press. MLLER, Jrgen E. (1998) Intermedialitt als poetologisches und medientheoretisches Konzept. Einige Reflexionen zu dessen Geschichte. In: Intermedialitt. Hrsg. von Jrg Helbig. Berlin: Erich Schmidt, S. 31-40. NEUNZERT, Helmut (1995) Mathematik und Computersimulation: Modelle, Algorithmen, Bilder. In: Simulation. Computer zwischen Experiment und Theorie. Hrsg. von Valentin Braitenberg und Inga Hosp. Reinbek bei Hamburg: Rowohlt, S. 44-55. NEWELL, Martin E. / BLINN, James F. (1977) The Progression of Realism in ComputerGenerated Images. In: ACM 77. Proceedings of the Annual Conference. New York: ACM, S. 444448. NOLL, Michael (1966) Human or Machine: A Subjective Comparison of Piet Mondrians Composition with Lines (1917) and a Computer-Generated Picture. In: The Psychological Record, Vol. 16, S. 1-10. NOLL, Michael (1967a) The Digital Computer as a Creative Medium. In: IEEE Spectrum, Vol. 4, No. 10, S. 89-95. NOLL, Michael (1967b) Computers and the Visual Art. In: Design Quarterly, No. 66/67, S. 65-71. REEVES, William (1983) Particle Systems A Technique for Modeling a Class of Fuzzy Objects. In: Computer Graphics, Vol. 17, No. 3, S. 359-376. PIEHLER, Heike (2002) Die Anfnge der Computerkunst. Frankfurt a. M.: dot. POTMESIL, Michael / CHAKRAVARTY, Indranil (1982) Synthetic Image Generation with a Lens and Aperture Camera Model. In: ACM Transactions on Graphics, Vol. 1, No. 2, S. 85-108. POTMESIL, Michael / CHAKRAVARTY, Indranil (1983) Modeling Motion Blur in ComputerGenerated Images. In: SIGGRAPH Proceedings 1983 (= Computer Graphics, Vol. 17, No. 3), S. 389-399. SHANNON, Claude Elwood (1938) A Symbolic Analysis of Relay and Switching Circuits. In:Transactions of the American Institute of Electrical Engineers, Nr. 57, S. 713-723. RASER, John (1972) Simulation and Society. An Exploration of Scientific Gaming. Boston: Allyn and Bacon. SCHRTER, Jens (1998) Intermedialitt. Facetten und Probleme eines aktuellen medienwissenschaftlichen Begriffs. In: montage/av, Jg. 7, Nr. 2, S. 129-154. SCHRTER, Jens (2000) Die Form der Farbe. ber ein Parergon in Kants Kritik der Urteilskraft. In:Kants Schlssel zur Kritik des Geschmacks. sthetische Erfahrung heute Studien zur Aktualitt von Kants Kritik der Urteilskraft. (Sonderheft des Jahrgangs 2000 der Zeitschrift fr sthetik und allgemeine Kunstwissenschaft). Hrsg. von Ursula Franke. Hamburg: Meiner, S. 135-154. SPIELMANN, Yvonne (1995) Intermedialitt als symbolische Form. In: sthetik und Kommunikation, Jg. 24, Heft 88, S. 112-117. SPIELMANN, Yvonne (1998) Intermedialitt: das System Peter Greenaway. Mnchen: Fink. THOLEN, Georg Christoph (1999) berschneidungen. Konturen einer Theorie der Medialitt. In:Konfigurationen Zwischen Kunst und Medien. Hrsg. von Sigrid Schade und Georg Christoph Tholen. Mnchen: Fink, S. 15-34. THOLEN, Georg Christoph (2002) Die Zsur der Medien. Kulturphilosophische Konturen. Frankfurt a. M.: Suhrkamp. VON NEUMANN, John (1945) First Draft of a Report on the EDVAC. Unter:http://www.cs.colorado.edu/~zathras/csci3155/EDVAC_vonNeumann.pdf (Letzter Zugriff Februar 2003). WINKLER, Hartmut (1997) Docuverse. Zur Medientheorie der Computer. Mnchen: Boer. WINKLER, Hartmut (2002) Das Modell. Diskurse, Aufschreibesysteme, Technik, Monumente Entwurf fr eine Theorie kultureller Kontinuierung. In: Archivprozesse. Die Kommunikation der
Aufbewahrung. Hrsg. von Hedwig Pompe und Leander Scholz. Kln: Dumont, S. 297-315. WOOLFSON, Michael M. / PERT, G.J. (1999) An Introduction to Computer Simulation. Oxford u. a.: Oxford University Press. YALKUT, Jud (1973) Understanding Intermedia. In: Avantgardistischer Film 1951 - 1971, Theorie. Hrsg. von Gottfried Schlemmer. Mnchen: Hanser, S. 92-95. Abbildungen
[1]
Der vorliegende Aufsatz setzt einen frheren Text des Verfassers fort, vgl. Schrter 1998. Wurde dort der Begriff Intermedialitt eher taxonomisch differenziert, geht es hier um Aspekte seiner historischen Genese. Der vorliegende Text ist eine ausgearbeitete Fassung eines Vortrages, der am 29.11.2002 auf der Jahrestagung des SFB 447 gehalten wurde. Ich mchte mich beim SFB 447 fr die Einladung und insbesondere bei Nadia Ghattas und Prof. Dr. Sybille Krmer bedanken. Ich danke Bernhard Ebersohl fr Korrekturen und Esther Forst sowie den Zuhrern meines Vortrages fr hilfreiche Kritik. [2] Luhmann 1998, 531. [3] Vgl. Dick Higgins 1984, 25 (oben wurde das Ersterscheinungsjahr des Textes, hier das Jahr der Quelle zitiert so wird ggf. auch im Folgenden verfahren) und Hansen-Lve 1983. Das Wort Intermedium lsst sich dort in anderem Sinn als heute mindestens bis zu einem Text von Coleridge aus dem Jahr 1812 zurckverfolgen, vgl. Mller 1998, 31. [4] Vgl. Tholen 1999, 16 und 2002, 197 ff. [5] Mller 1998, 32 und 37. [6] Greenberg 1997, 267. Mit dieser Bevorzugung des Reinen stellt sich Greenberg explizit in die Tradition von Lessings Laokoon-Schrift (vgl. ebd., 56-81), aber folgt auch formal-sthetischen Positionen wie der Kants, der z. B. die reinen gegenber den unreinen Farben bevorzugte, vgl. dazu Schrter 2000. [7] Greenberg 1997, 454. [8] Vgl. zu den immanenten Grnden DeDuve 1993, 193-276. [9] Vgl. u. a. Dick Higgins Text Intermedia von 1965, Higgins 1984, 18-28. [10] Vgl. Krmer 1996. [11] Vgl Ceruzzi 2000, 25-34. [12] Generell knnte man, mit Winkler 1997, 76, die Universalitt der universellen Maschine in Frage stellen. Und das ist mindestens in dem Sinn richtig, dass die Universalitt erstens nur bis zur Grenze dessen reicht, was sich berhaupt formalisieren lsst. Und zweitens bestimmen die Architektur und Geschwindigkeit der Hardware welche Formalisierungen ausgefhrt werden knnen. So hat gerade die von Neumann-Architektur spezifische Limitationen: Zwischen dem Speicher und dem Central Processing Unit gibt es in der Regel nur einen Datenbus, d. h. Programme werden strikt sequentiell ausgefhrt (so genannter von Neumann -Flaschenhals). Diese Sequentialitt verlangsamt die heute zunehmend wichtigere Berechnung oder Verarbeitung hherdimensionaler Daten wie z. B. von Bildern oder Netzwerktopologien bis zur Undurchfhrbarkeit. [13] Tholen 2002, 54. [14] Vgl. Shannon 1938. [15] Vgl. von Neumann 1945. [16] Vgl. Noll 1967 a. Ein anderer frher Text, in dem der Computer als Kommunikationsmedium verstanden wird, ist Licklider/Taylor 1968. [17] Vgl. Noll 1967 b, 68. [18] Vgl. Noll 1966. [19] Was nicht bedeutet, dass die Ergebnisse beider Verfahren nicht kombiniert werden knnten.
[20] [21]
Vgl. Eckl / Ptgens / Walter 1990. Neunzert 1995, 44. Zu den verschiedenen Formen von Computersimulation vgl. Woolfson / Pert 1999. [22] Vgl. Galison 1997, 689-780. Vgl. auch schon Raser 1972, der zahlreiche Anwendungen der Simulation in Militr, Wissenschaft (auch und gerade Soziologie!), Wirtschaft und Politik vorstellt. [23] Der Terminus virtual memory wird laut Oxford English Dictionary 1959 in einem Vortrag eingefhrt, der im Rahmen der Eastern Joint Computer Conference gehalten wurde, vgl. Cocke / Kolsky 1959. Allerdings ist in diesem Text mit virtual memory etwas anderes gemeint als in der heute blichen Verwendung des Begriffs. Der Text von 1959 beschreibt als look-ahead unit das, was man heute cache memory nennt ein kleiner Zwischenspeicher, der besonders schnell reagiert und vom Prozessor hufig gebrauchte Daten bereithlt. [24] Vgl. zum Folgenden Denning 1970. [25] Der sowohl den realen Hauptspeicher als auch externe Hilfsspeicher (z. B. Festplatten) einschliet. [26] Dieses Dispositiv der virtuellen Trennung von Form und Materie hat eine Vorgeschichte, die bis zur Fotografie zurckreicht. So bemerkte schon 1859 Sir Oliver Wendell Holmes (1980, 119) ber stereoskopische Bilder: Die Form ist in Zukunft von der Materie getrennt. In der Tat ist die Materie in sichtbaren Gegenstnden nicht mehr von groem Nutzen, ausgenommen, sie dient als Vorlage, nach [der] die Form gebildet wird. Man gebe uns ein paar Negative eines Gegenstandes, aus verschiedenen Perspektiven aufgenommen mehr brauchen wir nicht. Man reie dann das Objekt ab oder znde es an, wenn man will. Zur historischen Verzahnung von Fotografie und Computern siehe Batchen 2001. Die Ablsung von der Materialitt bezieht sich bei Rechnern nur auf das virtuelle Objekt im Verhltnis zum Realobjekt, nicht aber auf die Hardware, die jedem Rechenprozess zugrunde liegt und durch ihre Leistungsgrenzen die Mglichkeiten der Simulation beschrnkt. [27] Deleuze 1997, 264 und ebd.: Das Virtuelle muss selber als ein strikt dem Realobjekt zugehriger Teil definiert werden als ob das Objekt einen seiner Teile im Virtuellen htte und darin wie in einer objektiven Dimension eingelassen wre diese objektive Dimension ist die der mathematischen Formalisierbarkeit! Mithin steht das Virtuelle anders als das Fiktive nicht dem Realen gegenber, sondern dem Aktuellen. Die Unterscheidung real/fiktiv und die Unterscheidung aktuell/virtuell liegen quer zueinander, vgl. Esposito 1998. [28] Vgl. Mitchell 1992, 117-135. [29] Von Montageregeln etc. beim Film sei hier abgesehen. [30] Vgl. Newell / Blinn 1977, 445/446. [31] Vgl. Potmesil / Chakravarty 1982; 1983. [32] Vgl. Geigel / Musgrave 1997. [33] Vgl. Foley et al. 1990. [34] Tholen 1999, 16 und 22. [35] Vorausgesetzt man kann sich darber einigen, ob Medien Spezifika haben und welche diese genau wren, vgl. Carroll 1984/85. [36] Vgl. http://www.propellerheads.se (Letzter Zugriff Mrz 2003). Mit Dank an Niels Schrter. [37] Kittler 1986, 7; Hervorheb., J.S. [38] Spielmann 1995, 117. [39] Vgl. Born 2000. [40] Spielmann 1998, 9; Hervorheb., J.S. Vgl. die Kritik an derartigen Unifizierungsphantasien bei Winkler 1997, 55-64 und 75-80. [41] Kittler 1986, 8/9. [42] Ebd., 7. Die Formulierung impliziert die Differenz verschiedener Medien-Formen auch im gesampelten oder simulierten Zustand. [43] Yalkut 1973, 94. [44] Noll 1967 a, 93; Hervorheb., J. S.
[45] [46]
Kittler 1999, 65. Vgl. Hansen-Lve 1983, 321. Die Annahme vorgngiger Intermedialitt ist nicht die eines Supermediums, welches aus der Verschmelzung der bisherigen Medien hervorgeht. Umgekehrt ist es die einer potentiellen Medialitt, die erst zu spezifischen Medien konfiguriert wird. [47] Greenberg 1997, 267. [48] Vgl. schon 1965 Higgins 1984, 18/19, der Monomedien als ideologische Konstrukte begreift und weiterhin Carroll 1985. Dies gilt dann rckblickend auch fr Greenbergs Privilegierung der amerikanischen, abstrakten Nachkriegsmalerei, deren Verwicklung in die Logik des Kalten Krieges durch seine ontologische und teleologische Berufung auf die Medienspezifik geradezu verschleiert worden war, vgl. dazu Cockroft 1974. [49] Vgl. Newell / Blinn 1977, 444. [50] Mit Dank an Dennis Vollmer. [51] Kittler 1993, 8. Diese Definition von Medium ist offensichtlich selbst dem Computer abgelesen, vgl. Winkler 1997, 83. [52] Kittler 1986, 9. [53] Ebd., 8; Hervorheb, J.S. [54] Krmer 1998 a, 83. [55] Siehe die schon oben erwhnten Arbeiten von Potmesil / Chakravarty von 1982 und 1983 und darberhinaus Reeves 1983, der das damals neuartige Verfahren der Partikelsynthese entwickelte, welches in dem populren Film Star Trek II The Wrath of Khan (USA 1982, Nicholas Meyer) seine erste Demo erlebte. [56] Vgl. Ceruzzi 2000, 254-280. [57] Vgl. Luhmann 1986. [58] Krmer 1998 a, 76. [59] Vgl. Dotzler 1999. [60] Luhmann 1993, 356. [61] Vgl. Luhmann 1998, 309/310. [62] Ebd., 199. [63] Zur Zeit arbeitet der Verfasser im Rahmen des FK 615 an der Universitt Siegen in einem von der Kunstgeschichte der Universitt Siegen initiierten Projekt, das in Zusammenarbeit mit der Villa Borghese, Rom und dem Fraunhofer-Institut fr Medienkommunikation, St. Augustin den Mglichkeiten der Virtualisierung von Skulptur nachgeht. Vgl. http://www.fk615.unisiegen.de/Projekte/ProjektB7.html (Letzter Zugriff Mrz 2003). [64] Krmer 1998 b, 565/566. [65] Luhmann 1997, 168/169. [66] Kittler 1998, 131. [67] Butler 1997, 32. [68] Ebd., 345. [69] Ebd., 39. Vgl. Winkler 2002, der Technik als tradierende Sedimentierung er sagt Niederlegung von Diskursen beschreibt. [70] Vgl. Butler 1997, 23, 29, 57 und passim. [71] Vgl. Schrter 1998, 136-143. [72] Vgl. Krauss 2000, 30-32 zum Zusammenhang zwischen dem Ende des Modernismus und der Ausbreitung von Video. Dabei spricht sie explizit von der post-medium condition in der sich die Kunst heute befindet! [73] Worauf mglicherweise bereits die oben schon erwhnte Strmung der so genannten fotorealistischen Malerei vordeutet... [74] Brse 1994, 61.