Sie sind auf Seite 1von 358

DIETER E. ZIMMER, geboren 1934 in Berlin, seit 1959 Redakteur der Wochenzeitung »Die Zeit‹, lebt in Ham- burg; übersetzte Werke von Vladimir Nabokov, James Joyce, Jorge Luis Borges, Nathanael West, Ambrose Bierce, Edward Gorey u.a. Nach vornehmlich literari- schen und literaturkritischen Arbeiten zunehmend Pu- blikationen über Themen der Anthropologie, Psycholo- gie, Medizin, Verhaltens- und Sprachforschung. Buchveröffentlichungen: Materialien zu James Joyces ›Dubliner‹ (zusammen mit Klaus Reichert und Fritz Senn, 1966) – Ich möchte lieber nicht, sagte Bartleby (Gedichte, 1979) – Unsere erste Natur (1979)–Der Mythos der Gleich- heit (1980) – Die Vernunft der Gefühle (1981) – Tiefen- schwindel (Über die Psychoanalyse, 1986) – Herausge- ber der Kurzgeschichten aus der ›Zeit‹ (Mehrere Folgen, zuletzt 1985). Im Haffmans Verlag erschienen: Redens Arten (Über Trends und Tollheiten im neudeutschen Sprachgebrauch, 1986) – So kommt der Mensch zu Sprache (Über Sprach- erwerb, Sprachentstehung, Sprache & Denken, 1986) – Experimente des Lebens (Wilde Kinder, Zwillinge, Kib- buzniks und andere aufschlußreiche Wesen, 1989)–Die Elektrifizierung der Sprache (Über Sprechen, Schreiben, Computer, Gehirne und Geist, 1990) – Außerdem gele- gentlich Beiträge im Magazin für jede Art von Litera- tur Der Rabe.

DIETER E. ZIMMER

Die Elektrifizierung der Sprache

Über Sprechen, Schreiben, Computer, Gehirne und Geist

HAFFMANS VERLAG

Erstausgabe Veröffentlicht als HaffmansTaschenBuch 99, Frühling 1991 Konzeption und Gestaltung von Urs Jakob Umschlagzeichnung von Volker Kriegel

Alle Rechte vorbehalten Copyright © 1990 by Haffmans Verlag AG Zürich Satz: Fosaco AG Bichelsee Herstellung: Ebner Ulm isbn 3 251 01099 9 1 2 3 4 5 6 – 95 94 93 92 91

Inhalt

Vorbemerkung

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 7

Das Dingens – Die Schwierigkeit, dem Computer einen passenden Namen zu finden

.

.

.

.

11

TEXTCOMP.DOC – Die Elektrifizierung des Schreibens

 

.

.

.

.

.

.

.

.

.

.

21

Wie viele Wörter hat der Mensch? –

 

Das innere Lexikon

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

61

Blos Tipppfehler – Der Computer als Orthographie-Experte

 

89

Rechte Schreibung – Die geplante Reform der

 

deutschen

 

.

.

.

.

.

.

103

Zusatz: Text mit/ohne Schreibfehler .

.

.

.

.

.

.

.

.

. 139

Ein A ist kein A ist kein A – Die Maschine als Leserin

. Zusatz: Optische Zeichenerkennung, praktisch

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 143

144

Sprache, ein Schwingungsgebirge – Die Maschine als Stenotypistin Zusatz:

.

.

.

.

.

.

.

.

.

.

.

. 181

Automatische Spracherkennung, praktisch

 

197

Aus einem kühlen Grunde – Die Maschine als Übersetzerin

 

.

.

.

.

.

.

.

.

.

.

205

Mr. Searle im Chinesischen Zimmer – Über Computer, Gehirne und Geist .

.

.

.

.

.

.

.

.

247

!Hypertext! – Eine Kurzgeschichte

 

.

.

.

.

.

.

.

.

.

.

.

295

Anhang

Namen, Adressen, Preise

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 315

Bibliographie

 

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 337

Register .

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

.

. 335

VORBEMERKUNG

Dieses Buch führt meine beiden früheren über sprach- liche Fragen weiter. In »Redens Arten« (1986) ging es vor allem um den aktuellen Sprachgebrauch, um Ten- denzen und Tollheiten des Neudeutschen. »So kommt der Mensch zur Sprache« (1986) war eher sprachwis- senschaftlich orientiert und handelte von Spracherwerb, Sprachentstehung, Begriffsbildung. Das Thema jetzt heißt: Sprache und Computer – der Computer als Werk- zeug der Sprachbearbeitung, die Versuche, einige Facet- ten menschlicher Sprachbeherrschung auf den Compu- ter zu übertragen. Zwei Kapitel scheinen auf den ersten Blick nicht zu die- sem Generalthema zu passen – das über die Größe des Wortschatzes und das über die geplante Rechtschreib-Re- form. Sie stehen jedoch mit dem Rest in unmittelbarer Verbindung, und zwar nicht nur wegen des Kapitels über die Computerisierung der Rechtschreibprüfung, dem sie sozusagen das Unterfutter liefern. Hinter beiden näm- lich stehen Fragen, die in dieser Form erst der Compu- ter aufgeworfen hat: Mit welchen Datenmengen hantiert der menschliche Geist, wenn er Sprache gebraucht? Wie weit läßt sich eine natürliche Sprache formalisieren? (Die Antwort darauf lautet, daß jedenfalls die heutige deutsche Orthographie von Willkürlichkeiten strotzt und darum gegen jede Algorithmisierung immun ist – und daran etwas ändern würde nur eine radikale Reform, wie kein Mensch sie will.)

7

Das Buch – und darin unterscheidet es sich vom Gros der Computerliteratur – versucht den Computer immer wieder als eine Sonde zu betrachten, die uns Aufschlüs- se verschafft über das Funktionieren des menschlichen Geistes. Wahrscheinlich habe auch ich hier und da den Ton triumphierender Schadenfreude nicht ganz vermei- den können, wenn ich davon spreche, was dem Computer bisher alles nicht gelungen ist. Im Grunde jedoch halte ich diesen höhnischen Triumph (»Ätsch, der Mensch kann es doch besser!«) für unangebracht. Bei den Versuchen, ihm etwas Sprachvermögen beizubringen, hat uns der Com- puter anschaulicher als irgend etwas vorher deutlich ge- macht, eine wie überaus komplexe Leistung das Gehirn auf jeder Ebene der Sprachverarbeitung vollbringt. Da ist er entschuldigt, wenn er es dem Hirn bis auf weiteres nicht gleichtun kann. Ich bewundere eher, daß es trotz dieser für ihn fast hoffnungslosen Ausgangslage gelun- gen ist, ihm einige sprachliche Fertigkeiten zuzumuten, die ihn in einigen Bereichen schon heute zu einem über- aus nützlichen Werkzeug machen. Das Buch gehört also wieder zu jenem Schlag, bei dem Buchhändler und Bibliothekare leider nicht wissen, in welches Regal sie es eigentlich stellen sollen. In die Ecke, wo die Sprachwissenschaft steht, zu der sich selten je- mand verirrt? Zur Psychologie? Zur Medienkunde? Zur Computerliteratur? Überall stünde es richtig, selbst bei den Computerbüchern, denn in den Kapiteln über Spel- lingchecker, Zeichen- und Spracherkennung und Maschi- nenübersetzung bleibt es durchaus praxisbezogen, nennt es sogar Namen und Adressen, denen der interessierte

8

Leser sonst vermutlich nicht oder nur mit ganz unange- messenem Aufwand auf die Spur käme. Trotzdem enthält es auch eine Warnung an die Compu- ter-Innung. Selbst dort, wo diese bemüht ist, Werkzeuge zur »Verarbeitung« von Sprache bereitzustellen, geht sie mit ihr bisher viel zu oft leichtfertig, ja fahrlässig um, un- terschätzt sie sie maßlos. Immer wieder etwa kann man hören oder lesen, daß die fabelhaften schnellen kleinen Computer, die es in fünf oder zehn Jahren geben wird, dann selbstverständlich auch die automatische Schriftzei- chen- oder Spracherkennung und die maschinelle Über- setzung beherrschen werden, so als handele es sich dabei um triviale Nebensachen, bei denen nur endlich einmal ein paar Programmierer ernstlich zupacken müßten, und schon wäre das Problem gelöst. So aber wird es mit Si- cherheit nicht kommen. Gewisse, als technische Leistun- gen nicht zu verachtende Fähigkeiten auf diesen Gebie- ten werden die künftigen Computer zwar ihr eigen nen- nen, und sie werden sich damit nützlich machen – aber dem Reichtum (und also auch den Inkonsequenzen und Ambiguitäten) einer natürlichen Sprache werden sie in keiner absehbaren Zeit gewachsen sein. Auch in zehn Jahren wird die teuerste automatische Schrifterkennung nicht viel weniger Fehler machen als heute. Selbst eine wirklich brauchbare Rechtschreibkontrolle, ja auch nur ein Silbentrennprogramm, das man sich selbst überlassen könnte, sind vorläufig nicht in Sicht. Das Buch versucht verständlich zu machen, warum das so ist, welche viel- leicht nie ganz überwindbaren Widerstände die natürli- che Sprache ihrer Algorithmisierung entgegensetzt.

9

Die Informationen über diese Gebiete liegen wahrhaf- tig nicht auf der Straße, und wenn es dem Buch gelungen sein sollte, einige zu versammeln und auch für den Nicht- fachmann durchschaubar zu machen, dann nur, weil sich eine Reihe von Experten die Zeit genommen haben, mich mit ihnen zu versehen. Ihnen möchte ich an dieser Stel- le meinen Dank abstatten, insbesondere: Prof. Dr. Hans Brügelmann (Universität Bremen); Dr. Hartmut Günther (Max-Planck-Institut für Psycholinguistik, Nijmegen); Dr. Johann Haller (EUROTRA-D, Saarbrücken); John Hatley (Firma Logos, Frankfurt); Martina Hey er (Firma CCS, Hamburg); Hans-Siegfried Hirschel (Verein Textildoku- mentation / TITUS, Ratingen); Dr. Eric Keppel (Firma IBM, Heidelberg); Andreas Noll (Firma Philips, Ham- burg); Annedore Paeseler (Firma Philips, Hamburg); Ian Pigott (EG Kommission / SYSTRAN, Luxemburg); Brigit- te Schleicher (Firma Eppendorf Gerätebau, Hamburg); Dr. Thomas Schneider (Firma Siemens, München); Dr. Klaus Schubert (Firma BSO, Utrecht); Albert Stahlberg (Firma Vektor, Hamburg). Für etwaige Fehler in meiner Darstellung sind sie natürlich so wenig verantwortlich wie für meine Urteile.

DAS

DINGENS

Die Schwierigkeit, dem Computer einen passenden Namen zu finden

Nicht ungern wüßte ich, wie das Ding denn nun zu nen- nen wäre, vor dem ich seit Jahren den größeren Teil mei- ner wachen Zeit verbringe. So ist der Mensch. Erst was er benannt hat, wird ganz und gar wirklich; das Unbe- nannte verbleibt sozusagen in einem Aggregatzustand verdünnter, verminderter Realität. Und man kann ihn ja auch verstehen. Nur was »auf den Begriff gebracht« ist, nur was einen Namen hat, darüber kann er expli- zit nachdenken und sich mit anderen austauschen. Zwar gibt es Tricks, den Mangel zu überdecken, sprachliche Joker, wildcard-Wörter sozusagen. Aber wer will auf die Dauer mit einem Dingsbums Umgang pflegen, irgend- wie so einem Dingens, Sie wissen schon? Das Dingens ist ein Computer, so viel ist klar. Ist es klar? Hat man das Pech, mit der Rede von seinem Computer an jemanden zu geraten, der gewöhnlich mit Großrechnern arbeitet, so erntet man den Blick, den ein kleiner Junge erntet, der sein Dreirad einen »heißen Ofen« nennt. Gleichwohl, es ist einer, wie letztlich auch der Taschenrechner einer ist. Nur eben ein kleinerer; und irgendwie sollte die bescheidenere Dimensionierung denn auch ruhig gleich im Namen zum Ausdruck kommen. Solch einen Namen gibt es. Es ist der sozusagen of- fizielle: Mikrocomputer. Er hat sogar den unschätzba- ren Vorzug, auf Deutsch und Englisch gleichermaßen zu funktionieren. Mikrocomputer heißen alle die kleineren

13

Rechner, die rund um einen einzigen Mikroprozessor ge- baut sind, das Herz … nein; das Gehirn … nein – derlei Metaphern versagen. Die Rede ist von der in einem do- minosteingroßen Chip untergebrachten Zentraleinheit, die die Hauptarbeit des Computers verrichtet, indem sie Zahlen nach algebraischen und logischen Regeln trans- formiert, also Befehle in elektrische Operationen um- setzt. Wörtlich also bedeutet Mikrocomputer »mit ei- nem Mikroprozessor ausgestatteter Rechner« und wäre völlig in Ordnung, wenn es so, wie es dasteht, nicht als »allerwinzigster Rechner« verstanden werden müßte, als »kleiner Bruder des Minicomputers«, der ja selber schon ein Winzling zu sein scheint, im Vergleich zum Mikro- computer aber ebenso ein Riese ist wie der Mikrocom- puter im Vergleich zum Taschenrechner. So mikro aber ist das Dingens nun wahrhaftig nicht mehr. Überhaupt fehlt die nomenklatorische Mittellage. Auf der einen Seite »Mikro-« und »Mini-«, auf der anderen gleich der »Groß-« (oder Mainframe) und der »Supercomputer«, und dazwischen nichts. De facto wird dieMittellageetwavondenmittelstarkenBürocomputern verkörpert, die als Minicomputer zwischen dem Mikro- und dem Großcomputer angesiedelt sind; ihrem Namen zufolge aber sind sie Miniatur. Dabei hat die Leistungsstärke von vornherein etwas höchst Relatives. Der Großcomputer von gestern ist der Minicomputer von heute und der Homecomputer von morgen. Die Leistung eines Rechners läßt sich grob in der Zahl der Rechenbefehle ausdrücken, die er pro Se- kunde verarbeitet. Der erste elektronische Computer war

14

der 1946 an der Universität von Pennsylvania entwickel- te legendäre ENIAC (Electronic Numerical Integrator and Calculator). Der ENIAC war im offensichtlichsten Sinne ein Riesending. Er arbeitete mit 18 000 Röhren und nahm eine Bodenfläche von 240 Quadratmetern ein, 15 mal 15 Meter. Mit dieser Statur schaffte er die stattliche Menge von 360 Multiplikationen oder gar 5000 Subtraktionen pro Sekunde; für die Rechenleistung, die er an einem einzigen Tag bewältigte, hätte ein Mensch sechs Jahre gebraucht. Ein Maß für die Leistung heutiger Rechner heißt »Mips« (Million instructions per second), Millio- nen Instruktionen pro Sekunde, oder auch »Megaflops« beziehungsweise »Mflops« (1 000 000 floating point ope- rations per second), Millionen Gleitkommaoperationen pro Sekunde. Es ist ein grobes und oft verspottetes Maß (Meaningless Information for Pushy Salesman, Sinnlose Information für aufdringliche Verkäufer), denn die tat- sächliche Leistung eines Computers hängt nicht nur da- von ab, wie viele Operationen ihre Zentraleinheiten in ei- ner gegebenen Zeit ausführen können. Als Anhaltspunkt aber mag es immerhin dienen. Mips und Mflops sollten nicht weit auseinanderliegen. Man darf sich überlegen, wie viele Sekunden man selber für eine einzige Flop, eine einzige Gleitkommarechnung allereinfachster Art benö- tigte, sagen wir: 3,6 mal 7. Die Leistung des ENIAC lag also bei weniger als ungefähr 0,005 Mips. Der schnell- ste Großcomputer aus der Mitte der siebziger Jahre, die Cray-1, nahm nur noch 2,4 Quadratmeter Grundfläche ein, leistete aber bis zu 200 Mflops. Die schnellste Vax (9000-410) bringt es auf 30 Mips; die Großrechnerfamilie

15

3090 von IBM auf 38 bis 102. Heute sind die Supercom-

puter in den Gigaflops-Bereich vorgestoßen: sie bewerk- stelligen sekündlich mehr als eine Milliarde Gleitkom- maoperationen. Der derzeit stärkste, die Cray Y-MP/832, leistet zwei Gigaflops – in ihm steckt mithin die Rechen- kraft von vierhunderttausend ENIACs: Zweieinhalb Mil-

lionen Jahre benötigte ein Mensch, um zu schaffen, was er an einem Tage schafft. NEC hat mit der SX-3 eine Ma- schine angekündigt, die gar 22 Gigaflops leisten soll. Eine Mips – zweihundertmal soviel wie der ENIAC

leistet selbst ein bescheidener PC der achtziger Jahre al- lemal; wofür er einen Tag braucht, brauchte ein Mensch

1200 Jahre. Ein besserer (ein im 20-Megahertz-Takt ar-

beitender mit 386er Prozessor) bringt es heute auf 4 Mips, und der PC mit 15 bis 20 Mips ist schon keine Zukunfts- musik mehr; in den Softwarelabors denkt man bereits an PCs mit 30 Mips und mehr. Mit »Mikrocomputer« hat man immerhin ein Wort für das Ding, und man wird sogar damit leben müssen; aber ein glückliches ist es nicht gerade. Was also böte sich noch an? Manche nennen es Tisch- computer. Tatsächlich steht es ja meist auf einem Tisch, während die Schränke, die Großrechner äußerlich bis in unsere Tage zumeist sind, gewöhnlich auf dem Boden stehen (aber schon stehen auch die ersten Großrechner schubfachgroß unterm Tisch). Nur stehen die größeren Exemplare der Mikrocomputer, in Gestalt sogenannter Towers, nicht auf, sondern unter dem Tisch. Und zwei- tens haben seine kleinsten Vertreter die gleichsam offizi- ellen Kosenamen »Laptop« oder – noch kleiner – »Hand-

16

held«, sozusagen also »Schoß-« oder »Handdings«, eben weil es ihre Bestimmung ist, auch nicht unbedingt auf dem Tisch, dem desktop stehen zu müssen. Das Wahre also ist auch dieser Name nicht. Aber haben sie denn nicht längst ihren Namen weg? Heißen sie nicht überall Personal Computer, kurz PC? Na, oder Jein. Jedenfalls fängt es mit den Schwierigkei- ten hier erst richtig an. Die eine, sprachliche, besteht darin, daß man das Wort unbedingt entweder übersetzen oder aber englisch aus- sprechen muß. Im einen Fall wird ein für den Dauerge- brauch arg umständlicher »Persönlicher Computer« dar- aus, im anderen ein hybrider »Pörsonällcomputer«. Tut man beides nicht, so deutet das Wort nämlich auf einen Computer fürs Personal, einen, der Personaldaten verar- beitet oder für die Benutzung durchs Personal bestimmt ist, nicht etwa für die Chefetage, und um so etwas han- delt es sich mitnichten.

Die Zeit des Personal Computer – anfangs als Spiel- zeug belächelt – begann – von heute, 1990, aus gesehen – vor einem guten Dutzend Jahren (länger ist das nicht her). Das Wort soll von Ed Roberts geprägt worden sein, Gründer der Firma MITS, die 1975 für einen Preis von 397 Dollar einen Computerbausatz namens Altair 8800 auf den Markt brachte, von dem an amerikanische Bast- ler tausend Stück verkauft wurden – der große Durch- bruch war es noch nicht. Der begann erst im Frühjahr 1977, mit Apfel und Schoßtier: mit dem Apple II der Firma Apple und dem Personal Electronic Transactor

17

von Commodore, der vor allem deshalb so hieß, weil er sich zu einem hübschen Akronym lieh: PET, Schoßtier- chen, Liebling. Es waren zwei Geräte, die bereits deut- liche Ähnlichkeit mit heutigen PCs hatten und in gro- ßer Zahl auf der ganzen Welt Verbreitung fanden. Beide Geräte wurden von Anfang an Personal Computer (eng- lisch) genannt. Denn sie waren für jene Technik-Freaks gedacht, die es leid waren, ihre Daten in Lochkarten zu stanzen und dann in den großen Rechenzentren zu war- ten, bis sie an die Riesenmaschinen vorgelassen wurden. Sie sollten eine Alternative haben: einen Computer ganz zu ihrem persönlichen Gebrauch. Ins Deutsche wäre er eigentlich als Privatcomputer zu übersetzen; man sagt ja auch nicht, jemand habe ein »persönliches Schwimm- becken« oder eine »Personal Yacht«. (Oder man sagt es noch nicht: Im Zuge der heimlichen Anglisierung der deutschen Sprache wird man es sicher bald sagen; man sagt ja inzwischen auch dauernd einmal mehr statt noch einmal, in Front statt vor, harte Arbeit statt schwere, kon- trollieren statt im Griff haben und findet gar nichts mehr dabei.) Ende 1981 dann nahm sich die Firma IBM jenes Pri- vatrechners an und brachte ihren sogenannten PC her- aus. Immer wieder kopiert und dabei immer billiger wer- dend, setzte er fortan die Norm (den »Industriestandard«) und führte zu einer Flutwelle von Softwareentwicklun- gen, die ihn schnell weit über den »persönlichen« Be- reich hinaus trugen. Mit dem Siegeszug der IBM-Norm aber und des ihr zu- grundeliegenden Betriebssystems (MS-DOS) wurde der

18

Begriff »Personal Computer« immer mehr zu einem Syn- onym von »IBM-kompatibler MS-DOS-Computer«. Und was dieser Norm nicht folgt, wird heute gar nicht mehr als PC angesehen, sondern als etwas Niederes, ein Spiel- zeug; gerade, daß Apples Macintosh noch im exklusiven, einförmigen Club der PCs geduldet wird. Aber wer sich für einen der außenseiterischen Com- puter (etwa die ST-Serie von Atari oder den Amiga von Commodore) entschlossen hat, deren objektive Leistungs- merkmale denen der »echten« PCs nicht nachstehen, sie in manchen Fällen übertreffen, der sieht sich nun an et- was Namenlosem sitzen.

TE XTCOMP.DOC

Die Elektrifizierung des Schreibens

»Nach ihrer Numerierung waren Befehle, Axiome, kurzum Sätze ebenso grenzenlos manipulierbar wie Zahlen. Ende von Literatur, die ja aus Sätzen gemacht ist.« Friedrich Kittler

»Als der Kugelschreiber erfunden wurde, hat doch auch kein Mensch das Ende der Kultur geweis- sagt.« Diskussionsbeitrag

Der Computer als Textverarbeitungsmaschine, als »Wort- prozessor« ist nicht einfach ein neues Schreibgerät, wie es der Füllfederhalter und der Tintenkuli und der Ku- gelschreiber zu ihrer Zeit waren; selbst der Vergleich mit der Schreibmaschine wird ihm nicht gerecht. Als ein neumodischer Gänsekiel läßt er sich nicht ausgeben. Fragt man die, die mit ihm arbeiten, was sie denn ei- gentlich an ihm haben, so hört man Elogen wie: Es lasse sich mit ihm so wunderbar leicht im Text korrigieren; er mache es einfach, beliebige Textpassagen zu entfernen, einzufügen und hin und her zu bewegen; er fertige einem ohne Murren auch die xte Reinschrift und vertippe sich dabei kein einziges Mal … Alles dies ist richtig. Er hilft auf vielerlei Art beim Manipulieren von Text. Den Kern der Sache trifft es nicht. Der Computer ist nicht nur ein Werkzeugkasten, eine Schreibgarnitur. Er ist ein neues Trägermedium für Text – und zwar eines, das sich von allen herkömmlichen grundlegend unterscheidet. Solange Menschen schreiben, ritzen und kratzen sie ihre flüchtigen Symbole in Stein, schnitzen sie in Holz, knoten sie in Schnüre, färben sie in Rinden und Häute und schließlich in jenen abgeschöpften und gebleichten

23

Holzauszug, der Papier heißt. Seit vor fünftausend Jah- ren in Sumer die Schrift erfunden wurde, heißt Schrei- ben irgendeinen materiellen Gegenstand bleibend, meist unauslöschlich verändern. Wo immer geschrieben wur- de, gab es zwar auch Techniken, das Geschriebene wieder zu beseitigen, vom Schabemesser über den Radiergummi bis zum hocherfreulichen, wenngleich ungesunden Tipp- Ex; aber was einmal geschrieben war, ließ sich nur schwer wieder tilgen, wie jeder weiß, der sich noch mit einem Messerchen über einen leider nur nahezu vollkommenen Bogen hergemacht und dann doch ein Loch hinterlas- sen hat. Allem Geschriebenen kam immer eine gewis- se Endgültigkeit zu: Gesagt ist gesagt, und geschrieben ist geschrieben; was steht, das steht, man soll es lassen stahn; »wer schreibt, bleibt; wer spricht, nicht« (Robert Gernhardt). Im Gewoge des Kopfes entstanden, lenkten die Symbole die Bewegungen der Hand, um dann im Material zu stehen zu kommen und ein für allemal zu erstarren. Der Advent des Schreibcomputers hat dieser scheinbar ehernen Selbstverständlichkeit ein Ende gemacht. Er ist ein Medium, wie es noch keines gab – eins, das sich zwi- schen Kopf und Material schiebt. Man schreibt in den Computer wie auf Papier, aber das Geschriebene bleibt zunächst weiter so immateriell, wie es vorher als Gedanke war. Es ist, als wäre der Computer ein Annex des Geistes, einer mit einem übermenschlichen buchstabengetreu- en Gedächtnis, der das Ausgedachte fehlerlos verwahrt – aber so verwahrt, als hätte es den Kopf noch nicht ganz verlassen, so daß man weiterhin beliebig eingreifen und

24

alles nach Lust und Laune umdenken und umschreiben kann. Das Geschriebene gibt es dann schon, aber vorerst nur in einem unsichtbaren, gedankengleichen Medium, als Wortlaut an sich und noch ohne materielle Gestalt, ohne bestimmtes Aussehen. Erst ein zweiter Vorgang, vom Schreiben deutlich abgehoben, gibt dem bisher nur virtuellen Text eine Gestalt, viele, immer wieder verän- derbare Gestalten – auf dem Bildschirm, als Ausdruck auf Papier, aber man könnte sich seinen Text auch vor- sprechen oder vorsingen lassen, wenn auch aus techni- schen Gründen einstweilen nur notdürftig. Die Vorteile für den Schreibenden sind so enorm und so offensichtlich, daß es all der weiteren, die noch zu- sätzlich abfallen, gar nicht bedürfte, damit der Computer als Schreibzeug sich durchsetzt. Der Prozeß ist in vollem Gange. Wenn ein Schriftsteller heute das Schreckensbild des Verlages malt, der den gebeutelten Autor verurteilt, »Disketten abzuliefern vom Personal Computer«, der »das maschinenlesbare Manuskript erzwingt« (so vor weni- gen Jahren Hermann Peter Piwitt), dann führt er das Lamento von gestern. Die Situation hat sich längst ver- kehrt. Heute lautet die Klage der Autoren öfter, daß die Verlage ihre Disketten nicht akzeptieren mögen. Es spielt auch keine Rolle mehr, daß das maschinenlesbare Ma- nuskript den Verlagen Satzkosten – genauer: Texterfas- sungskosten – spart und die Autoren eigentlich verlan- gen könnten, daß ein Teil der Ersparnis an sie weiterge- geben wird. Sie werden auf den Textcomputer nämlich auch dann umsteigen, wenn ihnen seine Anschaffung mit keinem Pfennig vergolten wird, einfach weil sie sich

25

seine Hilfe nicht entgehen lassen wollen. Das Bundesfor- schungsministerium ließ in den Jahren 1986/89 untersu- chen, welche Aussichten das »Elektronische Publizieren« hat. Während recht unklar blieb, ob es überhaupt größere Aussichten hat, wurde um so klarer, daß das »Elektroni- sche Schreiben« nicht nur eine Zukunft, sondern schon eine Gegenwart hat. Eine großangelegte Rundfrage unter Fach- und Sachautoren, welche jene Expertengruppe am Kernforschungszentrum Karlsruhe veranstaltete, ergab, daß 1987 bereits ziemlich genau jedes zweite Manuskript am Wortprozessor entstanden war. Das Altersgefälle da- bei war steil: bei den unter Dreißigjährigen schrieben 75 Prozent am Computer, bei den über Sechzigjährigen nur 13. Die Belletristen stehen dem neuen Ding wie zu er- warten mißtrauischer gegenüber: Von den 48, die 1987 auf eine Rundfrage des Marbacher Literaturarchivs ant- worteten, benutzten es nur 6. Aber auch bei ihnen ist die Tendenz steigend. Als das ›Zeitmagazin‹ 1990 eini- ge Belletristen nach ihren Schreibgewohnheiten befragte, bekannte sich selbst eine Lyrikerin zum Computer, auf dem sie ihre mit feinem Filzstift entworfenen Gedichte weiterbearbeitet. Ulla Hahn: »Der Computer [erleichtert] mir alle mechanischen Arbeiten wie Korrekturen, Ab- sätze umstellen etc. Beschleunigt wird jedoch auch die Distanzierung vom eigenen Text, und damit Überprü- fungen und inhaltliche Korrekturen.« Viele Belletristen aber werden ihn nie benutzen, nicht nur aus Abneigung gegen jede Technisierung ihres Beru- fes, sondern weil er sich für sie einfach nicht lohnt. Es hat sich herumgesprochen, daß Computer nicht nur ziem-

26

lich teuer sind (vor allem »hinterher«, wenn man daran geht, seiner Ausrüstung die Schwächen auszutreiben, von denen man nichts ahnen konnte, als man sich das erste Mal auf diese Branche einließ), sondern daß sie am An- fang auch nicht etwa Zeit sparen, sondern eine Menge Zeit kosten. Der Lyriker oder Miniaturist, der nur gele- gentlich ein paar Zeilen zu Papier bringt, müßte gera- dezu ein Narr sein, ein Computer-Narr, die aufwendi- gen Dienste der Symbolmaschine in Anspruch zu neh- men. Er wird mit dem Bleistift bestens bedient bleiben. Die Gefahr, daß ihm je ein Verlag das maschinenlesba- re Gedicht, den digital abgespeicherten Aphorismus ab- verlangt, droht in aller voraussehbaren Zeit wahrhaftig nicht. Und sollte ein Verlag es je verlangen, so täte der Dichter gut daran, ihn schleunigst zu wechseln – denn es wäre dies ein Beweis dafür, daß der Verlag den Na- men eines solchen nicht verdient, sondern eine bloße Vertriebsstation ist und mit den Inhalten seiner Bücher nicht das mindeste zu schaffen haben will. Aber durch wessen Hand größere Mengen faktenreicher Texte gehen, dem hilft die Wortmaschine, und er wird es nicht mit der Schreib- und Redigiererleichterung bewen- den lassen wollen, die sie ihm bringt. Er hat ein Interes- se daran, daß sein auf dem Computer geschriebener Text auch genau der Text ist, der gedruckt wird, ASCII-Zei- chen für ASCII-Zeichen, und nicht zwischendurch noch von anderen abgeschrieben werden muß, denn bei jedem Abschreiben schleichen sich unvermeidbar Fehler ein. Computer andererseits geraten zwar manchmal in ab- sonderliche Zustände und tun dann furchtbare Dinge

27

(meist allerdings nicht ohne Zutun ihres Benutzers), aber sie verlesen und verschreiben sich seltsamerweise nie. Der Autor darf sich darauf verlassen, daß Namen, Zahlen, Register, Bibliographien, Anführungszeichen haargenau bleiben, wie er sie geschrieben hat; die langwierigen und langweiligen, in heiklen Fällen mehrmaligen vergleichen- den Korrekturgänge lassen sich durch die elektronische Weitergabe der Texte drastisch abkürzen. Wenige Au- toren werden der Möglichkeit widerstehen können und wollen, diesen unangenehmsten und unproduktivsten, aber unerläßlichen Teil ihrer Arbeit los zu sein und mit weniger Aufwand zu einem zuverlässigeren Endergeb- nis zu kommen. Sie werden auch dann darauf drängen, wenn sie allein die Kosten tragen müssen. Der Siegeszug des Textcomputers wäre darum nur aufzuhalten, würde der ganzen schreibenden und lesenden Welt ein für al- lemal der Strom abgestellt. Das ist die Lage. Und ist es denn gut so? Was wird ge- wonnen? Was geht verloren? Wer öfter mit Computergeschriebenem zu tun hat, wer zum Beispiel Computerhandbücher oder Computerzeit- schriften liest, die in aller Regel auch am Computer ent- standen sind, wird, sofern er überhaupt noch vergleichen kann, gewisse Makel bemerken, geradezu einen Quali- tätssturz. Ein computergeschriebener Text ist am schnellsten an seinen Trennfehlern zu erkennen (Lo-uvre, bei-nhal- ten), die nicht ausbleiben können, wo ein Algorithmus (eine eindeutige ausführbare Handlungsanweisung) und nicht ein Mensch die Worttrennung am Zeilenende be-

28

sorgt, denn erstens ist keine natürliche Sprache völlig lo- gisch, und zweitens muß sich der Schreibende aus ande- ren Gründen immer wieder über ihre formalen Regeln hinwegsetzen: Sie zwar erlauben Trennungen wie Bluter- guß, Kerne-nergie, Mieter-trag, aber da diese den Leser auf Abwege locken, sind sie tunlichst zu vermeiden. Die Zahl der Tippfehler in computergeschriebenen Tex- ten überschreitet oft alles Gewohnte. Vielfach sind es mehr als bloße Tippfehler: Das Gefühl für Rechtschrei- bung überhaupt scheint sich aufzulösen – womit der Com- puter doch noch zuwege brächte, was die »68er« Reform- pädagogen nicht geschafft haben. Zum Beispiel ist vielen dieser Schreiber offenbar nie zu Ohren gekommen, daß zusammengesetzte Substantive wie Echtzeit Uhr oder An- wender Tip im Deutschen eigentlich zusammengeschrie- ben werden, und wenn, wäre es ihnen auch egal. Für der- lei Fehler ist allerdings auch nicht indirekt der Compu- ter verantwortlich zu machen; ihre Häufung in Texten bestimmter Sorten geht einfach darauf zurück, daß sie von Leuten verfaßt werden, die nur umständehalber und widerwillig in die Autorenrolle schlüpfen mußten, Fach- leuten für Informatik oder Mikroelektronik. Auf einer etwas höheren Ebene finden sich zuhauf Sätze, die eigentlich keine sind, zum Beispiel, weil sie ein gram- matisches Konstituens doppelt enthalten: »Der Benutzer braucht sich der Benutzer nicht mehr verrenken …« – un- trügliches Zeichen, daß niemand sich diesen Satz vor der Veröffentlichung noch einmal genau genug angesehen hat, auch sein Autor nicht. Hier trägt der Computer einen Teil der Schuld: Er macht es leicht, Sätze umzustellen, und

29

leicht auch übersieht der Schreiber dann am Bildschirm, daß er ihre durch die Umformulierung überflüssig ge- wordenen Bestandteile nicht restlos gelöscht hat. Computererzeugte und nicht noch einmal »von Hand« bearbeitete Register sind in aller Regel völlig unbrauchbar. Der Computer versammelt nur eine Liste von Wörtern, die im laufenden Text eigens markiert wurden, und setzt dann automatisch die dazugehörige Seitenzahl dazu. Da aber die Begriffe, von denen die Textpassagen handeln und nach denen der Benutzer dann sucht, oft gar nicht als markierbare Wörter vorkommen, sondern nur »ge- meint« sind, der Computer aber keinen Detektor für Mei- nungen besitzt, tauchen sie in dem automatisch erstellten Register nie auf. Brauchbar ist ein Register nur, wenn es vom Benutzer aus gedacht ist: Unter welchen Stichwör- tern würde er suchen, wovon dieser oder jener Textpas- sus handelt? Eine bloße Auflistung einiger im Text ver- wendeter Wörter macht noch lange kein Register. Eins meiner Handbücher muß man von vorn bis hinten durch- suchen, um Antwort auf die simple Frage zu bekommen, wie denn nun Sonderzeichen zu erzeugen sind; das Stich- wort fehlt im Register, zusammen mit Dutzenden ande- rer. Warum? Weil an der betreffenden Textstelle origi- nellerweise von »besonderen Zeichen« die Rede ist und der Autor natürlich weder das Wort »besonderen« noch »Zeichen« markierenswert gefunden hatte. Der Compu- ter scheint ein mächtiges Werkzeug bereitzustellen, das dem Autor die leidige Mühe der Register-Erstellung ab- zunehmen verspricht, und nur zu gern glaubt der dem Versprechen. Das Ergebnis ist fast immer unzulänglich,

30

und meist wäre gar kein Register besser als eines, das dem Computer überlassen blieb. Auf der inhaltlichen Ebene Wiederholungen, Auslas- sungen, Non-sequiturs oder die bare Unbildung (Botti- cellis Venus, die bei der Demonstration einer Grafik-An- wendung dem Meer entsteigt, firmiert unfehlbar als die Venus von Milo); auf der typographischen Ebene pri- mitive Umbruchfehler (Absatzausgänge am Anfang ei- ner Spalte – »Hurenkinder« also, und Zwiebelfische erst recht), dilettantische Seitenspiegel, willkürliche Absätze, beleidigende Schriftenkombinationen (Fehler, die nicht ausbleiben können, wo Laien mit einem Desktop-Publis- hing-Programm auch die typographischen Fachkennt- nisse eingekauft zu haben glauben, die zu seiner richtigen Bedienung eigentlich nötig wären) – es sieht so aus, als sei das Reich des doch so genauen Computers das Reich hemmungsloser (sprachlicher und nicht nur sprachli- cher) Schluderei. Die Macher der Hard- und Software machen es vor. Der Macintosh mit seinem intellektuellen Image begrüßt sei- nen Benutzer mit der Formel »Willkommen zu Macin- tosh«. Daß das plebejische, wenngleich ingeniöse Text- programm, mit dem ich jahrelang schrieb, mir bei je- dem Einschalten mit der Anzeige »Drucker Installiert:« kam, wo es »Angeschlossener Drucker:« oder meinetwe- gen »Installierter Drucker:« meint, daran hatte ich mich noch nach Monaten nicht gewöhnt. Die Firma, die da- für verantwortlich war und ihre Kunden mit Nachrich- tenboxen wie »Diese Anwendung kann das angespro- chene Objekt nicht finden« erfreut, hat sich nie daran

31

gestoßen; ohne Selbsthilfe wäre der Fehler nie behoben worden. Doch sogar ein so hochvornehmes Programm wie MS-Word mutet seinen Anwendern von Update zu Update die ständige Ermahnung Bearbeiten Sie bitte Ih- ren Text oder unterbrechen Sie zum Hauptbefehlsmenü! zu, sagt Quitt, wo es Ende meint, verdeutscht den Pro- grammbefehl GOTO mit Gehezu, bis man selber versucht ist, gehe! für den Imperativ von gehen zu halten, und nö- tigt den Anwender beim Gang durch seine vielen Schach- telmenüs, die simple Funktion »Text speichern« in einer Schachtel namens Übertragen zu suchen, wo er sie unter dem Namen Alles-speichern findet. Auch noch ein sprach- lich relativ sorgfältig gemachtes Textprogramm wie Xy- Write (Euroscript) bietet Kauderwelsch wie Überblick der Textseite, mit der Unterzeile Was die Seitenlänge bein- flußt. Das sind keine seltenen Entgleisungen, das ist die triste Regel. Wesentlich unbedarftere Firmen offerieren dem Autor dann großartige Werkzeuge, Korrekturpro- gramme (»Tipppfeleren Sie jetzt nach Herzenslust«), Syn- onymwörterbücher, »das treffende Wort« auf elektrisch, gar Sprachübersetzungsprogramme, die näher besehen dann noch nicht einmal für den Kindergarten taugen. Sie sind wahrhaft ahnungslos. Kühn bewegen sie sich in ei- ner Welt, die ihnen fremd ist. Sie ahnen nicht im mindesten, wieviel Überlegung, In- telligenz und hartnäckigster Fleiß nötig sind, etwa ein gutes Synonym- oder Fremdsprachenlexikon aufzubau- en (das dann immer noch sinnvoll auf den Computer zu verpflanzen bliebe). Selbst eine simple Liste richtig ge- schriebener Wörter, anhand deren der Computer Tipp-

32

fehler erkennen kann, ein Spellingchecker also, brauch- te ein paar Gedanken vorweg und dann sehr viel mehr »Mannstunden«, als sich viele Software-Häuser träumen zu lassen scheinen. Die Werbung behauptet regelmäßig etwas in der Art:

Der Computer erspart Ihnen stupide Routinearbeit, und die so gewonnene Zeit können Sie für eine kreative, pro- duktive Arbeit an Ihren Texten verwenden. Könnte man, tun aber die wenigsten. In der Praxis verleitet der Com- puter oft nur dazu, die Texte noch eiliger, noch flüchti- ger, noch unkontrollierter abzufertigen. Seine Schuld ist es nicht, aber Menschenart. Natürlich, der Computer als Schreibgerät für alle ist noch ein ganz neues Instrument. Es dauert seine Zeit, bis eine mächtige neue Technik sich mit den ihr gemäßen neuen Symbolen und Konventionen, mit Inhalten, mit Stil, mit Ästhetik, mit Geist gefüllt hat. Zuerst ist sie im- mer leer, ein bloßes Versprechen. Auch ist jener Qualitätssturz natürlich oft nicht die Schuld des Computers an sich, sondern die seiner Be- nutzer. Oder doch – da er sich zu dieser Art von Benut- zung leiht, da er geradezu dazu einlädt. Ein Hauptgrund für das sintflutartige Anschwellen der Computerliteratur ist wohl der, daß die Maschine, die da im Mittelpunkt steht, vorzugsweise jene Intelligen- zen anzieht, die sich früher als Radiobastler oder Ama- teurfunker hervorgetan hätten – und von Literaten ins- geheim für Analphabeten gehalten werden. Die Jungs von der Fensterbank, die in Deutsch immer eine Vier hatten, aber unbegreifliche Wunder wirkten, wenn sie

33

mit dem Multimeter Spannungen an Ein- und Ausgän- gen abgleichen konnten, finden sich plötzlich als Exper- ten am Schreibtisch, sind Autoren und Redakteure und

Chefredakteure gar, dazu berufen, einem gebannten Pu- blikum geschriebene Kunde zu bringen von den Inne- reien ihrer hochkomplizierten Maschine – und so liest es sich dann auch. Im übrigen aber ist es eben die Leichtigkeit, welche das Schreiben, Edieren und Publizieren durch den Compu- ter bekommt, die dem Pfusch Tür und Tor öffnet. Ent- gegen einem verbreiteten Vorurteil wissen wir spätestens seit den eingehenden psychologischen Studien von Sher- ry Turkle, die sie in ihrem Buch »The Second Self« (Die Wunschmaschine) festgehalten hat, daß der Computer den Geist seiner »User« keineswegs normt, keineswegs standardisiert, sondern daß jeder seine ureigene Art hat, mit ihm umzugehen, sich durch ihn auszudrücken. Unter den Computerschreibern scheint es mir nun aber zwei Haupttypen zu geben. Der eine scheut sich, eine so teure und anspruchsvolle Maschine mit seinen krau- sen Augenblickseinfällen zu behelligen; er schreibt ih- rem Gedächtnis nur ein, was relativ fertig ist, und nutzt die Möglichkeiten der Maschine dann vor allem, um das Geschriebene dem ihm gegebenen Perfektionsgrad na- hezubringen. Der andere ist berauscht von einem neu- en Freiheitsgefühl: Das Ding ist nicht nur ein einzigar- tig widerstandsloses Schreibgerät, es geht dem Geschrie- benen auch jene relative Endgültigkeit ab, die noch jede Fassung auf Papier hatte, es läßt sich also nach Belieben

immer und immer wieder ändern, mañana, später

34

Er

schreibt also drauflos, was ihm durch den Sinn huscht, fast kommt es ihm vor wie die erste wahre écriture auto- matique, gegen die der Widerstand, die Langsamkeit des Materials sich früher immer noch sperrte. Und unverse- hens hat der Textcomputer dem Inhalt seiner Schmierzet- tel eine würdige Schriftart verpaßt, hat der Laserdrucker es aufs edelste zu Papier gebracht, und da steht es dann, und der Leser reibt sich die Augen. Dies also sind die Gründe für jenen Qualitätssturz:

Erstens: Einer tippt etwas vor sich hin, was in der Ära des Papiers allenfalls die erste rohe Skizze gewesen wäre; der Computer gibt es ihm aber auf Wunsch jederzeit in einer kostbaren Form aus, die früher allein vollendeten und wieder und wieder kontrollierten Texten vorbehal- ten war. Leicht täuscht dann die äußere Perfektion über die innere Unfertigkeit hinweg. Zweitens: Da alles, was vom »System« erfaßt ist, mit ein paar Handgriffen bis zur Veröffentlichung weiterbe- wegt und weiterverwandelt werden kann, bleibt der er- ste wirkliche Arbeitsgang – das Schreiben – oft auch der letzte. Gutachter, Lektoren, Redaktoren, Setzer, Metteure, Korrektoren – all die Qualitätskontrolleure, die früher ein Manuskript in den Druck geleiteten und ihm eine professionelle Form gaben, können eingespart werden, und oft werden sie es. Drittens: Sach- und Fachtexte werden meist unter Ter- mindruck und in der Hektik eines zerstreuten Büros ge- schrieben. Sie sind zudem oft anonyme Produkte, die kei- nem als Einzelwesen vorhandenen Autor zugerechnet wer- den – da wird man an ihnen doch nicht feilen, als wolle

35

man einen Literaturpreis dafür verdienen. Der Computer erlaubt es, sie fixer denn je in die Tasten zu hauen. Nichts davon muß so sein. Ich denke zwar nicht, daß die Menge des anfallenden Textschutts jemals weniger werden wird. Aber ich möchte annehmen, daß dieser die Ansprüche der Leser nicht aufweichen und aufhe- ben wird; daß der überhandnehmende Ramsch bei vie- len von ihnen sogar ein großes Bedürfnis nach Qualität wachruft. Diese werden das Durchdachte und Formulier- te und handwerklich sauber Gearbeitete – gegen das der Computer sich ja keineswegs sträubt, das er vielmehr er- finderisch unterstützt – zu erkennen und mit ihrer Auf- merksamkeit zu belohnen wissen und das andere auf die Halde kippen, wo es hingehört. Und wo sich das herum- spricht, wird es die Computersudelei bremsen. Eine altehrwürdige Kulturtechnik im Umbruch – lang- sam ruft es nun auch die Medien- und Kulturtheoreti- ker auf den Plan. Der Medientheoretiker Friedrich Kittler (»Grammo- phon Film Typewriter«) zum Beispiel, der es fertigbringt, schon die Schreibmaschine irgendwie als eine nicht ganz geheure militaristische oder sexistische Errungenschaft hinzustellen, ist dem Computer natürlich erst recht nicht gewogen. Kittler scheint allen Ernstes zu meinen, er ma- che menschliches Denken überflüssig. »Die Konstrukti- on des Golems jedenfalls ist perfekt. Speichermedien der Gründerzeit konnten nur Auge und Ohr, die Sensorien des ZNS (Zentralnervensystems) ersetzen, Übertragungs- medien der Zwischenkriegszeit nur Mund und Hand … Das sogenannte Denken blieb Denken, also nicht zu im-

36

plementieren. Dazu mußte Denken oder Sprechen erst vollständig in Rechnen überführt werden … Compu- ter schreiben selber, ohne Sekretärin, einfach mit dem Kontrollbefehl WRITE … Nach ihrer Numerierung wa- ren Befehle, Axiome, kurzum Sätze ebenso grenzenlos manipulierbar wie Zahlen. Ende von Literatur, die ja aus Sätzen gemacht ist.« Was ist davon zu halten? Stolz, eine derart anspruchs- volle Maschine erst hundertmal nicht und dann doch zu meistern, haben manche Computer-Novizen in der An- fangsphase zwar zuweilen das Gefühl, all das Tastendrük- ken sei viel interessanter und wichtiger als das Schreiben selbst. So vieles kann man plötzlich machen: Sätze, Ab- sätze umstellen, beliebige Passagen löschen und, wenn man es gleich danach bereut, dann doch wieder herbei- zaubern, den Text zu schmalen oder zu breiten Spalten ordnen, eine Stelle fetten und beim zweiten Nachden- ken dann doch lieber kursiv machen, verschiedene Tex- te ineinander mischen, die Wörter durchzählen oder in alphabetischer Folge auflisten lassen; unter den meisten Tasten der Eingabetastatur verbergen sich nicht nur die Zeichen, die sichtbar auf der Kappe stehen, sondern, wenn man sie mit anderen Tasten kombiniert, weitere Funk- tionen zuhauf, die in ihren Wirkungen auch nur zu er- kunden Tage oder Wochen brauchte. Es scheint alles sehr viel Aufmerksamkeit zu verlangen; es ist auch spannend. Wer je in die Lage kam, sein Textprogramm selber an ei- nen bestimmten Drucker anzupassen, weiß, wie schnell eine Nacht vergeht, in der man im Druckertreiber ein Byte bald hier, bald da umsetzt und dann den Effekt

37

ausprobiert – es ist wie ein Videospiel, ein Text-Adven- ture. Dieser anfängliche Computerrausch gibt sich aber schnell. Alsbald nämlich macht man die Entdeckung, daß der Computer selber gar nichts schreibt. Er bietet nur eine Schreibfläche. Vielleicht stehen ein paar Wör- ter und Icons auf deren Rahmen, aber sie dienen nur der Handhabung. Die Schreibfläche selber ist vollkommen leer. Der Computer steuert zu dem, was darauf zu ste- hen kommen soll, nicht das allergeringste bei. Er wartet, wie das leere Blatt Papier wartet. Kittlers so gewichtig auftretende Kritik verrät vor al- lem, daß er selber keine Ahnung hat; daß die technischen Einzelheiten, die er zuweilen seitenlang referiert, nur ir- gendwo abgeschrieben sind und die Aufgabe haben, dem Leser zu imponieren. Computer schreiben eben keines- wegs selber, und schon gar nicht auf den »Kontrollbe- fehl WRITE« hin. Den »Kontrollbefehl WRITE« gibt es gar nicht. Was es gibt, ist eine WRITE-Instruktion oder ihr Äquivalent in den Programmiersprachen, die aber den Computer mitnichten dazu bringt, selber zu schrei- ben, sondern nur dazu, einen Text, dem man ihm vor- her Zeichen für Zeichen mitgeteilt haben muß, auf dem Bildschirm zu zeigen. Das Wort »Schreiben«, das hier in den Programmiersprachen auftaucht, hat mit dem Begriff »schreiben« der natürlichen Sprache wenig gemein. Für die bequeme Programmierung des Computers muß ver- einbart werden, daß bestimmte Tastendrücke, bestimm- te Zeichenfolgen also, bestimmte Aktionen auslösen. Für die Auslösung der Aktion »Bildschirmanzeige eines Tex- tes« wurde in etlichen Programmiersprachen eine Zei-

38

chenfolge gewählt, die dem natürlichen Wort write gleicht, nicht weil der Computer irgend etwas selber »schriebe«, sondern lediglich als mnemonisches Hilfsmittel für den Programmierer; WRITE merkt er sich halt leichter als PRX*/QQXyÜ, was es ebensogut sein könnte. »WRITE« ist auch kein »Kontrollbefehl«. Das Wort »Kontrollbe- fehl« scheint Kittler aus einem ganz anderen Zusammen- hang zugeflogen zu sein. Das altgediente Textprogramm Wordstar wird im wesentlichen so gesteuert, daß jeweils die Taste »Control« und dann ein oder zwei Buchstaben gedrückt werden. Controltaste gedrückt halten, K und S tippen – das beispielsweise befiehlt dem Computer, einen Text abzuspeichern; Control plus OJ heißt: ab hier Block- satz – und so weiter (es ist kein leicht zu lernendes Text- programm) . Auch wenn sich der »Kontrollbefehl WRI- TE«, der menschlicher Literatur den Garaus machen soll, noch so dräuend anhört: Kittler könnte jedem beliebi- gen Computer in jedem beliebigen Zustand noch so oft WRITE eintippen: Es täte sich schlechterdings nicht das mindeste. Er verwechselt sowieso dauernd das »Schrei- ben« im Sinne der Schöpfung eines sprachlichen Gebildes mit dem bloßen mechanischen Hinschreiben, der »Tex- terfassung«. Aber sein »Kontrollbefehl WRITE« bewirkt noch nicht einmal dieses. Er erlaubte noch nicht einmal Kittlers Sekretärin die Kaffeepause. Und dann die Logik. Daß eine Rechenmaschine Zahlen manipuliert, meinetwegen auch »grenzenlos«, war nicht das Ende der Mathematik, die sich nicht in der Mani- pulation von Zahlen erschöpft. Es war noch nicht ein- mal das Ende der Mathematik, daß die Rechenmaschine

39

mathematische Beweise führen konnte. Noch weniger ist es das Ende der Literatur, daß die Maschine »Sätze ma- nipuliert«. Warum überhaupt Sätze? Literatur ist nicht gleichbedeutend mit Sätzen; ebensogut könnte man sa- gen, Literatur bestehe aus Wörtern oder Seiten oder fei- nen Strichen. Und der Computer manipuliert gar keine »Sätze«; er manipuliert Symbole, und im Falle von Text- programmen bedeuten diese Symbole alphanumerische Zeichen. Daß der Computer »Sätze« manipuliere, soll suggerieren, daß er Aussagen, Propositionen manipuliere; daß er also irgendwie in den Sinn des Geschriebenen ein- greife oder diesen gar eigenmächtig erzeuge. Genau dies aber tut er nicht. Auch daß er inwendig Buchstaben als Dualzahlen behandelt, überführt kein Denken und For- mulieren in einen Rechen Vorgang. Es ist nicht das Ende der Musik, daß die wabernden Klänge der »Götterdäm- merung« auch als Spannungsschwankungen oder Wel- lenlinien auf der Langspielplatte existieren, wie es nicht ihr Ende ist, daß sie aus Luftschwingungen besteht oder sich in Noten ausdrücken läßt. Es ist nicht das Ende der Literatur, daß schriftliche Aussagen vom Rechner binär oder sonstwie codiert werden, wie es nicht ihr Ende war, daß sie aus Wörtern und diese aus Buchstaben und diese letztlich aus Farbmolekülen bestehen. Im übrigen sind auch Gedanken auf ihrer untersten Ebene Salven von Nervenimpulsen, also elektrischen Signalen, auch wenn sie selber von denen nichts wissen. Mir geht es angesichts eines Computers genau umge- kehrt: Ich staune immer wieder aufs neue, wie mensch- licher Intellekt es zuwege gebracht hat, so viele Hand-

40

lungsanweisungen, die unser Gehirn erteilt, von der Manipulation von alphanumerischen Zeichen bis zum Rechnen, Zeichnen, Malen, der Erzeugung von Tönen und so manchem anderen, immer weiter zu abstrahie- ren, bis sie sich durch wenige einfache logische Operatio- nen an nicht mehr als zwei Symbolen darstellen ließen. (»Das Erstaunliche an Computern ist«, schrieb der ame- rikanische Philosoph John R. Searle, »daß sich jede in ei- ner Sprache ausdrückbare Information in einem solchen System codieren und jedes Problem der Informations- verarbeitung, das mit expliziten Regeln lösbar ist, damit programmieren läßt.«) Und es beeindruckt mich, daß je- des Programm nicht nur bestimmte Arbeiten mehr oder weniger gut erledigt, sondern daß ihm darüber hinaus auch eine Ästhetik eigen ist, die mich je nachdem sym- pathisch berührt oder abstößt. Der progressive Medienkritiker beruft sich auf den konservativen, auf eine neuerdings oft zitierte Stelle aus Heideggers Parmenides-Vorlesung von 1942: »Das ma- schinelle Schreiben nimmt der Hand im Bereich des ge- schriebenen Wortes den Rang und degradiert das Wort zu einem Verkehrsmittel. Außerdem bietet die Maschi- nenschrift den Vorteil, daß sie die Handschrift und damit den Charakter verbirgt.« Ohne Zweifel, der nicht hand- schriftliche Text büßt durch die Maschine etwas von sei- ner »persönlichen Note« ein (könnte sie aber gerade durch die großen typographischen Gestaltungsmöglichkeiten des Schreibcomputers nun teilweise wieder zurückgewin- nen). Aber Heidegger mochte sich auf eine Abwägung von Vor- und Nachteilen nicht einlassen; sie wäre für

41

ihn wohl schon Verrat gewesen, Verrat am Wesen des Menschen. Wieso gehört es zum Wesen des Menschen, mit der Hand zu schreiben? Darauf weiß der konserva- tive Philosoph keine andere Antwort als: weil es bisher doch immer so war. »Der Mensch selbst ›handelt‹ durch die Hand; denn die Hand ist in einem mit dem Wort die Wesensauszeichnung des Menschen. Nur das Seien- de, das wie der Mensch das Wort (mythos) (logos) ›hat‹, kann auch und muß ›die Hand‹ ›haben‹.« Dem könnte man respektlos entgegenhalten, daß der Mensch an der Schreibmaschine oder vorm Computer schließlich auch nicht mit dem Fuß oder einem ande- ren nichtswürdigen Körperteil schreibt, sondern wie eh und je mit der Hand »handelt«. Und wer das etymologi- sierende Philosophieren ernst nimmt, könnte erwidern, daß man es bei Schreibmaschine und Computer mit »Ta- sten« einer »Tastatur« zu tun hat, auf denen man mit der Hand tastend handelt. Aber damit mag es auf sich haben, was es will – jedenfalls ist das menschliche Vermögen, Werkzeuge zu ersinnen und zu gebrauchen, ein sehr viel charakteristischeres Wesensmerkmal als der Gebrauch einer geschickten Hand. Anders als Kittler bleibt der amerikanische Philosoph Michael Heim auf dem Teppich. »Electric Language« heißt sein Buch, »Elektrische Sprache«. Seine Grundthese: Der Computer werde womöglich die kontemplative Buchkul- tur auflösen und eine beispiellose Flüchtigkeit des Schrei- bens wie der Lektüre heraufbeschwören. Sehr elegant wi- derlegt er gleich selber, daß es so kommen muß. Auf dem Computer geschrieben, ist sein Buch eine so ausho-

42

lende wie tiefschürfende und dazu aufs sorgfältigste ge- arbeitete Beschreibung des »psychischen Rahmens« der Schriftkultur. Heim, schwankend zwischen Euphorie und Depression, resümiert: »Das digitale Schreiben … ersetzt die hand- werkliche Sorgfalt beim Umgang mit widerständigem Material durch die automatisierte Manipulation; lenkt die Aufmerksamkeit vom persönlichen Ausdruck zur allge- meineren Logik algorithmischer Prozeduren; führt von der Stetigkeit kontemplativen Formulierens zur Überfül- le dynamischer Möglichkeiten; und wandelt die private Einsamkeit reflektierenden Lesens und Schreibens in ein öffentliches Netzwerk, wo der persönliche symbolische Rahmen, den die originale Autorschaft voraussetzt, von der Verkoppelung mit der totalen Textualität menschli- chen Ausdrucks bedroht ist.« Zwei Punkte dieses Katalogs scheinen mir besonders wichtig. Der eine: Der Mensch, der mit dem Computer arbeitet, denke am Ende wie ein Computer – er infizie- re sich mit algorithmischem Denken. Was ist ein Algorithmus? Eine explizite, eindeutige und logisch Schritt auf Schritt aufbauende Handlungsanwei- sung. Ein Computer arbeitet algorithmisch. Ausdrück- lichkeit: Oft ertappt sich der Anfänger dabei, wie er die Maschine anfährt: »Esel! Ist doch klar, daß ich …«– zum Beispiel diesen Brief in Schönschrift haben will und nicht in der flüchtigen Punktschrift des Matrixdruckers. Aber der Computer tut nur, was ihm ausdrücklich befohlen wird. Wird ihm nicht ausdrücklich Schönschrift befoh- len, so liefert er sie auch nicht.

43

Eindeutigkeit: Wer ein Schriftstück, das er unter dem Namen TEXTCOMP.DOC abgespeichert hat, unter dem Namen COMPTEXT.DOC sucht oder auch nur versehent- lich TEXCTOMP.DOC hinschreibt, wird eine Fehlanzeige ernten. Es hilft nicht, den Computer anzufahren. Ambi- guität toleriert er nicht im mindesten. Schritt auf Schritt: Wir überspringen manchmal einen Schritt, machen gelegentlich auch den dritten vor dem zweiten. Wenn aber das Computerprogramm zum Bei- spiel das Speichern vor das Drucken gesetzt hat, dann ist keine Sprunghaftigkeit gestattet; der Algorithmus will schrittweise abgearbeitet werden. Indessen ist das algorithmische Denken nichts Un- menschliches. Wer vorhat, ein paar Briefe zu schreiben und abzuschicken, geht nicht erst eine Briefmarke kau- fen, steckt dann zwei Umschläge in den Kasten und be- sorgt schließlich das Briefpapier. Wir machen uns für alle unsere Handlungen dauernd vernünftige Algorith- men, auch wenn wir uns darüber selten ausdrücklich Rechenschaft geben. Warum soll der Verstand der Men- schen Schaden nehmen, wenn der Computer sie nötigt, gelegentlich die algorithmischen Züge ihres Denkens an die Oberfläche zu bringen? Und wer den Computer nur als Wortprozessor gebraucht, kann dessen algorithmi- sche Ansprüche auf ein Minimum beschränken; wenn er nur will, ist der Umgang mit ihm nicht »algorithmi- scher« als der mit einem Fernsehapparat: Es sind ein paar Knöpfe zu drücken, dann steht eine Schreibfläche bereit, und ein paar weitere Knopfdrücke befördern das darauf Geschriebene aufs Papier.

44

Der andere Punkt: das Netzwerk. Technisch machbar ist es. Aus dem Autor und Leser von heute könnte eines Tages der Teilnehmer in einem unentwegten elektroni- schen Austausch von Informationspartikeln werden. Die Mühsal, mit der eine Datenbankrecherche heute noch verbunden ist, und ihr oft nur geringer Erfolg; die vielen Pannen bei der Datenübertragung; der Umstand, daß es mit der optischen Platte (CD-ROM) inzwischen zwar ein überaus mächtiges Speichermedium gibt, welches ganze Bibliotheken am Bildschirm verfügbar machen könnte, daß es aber noch fast völlig ohne Inhalt ist – all das wird sich mit der Zeit ändern. Trotzdem glaube ich vorläufig nicht an das Netzwerk der vollelektrifizierten Autoren und Leser; ich glaube noch nicht einmal an den vollelektronischen Autoren- Arbeitsplatz. Es ist wahr, in einem Computernetz können ungeheu- re Datenmengen hin- und herbewegt und automatisch durchgekämmt werden. Es ist aber ebenfalls wahr, daß sie an ihren Endstationen immer auf einen Engpaß treffen:

die Aufnahmefähigkeit des einzelnen Menschen. Alles Gedachte und Geschriebene ist dazu bestimmt, am Ende durch den Kopf eines Einzelnen zu wandern; und es eig- net sich allemal besser dazu, wenn es aus dem Kopf eines Einzelnen, vieler Einzelner stammt und nicht aus einem Informationsautomaten. Daß auf Knopfdruck »ganze Bi- bliotheken« zur Verfügung stünden, mag schön und gut sein und ein nettes Versprechen in einer Zeit, da man in einer real existierenden Bibliothek selten findet, was man sucht. Nur braucht man in den seltensten Fällen »gan-

45

ze Bibliotheken«, würde man unter den Fundstellen aus »ganzen Bibliotheken« hoffnungslos erdrückt. Verändert der Computer das Schreiben? Den mechani- schen Vorgang des Schreibens natürlich – aber darüber hinaus auch Form und Inhalt des Geschriebenen? Und wie verändert er es? Schreibende Menschen sind in einer eigenartigen und manchmal komischen Weise abhängig von den äußeren Umständen, unter denen sie schreiben, und von den Din- gen, mit denen sie schreiben und auf die sie schreiben – von der Materialqualität. Der eine kann es nur, wenn er allein in einem vertrauten Zimmer ist und die Tür hin- ter sich zumachen kann. Der andere braucht den Betrieb eines Caféhauses. Der eine schreibt am besten, wenn er dabei Tee trinkt, der andere, wenn er Musik hört. Der gleiche Tee oder die gleiche Musik blockieren den Drit- ten vollständig. Schiller brauchte zum Schreiben den Geruch verfau- lender Äpfel. Heimito von Doderer schrieb mit verschie- denfarbigen Tinten auf edles Papier. Vladimir Nabokov schrieb mit spitzen weichen Bleistiften auf liniierte Kar- teikarten. Arno Schmidt schrieb mit der Schreibmaschi- ne, aber nur mit einem braunen Farbband und auf bei- gefarbenes Papier. Bei Journalisten sind solche Gewohn- heiten vielleicht weniger ausgebildet. Aber abhängig sind auch sie von Umständen und Art des Schreibens. Der eine beherrscht die Kunst, seine Artikel zeilengenau in die Setzmaschine oder welche Tastatur auch immer zu diktieren. Der eine hat nichts gegen die mechanische Ver- mittlung und kann nur mit der Maschine schreiben, der

46

andere braucht sozusagen den Körperkontakt zum Ge- schriebenen und kann nur von Hand. Wenn einer, der bisher alle seine Sachen säuberlich mit der Hand in ein leeres Buch geschrieben hat, plötzlich in ein Diktierge- rät sprechen müßte oder vor den zwölf mehrstöckig be- legten Funktionstasten eines Textcomputers säße; oder wenn der Maschinenschreiber plötzlich alles mit der sich verkrampfenden Hand schreiben müßte, fühlten sie in milden Fällen ein den Gedankenfluß hemmendes Un- behagen, und in schwereren Fällen fiele ihnen einfach kein Wort mehr ein. Der Handschreiber und der Dik- tierer werden den Umstieg auf den Textcomputer wahr- scheinlich nicht schaffen, und kein Arbeit- und Auftrag- geber sollte ihn dazu nötigen. Es gibt allerdings schon Büros, etwa manche Fachübersetzerbüros, wo das Pro- blem nicht mehr darin besteht, daß die Mitarbeiter zur Bildschirmarbeit vergewaltigt würden, sondern im Ge- genteil, daß nicht alle an den Bildschirm dürfen, die es gern möchten. Wie also verändert der Wortprozessor das Schreiben und das Geschriebene? Ich bin hier weitgehend auf die erste, aber leicht verrufene Quelle alles psychologischen Wissens angewiesen, auf die Selbstbeobachtung. Wer einmal einen Text erst in handschriftlicher Form gesehen hat und dann im Druck, der weiß: Er »liest sich« sofort ganz anders. Vielleicht wird eine vorher verborgene Pointe sichtbar, nimmt sich eine Stelle, die handschrift- lich ganz in Ordnung schien, jetzt, wo man sie flüssiger entziffert, falsch oder tautologisch aus. Auf subtile Wei- se beeinflußt das äußere Bild des Geschriebenen seine

47

Bedeutung, und nicht nur in der Weise, daß eine äußer- lich unsympathische Form einen auch gegen den Inhalt einnimmt. Es ist eine allgemeine Erfahrung unter Au- toren: In dem Augenblick, da man seinen Text zum er- sten Mal in einer ganz neuen und endgültig wirkenden Form liest, bemerkt man Schwächen, die einem vorher entgangen waren. Der Übergang vom Manuskript zum Satz löst bei Autoren unweigerlich eine Welle von Auto- renkorrekturen aus, so unlieb die, aus Kostengründen, den Verlagen auch sind. Der Übergang vom Papier zum Monitor ist eine Me- tamorphose, die mindestens so einschneidend ist wie die vom Manuskript zum Satz. Die Buchstaben stehen plötzlich hinter Glas, leuchten grün oder bernsteinfar- ben oder plasmatisch ochsenblutrot auf dunklem Grund oder schillern reptilhaft grünlich und messingfarben, und auch wo sie schwarz auf weiß stehen, leuchtet der Hintergrund in einer Weise, wie es auch das weißeste Papier nie tut. Vor allem übersieht man immer nur etwa zwanzig Zeilen. Wer Vorherstehendes oder Späteres se- hen will, muß »scrollen«, also sozusagen das sichtbare Textfenster über dem unsichtbaren gespeicherten Text verschieben. Hat man dann die gesuchte Stelle am Bild- schirm, ist die ursprüngliche nicht mehr zu sehen, und wenn man die nun im Licht der nachgelesenen anderen Stellen verändern möchte, muß man sich erst wieder zu ihr zurückscrollen. Steht die gesuchte Stelle noch weiter entfernt, muß man sie möglicherweise erst aus einer an- deren »Datei« herbeirufen. Auf dem Bildschirm erscheint sie dann in einem weiteren »Textfenster«, und zwei grö-

48

ßere Fenster gleichzeitig lassen sich nicht lesen, immer verdeckt das eine das andere. Es läßt sich zwar alles ma- chen, es braucht meist nur ein paar Tastendrücke, aber das Blättern in einer Papierfassung ist dennoch einfacher. Soll allerdings nicht nur geblättert und gelesen werden, geht es darum, Textpassagen innerhalb einer Datei oder zwischen verschiedenen Dateien zu verschieben, so ist der Computer weit überlegen. Scheinbar sind ähnliche Manipulationen nur Bagatel- len und nicht wert, daß man überhaupt von ihnen redet. Aber die minimal kleinere oder größere Mühe, die es ko- stet, irgendeine Veränderung am Text vorzunehmen, be- einflußt, welche Veränderungen wir vornehmen werden, und zwar in einem Ausmaß, das sich niemand vorstellen kann, der es nicht an sich selber erlebt hat. Die leicht erhöhte Mühe, die es am Bildschirm ko- stet, Übersicht über größere Textabschnitte zu gewinnen, wird also dazu führen, daß wir solche Übersicht weniger bereitwillig suchen. Inkonsistenzen oder Widersprüche oder Wiederholungen innerhalb der zwanzig Zeilen, die jeweils am Bildschirm zu sehen sind, wird man genauso gern oder aus anderen Gründen sogar viel lieber beseiti- gen als auf dem Papier. Zwischen entfernteren Textstel- len aber wird man sie leichter übersehen und gelegent- lich auch dann durchgehen lassen, wenn man durchaus von ihnen weiß. Dies aber ist auch schon der einzige nennenswerte Nachteil der Arbeit am Schreibcomputer. Ihm stehen größere Vorteile gegenüber. Zunächst einmal fällt das Schreiben einfach leichter. Keine verkrampften Finger,

49

keine verklemmten Typenhebel, keine schwarzen Farb- bandenden, höchstens ein steifer Nacken – man streicht nur noch sacht über die Tasten hin, braucht kein neu- es Blatt einzuspannen, wenn das Seitenende gekommen ist, braucht am Zeilenende auch den Wagen nicht mehr zurückzuschieben (der Wagenrücklauf überlebt nur als Symbol – die Eingabetaste »Enter« heißt auch CR oder »Carriage Return«) das Textprogramm beginnt mit dem Wort, das nicht mehr in eine Zeile paßt, automatisch eine neue. Kurz, die Maschine erspart es einem, sich um das Mechanische des Schreibens zu kümmern. Der Weg vom Kopf in die Schriftform wird kürzer, direkter. Ich habe den Verdacht, daß einen dieser Umstand be- redter macht. Manchmal befürchte ich, er macht auch ge- schwätziger. Jedenfalls haben manche Computerschrei- ber bekannt, daß ihre Briefe oder Artikel oder Bücher irgendwie länger geworden seien, seit die Maschine auf ihrem Schreibtisch steht. Der Hauptvorteil, das, was jeden Schreiber dann end- gültig für den Computer gewinnt, ist jedoch nicht die Leichtigkeit des Schreibens selbst, sondern die des Kor- rigierens. Ich selber bin dazu gekommen, meinen Com- puter gar nicht mehr so sehr als Schreibgerät zu sehen, sondern als eine externe Erweiterung meines Gedächt- nisses, mit der Eigenschaft, sich unbegrenzt viel merken zu können – eine Merkmaschine. Das Ding merkt sich jeden Gedanken in exakt dem letzten Wortlaut, den ich ihm gegeben hatte, und wenn ich will natürlich auch alle Zwischenfassungen von der ersten Notiz an. Ein Druck auf ein oder zwei Tasten, und Buchstaben,

50

Wörter, Zeilen, Absätze, die man beseitigen möchte, sind weg. Und weg heißt hier wirklich weg; es bleibt keine durchgewetzte Stelle oder kein Loch, wo sie standen; sie sehen einen auch nicht unter lauter X-en oder unter ei- ner Schicht von bröckligem Tipp-Ex hervor beschämend weiter an. Das heißt, es ist eine Lust, etwas Geschriebe- nes auch wieder auszumerzen. Ein paar Manipulationen, und ein Textpassus ist an eine andere Stelle geschoben. Umberto Eco, der nicht nur auf einem Textcomputer schreibt, sondern auch über das Schreiben am Textcomputer, sieht hier einen allge- meinen stilistischen Wandel eingeleitet. Damit sich ein Textblock verschieben läßt, darf sein Verständnis nicht von dem vorausgegangenen Kontext abhängen; er muß autark sein. Ein Satzbestandteil, der nicht aus sich selber heraus völlig verständlich ist, sondern dessen Bedeutung sich nur im Zusammenhang mit vorhergehenden Sätzen ergibt, heißt in der Linguistik »Anapher«. Der gleichwohl vollständige Satz Sie gab ihm so etwas nicht wird erst ver- ständlich, wenn man den Satz davor kennt: Der Junge bat die Verkäuferin um ein Horrorvideo – das heißt, er ist eine Anapher. Würde er durch die Funktion »Blockverschie- bung« an eine andere Textstelle gerückt, wäre er dort un- verständlich. Eco meint, daß Autoren, die mit der Mög- lichkeit der Blockverschiebung rechnen, den anaphori- schen Stil von vornherein zu vermeiden suchen werden. Ich glaube es nicht. Nicht nur, weil er uns so natürlich ist, daß dazu Anstrengung nötig wäre und das Ergebnis krampfig wirkte – sondern vor allem eben darum, weil das Korrigieren am Computer so leicht fällt, daß man

51

den verschobenen Textblock an seinem neuen Ort mü- helos in seinen neuen Kontext einbetten kann. Die Merkmaschine hat weiterhin die Eigenschaft, nie die Geduld zu verlieren. Jede Zumutung läßt sie sich ge- fallen. Jederzeit nimmt sie Korrekturen entgegen, auch nachts um zwei, auch an Sonntagen, wenn einem gera- de dann eine bessere Formulierung eingefallen sein soll- te. Und jederzeit druckt sie einem ohne Murren das Ge- schriebene absolut sauber und fehlerfrei aus, auch die dritte oder zehnte Fassung, mit der man keine mensch- liche Sekretärin mehr hätte behelligen können. Die Leichtigkeit, mit der sich der Text verändern läßt, animiert zum Probieren. Ein Satz, der einmal auf Papier niedergeschrieben war, nahm eine gewisse Endgültigkeit an, die man nicht leicht und leichtfertig wieder aufhob; und schon gar nicht, wenn es sich um die Reinschrift ge- handelt haben sollte. In dem elektronischen Gedächtnis des Textprozessors läßt sich beliebig herumexperimen- tieren. Man braucht sich nicht vorzustellen, man kann sehen, was geschieht, wenn ein Satz so oder so formu- liert wird oder wenn er dort oben steht und nicht hier unten. Und nie mehr braucht man sich zu scheuen, eine Reinschrift durch verspätete Korrekturen zu verderben, denn der Computer, der immer nur Reinschriften anfer- tigt, macht einem willig auch noch eine allerletzte. Der Papierverbrauch allerdings nimmt auf diese Weise er- heblich zu. All dies heißt, daß das Schreiben mit dem Wortprozes- sor in einem ungeahnten Ausmaß den Charakter einer textlichen Bastelarbeit annimmt. Geht es so? Oder ist es

52

vielleicht doch so besser? Nein, lieber wie es war … Frü- her hat einen in vielen Fällen die zwar geringe, letztlich aber doch inhibitorische Mühe, die alle Änderungen oder Umstellungen auf dem Papier mit sich gebracht hätten, davon abgehalten, sie zu machen. Jetzt kann man sich ungeniert einem Rausch des Korrigierens hingeben. Für jenen Typ von Autor, der endlos zu verbessern pflegt und früher mit viel Tipp-Ex-Flüssigkeit und Kleister gearbeitet hätte, kann das auch gefährlich sein. Ihm fehlt nunmehr jeder Zwang zur Endgültigkeit. Er ergeht sich vielleicht in einer endlosen Orgie von Revisionen, die seine Leser schon lange nicht mehr zu goutieren wissen. Autoren und Übersetzer wissen, daß es gut ist, einen Text eine Weile liegen zu lassen. Beim Schreiben ist man so durchdrungen von der Bedeutung, die man sich aus- zudrücken bemüht, lebt so intensiv in einem bestimm- ten semantischen Raum, daß man schlecht beurteilen kann, ob die Worte, die man gefunden hat, jene Bedeu- tung wirklich vermitteln, ob sie auch ihren Leser in je- nen semantischen Raum eintreten lassen. Ist dem Autor nach Wochen oder Monaten der Text fremd geworden, so muß auch er selber die Bedeutung einzig aus dem rekon- struieren, was dasteht. Erst dann merkt er, ob es »trägt«. Der Computer verkürzt diese Karenzzeit, die jedem bes- seren Text gegönnt sein sollte. Denn fremd macht es den eigenen Text auch schon, wenn er einem in einer Gestalt entgegentritt, die nicht die Gestalt seiner Niederschrift ist – und der Computer kann ihn einem in fast beliebiger Gestalt ausgeben. Der Computer fördert eine bekömm- liche Distanz zum Geschriebenen.

53

Dem Buch und allen »Printmedien« wurde in den letz- ten Jahrzehnten oft der Tod prophezeit. Das Fernsehen, überhaupt die »audiovisuellen Medien«, so meinten man- che, würden ihnen den Garaus machen. Besorgt das jetzt der Computer? Er wird es nicht tun – und zwar darum, weil der auf Pa- pier geschriebene oder gedruckte Text sozusagen ergono- misch unübertrefflich ist. Irgendwann werden dem Autor zwar allerlei elektronische Hilfsmittel zur Verfügung ste- hen, Nachschlagewerke, Wörterbücher zum Beispiel. Der technische Übersetzer, für den ein bestimmtes Wort die einzig richtige Übersetzung eines Fachbegriffs ist, wird es als Arbeitserleichterung empfinden, wenn er es rasch aus einem externen Speicher abrufen kann. Aber wo es mit einem einfachen Ersetzen nicht getan ist, wo man su- chen, nachdenken, wieder suchen muß, dürfte der Com- puter dem Buch ergonomisch meist unterlegen sein. Der Bildschirm ist schwerer zu lesen als bedrucktes Papier; und was man dort liest, ist schwerer aufzufassen. Und selbst wenn die Bildschirme der Zukunft dem in ge- wissem Maß abhelfen sollten: in einem längeren Text zu blättern, die Übersicht über eine längere Textstrecke zu behalten, mehrere Texte gleichzeitig in Betracht zu zie- hen – das alles ist am Bildschirm wohl möglich, wird dort aber wahrscheinlich immer mühsamer sein. Außerdem braucht der Computer Strom, und jene Exemplare, die zeitweise ohne Steckdose auskommen, die Laptops also, macht ihr Akku um so schwerer. So eminent transpor- tabel wie ein Buch ist er nie, und je transportabler er ist, um so schlechter ist in der Regel iuch sein Display – die

54

Displays vieler Laptops sind noch eine Zumutung für das Auge. Immer ist er eine Maschine, die zwischen dem Le- ser und dem Text steht. Einem Buch dagegen kann man sich ohne jede maschinelle Hilfe zuwenden, man kann es überallhin mitnehmen, man kann es in die Jackenta- sche stecken, man kann es an jedem Ort lesen, am Steh- pult, am Strand, in der Badewanne, man darf darin her- umkritzeln, man darf es fallen lassen, man kann Seiten herausreißen und seiner Freundin unter die Nase rei- ben, man kann es sogar an die Wand schmeißen. Nur bei wenigen ausgewählten Anwendungen also wird der elektronisch gespeicherte Text dem Buch, dem gedruck- ten Schriftstück überlegen sein. Bei Routinetätigkeiten wie dem Schreiben und Lesen sind es, wie gesagt, die winzigsten (ergonomischen) Vor- und Nachteile, die über Benutzung oder Nichtbenutzung entscheiden. So wie die Schreibmaschine sich durchge- setzt hat, weil sie der Hand etwas Arbeit abnahm, so wird die Entscheidung gegen die Rückkehr zur Schrift- rolle ausfallen, die der Computertext darstellt. Den Be- weis liefert die Computerindustrie selber jeden Tag. All die Handbücher, die der Benutzer braucht, sind oft zwar auch auf Diskette verfügbar, und knauserige Firmen lie- fern sie nur auf Diskette. Theoretisch könnte man sie am Bildschirm durcharbeiten und dort bei Bedarf konsultie- ren. So gut wie niemand tut es. Erst müßte man unterbre- chen, was gerade in Arbeit ist; dann den Handbuchtext aufrufen; dann von Textfenster zu Textfenster scrollen, bis man gefunden hat, was man sucht. Zuallererst wird man sich also doch lieber einen Ausdruck machen und

55

den in eine Mappe heften; da hat man dann die Infor- mation schneller und in handlicherer Form. Aus diesen Gründen, meine ich, ist das Buch keines- wegs zum Untergang verurteilt, und ein »Ende der Li- teratur« (Kittler) hat der Computer ohnehin nicht auf dem Gewissen. Als Schreib-Medium ist er überlegen, als Lese-Medium nach wie vor das beschriebene Papier. In den wenigen Jahren seines Daseins hat der Wortprozes- sor einiges unternommen, sich dem Papierwesen anzu- nähern. Noch zwar ist das Prinzip WYSIWYG nicht viel mehr als ein Versprechen. WYSIWYG heißt »What You See Is What You Get« und bedeutet genau das: Genau wie ein Text auf dem Bildschirm aussieht, so soll er ausge- druckt dann auch auf dem Papier stehen – gleicher Zei- lenfall, gleiche Schriften, gleiche Schriftgrößen, gleiche Schriftattribute. Echtes WYSIWYG wäre nur im Grafik- modus zu erzeugen, und der ist im Vergleich zum Text- modus langsam, langsamer als der Schreiber an der Tasta- tur. Also schreibt und ediert man bei den meisten Text- verarbeitungen nach wie vor im Textmodus, also in der programmeigenen Einheitsschrift, und kann nur hinter- her in den Grafikmodus umschalten und auf dem Bild- schirm betrachten, wie die betreffende Papierseite dann ungefähr ausschauen wird. Der harte Wettbewerb zwi- schen den Textverarbeitungen hat dazu geführt, daß sie im Laufe der Jahre mit Funktionen vollgestopft wurden. Kaum hatte ein Softwarehaus sein Produkt um irgen- deine neue bereichert, das eine um einen »Thesaurus« (armselige Synonymen-»Schätze« in der Regel, eher Not- vorräte), das andere um eine Rechtschreibkontrolle, das

56

eine um einen »Taschenrechner«, das andere um eine Uhr, das nächste um einen Makrorecorder, so wartete auch die Konkurrenz damit auf. Die großen Program- me quellen heute über von Funktionen; man muß sich hüten, versehentlich irgendeine Nicht-Zeichen-Taste zu berühren, denn welche man auch antippt: sie löst irgen- deine Aktivität im Computer aus. Bei diesem Wettlauf um das funktionsmächtigere Programm hat man sich of- fenbar wenig Gedanken darum gemacht, welche Grund- funktionen der Benutzer dem Programm abverlangt und wie es diese möglichst elegant beherrscht. Sonst hätte es nicht dahin kommen können, daß kaum eines dieser um- fänglichen Programme wenigstens so viel WYSIWYG lei- stet, die Schriftattribute (fett, kursiv, unterstrichen) auch im normalen Schreibmodus auf dem Bildschirm darzu- stellen. Statt dessen sieht man auf dem Bildschirm Co- desequenzen, sieht man allerlei Symbole, sieht besten- falls jede Schriftvariante in einer anderen Farbe oder, viel verwirrender, alle Attribute in der nämlichen Hervor- hebungsfarbe, muß man also umdenken: Hier der rote Satz wird dann unterstrichen, dort das gelbe Wort wird kursiv, soll aber außerdem noch halbfett sein – hatte ich den Steuerbefehl für halbfett nun schon eingegeben, oder unterschlägt die Bildschirmdarstellung ihn mir nur? Ein ungewöhnlich offenherziger Artikel in der Computerzeit- schrift ›DOS International kam noch 1990 zum Schluß:

»Fast jedes neue Textprogramm schmückt sich mit dem Attribut ›WYSIWYG‹ – was die meisten bieten, ist dagegen

nur sich auf absehbare Zeit durchsetzen, nur im Moment ist

Voraussichtlich wird WYSIWYG

57

die Zeit dafür noch nicht reif. Hardware-Hersteller haben beim Fiebern nach der höchsten Taktfrequenz wohl ver- gessen, daß es vielleicht zunächst einmal wichtiger wäre, hochauflösende Bildschirme zu entwickeln. Und die mei- sten Software-Entwickler waren so sehr mit dem Einbau von immer neuen Funktionen beschäftigt, daß verbes-

serte Benutzeroberflächen

oft unter den Tisch fielen.«

Die meisten Warentests heizen diesen Wettlauf noch wei- ter an. Anfang 1990 etwa veröffentlichte das Computer- magazin ›Chip‹ die Ergebnisse des größten und einge- hendsten Tests, dem Textverarbeitungsprogramme im deutschen Sprachbereich je unterzogen wurden: Vierzig Programme wurden nach einheitlichen Kriterien über- prüft und bewertet. Um der Objektivität willen fragte der Test nur, welche von insgesamt fünfhundert möglichen Funktionen jedes besitzt. Natürlich schnitt am besten ab, wer mit den meisten Funktionen aufwarten konnte. Die verschiedenen Bedienungskonzepte, gar die Ästhetik der einzelnen Programme blieben unbewertet. Dennoch hat sich der Schreibcomputer seit der ersten Hälfte der achtziger Jahre natürlich verändert, zumindest für den, der die Verbesserungen zu bezahlen bereit ist. Nicht mehr unbedingt grün oder bernsteingelb leuchtet die Schrift auf dem Bildschirm, der im übrigen so flach und rechtwinklig wie ein Bogen Papier geworden ist – für den, der sie so will, steht sie mittlerweile schwarz auf weiß, »papierweiß«, gar »yellowish paper-white«. Die Typogra- phie hat Einzug gehalten. Der Drucker liefert nicht mehr die spillrige Nadelschrift; wer will, kann ihm auch kul- tivierte Schriften abverlangen. Mit dem Computer muß

58

man sich nicht mehr unbedingt durch geheimnisvolle Zeichencodes verständigen; sogenannte grafische Benut- zeroberflächen wie GEM oder die des Macintosh oder Windows erlauben es, bei der Bedienung die rechte, bild- lich und räumlich denkende Hirnhemisphäre zu benut- zen, Piktogramme zu aktivieren, die nun Icons heißen, mit (symbolischen) Karteikästen und Karteikarten, mit Aktenordnern, mit Notizzetteln zu hantieren und das Überflüssige nicht mehr mit dem Befehl DELETE zu be- seitigen, sondern es in eine symbolische Mülltonne zu befördern. Das geschieht nicht etwa, weil die Leute es halt so gewöhnt sind, um einer nostalgischen Reminis- zenz willen. Es geschieht in Anerkennung einer über- legenen Technik. Buchstaben auf Papier – diese Tech- nik hatte Jahrtausende, um auszureifen und sich dem menschlichen Geist optimal anzupassen, so sehr, daß wir sie gar nicht mehr als Technik empfinden, sondern als etwas Natürliches, und dabei hat sie eine Würde gewon- nen, die uns von einer Schrift- und Buchkultur sprechen läßt. In einer Druckschrift wie der Times stecken Jahr- hunderte Erfahrung, Wissen, ästhetisches Gespür. Eine Schrift, die ihren Lesern Befriedigung verschaffen soll, läßt sich nicht übers Knie brechen. Typographie ist eine Kunst, ein Schriftentwerfer arbeitet Monate oder Jah- re an einer neuen Schrift. Man kann nicht daherkom- men und meinen, eine in ein paar Tagen improvisierte Bildschirm- oder Druckerschrift könne eine ähnliche Be- friedigung verschaffen. Es gibt eine Menge von vielge- brauchten stillen Kulturdingen, die wir kaum je bewußt zur Kenntnis nehmen, deren Existenz wir einfach vor-

59

aussetzen: Schriften, überhaupt Typographie, Einbände, Wörterbücher, Landkarten, Nachschlagewerke, die von Generationen von Fachleuten vervollkommnet worden sind. Nichts davon läßt sich aus dem Boden stampfen, auch nicht aus der Platine. Der Computer, der Neuling, der seine optimale Form gerade erst zu suchen beginnt, guckt sich völlig zu Recht manches ab. Es gibt gewiß eine »Computerkultur« im Sinne eines hochentwickelten technischen Verständnis- ses für Mikroelektronik und Programmstrukturen. Aber die »Computerkultur« im Sinne einer gereiften Ästhe- tik der »Benutzeroberflächen«, im Sinne einer wirklich sachverständigen Bezogenheit auf die sprachlichen, grafi- schen, musikalischen Aufgaben, zu deren Lösung er im- mer mehr herangezogen wird, im Sinne auch einer eher traditionell »musischen« oder »literarischen« als einer mathematisch-technischen Kultur steckt erst in den An- fängen. Oft noch gähnt statt solcher Computerkultur nur ein spezielles Analphabeten- und Illiteratentum. Eines Tages aber wird der Computer mehr sein. Die über seine Architektur und die der Programme nachdenken, müssen jene andere Kultur nur erst einmal ernst nehmen.

W I E HAT

V I E L E DER

W Ö R T E R MENSCH?

Das innere Lexikon

Die einfachsten Fragen sind meist die schwersten. Wie viele Wörter hat einer, der Deutsch spricht? Wieviele gibt es denn überhaupt? Adenauer hatte nur achthun- dert, heißt es. Aber Goethe, der hatte doch bestimmt Hunderttausende? Wir machen uns keine Vorstellung von der Größe des Wortschatzes, des eigenen wie desjenigen um uns her. Zehntausend, hunderttausend, eine Million, wer weiß es – aber unser Vorstellungsvermögen versagt bei großen Zahlen ja sowieso: Alle bedeuten uns immer nur »sehr viele«, und eine Menge von hunderttausend oder einer Million können wir nur rechnerisch unterscheiden, nicht aber in der unmittelbaren Anschauung. Jedoch gibt es Situationen, in denen man es genauer wissen sollte. Berufs- und Hobby-Psycholinguisten möch- ten Genaueres über das Fassungsvermögen des Gedächt- nisses wissen; sie möchten auch wissen, welche Leistung Kinder eigentlich erbringen, wenn sie in wenigen Jahren und wie von selbst ihre Muttersprache gleichsam in sich hineinsaugen. Wer in einem Alter, in dem man nicht mehr einfach alles planlos in sich hineinfrißt, eine Fremdsprache lernt, der will rationell und zielbewußt vorgehen und sich erst einmal die unentbehrlichsten Vokabeln einverleiben; er wüßte auch gern von vornherein, wieviel er überhaupt zu lernen hat, um sich einigermaßen behelfen zu kön- nen. Die Sprachdidaktik sollte also wissen, welches der

63

unentbehrliche Grundbestand einer Sprache ist (und sie weiß es). Oder all die Software-Firmen, die sich mit Textverar- beitung befassen und von denen wir eines Tages die Al- phabetisierung des Computers verlangen müssen: Wenn sie sich keine näheren Gedanken machen, ehe sie ein elek- tronisches Rechtschreib- oder Synonym- oder Überset- zungswörterbuch in Angriff nehmen, wenn sie nur die Funktion ihres Programms im Auge haben und die Wör- ter, mit denen dieses umgehen soll, als eine Art Müll be- trachten, den man am besten kiloweise von irgendeiner Lexikonredaktion bezieht und unbesehen in das Pro- gramm einfüllt – dann könnte es ihnen passieren, daß das ganze schlaue Programm der Eigenart der Sprache nicht gewachsen ist und seinen Nutzern wenig nützt. Ei- nige offerieren teures Werkzeug, sich im Eigenbau sel- ber Wörterbücher anzufertigen, ganz und gar »mühelos« angeblich – die langen Gesichter, wenn sich die Mühen dann endlos hinziehen, bekommen sie nie zu sehen. Wie groß also ist er, der deutsche Wortschatz? Die Sprachwissenschaft schätzt ihn seit langem auf etwa 400 000. Schätzt sie richtig? Seit einigen Jahren gibt es endlich zwei große deutsche Wörterbücher: das sechs- bändige »Duden Wörterbuch« (1976/81) und den eben- falls sechsbändigen »Brockhaus Wahrig« (1980/84). Bei- de sind ausdrücklich auf Vollständigkeit aus. Nur Fach- wörter, die nicht in die allgemeine Sprache eingedrungen sind, lassen sie beiseite; ansonsten wollen sie den gesam- ten allgemeinen Wortschatz verzeichnen. So kommt der »Brockhaus Wahrig« laut eigener Angabe auf 220 000

64

Stichwörter, der »Duden« auf 500 000. Und der Benutzer wiegt beide Werke in den Händen und sagt sich, daß hier etwas nicht stimmen kann. Zwar ist der »Duden« etwas kleiner gedruckt, aber mehr als der »Brockhaus Wahrig« enthält er gewiß nicht, eher weniger. Also muß es daran liegen, daß beide Redaktionen unterschiedlich gezählt haben. Tatsächlich heißt es auf dem »Duden« wörtlich:

»Über 500 000 Stichwörter und Definitionen«. Und das will wohl verstanden werden als »eine ungenannte Zahl von Wörtern in 500 000 Bedeutungen«. Denn natürlich gibt es viel mehr lexikalische Bedeu- tungen als Wörter. Einmal liegt es an den zahlreichen Homonymen, also den Fällen, in denen zwei grundver- schiedene Wörter zufällig – das heißt aus sprachhisto- rischen Gründen – gleich geschrieben werden (Fest und fest, Sein und sein). Zum anderen sind sehr viele Wörter polysem, tragen also mehrere Bedeutungen. Wir mer- ken es spätestens beim Übersetzen, wenn etwa ein Hö- rer mal als listener, mal als Student, mal als receiver wie- dergegeben werden will. Wer nun überlegt, welches der beiden Großwörterbü- cher er sich anschaffen sollte, darf sich von ihren in- kommensurablen Größenangaben nicht irremachen las- sen. Ihr Wortbestand ist nicht sehr verschieden, der des »Brockhaus Wahrig« wohl sogar etwa 20 Prozent grö- ßer. Man kann ruhig nach dem sonstigen Eindruck ge- hen: Der »Brockhaus Wahrig« hat das bessere Papier und Goldschnitt, ist aber auch doppelt so teuer. Der »Du- den« ist etwas weniger umfassend, enthält aber als Bele- ge nicht nur mehr oder minder gekünstelte Beispielsät-

65

ze, sondern echte Zitate aus der Gegenwartsliteratur. Der Hauptunterschied zwischen beiden ist ein ganz anderer und Geschmackssache: Der »Brockhaus Wahrig« macht jedes Wort zum Hauptstichwort, der »Duden« stopft die Ableitungen eines Worts in große »Nester«. Beide Ver- fahren haben etwas für sich. Ich selber finde eine starke »Vernestung« unübersichtlicher. Jenseits dieser Wörterbücher gibt es das Vokabular der Fach- und Sondersprachen. Ein Handwerk hat einen Spe- zialwortschatz von einigen tausend Wörtern. Nach ih- ren Spezialwörterbüchern zu schließen, hat eine größere Wissenschaft wie die Juristerei oder die Biologie zehn- bis zwanzigtausend, die Riesenwissenschaft Medizin mehr als eine Viertelmillion. Aber die Biologie hat auch für jede Art von Lebewesen mindestens ein Wort, und da es etwa sechs Millionen Spezies geben dürfte, hat sie zu- mindest potentiell auch ebenso viele Millionen Wörter. Ähnlich ist es um die Chemie bestellt. Ihr eigentliches Vokabular besteht zwar auch nur aus einigen zehntau- send Wörtern, aber für jede chemische Verbindung gibt es mindestens ein Wort, und da die Zahl der bekannten organischen Verbindungen schon mindestens fünf Mil- lionen beträgt und jeden Tag um etwa tausend wächst, zählt auch ihr Wortschatz nach Millionen. Schier ufer- los vermehrt sich auch der Wortbestand der Technik allgemein. Jedes Schräubchen jedes Geräts hat seinen Namen, und zwar besser einen eindeutigen und unver- wechselbaren. Das Bundessprachenamt hat im Laufe der Jahre 1,3 Millionen vorwiegend technische Fachtermi- ni (und zum Teil ihre Entsprechungen in anderen eu-

66

ropäischen Sprachen) gesammelt, die Datenbank LEXIS, die zur Zeit auf Microfiche, später einmal auf CD-ROM jedem Interessenten zur Verfügung steht. Größer noch ist die technische Terminologiebank TEAM der Firma Siemens – sie enthält nahezu drei Millionen Termini mit Belegen in bis zu acht Sprachen. Christian Galinski vom Österreichischen Normungsinstitut, das seit 1971 in Wien ein von der Unesco unterstütztes Terminolo- giezentrum (INFOTERM) unterhält, schätzte den Ge- samtbestand deutscher Allgemeinwörter in allen Fach- und Sondersprachen 1986 auf über 30 Millionen – und glaubt im übrigen festgestellt zu haben, daß er sich ex- ponentiell vermehrt wie das Wissen selbst und somit alle vier Jahre verdoppelt. 1990 müßte es demnach bereits 60 Millionen deutsche Wörter gegeben haben. Auch wenn diese Schätzung bei weitem zu hoch gegriffen sein dürf- te: Es handelt sich auf jeden Fall um eine Menge, gegen die sich der allgemeine Wortschatz oder gar der Wort- schatz, den ein einzelner im Kopf haben kann, wie eine quantite negligeable ausnimmt. Diese Millionen von Wörtern werden aus einer Hand- voll von Bausteinen gebildet. Die kleinste bedeutungs- tragende Einheit eines Wortes heißt Morphem. Es gibt zwei Klassen von Morphemen: die eigentlichen »Sinn- silben«, die den Begriffsinhalt tragen, Basismorpheme genannt (/sinn/, /silb/); und die Wortbildungsmorpheme – Suffixe wie /heit/ oder /ung/ oder /lkh/, die Wortklas- sen charakterisieren, sowie die Beugungsendungen, die Flexionsmorpheme. Flexionsmorpheme (/est/, /en/) gibt es im Deutschen genau sechzehn; die Zahl der Wort-

67

bildungsmorpheme beträgt einige Dutzend. Und Basis- morpheme? Niemand scheint sie bisher gezählt zu ha- ben. Jedenfalls schätzt man ihre Zahl auf nicht mehr als fünftausend. (Dazu kommen dann allerdings noch die Morpheme der Lehn- und Fremdwörter.) Gunter Neu- bert hat sämtliche Morpheme katalogisiert, aus denen sich der technische Wortschatz des Deutschen zusam- mensetzt. Es sind nicht mehr als viertausend. Bei der im- mer schneller wachsenden Menge der technischen Din- ge, die benannt werden müssen, ist es kein Wunder, daß die Bausteine knapp werden. Auch der allgemeine Wortschatz läßt sich auf keine Zahl festnageln. Es herrscht ein ständiges Kommen und Gehen: Aus den Fachsprachen und Argots sickern täglich Wörter ein, neue Phänomene wie der Flachbildschirm, der Wobblegenerator oder das Restrisiko wollen benannt sein, Medien und Werbebranche überbieten sich im Erfinden neuer Wörter, deren Hauptzweck es ist, zu imponieren, Aufmerksamkeit zu heischen. Bei vielen (Scheidungskind, Konjunkturhimmel, Spaghettiplausch) weiß man gar nicht, ob es sie sozusagen offiziell eigentlich gibt – jedenfalls aber könnte es sie jederzeit geben. Und manche Ad-hoc- Prägung (Kopfgeldjäger, Busengrabscher) wird einmal ir- gendwo benutzt und dann möglicherweise nie wieder – ex und hopp. Kein Wörterbuch kann da mithalten, kein Sprachstatistiker mitzählen. Aber auch wenn die Grenze fließend ist: die beiden gro- ßen Wörterbücher sind ihr jedenfalls nahe. Wer such- te, fände noch etliche mehr; wer besessen suchte, fände vermutlich noch einige Zehntausend mehr. Hunderttau-

68

sende von weiteren »allgemeinen« Wörtern von einigem Bestand aber gibt es sicher nicht. Der allgemeine englische Wortschatz wird auf 700 000 Wörter geschätzt. Das größte englische Wörterbuch, der »Webster«, hat 460 000. Warum ist der englische Wort- schatz so viel größer als der der anderen Kultursprachen? Meist wird es damit erklärt, daß Englisch eben eine Legie- rung aus drei Sprachen sei (Angelsächsisch, Normannisch und Latein) und vieles doppelt und dreifach benenne. Ein Lamm etwa ist das germanische lamb, sein Fleisch das ro- manische mutton; calf das Kalb, veal sein Fleisch. Aber das kann nicht der ganze Grund sein. Deutsch hat die eigen- tümliche und von Ausländern gern verspottete Möglich- keit, unbegrenzt viele zusammengesetzte Wörter zu bilden, und es macht davon reichlichst Gebrauch. Die Zahl die- ser Komposita läßt die der englischen Doppelungen weit hinter sich. Es muß sich wohl so verhalten, daß das Eng- lische in erheblichem Umfang Wörter bewahrt und neu gebildet hat, wo sich das Deutsche darauf verlassen konn- te, daß sich bei Bedarf jederzeit neue Begriffe durch Kom- binationen bestehender Wörter bilden ließen. Die Wörter sind selbstverständlich nicht gleich häufig. Ein Wortschatz ist wie ein Himmelskörper: Er hat einen dichten Kern aus den häufigsten Wörtern, und um den herum schichten sich immer und immer seltenere, bis man in jene Stratosphäre gelangt, wo ein Wort wie Sex- papst oder Muskelmonster kurz aufleuchtet und wieder verglüht, sobald die Illustrierte, auf deren Titelseite es Käufer anmachen soll, makuliert ist. Als bei der Firma Siemens das maschinelle Überset-

69

zungsprogramm METAL entwickelt wurde, analysierte man auch, welche »allgemeinen« deutschen Wörter all den Fachtexten gemein sind, die es übersetzen soll und die jeweils ihre eigene Terminologie mitbringen, sozusa- gen also den Grundwortschatz der Fachliteratur. Schon der war relativ groß: 35 000. Ein anderer Wortfrequenzforscher, der amerikani- sche Linguist J. Alan Pfeffer, hat in Hunderten von In- terviews mit Nachkriegsdeutschen versucht, so etwas wie den Grundwortschatz des gesprochenen Deutsch zu er- mitteln, das absolute Minimum also, das nötig wäre, um in Deutschland mündlich .zu bestehen. Er kam darauf, daß bloße 1300 Wörter 90 Prozent jedes »einfachen All- tagsgesprächs« ausmachen. Die Hoffnung, durch Frequenzuntersuchungen zu ei- nem hieb- und stichfesten Grundwortschatz kommen zu können, der für alle Sprachsituationen gilt, haben die Linguisten inzwischen allerdings aufgegeben. Von den wenigen hundert der gebräuchlichsten Funktionswörter abgesehen, hängt es zu sehr von der Art der zugrunde gelegten Texte ab, welche Wörter die häufigsten sind. An- ders gesagt: In jeder Lebenssituation sind andere Wörter die häufigsten. Aber wenn man die normalsten Alltags- situationen zusammennimmt, Wohnen, Essen, Verkehr, Gesundheit und so fort, kommt man in allen Sprachen auf die geradezu magische Zahl 2000. So groß sind denn auch die »Grundwortschätze«, die man kaufen kann und denen heute begegnet, wer auszieht, eine Fremdsprache zu lernen. Es sind die Minimalwortschätze für den Le- bensalltag. Darunter geht nichts.

70

Darunter geht nur Basic English. Es ist nicht einfach irgendein Schrumpf-Englisch. Es ist eine ausgeklügelte Minimalsprache, 1930 ersonnen von dem Cambridger Linguisten C. K. Ogden, wie Volapük oder Esperanto als Welthilfssprache gedacht und als solche von Männern wie Churchill, Roosevelt und H. G. Wells lebhaft begrüßt und befürwortet. Anders als die sonstigen Kunstsprachen – und das ist durchaus ein Vorzug – beruht es auf einer tatsächlich existierenden Sprache oder setzt sich zumin- dest nirgends in Widerspruch zu ihr. (Der Hauptnach- teil der anderen Hilfssprachen besteht eben darin, daß sie neue, zusätzliche Sprachen sind. Sie konkurrieren mit bestehenden natürlichen Sprachen, und diesen Wettbe- werb können sie nur verlieren. Das Fassungsvermögen des menschlichen Geistes ist beschränkt, und vor der Wahl, eine neue Sprache zu erlernen, wird sich die gro- ße Mehrheit allemal für eine entscheiden, die tatsächlich irgendwo gesprochen wird, die einem in wie begrenztem Maß auch immer eine neue Kultur erschließt, und nicht für ein Kunstding, das nur von seinen glühenden Anhän- gern beherrscht wird. Der Eintritt in eine Sekte ist weni- ger verlockend als der Eintritt in eine Kultur.) Basic English also – es dampft das normale Englisch nur radikal ein: auf 850 Wörter, davon 600 Substantive, und dazu 100 Wörter für die allgemeine Wissenschaft und 50 für jedes einzelne Fach; und dazu auf eine stark vereinfachte englische Syntax. Einigte sich ein interna- tionaler Fachkongreß auf Basic English, wäre er also mit 1000 Wörtern zu bestreiten. Was ist der Trick? Daß die meisten Begriffe sich in einfacheren Begriffen ausdrük-

71

ken lassen. Dem Ausländer, der das Wort beeilen nicht versteht, hilft man spontan mit schnell machen aus. Aber um Wörter wie schnell und machen zu definieren, müßte man viele kompliziertere Begriffe aufbieten. Basic English ist eben diese Grundschicht von Begriffen, die sich nicht mehr mit einfacheren Worten definieren lassen. Daß es trotzdem nicht ohne gewisse Würde der Armut ist, de- monstriert seine Bibel-Fassung, für die es auch nur 100 zusätzliche Wörter benötigt: »At the first God made the heaven and the earth. And the earth was waste and with- out form; and it was dark on the face of the deep: and the Spirit of God was moving on the face of the waters … « Der Trick aber kann nur im Englischen funktionie- ren. Englische Wörter haben eine nahezu unveränderli- che Gestalt: Auf jedes Lexem (also jedes Wort in seiner Grundform, wie es in konventionellen Wörterbüchern verzeichnet steht) entfallen im Durchschnitt nur etwa zwei Flexeme; deutsche haben viele Deklinations- und Konjugationsformen, im Durchschnitt 5,7 Flexeme pro Lexem, und auch bei der Bildung von Komposita ist das Deutsche viel weniger zurückhaltend. Ein ähnlich knap- pes Grunddeutsch kann es darum nicht geben. Die Schwierigkeit bei der Erstellung eines Grundwort- schatzes wird einem schlagartig klar, wenn man einen Blick in eine Konkordanz wirft, also eine Liste, die sämt- liche Wörter eines bestimmten Werks aufführt, entwe- der alphabetisch oder nach ihrer Häufigkeit und meist erstens alphabetisch (mit den entsprechenden Textver- weisen) und zweitens in Form einer Frequenzliste. Solche Konkordanzen werden seit dem letzten Jahrhundert er-

72

arbeitet; früher mußte das zugrundeliegende Textkorpus mühsam »von Hand« durchsucht und verzettelt werden; heute nimmt der Computer den Linguisten den gröbsten Teil der Arbeit ab. Am Anfang jeder dieser Frequenz- listen stehen wenige Wörter, die sehr häufig sind. An- schließend finden sich immer mehr Wörter von schnell und stark abnehmender Häufigkeit. Und dann kommt der Hauptteil: Seiten über Seiten mit Wörtern, die nur dreimal vorkommen, noch mehr Seiten mit solchen, die sich nur zweimal finden, und die meisten Seiten schließ- lich voller Wörter, die es in dem Korpus nur ein einziges Mal gibt. Das aber heißt nichts anderes, als daß statisti- sche Frequenzaussagen über das Gros des Wortschatzes schlechthin unmöglich sind. Man kann sich dieses Dilemma noch auf andere Weise verdeutlichen – nämlich indem man sich fragt, wie wahr- scheinlich es ist, einem bestimmten Wort in einem be- stimmten Text zu begegnen. Es ist keine rein akademische Perspektive. Jedes Wörterbuch ist sozusagen eine Wet- te, eine Wahrscheinlichkeitsprognose. Keines nämlich kann auch nur im entferntesten daran denken, sämtliche Wörter zu enthalten – immer gibt es noch mehr. Setzte sich jemand in den Kopf, Wörter zu sammeln wie ande- re Briefmarken, er käme selbst auf dem bescheidensten und genauest umrissenen Spezialgebiet nie an ein Ende; natürliche Sprachen sind proteisch und unerschöpflich. Jedes Wörterbuch muß eine Auswahl treffen; und es wird jene auszuwählen versuchen, bei denen die Wahrschein- lichkeit am größten ist, daß sein potentieller Benutzer- kreis nach ihnen sucht.

73

Es ist darum ein zwar unanfechtbarer, aber doch dum- mer, weil ahnungsloser Test, ein paar Wörter zu nehmen und dann zu prüfen, ob sie in einem bestimmten Wör- terbuch, egal ob konventionell oder elektronisch, ent- halten sind. Nichts ist leichter, als jedes denkbare Wör- terbuch dieser oder jener Lücke zu überführen. Sinnvoll wird diese Art von Test nur, wenn er gleichzeitig berück- sichtigt, mit ungefähr welcher Wahrscheinlichkeit ein Wort in der besonderen Zielgruppe auftaucht, an die sich das betreffende Wörterbuch wendet. Ein Taschenwör- terbuch für den Schüler und Touristen wäre nur dann schlecht zu nennen, wenn es bei Wörtern wie Deutsch- unterricht oder Fahrkartenschalter Lücken in größerer Zahl aufwiese. Hat eine Computerzeitschrift an den elek- tronischen Lexika von Textprogrammen aber auszuset- zen, daß sie Wörter wie Monitordarstellung oder Endno- tenverwaltung nicht kennen, so sagt das gar nichts über deren wirkliche Qualität oder Nichtqualität: Komposi- ta dieses Seltenheitsgrades wären allenfalls in den voll- ständigsten und speziellsten Fachwörterbüchern zu er- warten – und selbst die größten elektronischen Wörter- bücher entsprechen in ihrem Umfang, aus Gründen des begrenzten Speicherplatzes, immer noch eher einem kon- ventionellen Taschenlexikon. Die Wahrscheinlichkeit, in einem beliebigen Text in den ersten drei Zeilen auf das oder und oder ist zu sto- ßen, ist sehr groß – die Wette würde man sicher gewin- nen; genauso klein ist aber die Chance, dort ein beliebi- ges Wort wie Reinkultur vorzufinden. Daß nicht unbe- dingt schon in den ersten drei Zeilen, aber auf der ersten

74

Seite irgendeine Form von gehen oder setzen vorkommt, ist ebenfalls wahrscheinlich. Auf den ersten zehn Seiten wird sich wahrscheinlich ein groß oder sagen finden. Egal welches Buch man sich aus den Regalen einer Bibliothek holte: irgendwo auf seinen Seiten werden die meisten der rund 4000 Wörter des Grundwortschatzes stehen. Eben- so wahrscheinlich ist es, Fachwörter und überhaupt er- kennbar seltene Wörter darin nicht zu finden. Auf der Suche nach einem Wort wie Methysergidhydrogenmaleat könnte man ganze Bibliotheken durchwühlen; enthiel- ten sie keine pharmakologischen Fachbücher, so wäre die Suche vergeblich. Dazwischen aber – zwischen den ostentativ seltenen, die auf jeden Fall nur in höchst spe- ziellen Texten zu erwarten sind, und den relativ wenig häufigen Wörtern – gibt es eine riesige Zone von Wör- tern etwa gleicher Wahrscheinlichkeit oder besser Un- wahrscheinlichkeit, die völlig geläufig scheinen und je- derzeit auftauchen könnten, deren Vorkommen in einem bestimmten Text, und sei es dem dicksten aller Bücher, sich aber unmöglich prognostizieren läßt. Feinstruktur, abgefeimt, entzweischlagen, Wundermittel, anzetteln, son- derlich, Wörtchen – solche Wörter haben nichts Rares, stehen jedermann jederzeit zur Verfügung und könn- ten in fast jedem Zusammenhang benutzt werden, aber wer darauf wettete, ihnen irgendwo tatsächlich zu begeg- nen, hätte keine größeren Chancen als beim Fußballto- to. Ein Wörterbuch, das ihr Vorkommen zu antizipie- ren suchte, müßte dann gleich sehr groß sein, nämlich Hunderttausende von Lexemen enthalten, das Gros des Wortschatzes. Jenseits des Grundwortschatzes läßt sich

75

die Zahl nur dann einengen, wenn man von vornher- ein auf bestimmte Textsorten abzielt. Der ausländische Schüler zu Besuch in einer deutschen Familie wird ein ganz anderes Repertoire benötigen und gebrauchen als jemand, der einen Zeitungsartikel über die Kommunal- wahlen nacherzählt. Da steht der allgemeine deutsche Wortschatz im Regal, zusammengetragen von emsigen und stillen Lexikogra- phen. Aber wie viel davon ist unser eigen? Unser Wiedererkennensgedächtnis ist in allem um ein Mehrfaches größer als unser Reproduktionsgedächtnis. Wir verstehen mehr Wörter, als wir jemals selber ge- brauchen. Wie viele wir verstehen, hat 1977 der Sprachwissen- schaftler Gerhard Augst annäherungsweise eruiert. Sei- ne beiden Versuchspersonen verstanden etwa 88 Prozent der 107 000 Wörter des einbändigen »Wahrig«, der da- mals das größte westdeutsche Wörterbuch der Gegen- wartssprache war. Es ist zu vermuten, daß sie von den über doppelt so vielen Wörtern des »Brockhaus Wahrig« einen nicht viel kleineren Prozentsatz verstünden. Denn wir verstehen ein Wort nicht nur, wenn wir es gelernt haben; es genügt, daß wir seine Morpheme – die bedeu- tungstragenden Grundeinheiten, also Wortstämme und Affixe – und die Regeln der Wortbildung kennen. Auch wenn wir dem Renditejäger oder dem Mediengefühl nie begegnet sind und beides selber gewiß nie gebrauchen werden, wissen wir auf Anhieb, was das ist; und wen ein isolierter Schweinepriester vielleicht noch im unkla- ren läßt, dem hilft der Zusammenhang schnell auf die

76

Sprünge. Also darf man annehmen, daß ein einigerma- ßen sprachgewandter Deutscher einen passiven allgemei- nen Wortschatz von einigen hunderttausend Wörtern hat, und dazu das jeweilige Fachvokabular seines Berufs. Wie viele davon »beherrscht« einer aber wirklich? Auch das ist schwer zu sagen, denn kein Linguist kann je auf- zeichnen und auswerten, was ein einzelner Mensch oder gar ein repräsentativer Querschnitt seiner Zeitgenos- sen im Leben alles spricht und schreibt. Mancher akti- ve Wortschatz mag herzlich klein sein: Morgen – noch ne Tasse – also denn gib mal – eine Bild – halt den Mund – mach schon – alles klar – was gibts in der Glotze – für mich n Bierchen Null Ouvert – ein solches Leben läßt sich mit ein paar hundert Wörtern allemal bestreiten. Das Goe- the-Institut und der Volkshochschulverband, die die al- lermeisten Erfahrungen mit »Deutsch als Fremdsprache« zu sammeln Gelegenheit hatten, haben die Faustregel ent- wickelt: Wer eine Fremdsprache lernt, muß mindestens 8000 Wörter verstehen und 2000 selber zu gebrauchen wissen, um sich im Alltag einigermaßen durchschlagen zu können. Je mehr einer spricht und schreibt, und über je mehr Gegenstände er spricht und schreibt, desto größer ist auch die Zahl der Wörter, die er gebraucht. Aber auch die umfangreichsten Schriftsteller-Wortschätze über- stiegen, als man nachzählte, selten die 20 000. Man geht also wohl nicht ganz fehl, wenn man den aktiven Wort- schatz eines Deutschen – die Zahl der Wörter, die ihm je über die Zunge und in die »Feder« kommen, auf 2000 bis 20 000 schätzt. Der eines durchschnittlich Beredten liegt vermutlich in der Nähe der Mitte, bei 10 000.

77

Das aber ist nur jener Teil des Aktivwortschatzes, der manifest wird. Damit einem im richtigen Augenblick das richtige Wort einfällt, müssen jedoch wesentlich mehr Wörter zu Gebote stehen. Dieser latente aktive Wort- schatz ist am schwersten zu fassen. Mit Sicherheit ist er sehr viel größer als der manifeste aktive und wahrschein- lich etwas kleiner als der passive – und liegt im übrigen völlig im Dunkeln. Der Zufall will es, daß ich dazu eine Art Selbstver- such gemacht habe. Sein Ergebnis konnte ich nicht vor- aussehen und habe ich so auf keinen Fall erwartet. Ich habe Wörter gesammelt. Ich habe (eine nette Beschäfti- gung in Migränestunden, wenn man nichts Gescheite- res anfangen kann) Wörterlisten für die elektronische Rechtschreibkontrolle des Textprogramms zusammen- gestellt, mit dem ich damals arbeitete. Wie sie geliefert wurde, enthielt das Lexikon bloße 32 000 Wortformen (gedruckt hätten sie ein dünnes Heftchen ergeben); es fehlten selbst Funktionswörter wie alleine, beinah, derer, hinunter und die allermeisten Beugungsformen, selbst haben und sein waren nicht vollständig vertreten; dafür gab es Auerhahn und Tomatensoße und viele hübsche Fehler wie Bundstift, Talismann, Kaputze oder das ge- radezu joycesche Horroskop – kurz, es war ein beredtes Zeugnis für die Ahnungslosigkeit, mit der sich manche Computerfirmen auf das Glatteis der Sprache wagen, und natürlich völlig unbrauchbar, denn bei spätestens jedem zweiten durchaus richtig geschriebenen Wort fuhr es ei- nem mit der Bemerkung »Tippfehler!« dazwischen. Die- ses Unding habe ich nach und nach auf 214 000 Wortfor-

78

men gebracht, und ich habe dabei mit Grundwortschät- zen und Funktionswortschätzen experimentiert. Dabei wurde einiges deutlich. Bloße drei Wörter ma- chen etwa 10 Prozent jedes normalen Textes aus. Wir wis- sen es, seit F. W. Kaeding, auf der Suche nach der opti- malen Stenographie, am Ende des vorigen Jahrhunderts nicht weniger als elf Millionen Wörter durchzählte. (Die Menge entsprach dem Inhalt von zweihundert Büchern, und er hatte noch keinen Computer.) Es sind die Wörter die, der und und. Bloße 66 Wörter decken die Hälfte je- des normalen Textes ab. Alle sind sie »Funktionswörter«:

Pronomen, Artikel, Konjunktionen, Präpositionen, Hilfs- verben, Interjektionen, Pronominalverbien (dabei, wor- über) – Wörter also, die selber keine oder nur eine sehr blasse lexikalische Bedeutung haben, sondern klarstellen, in welchen Beziehungen die »Inhaltswörter« eines Satzes zueinander stehen. Darum kann man nicht sagen, daß diese 66 Wörter reichten, um 50 Prozent eines normalen Textes zu verstehen. Wer nur die abra ka, dabra: noch gar nichts: Wer nur die Funktionswörter kennte, verstün- de noch gar nichts. Selbst wenn man veraltete oder ganz ausgefallene Exemplare mitzählt (fürbaß, fürwahr), hat die deutsche Sprache kaum mehr als 1000 Funktionswör- ter. Zu ihnen kommen Adverbien, die ebenfalls nur den Wert eines Funktionswortes haben, zum Beispiel Adver- bien, die den Handlungsmodus angeben und in manchen Sprachen in das Verb selbst integriert sind (wieder, dau- ernd), Adverbien der Zeit (gestern, spät), Adverbien des Raums (vorne, näher) und Gradadverbien (sehr, ganz, aber dann auch gehörig, mächtig, ungeheuer, wahnsinnig und

79

dergleichen) sowie die von solchen Adverbien abgeleite- ten Adjektive (abermalige, fortwährende, heutige). Auch wenn man den Begriff Funktionswort solchermaßen weit faßt, sind es alles in allem nur wenig mehr als 2000. Und diese 2000 Wörter kommen für 55 bis 65 Prozent jedes normalen Textes auf. Nimmt man dazu noch einige hun- dert (nicht zusammengesetzte) Grundverben (wie gehen, machen, sagen), die (zumeist einsilbigen) Grundadjektive (wie groß, neu, hoch) und die häufigsten Substantive (wie Mensch, Tag, Haus), so kommt man auf einen Bestand von etwa 4000 Wörtern, der 75 bis 80 Prozent eines nor- malen unspeziellen, also »leichten« Textes abdeckt. Mit bloßen 4000 Wörtern kommt man statistisch gesehen also schon recht weit; aber wer mit diesen 4000 wirk- lich auskommen müßte, wäre auf Schritt und Tritt fru- striert. Dauernd könnte er nicht sagen, was er eigentlich sagen will. Seine Sprache wirkte überaus verarmt. Ein Lexikon von etwa 5000 Wörtern deckt an die 90 Pro- zent eines fachlich nur schwach spezifizierten, also »nor- malen« Textes ab. Etwa 50 000 Wörter aber sind dann schon nötig, um gut 95 Prozent eines solchen Textes zu erschließen. Wie bei einem Auto, in je höhere Geschwin- digkeitsbereiche man gelangt, immer mehr PS aufgebo- ten werden müssen, um die Spitzengeschwindigkeit um einen bestimmten Betrag zu steigern, so werden immer größere Wörtermengen nötig, die letzten paar Prozent eines Textes zu antizipieren. Die obersten zwei Prozent sind derart unvorhersehbar, daß sämtliche Fachwörter- bücher zusammen nötig wären, einen größeren Teil von ihnen aufzuführen – und all die aktuellen Neologismen,

80

die noch in keinem Wörterbuch stehen, sowie all die Ad- hoc-Prägungen fehlten dann immer noch. Erst als mein eigenes Computerlexikon über 45 000 Wörter zählte, begannen immer häufiger solche aufzu- tauchen, von denen ich wußte: Sie sind mir zwar geläu- fig, das heißt, ich habe sie gehört und gelesen und ver- stehe sie und stutze nicht im mindesten, wenn sie mir begegnen, aber benutzt habe ich sie bisher nicht, und ver- mutlich werde ich sie auch nie benutzen, nicht weil sie mir mißfielen, sondern weil ich im richtigen Augenblick nicht auf sie käme. Doch, man kann es oft mit ziemli- cher Sicherheit unterscheiden. Ich kann erkennen, daß ich die Knautschzone oder den Katamaran schon einmal gebraucht habe oder doch jederzeit gebrauchen könn- te, den Quereinsteiger oder das Wechselfieber aber nicht; letzteres darum nicht, weil ich bisher nicht wußte, was darunter genau zu verstehen ist, und mir darum keine Situation vorstellen kann, in der es mir als das gesuchte Wort erschiene – anders gesagt: weil der Begriff, den es benennt, gar nicht in meinem Besitz ist. Darum schätze ich nun meinen latenten Aktivwort- schatz auf über 50 000. Und das ist viel mehr, als ich er- wartet hätte. Wie viele ich jemals wirklich benutzt habe und je benutzen werde, weiß ich natürlich nicht. Es hängt vor allem davon ab, wieviel ich spreche und schreibe – und wie vielfältig die Gegenstände sind, über die ich spre- che und schreibe. So hätten wir also dies in der Hand. Gesamtwortschatz:

eine zweistellige Millionenzahl, nach oben offen. Allge- meiner Wortschatz: 250 000 Wörter in 500 000 lexika-

81

lischen Bedeutungen. Individueller Mindestwortschatz:

8000 passiv, 2000 aktiv. Ein sechsjähriges Kind, wissen wir aus der Untersuchung von Augst, versteht 27 000 und benutzt 5200, hat also über Jahre hin Tag für Tag 3 neue Wörter zu gebrauchen und 17 zu verstehen gelernt. Der individuelle Wortschatz eines gebildeten und sprachge- übten Erwachsenen beläuft sich auf einige hunderttau- send bekannte Wörter. Er gebraucht 10 000 bis 15 000. Und wer 10 000 Wörter tatsächlich verwendet, gebietet latent über etwa die vier- bis fünffache Menge. So grotesk unzulänglich unser Vorstellungsvermö- gen für größere Zahlen auch ist, jedem dürfte immer- hin klar sein, daß 50 000 eine ganze Menge sind. Wer eine ganz bestimmte Buchseite unter 50 000 suchte, hätte zweihundert durchschnittliche dicke Bücher zu durchsu- chen, zehn Regalbretter. Das Gehirn bringt es fertig, in- nerhalb von Millisekunden das gesuchte Wort in seinem Speicher aufzustöbern und: die motorischen Programme zu seiner lautlichen und schriftlichen Wiedergabe zu ak- tivieren, und das ist eine sehr beachtliche Leistung. Wie ist sein »Lexikon« gespeichert? Natürlich nicht alphabe- tisch; es wäre keinem möglich, sämtliche Wörter eines Anfangsbuchstabens herzusagen, und wenn er sich noch soviel Zeit ließe. Nach der Länge ebensowenig; bäte man jemanden, alle ihm zu Gebote stehenden siebensilbigen Wörter zu nennen, so käme er wahrscheinlich erst einmal auf kein einziges. Auch nicht nach Morphemen; niemand fände all die durchaus in seinem aktiven Besitz befind- lichen Wörter auf, die sagen wir mit bis- beginnen oder deren Hauptelement sagen wir -teil ist. Auch nach gram-

82

matischen Klassen ist das innere Lexikon gewiß nicht sor- tiert; niemand wäre imstande, aus seinem Gedächtnis- speicher alle Adjektive der Größe oder alle Adverbien auf -maßen hervorzuholen. Schon der Versuch, unser Gehirn auf diese Weise zu befragen, verwirrt uns, mutet uns ge- radezu widernatürlich an. Der Reiz von Kreuzworträtseln, Silbenrätseln oder Scrabble liegt eben darin, daß alle sol- chen Spiele uns abverlangen, unser Sprachgedächtnis auf eine uns eigentlich völlig gegen den Strich gehende Art und Weise abzusuchen: vorgegebene Elemente unterhalb der Wortebene (Buchstaben an festliegenden Positionen, Silben, bestimmte Buchstaben) zu Wörtern zusammen- zusetzen. Wir wären dazu außerstande, kämen nicht die Rätselautoren – oder wir uns selber – mit einem weite- ren Gesichtspunkt zu Hilfe: der Bedeutung. »Ein Wort mit sechs Buchstaben, zwei Silben mit den Vokalen Ä und E, Anfangsbuchstabe R … ?« Wir hätten Mühe, wir wären nie sicher, alle Wörter aufgetrieben zu haben, auf die diese Spezifikation zutrifft. Aber »Denksportaufga- be?« … und sofort wäre das Rätsel gelöst, und wir hät- ten es beleidigend einfach gefunden. Tatsächlich ordnet unser Geistorgan sein Lexikon nicht nach irgendwelchen äußeren Gestaltmerkmalen der Wör- ter, sondern in der Hauptsache nach ihren Bedeutungen, also semantisch. Der amerikanische Sprachwissenschaft- ler Paul A. Kolers konnte es 1968 mit einem einfachen und schlagenden Experiment beweisen. Gibt man Ver- suchspersonen längere Wörterlisten mit einzelnen unre- gelmäßigen Wiederholungen zu lesen (oder liest man sie ihnen vor), so können sie hinterher jene am besten wie-

83

dergeben, die am häufigsten vorkamen: je häufiger ge- nannt, desto häufiger auch erinnert, und niemand hät- te etwas anderes erwartet. Und nun Kolers’ Dreh: Er baute in seine Listen ebenfalls unregelmäßige Wieder- holungen ein, aber mit einer Abwandlung – die Wör- ter, oder vielmehr nicht die Wörter, sondern die ihnen zugrundeliegenden Begriffe, wurden in verschiedenen, den Versuchspersonen geläufigen Sprachen wiederholt:

das englische fold bald als fold, bald aber auch franzö- sisch als pli. Und siehe da, auch die Wiederholung eines Begriffs in verschiedenen Sprachen, also ganz und gar verschiedener Wörter, verstärkte die Erinnerung nicht weniger als die Wiederholung ein und desselben Wor- tes. Unser Geistorgan hat die Wörter den Bedeutungen assoziiert und findet sie von den Bedeutungen her. Ein zweites und weit weniger effizientes Ordnungsprinzip ist das lautliche. Welche Wörter klingen hinten wie -ende? Lende, Wände, Geisterhände … (man sieht, die Schrei- bung ist bei dieser Art der Suche gleichgültig.) Die Fä- higkeit, homophone Wörter oder Wortbestandteile zu finden, ist bei den Menschen verschieden ausgebildet; sie läßt sich trainieren. Darin wiederum besteht der Reiz des Wortspiels und des Reimes, besonders des seltenen Reimes: daß beide uns eine Art von Umgang mit dem inneren Wortbestand vorfuhren, die uns selber schwer- fiele oder ganz unmöglich wäre. (»Darauf muß man erst mal kommen!«) Daraus ergibt sich nebenbei, daß Arno Schmidts soge- nannte Etym-Theorie auf einer unrichtigen Vorausset- zung aufbaut: »… daß der Fonetismus einer Silbe auto-

84

matisch die ›Nebenbilder‹ aller ähnlich klingenden her- vorruft.« Nichts »automatisch«, nichts »alle«; der Witz der Ka- lauer, die Schmidt hier im Auge hat, besteht eben dar- in, daß sie nicht ständig jedem, und zwar von ganz al- lein einfallen. »Im ›Wortzentrum‹ des Gehirns«, schreibt

Schmidt, »[sind] die Bilder & ihre Namen (& auch das daranhängende Begriffsmaterial der ›Reinen Vernunft‹) viel weniger nach sachlichen, sondern ballen- oder kol- liweise nach fonetischen Kriterien gelagert.« Das eben sind sie nicht. Das ausschlaggebende Ordnungsprinzip ist nicht phonetischer, sondern semantischer Art. Es sind die Assoziationsnetze, in die unser Gehirn die Begriffe verwebt. Ein Wort, das nicht auf diese Weise semantisch verwoben wäre, fiele uns wahrscheinlich nie wieder ein, und wenn man es uns fast bis auf den letzten Laut oder

Buchstaben vorlegte. »Ergänze Kan

gelingen, aber erst nach einigem Suchen. »Synonym für Büro!« Sofort ist es da. Wer hat die meisten Wörter? Doch sicher jene, die von Berufs wegen die Wörter lieben und in ihnen zu Hause sind und schöpferisch mit ihnen umgehen: die Dichter. Eine der elementaren Qualitäten jeder besseren Litera- tur besteht darin, daß sie die Sprache dem Denken un- gewöhnlich differenziert und geschmeidig anpaßt. Das eben ist ja die Kunst. Nabokov studierte Wörterbücher, auf der Suche nach seltenen, treffenderen Wort-Exem- plaren. In dem – von Wilfried Böhringer wunderschön ins Deutsche übersetzten – Roman »Drei traurige Ti- ger« von Guillermo Cabrera Infante verspottet der Autor

ei!« Es wird uns

85

seinen kubanischen Landsmann Alejo Carpentier und vor allem dessen Manie, auch noch das letzte Detail bei seinem genauen Namen zu nennen. Doch selbst durch die Parodie hindurch merkt der Leser, daß diese Poesie der Genauigkeit, des richtigen Wortes »etwas hat«: »… da wußte er, daß er auf dem richtigen Weg war, daß er sich nicht getäuscht hatte, denn hier waren die erwar- teten purpurnen Astragale, die porphyrnen Architrave und die in Chartreuse und Magenta kannelierten Apo- phygen …« Aber auch vom Wortschatz der Dichter macht man sich leicht falsche Vorstellungen. Heute hätte man zumindest Anhaltspunkte. Seit der Computer in die Philologie Ein- zug hielt, sind viele neue Konkordanzen erschienen. Sie dienen dem Literaturwissenschaftler dazu, einzelne Be- griffe quer durch ein ganzes Werk zu verfolgen. Zwar ist kaum einem dieser meist so umfänglichen wie unansehn- lichen Wälzer der wirkliche Umfang eines Wortschatzes zu entnehmen. Die eine schneidet die häufigsten Wör- ter ab, die andere die, welche nur ein einziges Mal vor- kommen (und das sind regelmäßig über die Hälfte). Vor allem bleiben sie die »Lexematisierung« schuldig. Nor- male Wörterbücher vereinen alle Formen, in denen ein Wort vorkommen kann, zu einem Lexem. Der Compu- ter behandelt einfach alles, was zwischen zwei Lücken steht, als selbständiges Wort. Das Hilfsverb sein ist also unter bin, gewesen, wärest und so weiter zu suchen. Um auf den Umfang eines Wortschatzes zu schließen, muß man darum in den Konkordanzen herumrechnen. Franz Kafkas »Prozeß« ist aus 6500 Wörtern gemacht, Her-

86

man Melvilles »Moby Dick« aus 16 000. Storms Wort- schatz liegt bei 22 000. Mit ihren 25 000 Wörtern wirkt schon Shakespeares Sprache unglaublich reich. Aber das in Entstehung begriffene »Goethe Wörterbuch« soll auf etwa 80 000 Lexeme hinauslaufen. Joyces Wortschatz, liest man, habe gar eine Viertelmillion Wörter umfaßt. Es kann nicht sein. Zwar ist der Wortschatz seines »Ulys- ses« größer als der des ganzen Shakespeare: 32 000. Aber selbst alle die Neuprägungen von »Finnegans Wake« – die ja eigentlich überblendete oder verschriebene normale Wörter sind – übersteigen kaum die 50 000 – so daß sein gesamter Wortschatz sicher unter 100 000 liegt. Aber das mag sehr wohl der größte aktive Wortschatz sein, den je ein Irdischer sein eigen nannte. Und wohlgemerkt, alle diese Zahlen geben an, wie viele Wörter in einem Werk vorkommen, spiegeln also nur den tatsächlich verwende- ten Teil des zu Gebote stehenden aktiven Wortschatzes, der in jedem Fall um ein Vielfaches größer sein muß. Je größer ein Textkorpus, je mehr einer schreibt und sagt, und über je mehr Themen er redet, um so größer wird auch die Zahl der von ihm benutzten Wörter sein. Ein vielseitiger Journalist könnte darum leicht einen größe- ren manifest aktiven Wortschatz haben als ein wähleri- scher Dichter, auch wenn der jedem auf den ersten Blick viel ausdrucksmächtiger wirkt. Daß Lyriker insgesamt weniger schreiben, macht auch ihren aktiven Wortschatz wesentlich kleiner. Der Wort- schatz aller Gedichte Rainer Maria Rilkes war nicht viel größer als 5000. (Seine häufigsten Inhaltswörter waren:

Leben, Nacht, weiß, Welt, Gott, leise …) Gottfried Benns

87

ganze Lyrik bestreiten nicht mehr als 2700 Wörter. (Sei- ne Favoriten waren Nacht, Meer, Blut, Stunde, Welt …) Hesses Lyrik-Wortschatz ist zwar wesentlich größer: etwa 15 000. Bei näherer Betrachtung sieht man aber auch wa- rum. Seine Gedichte strotzen von selbstgemachten Wör- tern wie Blumenblässe, liebeswund, segenschwer, Sternen- spiegel … Genau darum wirken wohl viele von ihnen heute so talmihaft. Da schwant uns nämlich etwas. Die schiere Menge macht es nicht. Benns geradezu lachhaft kleiner Lyrik- Wortschatz mutet in seiner Spannweite vom Ordinären zum Kostbaren, von Suff und Kleister zu stygisch und Levkoienwelle ganz besonders groß an. Ein kleiner Wort- schatz zwar wird auch nur eine dürftige Ausdrucksfä- higkeit ergeben. Aber ein großer Wortschatz ist noch nicht ausreichend für eine große Ausdrucksfähigkeit. Es kommt nicht darauf an, aus den endlosen ungelüfteten Gedächtnisspeichern und seinen Ad-hoc-Wörterfabriken alles, aber auch alles hervorzuholen. Es kommt vielmehr auf die Gedanken an, die nach Wörtern verlangen. Und es kommt darauf an, im richtigen Moment die richtigen hervorholen zu können.

BLOS

TIPPPFEHLER

Der Computer als Orthographie-Experte

Am Bildschirm übersieht man Fehler leichter als auf dem Papier. Besonders häufig geschieht es, daß man beim Korrigieren und Wiederkorrigieren, das oft Um- stellungen mit sich bringt, auf dem Bildschirm Wörter zu löschen vergißt, die bei der Neuformulierung über- flüssig geworden sind. Sie sind richtig geschrieben, ur- sprünglich war nichts gegen sie zu sagen, jetzt aber ste- hen sie am falschen Platz – und werden am Bildschirm gern übersehen. Warum man sie übersieht, ist gar nicht klar. Es könn- te sein, daß man am Bildschirm eher wortweise liest als in größeren Wortgruppen, so daß man sich an überflüs- sigen Wörtern nicht so stört, solange sie nur richtig ge- schrieben sind und zum Sinn des Satzes passen. Es könn- te aber im Gegenteil auch sein, daß man eher vom Ge- samtsinn eines Satzes ausgeht – besonders dann, wenn man diesen noch im Kopf hat – und wegen der größeren Mühe, die das Bildschirmlesen macht, seltener überprüft, ob der von der Stellung der einzelnen Wörter auch ge- deckt wird. Schließlich könnte es sein, daß man am Bild- schirm einfach »ungefährer« liest: Das Lesen ist müh- samer, also analysiert das Auge nicht sämtliche Schrift- zeichen vollständig, sondern begnügt sich mit ein paar wichtigen Unterscheidungsmerkmalen und nimmt es mit dem Rest nicht so genau. Häufig passiert es auch, daß Buchstaben fälschlich ver- doppelt oder verdreifacht werden – die Computertasta-

91

tur ist empfindlich, auch ist ihr »Auto-Repeat« vielleicht zu schnell eingestellt, und dann schreibt der Computer ein Zeichen mehrfach, wenn man seine Taste ein we- nig zu lange drückt. Solche Fehler unterlaufen leichter als beim Maschineschreiben, und oft übersieht man sie am Bildschirm. Egal in welchem Medium man schreibt: Die deutsche Orthographie hat Tücken, die niemand ganz und gar mei- stert. Also wäre es gut, wenn der Computer einem dabei hülfe, falsche Schreibungen zu vermeiden. Tatsächlich gibt es solche Hilfen. Sie heißen Spelling- checker. Ein Spellingchecker ist ein PC-Programm, meist in Form einer Zugabe zu den ehrgeizigeren Textprogram- men. Sein Zweck ist es, einen auf Tippfehler aufmerk- sam zu machen – sozusagen ein eingebauter Rechtschreib- »Duden«. Das Prinzip ist einfach: Die Maschine sucht jedes ge- schriebene Wort in einem eigenen Lexikon, und wenn sie es dort nicht findet, gibt sie eine Fehlermeldung. Je weniger Wörter das Lexikon enthält, desto öfter werden auch richtig geschriebene Wörter als fehlerhaft gemeldet, und wenn das zu oft geschieht, wird man das Ding lie- ber abschalten. Die Qualität eines Spellingcheckers hängt also immer wesentlich von der Qualität seines Lexikons ab. Und daß einige wie ein schlechter Witz anmuten, muß daher rühren, daß manchen Software-Entwicklern nicht klar ist und auch nicht klarzumachen ist: Auch etwas so Unscheinbares wie ein Lexikon hat sehr wohl eine Qualität. Es gibt zwei Sorten von Spellingcheckern. Die eine sucht

92

nach ganzen Wörtern: Sie betrachtet alles, was zwischen zwei Spatien (blanks) steht, als eine zu prüfende Einheit und sieht im Lexikon nach, ob der nämliche »String«, die nämliche Zeichenfolge dort vorhanden ist. Ist sie es nicht, gibt der Spellingchecker Alarm – und der kann bedeuten, daß das betreffende Wort tatsächlich falsch geschrieben wurde, aber auch nur, daß es dem Lexikon unbekannt ist. Über die Wortebene denkt eine solche Rechtschreib- prüfung natürlich nie hinaus: Die Satzphrase eine großes fehl würde sie nicht beanstanden, denn alle drei Wörter gibt es. Im Unterschied zu den konventionellen Wörter- büchern auf dem Regal kommt ein solcher Spellingchek- ker also nicht mit den Lexemen, den Grundformen der Wörter aus; jede Konjugations- oder Deklinations- oder Steigerungsform, jede adverbiale oder adjektivische Ab- leitung, jede zusammengesetzte Form ist für ihn ein ei- genes »Wort«. Die meisten deutschen Wörter treten in mehreren Beugungsformen (»Flexemen«) auf; manche unschuldig wirkenden zusammengesetzten Verben (ein- schließen) haben deren bis zu neunundvierzig. Das Lexi- kon muß also sozusagen ein Flexikon sein. Nach den Beobachtungen einer mit dem maschinel- len Übersetzungssystem METAL befaßten Forschungs- gruppe der Firma Siemens, die unter anderem auch ein Grundformenlexikon zu einem Vollformenlexikon aus- gebaut hat, ist das Verhältnis von Lexemen zu Flexemen in der deutschen Sprache 1 zu 5,7. Das Englische, eine weitaus flexionsärmere, »analytischere« Sprache als das noch relativ »synthetische« Deutsche, hat längst nicht so viele Flexeme und Komposita. Das »noch« ist sprachhi-

93

storisch zu verstehen. Der Sprachbau der indoeuropä- ischen Sprachen war ursprünglich synthetisch, das heißt:

Sie hatten die Tendenz, syntaktische Beziehungen durch Veränderungen des Wortstamms zu kennzeichnen. Die Metamorphose hin zum analytischen Sprachbau, bei dem die syntaktischen Beziehungen durch separate Funkti- onswörter klargestellt werden, haben sie in verschiede- nem Maß vollzogen, das Englische stärker als das Deut- sche. Hier liegt das Verhältnis von Lexemen zu Flexemen bei 1 zu 1,9. Deutsche Vollformenlexika müssen darum von vornherein dreimal so groß sein wie englische. Au- ßerdem schreibt das Englische die meisten zusammenge- setzten Begriffe als getrennte Wörter (news magazine, ivy league), während sie im Deutschen zusammengeschrie- ben werden (Nachrichtenmagazin, Oberliga). Aus beiden Gründen können englische Spellingchecker dieser Art wesentlich kleiner sein: Wo er Alltagstexte zu prüfen hat, arbeitet ein englischer Spellingchecker schon mit 50 000 Wortformen ganz vortrefflich; um ihm in der Leistung gleichzukommen, braucht ein deutscher erfahrungsge- mäß über 200 000. Und da viele der verbreitetsten Text- programme aus dem englischsprachigen Raum kommen, sind sie schon von ihrer Konzeption her nicht auf derar- tig große Wörterbücher angelegt. Den leidigen Unterschied zwischen »Wörter« und »Wortformen« ignorieren die Softwarehäuser bei ihren Größenangaben im übrigen gern. Sie sprechen von »Wör- tern«, wo sie Wortformen oder Einträge meinen, so daß ihre Lexika regelmäßig größer wirken, als sie tatsäch- lich sind. »200 000 Wörter« klingt eindrucksvoll, auf dem

94

Rechtschreib-»Duden« steht es auch; aber wenn sämtli- che Flexeme aufgenommen wurden, verbergen sich da- hinter bloße 3 5 000 Lexeme – und das ist kaum halb soviel, wie ein kleines konventionelles Taschenwörter- buch enthält. Die tonangebenden, die verbreitetsten Text- programme haben noch wesentlich weniger: MS-Word 5.0 bloße 130 000, nicht Wörter, sondern Wortformen, WordPerfect 5.0 111 000, Wordstar 5.5 gar nur 100 000 – ein derartig dünnes Papierwörterbuch wäre nur zum La- chen. Die 290 000 Wortformen von Euroscript à la car- te, beigesteuert von einer amerikanischen Spezialfirma für elektronische Sprachverarbeitung, Microlytics, wären nicht übel, wenn die Angabe zuträfe. Doch selbst echte 290 000 Wortformen machten ein Lexikon noch lange nicht »riesig«, wie es die Werbung kühn behauptet, son- dern entsprächen nur 51 000 Lexemen. Andererseits führ- ten die 200 000 Lexeme des Rechtschreib-»Duden« zu ei- nem Vollformenlexikon von über 1,1 Millionen Einträgen, das noch niemand geschrieben hat und das derzeit auch auf dem größten PC nicht zu »implementieren« wäre. So- gar der Riese unter den deutschen Spellingcheckern mit Vollformlexikon, das Orthographieprogramm Carlos, ist mit seinen 500 000 Wortformen neben den großen kon- ventionellen Wörterbüchern nur ein Zwerg. Und gera- de weil alle Spellingchecker bisher ein so relativ schma- les Wörterbuch haben, käme alles darauf an, daß dieses nicht irgendwie zusammengestoppelt wird, sondern die richtigen Wörter enthält – nämlich jene, die in der Pra- xis wahrscheinlich am häufigsten auftreten. Das heißt, in sie sollten sprachstatistische Erfahrungen eingehen.

95

Der Spellingchecker der anderen Art – ein Beispiel wäre das Programm Primus – arbeitet »regelgeleitet«:

Er enthält nur Morpheme, also Wortstämme und Affi- xe (Vor- und Nachsilben), dazu dann aber die morpho- logischen Regeln für ihre Beugung und Verbindung, die angeben, zu welchen Wortformen und Komposita sie sich verändern lassen. Deutsche Morpheme gibt es nur etwa 5000 – aus nicht mehr Elementen sind die Hunderttau- sende, die Millionen deutscher Wörter zusammengesetzt. Diese Art von Lexikon kann also sehr viel kleiner sein. Einen geringeren Speicherbedarf hat sie dennoch nicht, denn die Flexions- und Zusammensetzungsregeln und dazu die vielen Ausnahmen, für die sie nicht zutreffen, brauchen Platz. Ihr Vorteil liegt darin, daß sie Kompo- sita antizipiert, an denen das Deutsche so überreich ist (Vertragsstrafe, Ersatzgehirn), selbst solche, die noch nie vorgekommen sind, aber jederzeit von jemandem gebil- det werden könnten. Beide Arten stoßen auf dem Weg zu ihrer Perfektionie- rung auf inhärente Schwierigkeiten. Je mehr Formen das Vollformenlexikon enthält, desto mehr Zeichenstrings erlaubt es, und je mehr es erlaubt, desto öfter erlaubt es auch solche, die nur in einem Zusammenhang richtig, in einem anderen aber Tippfehler sind: Die drei Fehler in einem Satz wie Reisig ißt der Sterz ließe es unbean- standet. Ein kleineres Lexikon hätte wahrscheinlich we- der Reisig noch Sterz enthalten und somit das falsch ge- schriebene Riesig und Stern reklamiert. Beim regelgeleiteten Lexikon wiederum untersucht der Computer jede Zeichenfolge daraufhin, ob irgendwelche

96

erlaubten Morpheme in regelhaften Abwandlungen und Kombinationen in ihr stecken, und das ist zum einen eine erhebliche Rechenaufgabe. Er muß ja jede Zeichenket- te auf jede Segmentierungsmöglichkeit prüfen. Macht er sich an den String Notartermine, so könnte der erste Be- standteil not, nota oder notar sein – und für jeden dieser Fälle muß er untersuchen, ob sich irgendwelche ande- ren Morpheme in den restlichen Buchstaben unterbrin- gen lassen. Zum andern kann er, wenn ihn keine weite- ren Regeln an beliebigen Zusammenstellungen einzelner Wörter hindern, zu völlig falschen Ergebnissen kommen – falsch natürlich nur aus der Sicht des Benutzers. So mag er den Tippfehler notarterminne durchgehen las- sen, weil er es erfolgreich zu not-art-er-minne oder no- tar-term-inne zerlegt. Das heißt, er läßt auch unzählige Zeichenfolgen gelten, die es gar nicht gibt. Der Leerkör- per und das Mehr schweinchen blieben wahrscheinlich unbeanstandet. Außerdem brauchte ein solcher Spelling- checker schon sehr viel grammatisches Wissen, in die- sem Fall über die Verwendung des Fugen-S, oder doch wieder ein großes Lexikon für Einzelfälle, um zu mer- ken, daß von den Zeichenfolgen Himmelsfahrtkommando, Himmelfahrtskommando, Himmelfahrtkommando, Him- melsfahrtskommando nur eine zulässig ist. Mit einem Wort: Je mehr Wortformen beide Arten von Wörterbü- chern enthalten oder selber bilden können, desto mehr läßt ihr Diskriminationsvermögen nach. Daran muß es liegen, daß bei einem Test der Zeit- schrift ›Chip‹ die beiden besten – und teuersten – deut- schen Rechtschreibprüfprogramme, Carlos und Primus,

97

das erste ein Vollformenlexikon, das zweite regelgeleitet, zwar am besten abschnitten, aber beide gleich viele Tipp- fehler durchgehen ließen, mehr als die meisten anderen Rechtschreibprüfprogramme. Angesichts dieser sprachlichen Sachlage (von der, nach ihren unbekümmerten Produkten zu urteilen, manche der auf diesem Gebiet tätigen Softwarehäuser nicht die mindeste Ahnung zu haben scheinen) nimmt es nicht wei- ter wunder, daß Spellingchecker bisher keine reine Freu- de sind und daß es den vollkommenen Spellingchecker gar nicht geben kann. Um so wichtiger wäre es, daß sie wenigstens praktisch zu handhaben sind – so »komforta- bel«, so »benutzerfreundlich«, wie die Computerbranche es ihren Produkten gerne nachsagt; daß sie zum Beispiel die Prüfung in wirklich elektrischem Tempo vornehmen und nicht gemächlich von Wort zu Wort hüpfen und daß die Zusammenstellung und Einbindung separater eige- ner Spezialwörterbücher ohne Schwierigkeiten möglich ist. Dringend zu wünschen ist auch die Online-Kontrol- le: Schon während des Schreibens sollten sie einen auf mögliche Tippfehler aufmerksam machen, nicht erst in einem zeitraubenden nachträglichen Prüfgang. Aber sie sollten es diskret tun, mit einem Brummton oder einem Aufblinken des gerade geschriebenen und möglicherwei- se falschen Wortes. Wenn sie einem mit einer »Dialogbox« dazwischenfahren, die den gerade entstehenden Text ver- deckt und einen zur Beantwortung irgendwelcher Fragen nötigt (die Reklamation ignorieren? das betreffende Wort in ein Lexikon aufnehmen? in welches? das Hauptlexi- kon? ein Benutzerlexikon?), können sie gewaltig stören.

98

Das Programm Right fährt einem nicht nur dazwi- schen. Seine Bestimmung ist es gar, Tippfehler automa- tisch zu korrigieren – eine Funktion, die einen einigerma- ßen schreibgeübten Menschen geradezu zur Verzweiflung treiben muß, denn wenn er einen Satz wie Er haßt Fehler schreiben wollte und statt dessen versehentlich Er haßtt Fehlder getippt hat, wird er es sich verbitten, ihn vom Computer automatisch zu Er hast Felder verschlimmbes- sern zu lassen. Schwer vorstellbar, wie sprachlich schlicht die Texte eines Schreibers sein müßten, der ein derar- tiges Programm mit Nutzen anwenden kann. Selbst ein Legastheniker hätte wenig von den automatischen Ver- besserungen, denn seine Störung besteht ja eben darin, daß er nicht weiß, wie sich die Wörter schreiben, und also auch nicht beurteilen kann, ob das Programm die richtigen Korrekturen vornimmt. Wer sich seine Texte von ihm orthographisch überwachen lassen will, sollte nicht nur wissen, wie sich die Wörter richtig schreiben, sondern dazu, wie er sie falsch schreiben müßte, um es zu den richtigen Korrekturen zu veranlassen. Manche Rechtschreibkontrollen haben eine gutgemein- te Zusatzfunktion: Wenn sie ein Wort nicht erkennen, zeigen sie einem ähnliche – in der Annahme, darunter sei das, welches der Benutzer eigentlich hatte schreiben wollen. Meist dauert es so lange, bis die Vorschläge am Bildschirm erscheinen, daß der Fehler sehr viel schnel- ler manuell behoben wäre. Außerdem aber sind die Vor- schläge oft absurd, um so häufiger, je kleiner das Wör- terbuch ist, dem sie entstammen: Wer Koryphähe mit h schreibt, wollte sicher nicht Karaffe sagen, wer in Gastitis

99

das r ausgelassen hat, ist mit Gastwirt nicht bedient. Die- se Funktion spiegelt eine kompetente Hilfe vor, für die jede Voraussetzung fehlt. Daß derlei Unfug vorkommt, liegt daran, daß er sich programmieren läßt. Ein gutes Wörterbuch aber läßt sich nicht programmieren. Es läßt sich nur mit Sachverstand und Fleiß Eintrag für Eintrag erarbeiten. Ich bin der Überzeugung, daß für die deutsche Sprache ein hybrider Spellingchecker der einstweilen beste wäre:

ein Vollformenlexikon mit einigen Regeln, die gewis- se Arten von Zusammensetzungen vorsehen. Die Qua- lität eines Spellingcheckers erweist sich am deutlichsten immer daran, ob er den vielen deutschen Verbformen gewachsen ist, vor allem den zusammengesetzten Ver- ben. Schon eine einzige Regel, die zuließe, daß Verben Präpositionalpräfixe tragen können, würde dem Lexi- kon Hunderttausende von einzelnen Formen ersparen – man denke nur an ein Verb wie stellen, das zwischen abstellen und zustellen mindestens 39 Abkömmlinge hat. Ein solcher kompromißlerischer Spellingchecker bean- spruchte nicht gar so viel Speicherplatz, beziehungswei- se könnte den eingesparten Platz für zusätzliche Wörter verwenden; er würde nicht zu viele Schreibfehler unbe- anstandet lassen; er könnte relativ schnell sein, weil er keine riesigen Wörterlisten abzusuchen, keine riesigen Regelwerke durchzurechnen hätte. Das Tempo ließe sich weiter steigern, wenn nicht je- des Wort einen Plattenzugriff mit sich brächte, wenn der Computer also einen nach Frequenzgesichtspunk- ten kompilierten Grundwortschatz, mit dem bis zu 80

100

Prozent jedes Textes abgedeckt wären, zum Prüfen von der Diskette oder Festplatte in den Arbeitsspeicher lüde, so daß nur noch die 20 Prozent seltener Worte auf der Festplatte abgefragt werden müßten. Aber einen solchen Spellingchecker hat noch niemand versucht. Ein Schritt immerhin auf ihn zu ist ein Zusatz- programm namens Rechtschreibprofi. Es enthält bloße 106 000 – von dem Wörterbuchverlag Langenscheidt mit einigem Bedacht ausgewählte – Wortformen, erlaubt aber in gewissem Umfang, daraus Komposita zu bilden. Sein Diskriminierungsvermögen wird dadurch nicht getrübt. Ich habe es den ›Chip‹-Test absolvieren lassen, und im Unterschied zu Carlos und Primus ließ es keinen einzigen Schreibfehler unerkannt, ohne doch überdurchschnitt- lich oft falschen Alarm zu geben. Aber wie die meisten Computerprodukte hat es einen Haken: seine niedrige Arbeitsgeschwindigkeit. Es gehört zu jenen Orthogra- phiekontrollen, die nachträglich appliziert werden müs- sen – und hat man einen längeren Text, so wartet man besser nicht darauf, sondern läßt ihn gleich über Nacht durchprüfen. Dann aber muß man auch bereit sein, das umfängliche Fehlerprotokoll, das man am Morgen vor- findet, »von Hand« durchzuarbeiten. Manche Spellingchecker geben auch Alarm, wenn zweimal hintereinander dasselbe Wort dasteht, meist zu Recht. Damit transzendieren sie bereits die Domäne der Orthographie und wagen sich vor in die der Stilistik. Re- lativ schlichte Programme sind denkbar, die einen dar- auf aufmerksam machen, daß ein Inhaltswart innerhalb eines Satzes oder Absatzes oder einer Seite schon zum

101

zweiten Mal vorkommt. Für die englische Sprache gibt es bereits Stil- und Grammatikprüfprogramme, etwa das amerikanische Grammatik: Es macht einen auf redun- dante Wendungen, aut Slang, auf sexistische Wörter, auf Neologismen, auf überstrapazierte Ausdrücke aufmerk- sam, erkennt falsche Homophone (there / their / they’re, who’s / whose), doppelte Verneinungen, unvollständige Sätze, Nichtübereinstimmungen zwischen Substantiv und Verb – und läßt sich im übrigen vom Benutzer er- gänzen und modifizieren. Die deutsche Sprache zu »par- sen«, d. h. Satzglieder grammatisch zu bestimmen, ist wegen ihres relativen Flexionsreichtums und der größe- ren Freiheit in der Wortstellung sehr viel schwieriger; ein vergleichbares Programm wird es darum für sie so bald nicht geben. Was es immerhin geben könnte, wäre ein wirklich rundum zufriedenstellender deutscher Spellingchecker. Es müßte eine Software-Firma nur einmal Programmie- rer. Linguisten und professionelle Schreiber zusammen- bringen. Bis das geschieht, ist es am Ende immer noch sicherer und bequemer und schneller, den Computer auszuschal- ten, den Text genau durchzulesen und im Zweifelsfall in den »Duden« zu sehen. Denn der beste Spellingchecker ist man heute immer noch selber.

RECHTE

SCHREIBUNG

Die geplante Reform der deutschen Orthographie

Fragte man die Leute, welches für sie die ödesten und nebensächlichsten Themen der Welt sind, so hätte das Thema Rechtschreibung gute Chancen, auf einem der obersten Plätze zu landen. Gleichwohl, bei kaum einem anderen lodern die Leidenschaften so schnell und so heftig auf. Denn unsere Einstellung zur Orthographie ist zwie- spältig. Wir mögen sie nicht. In der Schule hat man uns bis zum Überdruß und dennoch mit nur zweifelhaftem Erfolg damit gezwiebelt. Der Rechtschreib-»Duden« ist für viele von uns ein eher unangenehmes Buch, das nach unerforschlichen Ratschlüssen, die wir auch gar nicht durchschauen wollen, Schreibungen verordnet, welche häufig wie bare Willkür anmuten. Daß man infolgedessen zusammenschreiben muß, statt dessen jedoch getrennt; in bezug auf klein, aber mit Bezug an/groß; er steht kopf, aber er steht Schlange; irgendwas, aber irgend etwas; po- tentiell mit t, obwohl man es mit einem z spricht und es das Wort Potenz gibt; Selektion und entsprechend selektie- ren, aber reflektieren und Reflexion, annektieren und An- nexion – das alles mag irgendwelche spitzfindigen Grün- de haben, es mag sogar gute Gründe haben (in Selektion wird ein t gesprochen, das es in Reflexion nicht gibt, und sprachhistorisch handelt es sich um zwei Paar Schuhe), die meisten von uns aber kennen sie nicht, und wir wol- len sie nicht auch noch kennen müssen. Sprachhistori- sche Begründungen mag es für manches geben, was auf

105

den ersten Blick bescheuert anmutet, aber die Sprach- gemeinschaft besteht nicht aus Etymologen, und für die allermeisten ihrer Angehörigen bleiben selbst die vor- trefflichsten Gründe ewig undurchschaubar, wirken Vor- schriften dieser Art doch weiter so, als seien sie von sa- distischen Schulmeistern ausgedacht, das Volk zu mal- trätieren. Bei allen 16 Umfragen, die zwischen 1955 und 1982 in dieser Sache veranstaltet wurden, fand sich denn auch eine Mehrheit, die eine Vereinfachung der gelten- den Rechtschreibung wünschte. Sobald wir jedoch eine Schreibung, und sei es die will- kürlichste, »verinnerlicht« haben, hängen wir an ihr und begegnen jedem Ansinnen, sie zu ändern, mit flammen- der Entrüstung. Darum ist jede Orthographiereform ein überaus zähes Unterfangen. Als im Herbst 1988 Empfeh- lungen zu einer Reform der deutschen Rechtschreibung an die Öffentlichkeit kamen, und zwar die ersten nicht von vornherein ganz und gar aussichtslosen dieses Jahr- hunderts, schrie das deutsche Feuilleton fast geschlossen auf: Keiser? Nie! Denn in Sprachdingen sind auch die Progressivsten unter uns oft stockkonservativ. Man kann sich noch so nüchtern sagen, daß das lateinische Caesar als Lehn- wort vom Althochdeutschen bis ins siebzehnte Jahrhun- dert bald Kaiser, bald Keiser geschrieben wurde und daß sich die ai-Schreibung, die aus der Kanzlei Maximilians I. stammen soll, nur durch Zufall durchgesetzt hat und kei- nerlei besondere Logik oder Würde ihr eigen nennt, daß überhaupt keine Schreibweise von vornherein besser oder schlechter ist und jede nur eine Konvention – wer nur den

106

Kaiser kennt, erschrickt dennoch erst einmal über den unorthodoxen Keiser, so wie er über den Kaiser erschrä- ke, hätte er Keiser gelernt. Es ist ein geradezu körperlicher und darum auch kaum belehrbarer Schreck.

Niemand muß sich irgendeine Orthographie vorschrei- ben lassen. Wer meint, in seinen Liebesbriefen hätte er hinter der Anrede nur die Wahl zwischen einem Aus- rufezeichen und einem Komma, weil der »Duden« es irgendwann so zur Norm erklärt hat, dem ist sowieso nicht zu helfen, und er hat es nicht besser verdient. Der Staat kann eine orthographische Norm überhaupt nur in zwei Bereichen für verbindlich erklären: im Schrift- verkehr seiner Behörden – und für den Schulunterricht. Das aber genügt auch schon. Theoretisch könnte jeder sehr wohl seine eigene Rechtschreibung erfinden, könn- te jede Institution ihre eigenen Normen erlassen. Aber mehrere Orthographien nebeneinander kann es nicht ge- ben. In der Schule eine Orthographie zu unterrichten, die später im Leben nicht mehr gilt, wäre nicht nur sinnlos. Jeder wird die Orthographie, die er in der Schule gelernt hat, auch zeitlebens für die einzig richtige halten. Der Rest bedarf keiner Vorschriften, sondern regelt sich über eine automatische und recht erbarmungslose soziale Kontrol- le. Wer von jenen Schulnormen abweicht, muß gewär- tig sein, von seinen Menschen für ungebildet, für kul- turlos, fast für einen Analphabeten gehalten zu werden. Die Furcht vor dem schadenfrohen Grinsen des Neben- mannes ist es, die der für Schule und Behörde angeord- neten Norm die allgemeine Geltung verschafft.

107

Aber brauchen wir überhaupt Rechtschreibnormen? Die Aussprache ist ja auch nicht bis ins letzte normiert. Um die Jahrhundertwende, zur gleichen Zeit also, als der »Duden« für die Rechtschreibung verbindlich wur- de, veröffentlichte Theodor Siebs seine »Deutsche Büh- nenaussprache«. Aber nie wurde Orthophonie auch nur im entferntesten so wichtig wie Orthographie. Die Vereinheitlichung der Rechtschreibung begann nach der Erfindung des Buchdrucks: Ein Buch sollte nun von allen Angehörigen der Sprachgemeinschaft ohne wei- teres gelesen werden können. Doch noch fünfhundert Jahre lang – das Deutsche tastete sich zu seiner einheit- lichen Schriftform voran – blieben die Normen einiger- maßen vage. Goethe genierte sich nicht, allen Wörterbü- chern seiner Zeit zum Trotz Nachbaarinn oder dicktiren zu schreiben und Frau von Stein in ein und demselben Brief bald als meine Beste, bald als meine beste anzureden. Und es ist keine zwanzig Jahre her, daß die ganze Recht- schreibung vielen nichts als ein weiteres Symptom für ein verrottetes autoritäres System schien, wert, mit diesem zum Teufel gejagt zu werden. Schüler sollten nicht gegän- gelt werden, schon gar nicht mit absurden Reglements; sie sollten ihre Köpfe für Wichtigeres freibehalten. Es war wohl zu kurz gedacht. Zum einen beruhte die- se pädagogische Theorie auf einer mehr als zweifelhaf- ten Prämisse: daß das Gehirn eine Art großer Allzweck- Speicher sei – packte man von dem einen weniger hin- ein, so bliebe der eingesparte Raum frei für anderes. Das gilt möglicherweise für das abstrakte semantische Wis- sen, wahrscheinlich aber nicht für spezielle Prozesse wie

108

Schreiben und Lesen. Die Module, die diese steuern, ste- hen keinem anderen Zweck zur Verfügung. Für den mo- dularen Aufbau des Gehirns spricht die hohe Spezifizi- tät der Nervenzellen, die Tatsache, daß manche punk- tuelle Läsion zum punktuellen Ausfall einer Funktion führt, spricht auch das Phänomen der Legasthenie, der Lese-Rechtschreib-Schwäche bei völlig normaler sonsti- ger Intelligenz. Zum andern ist in der modernen Schriftkultur eine normierte Rechtschreibung aus psycholinguistischen Gründen vermutlich unerläßlich. In langsameren Zei- ten, als Lesen und Schreiben eine Sache weniger Erwähl- ter waren, die sich genußvoll Zeit lassen konnten, Hand- schriftliches zusammenzubuchstabieren und über den Sinn des Gelesenen nachzugrübeln, störte es sicher nicht sonderlich, wenn man beim Lesen über die ungewohn- te Gestalt eines Wortes stolperte oder beim Schreiben öfters zwischen mehreren Alternativen zu wählen hat- te. Heute jedoch brauchen wir eine eindeutige Referen- zebene. Alles nicht Eindeutige läßt sich keinen automa- tischen Prozessen überantworten, erfordert also unsere bewußte Aufmerksamkeit. Die kurzen Entscheidungs- phasen, die minimalen Stockungen, von denen das Le- sen und Schreiben ohne eine solche Referenzebene stän- dig unterbrochen würden, fänden wir vermutlich nicht zumutbar. Sie würden uns genauso irritieren, als wären zuweilen ein paar Tasten auf unserer Schreibmaschine oder unserem Klavier miteinander vertauscht und nötig- ten uns, immer wieder kurz zu überlegen, welchen Fin- ger wir nun bewegen müssen.

109

Alles in uns sträubt sich, wieder umzulernen, was wir uns so gründlich eingeschliffen haben, daß wir es auto- matisch verrichten – und eben darum verteidigen wir die einmal gelernte Orthographie mit einer hartnäcki- gen Leidenschaft, als wäre sie nicht die reichlich will- kürliche Konvention, die sie ist, sondern die einzige na- türliche. Alle anderen Gründe sind nur vorgeschoben. Die Rechtschreibung ist gewiß nicht das heilige Kultur- gut, als das sie so gern verteidigt wird, aber einmal be- herrscht, gehört sie zur fast unabänderlichen Infrastruk- tur unseres Geistes. Rechtschreibreformer müssen das bedenken. Wer eines Tages mit einer reformierten Orthographie aufwächst, für den wird dann sie die einzig richtige sein. Aber den zwei bis drei lebenden Generationen, die noch mit der alten Orthographie groß geworden sind, mutet die Umstellung zu, fortan in einer haarsträubend verkehrten Welt zu le- ben, in der alles »falsch« geschrieben wird. Auch nach der mehr als bescheidenen Reform am Anfang dieses Jahr- hunderts schrieben viele bis ans Lebensende weiter Thor und Thau; in Dänemark halten manche nun schon über vierzig Jahre lang an ihrer vorreformatorischen Recht- schreibung fest. Einige Reformer des letzten Jahrhunderts träumten von einem radikalen Eingriff: Die einen wollten auch die vergessenen historischen Ursprünge der Wörter in den Schreibweisen sichtbar machen: Das Licht etwa woll- ten sie liëcht schreiben, weil das i hier im Mittelhoch- deutschen einst diphthongisch gesprochen wurde, und aus dem nämlichen Grund zwar er blib, aber er ist ge-

110

blieben. Die anderen wollten die phonetische Schreibung:

nicht mehr als ein einziges Zeichen für jeden Laut (er hop, das bot, der hol). Solche Träume sind zerstoben; seit lan- gem glaubt niemand mehr, man könnte oder sollte der widerspruchsvollen deutschen Rechtschreibung zu einer auch nur annähernden Konsistenz verhelfen. Der über die Jahrhunderte gewachsene Garten der deutschen Or- thographie mit all seinem Kraut und seinen Rüben wird von niemandem in eine logische Betonwüste verwandelt werden. Wer Reformpläne hegt, muß sich damit begnü- gen, hier und da ein wenig herumzuharken und zu jä- ten, und er weiß das.

Die fröhliche orthographische Anarchie hat nicht nur keine Chance; sie wäre auch nicht zu ertragen. Aber eine gewisse Liberalisierung auf einigen genau definier- ten Gebieten und in einer begrenzten Zahl von Fällen – sollte die nicht dennoch möglich sein? Als der »Duden« noch kein Buch war, sondern ein Gymnasialdirektor in Hersfeld, ging es liberaler zu als heute. In Konrad Dudens Wörterbuch von 1902, dem er- sten, das sich auf amtliche Regeln stützte, stehen häufig mehrere erlaubte Formen nebeneinander: in bezug auf ne- ben in Bezug auf, irgendwer neben irgend wer, zu Grunde (gehen) neben zu grunde und zugrunde. Und man möch- te ja auch gerne meinen, daß es getrost dem sogenannten mündigen Bürger überlassen bleiben kann, wie er sich entscheidet, wenn zwei für sich genommen vernünftige Prinzipien kollidieren – also ob er etwa aufs Ganze oder aufs ganze gehen, ob er etwas in Frage stellen oder infra-

111

gestellen will. Tatsächlich aber hat der »Duden« einen Horror vor solchen Doppelschreibungen und sie im Lau- fe der Jahrzehnte weitgehend ausgemerzt. Nur bei etwa

0,8 Prozent aller Wörter (in der Hauptsache Fremdwörter in den verschiedenen Stadien der Eindeutschung) läßt er mehr als eine Möglichkeit zu. Er trifft sich mit den vielen ehrenamtlichen Sprachpolizisten, die an allen Ecken dar- über wachen, daß ihre Mitmenschen nicht über die Stra- ße gehen, wenn der »Duden« Rot zeigt, in dem Wunsch, alles bis ins letzte eindeutig geregelt zu sehen. Entspricht er damit nur einem quasi zur Naturnot- wendigkeit gewordenen Bedürfnis? Manche sehen es so, etwa der Linguist Dieter Nerius aus der weiland DDR in seinem informativen Buch »Deutsche Orthographie«:

»Das gesellschaftliche Bedürfnis nach Eindeutigkeit und Stabilität der Orthographie ist offenbar so groß, daß die

nie mehr einen größeren Umfang erlan-

Variabilität

gen konnte.« Es ist wahr, Schreibvarianten verlangen von Autoren, Korrektoren, Lektoren, Redakteuren einiges an zusätzli- cher Aufmerksamkeit und Arbeit. Denn auch wenn meh- rere Varianten erlaubt sind, wird innerhalb eines Buches, einer Zeitschrift meist konsequent nur eine von ihnen gelten sollen – und es ist gar nicht so einfach, in einem

dicken Buch, bei dem man sich für die Alternative an Stelle entschieden hat (eine der wenigen verbliebenen Wahlmöglichkeiten), kein einziges anstelle durchgehen zu lassen. Andererseits hat uns die antiliberale Haltung des »Duden« den Geschmack an solchen kleinen Freihei- ten gründlich aberzogen; hätten wir uns erst wieder dar-

112

an gewöhnt, daß uns allen Ernstes manches anheimge- stellt bleibt, unsere Gier nach Orthodoxie, unser Gefühl für das Richtige würde sich auch wieder entspannen.

Den ersten Vorstoß zu einer Reform der deutschen Recht- schreibung gab es bald nach der Reichsgründung. Er hatte ein doppeltes Ziel: die deutsche Orthographie zu verein- fachen und sie im gesamten Reichsgebiet zu vereinheitli- chen. Aber die Konferenz von 1876 scheiterte: Ihre Vor- schläge, obschon maßvoll und durchdacht, wurden von der Presse ausgebuht und auch von Sprachwissenschaft- lern aus entgegengesetzten Gründen verworfen. Erst 1901 raffte man sich auf Betreiben des preußischen Kultusministers zu einer zweiten Konferenz auf. Dies- mal beließ man es von vornherein bei einer Handvoll bescheidener Korrekturen (der Thür wurde das h gestri- chen, aus -iren wurde -ieren, ein paar Fremdwörter wie Accent wurden eingemeindet), um das andere Ziel, das der Vereinheitlichung, nicht zu gefährden. Tatsächlich wurden dann einheitliche Regeln verabschiedet: fortan die amtliche Grundlage der Rechtschreibung in Schu- len und Behörden, allerdings im Laufe der Jahrzehnte von den »Duden«-Redaktionen nach freiem Ermessen er- gänzt, erweitert, auf neue Fälle ausgedehnt, bis die amt- lichen nicht mehr von den nichtamtlichen Normen zu unterscheiden waren. Nach dem Untergang des Reiches stand auch die deut- sche Rechtschreibung zur Disposition. Aber als 1955 ein Wörterbuch des Bremer Lexikographen Lutz Mackensen in einigen Fällen von den »Duden«-Normen abwich und

113

damit das »Duden«-Monopol antastete (es unterstand sich, es ist das Beste oder Kopf stehen zu schreiben), mal- te die »Dudens-Redaktion die Gefahr der Rechtschreib- Anarchie so dramatisch an die Wand (»[weicht] um jeden Preis von der bisherigen Regelung ab«), daß die Kultus- ministerkonferenz sich breitschlagen ließ, den »Duden«

für verbindlich zu erklären, bis auf weiteres: nämlich »bis zu einer etwaigen Neuregelung«. Manche der an jenem »Stillhalte-Beschluß« Beteiligten mochten damals den- ken, diese komme bald; andere hofften wohl, sie werde nie kommen. Jedenfalls sind sämtliche Reform-Anläufe seither – vor allem die »Stuttgarter Empfehlungen« von

1954 und die »Wiesbadener Empfehlungen« von 1958 –

sang- und klanglos in der Versenkung verschwunden, und es besteht seither die kuriose Situation, daß ein zwar überaus sachkundiger, aber privater Verlag mit quasi amt- licher Wirkung entscheiden darf, wie Schulen und Be- hörden zu schreiben haben und mithin das ganze Volk. Die geltende Rechtschreibung steckt voller Schwierigkei- ten, die man nur als Schikanen bezeichnen kann. Kein Mensch kann sie vollständig beherrschen, selbst hauptbe- rufliche Korrektoren nicht. Ich nehme an, selbst Günther Dosdrowski, der Leiter der »Duden«-Redaktion, könnte ein mit »Duden«-Tücken gespicktes Diktat nicht fehler-

los schreiben. Die Sprachentwicklung ist den Regeln von

1901 davongelaufen. In allen deutschsprachigen Ländern

besteht heute Interesse an einer vorsichtigen Fortschrei-

bung und Vereinfachung. Alles das hat schließlich auch die Kultusminister überzeugt. 1986 beauftragten sie das Institut für deutsche Sprache (IdS) in Mannheim (eine

114

vom Bund und vom Land Baden-Württemberg getrage- ne Stiftung), Reformvorschläge auszuarbeiten. Das IdS berief eine Expertenkommission, der auch Vertreter der beiden anderen Instanzen für Muttersprachliches ange- hören, die in diesem Land etwas zu sagen haben, der »Du- den«-Redaktion und der Gesellschaft für deutsche Spra- che. Im Herbst 1988 legte sie ihre Empfehlungen zu fünf Bereichen auf den Tisch: Zeichensetzung, Worttrennung, Getrennt- und Zusammenschreibung, Wortschreibung und Fremdwortschreibung. Die ersten beiden Bereiche sind (auf den 1986 eingerichteten »Wiener Gesprächen«) mit Fachleuten aus der DDR, Österreich und der Schweiz beraten und abgestimmt worden; die drei anderen Be- reiche werden dort in den nächsten zwei, drei Jahren be- handelt werden. Dann bleibt immer noch das brisanteste aller Themen, das zunächst ganz ausgespart wurde, weil eine Einigung auch nur der Experten undenkbar scheint:

die Groß- und Kleinschreibung. Gegen Mitte der neun- ziger Jahre schließlich werden die Kultusminister ent- scheiden müssen, ob sie mit der Neuregelung Ernst ma- chen wollen oder nicht. Zum ersten Mal seit 1876 besteht also die reelle Chance einer bescheidenen Reform. Wird sie verpaßt oder zerre- det, wird selbst der größte Schwachsinn der heutigen Re- gelung für die nächsten hundert Jahre weitergelten müs- sen. Das sollte Grund genug sein, nicht dem ersten Affekt nachzugeben und die Empfehlungen pauschal zu verla- chen und zu verurteilen. Sie sind es wert, im einzelnen angesehen und geprüft zu werden.

115

Die unproblematischsten Vorschläge sind die zur Zei- chensetzung. Hier gibt es von Amtes wegen bisher kei- nerlei Vorschriften; was an Regeln im Schwange ist, ist ausnahmslos das Werk der »Duden«-Redaktionen. An ihm soll nur dreierlei geändert werden.

1. Zwischen Anführungen und ihrem Begleitsatz soll

immer ein Komma stehen, auch wenn die Anführung mit einem Frage- oder Ausrufezeichen endet (»Hallo!«,

sagte die Telefonistin statt wie bisher »Hallo!« sagte …). Eine Zusatzregel würde also getilgt – in Ordnung.

2. Vor und und oder kann das Komma wegfallen, auch-

wenn ein ganzer Satz folgt (er kam und er sah und er sieg-

te). Hier gibt es heute eine relativ klare Regel (Hauptsätze werden mit einem Komma abgetrennt), auch wenn der »Duden« zehn Paragraphen braucht, ihr Wenn und Aber zu erläutern. Sie soll um eine Ausnahme ergänzt werden, und das ist eigentlich weniger gut. Da es aber eine fakul- tative Bestimmung ist, und da die jetzige Regel tatsächlich oft mißachtet wird, mag auch das in Ordnung sein.

3. Vor erweiterten Infinitiv- und Partizipialgruppen

kann das Komma wegfallen (sie versprechen bald zu zah- len), kann aber auch stehen, wenn es den Sinn deutlicher macht. Die heutigen Regeln für diese Fälle nehmen im »Duden« drei engbedruckte Seiten ein und sind eine Be-

leidigung; niemand sollte gezwungen sein, einer so un- erheblichen Frage mit einem solchen Wust spitzfindiger Vorschriften zu Leibe zu rücken. Weg mit Schaden!

Ob irgendeine Neuregelung noch der völligen Verwilde- rung der Worttrennung am Zeilenende zuvorkommen

116

kann, ist mehr als fraglich. Sie ist die Folge der elektro- nischen Textverarbeitung. Der Computer trennt nach starren, mehr oder minder kompletten Regeln, und das führt in einigen Prozent der Fälle zu falschen Ergebnis- sen, die nur mit relativ großem »manuellem« Arbeits- aufwand völlig zu verhindern wären. Und da fast alles Gedruckte heute aus dem Computer kommt, nehmen falsche Trennungen Überhand. Selbst Fälle wie Tasc- he und Ta-ube, die ein völlig unzulänglicher Algorith- mus ausgeheckt haben muß, kommen vor, und in dem Maß, wie wir uns an sie gewöhnen, schwindet das Ge- fühl, daß die Trennung überhaupt irgendeiner Regel be- darf. Vielleicht wird man Ende des Jahrhunderts allge- mein ein Wort einfach dort abtrennen, wo die Zeile zu Ende ist. Die heutige Grundregel ist an und für sich einfach und klar genug: Getrennt wird nach Sprechsilben. Leider ist sie an mehreren Stellen durchlöchert. Die Reform will nur diese Ausnahmen streichen, vernünftigerweise.

1. Wie andere s-Verbindungen, soll auch das st trenn-

barwerden: Lis-te wie Wes-pe.

2. Das ck muß nach der heutigen Regelung k-k getrennt

werden – eine so unschöne Regel, daß anspruchsvollere Typographen ck-Trennungen mühevoll ganz vermeiden. Der Vorschlag sieht die Trennung c-k vor, ist aber noch nicht endgültig. Meiner Meinung nach wäre es günstiger, das ck als einen durch mehrere Buchstaben wiedergegebe-

nen einzigen und damit untrennbaren Laut zu betrachten, der es ja tatsächlich ist: Ma-cke wie ma-che.

3. Die Trennung nach Sprechsilben soll fakultativ auch

117

für ein paar »Problemwörter« gelten, für die sie bisher verboten ist, Wörter wie wa-rum und hi-nauf.

4. Mit Rücksicht auf die humanistisch Gebildeten

sind viele Fremdwörter bisher von der Regel »Trennung nach Sprechsilben« ausgenommen. So muß man heute Mag-net trennen und Inter-esse und päd-ago-gisch (aber pä-do-phil). Häufig sind die klassischen Morpheme, die diese Regel vor Zerlegung bewahren will, zwar für so gut wie niemanden mehr erkennbar: Aber auch wenn den allermeisten die Gründe unerfindlich bleiben, man darf nur An-ek-do-te oder an-omal oder Pan-ora-ma trennen. Auch wenn einige Altphilologen zurückzucken mögen:

An den Psy-chi-a-ter (statt heute Psych-ia-ter) wird sich die Sprachgemeinschaft schnell und erleichtert gewöh- nen.

Die Vorschläge zur Getrennt- und Zusammenschrei- bung von Wortverbindungen berühren eine der chao- tischsten und reformbedürftigsten Zonen der deutschen Rechtschreibung. Wer jemals versucht hat zu verstehen, wann er soviel und wann so viel schreiben muß, weiß, was ich meine. Eine allgemeingültige und gar amtliche Regel dafür gibt es heute nicht. Es herrschen zwei Faustregeln, bei- de aber völlig inkonsequent, unter anderem darum, weil sie sich oft gegenseitig in die Quere kommen. Die eine besagt: in konkreter Bedeutung getrennt, in übertragener zusammen – was dazu führt, daß der Na- gel breit geschlagen, die Widerspenstige aber breitgeschla- gen wird. Trotzdem müssen Verbindungen wie liegenblei-

118

ben oder steckenbleiben, kennenlernen oder Spazierenge- hen immer zusammengeschrieben werden, auch wenn sie durchaus in ihrer konkreten Bedeutung gebraucht werden oder gar keine übertragene Bedeutung besitzen. Übrigens verlangt der »Duden«, daß man zusammen- schreiben zusammenschreibt, getrennt schreiben aber ge- trennt. Kein Wunder, daß viele sich einfach nicht dar- an kehren. Die andere heutige Faustregel hält sich an die Betonung:

Wird das erste Wort betont, so wird die Verbindung zu- sammengeschrieben (das leichtverdauliche Essen), sonst aber getrennt (das Essen ist leicht verdaulich). Trotzdem muß man festsitzen oder lockersitzen oder leichtfallen schreiben, obwohl der Ton auf dem ersten Wort liegt, aber dann wiederum lästig fallen. Diesem wahrhaft lästig fallenden Wirrwarr sind die Reformer auf recht elegante Weise nahegetreten (was erweitert heute übrigens wiederum getrennt geschrie- ben werden müßte: zu nahe getreten). Es soll eine ein- zige Grund- und Hauptregel geben: daß der Normalfall die Getrenntschreibung ist und der Sonderfall, der einer extra Regelung bedarf, die Zusammenschreibung. Dann hieße es: kennen lernen, Radfahren, aneinander reihen. Für die verbleibenden Zusammenschreibungen gäbe es ebenfalls eine Grundregel. Nicht mehr die subjekti- ve Betonung oder die oft unentscheidbare Frage, ob die konkrete oder übertragene Bedeutung gemeint ist, wäre ausschlaggebend. Das viel verläßlichere Kriterium hie- ße: Erweiterbar oder nicht erweiterbar. Ihr Brief ist (un- gewöhnlich) gut geschrieben, hieße es danach; aber: Sie

119

hat den Betrag gutgeschrieben (was sich nicht zu sehr gut- geschrieben oder ähnlichem erweitern läßt). Außerdem sollen ein paar häufig vorkommende Un- gereimtheiten verschwinden. Auch irgend etwas und ir- gend jemand sollen zusammengeschrieben werden (wie irgendwer oder irgendeine); neben so daß soll auch die Zusammenschreibung sodaß erlaubt sein, die in Öster- reich immer Vorschrift war (warum dann nicht gleich auch im Parallelfall um so?); und die ganze Sophisterei um soviel und so viel, wieviel und wie viel, zuviel und zu viel soll ein Ende haben dürfen: Immer getrennt! Nicht daß sie uns sämtliche Zweifelsfälle ersparten – eine erhebliche Erleichterung brächten diese Vorschläge jedenfalls mit sich. Sie haben den weiteren Vorzug, ver- mutlich niemandem weh zu tun (aber da kann man nie wissen). Wenn nur sie in absehbarer Zeit Wirklichkeit würden, die Reformmühen hätten sich schon gelohnt.

Ewiger Dollpunkt aller »Sprachpflege« war in früheren Jahrzehnten die »Reinheit« des Deutschen. Heute ist die Diskussion um sie gnädig verstummt, vermutlich aus Gründen ähnlich denen, die die Deutschen zu Weltmei- stern bei Auslandsreisen gemacht haben. Es muß sich herumgesprochen haben, daß der Zustrom der Fremd- wörter keine vorübergehende Modetorheit war, sondern eine zwangsläufige Folge der internationalen Verflech- tung allen Lebens; daß er anhalten wird; und daß die meisten Gastwörter gekommen sind, um zu bleiben. Aber was machen wir mit ihnen? Andere, verwand- te Sprachen wie das Niederländische oder das Schwedi-

120

sche machen mit ihnen kurzen Prozeß: Sie bürgern sie in Aussprache wie in Schreibung rigoros ein. Das Deutsche tut sich damit sehr viel schwerer. Eine große Zahl jener französischen Wörter, die Hugenotten und Revolutions- flüchtlinge im siebzehnten und achtzehnten Jahrhundert nach Preußen mitbrachten, hat bis heute ihre originale Form behalten: Bouillon, Bredouille, Malheur … Das gilt jedenfalls für die gebildeten Wörter der höheren Stän- de, der Haute-volee (die nur eines Akzents verlustig ge- gangen ist). Das Volk verfuhr weniger etepetete (was auf être peut-être zurückgeht und selbst schon ein Beispiel ist), machte aus radical ein ratzekahl, aus bleu mourant ein blümerant, aus quincailleries die Kinkerlitzchen. Zu- weilen stehen sich eine vornehme und eine plebejische Form gegenüber, das Milieu dem Milljöh. Vor allem zwei Gründe wirken der Einbürgerung ent- gegen. Ein sozialer: Man will ja keinen Verdacht auf- kommen lassen, daß man die betreffende Fremdsprache etwa nicht richtig beherrscht. Ein materieller: Für man- che fremden Laute gibt es keine Entsprechung in der deut- schen Schrift – solange der Jupon ausgesprochen wird, wie er es wird, sträubt sich alles, ihn zu etwas wie einem Schüpong zu machen; das sonst vergleichbare Schmisett (chemisette) war da besser dran. Richtlinien für die Behandlung von Fremdwörtern wä- ren dringend vonnöten, und zwar nicht nur wegen deren schierer und jeden Tag wachsender Menge. Oft stellen sie das Deutsche vor ein kniffliges, zuweilen gänzlich un- lösbares Problem. Ein eingemeindetes Fremdwort näm- lich muß sich auch der deutschen Grammatik fügen und

121

Präfixe und Suffixe anlegen, die es in seiner Heimat nicht hatte. Ein Fall wie managte mag noch leicht scheinen, obwohl Empfindlichere das e durchaus vermissen wer- den. Bei einem Fall wie layouten wird es schon schwie- riger: Outlayed? Outgelayt? Gelayoutet? Oder? Fast un- schreibbar aber ist ein Fall wie recyclen: Gerecyclet? Re- gecycelt? Hier besteht wirklich … wie heißt das heute? »Handlungsbedarf«. Amtliche Normen für die Fremdwortschreibung gibt es nicht. Die »Duden« haben sie von Fall zu Fall geregelt (in der DDR und in Österreich teilweise anders), aber las- sen keines im mindesten offen. Selbst Versehen bleiben eisern als das einzig Zulässige vorgeschrieben: Gueril- la hat sich im Deutschen nur mit einem r zu schreiben, obwohl sein doppeltes rr (das Duden selber 1902 noch zuließ) auf dem Weg aus dem Spanischen ins Deutsche nun am allerwenigsten gestört hätte. Sie schrecken auch nicht zurück vor allerlei unschönen Bastardformen wie Kompagnon oder Plädoyer – einige Bestandteile des Wor- tes werden eingedeutscht, andere nicht. Das Grundprinzip der Reform-Empfehlungen ist ein- fach und gesund: Es sollen jeweils zwei Schreibungen an- geboten werden, eine, die die ursprüngliche Schreibwei- se respektiert, und eine eingedeutschte. In regelmäßigen Abständen, etwa alle zehn Jahre, sollen neue offeriert und jene gestrichen werden, die die Sprachgemeinschaft par- tout nicht akzeptiert. Dann dürfte man nicht nur wie heu- te schon die Affaire auch Affäre schreiben, sondern die Saison auch Säson, die angedeutschte Bastardform Kom- munique (die sich bei der Gelegenheit dann vielleicht zu

122

Communiqué regallisieren ließe) auch Kommunikee, das Restaurant auch Restorant, fair auch fär. Zuweilen mag die angepaßte Form zunächst schockieren. Fälle wie Bluse (statt Blouse) oder Keks (statt Cakes) lehren jedoch, daß dieser Schock schnell verwunden ist und die integrierte Form bald selbstverständlich erscheint. Bedauerlich scheint mir indessen, daß die Vorschläge viel zu viele Ausnahmen von dieser Grundregel vorsehen. Manchmal soll die fremde Schreibweise ganz getilgt wer- den, auch wo sie noch gebräuchlich ist und zuweilen stili- stische Gründe durchaus für sie sprechen: Dann gäbe es nur noch das Foto und den Klub und die Grafik (aber wei- ter die Graphologie), Club und Graphik und Photo wären verboten. Einerseits soll der Cheque gestrichen werden und nur noch der Scheck erlaubt sein; andererseits soll es zum Chef keine eingedeutschte Alternative geben. Das wie z gesprochene t soll bald so, bald so behan- delt werden: In Patient und Nation bleibt es die einzige Schreibweise, in partiell bekommt es die Variante parziell an die Seite, in potentiell soll es nur das z sein dürfen. Bei Budget oder Bulletin scheuen die Vorschläge vor potthäßlichen Bastardformen nicht zurück: Das u wür- de zu ü, aber die »Fremdmerkmale« -dg- und -in blieben erhalten, wahrscheinlich darum, weil es keine deutsche Schreibung geben kann, die ihrer Aussprache gerecht würde. Clown oder Crew dagegen sollen mit Rücksicht auf ihre »Fremdmerkmale« ganz ohne eingedeutschte Va- riante bleiben, obwohl sie sich ohne weiteres lautgerecht schreiben ließen. Der Einzelfall Portemonnaie soll eingemeindet werden,

123

aber nur zu Portemonee nicht zu Portmonee, obwohl je- nes erste e nicht gesprochen wird. Das th soll im allgemeinen Wortschatz zu t werden (Apoteke, Hypotek, Panter, Rytmus), im »Bildungswort- schatz« aber th bleiben (Theater, Thema, Theorie). Es ist schon darum ein überaus zweifelhafter Vorschlag, weil niemand begreifen wird, wieso ein Wort wie Rytmus zum allgemeinen, eins wie Thema zum Bildungswortschatz ge- hören soll. Erst recht soll, vermutlich aus Furcht vor dem Hohn der Kulturträger, natürlich die Philosophie nicht angetastet werden; obwohl nicht einzusehen ist, wieso eine Filosofie auf Dauer anstößiger wirkte als die Sinfo- nie, die bereits seit langem friedlich mit der Symphonie koexistiert. Kurz, die Vorschläge zur Fremdwortschreibung schei- nen mir zwar die richtige Richtung anzudeuten, aber dann doch immer wieder ängstlich vor wirklicher Konsequenz zurückzuschrecken (die in diesem Fall ja niemanden ver- gewaltigte, weil jeder die Freiheit behielte, nach seinem Gusto die fremde oder die integrierte Schreibweise zu wählen). Es ist zu hoffen, daß sie bei der noch ausstehen- den internationalen Beratung entsprechend hochgepauert (hochgepowert? hochgepowered? hochpauered?) werden. Vielleicht ließe sich sogar noch daran denken, für be- stimmte Laute, die dem Deutschen fremd sind und für die es leider keine Zeichen besitzt, die aber mit den Fremd- wörtern auch im Deutschen heimisch werden, nicht etwa neue Buchstabe