Sie sind auf Seite 1von 46

Otto-von-Guericke-Universität Magdeburg

Fakultät für Informatik


Institut für Wissens- und Sprachverarbeitung

Diplomarbeit

Sprachtheoretische Untersuchungen
zu einer Ciliaten-Operation

Verfasser:
Ivo Rössling (iroess@cs.uni-magdeburg.de)
11. März 2004

Gutachter:
Prof. Dr. Jürgen Dassow
Prof. Dr. Stefan Schirra

Universität Magdeburg
Fakultät für Informatik
Postfach 4120, D–39016 Magdeburg
Germany
Zusammenfassung

DNA-Computing stellt als spezielles Teilgebiet des Natural Computing einen verhältnismäßig neuen
Zweig der Informatik dar, bei dem versucht wird, aus dem Bereich der Genetik bekannte Sachverhalte
sich für der Informatik dienliche Zwecke nutzbar zu machen. Als wesentlicher Trend wird dabei unter
anderem der Idee nachgegangen, den natürlichen Baustein DNA als Medium für die Durchführung
formaler Operationen zu verwenden. Die Potentiale einer solchen Technologie liegen – neben Aspekten
wie Umweltfreundlichen und Energieeffizienz – vor allem in der enorm hohen Speicherdichte sowie
einem Operationsspektrum, das sogar massive Datenparallelität gestattet.
Veröffentlichungen der letzten Jahre beschäftigen sich u.a. damit, formale Modelle zu entwickeln, die
zuvor entdeckte genetische Prozesse geeignet beschreiben. Ein spezieller Focus hat sich dabei vor al-
lem an dem Stamm der Ciliate ergeben. Im Zentrum des Interesses steht die einzigartige Eigenschaft
dieser einzelligen Organismen, eine besondere Art der Zellteilung zu vollführen, die mit einer massiven
Manipulation des vorhandenen Erbmaterials verbunden ist.
Die vorliegende Diplomarbeit befaßt sich mit formalen Aspekten einer ausgewählten Bio-Operation
bei Ciliaten – dem sogenannten „Double Loop, Alternating Direct Repeat“, oder kurz: dlad. Als
sprachtheoretische Modellierung dieses Prozesses einer genetischen Transformation wird der Diplom-
arbeit dabei in Anlehnung an [Dassow und Vaszil 2003] die folgende Definition zugrunde gelegt:
dlad(w, P ) := {x1 αvβx2 αuβx3 |w = x1 αuβx2 αvβx3 , x1 , x2 , x3 ∈ V ∗ , u, v ∈ V + , α, β ∈ P }.
Auf Basis dieser Modellierung wird untersucht, welche Inklusionsbeziehungen durch die Anwendung
dieser Operation auf die Sprachklassen der Chomsky-Hierarchie induziert werden. Es werden obere
Schranken angegeben sowie deren Optimalität nachgewiesen. Für einige Fälle zeigt sich, daß sogar un-
ter Hinzunahme weiterer abstrakter Sprachfamilien keine bessere Abschätzung gefunden werden kann.
Darüber hinaus werden zwei denkbare Erweiterungen der ursprünglichen Modellierung präsentiert so-
wie deren Auswirkungen auf die Inklusionsbeziehungen diskutiert.

Rössling, Ivo:
Sprachtheoretische Untersuchungen
zu einer Ciliaten-Operation
Diplomarbeit, Otto-von-Guericke-Universität Magdeburg,
11. März 2004.
DANKSAGUNG I

Danksagung

Ich möchte allen herzlich danken, die zum Gelingen dieser Arbeit beigetragen haben – auch wenn im
folgenden nur eine kleine Auswahl der wichtigsten unter ihnen genannt sein mag...
Mein Dank gilt an erster Stelle meinem Betreuer, Herrn Prof. Dr. Dassow, der mich zunächst eimmal
auf Anhieb mit einem Diplom-Thema zu versorgen wußte, für das ich erst im Zuge der Bearbeitung
erkennen sollte, daß es genau meinem Geschmack entspricht. Darüber hinaus stand er jederzeit für
Fragen jedweder Art zur Verfügung, gab hilfreiche Tips zur Verbesserung und hat beim Korrekturlesen
diverser Drafts selbst hartnäckigste Index-Fehler in den geführten Beweisen aufzudecken vermocht.
Vor allem aber hat er sich viel Zeit für Konsultationen genommen und mir allgemein eine intensive
Betreuung zukommen lassen.
Als nächstes möchte ich mich unbedingt bei einigen bedanken, die an der entsprechenden Stelle inner-
halb dieser Arbeit wohl die von ihnen geleistete Zuarbeit in mehr oder minder (un)veränderter Form
wiederfinden dürften. Zu nennen wären hier ganz besonders Dr. Eckhard Specht und Konrad Müh-
ler, die mich beim Erstellen der Zeichnungen besonders hilfreich unterstützt haben – und weiterhin
Dr. Bernd Reichel, der mir einige äußerst nützliche Insider-Tips aus seiner privaten LATEX-Schatzkiste
verraten und mir damit eine Menge nervenzehrender „Bastelstunden“ erspart hat.
Vergessen möchte ich auch nicht die zahlreichen Freunde, Studenten und auch Mitarbeiter der Fakultät,
denen ich es zugemutet habe, den einen oder anderen Draft einen bestimmten Aspekt betreffend gegen-
zulesen. Namentlich sind dies Dr. Christian Borgelt, Mirko Böttcher, Silke Lottmann, Jens Müller und
Kristina Otto.
Auf privater Ebene gilt mein Dank vor allem meiner Freundin, Iris Zollfrank, die es ganz sicher nicht
immer leicht mit mir hatte. Wenn sie eins besonders gut verstand, dann mich in Zeiten nervlicher Auf-
reibung und angehender Frustration wieder zu beruhigen und mir ein geistiger Ausgleichspol zu sein.
Auch sie blieb nicht davon verschont, mit dem Gegenlesen einer Zwischenversion von mir behelligt zu
werden. Bei all der Mühe, die sie sich gegeben hat, einige von mir herbeigeführte besonders schwe-
re Fälle der „Vergewaltigung deutscher Sprache“ wieder zu richten, sollte ich mich an dieser Stel-
le wohl unbedingt dafür entschuldigen, ihren gutgemeinten Verbesserungs-Ratschlägen letztlich dann
doch nicht selten zuwider gehandelt zu haben...
Danken möchte ich zu guter Letzt natürlich noch meinen Eltern. Nicht nur die finanzielle Unterstüt-
zung, die sie mir zukommen ließen, sondern vor allem auch die vielen kleinen Wege und zeitintensiven
Aufgaben, die sie mir immer wieder abnahmen, haben es mir letztlich erst ermöglicht, mich voll und
ganz auf mein Studium zu konzentrieren. Für den Fall, daß ich dies in den letzten Jahren vielleicht zu
selten ausgesprochen haben sollte, möchte ich es an dieser Stelle nun tun: Danke!
S ELBSTÄNDIGKEITSERKLÄRUNG II

Selbständigkeitserklärung

Hiermit erkläre ich, daß ich die Diplomarbeit ohne fremde Hilfe und ohne Benutzung anderer als der
angegebenen Quellen angefertigt habe. Ferner versichere ich, daß die Arbeit in gleicher oder ähnlicher
Form noch keiner anderen Prüfungsbehörde vorgelegen hat. Alle Ausführungen der Arbeit, die wörtlich
oder sinngemäß übernommen wurden, sind als solche gekennzeichnet.

Magdeburg, den 11. März 2004 _______________________


(Ivo Rössling)
INHALTSVERZEICHNIS III

Inhaltsverzeichnis

1 Einführung 1
1.1 Überblick . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Inhalt und Gliederung der Arbeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Biologischer Hintergrund 4

3 Untersuchungen zur dlad-Operation 8


3.1 Definitionen und verwendete Modelle . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.2 Obere Schranken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3.3 Zur Optimalität der oberen Schranken . . . . . . . . . . . . . . . . . . . . . . . . . . 18

4 Erweiterungen der dlad-Operation 22


4.1 Erste Erweiterung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.1.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4.1.2 Obere Schranken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
4.1.3 Zur Optimalität der oberen Schranken . . . . . . . . . . . . . . . . . . . . . . 30
4.2 Zweite Erweiterung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.2.1 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.2.2 Obere Schranken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.2.3 Zur Optimalität der oberen Schranken . . . . . . . . . . . . . . . . . . . . . . 36

5 Zusammenfassung 37

Literaturverzeichnis 41
K APITEL 1. E INFÜHRUNG 1

Kapitel 1

Einführung

1.1 Überblick

Eine der faszinierendsten Eigenschaften der Natur ist ihr scheinbar unerschöpflicher Ideenreichtum.
Über Ären der Evolution hat sie eine unglaubliche Artenvielfalt hervorgebracht, die sich für fast jede auf
der Welt auftretende Umgebung durch eine nicht selten nahezu perfekte Adaption der in ihr lebenden
Organismen auszeichnet. Selbst in unwirtlichsten Umgebungen wie z.B. der Tiefsee von Angola wurden
wider aller Erwartungen erst kürzlich noch bisher unbekannte Lebewesen entdeckt. Diese ungeheure
Diversität an zudem stetig wechselnden Rahmenbedingungen ließ die Entwicklung der Lebewesen zum
wahrscheinlich größten Optimierungsproblem der Erdgeschichte avancieren.
Ohne sich allerdings dieser Tatsache im klassischen Sinne wirklich „bewußt“ zu sein, hat die Natur
schon vor Millonen von Jahren Lösungen zu Problemen hervorgebracht, denen sich der Mensch teil-
weise erst in jüngster Zeit gegenübergestellt sieht – Lösungen, die in vielerlei Hinsicht weit besser sind
als alles, was bisher durch Menschenhand geschaffen werden konnte. In ihrer Rolle als Inspirator hat
sie in den letzten Jahrzehnten in nahezu jeden wissenschaftlich orientierten Bereich in diverser Form
Einzug gehalten. So werden nach ihrem Vorbild u.a. Konstruktionen gebaut, die stabiler und zugleich
um ein Vielfaches leichter sind als Entwicklungen der Vergangenheit.
In der Informatik hat sich im Laufe der letzten Jahre als verhältnismäßig neuer Zweig das sogenannte
Natural Computing etabliert, das sich einerseits mit Ideen beschäftigt, die – inspiriert durch in der
Natur auftretende Pendants – als neue Konzepte und Modelle in den Bereich der Informatik übertragen
werden können, andererseits mit biologisch-physikalischen Mechanismen, die im weitesten Sinne als
Verarbeitung von Informationen angesehen werden können, und in dieser Eigenschaft eine neue Rolle
der Natur als potentielle alternative Hardware definieren.
Natural Computing umfaßt unter anderem die Bereiche der Genetischen Algorithmen (auch: Evolutio-
nary Computing), des Neural Computing und des Fuzzy-Computing sowie des DNA-Computing und des
Quantum-Computing. Letztere beiden stellen dabei mit Abstand die jüngsten Gebiete dar, in denen die
Brücke zwischen theoretischem Hintergrund und praktischer Anwendung bisher nur für wenige speziel-
le Problemstellungen geschlagen werden konnte. Reges Interesse an diesen Bereichen wurde vor allem
durch erste Veröffentlichungen entfacht, in denen die – prinzipielle – Möglichkeit nachgewiesen wur-
de, durch geeignete Codierung NP -vollständige Probleme in polynomialer Zeit lösen zu können. Leider
existieren derzeit jedoch noch erhebliche Defizite im Hinblick auf den kontrollierten Ablauf derartiger
Vorgänge sowie das unkomplizierte Codieren der Problem- und Decodieren der Lösungs-Instanzen.
K APITEL 1. E INFÜHRUNG 2

Eine erste praktische Anwendung wurde bereits 1994 durch Adleman präsentiert. In seiner Arbeit
([Adleman 1994]) beschrieb er die Idee, gegebene Informationen nach einem bestimmten Schema in
Form von DNA-Sequenzen zu codieren und auf diesen dann einfachste Bio-Operationen durchzufüh-
ren. Demonstriert wurde das Konzept am Problem der Suche nach einem gerichteten Hamilton-Weg auf
einem gegebenen Digraphen. Als Beispiel wurde in [Adleman 1994] eine konkrete Instanz mit sieben
Knoten gelöst.
Bei dem von Adleman vorgestellten Konzept handelt es sich um eine „in vitro“ (d.h. im Reagenzglas
durchgeführte) Umsetzung. Es wurden hinreichend viele1 Instanzen erzeugt, um darauf basierend durch
massive Parallelität nach einer zulässigen Lösung zu suchen, wobei sich einzig die der DNA intrinsische
Eigenschaft zunutze gemacht wurde, daß Doppelstränge nur aus komplementären Basenpaaren (siehe
Kapitel 2) gebildet werden können. Daß DNA nicht nur auf diese synthetische Weise als Medium für
die Durchführung formaler Operationen verwendet werden kann, zeigte sich allerdings schon bald, als
die Grundlagenforschung den Zweig des „in vivo“2 -DNA-Computing für sich entdeckte:
Kari und Landweber ist die Erkenntnis zu verdanken, daß gewisse in einem speziellen Stamm ein-
zelliger Lebewesen – den sogenannten Ciliaten – stattfindende genetische Prozesse ebenfalls als
„Berechnungen“ von bestimmter Struktur verstanden werden können. Diese im Rahmen der Zelltei-
lung durchgeführten Transformationen eines Teils des genetischen Erbgutes wurden zwar bereits von
[Prescott 1994] nachgewiesen, doch stellt [Landweber und Kari 1999b] den ersten Versuch einer for-
malen Spezifikation dieser Vorgänge dar. In dem von ihnen entwickelten Modell gehen die Autoren
dabei von zwei Operationen aus, von denen eine intra-molekularen und die andere inter-molekularen
Charakter hat. Weitergehende Untersuchungen (vgl. [Landweber und Kari 1999a, Kari u. a. 1999]) ha-
ben gezeigt, daß eine Generalisierung dieses Konzeptes unter Annahme kontextsensitiver Versionen
dieser Operationen universelle Berechnungsfähigkeit besitzt.
Von Prescott, Ehrenfeucht und Rozenberg wurde wenig später ein alternatives Modell
([Prescott u. a. 2001, Prescott 2001]) auf Basis von drei intra-molekularen Operationen vorge-
schlagen. Beide Modelle werden derzeit aktiv durch Forschungen verfolgt. Sowohl im Falle von
Kari/Landweber als auch von Prescott/Ehrenfeucht/Rozenberg werden die Transformationen des
genetischen Codes als spezielle Operationen auf Wörtern formaler Sprachen interpretiert. Erste Unter-
suchungen befaßten sich primär mit der Erhaltung bestimmter Eigenschaften diverser Sprachklassen
unter Anwendung der jeweils untersuchten Ciliaten-Operation – eine zentrale Rolle spielte dabei
das Abgeschlossenheitskriterium (vgl. [Daley u. a. 2003]). In [Daley u. a. 2004] wird dagegen ein
umgekehrter Ansatz verfolgt: Neue Sprachklassen werden durch das Kriterium der Abgeschlossenheit
unter Anwendung einer jeweiligen Ciliaten-Operation (eines generalisierten Modells) definiert, um
darauf basierend aus den Untersuchungen der sprachtheoretischen Eigenschaften dieser Familien ein
besseres Verständnis der Struktur der definierenden Operation zu erlangen.
Zu dem Modell von Prescott/Ehrenfeucht/Rozenberg wird in [Harju u. a. 2004] eine graphentheoreti-
sche Interpretation gegeben. Für jede der drei Operationen wird dort ein Pendant auf der Basis ungerich-
teter gelabelter Graphen3 definiert. Notwendige und hinreichende Bedingungen für die Anwendbarkeit
einer jeden Operation sowie die Folgen ihrer Durchführung lassen sich daraufhin aus der Struktur des
induzierten Graphen schließen.
1
In [Adleman 1994] wird gesprochen von etwa 3 ∗ 1013 .
2
in der (lebenden) Zelle durchgeführt
3
sogenannte „Signed Graphs“: jeder Knoten ist mit einer Markierung aus {+, −} versehen
K APITEL 1. E INFÜHRUNG 3

1.2 Inhalt und Gliederung der Arbeit

Die vorliegende Diplomarbeit befaßt sich mit formalen Aspekten einer ausgewählten Bio-Operation
bei Ciliaten. Als Ausgangspunkt dient dabei das Modell von Prescott/Ehrenfeucht/Rozenberg. Die drei
dort eingeführten Operationen stellen aus sprachtheoretischer Sicht im wesentlichen die Extraktion, die
Inversion sowie die Translokation markierter Teilsequenzen eines gegebenen Wortes dar.
Für letztgenannte werden im Rahmen dieser Diplomarbeit die Inklusionsbeziehungen untersucht, die
durch Anwendung dieser Operation auf die Sprachfamilien der Chomsky-Hierarchie induziert werden.
Nachdem in Abschnitt 1.1 bereits ein kurzer Einblick in den Bereich des DNA-Computing gegeben
wurde, befaßt sich Kapitel 2 zunächst noch einmal etwas eingehender mit den biologischen Grundlagen
der bei Ciliaten vorzufindenen genetischen Prozesse. Der Leser wird dort zudem über den Ursprung der
von Prescott/Ehrenfeucht/Rozenberg modellierten Operationen informiert.
Kapitel 3 stellt den Hauptteil dieser Arbeit dar. Im ersten Abschnitt werden zunächst die notwendigen
Definitionen sowie die verwendeten Modelle eingeführt, um in Anbetracht der verschiedenen existie-
renden Notationen einen Konsens mit dem Leser zu erreichen. Ein wichtiger Punkt hierbei ist die Defi-
nition der untersuchten Operation, welche aus Gründen, die im Zuge dessen benannt werden, von jener
aus [Prescott u. a. 2001, Prescott 2001] bzw. [Harju u. a. 2004] abweicht.
In Abschnitt 3.2 zeigt sich eingangs, daß auf Basis der gegebenen Definition bei Anwendung der Opera-
tion sich jeweils nur eine echte Teilmenge jeder Sprachfamilie der Chomsky-Hierarchie darstellen läßt.
Dementsprechend wird daraufhin für jede sich ergebende Eingabe-Konstellation eine obere Schran-
ke angegeben, die sich hinsichtlich der Inklusionsbeziehung zwischen dem Ergebnis der darauf ange-
wandten Operation und den Sprachfamilien der Chomsky-Hierarchie ergibt. Im sich anschließenden
Abschnitt 3.3 wird die Optimalität der zuvor zusammengetragenen oberen Schranken nachgewiesen.
Kapitel 4 befaßt sich mit zwei Erweiterungen der in Abschnitt 3.1 gegebenen Definition der unter-
suchten Ciliaten-Operation, die sich im Rahmen der Bearbeitung dieses Themas als durchaus denkbar
gezeigt haben. Für beide Erweiterungen werden wie schon zuvor in Kapitel 3 obere Schranken bestimmt
sowie deren Optimalität im Kontext der Chomsky-Hierarchie nachgewiesen.
Im abschließenden Kapitel 5 werden die Ergebnisse dieser Diplomarbeit in kompakter Form zusam-
mengefaßt. Ein Ausblick auf mögliche Ansatzpunkte für weitergehende Untersuchungen bildet den
Abschluß der vorliegenden Arbeit.
K APITEL 2. B IOLOGISCHER H INTERGRUND 4

Kapitel 2

Biologischer Hintergrund

Bei Ciliaten handelt es sich um einen speziellen Stamm der Protozoa (Einzeller), dessen Vertreter sich in
nahezu jeder Umgebung wiederfinden lassen, in der es Wasser gibt. In den schätzungsweise mehr als 2
Mrd. Jahren ihrer Existenz haben sich bis zum heutigen Tage über 8.000 verschiedene derzeit bekannte
Arten entwickelt. Eingehende Untersuchungen der letzten Jahre brachten eine Vielzahl faszinierender
Charakteristika dieser Lebewesen zum Vorschein.
Zunächst zeichnen sich Ciliate durch die einzigartige Eigenschaft aus, daß sie – im Gegensatz zu so
gut wie allen Organismen anderer Gattungen – mehrere Zellkerne innerhalb nur einer Zelle aufweisen,
welche sich zudem ihrer unterschiedlichen Funktionalität nach in zwei Typen unterscheiden lassen:
Micronuclei und Macronuclei. Im klassischen Sinne „genetisch aktiv“ sind davon jedoch nur letzere
– d.h., lediglich die Macronuclei werden zur Bildung von Messenger-RNA (mRNA) herangezogen,
welche die zur Erzeugung von Proteinen notwendigen Informationen codieren. Micronuclei dagegen
sind den Großteil der Lebenszeit eines solchen Organismus über inaktiv, obwohl sie letztlich exakt
dieselben Informationen codieren.
Die Ursache hierfür liegt vor allem auch darin begründet, daß im Falle eines Micronucleus das ge-
netische Material innerhalb der DNA in mitunter stark fragmentierter Form vorliegt, welche es nicht
erlaubt, daß zur Erstellung von mRNA relevante Bereiche durch das Enzym am Stück gelesen werden
könnten.
Eine wichtige Rolle spielen die Micronuclei dagegen im Rahmen der Zellteilung. Statt zweier Ma-
cronuclei sind es nämlich ihre genetisch inaktiven Pendants, die während dieser Phase miteinander
verschmelzen und zunächst einen neuen Micronucleus bilden. Durch Mitose verdoppelt sich dieser
frisch erzeugte Kern anschließend und hinterläßt zwei identische Kopien. Eine dieser beiden bildet den
Micronucleus der neuen Zelle – die andere dagegen transformiert in den für alle vitalen Funktionen
der neuen Zelle essentiell notwendigen Macronucleus. Dieser Vorgang ist mit massiver Manipulation
des vorhandenen Erbmaterials verbunden, die sich vor allem durch exzessives Löschen überflüssiger
Teilstränge und Defragmentierung der DNA auszeichnet.
Die Struktur der Micronucleus-DNA (siehe Abbildung 2.1) kann sich etwa wie folgt vorgestellt werden:
Jedes Chromosom besteht aus einem einzigen langen DNA-Strang, in dem die darin enthaltenen Gene
durch ausgedehnte nichtgenetische DNA-Sequenzen voneinander getrennt sind . Im Rahmen der Bil-
dung des Macronucleus werden diese sogenannten Spacer-Segments in einem initialen Vorgang sämt-
lichst entfernt, nach dessen Abschluß lediglich DNA-Moleküle mit einer Länge von ein bis zwei Genen
verbleiben.
K APITEL 2. B IOLOGISCHER H INTERGRUND 5

Spacer Spacer
Gen Gen Gen

IES IES IES IES


MDS 3 MDS 2 MDS 5 MDS 1 MDS n MDS 4

MDS 1 MDS 2 MDS 3 MDS 4 MDS 5 MDS n

Abbildung 2.1: Struktur eines Micronucleus-Chromosoms

Nur wenige dieser Moleküle jedoch können unverändert übernommen werden. In den meisten Fällen
sind innerhalb eines Genes die für den Macronucleus bestimmten Segmente („Macronuclear Destinated
Segments“: MDS) durch nichtcodierende Sequenzen (“Internal Eliminated Segments”: IES) unterbro-
chen, welche im Rahmen der Bildung des Macronucleus ebenfalls entfernt werden1 . Eine schematische
Darstellung dieses Sachverhaltes kann Abbildung 2.1 entnommen werden. Dort ist ebenfalls zu erken-
nen, daß die MDS nicht nur lokal separiert sind, sondern ihre Reihenfolge innerhalb des Gens von der
für den Macronucleus vorgesehenen stark abweicht. Mitunter kann es sogar vorkommen, daß vereinzelt
ein MDS selbst in inverser Ausrichtung vorliegt. In einem solchen Falle muß das betreffende MDS al-
so nicht nur an der korrekten Position innerhalb des Macronucleus-Gens eingebracht, sondern darüber
hinaus auch noch umgekehrt werden.
An dieser Stelle ergibt sich die Frage, wie es der Zelle möglich ist, einerseits
die Molekül-Sequenzen der MDS von solchen der IES zu separieren, ande-
rerseits aber die MDS in die für den Macronucleus vorgesehene Reihenfolge
zu translozieren.
Ein solcher Vorgang setzt im wesentlichen die korrekte Erkennung der re- ↓
levanten (MDS-)Sequenzen sowie ihrer Beziehungen untereinander voraus,
ohne die keine der genannten Transformationen fehlerfrei durchgeführt wer-
den könnte.
In der Tat wurde in Untersuchungen (siehe [Prescott 1994]) die Existenz ei-
nes solchen Mechanismus nachgewiesen, der eine derartige Identifikation ↓
entsprechender DNA-Sequenzen ermöglicht und auf diese Weise die Neu-
Zusammensetzung der macronuclearen Gene steuert: Es hat sich herausge-
stellt, daß an den Übergängen von MDS zu IES und vice versa spezielle
Markierungen (– sogenannte Zeiger, engl.: Pointer –) in die DNA-Sequenz
eingebaut sind. Jede der angesprochenen Transformationen (Elimination, In- Abbildung 2.2: Homo-
version und Translokation) beruht nun letztlich darauf, daß jeweils ein oder loge Rekombination
mehrere Paare gleicher Zeiger miteinander rekombinieren: Zunächst wird ein
solches Paar übereinstimmender Sequenzen in eine parallele Anordnung gebracht. Ein spezielles En-
zym trennt beide DNA-Doppelstränge innerhalb der markierten Bereiche längs auf. Der Schnitt quer
zum Verlauf des DNA-Doppelstranges wird versetzt, jedoch auf beiden Markierungen an denselben
Positionen getätigt. Die beiden Paare lagern sich wechselseitig aneinander an und ein weiteres Enzym
repariert die Schnitte, wodurch die Moleküle in gekreuzter Weise wieder zusammengefügt werden.
1
Um eine Vorstellung der Größenordnung zu vermitteln, sei gesagt, daß es sich hierbei mitunter um durchaus mehr als
100.000 IES handeln kann und daß mit Spacer-Segments und IES zusammen etwa 95-98% des DNA-Materials entfernt wird
(vgl. [Prescott 2002] und [Harju u. a. 2003]).
K APITEL 2. B IOLOGISCHER H INTERGRUND 6

Auf Basis derartiger Rekombinationen von DNA-Sequenzen werden im Rahmen der Transformation
eines Micronucleus zum Macronucleus essentiell drei verschiedene Operationen durchgeführt, die im
folgenden kurz skizziert werden sollen:

Elimination (Loop with Direct Repeat – ld)


Diese Operation ermöglicht es, aus einem vorhandenen DNA-Strang eine Teilsequenz zu eliminieren.
In der Regel handelt es sich hierbei also entweder um ein Stück Spacer-DNA oder um ein IES, da nur
in diesen beiden Fällen DNA aus dem Strang entfernt werden sollte. Die betreffende Sequenz ist von
einem Paar gleicher Markierungen zu beiden Seiten flankiert. Beide Markierungen lagern sich neben-
einander an, wodurch die zu entfernende Zwischensequenz eine Art Schleife bildet. Diesem Umstand
verdankt diese Operation letztlich ihren Namen: “Loop with Direct Repeat”-Excision (Schleife mit di-
rekter Wiederholung [der Markierungen]). Der DNA-Strang wird an beiden Stellen aufgetrennt und
rekombiniert (siehe Abb. 2.3). Durch diese Rekombination wird jedoch die Zwischensequenz vom Rest
des DNA-Stranges isoliert und die ihr vor- und nachgelagerten Segmente gehen nun direkt ineinander
über.
(a) (b) (c) (d)

−→ −→ −→

Abbildung 2.3: „Loop with Direct Repeat“-Excision (ld)

Inversion (Hairpin with Inverted Repeat – hi)


Diese Operation dient dem Zweck, eine markierte Teilsequenz innerhalb des DNA-Stranges umzu-
kehren. Sie ist ähnlich dem Loop with Direct Repeat – mit dem Unterschied, daß sich die Sequenzen
der entsprechenden Markierungen diesmal in zueinander entgegengesetzter Richtung anlagern (siehe
Abb. 2.4). Entsprechend kann diese Operation nur dann durchgeführt werden, wenn einer Markierung
an anderer Stelle dieselbe Markierung in invertierter Ausrichtung folgt. Aufgrund dieses gegenläufigen
Prinzips bildet die Zwischensequenz lediglich eine “halbe Schleife” und wird bei der Rekombination
der aufgetrennten Segmente umgekehrt, statt isoliert. (Dieser Ähnlichkeit zur Form eines Nadelöhrs in
Verbindung mit der entgegengesetzten Ausrichtung der zweiten Markierung entspringt letztlich auch
der Name dieser Operation: “Hairpin with Inverted Repeat”-Excision/Reinsertion.)
An dieser Stelle sei jedoch auf eine grundlegende Eigenschaft der DNA hingewiesen: die komplemen-
täre Polarität. Jedes DNA-Molekül besitzt eine durch ein Phosphat auf der einen Seite und ein Kohlen-
hydrat auf der anderen induzierte Polarität. Aufgrund dieser reihen sich DNA-Moleküle eines Einzel-
stranges grundsätzlich in einer vorgeschriebenen Ausrichtung aneinander an, die daraus resultiert, daß
das Kohlenhydrat des einen Moleküls mit dem Phosphat des nachfolgenden2 eine Bindung eingeht. Bei
einem DNA-Doppelstrang gilt darüber hinaus, daß die Polaritäten beider Einzelstränge entgegengesetzt
zueinander sind. Infolge dessen werden die beiden komplementären Stränge eines Doppelstranges auch
in zueinander entgegengesetzer Richtung gelesen.
Die Polarität der (Ciliaten-)DNA hat nun allerdings eine entscheidene Auswirkung auf die Hairpin-
Operation, auf die jedoch in [Harju u. a. 2003] leider nicht eingegangen wird, obwohl sie essentiell ist
2
Hierbei handelt es sich um eine allgemein anerkannte Notation, DNA-Stränge stets vom Phosphat ausgehend zu lesen.
K APITEL 2. B IOLOGISCHER H INTERGRUND 7

(a) (b) (c) (d)

−→ −→ −→

Abbildung 2.4: „Hairpin with Inverted Repeat“-Excision/Reinsertion (hi)

für die Korrektheit der Definitionen in der darauf aufbauenden Veröffentlichung [Harju u. a. 2004] ist.
Ein eingehender Blick auf Abb. 2.4 zeigt, daß die Zwischensequenz nicht auf schlichte Weise umgekehrt
wird, sondern zugleich – bedingt durch das Polaritätskriterium – sich jeder ihrer beiden DNA-Stränge
nun an dem ihm zuvor komplementären Strang anlagert. Die Auswirkungen dieser Eigenschaft werden
im Rahmen der Erweiterung der dlad-Operation in Kapitel 4 nochmals von Interesse sein.

Translokation (Double Loop with Alternating Direct Repeat – dlad)


Dies ist die Operation, die im Zentrum der vorliegenden Arbeit stehen soll. Kurz gesagt eröffnet sie die
Möglichkeit, zwei entsprechend markierte Teilsequenzen innerhalb des DNA-Stranges gegeneinander
auszutauschen. Abb. 2.5 verdeutlicht den prinzipiellen Ablauf: Zwei Paare jeweils gleicher Markie-
rungen kennzeichnen die zu tauschenden Bereiche – das eine jeweils deren Änfänge, das andere ihre
Enden. An diesen vier Stellen wird der Strang dann im Zuge dieser Operation aufgetrennt. Die bei-
den freigesetzten Zwischenstücke tauschen ihre Positionen und rekombinieren mit der jeweils anderen
Anfangs- und End-Markierung. Dem Umstand, daß der DNA-Strang während dieses Vorganges die
Form einer doppelten Schleife annimmt und die Markierungen sich abwechselnd wiederholen, ver-
dankt diese Operation letztlich ihren Namen: „Double Loop with Alternating Direct Repeat“ (Doppelte
Schleife mit abwechselnder direkter Wiederholung).
(a) (b) (c) (d)

−→ −→ −→

Abbildung 2.5: „Double Loop with Alternating Direct Repeat“ (dlad)


K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION 8

Kapitel 3

Untersuchungen zur dlad-Operation

3.1 Definitionen und verwendete Modelle

Im Rahmen dieser Diplomarbeit werden Notationen verwendet, die im folgenden erklärt werden sollen.
Ein Alphabet V = {α1 , α2 , . . . , αn } ist eine nichtleere endliche Menge von Elementen αi , genannt
Buchstaben. Ein Wort w = α1w α2w . . . αnww −1 αnww , nw ≥ 0 ist eine durch Konkatenation entstandene
endliche Sequenz ausgewählter Buchstaben αiw ∈ V, 1 ≤ i ≤ nw .
Mit V + bzw. V ∗ werden die Mengen aller Wörter über V ausschließlich des bzw. einschließlich dem
leeren Wort λ bezeichnet. Zusammen mit dem Konkatenationsoperator ◦ bildet V + eine freie Halbgrup-
pe über V mit Erzeugenden-System hV, ◦i. Das korrespondierende Monoid ist durch (V ∗ , ◦) gegeben
mit dem leeren Wort λ als neutralem Element. Eine Sprache L ⊆ V ∗ ist eine Menge von Wörtern aus
V ∗ – eine Menge L von Sprachen wird als (Sprach-)Familie bezeichnet.
Die Länge |w| := nw eines Wortes w = α1w α2w . . . αnww −1 αnww ist die Anzahl der in w enthaltenen
Buchstaben. Die Sprache aller Wörter über V der Länge n wird mit V n notiert. Für ein Wort w ∈ V ∗
und ein nichtleeres Wort x ∈ V + bezeichne #x (w) die Anzahl der Vorkommen des Teilwortes x in w.
Die Menge aller Teilwörter x von w wird definiert als sub(w) := {x |w = αxβ, α, β ∈ V ∗ }. Das
Kehrwort zu w = α1w α2w . . . αnww −1 αnww wird mit wR := αnww αnww −1 . . . α2w α1w notiert.
Darüber hinaus sei : V → V eine bijektive Abbildung, die invers zu sich selbst ist1 .
Diese Abbildung kann induktiv auf Worte w ∈ V ∗ erweitert werden:

: V∗ → V∗
 7→ 
w = a ◦ w0 7→ w0 ◦ a , a ∈ V

alph(w) bezeichne die Menge der in w enthaltenen Buchstaben, alph(L) := {alph(w) |w ∈ L } das
bezüglich Inklusion minimale Basisalphabet der Sprache L .
1
Hierhinter verbirgt sich der Gedanke jener Eigenschaft der DNA, aus homologen Basen-Paaren aufgebaut zu sein – d.h.
einer Base Adenin ist stets Thymin (bzw. im Falle von RNA: Urazil) gegenübergestellt und einer Base Cytosin stets Guanin
(bzw. jeweils vice versa).
K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION 9

Darüber hinausführende Definitionen und Notationen – insbesondere zu Regelgrammatiken, endlichen


Automaten, Kellerautomaten, linear beschränkten Automaten sowie Turing-Maschinen – können, so-
fern nicht bekannt, [Dassow 2003b] und [Hopcroft und Ullmann 1994] entnommen werden. Entspre-
chend werden im folgenden durch FIN, REG, CF, CS und RE die Familien der endlichen, regulären,
kontextfreien, kontextsensitiven sowie rekursiv aufzählbaren Sprachen referenziert.
Die meisten der im Rahmen dieser Diplomarbeit verwendeten Modelle sind allerdings derart gängig,
daß sie als dem Leser bekannt angenommen werden. Nichtsdestotrotz scheinen sich trotz gleicher Mo-
delle mitunter stark differenzierte Notationen für diese herausgebildet zu haben. Da in Anbetracht des-
sen u. U. im einen oder anderen Falle die dem Leser vertraute Version von der des Verfassers dieser
Arbeit abweichen könnte, sollen im folgenden noch kurz die Notationen der wesentlichen, in dieser
Arbeit verwendeten Modelle gegeben werden:
• Eine Grammatik (auch: Regelgrammatik) G wird als Quadrupel G = (N, T, P, S) notiert, wobei
N das Alphabet der Nichtterminale ist, T das der Terminale, P die Menge aller Produktionsregeln
und S das ausgezeichnete Start-Symbol.

• Eine Turing-Maschine (TM) wird als Quintupel M = (X, Z, z0 , Q, δ) notiert, wobei X das
Bandalphabet darstellt, Z die Menge internen Zustände, z0 den ausgezeichneten Start-Zustand,
Q die Menge aller Stop-Zustände (auch: Finalzustände) und δ die Transitionsfunktion, die die
Maschine beim Lesen eines Symbols x ∈ X des Eingabebandes im Zustand z ∈ Z in den neuen
Zustand z 0 ∈ Z überführt, das gelesene Symbol mit x0 ∈ X überschreibt und den Lesekopf
ggf. um eine Position nach rechts oder links bewegt. Eine akzeptierende Turing-Maschine M =
(X, Z, z0 , Q, δ, F ) stützt sich als zusätzlichen sechsten Parameter auf eine Menge F ⊂ Q der
akzeptierenden Finalzustände.

• Unter einem (akzeptierenden) linear beschränkten Automaten (LBA) soll im Rahmen dieser Ar-
beit eine um die Parameter $ und § erweiterte (akzeptierende) Turing-Maschine verstanden wer-
den, bei der die Anzahl verwendeter Zellen des Eingabebandes nach oben durch ein linares Poly-
nom l(n) in der Länge n der Eingabe beschränkt ist. Zu diesem Zweck befinden sich – abhängig
von der Länge n der Eingabe – auf dem Band zwei ausgezeichnete Markierungen $ und §, die
einen (das Eingabewort vollständig enthaltenden) Bereich von genau l(n) Zellen des Bandes ein-
grenzen und vom LBA weder überschrieben noch vom Lesekopf des Automaten überschritten
werden dürfen.

• Ein endlicher Automat (EA) M = (X, Z, z0 , F, δ) besteht aus den fünf Komponenten des Ein-
gabealphabetes X, der Menge Z der internen Zustände, dem ausgewählten Startzustand z0 , der
Menge F aller Finalzustände sowie der Transitionsfunktion δ, die beim Lesen eines Symbols
x ∈ X des Eingabebandes im Zustand z ∈ Z den Automaten in den neuen Zustand z 0 ∈ Z über-
führt. (Im Unterschied zur Turing-Maschine sind hier ein Rückschreiten auf dem Eingabeband
sowie ein Schreibzugriff auf selbigem nicht zulässig.)

• Ein Kellerautomat (KA) M = (X, Z, Γ, z0 , F, δ) besteht aus der zusätzlichen sechsten Kom-
ponente Γ, die das Kelleralphabet darstellt. Im Unterschied zum endlichen Automaten hat der
Kellerautomat einen sogenannten Kellerspeicher (oder kurz: Keller), in dem initial ein ausge-
zeichnetes Symbol # ∈ / Γ, und zu jedem späteren Zeitpunkt immer ein Wort g = g 0 #, g 0 ∈ Γ∗
abgelegt ist. Die Transitionsfunktion δ überführt nun in jedem Schritt beim Lesen eines Symbols
x ∈ X des Eingabebandes und dem Auftreten von γ als oberstem Symbol des Kellerwortes den
K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION 10

im Zustand z ∈ Z befindlichen Automaten in den neuen Zustand z 0 ∈ Z und tauscht γ durch eine
endliche Zeichenkette α ∈ Γ∗ aus2 . (Auch beim Kellerautomaten sind hier ein Rückschreiten auf
dem Eingabeband sowie ein Schreibzugriff auf selbigem nicht zulässig.)

• Für jede der zuvor genannten Automaten-Typen wurde stets die deterministische Variante des
Modells angegeben. Es existiert jedoch in jedem der Fälle auch eine Modellierung auf Basis einer
nichtdeterministischen Arbeitsweise. Letzteres unterscheidet sich von ersterem im wesentlichen
lediglich dadurch, daß die entsprechende Transitionsfunktion δ nicht mehr auf eine einzelne Re-
aktion (im Sinne einer Kombination von Zustandsänderung, Schreibzugriff und Bandbewegung)
sondern auf eine Menge möglicher Reaktionen abbildet. (Es sei angemerkt, daß in der einschlä-
gigen Literatur oft unter einem „Kellerautomaten“ – soweit nicht expliziert als „deterministisch“
deklariert – die nichtdeterministische Variante verstanden wird.)

• Die von einem Automaten M eines der oben genannten (deterministischen) Typen akzeptierte
Sprache L = T (M) stellt im Grunde die Menge aller Eingabe-Wörter w dar, nach deren Ab-
arbeitung M sich in einem akzeptierenden Zustand (bzw. Finalzustand) befindet. Im Falle des
Kellerautomaten wird darüber hinaus mitunter gefordert, daß sich im Keller nur noch das initial
dort positionierte Symbol # befinden darf. Im Falle eines nichtdeterministischen Automatentyps
genügt es, wenn es irgendeine Folge von Transitionen gibt, mit der bei Eingabe des Wortes w der
Automat vom Start-Zustand ausgehend in einen der Finalzustände werden könnte.

Es wird als bekannt vorausgesetzt, daß es eine (nichtexhaustive) Typisierung der Grammatiken in re-
guläre, kontextfreie und kontextsensitive Grammatiken sowie (– in ihrer allgemeinsten Form –) Re-
gelgrammatiken gibt, welche sich letztlich in der Art der verwendeten Produktionsregeln begründet.
Ebenfalls als bekannt wird vorausgesetzt, daß es gewisse semantische Äquivalenzen gibt zwischen die-
sen Grammatik-Typen und einigen der obig genannten Automaten-Typen. Diese Äquivalenzen ma-
nifestieren sich dahingehend, daß ein bestimmter Typ der o.g. Grammatiken genau eine Klasse von
Sprachen erzeugen kann – und umgekehrt diese Klasse aus genau jenen Sprachen besteht, die durch
einen Automaten eines korrespondierenden Types erkannt werden könnnen. Die Äquivalenzen seien in
der folgenden Tabelle 3.1 kurz dargestellt – detaillierte Informationen zu diesem Thema kann der Leser
der einschlägigen Literatur (z.B. [Hopcroft und Ullmann 1994] oder [Dassow 2003b]) entnehmen.

Grammatik-Typ erzeugte Typ eines


Sprachklasse akzeptierenden Automaten
reguläre Grammatik REG (nicht)deterministischer
endlicher Automat
kontextfreie Grammatik CF nichtdeterministischer
Kellerautomat
kontextsensitive Grammatik CS nichtdeterministischer
linear beschränkter Automat
allgemeine Regelgrammatik RE (nicht)deterministische
Turing-Maschine
Tabelle 3.1: Äquivalenzen zwischen Grammatik- und Automaten-Typen
2
Das ausgezeichnete Symbol # muß hierbei jedoch stets als letztes Symbol im Keller verbleiben und darf insbesondere
nicht aus diesem entfernt werden.
K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION 11

Abschließend sei die den nachfolgenden Untersuchungen zugrundegelegte Definition der dlad-
Operation angegeben:
Definition 1. Sei V ein Alphabet, w ein Wort über V und P ⊆ V + eine Menge von Zeigern. Dann
wird definiert:
dlad(w, P ) := x1 αvβx2 αuβx3 w = x1 αuβx2 αvβx3 , x1 , x2 , x3 ∈ V ∗ , u, v ∈ V + , α, β ∈ P


Zum besseren Verständnis wird die in Abbildung 2.5 gegebene Darstellung nochmals aufgegriffen und
in Abbildung 3.1 um die Bezeichner der eben angeführten Definition erweitert:

(a) x1 α (b) x1 α (c) x1 α (d) x1 α

x1 α x1 α x1 α x1 α
α α α α

α α α α

x2
u
−→ x2
u
−→ x2 v
−→ x2 v
β u β u β β
v u v u
x2 x2 x2 x2
β v β v β β
x3 β x3 β x3 β u x3 β u
v v
x3 β x3 β x3 β x3 β

Abbildung 3.1: ”Double Loop, Alternating Direct Repeat” (dlad)

Die Definition der dlad-Operation läßt sich auf Sprachen sowie Sprachfamilien erweitern:
Definition 2. Seien L und P zwei Sprachen und L1 und L2 zwei Sprachfamilien. Dann seien
dlad(L, P ) und dlad(L1 , L2 ) wie folgt definiert:
[
dlad(L, P ) := dlad(w, P )
w∈L
dlad(L1 , L2 ) := {dlad(L, P ) |L ∈ L1 , P ∈ L2 }

L möge im folgenden als Basissprache und P als Zeigermenge bezeichnet werden – L1 entsprechend
als Familie von Basissprachen und L2 als Familie von Zeigermengen.

Leider scheint in der verwendeten Literatur kein Konsens im Hinblick auf die Definition der dlad-
Operation vorzuliegen. Die obig angegebene Version steht in Anlehnung an [Dassow und Vaszil 2003].
Sie ist gekennzeichnet durch die im zweiten Parameter angegebene Menge gültiger Zeiger. Die ur-
sprüngliche, in [Prescott u. a. 2001] gegebene und in [Daley u. a. 2003] in ähnlicher Weise übernom-
mene Modellierung weist nicht diesen zusätzlichen Freiheitsgrad auf, sondern betrachtet sämtliche
(nichtleeren) Wörter über dem gegebenen Alphabet als zulässig für die Verwendung als Markierung.
In dieser Hinsicht entspricht die dort angeführte Version im wesentlichen der obigen Definition unter
Verwendung der Zeigermenge P = V + für ein beliebiges, aber festes Basisalphabet V .
In anderen Veröffentlichungen (vgl. [Freund u. a. 2002]) wird im Rahmen der Durchführung der
Operation jeweils ein Exemplar der verwendeten Markierung entfernt, was dem Autor dieser Di-
plomarbeit in Anbetracht des vermuteten biologischen Hintergrundes3 (siehe Abschnitt 2) allerdings
höchstens als der eigentlichen Operation nachgestellter Vorgang nachvollziehbar erscheint. Mitunter
(vgl. [Harju u. a. 2004]) wird sogar davon ausgegangen, daß beide Zeiger im Zuge der Durchführung
der Operation aus dem DNA-Strang entfernt werden.
3
Beide Markierungen dürften zum Zwecke der Ausrichtung schlichtweg die gesamte Zeit der Durchführung einer Opera-
tion über von Nöten sein.
K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION 12

3.2 Obere Schranken

Aus den Definitionen des vorangegangenen Abschnittes ergibt sich bereits das folgende Lemma:

Lemma 1. Für beliebige Sprachfamilien L1 ,L2 ,L3 ,L4 mit L1 ⊆ L2 und L3 ⊆ L4 gilt:

dlad(L1 , L3 ) ⊆ dlad(L2 , L4 )

Diese Aussage erlaubt es künftig, aus einer bewiesenen Inklusionsbeziehung dlad(L2 , L4 ) ⊆ X die
Gültigkeit von dlad(L1 , L3 ) ⊆ X zu folgern für Sprachfamilien L1 ⊆ L2 und L3 ⊆ L4 . Entspre-
chendes gilt umgekehrt auch für die Folgerung von dlad(L2 , L4 ) * X aus einer bewiesenen Aussage
dlad(L1 , L3 ) * X (ebenfalls für Sprachfamilien L1 ⊆ L2 und L3 ⊆ L4 ).
Weiterhin läßt sich schlußfolgern:

Lemma 2. Für beliebige Sprachfamilien L1 ,L2 gilt:

F IN * dlad(L1 , L2 )

Beweis. Nach Definition gilt, daß für beliebige Sprachen Y, Z über dem Alphabet V ein Wort w aus der
Menge X = dlad(Y, Z) stets die Form besitzt: w = x1 αx2 βx3 αx4 βx5 . Da α, β ∈ P ⊆ V + , können
beide grundsätzlich nur die Form nichtleerer Wörter annehmen, womit w mindestens die Länge |w| ≥ 4
haben muß. Offensichtlich existieren also Wörter, die nicht die strukturellen Anforderungen erfüllen,
um für w in Frage zu kommen – z.B. alle w0 mit |w0 | ≤ 3, oder w0 = abcd. Das heißt, es existieren
endliche Sprachen X 0 (hier: X 0 = {abcd}), für die es keine Y 0 , Z 0 gibt, sodaß X 0 = dlad(Y 0 , Z 0 ).

Die folgenden ersten beiden Theoreme enthalten Aussagen zur Anwendung der dlad-Operation auf ein
Paar (L1 , L2 ) einer Familie von Basissprachen L1 und einer Familie von Zeigermengen L2 , die im
einen Fall beide jeweils CS und im anderen Fall RE angehören.

Theorem 1. dlad(CS, CS) ⊂ CS

Beweis. Seien L und P zwei kontextsensitive Sprachen. Dann existieren zwei linear beschränkte Auto-
maten LBA L = (XL , ZL , zL,0 , QL , δL , FL , $L , §L ) und LBA P = (XP , ZP , zP,0 , QP , δP , FP , $P , §P ),
die L, respektive P akzeptieren – mit den Bezeichnungen:
Xi – endliche Menge von erlaubten Bandsymbolen: Bandalphabet
Zi – endliche Menge von Zuständen: Zustandsmenge
zi,0 – ein ausgezeichneter Zustand aus Zi : Startzustand
Qi – eine Teilmenge von Zi : Menge der Finalzustände
Fi – eine Teilmenge von Qi : Menge der akzeptierenden Finalzustände
δi – eine Funktion (Zi \ Qi ) × (Xi ∪ {$i , §i }) → Zi × Xi × {R, L, N } : Transitionsfunktion
$i , § i – zwei ausgezeichnete nicht in Xi enthaltene Symbole, die Anfang und Ende des beschreibba-
ren Teils des jeweiligen Bandes markieren: Bandanfangs- und Bandende-Markierung
Basierend auf den obigen Definitionen dieser beiden läßt sich nun ein dritter linear beschränkter
Automat LBA dlad = (Xdlad , Zdlad , zdlad,0 , Qdlad , δdlad , Fdlad , $dlad , §dlad ) konstruieren, der die Sprache
X = dlad(L, P ) akzeptiert. Das Konstruktionprinzip sei hier nur skizziert:
K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION 13

Das neue Bandalphabet Xdlad ergibt aus XL ∪ XP ∪ {$L , §L , $P , §P } – zuzüglich ggf. darüber hinaus
benötigter Buchstaben. Die neue Zustandsmenge Zdlad ergibt sich aus ZL ∪ ZP ∪ {qdlad , zdlad,0 } –
zuzüglich ggf. darüber hinaus benötigter Zustände. Der neue Startzustand ist zdlad,0 und die Menge der
Finalzustände ist {qdlad }(welches ein akzeptierender Finalzustand ist).
Die neue Transitionsfunktion δdlad ergibt sich aus δL ∪ δP zuzüglich weiterer Transitionen, die im
Rahmen der Funktionsweise dieses linear beschränkten Automaten im folgenden nun erklärt werden:

1. Zunächst fügt LBA dlad am Ende von w jeweils vier $P und vier §P an sowie zwei #.

2. LBA dlad kopiert auf nichtdeterministische Weise jeweils vier sich nicht überschneidende Teilwör-
ter α, β, γ, δ von w auf einen hinter dem Eingabewort befindlichen Bereich des Bandes, wobei α
und β sowie γ und δ jeweils durch mindestens ein Zeichen in w getrennt sein müssen.
Um sich die Anfangs- und Ende-Positionen dieser vier Teilwörter zu merken, werden die in
Schritt (1) eingefügten Token $P und §P entsprechend verschoben, um das jeweilige Teilwort
linksseitig und rechtsseitig zu terminieren. Die beiden # werden benutzt, um während des
Kopier-Vorganges die aktuelle Position der Bearbeitung im Quell- und Zielbereich zu markieren.
Darüber hinaus wird beim Kopieren der Wörter zuvor hinreichend viel Platz auf dem verfügbaren
Band allokiert und die entsprechenden Bereiche jeweils linksseitig mit einem $P und rechtsseitig
mit einem §P terminiert.
Für jeden der auf diese Weise zu durchlaufenden Fälle für (α, β, γ, δ) werden die folgenden
weiteren Schritte durchgeführt.

3. Zunächst wird geprüft, ob die Wörter α und γ sowie β und δ jeweils paarweise übereinstimmen.

4. Auf den ersten beiden dieser vier Wörter wird nun mittels δP die Arbeit von LBA P simuliert, um
zu prüfen, ob das jeweilige Wort in P liegt.

5. Fällt eine der Prüfungen (3) oder (4) negativ aus, so wird der besagte Zweig nicht weiter verfolgt.
Der durch (2) – (4) beschriebene Bereich wird gelöscht und nur noch die verbleibenden Fälle
untersucht. Andernfalls hat das Eingabewort w offensichtlich die Form: w = x1 αvβx2 αuβx3 ,
mit x1 , x2 , x3 ∈ V ∗ , u, v ∈ V + , α, β ∈ P .

6. Durch das Markieren von α und β in w mittels Token (siehe Schritt (2)) ist es nun möglich,
auf einem weiteren gesonderten Bereich des Bandes – für den zuvor wieder hinreichend viel
Platz allokiert, und der linksseitig mit $L sowie rechtsseitig mit §L terminiert wurde – das Wort
w0 = x1 αuβx2 αvβx3 ∈ dlad−1 (w, P ) zu erzeugen:
Zunächst wird unter Auslassung von $P und §P das Teilwort x1 α kopiert. Dann wird zum Be-
ginn von u (d.h. dem dritten Auftreten von §P in w) vorgefahren und u kopiert. Daraufhin wird
zum Ende von v (d.h. dem zweiten Auftreten von $P in w) zurückgefahren und unter Auslassung
von $P und §P das Teilwort βx2 α kopiert. Als nächstes wird zum Beginn von v (d.h. dem er-
sten Auftreten von §P in w) zurückgefahren und v kopiert. Abschließend wird zum Ende von u
(d.h. dem vierten Auftreten von $P in w) vorgefahren und unter Auslassung von $P und §P das
verbleibende Teilwort βx3 kopiert.
Während dieses Kopier-Vorganges werden wie gehabt die beiden # zum Markieren der jeweili-
gen Bearbeitungspositionen herangezogen.
K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION 14

7. Als letztes wird LBA L auf diesem Wort w0 simuliert. Nach Abschluß der Simulation von LBA L
stoppt LBA dlad mit demselben Ergebnis. War die Rückgabe positiv, so gilt: w ∈ dlad(L, P ).
War sie dagegen negativ, so liefert dieser nichtdeterministische Zweig der Untersuchung aller
Kombinationen von (α, β, γ, δ) keine Lösung. (Liefert keiner der weiteren Zweige eine Lösung,
so gilt: w ∈
/ dlad(L, P ).)

Bis zu diesem Punkt wurde lediglich bewiesen, daß die Frage „Gilt w ∈ dlad(L, P ) ?“ für Sprachen
L, P ∈ {FIN, REG, CF, CS} durch eine Turing-Maschine entschieden werden kann. Es folgt eine grobe
aber hinreichende Abschätzung für die Größe einer erreichbaren linearen Beschränkung:
Sei lL (n) = aL ∗ n + bL die Länge, auf die das Band der Maschine LBA L bei Eingabe eines beliebigen
Wortes w der Länge n beschränkt werden kann – lP (n) = aP ∗ n + bP respektive die für LBA P . Dann
genügt es bei weitem, in Schritt (2) Speicherplatz der Größe 4 ∗ lP (n) zu reservieren, zzgl. 8 weite-
rer Speicherstellen für die vier Token-Paare ($P , §P ). In Schritt (6) genügt es ebenso mit Sicherheit,
Speicherplatz der Größe lL (n) zu reservieren, zzgl. 2 weiterer Speicherstellen für die das Token-Paar
($L , §L ). Zusammen mit den benötigten Speicherstellen für das Eingabewort w der Länge |w| = n
sowie für die initial hinzugefügten vier Token-Paare ($P , §P ) und die beiden # ergibt dies zusammen
die folgende triviale obere Schranke für die lineare Beschränkung von LBA dlad :

ldlad (n) = (4∗lP (n)+8)+(lL (n)+2)+(n+10) = (4aP +aL +1)∗n+(bP +bL +20) =: adlad ∗n+bdlad

Folgerung 1. dlad(L1 , L2 ) ⊂ CS für alle L1 , L2 ∈ {FIN, REG, CF, CS} .

Theorem 2. dlad(RE, RE) ⊂ RE.

Beweis. Der Beweis kann völlig analog zu dem von Theorem 1 geführt werden. Lediglich die lineare
Beschränkung entfällt. Stattdessen werden die ($P , §P )-Paare einzig zum Erkennen der Begrenzung der
Band-Bereiche verwendet, in denen die jeweils simulierte Turing-Maschine schreiben darf. Stößt diese
an die rechts- bzw. linksseitige Grenze des Bereiches, so wird die Simulation temporär unterbrochen,
sämtliche Folgesymbole des Bandes um endlich viele Stellen nach hinten verschoben, der Bandkopf
an die links- bzw. rechtsseitig erste Stelle des geschaffenen Freiraumes gesetzt und mit der Simlation
fortgefahren.

Folgerung 2. dlad(L1 , L2 ) ⊂ RE für alle L1 , L2 ∈ {FIN, REG, CF, CS} .

Die beiden vorangegangenen Theoreme sagten im Kern aus, daß CS und RE jeweils abgeschlossen4 sind
unter Anwendung der dlad-Operation. Es folgt ein Lemma über die Anwendung der dlad-Operation auf
endliche Basissprachen:

Theorem 3.
(a) dlad(FIN, FIN) = dlad(FIN, REG) = dlad(FIN, CF) = dlad(FIN, CS) = dlad(FIN, RE)

(b) dlad(FIN, FIN) ⊂ FIN


4
abgeschlossen in dem Sinne, daß wenn beide Parameter einer Sprachklasse X ∈ {CS, RE} angehören, das Ergebnis der
Operation ebenfalls in X liegt
K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION 15

Beweis. Offensichtlich gilt für alle Sprachen L, P :


[ [
dlad(L, P ) = dlad(L, {π1 , π2 }) = dlad(L, {π1 , π2 }) (3.1)
π1 ,π2 ∈P π1 ,π2 ∈P ∩sub(L)
= dlad(L, P ∩ sub(L))
Ist L ∈ FIN, dann ist sub(L) und somit auch P ∩ sub(L) ebenfalls endlich. Es gilt also einerseits:
∀L ∈ {REG, CF, CS, RE} : ∀P ∈ L : P ∩ sub(L) ∈ FIN
und wegen P ∩ sub(P ) = P andererseits auch:
∀X ∈ FIN : ∃P, L | P ∩ sub(L) = X
(z.B. für P = L = X). Hieraus folgt wegen Gleichung 3.1 die Gleichheit aller dlad(FIN, L) für
L ∈ {FIN, REG, CF, CS, RE}, d.h.: dlad(FIN, L) = dlad(FIN, FIN) für alle L ∈ {REG, CF, CS, RE}.

Es folgt der Beweis für dlad(FIN, FIN) ⊂ FIN. Zu zeigen ist: ∀X, P ∈ FIN : dlad(L, P ) ∈ FIN.
Für jedes Wort wL ∈ L und jede Auswahl {π1 , π2 } ⊆ P ∩ sub({wL }) gilt:
[
dlad(w, {π1 , π2 }) = {x1 αvβx2 αuβx3 |w = x1 αuβx2 αvβx3 , x1 , x2 , x3 ∈ V ∗ ,
α,β∈{π1 ,π2 } u, v ∈ V + }
[
= {x1 αvβx2 αuβx3 |w = x1 αuβx2 γvδx3 , x1 , x2 , x3 ∈ V ∗ ,
α,β∈{π1 ,π2 } u, v ∈ V + }

Für letztere Menge läßt sich nun relativ leicht die Kardinalität abschätzen: Die Menge umfaßt al-
le Wörter z, die aus w = x1 αuβx2 γvδx3 (x1 , x2 , x3 ∈ V ∗ , u, v ∈ V + ) durch Vertauschen von
u und v hervorgehen. Die Kardinalität dieser Menge ist somit nach oben hin beschränkt durch die
Anzahl verschiedener Möglichkeiten für die Positionen der Zeiger α, β, γ, δ ∈ {π1 , π2 } . Dies ent-
spricht, da eine Ordnung für die vier Positionen bereits gegeben ist, einer Kombination vierter Klas-
se ohne Wiederholung aus einer n-elementigen
 Menge, wobei n := #π1 (w) + #π2 (w). Somit gilt:
W = n
|dlad(w, {π1 , π2 })| ≤ Cn,k .
4
Hinsichtlich der Kardinalität von dlad(L, P ) läßt sich – mit oben angeführter Definition für n 5 – also
feststellen :


[ [
|dlad(L, P )| = dlad(w, {π1 , π2 })
w∈L π1 ,π2 ∈P ∩sub(L)
X X
≤ dlad(w, {π1 , π2 })
w∈L π1 ,π2 ∈P ∩sub(L)
 
X ñ
=
4
w∈L, π1 ,π2 ∈P ∩sub(L)

Aus der Endlichkeit von L und P folgt somit die von dlad(L, P ), was zu beweisen war.
5
In der nachfolgenden Formel wird ein ñ verwendet, um zu betonen, daß es sich hierbei nicht um eine Konstante, sonderen
um eine Funktion über (w, π1 , π2 ) handelt.
K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION 16

Als letztes Theorem dieses Abschnittes soll eine Aussage getroffen werden zum Ergebnis von
dlad(L, P ), wenn L eine reguläre Sprache und P eine endliche Sprache darstellt. Wie sich zeigen wird,
kann das Resultat dlad(L, P ) in einem solchen Fall stets durch einen geeigneten endlichen Automaten
erkannt werden.
Theorem 4. dlad(REG, FIN) ⊂ REG

Beweis. Sei L eine reguläre Sprache, welche durch den (deterministischen) endlichen Automaten
A = (V, Z, z0 , F, δ) akzeptiert wird. Sei ferner P = {α1 , α2 , ..., αn } eine endliche Menge von Zei-
gern αi = ai,1 ai,2 ...ai,ri mit ai,j ∈ V, 1 ≤ i ≤ n, 1 ≤ j ≤ ri .
Wir definieren nun wie folgt den nichtdeterministischen endlichen Automaten A0 , der genau dlad(L, P )
akzeptieren soll – d.h. alle Wörter w0 = x1 αvβx2 αuβx3 für w = x1 αuβx2 αvβx3 ∈ L, α, β ∈ P :
 
A0 = (V, R × Z × Z̃ × Z̃ × Z̃ × Z̃ × K × K), (rd 1 , z0 , o, o, o, o, o, o), F 0 , δ 0 ,

wobei
R = {rd 1 ,rd 2 , . . . ,rd 9 },
Z̃ = Z ∪ {o} ,
K = {fs i,j |1 ≤ i ≤ n, 1 ≤ j ≤ ri } ∪ {o} ,
F 0 = {(rd 9 , z̈, ż, q, z̈, ż,fs i,ri ,fs k,rk ) |ż, z̈, ∈ Z, q ∈ F }

und o,rd 1 ,rd 2 , . . . ,rd 9 sowie fs i,j , 1 ≤ i ≤ n, 1 ≤ j ≤ ri neue Symbole sind.


δ 0 für diesen Automaten wird schrittweise wie folgt definiert:

1. Beginnend im Initialzustand von A und x1 lesend erreicht A0 durch Simulation von A in der
zweiten Komponente den Zustand (rd 1 , δ(z0 , x1 ), o, o, o, o, o, o):
Für alle a ∈ V, z ∈ Z :
δ 0 ((rd 1 , z, o, o, o, o, o, o), a) 3 (rd 1 , δ(z, a), o, o, o, o, o, o)

2. A0 prüft nun, ob auf das Teilwort x1 in w0 ein Wort αi ∈ P folgt – hierzu wird die siebente Kom-
ponente des Zustandes verwendet. Parallel dazu wird in der zweiten Komponente des Zustandes
von A0 die Arbeit von A weiter simuliert. Mit Abschluß dieser Phase erreicht A0 einen Zustand
(rd 3 , δ(z0 , x1 αi ), ż, ż, z̈, z̈,fs i,ri , o):
Für alle z, ż, z̈ ∈ Z, 1 ≤ i ≤ n, 2 ≤ j ≤ ri − 1 :
δ 0 ((rd 1 , z, o, o, o, o, o, o), ai,1 ) 3 (rd 2 , δ(z, ai,1 ), o, o, o, o,fs i,1 , o)
δ 0 ((rd 2 , z, o, o, o, o,fs i,j−1 , o), ai,j ) 3 (rd 2 , δ(z, ai,j ), o, o, o, o,fs i,j , o)
δ 0 ((rd 2 , z, o, o, o, o,fs i,ri −1 , o), ai,ri ) 3 (rd 3 , δ(z, ai,ri ), ż, ż, z̈, z̈,fs i,ri , o)

3. Nun wird in der vierten Komponente des Zustandes von A0 die Arbeit von A simu-
liert und von ż ausgehend v gelesen. Mit Abschluß dieser Phase erreicht A0 einen
Zustand(rd 3 , δ(z0 , x1 αi ), ż, δ(ż, v), o, o,fs i,ri , o):
Für alle a ∈ V, z, z2 , ż, z̈ ∈ Z, 1 ≤ i ≤ n :
δ 0 ((rd 3 , z, ż, z2 , z̈, z̈,fs i,ri , o), a) 3 (rd 3 , z, ż, δ(z2 , a), z̈, z̈,fs i,ri , o)
K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION 17

4. A0 prüft nun, ob auf das Teilwort x1 αi v in w0 ein Wort αk ∈ P folgt – hierzu wird die achte
Komponente des Zustandes verwendet. Parallel dazu wird in der sechsten Komponente des Zu-
standes von A0 die Arbeit von A weiter simuliert. Mit Abschluß dieser Phase erreicht A0 einen
Zustand (rd 5 , δ(z0 , x1 αi ), ż, δ(ż, v), z̈, δ(z̈, αk ),fs i,ri ,fs k,rk ):
Für alle z, z2 , z3 , ż, z̈ ∈ Z, 1 ≤ i, k ≤ n, 2 ≤ l ≤ rk − 1 :

δ 0 ((rd 3 , z, ż, z2 , z̈, z̈,fs i,ri , o), ak,1 ) 3 (rd 4 , z, ż, z2 , z̈, δ(z̈, ak,1 ),fs i,ri ,fs k,1 , )
δ 0 ((rd 4 , z, ż, z2 , z̈, z3 ,fs i,ri ,fs k,l−1 ), ak,l ) 3 (rd 4 , z, ż, z2 , z̈, δ(z3 , ak,l ),fs i,ri ,fs k,l , )
δ 0 ((rd 4 , z, ż, z2 , z̈, z3 ,fs i,ri ,fs k,rk −1 ), ak,rk ) 3 (rd 5 , z, ż, z2 , z̈, δ(z3 , ak,rk −1 ),fs i,ri ,fs k,rk )

5. In der sechsten Komponente des Zustandes von A0 wird weiter die Arbeit von A
simuliert, um x2 zu lesen. Mit Abschluß dieser Phase erreicht A0 einen Zustand
(rd 5 , δ(z0 , x1 αi ), ż, δ(ż, v), z̈, δ(z̈, αk x2 ),fs i,ri ,fs k,rk ):
Für alle a ∈ V, z, z2 , z3 , ż, z̈ ∈ Z, 1 ≤ i, k ≤ n :

δ 0 ((rd 5 , z, ż, z2 , z̈, z3 ,fs i,ri ,fs k,rk ), a) 3 (rd 5 , z, ż, z2 , z̈, δ(z3 , a),fs i,ri ,fs k,rk )

6. A0 prüft nun, ob auf das Teilwort x1 αi vαk x2 in w0 wieder der bereits erfaßte Zeiger
αi ∈ P folgt – hierzu wird wie in Schritt 2 die siebente Komponente des Zustandes ver-
wendet. Parallel dazu wird wie gehabt in der sechsten Komponente des Zustandes von A0
die Arbeit von A weiter simuliert. Mit Abschluß dieser Phase erreicht A0 einen Zustand
(rd 7 , δ(z0 , x1 αi ), ż, δ(ż, v), z̈, δ(z̈, αk x2 αi ),fs i,ri ,fs k,rk ):
Für alle z, z2 , z3 , ż, z̈ ∈ Z, 1 ≤ i, k ≤ n, 2 ≤ j ≤ ri − 1 :

δ 0 ((rd 5 , z, ż, z2 , z̈, z3 ,fs i,ri ,fs k,rk ), ai,1 ) 3 (rd 6 , z, ż, z2 , z̈, δ(z3 , ai,1 ),fs i,1 ,fs k,rk )
δ 0 ((rd 6 , z, ż, z2 , z̈, z3 ,fs i,j−1 ,fs k,rk ), ai,j ) 3 (rd 6 , z, ż, z2 , z̈, δ(z3 , ai,j ),fs i,j ,fs k,rk )
δ 0 ((rd 6 , z, ż, z2 , z̈, z3 ,fs i,ri −1 ,fs k,rk ), ai,ri ) 3 (rd 7 , z, ż, z2 , z̈, δ(z3 , ai,ri ),fs i,ri ,fs k,rk )

7. A0 wechselt mit der Bearbeitung zurück auf die zweite Komponente seines Zustandes, um dort
die Arbeit von A zu simulieren und u zu lesen. Nach Abschluß dieser Phase erreicht A0 einen
Zustand (rd 7 , δ(z0 , x1 αi u), ż, δ(ż, v), z̈, δ(z̈, αk x2 αi ),fs i,ri ,fs k,rk ):
Für alle a ∈ V, z, z2 , z3 , ż, z̈ ∈ Z, 1 ≤ i, k ≤ n :

δ 0 ((rd 7 , z, ż, z2 , z̈, z3 ,fs i,ri ,fs k,rk ), a) 3 (rd 7 , δ(z, a), ż, z2 , z̈, z3 ,fs i,ri ,fs k,rk )

8. A0 prüft nun, ob auf das bisher gelesene Teilwort x1 αi vαk x2 αi u in w0 wieder der be-
reits erfaßte Zeiger αk ∈ P folgt – hierzu wird wie in Schritt 4 die achte Komponente
des Zustandes verwendet. Parallel dazu wird in der vierten Komponente des Zustandes von
A0 die Arbeit von A weiter simuliert. Mit Abschluß dieser Phase erreicht A0 den Zustand
(rd 9 , δ(z0 , x1 αi u), ż, δ(ż, vαk ), z̈, δ(z̈, αk x2 αi ),fs i,ri ,fs k,rk ):
Für alle z, z2 , z3 , ż, z̈ ∈ Z, 1 ≤ i, k ≤ n, 2 ≤ l ≤ rk − 1 :

δ 0 ((rd 7 , z, ż, z2 , z̈, z3 ,fs i,ri ,fs k,rk ), ak,1 ) 3 (rd 8 , z, ż, δ(z2 , ak,1 ), z̈, z3 ,fs i,ri ,fs k,1 )
δ 0 ((rd 8 , z, ż, z2 , z̈, z3 ,fs i,ri ,fs k,l−1 ), ak,l ) 3 (rd 8 , z, ż, δ(z2 , ak,l ), z̈, z3 ,fs i,ri ,fs k,l )
δ 0 ((rd 8 , z, ż, z2 , z̈, z3 ,fs i,ri ,fs k,rk −1 ), ak,rk ) 3 (rd 9 , z, ż, δ(z2 , ak,rk ), z̈, z3 ,fs i,ri ,fs k,rk )
K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION 18

9. Abschließend wird durch A0 in der vierten Komponente die Arbeit von A simuliert und ver-
sucht, das Restwort x3 zu lesen. Zum Ende dieser letzten Phase erreicht A0 einen Zustand
(rd 9 , δ(z0 , x1 αi u), ż, δ(ż, vαk x3 ), z̈, δ(z̈, αk x2 αi ),fs i,ri ,fs k,rk ):
Für alle a ∈ V, z, z2 , z3 , ż, z̈ ∈ Z, 1 ≤ i, k ≤ n :

δ 0 ((rd 9 , z, ż, z2 , z̈, z3 ,fs i,ri ,fs k,rk ), a) 3 (rd 9 , z, ż, δ(z2 , a), z̈, z3 ,fs i,ri ,fs k,rk )

Essentiell an dieser Stelle ist die Definition von F 0 , der Menge aller Finalzustände von A0 . Sie stellt
zunächst an einen Zustand von A0 die Forderung der Gleichheit der Komponenten 2 und 5 sowie 3 und
6, damit dieser als Finalzustand in Frage kommen kann. Dies bedeutet, daß letztlich für sämtliche Final-
zustände des Automaten die Bedingung erfüllt sein muß, daß δ(z0 , x1 αi u) = z̈ und δ(z̈, αk x2 αi ) = ż
gilt. Hierdurch wird erreicht, daß für die vierte Komponente gilt:

q = δ(ż, vαk x3 ) = δ(δ(z̈, αk x2 αi ), vαk x3 ) = δ(δ(δ(z0 , x1 αi u), αk x2 αi ), vαk x3 )


= δ(z0 , x1 αi uαk x2 αi vαk x3 )

Darauf aufbauend wird an dieses q in der Definition von F 0 die Forderung gestellt, daß q ∈ F gilt –
also q ein Finalzustand des ursprünglichen Automaten A ist.
Alles zusammen ergibt sich, daß A0 genau jene Wörter w0 akzeptiert, die sich einerseits darstellen
lassen als w0 = x1 αi vαk x2 αi uαk x3 mit αi , αk ∈ P und für die andererseits gilt, daß das Wort
w = x1 αi uαk x2 αi vαk x3 von A akzeptiert wird, also in L liegt.

3.3 Zur Optimalität der oberen Schranken

Als erstes Theorem dieses Abschnittes soll eine allgemeine Aussage getroffen werden über die
Optimalität bestimmter Inklusionsbeziehungen bei Anwendung der dlad-Operation im Kontext von
Sprachklassen-Hierarchien, die gewisse Eigenschaften erfüllen:

Theorem 5. Für alle Sprachfamilien L1 , L2 mit L1 ⊃ L2 und der Eigenschaft, daß L1 abgeschlos-
sen ist unter beidseitiger Konkatenation mit Buchstaben und L2 abgeschlossen ist unter beidseitiger
Quotientenbildung mit Buchstaben6 , gilt: dlad(L1 , FIN) * L2 .

Beweis. Es genügt zu zeigen, daß für alle Sprachfamilien L1 , L2 mit den obigen Eigenschaften Spra-
chen L ∈ L1 und P ∈ FIN derart existieren, daß gilt: dlad(L1 , P ) ∈
/ L2
Sei dazu zunächst L ∈ L1 \ L2 und P := {α, β |α, β ∈
/ alph(L) } ∈ FIN. Darauf aufbauend wird eine
neue Sprache L0 definiert als: L0 := {w0 |w0 = αxβwαxβ, w ∈ L, α, β, x ∈ / alph(L) }. Dann gilt:
L0 = dlad(L0 , P ).
Da L1 abgeschloßen ist unter (beidseitiger) Konkatenation mit Buchstaben, gilt: L0 ∈ L1 und damit
L0 ∈ dlad(L1 , FIN). Angenommen, es gilt ebenfalls L0 ∈ L2 . Dann ließe sich durch Löschen von genau
drei Buchstaben jeweils zu Beginn und Ende des Wortes (– den beiden Paaren αxβ, die w in w0 ∈ L0
6
Hierhinter verbirgt sich die Möglichkeit, am Anfang bzw. Ende des Wortes successive einzelne Buchstaben zu löschen.
In einschlägiger Literatur wird mitunter nur von „Quotientenbildung“ im allgemeinen gesprochen und darunter der rechts-
seitige Fall verstanden . Im Kontext derartiger Konventionen wäre dann in Theorem 5 für L2 eine Abgeschlossenheit unter
Quotientenbildung mit Buchstaben und Bildung von Kehrworten zu fordern.
K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION 19

umschließen, wobei α, β, x ∈ / alph(L) –) aus L0 die Sprache L erzeugen. Da aber L2 abgeschlossen


ist unter beidseitiger Quotientenbildung, würde dann allerdings auch gelten: L ∈ L2 . Dies jedoch wäre
ein Widerspruch zur Wahl von L.

Aus der soeben gewonnenen Erkenntnis folgt sofort das folgende Theorem für die Sprachfamilien der
Chomsky-Hierarchie:

Theorem 6. dlad(L1 , FIN) * L2 für alle Sprachfamilien L1 , L2 ∈ {FIN, REG, CF, CS, RE} mit
L1 ⊃ L2 .

Beweis. Die Aussage folgt sofort aus Theorem 5 und der Tatsache, daß FIN, REG, CF, CS und RE abge-
schlossen sind sowohl unter (beidseitiger) Konkatenation mit Buchstaben als auch unter (beidseitiger)
Quotientenbildung mit Buchstaben.

Darüber hinaus folgt aus Theorem 5 sogar die folgende, wesentlich allgemeinere Aussage:

Folgerung 3. Sei M = {L1 , . . . , Ln } eine Menge Sprachfamilien mit L1 = FIN und Li ⊂ Li+1
für 1 ≤ i ≤ n − 1 sowie der Eigenschaft, daß die Li sämtlichst abgeschlossen sind unter (beidsei-
tiger) Konkatenation mit Buchstaben und unter (beidseitiger) Quotientenbildung mit Buchstaben. Gilt
darüber hinaus dlad(Li+1 , FIN) ⊆ Li+1 für ein 1 ≤ i ≤ n, so ist diese Abschätzung für das entspre-
chende i optimal bezüglich M.

Hierbei handelt es sich um ein wesentliches Ergebnis, das nicht nur eine Aussage über die Sprachfa-
milien der Chomsky-Hierarchie darstellt. Für Sprachklassen-Hierarchien mit den obigen Eigenschaften
kann „im optimalen Fall“ also höchstens nachgewiesen werden, daß einige der enthaltenen Sprachfa-
milien abgeschlossen sind unter Anwendung der dlad-Operation mit endlichen Sprachen als Zeiger-
mengen – alle in der Hierarchie enthaltenen echten Teilmengen einer Sprachklasse können als Ergebnis
der Operation, auf letztere angewendet, im Falle allgemeiner7 endlicher Zeigermengen ausgeschlossen
werden.
Vor allem im Hinblick auf die Tatsache, daß es in der Theorie der Formalen Sprachen eine Vielzahl
relevanter Sprachfamilien gibt, die eine echte Obermenge von CF und gleichzeitig eine echte Teilmenge
von CS bilden (vgl. u.a. [Dassow und Pǎun ]), ist dieses Resultat von Bedeutung. Es erlaubt uns, den
folgenden Schluß zu ziehen:

Folgerung 4. dlad(CS, FIN) * L für alle L ⊂ CS, die abgeschlossen sind unter beidseitiger Quoti-
entenbildung. D.h. dlad(CS, FIN) ⊂ CS ist optimal bzgl. jeder Hierarchie von Sprachfamilien, die CS
enthält und deren Elemente sämtlichst abgeschlossen sind unter (beidseitiger) Quotientenbildung mit
Buchstaben.

Die folgenden zwei Theoreme zuzüglich der ihnen nachgestellten Schlußfolgerungen beweisen die Op-
timalität der ermittelten oberen Schranken für dlad(L1 , L2 ) für die Fälle L1 , L2 ∈ {REG, CF, CS}
sowie L2 = RE, L1 ∈ {REG, CF, CS}.

7
Das Wort „allgemein“ möge hierbei als Gegenteil zu „konkret“ verstanden werden. D.h., die Aussage erstreckt sich über
die Gesamtheit aller Fälle als Ganzes, nicht über jeden einzelnen Fall.
K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION 20

Theorem 7. dlad(REG, REG) * CF

Beweis. Es genügt zu zeigen: dlad(REG, REG) enthält eine nichtkontextfreie Sprache.


Sei dazu L = {a, b}+ {cde} {a, b}+ {cd} und P = {a, b}+ ∪ {d}. Beide Sprachen sind regulär: L wird
erzeugt durch den regulären Ausdruck RL = (a + b)+ cde(a + b)+ cd, P durch RP = (a + b)+ + d.
Offensichtlich gilt nun aber: X = dlad(L, P ) = xcdexcd x ∈ {a, b}+ . Angenommen nun, diese


Sprache sei kontextfrei. Da CF abgeschlossen ist unter k-beschränktem Löschen, wäre dann (durch
Löschen der c, d, e) auch X 0 = xx x ∈ {a, b}+ kontextfrei. Dem ist aber bekanntlich nicht so,


womit ein Widerspruch hergeleitet werden konnte, welcher wiederum die einzig getätigte Annahme
widerlegt, dlad(L, P ) sei für die gewählten Sprachen L und P kontextfrei.

Folgerung 5. dlad(L1 , L2 ) * CF für L1 , L2 ∈ {REG, CF, CS, RE}.

Für den Fall rekursiv aufzählbarer Sprachen als Zeigermengen sei dann entsprechend das folgende
Theorem angeführt:

Theorem 8. dlad(REG, RE) * CS

Beweis. Es genügt zu zeigen: dlad(REG, RE) enthält eine nichtkontextsensitive Sprache.


Sei L = {c} {0, 1}+ {ddd} {0, 1}+ {ccc} {0, 1}+ {ddd} {0, 1}+ {c}, P = {c}U {d} ∪ {d}U {c}
und U eine Sprache aus RE \ CS über dem Alphabet {0, 1} (z.B. die universelle Sprache Lu , siehe
[Hopcroft und Ullmann 1994, S. 198 & 244]). L ist regulär – es wird erzeugt durch den regulären Aus-
druck RL = c(0 + 1)+ ddd(0 + 1)+ ccc(0 + 1)+ ddd(0 + 1)+ c.
Offensichtlich gilt nun aber: dlad(L, P ) = {cw1 dddw2 cccw1 dddw2 c, |w1 , w2 ∈ U }. Diese Sprache
kann jedoch auf U reduziert werden, da man basierend auf einem linear beschränkten Automaten
LBA dlad , der dlad(L, P ) akzeptiert, einen solchen LBA U bauen kann, der U akzepiert. (LBA U über-
führt das Eingabewort w wird in ein Wort cwdddwcccwdddwc und simuliert anschließend darauf die
Arbeit von LBA dlad . LBA U antwortet genau dann positiv, wenn auch LBA dlad dieses Ergebnis liefert.
Hierfür genügt es, eine lineare Beschränkung für LBA U von lU (|w|) = ldlad (|cwdddwcccwdddwc|) =
ldlad (4 ∗ |w| + 11) zu verwenden.)
Dies bedeutet, daß für die definierten Sprachen L und P die Sprache X = dlad(L, P ) nichtkontextsen-
sitiv ist.

Folgerung 6. dlad(L, RE) * CS für L ∈ {REG, CF, CS, RE}.

Die vorangegangen Theoreme und Schlußfolgerungen haben die Optimalität der im Abschnitt 3.2 er-
mittelten oberen Schranken für dlad(L1 , L2 ) für die folgenden Fälle bewiesen:
• L1 ∈ {FIN, CS, RE}, L2 ∈ {FIN, REG, CF, CS} (siehe Theorem 3)

• L1 = L2 = REG (siehe ebenfalls Theorem 3)

• L1 , L2 ∈ {REG, CF, CS} (siehe Theorem 7 und Schlußfolgerung 5)

• L1 ∈ {REG, CF, CS}, L2 = RE (siehe Theorem 8 und Schlußfolgerung 6)


K APITEL 3. U NTERSUCHUNGEN ZUR dlad-O PERATION 21

Der einzige noch offene Fall ist also L1 = CF, L2 = FIN, den das folgende letzte Theorem dieses
Abschnittes behandelt:

Theorem 9. dlad(CF, FIN) * CF

Beweis. Es genügt zu zeigen: dlad(CF, FIN) enthält eine nichtkontextfreie Sprache.


Sei hierzu L = {ai oci oobj odj |i, j ≥ 1 } ∈ CF. L ist kontextfrei, da es durch die kontextfreie Gram-
matik GL = (N, T, P, S) erzeugt werden kann mit:

N = {S, S1 , S2 },
T = {a, b, c, d, o},
 

 S → S1 ooS2 , 

 S1 → aS1 b,

 


P = S1 → aob,
S → cS2 d,
 
2

 

 
S2 → cod
 

P sei definiert als P = {o}. Somit ist L2 := dlad(L, P ) = {ai ocj oobi odj |i, j ≥ 1 } – diese Spra-
che ist jedoch homomorph zu X = {ai cj bi dj |i, j ≥ 1 }, welche wiederum bekanntermaßen (siehe
[Hopcroft und Ullmann 1994, S. 136]) nicht kontextfrei ist. Da aber CF abgeschlossen ist unter Homo-
morphismen, kann somit L2 ∈ dlad(CF, FIN) nicht kontextfrei gewesen sein.
K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION 22

Kapitel 4

Erweiterungen der dlad-Operation

Im Rahmen der Bearbeitung dieses Diplomthemas hat sich zunehmend die Frage ergeben, inwiefern
die gängige Form der Definition der dlad-Operation deren biologisches Pendant auf adäquate Weise
widerspiegelt. Präziser formuliert steht zur Disposition, ob durch die gegebene Definition tatsächlich
alle Fälle der Realität erfaßt werden – d.h. das Modell umfassend ist. Aus diesem Grunde sollen im
folgenden zwei Erweiterungen vorgestellt werden, die sich als prinzipiell denkbar erwiesen haben. Es
wird dabei zunächst erwähnt, worin sich die jeweilige Erweiterung letztlich begründet, anschließend
eine entsprechend veränderte Version der Definition gegeben und abschließend eruiert, inwiefern sich
diese auf die untersuchten Inklusionsbeziehungen bzgl. der Chomsky-Hierarchie auswirkt.

4.1 Erste Erweiterung

4.1.1 Definitionen

Im Rahmen der ersten Erweiterung wird die Frage erörtert, inwiefern die Anordnung der beiden bei
der dlad-Operation involvierten Zeiger-Paare sich unter gewissen Umständen anders darstellen könnte.
In Abbildung 4.1 ist eine solche Situation dargestellt. Zu erkennen ist, daß es sich strukturell um im
Grunde genommen dieselbe Art der Rekombination handelt wie in Abbildung 2.5. Ein eingehender
Blick1 zeigt allerdings, daß im Falle dieser alternativen Konstellation die beteiligten Markierungen in
veränderter Reihenfolge und zudem auf einander paarweise verschiedenen Einzelsträngen der DNA
angelagert vorliegen.
(a) β
(b) β
(c) β
(d) β

x2 ββ x2 β β x2 β β x2 ββ

x2 β x2 β x2 β x2 β
u u
x1 α u
−→ x1 α u
−→ x1 α
v −→ x1 α
v
v u v u
x1 α v x1 α v x1 α x1 α
x3 α x3 α x3 α u x3 α u
v v
x3 α x3 α x3 α x3 α

Abbildung 4.1: ”Double Loop, Alternating Direct Repeat” – Alternative Konstellation (dlad2 )
1
Man verfolge allein den Verlauf eines jeden der beiden Einzelstränge.
K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION 23

Unter Beachtung dieser Randbedingungen ergibt sich für den gerade beschriebenen Fall die folgende
Definition2 :

Definition 3. Sei V ein Alphabet, w ein Wort über V und P ⊆ V + eine Menge von Zeigern. Dann
wird definiert:

dlad2 (w, P ) := x1 αvβx2 β u αx3 w = x1 αuβx2 βvαx3 , x1 , x2 , x3 ∈ V ∗ ,




u, v ∈ V + , α, β ∈ P

Diese Definition läßt sich auf Sprachen sowie Sprachfamilien erweitern:

Definition 4. Seien L und P zwei Sprachen und L1 und L2 zwei Sprachfamilien. Dann sei dlad2 (L, P )
und dlad2 (L1 , L2 ) wie folgt definiert:
[
dlad2 (L, P ) := dlad2 (w, P )
w∈L
dlad2 (L1 , L2 ) := {dlad2 (L, P ) |L ∈ L1 , P ∈ L2 }

Auf Basis dieser Definitionen sollen im folgenden nun obere Schranken für die Inklusionsbeziehun-
gen bei Anwendung der Operation bestimmt werden, für welche wiederum im Abschnitt darauf die
Optimalität nachgewiesen wird.

4.1.2 Obere Schranken

Bevor nun im folgenden obere Schranken für die Inklusionsbeziehungen auf Basis der oben gege-
benen Definition von dlad2 ermittelt werden, sei zuvor noch kurz auf eine nicht unwesentliche Er-
kenntnis im Zusammenhang mit dieser ersten Erweiterung der dlad-Operation eingegangen. Führt
man sich die Abbildungen 2.4 und 4.1 nochmals vor Augen, so läßt sich im Vergleich dieser beiden
feststellen: Die im Rahmen dieser ersten Erweiterung modellierte alternative Konstellation der dlad-
Operation kann im Grunde durch doppeltes Anwenden der Hairpin-Operation (hi) simuliert werden
– zunächst einmal für das Paar der α und anschließend ein weiteres Mal für das Paar der β, bezie-
hungsweise vice versa. Tatsächlich kann bei geeigneter Definition der Hairpin-Operation – anlehnend
an [Dassow und Vaszil 2003], allerdings erweitert um den zusätzlichen Freiheitsgrad der der in Ka-
pitel 3.1 eingeführten bijektiven Abbildung zur Modellierung homologer Basen-Paare – durch den
Autor dieser Diplomarbeit formal lediglich bewiesen werden:

dlad2 (w, P ) ⊆ hi(hi(w, P ), P )

Dies liegt im wesentlichen daran, daß für eine doppelte Anwendung der Hairpin-Operation auch Kom-
binationen für die Lage der beteiligten Zeiger auftreten können, die durch dlad2 nicht erfaßt werden.
Würde gelten: dlad2 (w, P ) = hi(hi(w, P ), P ), so könnten (unter Beachtung der doppelten Anwendung
von hi) bekannte obere Schranken durch Anwendung der hi-Operation induzierten Inklusionsbeziehun-
gen auf dlad2 übertragen werden, und müßten lediglich hinsichtlich ihrer Optimalität bewiesen werden.
2
Das Auftreten der in Abschnitt 3.1 eingeführten Bijektion trägt dem Umstand Rechnung, daß die Zeiger-Paare auf
verschiedenen Einzelsträngen angeordnet sind. Lediglich einen Strang betrachtet bedeutet dies, daß einmal der Zeiger selbst
und an späterer Position dessen homologe Inversion als Teilsequenz auftreten.
K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION 24

Insofern stellt die obige Aussage zwar eine interessante Erkenntnis dar, doch liefert sie keinen Mehr-
wert im Hinblick auf die im Rahmen dieser Diplomarbeit durchgeführten Untersuchungen. Aus diesem
Grunde wird auch auf einen Beweis der Aussage verzichtet und stattdessen direkt mit der Bestimmung
der ersten oberen Schranken bei Anwendung von dlad2 fortgefahren.

Auf Basis der dargelegten Beweise in den Kapiteln 3.2 und 3.3 kann bereits eine Vielzahl von Aussagen
übernommen werden, da sich die Beweise für den Fall der Operation dlad2 völlig analog – bzw. mit nur
minimalen Änderungen, die dem Leser überlassen bleiben mögen – ergeben. Hierzu zählen zunächst
die Lemmata 1 und 2 sowie Theorem 3. Der Beweis zu Theorem 1 überträgt sich für den Fall der Ope-
ration dlad2 automatisch – einzige Ausnahme ist die Tatsache, daß die Teilwörter γ, δ in Schritt (2) des
Beweises rückwärts und unter Verwendung der durch ¯ definierten Transformation auf den allokierten
Speicherbereich geschrieben werden müssen; die Abschätzung der linearen Beschränkung kann ohne
Änderung übernommen werden.
Schlußfolgerung 1, Theorem 2 sowie Schlußfolgerung 2 übertragen sich automatisch. Theorem 4 bedarf
allerdings einer kleinen Änderung:
Theorem 10. dlad2 (REG, FIN) ⊂ REG

Beweis. Der Beweis kann ziemlich analog zu dem für Theorem 4 geführt werden. Im wesentlichen
müssen lediglich die Punkte 3, 6, 7 und 8 effektiv geändert werden. Da allerdings die dort durch-
geführten Änderungen auch Einfluß auf die Zwischenzustände des Automaten haben, welche in der
Abschlußbetrachtung zu der von ihm akzeptierten Sprache heranzuziehen sind, soll im folgenden die
Definition der Transitionsfunktion δ 0 in vollständiger Weise angeführt werden.
Der Automat A0 selbst wird analog zu jenem im Beweis zu Theorem 4 definiert als:
 
A0 = (V, R × Z × Z̃ × Z̃ × Z̃ × Z̃ × K × K), (rd 1 , z0 , o, o, o, o, o, o), F 0 , δ 0 ,

wobei die Definitionen der Mengen R, Z̃, K und F 0 ebenfalls mit den dort genannten übereinstimmen.

δ 0 für diesen Automaten sei schrittweise wie folgt definiert:

1. Beginnend im Initialzustand von A und x1 lesend erreicht A0 durch Simulation von A in der
zweiten Komponente den Zustand (rd 1 , δ(z0 , x1 ), o, o, o, o, o, o):
Für alle a ∈ V, z ∈ Z :

δ 0 ((rd 1 , z, o, o, o, o, o, o), a) 3 (rd 1 , δ(z, a), o, o, o, o, o, o)

2. A0 prüft nun, ob auf das Teilwort x1 in w0 ein Wort αi ∈ P folgt – hierzu wird die siebente Kom-
ponente des Zustandes verwendet. Parallel dazu wird in der zweiten Komponente des Zustandes
von A0 die Arbeit von A weiter simuliert. Mit Abschluß dieser Phase erreicht A0 einen Zustand
(rd 3 , δ(z0 , x1 αi ), ż, ż, z̈, z̈,fs i,ri , o):
Für alle z, ż, z̈ ∈ Z, 1 ≤ i ≤ n, 2 ≤ j ≤ ri − 1 :

δ 0 ((rd 1 , z, o, o, o, o, o, o), ai,1 ) 3 (rd 2 , δ(z, ai,1 ), o, o, o, o,fs i,1 , o)


δ 0 ((rd 2 , z, o, o, o, o,fs i,j−1 , o), ai,j ) 3 (rd 2 , δ(z, ai,j ), o, o, o, o,fs i,j , o)
δ 0 ((rd 2 , z, o, o, o, o,fs i,ri −1 , o), ai,ri ) 3 (rd 3 , δ(z, ai,ri ), ż, ż, z̈, z̈,fs i,ri , o)
K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION 25

3. Nun wird in der dritten Komponente des Zustandes von A0 die Arbeit von A simuliert und von ż
ausgehend v̄ gelesen. Da A allerdings die Eingabe v statt v̄ zu lesen hat, ist es aufgrund der De-
finition von ¯ notwendig, diese Simulation von A rückwärts durchzuführen und dabei zu jedem
gelesen Buchstaben a zunächst jeweils das korrespondierende ā zu bilden. Mit Abschluß dieser
Phase erreicht A0 einen Zustand(rd 3 , δ(z0 , x1 αi ), δ −1 (ż, v), ż, o, o,fs i,ri , o):
Für alle a ∈ V, z, z2 , ż, z̈ ∈ Z, 1 ≤ i ≤ n und alle z2−1 ∈ δ −1 (z2 , a) :
δ 0 ((rd 3 , z, z2 , ż, z̈, z̈,fs i,ri , o), a) 3 (rd 3 , z, z2−1 , ż, z̈, z̈,fs i,ri , o)

4. A0 prüft nun, ob auf das Teilwort x1 αi v̄ in w0 ein Wort αk ∈ P folgt – hierzu wird die achte
Komponente des Zustandes verwendet. Parallel dazu wird in der sechsten Komponente des Zu-
standes von A0 die Arbeit von A weiter simuliert. Mit Abschluß dieser Phase erreicht A0 einen
Zustand (rd 5 , δ(z0 , x1 αi ), δ −1 (ż, v), ż, z̈, δ(z̈, αk ),fs i,ri ,fs k,rk ):
Für alle z, z2 , z3 , z4 , z̈ ∈ Z, 1 ≤ i, k ≤ n, 2 ≤ l ≤ rk − 1 :
δ 0 ((rd 3 , z, ż, z2 , z̈, z̈,fs i,ri , o), ak,1 ) 3 (rd 4 , z, z4 , z2 , z̈, δ(z̈, ak,1 ),fs i,ri ,fs k,1 , )
δ 0 ((rd 4 , z, z4 , z2 , z̈, z3 ,fs i,ri ,fs k,l−1 ), ak,l ) 3 (rd 4 , z, z4 , z2 , z̈, δ(z3 , ak,l ),fs i,ri ,fs k,l , )
δ 0 ((rd 4 , z, z4 , z2 , z̈, z3 ,fs i,ri ,fs k,rk −1 ), ak,rk ) 3 (rd 5 , z, z4 , z2 , z̈, δ(z3 , ak,rk −1 ),fs i,ri ,fs k,rk )

5. In der sechsten Komponente des Zustandes von A0 wird weiter die Arbeit vonA
simuliert, um x2 zu lesen. Mit Abschluß dieser Phase erreicht A0 einen Zustand
(rd 5 , δ(z0 , x1 αi ), δ −1 (ż, v), ż, z̈, δ(z̈, αk x2 ),fs i,ri ,fs k,rk ):
Für alle a ∈ V, z, z2 , z3 , z4 , z̈ ∈ Z, 1 ≤ i, k ≤ n :
δ 0 ((rd 5 , z, z4 , z2 , z̈, z3 ,fs i,ri ,fs k,rk ), a) 3 (rd 5 , z, z4 , z2 , z̈, δ(z3 , a),fs i,ri ,fs k,rk )

6. A0 prüft nun, ob auf das Teilwort x1 αi v̄αk x2 in w0 das zum bereits erfaßten αk ∈ P kor-
respondierende αk folgt – hierzu wird wie in Schritt 2 die siebente Komponente des Zustan-
des verwendet. Parallel dazu wird wie gehabt in der sechsten Komponente des Zustandes von
A0 die Arbeit von A weiter simuliert. Mit Abschluß dieser Phase erreicht A0 einen Zustand
(rd 7 , δ(z0 , x1 αi ), δ −1 (ż, v), ż, z̈, δ(z̈, αk x2 αk ),fs i,ri ,fs k,rk ):
Für alle z, z2 , z3 , z4 , z̈ ∈ Z, 1 ≤ i, k ≤ n, 2 ≤ l ≤ rk − 1 :
δ 0 ((rd 5 , z, z4 , z2 , z̈, z3 ,fs i,ri ,fs k,rk ), ak,rk ) 3 (rd 6 , z, z4 , z2 , z̈, δ(z3 , ak,rk ),fs i,ri ,fs k,rk −1 )
δ 0 ((rd 6 , z, z4 , z2 , z̈, z3 ,fs i,ri ,fs k,l ), ak,l ) 3 (rd 6 , z, z4 , z2 , z̈, δ(z3 , ak,l ),fs i,ri ,fs k,l−1 )
δ 0 ((rd 6 , z, z4 , z2 , z̈, z3 ,fs i,ri ,fs k,1 ), ak,1 ) 3 (rd 7 , z, z4 , z2 , z̈, δ(z3 , ak,1 ),fs i,ri ,fs k,rk )

7. A0 wechselt nun zurück auf die fünfte Komponente des Zustandes, um dort von z̈ ausgehend
die Arbeit von A zu simulieren und ū zu lesen. Wie in Schritt 3 gilt auch hier: Da A die
Eingabe v statt v̄ zu lesen hat, ist es aufgrund der Definition von ¯ notwendig, diese Simu-
lation von A rückwärts durchzuführen und dabei zu jedem gelesen Buchstaben a zunächst je-
weils das korrespondierende ā zu bilden. Nach Abschluß dieser Phase erreicht A0 einen Zustand
(rd 7 , δ(z0 , x1 αi ), δ −1 (ż, v), ż, δ −1 (z̈, u), δ(z̈, αk x2 αi ),fs i,ri ,fs k,rk ):
Für alle a ∈ V, z, z2 , z3 , z4 , z5 ∈ Z, 1 ≤ i, k ≤ n und alle z5−1 ∈ δ −1 (z5 , a) :
δ 0 ((rd 7 , z, z4 , z2 , z5 , z3 ,fs i,ri ,fs k,rk ), a) 3 (rd 7 , z, z4 , z2 , z5−1 , z3 ,fs i,ri ,fs k,rk )
K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION 26

8. A0 prüft nun, ob auf das Teilwort x1 αi v̄αk x2 αk u in w0 das zum bereits erfaßten αi ∈ P
korrespondierende αi folgt – hierzu wird wie in Schritt 4 die achte Komponente des Zu-
standes verwendet. Parallel dazu wird in der vierten Komponente des Zustandes von A0
die Arbeit von A weiter simuliert. Mit Abschluß dieser Phase erreicht A0 den Zustand
(rd 9 , δ(z0 , x1 αi ), δ −1 (ż, v), δ(ż, αi ), δ −1 (z̈, u), δ(z̈, αk x2 αk ),fs i,ri ,fs k,rk ):
Für alle z, z2 , z3 , z4 , z5 ∈ Z, 1 ≤ i, k ≤ n, 2 ≤ j ≤ ri − 1 :

δ 0 ((rd 7 , z, z4 , z2 , z5 , z3 ,fs i,ri ,fs k,rk ), ak,rk ) 3 (rd 8 , z, z4 , δ(z2 , ai,ri ), z5 , z3 ,fs i,ri −1 ,fs k,rk )
δ 0 ((rd 8 , z, z4 , z2 , z5 , z3 ,fs i,ri ,fs k,l−1 ), ak,l ) 3 (rd 8 , z, z4 , δ(z2 , ai,j ), z5 , z3 ,fs i,j−1 ,fs k,rk )
δ 0 ((rd 8 , z, z4 , z2 , z5 , z3 ,fs i,ri ,fs k,1 ), ak,1 ) 3 (rd 9 , z, z4 , δ(z2 , ai,1 ), z5 , z3 ,fs i,ri ,fs k,rk )

9. Abschließend wird durch A0 in der vierten Komponente die Arbeit von A simuliert und ver-
sucht, das Restwort x3 zu lesen. Zum Ende dieser letzten Phase erreicht A0 einen Zustand
(rd 9 , δ(z0 , x1 αi ), δ −1 (ż, v), δ(ż, αi x3 ), δ −1 (z̈, u), δ(z̈, αk x2 αk ),fs i,ri ,fs k,rk ):
Für alle a ∈ V, z, z2 , z3 , z4 , z5 ∈ Z, 1 ≤ i, k ≤ n :

δ 0 ((rd 9 , z, z4 , z2 , z̈, z3 ,fs i,ri ,fs k,rk ), a) 3 (rd 9 , z, z4 , δ(z2 , a), z5 , z3 ,fs i,ri ,fs k,rk )

Essentiell an dieser Stelle ist die Definition von F 0 , der Menge aller Finalzustände von A0 . Sie
stellt zunächst an einen Zustand von A0 die Forderung der Gleichheit der Komponenten 2 und 5
sowie 3 und 6, damit dieser als Finalzustand in Frage kommen kann. Dies bedeutet, daß letztlich
für sämtliche Finalzustände von A0 die Bedingung erfüllt sein muß, daß δ(z0 , x1 αi ) = δ −1 (z̈, u)
und δ(z̈, αk x2 αk ) = δ −1 (ż, v) gilt. Dies impliziert: δ(δ(z0 , x1 αi ), u) = δ(z0 , x1 αi u) = z̈ und
δ(δ(z̈, αk x2 αk ), v) = δ(z̈, αk x2 αk v) = ż gilt.

Hierdurch wird also erreicht, daß für die vierte Komponente gilt:

q = δ(ż, αi x3 ) = δ(δ(z̈, αk x2 αk v), αi x3 ) = δ(δ(δ(z0 , x1 αi u), αk x2 αk v), αi x3 )


= δ(z0 , x1 αi uαk x2 αk vαi x3 )

Darauf aufbauend wird an dieses q in der Definition von F 0 die Forderung gestellt, daß q ∈ F gilt –
also q ein Finalzustand des ursprünglichen Automaten A ist.
Alles zusammen ergibt sich, daß A0 genau jene Wörter w0 akzeptiert, die sich einerseits darstellen
lassen als w0 = x1 αi v̄αx2 αk ū αi x3 mit αi , αk ∈ P und für die andererseits gilt, daß das Wort
w = x1 αi uαk x2 αk vαi x3 von A akzeptiert wird, also in L liegt.

Für den Fall, daß sowohl die Basissprache als auch die Zeigermenge regulärer Sprachen darstellen, läßt
sich im Gegensatz zu dlad für dlad2 eine bessere Abschätzung finden, wie das folgende Theorem zeigt:
Theorem 11. dlad2 (REG, REG) ⊂ CF

Beweis. Seien L, P reguläre Sprachen über o.B.d.A. demselben Alphabet X, die durch die (determini-
stischen) endlichen Automaten AL = (X, ZL , zL,0 , FL , δL ) und AP = (X, ZP , zP,0 , FP , δP ) akzep-
tiert werden.
K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION 27

Wir definieren nun basierend auf AL und AP den folgenden (nichtdeterministischen) Kellerautomaten
K = (X, ZK , X, zK,0 , FK , δK ), mit:

ZK = ZL × ZP × Z˜L × Z˜L × S ,
Z˜L = ZL ∪ {o}
S = {rd x1 ,rd α ,rd v ,rd β ,rd x2 ,rd β , lrd u ,rd α ,rd x3 ,rd u ,rd v } ,
zK,0 = (zL,0 , zP,0 , o, o,rd 1 ) ,
[
FK = {zL } × FP × {zL } × FL × {rd x3 }
zL ∈ZL

und der folgenden Definition für die Transitionsfunktion δK :

1. Ausgehend vom Initialzustand (zL,0 , zP,0 , o, o,rd 1 ) beginnt K mit der Verarbeitung des er-
sten Teilwortes x1 . In der ersten Komponente des Zustandes wird dabei die Arbeitswei-
se des Automaten AL simuliert. Mit Abschluß dieser Aktion erreicht K die Konfiguration
(αvβx2 β u αx3 , (δL (zL,0 , x1 ), zP,0 , o, o,rd x1 ), #):
Für alle x ∈ X, zL ∈ ZL :

δK ((zL , zP,0 , o, o,rd x1 ), x, #) 3 ((δL (zL , x), zP,0 , o, o,rd x1 ), R, #)

2. K verarbeitet α und legt für jeden gelesenen Buchstaben x den Buchstaben x auf den Stack.
In der ersten Komponente des Zustandes von K wird dabei weiterhin mit der Simulation von
AL fortgefahren. Zum Erkennen, ob ein α aus der Zeigermenge P vorliegt, wird parallel in
der zweiten Komponente von zP,0 ausgehend AP simuliert. Die abschließende Konfiguration ist
(vβx2 β u αx3 , (δL (zL,0 , x1 α), δP (zP,0 , α), o, o,rd α ), ᾱ#):
Für alle x, a ∈ X, zL ∈ ZL , zP ∈ ZP :

δK ((zL , zP,0 , o, o,rd x1 ), x, #) 3 ((δL (zL , x), δP (zP,0 , x), o, o,rd α ), R, x#)
δK ((zL , zP , o, o,rd α ), x, a) 3 ((δL (zL , x), δP (zP , x), o, o,rd α ), R, xa)

3. An dieser Stelle wird die Simulation von AL zunächst unterbrochen – der aktuelle Zustand von
AL wird in der dritten Komponente von K als zLα = δL (zL,0 , x1 α) gemerkt. K liest v (verarbeitet
wird dieses Teilwort erst zu einem späteren Zeitpunkt) und legt für jeden Buchstaben x dieses
Wortes den Buchstaben x auf den Stack. Zunächst wird allerdings die Menge aller erlaubten
initialen Zustände für diesen Schritt auf solche eingeschränkt, die in der zweiten Komponente
einen Finalzustand fP für AP vorzuweisen haben. Diese Einschränkung gewährleistet, daß im
Schritt zuvor das Teilwort α als Zeiger aus P erkannt wurde.
Da das Teilwort u erst später gelesen werden kann, muß an dieser Stelle nichtdeterministisch
jeder mögliche Fall untersucht werden, der als Zustand zLu = δL (zL,0 , x1 αu) = δL (zLα , u) für
AL auftreten kann, wenn letzterer vom aktuellen Zustand zLα ausgehend das Teilwort u liest.
Für jeden derartigen Fall wird sich in der dritten Komponente des Zustandes von AL besagtes
zLu gemerkt (zum Zwecke eines späteren Vergleiches, um die ungültigen Fälle herauszufiltern),
während in der vierten Komponente von diesem „geratenen“ Wert ausgehend später mit der Si-
mulation von AL fortgefahren wird. Mit Abschluß dieses Schrittes erreicht K die Konfiguration
(βx2 β u αx3 , (δL (zL,0 , x1 α), zP,0 , żLu , żLu ,rd α ), vα#):
K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION 28

Für alle x, a ∈ X, zLα , żLu ∈ ZL , fP ∈ FP :

δK ((zLα , fP , o, o,rd α ), x, a) 3 ((zLα , zP,0 , żLu , żLu ,rd v ), R, xa)


δK ((zLα , zP,0 , żLu , z˙L ,rd v ), x, a) 3 ((zLα , zP,0 , żLu , żLu ,rd v ), R, xa)

4. K verarbeitet β und legt für jeden Buchstaben x dieses Wortes den Buchstaben x auf den Stack.
Um zu prüfen, ob β ∈ P gilt, wird in der zweiten Komponente wieder die Arbeit von AP
simuliert. Parallel dazu wird – von dem im Schritt zuvor „geratenen“ Zustand zLu ausgehend –
in der vierten Komponente die Arbeit von AL simuliert. Nach Durchführung dieses Schrittes
erreicht K die Konfiguration (x2 β u αx3 , ((zL,0 , x1 α), δP (zP,0 , β), żLu , δL (żLu , β),rd β ), βvα#):
Für alle x, a ∈ X, zLα , żLu , z˙L ∈ ZL , zP ∈ ZP :

δK ((zLα , zP,0 , żLu , żLu ,rd v ), x, a) 3 ((zLα , δP (zP,0 , x), żLu , δL (żLu , x),rd β ), R, xa)
δK ((zLα , zP , żLu , z˙L ,rd β ), x, a) 3 ((zLα , δP (zP , x), żLu , δL (z˙L , x),rd β ), R, xa)

5. K schreitet mit der Simulation von AL (in der vierten Komponente) fort und verarbeitet x2 .
Initial wird jedoch zunächst die Menge aller zulässigen Zustände auf solche eingeschränkt, für
die in der zweiten Komponente ein fP ∈ FP erreicht werden konnte. Dies sichert, daß im Schritt
zuvor β als zur Sprache P zugehörig erkannt wurde. Mit Beendigung dieses Schrittes erreicht K
die Konfiguration (β u αx3 , (δL (zL,0 , x1 α), δP (zP,0 , β), żLu , δL (żLu , βx2 ),rd x2 ), βvα#):
Für alle x, a ∈ X, zLα , żLu , z˙L ∈ ZL , fP ∈ FP :

δK ((zLα , fP , żLu , z˙L ,rd β ), x, a) 3 ((zLα , fP , żLu , δL (z˙L , x),rd x2 ), R, a)


δK ((zLα , fP , żLu , z˙L ,rd x2 ), x, a) 3 ((zLα , fP , żLu , δL (z˙L , x),rd x2 ), R, a)

6. K verarbeitet β und vergleicht es schrittweise mit dem auf dem Stack gespeicherten Wort. Pa-
rallel dazu wird weiterhin die Arbeit von AL simuliert. Die abschließende Konfiguration lautet:
(u αx3 , (δL (zL,0 , x1 α), δP (zP,0 , β), żLu , δL (żLu , βx2 β),rd β ), vα#):
Für alle a ∈ X, zLα , żLu , z˙L ∈ ZL , fP ∈ FP , prev ∈ {β, x2 } :

δK ((zLα , fP , żLu , z˙L ,rd prev ), a, a) 3 ((zLα , fP , żLu , δL (z˙L , a),rd β ), R, λ)


δK ((zLα , fP , żLu , z˙L ,rd β ), a, a) 3 ((zLα , fP , żLu , δL (z˙L , a),rd β ), R, λ)

7. K liest u und legt, da statt u das Wort u verarbeitet werden muß, für jeden gelesenen Buchstaben
x den Buchstaben x auf den Stack. Somit wird sich die Konfiguration nur hinsichtlich des zu
lesenden Restwortes, des Stacks und der fünften Komponente des Zustandes von K ändern und
(αx3 , (δL (zL,0 , x1 α), δP (zP,0 , β), żLu , δL (żLu , βx2 β),rd u ), uvα#):
Für alle x, a ∈ X, zLα , żLu , z˙L ∈ ZL , fP ∈ FP :

δK ((zLα , fP , żLu , z˙L ,rd β ), x, a) 3 ((zLα , fP , żLu , z˙L ,rd u ), R, xa)


δK ((zLα , fP , żLu , z˙L ,rd u ), x, a) 3 ((zLα , fP , żLu , z˙L ,rd u ), R, xa)

8. K liest u vom Stack und verarbeitet es. Für diesen Schritt wird temporär mit der Simulation
von AL auf die erste Komponente zurückgewechselt. K erreicht eine Konfiguration der Form
(αx3 , (δL (zL,0 , x1 αu), δP (zP,0 , β), żLu , δL (żLu , βx2 β),rd u ), vα#):
K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION 29

Für alle x, a ∈ X, zLα , zL , żLu , z˙L ∈ ZL , fP ∈ FP :


δK ((zLα , fP , żLu , z˙L ,rd u ), x, a) 3 ((δL (zLα , a), fP , żLu , z˙L ,rd u ), N, λ)
δK ((zL , fP , żLu , z˙L ,rd u ), x, a) 3 ((δL (zL , a), fP , żLu , z˙L ,rd u ), N, λ)

9. K liest v vom Stack und verarbeitet es. Die Simulation von AL geschieht nun wie-
der auf der vierten Komponente. Zu Beginn wird die erste und dritte Komponen-
te auf Gleichheit geprüft, um die (nichtdeterministisch) untersuchten Fälle auf die zu-
lässigen einzuschränken. Mit Abschluß dieses Schrittes wird K eine Konfiguration
(αx3 , (δL (zL,0 , x1 αu), δP (zP,0 , β), żLu , δL (żLu , βx2 βv),rd β ), α#) angenommen haben:
Für alle x, a ∈ X, zLα , żLu , z˙L ∈ ZL , fP ∈ FP :
δK ((żLu , fP , żLu , z˙L ,rd u ), x, a) 3 ((żLu , fP , żLu , δL (z˙L , x),rd v ), N, λ)
δK ((żLu , fP , żLu , z˙L ,rd v ), x, a) 3 ((żLu , fP , żLu , δL (z˙L , x),rd v ), N, λ)

10. K liest α und vergleicht es schrittweise mit dem auf dem Stack gespeicherten
Wort. Nach diesem Schritt wird der Stack vollständig geleert sein, sofern das Ein-
gabewort die vom Automaten zu akzeptierende Struktur hat, und eine Konfiguration
(x3 , (δL (zL,0 , x1 αu), δP (zP,0 , β), żLu , δL (żLu , βx2 βvα),rd β ), #) vorliegen:
Für alle x, a ∈ X, żLu , z˙L ∈ ZL , fP ∈ FP :
δK ((żLu , fP , żLu , z˙L ,rd u ), x, a) 3 ((żLu , fP , żLu , δL (z˙L , x),rd α ), N, λ)
δK ((żLu , fP , żLu , z˙L ,rd α ), x, a) 3 ((żLu , fP , żLu , δL (z˙L , x),rd α ), N, λ)

11. K verarbeitet nun das letzte Teilwort x3 . Dazu wird, wie gehabt, in der vierten Komponente die
Arbeitsweise von AL simuliert. Der Stack muß an diesem Punkt leer sein – alle anderen Zustände
wären invalid. Die für diesen Schritt (– und für die gesamte Arbeit von K –) abschließende
Konfiguration lautet: (λ, (δL (zL,0 , x1 αu), δP (zP,0 , β), żLu , δL (żLu , βx2 βvαx3 ),rd x3 ), #):
Für alle x, a ∈ X, żLu , z˙L ∈ ZL , fP ∈ FP :
δK ((żLu , fP , żLu , z˙L ,rd α ), x, #) 3 ((żLu , fP , żLu , δL (z˙L , x),rd x3 ), N, λ)
δK ((żLu , fP , żLu , z˙L ,rd x3 ), x, #) 3 ((żLu , fP , żLu , δL (z˙L , x),rd x3 ), N, λ)

Essentiell an dieser Stelle ist die Definition von FK , der Menge aller Finalzustände von K. Sie forciert
die Gleichheit der Komponenten 1 und 3 für ein jedes Element von FK . Dies bedeutet, daß letztlich
für sämtliche Finalzustände von K die Bedingung erfüllt sein muß, daß δL (zL,0 , x1 αu) = żLu gilt.
Hierdurch wird erreicht, daß für die vierte Komponente gilt:

q = δL (żLu , βx2 βvαx3 ) = δL (δL (zL,0 , x1 αu), βx2 βvαx3 ) = δL (zL,0 , x1 αuβx2 βvαx3 )

Darauf aufbauend wird an dieses q in der Definition von FK die Forderung gestellt, daß q ∈ FL gilt –
d.h. q ein Finalzustand des Automaten AL ist.
Alles zusammen ergibt sich also, daß K genau jene Wörter w0 akzeptiert, die sich einerseits darstellen
lassen als w0 = x1 αvβx2 β u αx3 mit α, β ∈ P und für die andererseits gilt, daß das Wort w =
x1 αuβx2 βvαx3 von AL akzeptiert wird, also in L liegt.
K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION 30

4.1.3 Zur Optimalität der oberen Schranken

Anmerkung. Für die nachfolgenden Betrachtungen sei o. B. d. A. die Funktion : V → V gleich der
Identität: = id, d.h. x := id(x) = x für alle x ∈ V . Hieraus folgt automatisch, daß die Erweiterung
von auf ganze Wörter der Bildung des Kehrwortes entspricht: w = wR für alle w ∈ V ∗ .
Die Annahme beschränkt aus folgendem Grunde nicht die Allgemeinheit zur Wahl von :
Für jeden der im folgenden geführten Beweise gilt für den dort untersuchten Spezialfall der Anwendung
von dlad2 auf gezielt konstruierte Sprachen L und P , daß es ein gewisses n gibt, mit: |alph(L)| = n.
(D.h., dlad2 wird auf eine Basissprache mit insgesamt n verschiedenen Buchstaben angewandt.) Dann
sei für den jeweiligen Beweis zunächst ein Alphabet V gewählt mit |V | = 2n. Für dieses V ist es nun
für jede Funktion , die konform ist zur in Abschnitt 3.1 gegebenen Definition, auf alle Fälle möglich,
abhängig von wie folgt n Buchstaben auszuwählen: Beginnend mit V 0 = V wird n-mal successive
ein Buchstabe x ∈ V 0 gewählt und sowohl x als auch x aus V 0 entfernt. Für die Menge Ṽ der nach
diesem Schema selektierten Buchstaben gilt dann: Für jedes x ∈ Ṽ gilt dann entweder: x = x, oder
aber: x ∈ V \ Ṽ .
Für die Beweisführung werden nun lediglich Buchstaben aus Ṽ verwendet – o.B.d.A. seien es genau
jene, derer sich auch im Beweis bedient wird. Der Kontext des Beweises durchgeführten Anwendung
von dlad2 wird dann folgende endliche Folge von Substitutionen nachgeschaltet: Für jeden Buchstaben
aus x ∈ Ṽ wird in dem entstehenden Wort jedes Vorkommen von x wieder durch x ersetzt. Der Rest
des Beweises kann dann offensichtlich unverändert übernommen werden.
Da nun jede der Sprachklassen der Chomsky-Hierarchie abgeschlossen ist unter λ-freien wie auch
inversen Homomorphismen, ändert sich durch das Zwischenschalten dieser endlichen Folge von
Buchstaben-Umbenennungen nichts an der (Nicht-)Zugehörigkeit der sich ergebenden Sprache zu den
entsprechenden Sprachklassen.

Unter dieser Voraussetzung können nun also Theorem 5 und die daraus gewonnenen Implikationen
Theorem 6 und Schlußfolgerung 3 ohne Einschränkung auch für dlad2 übernommen werden.

Theorem 12. dlad2 (REG, REG) * REG

Beweis. Es genügt zu zeigen: dlad2 (REG, REG) enthält eine nichtreguläre Sprache.
Seien dazu die Basissprache L = {xam1 xcxbn1 xxbn2 xcxam2 x | n1 , n2 , m1 , m2 > 1 } und die Zei-
germenge P = {xam x, xbn x | n, m > 1 }. Beide Sprachen sind regulär – L wird erzeugt durch den
regulären Ausdruck RL = xa+ xcxb+ xxb+ xcxa+ x, P durch RP = xa+ x + xb+ x.
Offensichtlich gilt nun aber: X = dlad2 (L, P ) = {xam xcxbn xxbn xcxam x | n, m > 1 }, welche aller-
dings nicht regulär ist.

Theorem 13. dlad2 (REG, RE) * CS

Beweis. Dieser Beweis wird analog geführt zu jenem für Theorem 8. Es genügt zu zeigen:
dlad2 (REG, RE) enthält eine nichtkontextsensitive Sprache.
Sei L = {c} {0, 1}+ {ddd} {0, 1}+ {ccc} {0, 1}+ {ddd} {0, 1}+ {c}, P = {c}U {d} ∪ {d}U {c} und
U eine Sprache aus RE \ CS über dem Alphabet {0, 1}. L ist regulär – es wird erzeugt durch den
regulären Ausdruck RL = c(0 + 1)+ ddd(0 + 1)+ ccc(0 + 1)+ ddd(0 + 1)+ c.
K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION 31

Offensichtlich gilt nun aber: dlad2 (L, P ) = cw1 dddw2 cccw1R dddw2R c, |w1 , w2 ∈ U . Diese Spra-


che kann jedoch auf P 0 reduziert werden, da man basierend auf einem linear beschränkten Au-
tomaten LBA dlad2 , der dlad2 (L, U ) akzeptiert, einen solchen LBA U bauen kann, der U akzepiert.
(LBA U überführt das Eingabewort w wird in ein Wort cwdddwcccwR dddwR c und simuliert an-
schließend darauf die Arbeit von LBA dlad2 . LBA U antwortet genau dann positiv, wenn auch LBA dlad2
dieses Ergebnis liefert. Hierfür genügt es, eine lineare Beschränkung für LBA U von lP (|w|) =
ldlad2 (|cwdddwcccwR dddwR c|) = ldlad2 (4 ∗ |w| + 11) zu verwenden.) Dies bedeutet, daß für die defi-
nierten Sprachen L und P die Sprache X = dlad2 (L, P ) nicht kontextsensitiv ist.

Analog zur aus Theorem 8 gewonnenen Schlußfolgerung 6 ergibt sich aus der eben bewiesenen Aussage
weiterhin:

Folgerung 7. dlad2 (L, RE) * CS für L ∈ {REG, CF, CS, RE}.

Auf Basis der zu Beginn dieses Abschnittes getätigten Anmerkung kann weiterhin auch Theorem 9
ohne Einschränkung auf dlad2 übertragen werden. Darauf stützend läßt sich schlußfolgern:

Folgerung 8. dlad2 (CF, L) * CF für L ∈ {REG, CF, CS, RE}.

Theorem 14. dlad2 (REG, CF) * CF

Beweis. Es genügt zu zeigen: dlad2 (REG, CF) enthält eine nichtkontextfreie Sprache.
Sei dazu L = $ {a}+ {c}+ $$$ {c}+ {b}+ $$ {b}+ {c}+ $$$ {c}+ {a}+ $ und P = $ai ci $, $cj bj $ .


L ist regulär – es wird erzeugt durch den regulären Ausdruck RL = $a+ c+ $$$c+ b+ $$b+ c+ $$$c+ a+ $.
P ist kontextfrei, da es durch die kontextfreie Grammatik GP = (N, T, P, S) erzeugt werden kann mit:

N = {S, S1 , S2 },
T = {a, b, c, $},
 

 S → $S1 $, 




 S → $S2 $, 



S1 → aS1 c,
 
P =

 S1 → ac, 

S → cS2 b,
 
 2

 

 
S2 → cb

Offensichtlich gilt nun aber: L2 := dlad2 (L, P ) = $ai ci $$$cj bj $$bj cj $$$ci ai $ .


Angenommen nun, L2 sei kontextfrei. Dann gilt das Pumping-Lemma für kontextfreie Sprachen – d.h.,
es existiert eine von L2 abhängige Konstante n, sodaß für jedes z = uvwxy ∈ L2 mit |z| ≥ n gilt:
1. |vx| ≥ 1

2. |vwx| ≤ n

3. ∀i ≥ 0 : uv i wxi y ∈ L2
K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION 32

Betrachtet wird nun die Zeichenkette z = $an cn $$$cn bn $$bn cn $$$cn an $. Für diese wird im folgenden
das Wort z 0 = uwy = uv 0 wx0 y untersucht, das laut Pumping-Lemma in L2 enthalten sein müßte.
Zunächst ist klar: Enthielte vx ein oder mehrere $, so widerspräche z 0 aus Mangel an $ der definierenden
Struktur von L2 . Folglich kann vx nur eine der folgenden sieben Strukturen haben:

1. vx = ak , 0 ≤ k ≤ n

2. vx = ak cl , k, l ≥ 0, k, l > 1, 0 < k + l ≤ n

3. vx = ck , 0 < m ≤ n

4. vx = ck bl , k, l ≥ 0, 0 < k + l ≤ n

5. vx = bk , 0 < m ≤ n

6. vx = bk cl , k, l ≥ 0, 0 < k + l ≤ n

7. vx = ck al , k, l ≥ 0, 0 < k + l ≤ n

Für den jeweils entsprechenden Fall hat z 0 dann eine der folgenden Strukturen:

1. z 0 = $am1 cn $$$cn bn $$bn cn $$$cn am1 $, mi < n für zumindest ein 1 ≤ i ≤ 2

2. z 0 = $am1 cm2 $$$cn bn $$bn cn $$$cn an $, mi < n für zumindest ein 1 ≤ i ≤ 2

3. z 0 = $an cm1 $$$cm2 bn $$bn cm3 $$$cm4 an $, mi < n für zumindest ein 1 ≤ i ≤ 4

4. z 0 = $an cn $$$cm1 bm2 $$bn cn $$$cn an $, mi < n für zumindest ein 1 ≤ i ≤ 2

5. z 0 = $an cn $$$cn bm1 $$bm2 cn $$$cn an $, mi < n für zumindest ein 1 ≤ i ≤ 2

6. z 0 = $an cn $$$cn bn $$bm1 cm2 $$$cn an $, mi < n für zumindest ein 1 ≤ i ≤ 2

7. z 0 = $an cn $$$cn bn $$bn cn $$$cm1 am2 $, mi < n für zumindest ein 1 ≤ i ≤ 2

Keiner der obigen Fälle entspricht allerdings der durch die Definition von L2 geforderten Struktur. D.h.
jeder der Fälle führt zu einem Widerspruch, sodaß geschlußfolgert werden kann, daß die Annahme, L2
sei kontextfrei, nicht korrekt ist.

Aus der obigen Aussage folgt automatisch:

Folgerung 9. dlad2 (REG, L) * CF für L ∈ {CF, CS, RE}.


K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION 33

4.2 Zweite Erweiterung

4.2.1 Definitionen

Im Zentrum dieser zweiten Erweiterung steht die Überlegung, ob die beiden mittleren der vier bei der
dlad-Operation involvierten Zeiger tatsächlich, wie allgemein angenommen, unbedingt separiert sein
müssen. In der bei [Dassow und Vaszil 2003]3 angegebenen Modellierung ist analog zu Definition 1 für
das mittlere Teilwort x2 im Grenzfall das leere Wort λ erlaubt. Dies legt natürlich die Frage nahe, ob
sich die beiden in diesem Fall direkt aufeinanderfolgenden Markierungen dann nicht auch überlappen
dürften.
Von biologischer Seite her läßt sich diese Frage im Rahmen der vorliegenden Diplomarbeit leider nicht
adäquat beantworten. Aus sprachtheoretischer Sicht allerdings soll im folgenden untersucht werden,
inwiefern eine dahingehende Anpassung der Definitionen sich in einer Veränderung der untersuchten
Inklusionsbeziehugen niederschlagen würde.
Basierend auf den Definitionen für dlad und dlad2 ergeben sich zunächst die folgenden veränderten
Modellierungen:

Definition 5. Sei V ein Alphabet, w ein Wort über V und P ⊆ V + eine Menge von Zeigern. Dann
wird definiert4 :

dlad∗ (w, P ) = x1 αvπuβx3 w = x1 αuπvβx3 , βx12 = π = x22 α, x1 , x12 , x22 , x3 ∈ V ∗ ,




u, v ∈ V + , α, β ∈ P

dlad∗2 (w, P ) = x1 αvπu αx3 w = x1 αuπvαx3 , βx12 = π = x22 β, x1 , x12 , x22 , x3 ∈ V ∗ ,




u, v ∈ V + , α, β ∈ P

Diese Definition läßt sich wie gehabt auf Sprachen sowie Sprachfamilien erweitern:

Definition 6. Seien L und P zwei Sprachen und L1 und L2 zwei Sprachfamilien. Dann seien
dlad∗ (L, P ) und dlad∗2 (L, P ) und sowie dlad∗ (L1 , L2 ) und dlad∗2 (L1 , L2 ) und wie folgt definiert:
[
dlad∗ (L, P ) = dlad∗ (w, P )
w∈L
dlad (L1 , L2 ) = {dlad∗ (L, P ) |L ∈ L1 , P ∈ L2 }

[
dlad∗2 (L, P ) = dlad∗2 (w, P )
w∈L
dlad∗2 (L1 , L2 ) = {dlad∗2 (L, P ) |L ∈ L1 , P ∈ L2 }
3
Auch in anderen Veröffentlichungen wurde diesen Punkt betreffend in ähnlicher Weise modelliert.
4
Es sein angemerkt, daß die angegebene Definition auch eine vollständige Überlagerung des mittleren Zeiger-Paares er-
laubt. Unter Umständen könnte es sinnvoll sein, als Einschränkung nur x12 , x22 ∈ V + zuzulassen.
K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION 34

4.2.2 Obere Schranken

Zunächst können sowohl für dlad∗ als auch dlad∗2 die Lemmata 1 und 2 ohne Einschränkung übernom-
men werden.
Für Theorem 1 sind im Falle von dlad∗ jedoch minimale Änderungen notwendig, die ihrer Trivialität
wegen allerdings nur angedeutet sein sollen:

• Die Wörter β und γ müßten ggf. „überschneidend“ kopiert werden. Das bedeutet, daß der An-
fang von γ u. U. auch innerhalb des Wortes β liegen könnte und das Ende von β entsprechend
innerhalb von γ.

• Es könnte somit der Fall eintreten, daß das zu β gehörende Token §P sich mitunter rechtsseitig
des zu γ gehörenden $P befindet, was im Schritt (2) des Algorithmus entsprechend Beachtung
finden müßte.

• Da in Schritt (6) ohnehin βx2 γ bereits am Stück kopiert wird, muß an diesem Teil des Algorith-
mus zum Kopieren von βx12 = π = x22 γ nichts verändert werden.

• Auch die Abschätzung der im Beweis zu Theorem 1 angegebenen linearen Beschränkung kann
unverändert übernommen werden.

Für den Fall dlad∗2 muß zusätzlich die Anpassung getroffen werden, daß die Teilwörter γ, δ in Schritt (2)
des Beweises rückwärts auf den zuvor allokierten Speicherbereich geschrieben werden. Auch für diesen
Fall ist die Abschätzung der linearen Beschränkung in der im Beweis zu Theorem 1 gegebenen Form
weiterhin gültig.
Theorem 2 sowie die aus beiden Theoremen gewonnenen Schlußfolgerungen 1& 2 können somit nun
wieder sowohl für dlad∗ als auch dlad∗2 ohne Einschränkung übernommen werden. Selbiges gilt auch
für Theorem 3.

Der Beweis für Theorem 4 müßte für dlad∗ minimal erweitert werden, um zusätzlich den Fall sich
überschneidender Zeiger abzudecken. Hierzu wird ein neues Symbol rd 4/6 als weiteres Element der
Menge R eingeführt. Die Wahl des Bezeichners rd 4/6 soll den Umstand widerspiegeln, daß dieser
Fall einen alternativen Ablauf darstellt, der sich über die Schritte 4 bis 6 des ursprünglichen Beweises
erstreckt. Die zusätzlichen Transitions-Regeln zur Behandlung sich überschneidender Zeiger sehen wie
folgt aus:
Für alle z, z2 , z3 , ż, z̈ ∈ Z, 1 ≤ i, k ≤ n, 2 ≤ l ≤ rk − 1 :

δ 0 ((rd 4 , z, ż, z2 , z̈, z3 ,fs i,ri ,fs k,l−1 ), ak,l ) 3 (rd 4/6 , z, ż, z2 , z̈, δ(z3 , ak,l ),fs i,1 ,fs k,l ),
falls ak,l = ai,1
0
δ ((rd 4/6 , z, ż, z2 , z̈, z3 ,fs i,j−1 ,fs k,l−1 ), ak,l ) 3 (rd 4/6 , z, ż, z2 , z̈, δ(z3 , ak,l ),fs i,j ,fs k,l ),
falls ak,l = ai,j
δ 0 ((rd 4/6 , z, ż, z2 , z̈, z3 ,fs i,j−1 ,fs k,rk −1 ), ak,rk ) 3 (rd 6 , z, ż, z2 , z̈, δ(z3 , ak,rk ),fs i,j ,fs k,rk ),
falls ak,rk = ai,j
K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION 35

Sowie für den laut Definition erlaubten Fall der vollständigen Überlagerung beider Zeiger:
Für alle z, z2 , z3 , ż, z̈ ∈ Z, 1 ≤ i, k ≤ n :

δ 0 ((rd 3 , z, ż, z2 , z̈, z3 ,fs i,ri , o), ak,1 ) 3 (rd 4/6 , z, ż, z2 , z̈, δ(z3 , ak,1 ),fs i,1 ,fs k,1 ),
falls ak,1 = ai,1 :
0
δ ((rd 4/6 , z, ż, z2 , z̈, z3 ,fs i,j−1 ,fs k,rk −1 ), ak,rk ) 3 (rd 7 , z, ż, z2 , z̈, δ(z3 , ak,rk ),fs i,ri ,fs k,rk ),
falls ak,rk = ai,ri

Für dlad∗2 müßte entsprechend Theorem 10 erweitert werden um die folgenden Regeln:
Für alle z, z2 , z3 , ż, z̈ ∈ Z, 1 ≤ i, k ≤ n, 2 ≤ l, l0 ≤ rk − 1 :
k −1
δ 0 ((rd 4 , z, ż, z2 , z̈, z3 ,fs i,ri ,fs k,l−1 ), ak,l ) 3 (rd 4/6 , z, ż, z2 , z̈, δ(z3 , ak,l ),fs i,ri ,fs k,r
k,l ),
falls ak,l = ak,rk
k,l0 0−1
δ 0 ((rd 4/6 , z, ż, z2 , z̈, z3 ,fs i,ri ,fs k,l−1 ), ak,l ) 3 (rd 4/6 , z, ż, z2 , z̈, δ(z3 , ak,l ),fs i,j ,fs k,l
k,l ),
falls ak,l = ak,l0
k,l0
δ 0 ((rd 4/6 , z, ż, z2 , z̈, z3 ,fs i,ri ,fs k,rk −1 ), ak,rk ) 3 (rd 6 , z, ż, z2 , z̈, δ(z3 , ak,rk ),fs i,j ,fs k,l0 −1 ),
falls ak,rk = ak,l0

Sowie für den laut Definition erlaubten Fall der vollständigen Überlagerung beider Zeiger:
Für alle z, z2 , z3 , ż, z̈ ∈ Z, 1 ≤ i, k ≤ n :
k −1
δ 0 ((rd 3 , z, ż, z2 , z̈, z3 ,fs i,ri , o), ak,1 ) 3 (rd 4/6 , z, ż, z2 , z̈, δ(z3 , ak,1 ),fs i,1 ,fs k,r
k,1 ),
falls ak,1 = ak,rk
δ 0 ((rd 4/6 , z, ż, z2 , z̈, z3 ,fs i,j−1 ,fs k,1
k,rk −1 ), ak,rk ) 3 (rd 7 , z, ż, z2 , z̈, δ(z3 , ak,rk ),fs i,ri ,fs k,rk ),
falls ak,rk = ak,1

Abschließend seien noch die notwendigen Anpassungen für den Beweis zu Theorem 11 angegeben.
Hier genügt es voll und ganz, dem Punkt (4) den folgenden Fall zur Behandlung sich überschneidender
Zeiger hinzuzufügen:

4’ K verarbeitet den Bereich, an dem sich β und β̄ ggf. überlagern. Ein solcher Bereich, so existent,
müßte dann eine Art Palindrom5 darstellen. Bis zur Mitte dieses „Palindroms“ legt K für jeden
gelesenen Buchstaben x den Buchstaben x auf den Stack. Ab der Mitte6 nimmt er in jedem Schritt
wieder einen Buchstaben vom Stack herunter und vergleicht ihn mit dem gelesenen7 . Während
der ganzen Zeit wird in der zweiten Komponente die Arbeit von AP simuliert, um zu prüfen, ob
β ∈ P gilt. Parallel dazu wird in der vierten Komponente weiterhin die Arbeit von AL simuliert:
5
Es handelt sich hierbei nicht um ein Palindrom im herkömmlichen Sinne von w = wR (bzw. für |w| = n: wi =
wn−i , 0 ≤ i ≤ n). Vielmehr muß gelten: w = w, d.h. für |w| = n: wi = wn−i , 0 ≤ i ≤ n.
6
An dieser Stelle müssen zwei Fälle unterschieden werden – nämlich für eine gerade Länge des Bereiches einerseits und
eine ungerade andererseits.
7
Dies validiert, daß der Bereich tatsächlich ein Palindrom ist.
K APITEL 4. E RWEITERUNGEN DER dlad-O PERATION 36

Für alle x, a ∈ X, zLα , żLu , z˙L ∈ ZL , zP ∈ ZP :

δK ((zLα , zP , żLu , z˙L ,rd β ), x, a) 3 ((zLα , δP (zP , x), żLu , δL (z˙L , x),rd 1β/β̄ ), R, xa)
δK ((zLα , zP , żLu , z˙L ,rd 1β/β̄ ), x, a) 3 ((zLα , δP (zP , x), żLu , δL (z˙L , x),rd 1β/β̄ ), R, xa)

δK ((zLα , zP , żLu , z˙L ,rd 1β/β̄ ), x, a) 3 ((zLα , δP (zP , x), żLu , δL (z˙L , x),rd 2β/β̄ ), R, xa)
δK ((zLα , zP , żLu , z˙L ,rd 1β/β̄ ), x, a) 3 ((zLα , δP (zP , x), żLu , δL (z˙L , x),rd 2β/β̄ ), N, xa)

δK ((zLα , zP , żLu , z˙L ,rd 2β/β̄ ), x, x) 3 ((zLα , δP (zP , x), żLu , δL (z˙L , x),rd 2β/β̄ ), R, λ)

Wird in der zweiten Komponente ein Finalzustand fP von AP erreicht, so bedeutet dies, daß
das bisher gelesene β als zu P zugehörig erkannt wurde, dieses β vollständig gelesen wurde
und somit der überlappende Bereich von β und β̄ beendet ist. Für diesen Fall geht K in der
fünften Komponente (nichtdeterministisch) in den zum Lesen von β̄ vorgesehenen Zustand rd β̄
über:Für alle x ∈ X zLα , żLu , z˙L ∈ ZL , fP ∈ FP :

δK ((zLα , fP , żLu , z˙L ,rd 2β/β̄ ), x, x) 3 ((zLα , fP , żLu , δL (z˙L , x),rd β̄ ), R, λ)

Für den laut Definition von dlad∗2 möglichen Fall, daß β und β̄ an gleicher Stelle anfangen (und
aufhören), seien noch die folgenden Regeln angeführt:
Für alle x, a ∈ X zLα , żLu , z˙L ∈ ZL , fP ∈ FP :

δK ((zLα , zP,0 , żLu , żLu ,rd v ), x, a) 3 ((zLα , δP (zP,0 , x), żLu , δL (żLu , x),rd 1β/β̄ ), R, xa)
δK ((zLα , fP , żLu , z˙L ,rd 2β/β̄ ), x, a) 3 ((zLα , fP , żLu , δL (z˙L , x),rd ū ), R, xa)

4.2.3 Zur Optimalität der oberen Schranken

Offensichtlich stellen die Definitionen von dlad∗ und dlad∗2 genaugenommen lediglich Verallgemeine-
rungen von dlad und dlad2 dar. Mit anderen Worten: Durch dlad∗ und dlad∗2 werden alle Fälle von dlad
und dlad2 vollständig erfasst.
Führt man sich die in den Abschnitten 3.3 und 4.1.3 geführten Beweise vor Augen, so basieren die-
se auf Sprachen L und P , in denen Überschneidungen der involvierten Zeiger allerdings gar nicht
auftreten können. Insofern gilt für diese Fälle stets: dlad∗ (L, P ) = dlad(L, P ) (bzw. entsprechend
dlad∗2 (L, P ) = dlad2 (L, P )). Somit können sämtliche Theoreme, Lemmata und Schlußfolgerungen
zur Optimalität der oberen Schranken für dlad und dlad2 unverändert auf die Fälle dlad∗ und dlad∗2
übernommen werden.
Im Zusammenhang mit der Tatsache, daß die Gültigkeit der in den Abschnitten 3.2 und 4.1.2 bewie-
senen oberen Schranken im Zuge des Abschnittes 4.2.2 unangetastet blieb, bedeutet dies, daß auf das
Zusammentragen von Beweisen zur Optimalität verzichtet werden kann.
K APITEL 5. Z USAMMENFASSUNG 37

Kapitel 5

Zusammenfassung

In diesem Kapitel sollen die Ergebnisse der vorliegenden Diplomarbeit nochmals in kompakter Form
zusammengefaßt werden und ein Ausblick auf mögliche Ansatzpunkte für weiterführende Untersu-
chungen vorgeschlagen werden.
Kapitel 3 beschäftigte sich mit den Inklusionsbeziehungen, die bei Anwendung der dlad-Operation
auf Sprachfamilien der Chomsky-Hierarchie entstehen. Eine Zusammenfassung der gewonnenen Er-
gebnisse kann Tabelle 5.1 entnommen werden. Jede Zeile und jede Spalte ist mit einer Sprachfamilie
L ∈ {FIN, REG, CF, CS, RE} gekennzeichnet. Für jede Kombination aus (Zeile X, Spalte Y) finden
sich in der entsprechenden Zelle zwei Einträge, die sich auf das Ergebnis Z = dlad(X, Y ) bezie-
hen: Der erste Eintrag gibt die gefundene obere Schranke an, in der Form: ⊂ L für das entsprechende
L ∈ {FIN, REG, CF, CS, RE}. Der zweite Eintrag gibt eine untere Schranke an, die nachweislich nicht
angenommen wird, in der Form: * L für das entsprechende L ∈ {FIN, REG, CF, CS, RE} – wodurch
die Optimalität der oberen Schranke belegt wird.1

(dlad) FIN REG CF CS RE


FIN ⊂ FIN (T3) * ⊂ FIN (T3) * ⊂ FIN (T3) * ⊂ FIN (T3) * ⊂ FIN (T3) *
⊂ REG (T4) ⊂ CS (F1) ⊂ CS (F1) ⊂ CS (F1) ⊂ RE (F2)
REG *
* FIN (T6) * CF (T7) * CF (F5) * CF (F5) * CS (T8)
⊂ CS (F1) ⊂ CS (F1) ⊂ CS (F1) ⊂ CS (F1) ⊂ RE (F2)
CF
* CF (T9) * CF (F5) * CF (F5) * CF (T7) * CS (F6)
⊂ CS (F1) ⊂ CS (F1) ⊂ CS (F1) ⊂ CS (T1) ⊂ RE (F2)
CS * * * *
* CF (T6) * CF (F5) * CF (F5) * CF (F5) * CS (F6)
⊂ RE (F2) ⊂ RE (F2) ⊂ RE (F2) ⊂ RE (F2) ⊂ RE (T2)
RE * * * * *
* CS (T6) * CS (T6) * CS (T6) * CS (T6) * CS (T6)

Tabelle 5.1: Inklusionsbeziehungen bei Anwendung der dlad-Operation

Hinter jedem Eintrag befindet sich in Klammern ein Vermerk, der Aufschluß darüber gibt, welchem
Satz die angeführte Aussage entnommen werden kann. Ein T steht hierbei abkürzend für „Theorem“,
ein F für „Folgerung“ und ein L für „Lemma“.
1
Einzige Ausnahme stellt hierbei die Zeile für X = FIN dar – dort wurde verständlicherweise auf den Hinweis der
Optimalität von dlad(X, Y ) ⊂ FIN verzichtet.
K APITEL 5. Z USAMMENFASSUNG 38

Mitunter wurden im Rahmen der Diplomarbeit aber auch Beweise zu Aussagen gegeben, die über die
Anwendung der Operation auf Familien der Chomsky-Hierarchie hinausgehen.
So bedeutet z.B. die Markierung einiger Felder mit „*“, daß die darin enthaltene Schranke weiterhin
optimal bleibt, selbst wenn die Hierarchie um weitere Sprachklassen erweitert würde, die zumindest
abgeschlossen sind unter (beidseitiger) Konkatenation mit Buchstaben sowie unter (beidseitiger) Quo-
tientenbildung mit Buchstaben (siehe Theorem 5 und Schlußfolgerung 3). Im Klartext bedeutet dies
unter anderem, daß die obere Schranke dlad(CS, X) ⊂ CS für X ∈ {FIN, REG, CF, CS, RE} selbst
unter Hinzunahme von Sprachklassen wie RC oder MAT – welche beide bekanntermaßen echte Ober-
mengen von CF und zugleich echte Untermengen von CS sind (siehe hierzu [Dassow und Pǎun ]) –
weiterhin optimal bleibt.

(dlad2 ) FIN REG CF CS RE


FIN ⊂ FIN (T3) * ⊂ FIN (T3) * ⊂ FIN (T3) * ⊂ FIN (T3) * ⊂ FIN (T3) *
⊂ REG (T10) ⊂ CF (T11) ⊂ CS (F1) ⊂ CS (F1) ⊂ RE (F2)
REG *
* FIN (T6) * REG (T12) * CF (T14) * CF (F9) * CS (T13)
⊂ CS (F1) ⊂ CS (F1) ⊂ CS (F1) ⊂ CS (F1) ⊂ RE (F2)
CF
* CF (T9) * CF (F8) * CF (F8) * CF (F8) * CS (F7)
⊂ CS (F1) ⊂ CS (F1) ⊂ CS (F1) ⊂ CS (T1) ⊂ RE (F2)
CS * * * *
* CF (T6) * CF (T6) * CF (T6) * CF (T6) * CS (F7)
⊂ RE (F2) ⊂ RE (F2) ⊂ RE (F2) ⊂ RE (F2) ⊂ RE (T2)
RE * * * * *
* CS (T6) * CS (T6) * CS (T6) * CS (T6) * CS (T6)

Tabelle 5.2: Inklusionsbeziehungen bei Anwendung der dlad2 -Operation

Tabelle 5.2 enthält eine entsprechende Zusammenfassung der Ergebnisse, die sich im Rahmen von Ab-
schnitt 4.1 basierend auf der Definition von dlad2 , der ersten Erweiterung von dlad, finden ließen. Wie
gehabt kann im Kreuzpunkt (Zeile X, Spalte Y) die kleinste obere Schranke für dlad2 (X, Y ) entnommen
werden, sowie die größte untere Schranke, welche jedoch nachweislich nicht angenommen wird. Ana-
log zu Tabelle 5.1 wurden hier durch „*“ Schranken gekennzeichnet, die auch in einer um zusätzliche
Sprachfamilien2 erweiterten Hierarchie optimal sind.

Abschnitt 4.2 enthielt Untersuchungen zu einer zweiten Erweiterung der dlad-Operation, die im we-
sentlichen die Möglichkeit sich überschneidender Zeiger modelliert. Dort wurde festgestellt, daß für
die definierten Operationen dlad∗ und dlad∗2 die zuvor für dlad, respektive dlad2 , gefundenen oberen
Schranken übernommen werden können und zudem optimal sind. Für dlad∗ ergibt sich somit dieselbe
Übersicht wie in Tabelle 5.1 bereits gegeben – für dlad∗2 dieselbe wie in Tabelle 5.2.

Offen bleibt an dieser Stelle, inwiefern die beiden eingeführten Erweiterungen aus biologischer Sicht
letztlich sinnvoll sind. Dies zu erörtern könnte Thema weitergehender Untersuchungen sein. Einen wei-
teren Ansatzpunkt für sich anschließende Arbeiten dürfte die Fragestellung bieten, wie sich die entspre-
chenden Inklusionsbeziehungen bei Anwendung der hi- bzw. der ld-Operation darstellen. Zumindest zu
ersterer dürften mit den in [Dassow 2003a] getätigten Untersuchungen in Bälde entsprechende Ergeb-
nisse zu erwarten sein.
2
Hierfür muß sich die entsprechende Sprachfamilie X allerdings orthogonal in die Hierarchie eingliedern lassen – d.h. die
Hierarchie M = {L1 , . . . , Ln } erfüllt nach Aufnahme von X die Eigenschaft: Li ⊂ Li+1 für 1 ≤ i ≤ n − 1 und entweder
Lj ⊂ X ⊂ Lj+1 für ein geeignetes 1 ≤ j ≤ n − 1 oder X ⊂ L1 oder Ln ⊂ X.
K APITEL 5. Z USAMMENFASSUNG 39

Diskussionsbedarf besteht allerdings weiterhin im Hinblick auf gewisse Randbedingungen, die sich für
die biologischen „Originale“ der modellierten Operationen ergeben. Als Beispiel sei hierzu unter an-
derem auf die Fragestellung verwiesen, ob im Rahmen eines solchen Transformationsvorganges der
micronuclearen Ciliaten-DNA die involvierten Zeiger-Paare vollständig (vgl. u.a. [Harju u. a. 2004])
oder teilweise (vgl. u.a. [Freund u. a. 2002]) aus der bearbeiteten Sequenz entfernt werden oder (zu-
nächst3 ) erhalten bleiben (vgl. [Dassow 2003a], [Dassow und Vaszil 2003] sowie [Daley u. a. 2003]).
Es bleibt zu hoffen, daß sich zumindest im Rahmen jedes der beiden Modelle Kari/Landweber und
Prescott/Ehrenfeucht/Rozenberg beizeiten eine einheitliche Sichtweise ergeben wird – oder es sogar
gelingt, beide Konzepte zu einem gemeinsamen umfassenden Modell zu migrieren.

3
Denkbar wäre z.B. auch, daß die Zeiger-Paare in der Tat entfernt werden – jedoch erst im Zuge eines der eigentlichen
Operation nachgeschalteten Schrittes.
LITERATURVERZEICHNIS 40

Literaturverzeichnis

[Adleman 1994] A DLEMAN, L. M.: Molecular Computation of Solutions to Combinatorial Problems.


In: Science 266 (1994), S. 1021–1024

[Daley u. a. 2003] DALEY, Mark ; I BARRA, Oscar H. ; K ARI, Lila ; M C Q UILLAN, Ian ; NAKANO,
Koji: The LD and DLAD Bio-Operations on Formal Languages. In: Journal of Automata, Lan-
guages and Combinatorics 8 (2003), Nr. 3, S. 477–498

[Daley u. a. 2004] DALEY, Mark ; K ARI, Lila ; M C Q UILLAN, Ian: Ciliate Operations on Multisets /
University of Saskatchewan, Dept. of Computer Science Theory & Formal Bioinformatics Group.
2004 ( TR–2004-a). – Report

[Dassow und Pǎun ] DASSOW, Jürgen ; P ǍUN, G. (EATCS Monographs on Theoretical Computer
Science)

[Dassow 2003a] DASSOW, Jürgen: A Ciliate Bio-Operation and Language Families. 2003a. – Manu-
skript

[Dassow 2003b] DASSOW, Jürgen. Theoretische Informatik. November 2003b

[Dassow und Vaszil 2003] DASSOW, Jürgen ; VASZIL, György: Ciliate Operations on Multisets. 2003.
– Manuskript

[Freund u. a. 2002] F REUND, R. ; M ARTIN -V IDE, C. ; M ITRANA, V.: On some operations suggested
by gene assembly in ciliates. 2002. – New Generation Computing

[Harju u. a. 2003] H ARJU, Tero ; P ETRE, Ion ; ROZENBERG, Grzegorz: Gene Assembly in Ciliates:
Molecular Operations. In: Bulletin of the EATCS 81 (2003), Oktober, S. 236–249

[Harju u. a. 2004] H ARJU, Tero ; P ETRE, Ion ; ROZENBERG, Grzegorz: Gene Assembly in Ciliates:
Formal Frameworks. In: Bulletin of the EATCS 82 (2004), Februar

[Hopcroft und Ullmann 1994] H OPCROFT, John E. ; U LLMANN, Jeffrey D.: Einführung in die Auto-
matentheorie, Formale Sprachen und Komplexitätstheorie. 3rd. Addison Wesley, 1994

[Kari u. a. 1999] Kap. Reversible molecular computation in ciliates In: K ARI, L. ; K ARI, J. ; L AND -
WEBER , L.: Jewels are forever. Springer Verlag, Berlin, Heidelberg, New York, 1999, S. 353–363.
– J. Karhumaki and H. Maurer and G. Păun and G. Rozenberg (eds)
LITERATURVERZEICHNIS 41

[Landweber und Kari 1999a] Kap. Universal molecular computation in ciliates In: L ANDWEBER,
L. F. ; K ARI, L.: Evolution as computation. Springer Verlag, Berlin, Heidelberg, New York,
1999a (Natural computing series), S. 257–274

[Landweber und Kari 1999b] L ANDWEBER, L. F. ; K ARI, L.: The Evolution of Cellular Computing:
Nature’s Solution to a Computational Problem, Elsevier, 1999b, S. 3–13

[Prescott 1994] P RESCOTT, David M.: The DNA of ciliated protozoa. In: Microbiol. Rev. 58 (1994),
Nr. 2, S. 233–267

[Prescott 2001] P RESCOTT, David M.: DNA Manipulations in Ciliates. In: Lecture Notes in Computer
Science 2300 (2001), S. 394–417

[Prescott 2002] P RESCOTT, David M.: DNA Manipulation in Ciliates. In: Formal and Natural Com-
puting (2002), S. 394–417

[Prescott u. a. 2001] P RESCOTT, David M. ; E HRENFEUCHT, A. ; ROZENBERG, Grzegorz: Molecular


operations for DNA processing in hypotrichous ciliates. In: European Journal of Protistology 37
(2001), S. 241–260