Sie sind auf Seite 1von 179

1

Faszinierende Welt der Verschlüsselung –

Prinzipien der Informationsverarbeitung

Ein Streifzug durch Methoden, Erkenntnisse und Anwendungen aus der


Zahlentheorie, Quantenphysik, Genetik und Gehirnforschung

Vorwort

Wie können aus der Vielzahl von Wissensthemen, die heutzutage in den umfangreichen
naturwissenschaftlichen Forschungsgebieten vorliegen, Parallelen und Schnittpunkte
gefunden werden, die sich in zwei Kernthemen zusammenfassen lassen? Dieser
Grundgedanke hat mich dazu bewogen, dieses Buch zu schreiben, indem ich Ihnen
grundlegende Informationskonzepte aus den Bereichen Mathematik, Physik und Biologie
näher bringen möchte. Obwohl ich mir schon lange vorgenommen hatte, ein Buch aus diesem
Themenbereich zu schreiben, ist mir die Idee einer interdisziplinären Darstellung von
Informationsverarbeitung und Verschlüsselungsprinzipien erst vor Kurzem beim
Selbststudium der Zahlentheorie, einem Teilgebiet der Mathematik, gekommen. Mein Fokus
beim Studium der Zahlentheorie lag dabei auf dem Gebiet der Faktorisierungsverfahren, die
ich Ihnen später noch näher erläutern werde. Bei meinen weiteren Recherchen stieß ich auf
das weitläufige Feld der Verschlüsselungskunst, die mich auf den Gedanken brachte, ein
Buch über die ineinander greifenden Themen der Zahlentheorie und
Verschlüsselungsverfahren zu verfassen.

2
Damit gab ich mich aber nicht zufrieden. Auf Grund meiner theoretischen Erfahrung in der
Physik – ich absolvierte im Jahr 1997 das Studium der technischen Physik in Wien – und
meinen starken naturwissenschaftlichen Ambitionen war es mir ein Anliegen, noch weitere
Themen aus den Gebieten Physik und Biologie in diesem Buch aufzunehmen, die sich meiner
Meinung nach sehr gut mit allen anderen Bereichen decken. Daher war es nahe liegend, den
Inhalt um die Quantenphysik im Kontext von Verschlüsselungsprinzipien zu ergänzen. Da
auch in diesem Forschungszweig neue Entwicklungen im Gange sind, die auf der Idee eines
perfekten Verschlüsselungssystems beruhen, werde ich auf eine sehr junge Fachrichtung – die
Quantenkryptografie – und ihr Umfeld noch näher eingehen. Neben der Darstellung der
Grundkonzepte in der Quantenmechanik werden Sie mehr über Quantencomputer und
-teleportation sowie einen äußerst schnellen Faktorisierungsalgorithmus, der auf
quantenmechanischen Prinzipien basiert, erfahren.
Nachdem bei den bisher genannten Themen der Grundgedanke in der Verschlüsselung von
Informationen liegt, lässt sich damit im weiteren Sinne auch die Verschlüsselung der
Erbinformation in der menschlichen DNA verbinden, deren Aufbau ebenso auf bestimmten
Verschlüsselungsmechanismen beruht. Aus dieser Überlegung heraus traf ich die
Entscheidung, dem Thema Genetik ein eigenes Kapitel zu widmen, das neben den
Grundlagen auch die Entschlüsselung der menschlichen Erbinformation und die neue
Forschungsrichtung mit dem Namen DNA-Computing enthält. Zu guter Letzt wählte ich das
Thema Gehirnforschung und eine Anwendung davon – die künstliche Intelligenz –, die sich
meiner Meinung nach sehr gut im Kontext der Prinzipien der Informationsverarbeitung in der
Natur eingliedern lassen. Gemeinsam mit der Abhandlung aus den Bereichen Mathematik und
Physik und den beiden Beispielen der Genetik und Gehirnforschung aus der Biologie entstand
der Titel meines Buches, dessen Inhalt auf die zentralen Themen Verschlüsselung und
Prinzipien der Informationsverarbeitung sowie auf ihre Anwendungen abzielt.
Der Inhalt wurde von mir so gestaltet, dass er sich in zwei große Themenschwerpunkte
aufteilt – einerseits werde ich Ihnen die wichtigsten mathematischen und physikalischen
Konzepte, Methoden und Verfahren zur Ver- und Entschlüsselung von Informationen aus den
Bereichen der Zahlentheorie und Quantenphysik erläutern, andererseits grundlegende
Prinzipien der Informationsverarbeitung und deren Anwendungen aus den
Forschungsgebieten der Genetik und Gehirnforschung vorstellen. Jedes Kapitel beinhaltet
neben den Kernthemen einen historischen Überblick über die Entwicklung der einzelnen
Teilgebiete. Dieses Buch richtet sich daher an alle Leser, die sich bereits mit Themen
Zahlentheorie, Quantenphysik, Genetik oder Gehirnforschung beschäftigt haben oder sich

3
damit befassen möchten. Der Inhalt dieses Werkes ist nicht nur für Fachleute ausgelegt,
sondern richtet sich auch an alle Laien, die an dem einen oder anderen Thema Interesse
finden.
Im ersten Kapitel meines Buches möchte ich dem Leser einen Überblick über das weitläufige
Gebiet der Zahlentheorie vermitteln. Aus diesem Grund ist dieses Kapitel der Geschichte der
Zahlentheorie gewidmet, in dem die wichtigsten Vertreter, die entscheidend zur Entdeckung
bedeutender mathematischer Sätze und Konzepte beigetragen haben, vorgestellt werden. Auf
Grund der Vielzahl einflussreicher Persönlichkeiten habe ich mich fast ausschließlich auf jene
beschränkt, die mit ihren mathematischen Erkenntnissen zum Grundverständnis für die
nachfolgenden Kapitel beitragen sollen. Neben dem Streifzug durch die Anfänge der
Mathematik werde ich Ihnen das Leben und Wirken folgender herausragender
Zahlentheoretiker erläutern: aus der Antike: Pythagoras, Euklid und Diophant; aus der
Renaissance und Neuzeit: Pierre de Fermat; aus der Aufklärung: Euler, Gauß und Riemann.
Am Ende meiner Ausführungen werden noch einige zahlentheoretische Fragestellungen im
Zusammenhang mit der Darstellung von Primzahlen diskutiert.
Im zweiten Kapitel werde ich, aufbauend auf der Darstellung der grundlegenden
zahlentheoretischen Fragestellungen aus Kapitel 1, auf einige der bedeutendsten und
wichtigsten Faktorisierungsmethoden von heute und früher eingehen.
Faktorisierungsmethoden dienen, wie Sie sehen werden, der Zerlegung einer natürlichen,
zusammengesetzten Zahl in ihre Primfaktoren und ihr Laufzeitverhalten ist von
entscheidender Bedeutung, wenn es um die Fragestellung der sicheren Verschlüsselung von
Nachrichten geht. Bei dem sehr bekannten und weit verbreitenden RSA-
Verschlüsselungsverfahren ist das schwierig zu lösende Problem der Primfaktorisierung
großer natürlicher Zahlen die Basis, um verschlüsselte Botschaften vor den Attacken eines
unbefugten Angreifers zu schützen. Aus diesem Grund ist es von immenser Wichtigkeit, wie
schnell und effizient Faktorisierungsmethoden dieses Problem lösen können. Neben der
Geschichte der Faktorisierungsverfahren mit den wichtigsten Meilensteinen werde ich Ihnen
folgende Faktorisierungsalgorithmen präsentieren: Probedivision, Faktorisierungsverfahren
nach Fermat, quadratisches Sieb, ein Algorithmus aus eigener Idee, Pollard-p-1-Methode
und Pollard-Rho-Methode. Im Kontext des jeweiligen Algorithmus habe ich Ihnen jedes Mal
ein Rechenbeispiel angeführt, um den mathematischen Sachverhalt besser zu
veranschaulichen. Ebenso wird das Laufzeitverhalten, das als maßgebende Kenngröße für den
Einsatz von bestimmten Kryptosystemen verantwortlich ist, analysiert.

4
Wie bereits erwähnt, bauen moderne Verschlüsselungsverfahren ihre Sicherheit auf schwer zu
lösenden zahlentheoretischen Problemstellungen auf. Aus diesem Grund ist Kapitel 3 der
Geschichte und Kunst der Verschlüsselung gewidmet. Verschlüsselungsverfahren sind
heutzutage ein typisches Anwendungsgebiet der Zahlentheorie geworden. Nachdem die
Zahlentheorie lange Zeit nur als theoretisches Gebäude galt, hielt sie erst in jüngster Zeit
Einzug in die Welt der Verschlüsselungstechniken. Daher möchte ich Ihnen in diesem Kapitel
einerseits den geschichtlichen Hintergrund in der Kunst der Verschlüsselung von der Antike
bis ins Internetzeitalter vorstellen und andererseits einige ältere und neuere
Verschlüsselungsverfahren aus dem Repertoire der symmetrischen, asymmetrischen und
hybriden Verschlüsselungstechniken näher bringen. Unter anderem können Sie sich mit den
alten Verschlüsselungsmethoden, wie z. B. der Caesar-Chiffrierung und den heute gängigen
Public-Key-Verfahren, wie beispielsweise dem RSA-Verfahren, vertraut machen. Da
heutzutage sichere Public-Key-Verfahren häufig auf große Primzahlen zurückgreifen, werde
ich Ihnen im Abschnitt Primzahlen Methoden erläutern, wie man die Primalität einer Zahl
prüfen kann. Auch in diesem Kapitel werde ich die vorgestellten mathematischen Methoden
durch Beispiele unterlegen. Im letzten Abschnitt habe ich einen Ausflug in die Welt der
Biologie gewagt und dem Paarungsverhalten von Zikaden einen eigenen Abschnitt gewidmet,
da die Länge des Zyklus der Vermehrung von Zikaden in der Natur mit ganz bestimmten
Primzahlen verknüpft ist.
Um das kryptografische Gesamtbild mit einem neuen Mosaikstein zu komplettieren, folgt in
Kapitel 4 und 5 eine Einführung in die physikalischen Phänomene der Quantentheorie mit
dem Ziel, die Quanteninformatik und ihre Systeme zu durchleuchten. Neben den
grundlegenden Konzepten werde ich Ihnen die Begriffe Verschränkung und Kohärenz
erklären sowie den jüngsten Erkenntnisstand im Bereich des Quantencomputing, der
Quantenkryptografie und der Quantenteleportation darlegen. Im Abschnitt zum
Faktorisierungsalgorithmus von Peter Shor werden Sie außerdem einen sehr eleganten und
effizienten Faktorisierungsalgorithmus kennen lernen, der sich den Vorteil des
Quantenparallelismus eines quantenmechanischen Vielteilchensystems zu Nutze macht, um
das zahlentheoretische Problem der Primfaktorisierung einer natürlichen Zahl theoretisch zu
lösen. Nach der Behandlung der mathematisch-physikalischen Themenbereiche möchte ich
Sie im zweiten Teil meines Buches in die Welt der Genetik und Gehirnforschung entführen.
Kapitel 6 behandelt das Thema der Genetik und lässt sich grob in folgende zentrale Bereiche
unterteilen: Grundlagen der Genetik, Genexpression, Entschlüsselung des menschlichen
Genoms, Biometrie und DNA-Computer. Mein Ziel wird es hierbei sein, neben einer

5
grundlegenden Darstellung über den Aufbau des menschlichen Genoms und der Freisetzung
der menschlichen Erbinformation im Zellkern bis hin zur Proteinsynthese ein Verfahren zu
erläutern – die so genannte Polymerasekettenreaktion –, das es ermöglicht hat, das
menschliche Genom im Zuge des Human Genom Project zu entschlüsseln. Ein
Anwendungsgebiet der Genetik wird im Rahmen biometrischer Verfahren erläutert – der
genetische Fingerabdruck, der in der Kriminalistik häufig bei der Erstellung eines
Täterprofils zum Einsatz kommt. Abschließend werde ich Ihnen ein zukunftsweisendes
Experiment von Leonard M. Adleman vorstellen, der es auf molekularer Ebene mit Hilfe von
DNA-Molekülen zu Stande gebracht hat, das Handelsreisendenproblem mit einer bestimmten
Ausgangskonfiguration zu lösen. Eine revolutionäre Art der Berechnung, um ein
Optimierungsproblem zu lösen.
In Kapitel 7 folgen ein kurzer Überblick über den Aufbau des Gehirns sowie eine Einführung
in dessen Informationsverarbeitung. Hierbei werden Neuronen, Dendriten, Axone und
Synapsen eine zentrale Rolle in der Informationsstrukturierung, -speicherung und
-übertragung spielen. Der Abschnitt künstliche Intelligenz – ein Anwendungsgebiet in der
Gehirnforschung – steht für eine Reihe von Versuchen des Menschen, die komplexe und
mannigfaltige Strukturierung des Gehirns der Natur zu kopieren und auf künstliche Systeme
zu übertragen. Jedoch scheint mir diese relativ junge Fachrichtung noch weit von dem
Vorhaben der Realisierung eines künstlichen Systems, das vergleichbar mit der
Funktionsweise des Gehirns ist, entfernt zu sein. Im letzten Abschnitt möchte ich einerseits
auf die Sicherheit von Verschlüsselungssystemen und ihre Angriffspunkte eingehen und
Ihnen andererseits eine kurze Zusammenfassung und einen Ausblick über die junge
Forschungsrichtung der Quanteninformatik und DNA-Computing geben sowie die
Unterschiede und Gemeinsamkeiten in der Informationsverarbeitung von Computer und
Gehirn herausarbeiten. Schlussendlich werden wir der Frage nachgehen, ob das Gehirn
genetisch bestimmt ist. Ich hoffe, es ist mir gelungen, Ihnen eine anschauliche Darstellung der
einzelnen Bereiche zu geben.

6
Inhaltsverzeichnis

1. GESCHICHTE DER ZAHLENTHEORIE........................................................................9


1.1 MATHEMATIK DER ANTIKE......................................................................................................................................9
1.2 PYTHAGORAS, EUKLID UND DIOPHANT....................................................................................................................12
1.3 MATHEMATIK DER RENAISSANCE UND NEUZEIT – PIERRE DE FERMAT.........................................................................26
1.4 MATHEMATIK DER AUFKLÄRUNG – EULER, GAUSS UND RIEMANN..............................................................................29
1.5 UND NOCH MEHR INTERESSANTE ZAHLENTHEORETISCHE FRAGESTELLUNGEN...................................................................33
2. FAKTORISIERUNGSMETHODEN – GESCHICHTE UND METHODEN..............38
2.1 GESCHICHTE DER FAKTORISIERUNGSVERFAHREN........................................................................................................38
2.2 SIEB DES ERATOSTHENES UND PROBEDIVISION..........................................................................................................40
2.3 FAKTORISIERUNGSVERFAHREN NACH FERMAT............................................................................................................44
2.4 QUADRATISCHES SIEB ..........................................................................................................................................49
2.5 EIN ALGORITHMUS AUS EIGENER IDEE.....................................................................................................................57
2.6 POLLARD-P-1-METHODE.......................................................................................................................................60
2.7 POLLARD-RHO-METHODE......................................................................................................................................62
3. GESCHICHTE UND KUNST DER VERSCHLÜSSELUNG........................................67
3.1 GESCHICHTE DER VERSCHLÜSSELUNG VON DER ANTIKE BIS INS INTERNETZEITALTER......................................................67
3.2 PRIMZAHLEN........................................................................................................................................................75
3.2.1 ALLGEMEINES ZU PRIMZAHLEN............................................................................................................................76
3.2.2 PROBEDIVISION..................................................................................................................................................77
3.2.3 FERMAT-TEST...................................................................................................................................................79
3.2.4 PRIMZAHLEN EINMAL ANDERS – NATURPHÄNOMEN ZIKADEN...................................................................................82
3.3 VERSCHLÜSSELUNGSVERFAHREN..............................................................................................................................84
3.3.1 KLASSISCHE BEISPIELE SYMMETRISCHER VERSCHLÜSSELUNGSVERFAHREN..................................................................87
3.3.2 CAESAR-CHIFFRIERUNG .....................................................................................................................................87
3.3.3 VIGENÈRE-VERSCHLÜSSELUNG............................................................................................................................88
3.3.4 ONE-TIME-PAD-VERFAHREN..............................................................................................................................90
3.4 DAS RSA-VERFAHREN.........................................................................................................................................90
3.4.1 SCHLÜSSELERZEUGUNG.......................................................................................................................................91
3.4.2 VERSCHLÜSSELUNG – ENTSCHLÜSSELUNG.............................................................................................................93
3.5 PRETTY GOOD PRIVACY – EIN HYBRIDES VERSCHLÜSSELUNGSVERFAHREN....................................................................95
3.6 ..........................................................................................................................................................................96
AUSBLICK IN DIE ZUKUNFT..........................................................................................................................................96
4. GRUNDLEGENDE KONZEPTE DER QUANTENTHEORIE....................................98
4.1 VERSCHRÄNKUNG UND KOHÄRENZ........................................................................................................................103
4.1.1 VERSCHRÄNKUNG............................................................................................................................................103
4.1.2 EINSTEIN-PODOLSKY-ROSEN-PARADOXON..........................................................................................................105
4.1.3 KOHÄRENZ.....................................................................................................................................................107
5. QUANTENINFORMATIK..............................................................................................110
5.1 GRUNDLAGEN DER QUANTENINFORMATION.............................................................................................................111
5.1.1 QUANTENCOMPUTER.........................................................................................................................................111
5.1.2 FAKTORISIERUNGSALGORITHMUS VON PETER SHOR...............................................................................................114
5.2 QUANTENKRYPTOGRAFIE......................................................................................................................................117
5.3 QUANTENTELEPORTATION.....................................................................................................................................120
6. GENETISCHE VERSCHLÜSSELUNG........................................................................123
6.1 GRUNDLAGEN DER GENETIK.................................................................................................................................123
6.1.1 TRANSKRIPTION...............................................................................................................................................127
6.1.2 PROTEINBAUSTEINE AUS DER ERBINFORMATION....................................................................................................130
6.1.3 TRANSLATION.................................................................................................................................................131
6.2 ENTSCHLÜSSELUNGSMETHODIK ZUR ENTSCHLÜSSELUNG DES MENSCHLICHEN GENOMS ..................................................134

7
6.3 BIOMETRIE – NEUE TECHNOLOGIE DER AUTHENTIFIZIERUNG.....................................................................................140
6.3.1 HÄUFIGE BIOMETRISCHE ERKENNUNGSVERFAHREN ...............................................................................................144
6.3.2 GESICHTSERKENNUNG.......................................................................................................................................144
6.3.3 IRIS-SCAN......................................................................................................................................................144
6.3.4 FINGERABDRUCK..............................................................................................................................................145
6.3.5 GENETISCHER FINGERABDRUCK.........................................................................................................................146
6.4 DNA-COMPUTER..............................................................................................................................................147
7. GEHIRN – WUNDERWERK DER NATUR.................................................................152
7.1 AUFBAU DES GEHIRNS........................................................................................................................................153
7.2 INFORMATIONSVERARBEITUNG IM GEHIRN ..............................................................................................................156
7.3 KÜNSTLICHE INTELLIGENZ – KI...........................................................................................................................165
7.4 GRUNDLAGEN UND ANWENDUNG NEURONALER NETZE.............................................................................................166
8. RESÜMEE, DISKUSSION UND AUSSICHT...............................................................170

8
1. Geschichte der Zahlentheorie

Um auf die Frage, wo und wann die Geschichte der Mathematik begann, eine Antwort zu
finden, müssen wir 5000 Jahre in der Geschichte der Menschheit zurückgehen. Es war ein
langer und schöpferischer Akt von der antiken bis zur heutigen modernen Mathematik.
Ursprünglich aus einer eher praktischen Notwendigkeit entstanden und später zu jenem
theoretischen Forschungsgebiet avanciert, wie wir die Mathematik heute in ihrer extremen
Vielfalt vorfinden. Die Wissenschaft der Mathematik zerfällt heute in viele unterschiedliche
Teilgebiete, wie z. B. in das der Analysis, Geometrie, Wahrscheinlichkeitsrechnung und der
Zahlentheorie. Es ist keinem noch so begnadeten Wissenschaftler heute mehr möglich, den
gesamten mathematischen Forschungsstand zu überblicken, jedoch fand so mancher Zeitgeist
seine Berufung in der Zahlentheorie, die Carl Friedrich Gauß als „Königin der Mathematik“
bezeichnete. Sie hat – wie alle mathematischen Teildisziplinen – ihren Ursprung in der
antiken Welt und erfreut sich heutzutage einer ungebrochenen Beliebtheit. Um auf den Pfaden
jener Menschen durch alle Epochen von der Antike bis heute zu wandeln, werde ich
versuchen, Ihnen das Leben und mathematische Wirken der kreativsten Köpfe, die
entscheidenden Einfluss auf das zahlentheoretische Gebäude nahmen, näher zu bringen.
Um eine bessere Vorstellung von den zahlentheoretischen Erkenntnissen der einzelnen
Epochen zu bekommen, werde ich für den mathematisch interessierten Leser die wichtigsten
Sätze und Herleitungen anführen, möchte aber darauf aufmerksam machen, dass dieses
Kapitel eher als Übersicht über die geschichtlichen Hintergründe gedacht ist und keineswegs
eine mathematische Einführung in die Zahlentheorie darstellen soll. Jedoch werden wir
bestimmte Sätze und Beweise, die hier vorgestellt werden, für spätere Diskussionen noch
einmal brauchen.
Ich möchte nun mit Ihnen gemeinsam einen Streifzug durch die verschiedenen Epochen der
Geschichte der Zahlentheorie machen. Wir werden hierfür die wichtigsten Daten und
Meilensteine von der Antike bis zur Zeit der Aufklärung kennen lernen.

1.1 Mathematik der Antike

9
Die Anfänge mathematischen Denkens beginnen in Babylon um etwa 3000 vor Christus. Mit
der Entwicklung komplexerer Gesellschaftsformen entstand auch das Bedürfnis einer
Systematisierung der Abläufe in sozialer und wirtschaftlicher Hinsicht. Archäologische Funde
aus dieser Zeit zeugen bereits von der Fähigkeit der Menschen, zu zählen und zu messen. Die
wichtigsten und reichhaltigsten Quellen sind uns in Form von Tontafeln erhalten, die zum
Zählen des Viehbestandes und des Lohnes dienten. Die Bestandsaufnahme erfolgte mit Hilfe
kleiner Hölzer, die vorne abgespitzt waren und auf den Tontafeln festgehalten wurden. Wie in
allen Stromkulturlandschaften beschäftigten sich die Babylonier überwiegend mit der
Geometrie – die daraus entstandenen geometrischen Formeln wurden beim Entwurf ihrer
Baupläne für Häuser und Bauwerke berücksichtigt. Aus den Bedürfnissen der Feldvermesser
und Kaufleute entwickelten sich Formeln für die Berechnung von Flächeninhalten und der
Zinsesrechnung, der ersten finanzmathematischen Anwendung. Die Babylonier waren die
Ersten, die ein vollständiges Zahlensystem verwendeten. Sie rechneten im Sexagesialsystem,
einem Zahlensystem zur Basis 60 – auf dieses geht die Einteilung der Stunde in 60 Minuten
und der Minute in 60 Sekunden zurück. Neben der Erfindung eines Algorithmus für die
Berechnung der Quadratwurzel konnten sie bereits einfache Gleichungssysteme lösen. Die
Mathematik entstand in dieser Zeit aus eher praktischem Nutzen und entwickelte sich erst
später zu einer eigenen Wissenschaft; das Fundament dafür wurde aber schon in dieser Zeit
gelegt.
Nicht so viele und reichhaltige Quellen sind aus der Zeit der Ägypter um etwa 2900 vor
Christus erhalten. Aber wie bei den Babyloniern kamen die meisten Formeln beim Planen
ihrer Bauwerke zu Stande. Ihre epochalen Bauwerke, die Pyramiden, sind uns bis heute noch
erhalten und zeugen von ihrer meisterhaften Baukunst. Die wichtigsten Überlieferungen über
die mathematischen Fähigkeiten der Ägypter sind aus den Papyrusrollen „Rhind“ und
„Moskau“ sowie aus der so genannten „Mathematischen Lederrolle“ erhalten. Trotz des
geringen Materials konnten die Fachwissenschaftler einiges über das damalige Wissen der
Ägypter herausfinden. In einer Aufgabe des mathematischen Papyrus „Rhind“ wird eine
Methode zur Kreisberechnung beschrieben. Daraus geht hervor, dass die Ägypter den
Flächeninhalt eines Kreises mit einem Wert von 3,1605 für die Zahl Pi bestimmten – einer
marginalen Abweichung von 0,6 % des heute bekannten Wertes. Erstaunlicherweise kannten
die Ägypter bereits einen Lösungsweg für die Berechnung der Fläche einer Halbkugel; die
Berechnungsmethode zu dieser Aufgabe wurde in der Papyrusrolle „Moskau“ entdeckt. In der

10
Geometrie war ihnen bereits die Berechnung für die Flächen von Dreieck, Rechteck und
Trapez, und in der Algebra das Lösen von Gleichungen mit einer Variablen bekannt.
Der Ursprung der Mathematik als Wissenschaft beginnt in der klassischen Antike etwa 600
vor Christus mit Pythagoras von Samos. Mit dem Beginn der griechischen Philosophie
entsteht die eigentliche Mathematik, wie wir sie heute kennen, in der allgemein gültige
mathematische Sätze ausgesprochen und bewiesen werden. Überlieferungen zufolge stammt
der Ausspruch „Alles ist Zahl“ von Pythagoras, in dem die Vorstellung zum Ausdruck kam,
die ganze Wirklichkeit durch mathematische Formeln beschreiben zu können. Mit Pythagoras
entstand die Methodik der Beweistechnik, mit der er den Nachweis der Irrationalität der
Wurzel aus der Zahl 2 führte. Es handelte sich hierbei um einen sehr brisanten Beweis, der
einer strengen Geheimhaltung unterzogen wurde, da er der pythagoräischen Grundannahme
„Alles ist Zahl“ aus damaliger Sicht widersprach.
Platons Ideenlehre, die sich in seinem berühmten Höhlengleichnis widerspiegelt, hatte damals
einen prägenden Einfluss auf die Philosophie der Mathematik und deckte sich sehr gut mit
den abstrakten Objekten dieser. Mit seinem Höhlengleichnis wollte Platon seine objektiv-
idealistischen Grundgedanken verdeutlichen, in denen die Welt, in der die Menschen leben,
nur ein unvollkommenes Abbild, ein Schatten der wahren Welt der Ideen ist. Wichtige
zeitgenössische Vertreter der griechischen Mathematik sind auch Thales von Milet, auf den
der Satz von Thales zurückgeht, und Euklid von Alexandria, der als Erster ein
mathematisches Lehrbuch mit dem Titel „Elemente“ schrieb. Dieses Buch beinhaltet fast das
gesamte mathematische Wissen der damaligen Zeit. Diophant von Alexandria, der sich mit
ganzzahligen Lösungen für algebraische Gleichungen mit mehreren Unbekannten
beschäftigte, lässt sich in die Spätzeit der klassischen Antike, etwa bis 300 n. Chr., einordnen.
Um eine bessere Vorstellung davon zu bekommen, wie der Stand des Wissens der damaligen
Zeit war, möchte ich auf die zeitgenössischen Vertreter Pythagoras, Euklid und Diophant
sowie auf ihre mathematischen Ergüsse etwas näher eingehen. Der Zugang erfolgt nicht nur
aus einem rein geschichtlichen Aspekt, sondern ist auch als Aufbau für die späteren
Betrachtungen im Hinblick auf zahlentheoretische Probleme gedacht. Nach einem Überblick
über die Geschichte der Mathematik respektive der Zahlentheorie werden wir uns eingehender
mit zahlentheoretischen Problemen unserer Zeit beschäftigen. Wir werden dabei auf das
Problem der Primfaktorisierung großer natürlicher Zahlen stoßen und uns hierfür mit den
unterschiedlichsten Lösungstechniken vertraut machen. Dabei werden wir eine Verbindung
zwischen dem rein theoretischen Ansatz und der praktischen Relevanz herstellen.

11
Die Zahlentheorie galt lange Zeit nur als theoretisches Gebäude, ist aber inzwischen ein fixer
Bestandteil der Wirtschaftswelt geworden. Eine weit verbreitete Anwendung liegt in der Welt
der Verschlüsselungsverfahren, in der man sich ein mathematisch schwer zu knackendes
Problem zu Nutze macht, um die Sicherheit unseres weltweit elektronisch vernetzten Globus
zu gewähren. Verschlüsselung ist heutzutage ein Stichwort, das nicht mehr wegzudenken ist –
ob es sich nun um das Versenden von geheim zu haltenden Nachrichten oder um den
bargeldlosen Zahlungsverkehr geht. Umso wichtiger ist es natürlich auch – egal, ob in
privaten oder unternehmerischen Belangen –, jeden Einzelnen vor den Angriffen von
Computerhackern zu schützen. Interessanterweise liefert hier gerade die Zahlentheorie, das
Lieblingskind von Gauß, den entscheidenden Beitrag.
Da Primzahlen in der Mathematik schon immer als geheimnisvolle Objekte galten, werden
wir uns eingehender mit diesen beschäftigen. Ich werde Ihnen dazu einige Techniken für die
Primzahlensuche vorstellen. Primzahlen stehen, wie bereits erwähnt, eng im Zusammenhang
mit der Verschlüsselung von Informationen; um allerdings ein sicheres Verfahren zu finden,
sind Primzahlen mit besonderer Charakteristik notwendig. Mehr werden wir dazu im Kontext
der Primzahlentests erfahren. In bestimmten Abschnitten werde ich meine eigenen
Überlegungen einfließen lassen, so z. B. in Form von selbst codierten C-Programmen.

1.2 Pythagoras, Euklid und Diophant

Von Zahlen ging schon immer eine magische Anziehung aus – sie aber in ihrer Klarheit und
Schönheit zu erfassen, davon konnten nur jene leidenschaftlichen Zahlenkünstler träumen, die
einen Blick in die scheinbar undurchdringlichen Tiefen der Zahlenlogik wagten. Untrennbar
sind damit jene Köpfe bis spät in die Antike verbunden, die ich Ihnen in den nächsten
Abschnitten mit ihrer gesamten mathematischen Tragweite vorstellen werde.
Einer der wichtigsten Vertreter seiner Zeit war der gelehrte griechische Philosoph und
Mathematiker Pythagoras von Samos, der etwa um 570–500 vor Christus lebte und als
Begründer der pythagoräischen Lehre gilt. Im Mittelpunkt seiner Lehre standen kurze
Sprüche, so genannte „Akusmata“, die als rätselhafte oder symbolhafte Antworten auf seine
Zentralfragen „Was ist?“, „Was ist am meisten?“ und „Was soll man tun und lassen?“ galten.

12
Einige seiner Antworten wirken heute auf uns etwas unverständlich und bizarr. Neben seiner
Hauptlehre verband Pythagoras und seine Anhänger der Glaube an eine unsterbliche Seele
und eine damit verbundene Seelenwanderung und Wiedergeburt. Eng im Zusammenhang mit
der religiösen Weltanschauung stand ein gut sittlicher Lebensstil, der sich darin manifestierte,
keine Tiere zu essen oder gar zu töten und den Umgang mit Menschen so zu gestalten, dass
Freunde nicht zu Feinden, aber Feinde zu Freunden wurden.

In seiner religiös behafteten Weltanschauung befasste sich Pythagoras ebenso mit Zahlen und
deren Geheimnissen. Er sah in den Zahlen nicht nur mathematische Größen, sondern auch
Symbole. Ein Akusma spricht für die Kraft und Bedeutung der Grundzahlen von 1 bis 10 in
seiner Zahlenlehre: „Was ist das Weiseste?“ – „Die Zahl.“ Darin drückt sich das Bedürfnis
der pythagoräischen Lehre aus, die Zahl als Baustein und Geheimnis der Welt zu sehen. Dass
Pythagoras nicht nur etwas Geheimnisvolles in Zahlen sah, sondern auch eine rationale Sicht
auf die Welt der Zahlen hatte, lässt sich an einem bedeutenden Lehrsatz der Mathematik
erkennen.
Die Rede ist hier vom Satz des Pythagoras, der theoretische Ausdruck der von babylonischen
und ägyptischen Baumeistern und Priestern entwickelten praktischen Kunst, bei
Abmessungen von Feldern und Bauten mit Hilfe von Seilen präzise rechte Winkel zu
erzeugen. Schon eine kleine Abweichung vom rechten Winkel führte bei den Bauwerken zu
katastrophalen Ergebnissen; insbesondere bei großen Konstruktionen wie den Pyramiden
konnten sich die Ingenieure nicht die geringste Abweichung erlauben. Der Satz des
Pythagoras stellt einen Zusammenhang zwischen den Katheten und der Hypotenuse eines
rechtwinkeligen Dreiecks her und ist so manchen Lesern sicherlich noch aus ihrer Schulzeit
bekannt. Überlieferungen zufolge geht dieser Satz nicht auf Pythagoras selbst zurück, sondern
war den babylonischen und indischen Mathematikern bereits lange davor bekannt. Die
Bezeichnung geht auf Euklid zurück, der in seinem berühmtesten Werk mit dem Titel
Elemente diesen Satz Pythagoras zuschrieb. Pythagoras entdeckte diesen elementaren Satz
wieder und führte ihn in seiner Epoche zu neuem Bekanntheitsgrad. Mathematisch betrachtet
kann der Satz des Pythagoras auf folgende Weise beschrieben werden:

Bezeichnen a und b die Längen der Katheten und c die Länge der Hypotenuse eines
rechtwinkeligen Dreiecks, so gilt:

a² + b² = c² – Satz des Pythagoras

13
In genaueren Worten lässt sich der Satz folgendermaßen formulieren: Im rechtwinkeligen
Dreieck ist das Quadrat über der Hypotenuse gleich der Summe der Quadrate über den beiden
Katheten.

Natürliche Zahlen a, b und c, die diese Gleichung erfüllen, bezeichnet man ebenfalls als
pythagoräische Zahlen oder genauer als pythagoräisches Tripel.
Um ein besseres Verständnis davon zu bekommen, was dieser Satz aussagen möchte, wollen
wir uns ein Beispiel genauer ansehen. Betrachten wir die Zahlen 3, 4 und 5, wobei wir a = 3,
b = 4 und c = 5 setzen. Werden nun die Zahlen a = 3, b = 4 und c = 5 in die obige Gleichung
eingesetzt, so resultiert daraus folgende Darstellung: 3² + 4² = 5² oder 9 + 16 = 25. Damit
haben wir drei natürliche Zahlen (3, 4, 5) gefunden, die den pythagoräischen Lehrsatz
erfüllen. Daher werden solche Zahlen auch pythagoräisches Zahlentripel genannt. Der
interessierte Leser möge sich davon überzeugen, dass folgende Zahlentripel ebenfalls eine
Lösung dieser Gleichung darstellen: (5, 12, 13), (8, 15, 17) und (7, 24, 25).
Es gibt für diesen Satz über 400 existierende verschiedene Beweisführungen. Einen sehr
anschaulichen Beweis möchte ich Ihnen hier kurz demonstrieren. Ein äußeres Quadrat
beinhaltet ein kleineres Quadrat und dieses innere Quadrat berührt mit seinen Eckpunkten die
Linien des äußeren Quadrats. Die Eckpunkte des inneren Quadrats teilen die Seitenlängen des
äußeren Quadrats in zwei Abschnitte a und b.

Abbildung 1

14
Nun gibt es zwei Varianten, die Fläche des äußeren Quadrats zu berechnen:

1) Inhalt der Fläche des äußeren Quadrats: Fläche = (a + b)2


2) Inhalt der Fläche des inneren Quadrats + 4-mal die Fläche der eingeschlossenen Dreiecke:
Fläche = c2 + 4 * ½ ab

Setzen wir die Fläche aus Ansatz 1 gleich der Fläche aus Ansatz 2, so können wir schreiben:

(a + b)2 = c2 + 4 * ½ ab 1.1

Nach dem binomischen Lehrsatz lässt sich der Klammerausdruck in (a + b)2 = a2 + 2 ab + b2


auflösen. Daraus folgt, wenn wir in die Gleichung 1.1 einsetzen:

a2 + 2 ab + b2 = c2 + 2 ab 1.2

Subtrahieren wir in Gleichung 1.2 auf beiden Seiten 2 ab, so erhalten wir als Ergebnis den
Satz von Pythagoras.

a² + b² = c² 1.3

Dies ist doch eine elegante und kurze Beweisführung, finden Sie nicht auch?

Die Keilschrifttafel Plimpton 322, die um 1600 v. Chr. in Babylon entstanden ist, enthält
bereits eine Liste von 15 pythagoräischen Zahlentripeln. Bestimmte pythagoräische
Zahlentripel werden auch babylonische Zahlentripel genannt, da ihr Aufbau in bestimmter
Weise mit dem Zahlensystem der Babylonier verknüpft ist. In Babylon wurde damals die
Basis 60 für mathematische Berechnungen herangezogen.

Brahmagupta, ein indischer Mathematiker und Astronom, beschrieb bereits 628 n. Chr. ein
sehr altes Verfahren zur Generierung von pythagoräischen Zahlentripeln, das auch als
indische Formel bekannt ist. Nebenbei bemerkt können mit diesem Algorithmus unendlich
viele solcher Tripel erzeugt werden. Eine Erklärung des Verfahrens sei hier angeführt.
15
Man erhält die indische Formel aus der altbabylonischen Multiplikationsformel, die schon im
alten Babylon zur Multiplikation zweier Zahlen verwendet wurde.

4 ab = (a + b)2 – (a – b)2 1.4

In Kapitel 2 werden wir auf diese Formeln noch einmal zu sprechen kommen, wenn wir uns
mit der Faktorisierung natürlicher Zahlen beschäftigen. Pierre de Fermat wählte diese
Darstellung als Ansatz für die Zerlegung einer zusammengesetzten Zahl in ihre Primfaktoren.

Wenn nun a = m2 und b = n2 gesetzt wird, folgt aus Gleichung 1.4:

4 m2n2 = (m2 + n2)2 – (m2 – n2)2 1.5

4 m2n2 lässt sich zu (2 mn)2 umformen. Bringt man noch (m2 – n2)2 auf die linke Seite, so
ergibt sich folgende Gleichung:

(2 mn)2 + (m2 – n2)2 = (m2 + n2)2 1.6

Setzen wir a = (m2 – n2), b = (2 mn), c = (m 2 + n2) mit m > n sowie m und n teilerfremd, so
können wir mit entsprechender Wahl von m und n immer ein pythagoräisches Zahlentripel
erzeugen. Knüpfen wir an unser Beispiel von vorher an, lässt sich mit m = 2 und n = 1 das
Zahlentripel (3, 4, 5) bestimmen.

a = (m2 – n2) = (22 – 12) = 3


b = (2 mn) = (2 * 2 * 1) = 4
c = (m2 + n2) = (22 + 12) = 5

Die Darstellung von Brahmagupta hat den großen Vorteil, mit der Variation von m und n auf
sehr einfache Weise ein pythagoräisches Zahlentripel erzeugen zu können. Quadratzahlen
nehmen in der Zahlentheorie eine wichtige Funktion ein – wir werden in den nachfolgenden
Abschnitten noch einmal genauer darauf eingehen.

16
In der pythagoräischen Vorstellung war die Zahl eng mit der Musik verbunden. In ihrer Lehre
vertraten die Anhänger die Meinung, dass nicht nur die Musik, sondern auch alle anderen
Dinge mit der Zahl in Verbindung stehen. Daraus ging die Idee hervor, dass eine umfassende
mathematische Weltordnung existiere, die sich in Pythagoras’ Lehre „Harmonie der Sphären“
äußerte. Nachdem sich Pythagoras intensiv mit der Theorie der Musik beschäftigte, erzeugte
er mit Hilfe einfacher Brüche zu einer bestimmten Saitenlänge eine Tonleiter. Die Hälfte
einer Saitenlänge ergab den Ton C1 (Oktave), ⅔ der Saitenlänge den Ton G1 (Quint), ¾ der
Saitenlänge den Ton F1 (Quart) usw. So ordnete Pythagoras jedem Ton eine bestimmte
mathematische Schwingungsfrequenz zu.

Nachdem der Satz des Pythagoras einen nicht unbedeutenden Einfluss in der Mathematik
ausübte, hat er auch in die Lyrik Eingang gefunden, was im folgenden Sonett, einer speziellen
Gedichtform, zum Tragen kommt:

Die Wahrheit, sie besteht in Ewigkeit,


Wenn erst die blöde Welt ihr Licht erkannt;
Der Lehrsatz nach Pythagoras benannt
Gilt heute, wie er galt zu seiner Zeit.

Ein Opfer hat Pythagoras geweiht


Den Göttern, die den Lichtstrahl ihm gesandt;
Es taten kund, geschlachtet und verbrannt,
Einhundert Ochsen seine Dankbarkeit.

Die Ochsen seit dem Tage, wenn sie wittern,


Dass eine neue Wahrheit sich enthülle,
Erheben ein unmenschliches Gebrülle;

Pythagoras erfüllt sie mit Entsetzen;


Und machtlos sich dem Licht zu widersetzen
Verschließen sie die Augen und erzittern.

17
Euklid von Alexandria lebte etwa um 300 v. Chr. und wurde durch sein Werk mit dem Titel
Elemente bekannt. Seine Leistung bestand darin, dass er das mathematische Wissen seiner
Zeit zusammentrug und in eine einheitliche Form brachte. Sein Werk wurde teilweise bis ins
18. Jahrhundert in Schulen als Unterrichtsbuch verwendet und kann daher als sehr
umfangreiches mathematisches Sammelwerk angesehen werden. Leider ist über Euklids
Leben sehr wenig bekannt und seine Persönlichkeit ist bis heute nicht historisch gesichert.
Neben geometrischen Betrachtungen enthält Euklids Elemente die Anfänge der Zahlentheorie,
indem er die Konzepte der Teilbarkeit und des größten gemeinsamen Teilers einführte und für
dessen Bestimmung er einen nach ihm benannten Algorithmus entwickelte, den euklidischen
Algorithmus. Unter anderem konnte er zeigen, dass es unendlich viele Primzahlen im Bereich
der natürlichen Zahlen gibt und dass die Quadratwurzel von 2 eine irrationale Zahl ist. Wir
benötigen die Grundlagen des größten gemeinsamen Teilers für spätere Betrachtungen in
Kapitel 2, in dem ich Ihnen eine Methode für die Primfaktorzerlegung natürlicher Zahlen mit
Hilfe des Konzeptes des größten gemeinsamen Teilers vorstellen werde. Ebenfalls werden wir
uns kurz mit der Primzahlenverteilung im Bereich der natürlichen Zahlen beschäftigen. Aus
diesem Grund ist es meiner Meinung nach erforderlich, zu zeigen, dass die Anzahl der
Primzahlen aus der Menge der natürlichen Zahlen unendlich ist. Die Primzahlenverteilung
folgt dabei einer bestimmten asymptotischen Gesetzmäßigkeit. Den Beweis der Irrationalität
der Quadratwurzel aus 2 möchte ich Ihnen deswegen nicht vorenthalten, da sich anhand
dieses Beispiels klar erkennen lässt, wie weit damals die Mathematik als wissenschaftlicher
Zweig bereits fortgeschritten war.

Zunächst wollen wir uns aber, bevor wir in die Tiefe der mathematischen Beweisführung
eintauchen, mit den grundsätzlichen Begriffen der natürlichen Zahl und der Primzahl
beschäftigen. Eine wichtige Rolle spielen Primzahlen in der Kryptografie. Moderne
Verschlüsselungsverfahren basieren darauf, dass zwei große Primzahlen zwar schnell
miteinander multipliziert werden können, sich aber die Umkehrung, sprich die Zerlegung in
zwei Primfaktoren, bei hinreichender Größe äußerst schwierig und ineffizient gestaltet. Das
Laufzeitverhalten der unterschiedlichen Faktorisierungsmethoden werden wir noch genauer
analysieren.

Was können wir uns eigentlich unter den Begriffen natürliche Zahl und Primzahl vorstellen?

18
Unter dem Begriff der natürlichen Zahl versteht man eine Zahl, die nur ganzzahlig positive
Werte annehmen kann. Das erste Element ist die Zahl 1, der unmittelbare Nachfolger ist
immer um eins größer und die Zahlenreihe kann bis ins Unendliche fortgesetzt werden. Daher
können die Elemente wie folgt angeschrieben werden: 1, 2, 3, 4 usw.
Unter einer Primzahl versteht man eine natürliche Zahl, die nur durch sich selbst oder durch 1
teilbar ist. Daraus folgt, dass die Anzahl der Teiler stets 2 ist. Jede andere Zahl, die keine
Primzahl ist – in der Mathematik wird auch von einer zusammengesetzten Zahl gesprochen –
lässt sich als Produkt solcher Primzahlen darstellen, daher ist die Anzahl der Teiler immer
größer 2. So besagt der Fundamentalsatz der Arithmetik, dass jede natürliche Zahl größer 1
eine eindeutige Primfaktorzerlegung besitzt und diese bis auf ihre Reihenfolge eindeutig
bestimmt ist. Primzahlen können daher auch als die „kleinsten Bausteine“ im Bereich der
natürlichen Zahlen angesehen werden und sind von fundamentaler Bedeutung.
Folgende natürliche Zahlen im Bereich von 2 bis 50 sind Primzahlen und können nur durch 1
oder durch sich selbst geteilt werden:

2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47

Es lässt sich nun leicht erkennen, dass z. B. 6 keine Primzahl ist. Warum? Da 6 als Produkt
zweier Primzahlen, der 2 und 3, geschrieben werden kann und damit eine zusammengesetzte
Zahl ist.

6=2*3

Obwohl es bis jetzt niemandem gelungen ist, eine mathematische Formel für die Berechnung
von Primzahlen zu entdecken, gibt es bis zu einer gewissen Schranke gesetzmäßige
Zusammenhänge, aus denen sich Primzahlen erzeugen lassen. Euler entdeckte folgenden
Term, der für x = 0, 1, 2, …, 40 stets eine Primzahl ergibt.

x2 – x + 41

Wir wollen diesen Zusammenhang anhand eines Beispiels für x = 3 verdeutlichen:

32 – 3 + 41 = 9 – 3 + 41 = 47 – eine Primzahl

19
Wir werden von dieser Formel noch einmal Gebrauch machen, um anhand bestimmter
Beispiele die zu diskutierenden Faktorisierungsverfahren besser begreifbar zu machen.

Nachdem Euklid stets Wert auf eine strenge Beweisführung legte, möchte ich Ihnen eine
Beweistechnik vorstellen, mit der die Unendlichkeit der Primzahlen nachgewiesen werden
kann. Euklid ging von der Annahme endlich vieler Primzahlen aus und konnte durch einen
sehr eleganten Ansatz zeigen, dass diese Annahme zu einem Widerspruch führt. Diese
Beweistechnik ist in der Mathematik üblich und wird Widerspruchsbeweis genannt.
Angenommen, wir haben endlich viele Primzahlen, p1, p2, ..., pr, gefunden und gehen davon
aus, dass es keine weiteren Primzahlen gibt. Wir konstruieren nun eine neue Zahl, die als
Produkt dieser Primzahlen geschrieben werden kann, und ergänzen dieses Produkt um die
Zahl 1:

n = p1 * p2 * ... * pr + 1

Diese natürliche Zahl n ist nun entweder eine Primzahl oder eine zusammengesetzte Zahl.
Handelt es sich bei n um eine Primzahl, so führt dies sofort zu einem Widerspruch, da wir
davon ausgegangen sind, dass es keine weiteren Primzahlen gibt. Ist die Zahl n keine
Primzahl, muss sie sich aus neuen Primzahlen entgegen der obigen Annahme
zusammensetzen. Und weshalb? Eigentlich ganz klar, da bei der Division der Zahl n durch die
Primzahlen p1, p2, ..., pr immer der Rest 1 übrig bleibt und die Zahl n damit durch p1, p2, ..., pr
nicht teilbar ist. Somit haben wir zwangsweise neue Primzahlen gefunden, die n teilen, und
unsere Annahme führt uns in beiden Fällen zu einem Widerspruch. Damit wäre bewiesen,
dass es unendliche viele Primzahlen gibt.
Ich möchte Ihnen gerne noch eine zweite gängige Beweistechnik in der Mathematik
vorstellen, die man Beweis durch vollständige Induktion oder Schluss von n auf n + 1 nennt.
Mit dieser Technik werden üblicherweise bestimmte Aussagen für alle natürlichen Zahlen
bewiesen.

Wie begründen sich die Motivation und die Idee dieser Technik?

Man stellt eine Vermutung auf, die für alle natürlichen Zahlen gelten soll. Da die Menge der
natürlichen Zahlen unendlich ist, ist es unmöglich, die Richtigkeit für jede Zahl einzeln zu

20
beweisen. Daher verwendet man die Technik der vollständigen Induktion, indem man zeigt,
dass die Aussage für eine Anfangszahl gilt. Wenn aus der Entsprechung der Aussage für eine
natürliche Zahl n eine Entsprechung für die nächste Zahl n + 1 folgt, so gilt die Behauptung
für alle natürliche Zahlen, die auf die Anfangszahl folgen. Wir werden nun zeigen, wie man
die Beweistechnik auf die Summe der ungeraden Zahlen anwenden kann.

Betrachten wir zunächst die ersten Teilsummen der ungeraden Zahlen:

1=1
1+3=4
1+3+5=9
1 + 3 + 5 + 7 = 16
1 + 3 + 5 + 7 + 9 = 25

Die ersten Teilsummen für ungerade Zahlen ergeben die Quadratzahlen 1, 4, 9, 16 und 25.
Daher liegt die Vermutung nahe, dass die Summe der ungeraden Zahlen
eine Quadratzahl ist. Mit der Beweistechnik durch vollständige Induktion wird sich unsere
Vermutung als richtig herausstellen.

In Worten ausgedrückt: Die Summe aller ungeraden Zahlen von i = 1 bis n ergibt immer eine
Quadratzahl. Wie können wir diese Behauptung verifizieren?

Wir müssen zeigen, dass die Aussage für

1) n = 1 (= Anfangszahl) gilt und


2) wenn sie für n, dann auch für n + 1 gilt.
1) Setzen wir n = 1 in die Summenformel ein:

21
Damit ist die Behauptung für n = 1 bewiesen, da die Summe der ersten ungeraden Zahl 1 ist
und 1 eine Quadratzahl darstellt.

2)
Wenn ,

so ist

Beweis:

In Worten formuliert: Die Summe alle ungeraden Zahlen von i = 1 bis n + 1 ist die Summe
alle ungeraden Zahlen von i = 1 bis n + den nächsten ungeraden Nachfolger 2 (n + 1) – 1. Die
Summe der ungeraden Zahlen von i = 1 bis n ergibt laut Annahme die Quadratzahl n2.
Addieren wir die Terme n2 und 2 (n + 1) – 1, erhalten wir mit Hilfe des binomischen
Lehrsatzes das Ergebnis (n + 1)2, was auch zu zeigen war. Somit ist unsere Behauptung
bewiesen.
Wieder konnte ich Ihnen eine sehr schöne Beweistechnik in der Mathematik zeigen. Die
Mathematik ist voll von Beweisen, denn jede Vermutung wird in der Fachwelt erst dann als
richtig anerkannt, wenn sie auch bewiesen werden konnte.

Wir wollen uns nun den ungeklärten Begriffen größter gemeinsamer Teiler und irrationale
Zahl widmen. Von diesen Begriffen werden wir in Kapitel 2 noch einmal Gebrauch machen,
wenn wir uns mit dem Auffinden von Primzahlen für zusammengesetzte Zahlen beschäftigen.
Mit dem größten gemeinsamen Teiler, in abgekürzter Form ggT, zweier Zahlen m und n ist
eine größte natürliche Zahl d gemeint, die sowohl m als auch n ohne Rest teilt. In
mathematischer Weise formuliert:

d = ggT (m, n)

22
Für zwei Primzahlen gilt stets, dass der größte gemeinsame Teiler 1 ist.
Zur Veranschaulichung des euklidischen Algorithmus bestimmen wir den größten
gemeinsamen Teiler ggT zwischen 135 und 25.

135 = 5 * 25 + 10
25 = 5 * 5

Der größte gemeinsame Teiler von 135 und 25 ist 5 oder in formaler Schreibweise:
ggT (135, 25) = 5. Den euklidischen Algorithmus bezeichnet man auch als
Wechselwegnahme, da abwechselnd ein Vielfaches der einen Zahl von der anderen subtrahiert
wird. Die Wechselwegnahme ist dann beendet, wenn der Rest 0 entsteht. In unserem Beispiel
ist das Ende somit schon nach zwei Schritten erreicht. Mit Hilfe der Wechselwegnahme
wurde in der Antike das rationale Verhältnis zwischen zwei Zahlen untersucht.

Eine irrationale Zahl ist eine Zahl, die nicht als Bruch zweier ganzer Zahlen dargestellt
werden kann, also nicht in der Form p/q. Hierbei handelt es sich um Zahlen, deren
Dezimaldarstellung nicht periodisch ist und nicht abbricht. Im Gegensatz dazu können
rationale Zahlen als Bruch p/q geschrieben werden und sind daher periodisch und
abbrechende Dezimalzahlen. Ein bekanntes Beispiel für eine irrationale Zahl ist die Zahl Pi,
die auch als transzendente Zahl bezeichnet wird.

Wir wollen nun zeigen, warum die Wurzel aus 2 irrational ist und nicht als Bruch zweier
rationaler Zahlen m/n geschrieben werden kann. Der Beweis wird wieder über die
Beweistechnik des Widerspruchbeweises geführt.
Wir nehmen an, die Wurzel aus 2 ist rational, also als Bruch darstellbar:

√2 = m / n 1.7

Quadriert man nun die Gleichung. so erhält man:

2 = m2 / n2 1.8

23
Wir gehen davon aus, dass dieser Bruch bereits vollständig gekürzt wurde, die Zahlen m und
n zueinander also teilerfremd sind. Insbesondere können m und n nicht beide gerade sein,
sonst wären sie nicht zueinander teilerfremd.
m2 ist doppelt so groß wie n2, daher können wir 1.8 auch als

2 n2 = m2 1.9

schreiben. Es folgt daraus, dass m2 eine gerade Zahl ist und in Konsequenz dessen auch m.
Der entscheidende Punkt in der Beweisführung ist nun, dass m2 nicht nur gerade, sondern
auch durch 4 teilbar ist. Wir haben festgestellt, dass m gerade ist, daher lässt es sich als

m=2k 1.10

schreiben. Folglich ist

m2 = 4 k2 1.11

In 1.9 eingesetzt, ergibt sich

2 n2 = 4 k2 1.12

Wir schließen daraus, dass n2 doppelt so groß ist wie k2 und daher n2 eine gerade Zahl ist und
folglich natürlich auch n. Aus unserer Beweisführung erhalten wir als Ergebnis, dass m und n
gerade sind – ein Widerspruch zu unserer Annahme. Aus der Konstruktion eines
Widerspruchs konnten wir zeigen, dass die Wurzel aus 2 keine rationale Zahl sein kann.

Diophant von Alexandria war ein griechischer Mathematiker und er lebte vermutlich um 250
n. Chr. Über sein Leben ist so gut wie nichts bekannt, lediglich seine Werke sind bis heute

24
überliefert. Sein wichtigstes Werk Arithmetica besteht aus 13 Bänden. Ein wesentlicher Teil
davon beschäftigt sich mit der Lösung von algebraischen Gleichungen. Diophant beschränkte
sich in seinen Untersuchungen auf rationale oder ganzzahlige Lösungen, daher nennt man
heute noch Gleichungen, für die rationale oder nur ganzzahlige Lösungen gesucht werden,
diophantische Gleichungen.
Eine typische Aufgabe, die als diophantische Gleichung oder Gleichungssystem aufgefasst
werden kann, findet man in einem mittelalterlichen Text. Vermutlich wurde diese von Alcuin
von York (735–804 n. Chr.) dem Lehrer Karls des Großen gestellt: „Hundert Maß Korn
werden unter hundert Leuten so verteilt, dass jeder Mann drei Maß, jede Frau zwei Maß und
jedes Kind ein halbes Maß erhält. Wie viele Männer, Frauen und Kinder sind es?“ Aus der
Textaufgabe kann man schließen, dass hier drei Unbekannte oder auch Variablen gesucht
werden.

x + y + z = 100
3 x + 2 y + ½ z = 100

Diese Aufgabe ist nicht eindeutig lösbar, da insgesamt sechs verschiedene Lösungen in Frage
kommen.
Unter die berühmten diophantischen Gleichungen fallen der Satz des Pythagoras und
Fermats letzter Satz, auf den wir später noch einmal zurückkommen werden. Letztlich blieb
Fermats letzter Satz für 357 Jahre unbewiesen, bis einem Mathematiker namens Andrew
Wiles nach jahrelanger Arbeit ein sehr langer und komplizierter Beweis gelang, der in den
Medien viel Aufsehen erregte.
Wie uns die Geschichte lehrt, war jede Epoche von Zerstörung, Unruhen und Unterdrückung
geprägt. So auch die antike Zeit. In der Zeit um das 4. Jahrhundert n. Chr. verschwand ein
großer Teil der antiken Wissenschaft unwiederbringlich in den Flammen jener Fanatiker, die
in den Geschichtsbüchern ihren festen Platz eingenommen haben. Darüber hinaus gab es eine
Verfolgung vieler Gelehrter; manche davon siedelten sich aus diesem Grund im heutigen Iran
an und begründeten damit eine neue Epoche wissenschaftlicher Blüte im islamischen Raum.
Bis hierhin konnten wir uns einen Überblick über einige Vertreter der Zahlenlehre aus der
antiken Zeit verschaffen. Alle Persönlichkeiten dieser Zeit mit ihrem Einfluss auf die
Zahlentheorie vorzustellen, würde den Rahmen eines solchen Buches sprengen. Ich hoffe
aber, ich konnte Sie zu ein paar neuen Gedanken anregen und so manchem Leser einen
groben Einblick in die antike Zahlenwelt geben.

25
1.3 Mathematik der Renaissance und Neuzeit – Pierre de Fermat

In eine sehr fruchtbare und wissenschaftlich revolutionäre Zeit fällt Pierre de Fermat, der als
Vater der neuzeitlichen Zahlentheorie gilt. Pierre de Fermat hat die Zahlentheorie
entscheidend weiterentwickelt und auf ihn gehen einige wunderbare Sätze zurück, die wir
später noch genauer untersuchen werden. Was weiß man über Pierre de Fermat und wer
waren seine Zeitgenossen?
Das Geburtsjahr von Pierre de Fermat wird mit 1607 im Geburtsort Beaumont de Lomagne in
Frankreich datiert. Er studierte Rechtswissenschaften und wirkte im Alter von 33 Jahren als
Rat am Gericht von Toulouse. Seine Freizeitbeschäftigung und Liebe galt jedoch der
Mathematik und als hervorragender Autodidakt begann er, die griechischen Texte der
Mathematik zu studieren. Vor allem das Werk Arithmetica von Diophant von Alexandria war
der Ausgangspunkt einer glanzvollen Karriere als Amateurmathematiker. Fermat war ein
Pionier der Infinitesimalrechung und gilt als Begründer der analytischen Geometrie. Neben
dem Studium vieler Teilgebiete der Mathematik war er besonders im Auffinden und Lösen
zahlentheoretischer Probleme ein wahrhaftiges Genie. Mit seinen berühmten Zeitgenossen
wie Blaise Pascale, René Descartes oder Christiaan Huygens pflegte er meist nur in Briefform
zu verkehren und da er als Mann galt, der seine fruchtbaren Erkenntnisse nicht gerne an die
Öffentlichkeit trug, sind die meisten seiner mathematischen Arbeiten nur in Briefen an seine
Zeitgenossen erhalten.

Welche Ideen und Gedanken Fermats waren für die Entwicklung der Zahlentheorie von
maßgeblicher Bedeutung?

Sein wohl bekanntester Satz ist die letzte fermatsche Vermutung; diese gilt als
Verallgemeinerung des pythagoräischen Lehrsatzes. Angeregt wurde dieser Satz durch
Fermats Studien von Diophants Arithmetica. Auf einem Exemplar findet man eine Notiz von
Fermat am Rande seines Buches, dass er zwar die Unlösbarkeit dieser Gleichung für ganze
Zahlen beweisen könne, sich dafür aber zu wenig Platz biete. Es spricht wohl auch für die

26
Verschwiegenheit Fermats in solchen Dingen. Dieses Exemplar wurde erst von Fermats Sohn
im Jahr 1670 veröffentlicht. Fermat starb am 12. Januar 1665 im Alter von 57 Jahren.
Auf der Suche nach der Beweisbarkeit dieser Vermutung haben sich großartige
mathematische Methoden entwickelt, denn erst im Jahr 1995 gelang Andrew Wiles der
Beweis der fermatschen Vermutung. Es handelt sich hierbei um einen äußerst schwierigen und
langwierigen Beweis, der vielleicht als größte mathematische Leistung des 20. Jahrhunderts
angesehen werden kann. Wir wollen diesen Satz nun etwas genauer betrachten und seiner
mathematischen Formulierung auf den Grund gehen:

xn + yn = zn – fermatsche Vermutung

mit x, y, z, n ganzzahlig nur für n ≤2 lösbar.

Wie schon oben erwähnt, stellt dieser Satz eine Verallgemeinerung des pythagoräischen
Lehrsatzes dar. Das lässt sich daran erkennen, dass wir exakt die formale Darstellung des
pythagoräischen Lehrsatzes erhalten, wenn in der fermatschen Vermutung n = 2 gesetzt wird.
Andrew Wiles konnte zeigen, dass es keine Lösung für ganzzahlige Werte x, y, z und n > 2
dieser Gleichung gibt. Im Gegensatz dazu haben wir gesehen, dass es für den Satz des
Pythagoras unendlich viele Lösungen gibt, die so genannten pythagoräischen Zahlentripel.
Erstaunlich, wie so ein auf den ersten Blick einfach anmutender Satz
Mathematikergenerationen scheitern ließ und noch erstaunlicher scheint es mir, dass es dafür
keine ganzzahlige Lösung geben kann, wobei es sich um eine Kette von Gleichungen handelt,
die niemals endet, da n beliebig groß gewählt werden darf.
Einer der wichtigsten Sätze in der Zahlentheorie ist der Satz von Euler-Fermat, der im
Speziellen für Primzahlen von Fermat entdeckt wurde und als kleiner fermatscher Satz
bekannt ist. Später wurde dieser Satz von Leonhard Euler in allgemeiner Form für alle
natürlichen Zahlen niedergeschrieben. Dieser Satz ist die Basis für mannigfaltigste
Anwendungen. Ein paar davon möchte ich Ihnen jetzt kurz erläutern, im nächsten Kapitel
werden wir dieses Thema noch weiter vertiefen. Früher galt die Zahlentheorie nur als
theoretisches Gebäude, in dem man keinen Platz für praktische Anwendungen sah, aber mit
dem Aufbruch in das Informationszeitalter war auch das Tor für die Zahlentheorie in die
praktische Welt geöffnet. Eine sehr verbreitete Anwendung liegt in der Welt der
Verschlüsselungsverfahren, der Kryptografie. Ein häufig benutztes Verfahren ist das RSA-
Verfahren – dieses zählt zu den ersten Public-Key-Verschlüsselungsverfahren. Bei

27
Verschlüsselungsverfahren wird besonders Wert auf Sicherheit gelegt, da es um den
Austausch geheimer Daten zwischen Sender und Empfänger geht. Aus diesem Grund soll es
einem Angreifer, einem Dritten, nicht möglich sein, einen zuvor verschlüsselten Klartext
einfach zu knacken. Die Sicherheit beim RSA-Verfahren baut auf große zusammengesetzte
Zahlen auf, deren Zerlegung ein aufwändiges Unternehmen ist. Daher reduziert sich die
Sicherheit bekannter Verschlüsselungsverfahren darauf, bestimmte Berechnungsprobleme aus
der Zahlentheorie in relativ kurzer Laufzeit zu lösen.
Eng damit sind die Primzahlenerzeugung und der Primzahlentest verbunden. Da bei Public-
Key-Verfahren häufig zufällige große Primzahlen gebraucht werden, erzeugt man natürliche
Zahlen der richtigen Größe und prüft, ob diese auch Primzahlen sind.

Wir wollen uns nun einer näheren mathematischen Untersuchung des kleinen fermatschen
Satzes widmen. Wir werden im Detail in Kapitel 2 eine Anwendung für die
Primfaktorisierung großer Zahlen kennen lernen. Der kleiner Satz von Fermat lässt sich in
folgende Worte fassen: Wenn p eine Primzahl ist und a eine Zahl, die zu p teilerfremd ist,
dann ist ap-1 stets um 1 größer als das nächste kleinere Vielfache von p. Betrachten wir dazu
ein Rechenbeispiel:

Wir ziehen für unsere Berechnung die Primzahl p = 7 und eine dazu teilerfremde Zahl a = 3
heran, daher ist ggT (3, 7) = 1. Setzen wir nun die beiden Zahlen in den Ausdruck ap-1 ein, so
erhalten wir:

ap-1 für a = 3 und p = 7: 37-1 = 36 = 729

Nun ziehen wir von 729 die Zahl 1 ab und prüfen, ob das Ergebnis durch p = 7 teilbar ist.

729 – 1 = 728 durch 7 = 104

Eine Erweiterung dafür ist der Satz von Euler-Fermat, der in seiner Formulierung für alle
natürlichen Zahlen gilt, daher wird statt der Primzahl p die natürliche Zahl n betrachtet, im
Exponent wird die Primzahl p durch die Anzahl der Teiler φ der natürlichen Zahl n ersetzt.

Die Funktion φ wird im nächsten Abschnitt behandelt.

28
1.4 Mathematik der Aufklärung – Euler, Gauß und Riemann

Leonhard Euler war ein Schweizer Mathematiker und wurde 1707 in Basel als ältester Sohn
des Pfarrers Paul Euler geboren. Euler nahm neben seiner schulischen Laufbahn am
Gymnasium in Basel Privatunterricht beim Mathematiker Johannes Burkhardt und er rechnete
so mühelos, dass andere davon nur träumen konnten. Seine wissenschaftliche Laufbahn
begann im Jahr 1727 im Todesjahr Newtons. Trotz des Verlusts seines Augenlichts während
seiner letzten 17 Lebensjahre war sein Tatendrang ungebrochen. In seiner Phase der Blindheit
konnte er einen beträchtlichen Teil seines Lebenswerkes beenden – scheinbar war sein Blick
auf das innere Wesen der Natur durch den schwer wiegenden Verlust keineswegs getrübt. Er
war, wie man heute sagen würde, ein richtiges Arbeitstier und in seinem produktiven Schaffen
entstanden hunderte Publikationen, in denen er die mathematische Schreibweise einführte,
wie sie auch heute noch gebräuchlich ist. Auf ihn gehen folgende bekannte mathematische
Notationen zurück: e, π, f (x) als Darstellung für eine Funktion. Euler gilt als der eigentliche
Begründer der Analysis, 1748 publizierte er das Grundlagenwerk „Introductio in analysin
infinitorum“, in dem zum ersten Mal der Begriff der Funktion eine zentrale Rolle spielte.
Nicht nur in der Mathematik tat er sich als außergewöhnlicher Wissenschaftler hervor,
sondern auch in der Physik auf den Gebieten der Mechanik und der Wellentheorie. So
entstanden die eulerschen Bewegungsgleichungen in der Hydrodynamik und die eulerschen
Kreiselgleichungen in der Kreiseltheorie. Erwähnenswert erscheint mir, dass man ihm eine
gewisse männliche Potenz nicht absprechen konnte, da er angeblich 13 Kinder zeugte.
Nebenbei bemerkt, 13 ist eine Primzahl. Ein Zufall?
Aus der Schulmathematik ist Ihnen vielleicht noch die eulersche Zahl e bekannt. Sie ist die
Basis des natürlichen Logarithmus und die Grundlage für Berechnungen in den
verschiedensten naturwissenschaftlichen Teilgebieten. Bei der eulerschen Zahl
e = 2,7182818284... handelt es sich um eine transzendente Zahl, die zur Gruppe der
irrationalen Zahlen gehört. In der Zahlentheorie gilt Euler neben dem Satz von Euler-Fermat
als Entdecker der eulerschen Phi-Funktion φ, die nach dem griechischen Symbol Phi benannt
ist. Unter der eulerschen Phi-Funktion versteht man die Anzahl der teilerfremden Zahlen m
von 1 bis n zu einer gegebenen natürlichen Zahl n, sprich ggT (m, n) = 1. Für eine Primzahl p
ist die Anzahl der teilerfremden Zahlen stets p – 1, da eine Primzahl immer nur durch 1 oder p

29
teilbar ist. Daher sind die Zahlen 1 bis p – 1 zu p teilerfremd – natürlich auch die Zahl 1
selbst, da sie per Definition nur durch 1 teilbar ist.

φ (p) = p – 1

Will man aber nun Phi φ für eine zusammengesetzte Zahl bestimmen, ist es erforderlich, alle
teilerfremden Zahlen einer gegebenen Zahl zu ermitteln. Wir wollen dazu wieder ein Beispiel
betrachten: Angenommen, wir wollen Phi φ für die Zahl 12 ermitteln. Die teilerfremden
Zahlen sind 1, 5, 7 und 11. Daher ist

φ (12) = 4

Als einer der bedeutendsten Mathematiker aller Zeiten wird Carl Friedrich Gauß angesehen.
Man sprach von ihm als dem „princeps mathematicorum“, dem „Fürst der Mathematik“.
Gauß war ein Sohn sehr einfacher Leute und erblickte im Jahr 1777 in Braunschweig das
Licht der Welt. Eine Anekdote erzählt, dass Gauß bereits im Alter von drei Jahren seinem
Vater bei der Lohnabrechnung geholfen haben soll. Er hatte ein breit gefächertes Interesse an
den unterschiedlichsten naturwissenschaftlichen Fächern, daher ist es wenig erstaunlich, dass
er sich als Mathematiker, Astronom und Physiker hervortat. Gauß hat einmal über sich selbst
behauptet, er habe das Rechnen vor dem Reden gelernt. Es scheint, als hätte er die Wahrheit
gesagt, wenn man folgende Aufgabe betrachtet. Mit neun Jahren bekam er in der Schule die
Aufgabe gestellt, die Summe der Zahlen 1 bis 100 zu berechnen, was für ihn keine
Schwierigkeit war, indem er diese paarweise zusammenfasste (1 + 100, 2 + 99, 3 + 98, …,
50 + 51) und daraus das Ergebnis 5050 ableitete. Die daraus entstandene Formel wird auch
der kleine Gauß genannt und steht für das Wunderkind Gauß in der Mathematik.

s bezeichnet die Summe der Zahlen von 0 bis n und lässt sich mit der einfachen Formel
n (n + 1) / 2 berechnen. Diese Summenformel wird rein intuitiv klar: Durch die paarweise
Zusammenfassung der Elemente entstehen nur halb so viele Paare, jedes Paar trägt die gleiche
Summe und das erste Paar ist die Summe aus dem ersten und dem letzten Element, also n + 1.

30
Das Produkt aus der Anzahl der Paare und der Summe des ersten und des letzten Elements
ergibt die Summenformel vom kleinen Gauß.
Das Lieblingskind von Carl Friedrich Gauß war die Zahlentheorie, die er die „Königin der
Mathematik“ nannte. Ein Meilenstein in der Entwicklung der Zahlentheorie ist seine Arbeit
mit dem Titel „Disquisitiones arithmeticae“, die er bereits als Achtzehnjähriger schrieb und
die im Jahr 1801 erschien. Gauß hatte eine zutiefst religiöse und konservative
Weltanschauung und trotz eines Professorstuhls in der Mathematik hegte er gegen das
Unterrichten eine starke Ablehnung. Jedoch gingen unten seiner Lehre mehrere sehr
einflussreiche Mathematiker wie Richard Dedekind oder Bernhard Riemann hervor.
Welches sind die herausragenden Errungenschaften von Gauß?
Mit 18 Jahren entdeckte er einige Eigenschaften über die Primzahlenverteilung im Bereich
der natürlichen Zahlen und entwickelte die Methode der kleinsten Quadrate, die als Basis die
Berechnung der Bahnen von Himmelskörpern revolutionierte. Mit den neu durchgeführten
Berechnungen gelang Heinrich Olbers die Wiederentdeckung des Planetoiden Ceres. Durch
diese Entdeckung wurde Gauß weltbekannt. Er entwickelte auch eine geschlossene Formel für
die Berechnung des Osterdatums. Auf ihn geht ebenfalls die gaußsche Glockenkurve zurück,
die auch als Standardnormalverteilung bekannt ist und in der Wahrscheinlichkeitsrechnung
angewendet wird. Entscheidende Beiträge lieferte Gauß im Bereich der komplexen Zahlen,
indem er einen strengen Beweis führte und zeigen konnte, dass jede algebraische Gleichung
n-ten Grades genau n reelle oder komplexe Wurzeln besitzt – der Fundamentalsatz der
Algebra war geboren. Gauß war nicht nur auf mathematischem Gebiet erfolgreich, er erfand
auch das erste Magnetometer und es gelang ihm damit, gemeinsam mit Wilhelm Eduard
Weber, die erste elektromagnetische Telegrafenverbindung weltweit herzustellen.
Einige Kritiker warfen ihm einen starken Geltungsdrang vor, da er seine Zeitgenossen oft
darauf hinwies, bestimmte mathematische Resultate schon vor ihnen bewiesen zu haben.
Später konnte belegt werden, dass sich seine Behauptungen sehr oft als wahr erwiesen. Gauß
starb 1855 in Göttingen; seine erst 1898 gefundenen Tagebücher enthalten viele
wissenschaftliche Entdeckungen.

Ein Koryphäe auf seinem Gebiet war der berühmte deutsche Mathematiker Bernhard
Riemann. In seiner kurzen Lebenszeit schrieb er entscheidende Beiträge zu den Themen der
Funktionstheorie und riemannschen Geometrie. Als Mitbegründer der Funktionstheorie, die
sich mit Funktionen komplexer Veränderlicher beschäftigt, und als Entdecker der

31
riemannschen Geometrie, die als Wegbereiter der allgemeinen Relativitätstheorie von
Einstein gilt, hat er unauslöschliche Spuren in der Zahlentheorie hinterlassen. Wir wollen uns
im Anschluss damit noch eingehender beschäftigen, aber vorher möchte ich Ihnen noch einen
kurzen Einblick in Riemanns Leben geben.
Bernhard Riemann wurde 1826 in Dannenberg als Sohn eines Pastors geboren und starb sehr
früh im Alter von 39 Jahren an Tuberkulose. Trotz längerer Aufenthalte in milden Gebieten
konnte seine Krankheit nicht geheilt werden. Viele Historiker sehen den frühen Tod
Riemanns in der Unternährung in seiner Jugendzeit – er stammte aus sehr ärmlichen
Verhältnissen. Während seiner Grundschulzeit bekam er von seinem Vater und seinem Lehrer
Privatunterricht, da er aber im Fach Mathematik seinen Lehrer bald übertraf, zog er zu seiner
Großmutter nach Hannover, wo er das Gymnasium Johanneum besuchte. Riemann galt als
sehr schüchterner Schüler, was ihn aber nicht am Fortschritt seiner schulischen Leistungen
hinderte. Seine mathematische Hochbegabung zeigte sich bereits sehr früh, doch trotz der
Einwände des Lehrers wollte sein Vater, dass er Theologie studiere und somit in seine
Fußstapfen trete. Bernhard Riemann begann zwar das Studium der Theologie in Göttingen,
besuchte aber neben seinem Studium auch Mathematikvorlesungen. Zum Glück gelang es
dem jungen Riemann, seinen Vater doch noch umzustimmen und so konnte er sich seiner
Lieblingsbeschäftigung, der Mathematik, widmen. Riemann war während seiner Studienzeit
ein Schüler von Gauß und Dirichlet und nach seiner Habilitation folgte er Dirichlet als
ordentlicher Professor auf den Lehrstuhl von Gauß. Riemann trug trotz seiner kurzen
Lebenszeit und der geringen Anzahl an Publikationen maßgeblich zur Entwicklung der
Geometrie, Funktionen- und Zahlentheorie bei. Nicht immer ist die Quantität entscheidend.
Bernhard Riemann hat durch seine riemannsche Vermutung einen festen Platz in der
Geschichte der Mathematik gefunden. Der Beweis der riemannschen Vermutung wurde von
David Hilbert im Jahr 1900 in eine Liste von 23 mathematischen Jahrhundertproblemen
aufgenommen. Da es bis zum 20. Jahrhundert niemanden gelungen war, einen schlüssigen
Beweis zu finden, hat das Clay Mathematics Institute im Jahr 2000 für denjenigen, der als
Erster einen Beweis für die riemannsche Vermutung erbringen kann, ein Preisgeld von einer
Million US-Dollar ausgeschrieben. Wir können gespannt sein, wer das mathematische
Rüstzeug dazu hat. Mit Hilfe von Großrechnern wurde im Jahr 2001 gezeigt, dass die ersten
zehn Milliarden Nullstellen der riemannschen Zetafunktion auf einer Geraden mit Realteil ½
liegen und somit die riemannsche Vermutung erfüllen. Riemann stellte die Behauptung auf,
dass alle nicht-trivialen Nullstellen der riemannschen Zetafunktion den Realteil ½ haben; er
erweiterte die eulersche Zetafunktion auf die komplexe Ebene und daraus entstand seine

32
Vermutung. Die mathematische Formulierung dieser Vermutung würde über den Rahmen des
Buches hinausgehen und verlangt ein tiefes Verständnis für zahlentheoretische Probleme. Ich
möchte dem Leser daher weitere Details zu diesem sehr schwierigen mathematischen Problem
ersparen. Wie wir aber sehen, kann ein mathematisches Rätsel sehr lange ungelöst bleiben.

Ich hoffe, sie konnten sich auf unserem Streifzug durch die Geschichte der Zahlentheorie
einen Eindruck über einige sehr wichtige und einflussreiche Persönlichkeiten in der
Zahlentheorie machen. Sie überzeugen nicht nur durch ihren Scharfsinn und ihre
unbestechliche Logik, sondern auch durch die innere Kraft, sich den persönlichen und
gesellschaftlichen Schicksalsschlägen ihrer Zeit zu widersetzen. Viele von ihnen fallen in
politisch und gesellschaftlich schwierige Zeiten, umso mehr wiegt ihr unglaublicher
Tatendrang, der Menschheit ein fantastisches Dokument voll mathematischer Schönheit zu
hinterlassen.

1.5 Und noch mehr interessante zahlentheoretische Fragestellungen

Aus den unzähligen zahlentheoretischen Problemen, die im Laufe der Jahrhunderte entstanden
sind, konnten wir nur einige besprechen, daher möchte ich an dieser Stelle noch einige
weitere interessante zahlentheoretische Fragestellungen diskutieren. In diesem Abschnitt
werden wir mersennsche Primzahlen, Fibbonaci-Zahlen und die Darstellung der Primzahlen
durch die Summe zweier Quadratzahlen diskutieren.
Was liegt näher, als im Zeitalter des Internets ein Projekt zu starten, wie das von George
Woltman ins Leben gerufene GIMPS-Projekt? GIMPS bedeutet „Great Internet Mersenne
Prime Search“ und beschäftigt sich mit der Suche sehr großer mersennscher Primzahlen. Die
bist jetzt größte gefundene Primzahl hat unvorstellbare 7.816.230 Stellen. Die Idee des
Projektes liegt darin, einen großen Kreis von Internetbenutzern zu motivieren, ihre freie
Rechnerzeit für die Primzahlensuche zur Verfügung zu stellen. Die Kapazität der Rechen-
Power aus der bestehenden Internetgemeinde reicht mittlerweile an die eines Supercomputers
heran, sprich die Rechenleistung aus der Parallelschaltung vieler kleiner Workstations von
Internetusern kann mit der Rechenleistung der schnellsten Großrechneranlage verglichen

33
werden. Ein ähnliches Projekt mit den Namen SETI gibt es schon seit mehreren Jahren bei der
Suche nach außerirdischer Intelligenz.
Warum werden mersennsche Primzahlen für die Primzahlensuche herangezogen?
Die mersennschen Primzahlen gehen auf den Theologen Marin Mersenne zurück, der dem
religiösen Orden der Minimen angehörte. Er hatte es sich zur Aufgabe gemacht, eine Formel
für die Darstellung aller Primzahlen zu finden, was ihm aber nicht gelang. Jedoch stieß er auf
Interesse bei der Untersuchung von Zahlen mit folgender Darstellung:

Mp = 2p – 1 – mersennsche Primzahl

Eine der wichtigsten Eigenschaften für die Suche großer mersennscher Primzahlen ist
folgende: Wenn Mp eine Primzahl ist, dann muss auch p eine Primzahl sein, die Umkehrung
gilt jedoch nicht. Mersenne stellte die Behauptung auf, dass Mp für die Primzahlen p = 2, 3, 5,
7, 13, 17, 19, 31, 67, 127 und 257 eine Primzahl ist. Er irrte jedoch bei den Zahlen 67 und
257. Für die Ermittlung großer Primzahlen kann man sich auf Primzahlen p im Exponenten
beschränken, daher reicht die Überprüfung, ob Mp eine Primzahl ist. Ein einfaches Verfahren
dafür ist der Lucas-Lehmer-Test, der sich für die Suche von Primzahlenrekorden eignet.

Leonardo von Pisa, besser bekannt als Fibonacci, war ein Handelsreisender und lebte im 12.
Jahrhundert. Auf seinen vielen Reisen lernte er alle damals bekannten Rechenverfahren
kennen. Sein 1202 erschienenes Werk Liber Abaci beschreibt unter anderem auch die indische
Rechenkunst, die durch sein Werk in Europa publik wurde. Er war der Erste, der in Europa
die arabische Schreibweise der Zahlen einführte und auf ihn gehen die berühmten Fibonacci-
Zahlen zurück, die für eine rekursiv definierte Zahlenfolge stehen. Fibonacci-Zahlen können
zur Beschreibung ganz allgemeiner Wachstumsvorgänge herangezogen werden. Ein sehr altes
Wachstumsproblem hatte Fibonacci bereits in seinem Werk Liber Abaci angeführt – das
berühmte Kaninchenwachstumsproblem.
Wie können die Fibonacci-Zahlen bestimmt werden und wo finden sie Anwendung?
Die Fibonacci-Zahlen können, wie schon erwähnt, aus einer rekursiv definierten Zahlenfolge
berechnet werden. Unter einer rekursiv definierten Funktion versteht man einen
Funktionswert, der sich aus der Verknüpfung bereits vorher berechneter Funktionswerte
ergibt. Mit ausreichend genügend festgelegten Startwerten kann daraus jeder Funktionswert
bestimmt werden. Die Fibonacci-Folge lässt sich in folgender Weise schreiben:

an+2 = an+1 + an
34
Dabei werden die Startwerte a1 = 1 und a2 = 1 festgelegt.

Aus der Definition ergibt sich folgende konkrete Zahlenfolge:

a1 = 1
a2 = 1
a3 = a1 + a2 = 1 + 1 = 2
a4 = a2 + a3 = 1 + 2 = 3
usw.

Die Fibonacci-Folge lässt sich in folgender Zahlenreihe weiterführen: 1, 1, 2, 3, 5, 8, 13, 21,


43, 55, 89, 144, 233, 377, …

Die Glieder der Folge werden stets aus der Summe der beiden Vorgängerglieder bestimmt.
Die gleiche Folge entsteht auch bei der Formulierung des folgenden
Kaninchenwachstumsproblems:

- Jedes Kaninchenpaar kann ab einem Alter von 2 Monaten Nachwuchs zeugen


- Jedes Kaninchenpaar bringt ab diesem Monat jeden Monat ein neues Kaninchenpaar
zur Welt
- Die Kaninchen leben ewig

Die Anzahl der Kaninchen an entspricht der Folge von Fibonacci und stellt für die drei
getroffenen Annahmen einen Wachstumsvorgang dar. Durch Abänderung der Startwerte und
Rekursionsvorschrift sind unzählige Varianten entstanden, so auch die Lucas-Folge, die eine
wichtige Rolle im Lucas-Lehmer-Test bei der Bestimmung von mersennschen Primzahlen
spielt. Fibonacci-Zahlen stehen mit dem goldenen Schnitt eng im Zusammenhang.

Sehr interessante Untersuchungen auf dem Gebiet der Zahlentheorie gab es bezüglich der
Darstellung von Zahlen als Quadratsummen. Man interessierte sich also für die diophantische
Gleichung der Form

35
x2 + y2 = n

Im Speziellen ging Fermat der Frage nach, welche Primzahlen durch die Summe zweier
Quadratzahlen darstellbar sind und formulierte im Jahr 1640 folgenden Satz, der in einem
Briefwechsel mit Mersenne behandelt wurde. Dieser war allerdings schon Albert Girard
(1595–1632) bekannt und wird daher auch Satz von Girard genannt. Einen Beweis publizierte
Euler im Jahr 1754. Der Satz lautet in Worten: Eine ungerade Primzahl p ist genau dann als
Summe zweier Quadrate darstellbar, wenn bei Division der Primzahl p durch 4 der Rest 1
übrig bleibt. Oder anders formuliert, die Primzahlen müssen von der Form

p=4n+1

sein, dann können sie als Summe zweier Quadratzahlen geschrieben werden. Man interessiert
sich deswegen nur für ungerade Primzahlen, weil die einzige gerade Primzahl, die Zahl 2, als
2 = 12 + 12 geschrieben werden kann.
Warum kommen Primzahlen der Form 4 n + 3 nicht in Frage? Das möchte ich Ihnen kurz
anhand der folgenden Überlegungen vor Augen führen.

Welche Kombinationen kommen für die Summe zweier Quadratzahlen in Frage?


1) Die Summe zweier gerader Quadratzahlen.
2) Die Summe einer geraden und einer ungeraden Quadratzahl oder umgekehrt.
3) Die Summe zweier ungerader Quadratzahlen.

Zu 1)
Wir setzen x = 2 n und y = 2 m und quadrieren beide Zahlen x und y und erhalten
(2 n)2 + (2 m)2 = 4 n2 + 4 m2. Teilt man nun 4 n2 + 4 m2 durch 4, ergibt sich der Rest 0, da

sowohl 4 n2 als auch 4 m2 durch 4 ohne Rest teilbar ist.


Zu 2)
Wir setzen x = 2 n und y = 2 m + 1 und quadrieren beide Zahlen x und y und erhalten
(2 n)2 + (2 m + 1)2 = 4 n2 + 4 m2 + 4 m +1. Teilt man nun 4 n2 + 4 m2 + 4 m + 1 durch 4,

ergibt sich der Rest 1, da bei Division von 4 n2 durch 4 der Rest 0 und für 4 m2 + 4 m + 1
durch 4 der Rest 1 übrig bleibt. Beide Reste addieren sich zu einem Gesamtrest von 1.
Zu 3)

36
Wie wir gesehen haben, bleibt bei der Division einer ungeraden Quadratzahl durch 4 der Rest
1 übrig. So erhalten wir bei der Division zweier ungerader Quadratzahlen durch 4 und
anschließender Addition den Rest 2.

Es lässt sich unschwer erkennen, dass der Rest der Summe zweier Quadratzahlen bei Division
durch 4 entweder 0, 1 oder 2 ist. Wir sind jedoch von einer Primzahl der Form 4 n + 3
ausgegangen, die bei Division durch 4 den Rest 3 übrig lässt. Weil aber der Rest für die
Summe zweier Quadratzahlen bei Division durch 4 nie 3 ergeben kann, ist somit eine
Primzahl der Form 4 n + 3 nie als Summe zweier Quadratzahlen darstellbar.

37
2. Faktorisierungsmethoden – Geschichte und Methoden

Eng mit der Sicherheit für die Entschlüsselung einer codierten Nachricht ist die
Herausforderung verbunden, große natürliche Zahlen in Primfaktoren zu zerlegen. Eine
bekannte Verschlüsselungsmethode ist das RSA-Verfahren, das sich bis dato als sehr effizient
und sicher herausgestellt hat und heutzutage zu den wichtigsten Verschlüsselungsverfahren
gezählt wird. Wir wollen uns in diesem Kapitel aber nicht mit den gängigen
Verschlüsselungsverfahren beschäftigen, sondern mit den unterschiedlichen Algorithmen zur
Bestimmung der Primfaktoren einer gegebenen natürlichen Zahl. Wir werden wieder durch
die Geschichte wandern – von den sehr alten, teilweise sehr langsamen bis zu den neuesten
und schnellsten Faktorisierungsalgorithmen. Mich hat an diesem zahlentheoretischen Problem
stets die einfache Ausgangssituation fasziniert. Es gilt lediglich, eine bekannte natürliche
zusammengesetzte Zahl in vernünftiger Zeit in ihre Primfaktoren zu zerlegen. Wie schwer
sich das Problem jedoch für eine zusammengesetzte Zahl für große Primzahlen darstellt,
werden wir noch sehen. Nur noch so viel: Sollte es jemand schaffen, einen äußerst effizienten
Algorithmus zu finden, der die momentane Sicherheit der bekannten
Verschlüsselungsverfahren gefährden könnte, winkt – neben einem Platz in der Geschichte
der Zahlentheorie – ein stolzer Preis. Aber Vorsicht, die Konsequenzen wären auf
wirtschaftlicher Ebene fatal. Begeben wir uns nun in die Welt der Algorithmen.

2.1 Geschichte der Faktorisierungsverfahren

Seit der Formulierung des Fundamentalsatzes der Arithmetik, der besagt, dass jede Zahl
eindeutig in ihre Primfaktoren zerlegt werden kann, und den Euklid schon 300 v. Chr. in
seinem Werk Elemente das erste Mal erwähnt und bewiesen hat, wurden auf dem Gebiet der
Primfaktorisierung große Fortschritte erzielt. Das erste bekannte Faktorisierungsverfahren,
das im Wesentlichen auch schon Euklid bekannt war, ist die Methode der Probedivision.
Damit hatte man schon sehr früh ein Verfahren zur Faktorisierung von natürlichen Zahlen
entdeckt, wenngleich es für sehr große Zahlen nicht geeignet ist, da die Methode für solche
Zahlen ein sehr langsames Laufzeitverhalten aufweist. Im Jahr 1643 beschrieb Pierre de
Fermat ein Verfahren – die nach ihm benannte Methode von Fermat, die heutzutage die
Grundlage für nahezu alle modernen Faktorisierungsverfahren bildet. Fermat betrachtete für
die Faktorisierung einer natürlichen Zahl die Differenz zwischen zwei Quadratzahlen. Auf
diese Methode werden wir später noch einmal genauer zu sprechen kommen. Nur so viel

38
dazu: Die Methode von Fermat hat in bestimmten Fällen ein schlechteres Laufzeitverhalten
als das sehr alte Verfahren der Probedivision.
Bis zur Erfindung der Computer wurden Faktorisierungsverfahren nicht sehr intensiv
untersucht, aber mit dem Boom der Informationstechnologie wurde es notwendig, die
Sicherheit im Internet für die Übertragung von Daten zu garantieren. Daraus entstand ein
ständiger Wettlauf zwischen Kryptografen und Kryptologen, also zwischen Verschlüsslern
und Entschlüsslern, der sich bis heute fortgesetzt hat. Man kann heutzutage relativ schnell
festzustellen, ob eine natürliche Zahl eine Primzahl oder eine zusammengesetzte Zahl ist, viel
schwieriger gestaltet sich jedoch das Unterfangen, einen sehr schnellen
Faktorisierungsalgorithmus zu finden, der die heutigen gängigen Verschlüsselungsmethoden
in Gefahr bringen könnte. Momentan sind die Kryptologen den Kryptografen immer um eine
Nasenlänge voraus, wenn es darum geht, Nachrichten sicher zu verschlüsseln. Ob das immer
so sein wird, hängt im Wesentlichen von der zukünftigen Entwicklung ab, ob es jemandem
gelingen wird, einen neues, äußerst schnelles Faktorisierungsverfahren zu entdecken, vor dem
die heutigen Methoden der Verschlüsselung nicht mehr sicher sind. Sollte es jedoch in ferner
Zukunft gelingen, die revolutionäre Technologie der Quantenkryptografie praxistauglich zu
machen, haben die Entschlüssler wohl endgültig verloren, denn ab diesem Zeitpunkt wird es
keine denkbare Möglichkeit mehr geben, einen Lauschangriff zu starten. Die
Quantenkryptografie wird uns in Kapitel 5 noch intensiver beschäftigen.
Die entscheidenden Entwicklungen in der Technik der Zerlegung von Zahlen gab es im 20.
Jahrhundert, wobei die wichtigsten Schritte in den letzten 30 Jahren gemacht wurden. 1926
veröffentlichte Maurice Kraitchik eine Arbeit, in der er einige Verbesserungen der Methode
von Fermat vorschlug. Er betrachtete neben der Untersuchung der zu faktorisierenden Zahl
auch deren Vielfaches und das bedeutet, die Kongruenzen x2 ≡ y2 mod n zu lösen. Wir werden
auf diesen Ansatz bei der Diskussion der Faktorisierung nach dem quadratischen Sieb noch
einmal zurückkommen.
Derrick Lehmer und R. E. Powers schlugen 1931 eine Methode vor, um geeignete
Kongruenzen für die Form x2 ≡ y2 mod n zu finden, die sich der Näherungsbrüche der
Kettenbruchentwicklung von n bedienen. Aufbauend auf der Idee von Lehmer und Power
gelang es John Brillhart 1975, ein Verfahren mit subexponentiellem Aufwand zu entwickeln,
mit dem er die für die damalige Zeit extrem große 39-stellige Fermat-Zahl F7 zerlegen konnte.
Inspiriert durch die Vorarbeiten seiner Kollegen erfand Carl Pomerance 1981 das bis dahin
schnellste Faktorisierungsverfahren mit der Bezeichnung quadratisches Sieb, mit dem es
1995 möglich war, die 129-stellige Zahl RSA-129 zu faktorisieren. Dieses Verfahren ist bis

39
heute das schnellste Verfahren, um Zahlen bis zu 100 Stellen in Primzahlen zu zerlegen.
Einen Meilenstein in der Welt der Technik der Faktorisierung setzte John Pollard 1988 mit
seinem Zahlenkörpersieb für spezielle Zahlen, das aber später von einer Reihe von Leuten wie
Hendrik Lenstra, Carl Pomerance oder Len Adleman auf beliebige Zahlen erweitert wurde. Es
gelang damit 1990 die vollständige Faktorisierung der 155-stelligen Fermat-Zahl F9. In der
Praxis ist meist folgende Vorgehensweise für die Suche von Primzahlen für
zusammengesetzte Zahlen üblich:

1) Mittels Probedivision nach kleinen Faktoren der zusammengesetzten Zahl suchen.


2) Mit Hilfe eines Primzahltests herausfinden, ob die Zahl eine Primzahl oder eine
Primpotenz ist.
3) Mit der Methode der elliptischen Kurven nach vergleichsweise kleinen Primfaktoren
(< 1030) suchen.
4) Mit dem quadratischen Sieb (für Zahlen mit weniger als 120 Dezimalstellen) oder
dem Zahlkörpersieb faktorisieren.

Wir werden uns nun den klassischen und modernen Faktorisierungsverfahren widmen.
Hierbei werde ich versuchen, Ihnen das nötige mathematische Rüstzeug zu vermitteln, um ein
tieferes Verständnis für die heute gängigen Methoden zu bekommen. Wir stehen heutzutage
vor der Schwelle zu einer neuen Technologie, die in naher Zukunft das gesamte Gebäude der
Informationstechnologie grundlegend verändern könnte. Die Rede ist hier von der
Entwicklung hinsichtlich der Quantencomputer. Quantenphänomene werden möglicherweise
zukünftig eine zentrale Bedeutung in der Informationsverarbeitung spielen und die
Faktorisierungsverfahren von heute werden möglicherweise bald nur noch einen
nostalgischen Wert besitzen. Bis dorthin geht er aber weiter – der Wettlauf zwischen den
Parteien der Kryptografen und Kryptologen.

2.2 Sieb des Eratosthenes und Probedivision

Eratosthenes von Kyrene lebte etwa um 280 bis 200 v. Chr. und war ein griechischer
Mathematiker, der als Erfinder des Sieb des Eratosthenes zur Bestimmung von Primzahlen

40
gilt, daher wurde das Verfahren auch nach ihm benannt. Der Algorithmus basiert darauf,
innerhalb eines bestimmten Bereichs der natürlichen Zahl alle Primzahlen zu ermitteln. Wir
wollen uns das Siebverfahren anhand der natürlichen Zahlen von 2 bis 50 veranschaulichen.
Ausgehend von der ersten Primzahl 2 bis zu einer festen Schranke s = 50 können über
folgende Siebschritte alle Primzahlen ermittelt werden. Wir schreiben dafür zunächst einmal
die Zahlen 2 bis 50 an.

2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45
46 47 48 49 50

Als ersten Schritt betrachten wir die Ausgangszahl 2 und streichen alle Zahlen, die sich als
Vielfaches von 2 darstellen lassen. Logischerweise sind die Vielfachen von 2 keine
Primzahlen, sie sind alle durch den Primfaktor 2, der einzigen geraden Primzahl, teilbar.

2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45
46 47 48 49 50

Im zweiten Schritt wandern wir zu der nächsten unmarkierten Zahl, in unserem Fall ist das die
Zahl 3. Als Nächstes werden alle Vielfachen von 3 gestrichen, was in unserem Beispiel
folgendermaßen aussieht:

2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45
46 47 48 49 50

Schritt 2 wird so oft wiederholt, bis die zu betrachtende Zahl größer als Wurzel √s ist. In
unserem Beispiel haben wir eine feste Schranke s = 50 angenommen. Die Wurzel aus
√50 ergibt die gerundete nächste ganze Zahl 7, sprich: 7 ist die letzte Zahl, die wir bearbeiten
müssen.
Werden jetzt noch die Vielfachen von 5 und 7 ausgesiebt, sieht das Ergebnis im Folgenden so
aus:

41
2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45
46 47 48 49 50

Unser Ergebnis bildet alle Primzahlen von 2 bis zur Schranke s = 50 ab, die aus den einzelnen
Siebschritten hervorgingen.

Aus welchen Bestandteilen setzt sich das Sieb des Eratosthenes zusammen?

1) Es wird eine bestimmte Grenze für die Betrachtung der Zahlen festgelegt.
2) Es wird in iterativen Schritten eine Siebmethode angewendet.

Die verallgemeinerte Darstellung in Punkt 1) und 2) gilt im Prinzip für jedes Siebverfahren,
das zur Faktorisierung zusammengesetzter Zahlen verwendet wird.

Warum kann für die Ermittlung der Primzahlen die Grenze √n für eine feste Schranke n
angenommen werden?

Die Grenze lässt sich aus einem Satz für zusammengesetzte Zahlen ableiten: Ist n eine
zusammengesetzte Zahl, dann existiert ein Primteiler p von n mit p ≤ √n. Dieser Satz lässt
sich auf Grund folgender Überlegung herleiten. Angenommen, wir haben eine
zusammengesetzte Zahl und diese besitzt einen kleinsten von 1 verschiedenen Primteiler p.
Da es sich um den kleinsten Primteiler handelt, müssen noch weitere Primteiler existieren, die
größer sind. Daher gilt:

p≤n/p 2.1
p2 ≤ n 2.2
p ≤ √n 2.3

Somit konnten wir zeigen, dass für eine feste Schranke n mindestens ein Primteiler existiert,
der kleiner gleich √n ist.

42
Wie können wir gemeinsam mit dem Sieb des Eratosthenes einen brauchbaren
Faktorisierungsalgorithmus herstellen? Dazu sind zwei elementare Schritte notwendig:

1) Wir legen die obere Berechnungsgrenze mit √n fest.


2) Es wird geprüft, ob es eine Primzahl bis zu dieser Grenze gibt, die eine
zusammengesetzte Zahl n teilt.

Am einfachsten können wir uns das wieder anhand eines Rechenbeispiels verdeutlichen.
Angenommen, wir wollen prüfen, ob die Zahl n = 2881 zusammengesetzt ist. Welche Schritte
sind notwendig?

1) Bestimmung des gerundeten ganzzahligen Werts für die Wurzel aus 2881. Das
Ergebnis ist die Zahl 53.
2) Wir müssen bis zu dieser Grenze alle Primzahlen als mögliche Teiler von 2881 prüfen,
die wir aus dem Sieb des Eratosthenes erzeugen können.

Welche Primteiler kommen bis zur Zahl 53 in Frage? Dafür greifen wir auf die zuvor mit dem
Sieb des Eratosthenes ermittelten Primteiler zurück.

2, 3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53

Gehen wir nun der Reihe nach alle Primzahlen durch, erhalten wir als Primteiler der Zahl
n = 2881, die Zahl p = 43. An dieser Stelle kann unser Algorithmus beendet werden, die Zahl
2881 ist das Produkt folgender Primzahlen:

2881 = 43 * 67

Dieses Faktorisierungsverfahren ist in der Fachwelt als Probedivision bekannt. Es fällt unter
jene Methoden, die einem exponentiellen Zeitaufwand unterliegen und ist aus diesem Grund
für zusammengesetzte Zahlen mit sehr großen Primzahlen nicht geeignet, kann jedoch für die
Ermittlung kleinerer Primfaktoren verwendet werden. Die Probedivision wird oftmals als
Teilschritt in komplexeren Faktorisierungsverfahren verwendet, um Primfaktoren unter einer
gewissen Schranke zu finden.

43
Die Methode benötigt im schlimmsten Fall

Schritte und die mittlere Laufzeit liegt etwa in der gleichen Größenordnung.

2.3 Faktorisierungsverfahren nach Fermat

Für sehr große Zahlen sind die Primfaktoren auf Anhieb nicht ohne Weiteres, wie
beispielsweise aus der Zifferndarstellung, erkennbar. Aus diesem Grund ist es in der Regel
sehr mühsam, eine Primfaktorzerlegung für eine bestimmte Ausgangszahl zu finden. Mit
dieser Problemstellung sah sich auch Pierre de Fermat konfrontiert und entwickelte daher eine
elegante Methode zur Bestimmung von Primfaktoren für zusammengesetzte Zahlen, die aber
nicht immer schnell zum Ergebnis führen muss und im schlechtesten Fall langsamer als die
Probedivision sein kann. Ausgangspunkt seiner Überlegungen war die Multiplikationsformel,
die schon im alten Babylon Verwendung fand. Wir haben diese Formel bereits in Kapitel 1
kennen gelernt. Sie besagt nichts anderes, als dass das Produkt zweier Zahlen durch die
Differenz zweier Quadrate ausgedrückt werden kann. Nachdem wir uns für das Produkt von
Zahlen interessieren, wählen wir folgende Darstellung für eine zusammengesetzte Zahl n:

n = x2 – y2 2.4

Können aus dieser Darstellung die Zahlen x und y ermittelt werden, so erhalten wir aus der
Beziehung x2 – y2 = (x – y) (x + y) das Produkt zweier Zahlen. Falls x – y und x + y
Primzahlen sind, haben wir unser gesuchtes Ergebnis gefunden und können unsere Suche
beenden, ansonsten müssen wir mit den gefundenen Zahlen in analoger Weise mit dem
Ansatz x2 – y2 fortfahren.

44
Wie können aus diesem Ansatz die Zahlen x und y ermittelt werden und wo liegen die
Schwierigkeiten?

Bei der Suche nach der Darstellung n = x 2 – y2 starten wir mit dem kleinstmöglichen Wert von
x, nämlich der Wurzel aus x. Weil wir uns im Bereich der ganzen Zahlen bewegen, wird
dieser Wert wieder auf eine ganze Zahl gerundet. Wir bezeichnen diesen Wert mit x0 und er
ist folglich der Startwert für die Suche der Quadratzahlen x und y. Zusätzlich benötigen wir
noch eine Laufvariable i = 0, 1, 2, 3, … Wir untersuchen nun, ob

(x0 + i)2 – n 2.5

eine Quadratzahl ist. Ist dies für i = i0 das erste Mal der Fall, so sind die Quadratzahlen x und
y gefunden. Man erhält dann folgende Darstellung für beide Quadratzahlen:

x2 = (x0 + i)2 2.6


y2 = x2 – n 2.7

Eventuell können sich daraus zwei numerisch schwierige Aufgaben ergeben:

1) Die Bestimmung von √n.


2) Die Prüfung, ob (x0 + i)2 – n eine Quadratzahl ist.

Falls n keine zusammengesetzte Zahl ist, sprich eine Primzahl, so sind insgesamt (n – 1) / 2
Schritte erforderlich, um das festzustellen. Man ist daher gut beraten, schon vor diesem
Schritt mit schnelleren Methoden, den so genannten Primzahlentests, zu bestimmen, ob es
sich bei der zu zerlegenden Zahl um eine Primzahl handelt.
Am besten lässt sich der fermatsche Algorithmus wieder an einem Beispiel veranschaulichen:
Wir wählen die zusammengesetzte Zahl 9991, ziehen aus dieser Zahl die Wurzel und runden
das Ergebnis auf den nächsten ganzzahligen Wert ab. Wir erhalten als Ergebnis den Startwert
x0 = 99. Wir durchlaufen nun so lange die Variable i, bis wir eine Quadratzahl finden.

i = 0: 992 – 9991 = – 190 → keine Quadratzahl


i = 1: 1002 – 9991 = 9 → bingo, eine Quadratzahl!

45
Nach nur zwei Schritten haben wir unser gesuchtes Ergebnis gefunden:

9991 = 1002 – 32

Aus der Zerlegung 1002 – 32 = (100 – 3) (100 + 3) finden wir die beiden Primfaktoren:

9991 = 97 * 103

Es ist schon erstaunlich, wie viele verschiedene Zugänge uns die Mathematik für ein und
dasselbe Problem eröffnen kann.

Von der Laufzeit ist das Faktorisierungsverfahren nach Fermat für jene Zahlen schnell, die
sich als Produkt n = cd schreiben lassen, wobei c und d in der Größenordnung von √n liegen.
Jedoch ist die Probedivision deutlich schneller, wenn sich die Ausgangszahl aus kleinen
Primfaktoren zusammensetzt.

Ich habe mir die Mühe gemacht, diesen Algorithmus in ein C-Programm zu implementieren,
das ich Ihnen nicht vorenthalten möchte. Diese Funktion unterliegt jedoch der Einschränkung,
dass sich die bekannte Zahl aus zwei Primfaktoren zusammensetzen muss. Ich hoffe, dieses
Programm ist ausreichend mit Kommentaren versehen!

//Faktorisierungsverfahren nach Fermat

#include <iostream>
#include <stdlib.h>
#include <stdio.h>
#include <math.h>

using namespace std;

//Initialisierung Array, die letzten beiden Ziffern der Zahl stehen für ein Quadrat
Ziffern_2[22] = {0, 1, 21, 41, 61, 81, 4, 24, 44, 64, 84, 9, 29, 49, 69, 89, 16, 36, 56, 76, 96,
25};

int primfakt(long double);

46
bool quadrat(long double);

int main(int argc, char *argv[])


{

//Eingabe einer Integerzahl


double Zahl;
cout << "Geben Sie eine Zahl ein:";
cin >> Zahl;

//Solange die Zahl nicht null ist, fortfahren!


while (Zahl != 0)
{
primfakt(Zahl);
cout << "Geben Sie eine Zahl ein:";
cin >> Zahl;
}
return 0;
}

//Diese Funktion zerlegt eine zusammengesetzte Zahl in ihre Primfaktoren


int primfakt (long double zus_zahl)
{

//Festlegung des Startwertes


double k = floor(sqrt(zus_zahl)) + 1;
double start = pow(k,2) – zus_zahl;

//Variablen für die Deklarierung von Zähler und Zwischenergebnis


double zaehler = 1, zaehler_neu = 0;
double zwis_erg = start;
double basis = 0;

//Grenze = (n – 3) / 2 für die Laufvariable i

47
double grenze = (zus_zahl – 3) / 2;

//Schalter, ob es sich um eine Quadratzahl handelt


bool schalter = 0;

//Prüfung, ob der Anfangswert x0 2 – n eine Quadratzahl ist


if (sqrt(start) – floor(sqrt(start)) == 0)
{
zaehler_neu = zaehler;
zaehler = grenze + 1;
basis = sqrt(start);
}
//Schleife über die Laufvariable i
for (int i = 1; zaehler ≤ grenze;i + = 2)
{
zaehler++;

//Berechnung der Quadratzahl nach der Formel (k + 1)2 = k2 + 2 k + 1


zwis_erg + = 2 * k + i;

//Bestimmung, ob die letzten beiden Ziffern für eine Quadratzahl in Frage kommen
schalter = quadrat(zwis_erg);
if (schalter == 1)
{
basis = sqrt(zwis_erg);

//Prüfung, ob der Wert (x0 + i)2 – n eine Quadratzahl ist


if ((basis – floor(basis))== 0)
{
zaehler_neu = zaehler;
// Wenn ja, dann Abbruch
zaehler = grenze + 1;
}
}

48
}
//Berechnung der Primzahlen p1 und p2.
double prim1 = k – basis + zaehler_neu – 1;
double prim2 = k + basis + zaehler_neu – 1;

//Ausgabe der Primzahlen


cout << "Primfaktorzerlegung:" << "\n" ;
cout << "1.Primfaktor:";
printf("%.100g \n", prim1);
cout << "2. Primfaktor: ";
printf("%.100g \n", prim2);
return 0;
}

//* Die letzten beiden Ziffern einer Zahl können für die Bestimmung einer Quadratzahl
herangezogen werden, wurde in dieser Funktion implementiert *//
bool quadrat(long double quadr)
{
long double vergleich = quadr – floor(quadr / 100) * 100;
for (int i = 0; i ≤ 21; i++)
{
if (Ziffern_2[i] == vergleich)
return 1;
}
return 0;
}

2.4 Quadratisches Sieb

49
Zu den schnellsten bekannten Algorithmen zur Faktorisierung großer Zahlen gehört das
quadratische Sieb, das Carl Pomerance im Jahr 1981 erfunden hat. Mit diesem Verfahren war
es das erste Mal möglich, Zahlen bis zu 100 Stellen in Primfaktoren zu zerlegen. Es kann
heute noch als effizientestes Verfahren zur Faktorisierung großer Zahlen mit weniger als 100
Stellen angesehen werden. 1994 gelang es einer Gemeinschaft von 600 Helfern aus 20
verschiedenen Ländern, die 129-stellige Zahl RSA-129 in einer Zeit von acht Monaten mit
diesem Verfahren zu zerlegen, die sich in voller Länge ausgeschrieben wie folgt darstellt:

114381625757888867669235779976146612010218296721242362562561842935706935245
733897830597123563958705058989075147599290026879543541

Diese zusammengesetzte Zahl kann als Produkt der beiden Primzahlen

3490529510847650949147849619903898133417764638493387843990820577
und
32769132993266709549961988190834461413177642967992942539798288533

geschrieben werden. Ihnen scheint vielleicht diese Zahl auf den ersten Blick nicht sehr groß
vorzukommen, man sollte aber bedenken, dass es immerhin 17 Jahre von der Formulierung
bis zur Dekodierung gedauert hat. Sie können sich zu Hause, wenn Sie in einer ruhigen
Stunde einmal Lust dazu haben, überlegen, wie viele Rechenschritte mit der Probedivision für
die Zerlegung dieser Zahl notwendig wären. Ich sage nur so viel: Mit Ihrem PC zu Hause sind
hierfür viele Jahre Rechenzeit erforderlich.

Wir wollen uns nun der mathematischen Formulierung dieser Methode widmen, die etwas
mehr zahlentheoretisches Verständnis erfordert, daher werde ich an manchen Stellen einen
Ausflug in die Basisthemen der Zahlentheorie machen. Ausgangspunkt wird wieder die
fermatsche Darstellung für zusammengesetzte Zahlen, also die Differenz zweier
Quadratzahlen, sein. Damit wir uns aber ein vollständiges Bild des quadratischen Siebs
machen können, werde ich Sie zunächst einmal in die Welt der Kongruenzen und Restklassen
entführen.
Betrachten wir die natürliche Zahl m. Wenn zwei ganze Zahlen a und b bei der Division durch
m denselben Rest lassen, wenn also

50
a = um + r und
b = vm + r,

so nennt man a und b kongruent modulo m und schreibt

a b mod m

Begriff und Schreibweise wurden bereits von Gauß eingeführt. Der Modulo-Operator mod
ermittelt den Rest für die Division zweier Zahlen. Betrachten wir die Definition anhand eines
konkreten Beispiels. Wir wählen a = 12, b = 37 und m = 5 und erhalten:

12 = 2 * 5 + 2
37 = 7 * 5 + 2

mit u = 2 und v = 7.

Fazit: Die Division von 12 und 37 durch 5 ergibt jeweils den Rest 2 oder anders formuliert:
12 ist kongruent 23 modulo 5.

12 37 mod 5

Die Kongruenz modulo m induziert also eine Klasseneinteilung in Restklassen. Für m = 5


erhalten wir die Restklassen 0, 1, 2, 3 und 4; das ist leicht einzusehen, wenn wir uns folgende
Liste ansehen:

0, 5, 10, 15, … lässt immer den Rest 0 bei Division durch 5 = Restklasse modulo 0
1, 6, 11, 16, … lässt immer den Rest 1 bei Division durch 5 = Restklasse modulo 1

2, 7, 12, 17, … lässt immer den Rest 2 bei Division durch 5 = Restklasse modulo 2
3, 8, 13, 18, … lässt immer den Rest 3 bei Division durch 5 = Restklasse modulo 3

4, 9, 14, 19, … lässt immer den Rest 4 bei Division durch 5 = Restklasse modulo 4

Es werden also alle Zahlen, die bei Division durch 5 denselben Rest bilden, in Gruppen, so
genannte Restklassen, zusammengefasst.
51
Nach einem kurzen Ausflug in die Restklassenbildung haben wir nun das mathematische
Rüstzeug gewonnen, uns mit dem quadratischen Sieb zu befassen. Wie schon eingangs
erwähnt, ist unsere Ausgangsbasis der Ansatz von Fermat:

n = x2 – y2 2.8

Ich werde Ihnen nun zeigen, worin die Idee dieses Verfahrens liegt. Zu Beginn werden Ihnen
der eine oder andere Gedankengang und auch Rechenschritt eventuell etwas schwierig
erscheinen, aus diesem Grund würde ich Ihnen empfehlen, gewisse Stellen mehrmals zu lesen
und zu überdenken. Es lohnt sich, denn es ist meiner Meinung nach ein sehr lehrreiches
Beispiel, wie man sich zahlentheoretischen Problemen nähern kann. Als ersten Schritt werden
wir eine andere Darstellung für den Ansatz von Fermat wählen, und zwar in der Schreibweise
der Kongruenz:

x2 y2 mod n 2.9

Die Äquivalenz zwischen 2.8 und 2.9 ist am einfachsten mit der Modulo-Operation
einzusehen. Dividieren wir die Gl. 2.8 auf der linken und rechten Seite durch n und betrachten
den Rest dazu. Wir dürfen natürlich diese Operation ausführen, da es sich links und rechts um
den gleichen Wert handelt und daher das Ergebnis bei einer Division durch n auf beiden
Seiten dasselbe ist. Der Rest auf der linken Seite von Gl. 2.8 ergibt, wenn n durch sich selbst
dividiert wird, logischerweise immer 0. Daher lässt sich Gleichung 2.8 umschreiben in

0 x2 – y2 mod n 2.10

Die Schreibweise kongruent modulo n ist uns schon aus der oben angeführten Erklärung
geläufig. In Worten bedeutet das nicht anderes, als dass die Zahl n die Differenz der beiden
Quadratzahlen x und y ohne Rest teilt. Daher können wir schreiben

n | x2 – y2 2.11

| ist hierbei der Divisionsoperator. Nach der binomischen Formel lässt sich x2 – y2 in
(x + y) (x – y) zerlegen. Eingesetzt in Gleichung 2.11 erhalten wir

52
n | (x + y) (x – y) 2.12

Sofern n nicht bereits einen der beiden Faktoren x + y oder x – y teilt, sind mit

ggT (n, x + y) 2.13


und
ggT (n, x – y) 2.14

zwei Faktoren gefunden. Wäre einer der beiden Faktoren ein Vielfaches von n, wäre uns
damit nicht viel geholfen, denn wir suchen die Primteiler von n. Die Bedingung, dass n weder
x + y noch x – y teilt, lässt sich nach der Definition von formulieren als

x ± y mod n 2.15

Unser Ziel ist es also, zwei Zahlen x und y zu finden, für die die folgenden Bedingungen
gelten:

x2 y2 mod n 2.16
x ± y mod n 2.17

Wenn die beiden Quadrate auf unterschiedliche Weise erzeugt werden können, haben wir gute
Chancen, zwei Zahlen zu finden, für die Gl. 2.17 zutrifft.
Ich denke, wir haben vorerst einmal genug Theorie über uns ergehen lassen. Wir werden uns
wieder einem Beispiel widmen, um das Ganze besser zu verstehen. Für unser Beispiel
brauchen wir eine Zahl, die sich aus zwei Primfaktoren zusammensetzt. Wir wählen die
Primzahlen p1 = 13 und p2 = 157. Die zusammengesetzte Zahl ist also n = p1 * p2 = 13 * 157
= 2041. Gehen wir nun davon aus, dass wir die Primfaktoren unserer Ausgangszahl n nicht
kennen und berechnen mit dem Verfahren des quadratischen Siebs die Primteiler.

Im ersten Schritt gehen wir wie bei der Faktorisierung nach Fermat vor und sehen uns die
Folge der Differenzen x2 – n an. Sprich: Wir ziehen wieder die Wurzel von n, runden die Zahl

53
auf den nächsten ganzzahligen Wert und bestimmen die Zahlenfolge mit der Laufvariablen
i = 1, 2, 3 usw.
Die Wurzel aus 2041 auf die nächste ganze Zahl gerundet ist x0 = 45. Wir beginnen nun mit
unserem Verfahren. Wir werden aber sehen, dass Carl Pomerance eine entscheidende
Verbesserung im Vergleich zu Fermats Verfahren einführte.

i (x0 + i)2 – n Ergebnis Ergebnis in Primfaktoren zerlegt


1 462 – 2041 75 3*5*5
2 472 – 2041 168 2*2*2*3*7
3 482 – 2041 263 2 * 2 * 3 * 41
4 492 – 2041 360 2*2*2*3*3*5
5 502 – 2041 459 3 * 3 * 51
6 512 – 2041 560 2*2*2*2*5*7

Tabelle 1

Sehen wir uns Tabelle 1 etwas genauer an. Wir haben Schrittweise beginnend mit i = 1 bis 6
die Differenz zwischen (x0 + i)2 – n berechnet und jedes Einzelergebnis in Primfaktoren
zerlegt. Auffällig ist dabei, dass bestimmte Differenzen relativ kleine Primfaktoren aufweisen,
beispielsweise 75 oder 360. In unserem Beispiel ist keine der angeführten Zahlen (x0 + i)2 – n
eine Quadratzahl, aber aus folgendem Produkt kann eine Quadratzahl gebildet werden:

75 * 168 * 360 * 560 = 504002 = y2

Warum stellt dieses Produkt gerade eine Quadratzahl dar?


Setzen wir dazu im Produkt anstatt der Zahlen die Primfaktoren aus Tabelle 1 ein und fassen
diese aufsteigend nach der Größe der Primzahlen in Exponentenschreibweise zusammen.

75 * 168 * 360 * 560 = 210 * 34 * 54 * 72

Quadratzahlen sind dadurch charakterisiert, dass für jede Basiszahl (= Primzahl) die Zahl im
Exponenten gerade sein muss, was einleuchtet, wenn die Umkehrfunktion, die Quadratwurzel,
betrachtet wird. Die Wurzel zu ziehen bedeutet ja nichts anderes, als die Zahl im Exponenten
zu halbieren und das ist nur dann ohne Nachkommastelle möglich, wenn es sich um eine

54
gerade Zahl handelt. Bei einer ungeraden Hochzahl würde bei einer Halbierung immer die
Nachkommastelle 0,5 erzeugt werden und das entspricht der Wurzel aus einer Zahl. Ziehen
wir die Wurzel aus einer Primzahl, so kann das Ergebnis nie eine ganze Zahl sein. So weit, so
gut.

In unserem Beispiel ist die Zahl 210 * 34 * 54 * 72 eine Quadratzahl, da alle Exponenten gerade
sind, wie wir leicht an den Zahlen 10, 4 und 2 erkennen können. An dieser Stelle muss ich
einen mathematischen Einschub machen, um mit dem quadratischen Sieb fortfahren zu
können. Schauen wir uns noch einmal die Folge der Differenz von (x0 + i)2 – n an, die wir zu
einer Quadratzahl ergänzt haben, und bezeichnen die Folge mit x12 – n, x22 – n usw. Bilden
wir nun das Produkt dieser Folge und den Rest modulo n.

(x12 – n) · ... · (xk2 – n) mod n 2.18

Durch die Operation modulo n fällt der Ausdruck n im Klammerausdruck weg, da bei der
Division einer Zahl durch sich selbst der Rest 0 übrig bleibt. Dann erhalten wir

x12 · ... · xk2 mod n 2.19

Gl. 2.18 und 2.19 angewandt auf unser Beispiel führen uns zu folgender Quadratzahl:

(462 – 2041) (472 – 2041) (492 – 2041) (512 – 2041) mod 2041
= 462 * 472 * 492 * 512 mod 2041
oder
(46 * 47 * 49 * 51)2 mod 2041 = 54028382 = x2

Wir haben zwei Zahlen x und y gefunden, die Gl. 2.16 erfüllen, denn

504002 54028382 mod 2041.

Jetzt müssen wir noch zeigen, dass die Bedingung aus Gl. 2.17 erfüllt wird, also

5402838 50400 mod 2041.

55
Bilden wir den Rest von 5402838 und 50400 mod 2041, so erhalten wir 311 und 1416. Da
sich beide Zahlen unterscheiden, ist auch Gl. 2.17 erfüllt. Mit dem größten gemeinsamen
Teiler können nun die Primfaktoren von 2041 bestimmt werden. Aus Gl. 2.14 ggT (x – y, n)
mit x = 1416 und y = 311 folgt ggT (1416 – 311, 2041) = 13. Wir haben unsere gesuchten
Primteiler gefunden.

Eine Innovation dieser Methode ist das Siebverfahren, das sich wie folgt beschreiben lässt: Es
wird zunächst einmal eine Faktorbasis festgelegt. Dies sind jene Primfaktoren, die innerhalb
einer festen Grenze B liegen. Lässt sich nun die Differenz x 2 – n in diese Primfaktoren
zerlegen, ist diese Zahl eine Basis für die Kombination zu der Quadratzahl
y = (x12 – n) (xk2 – n). Es kommen aber nur jene Zahlen in Frage, die zu einem Produkt von
Primzahlenpotenzen mit geraden Exponenten kombiniert werden können. In unserem Beispiel
wählen wir die Faktorbasis a = 2, 3, 5 und 7. Wir sehen anhand von Tabelle 1, dass sich
folgende Zahlen in diese Faktorbasis zerlegen lassen: 75, 168, 360 und 560. Diese Zahlen
konnten zu der Quadratzahl 504002 kombiniert werden. Doch wir sind mit unserer
Überlegung noch nicht ganz am Ende. Der Siebvorgang kann nämlich wie folgt durchgeführt
werden: Ist die Zahl x2 – n durch p teilbar, so sind alle in p-Schritten folgende Zahlen durch p
teilbar. Betrachten wir dazu folgende Gleichung, dann gilt für alle k:

x2 – n (x + k·p)2 – n mod p 2.20

Am Besten lässt sich Gl. 2.20 wieder an einem Beispiel verdeutlichen. Z. B. sind die Zahlen
75 und 360 durch 5 teilbar, daher sind nach obiger Gleichung auch die 6., 11. und 16. usw.
sowie die 9., 14. und 19. usw. Zahl durch 5 teilbar. Das heißt, wir brauchen ausgehend von
der ersten Zahl, die sich durch einen Primteiler unterhalb der Schranke B teilen lässt, immer
nur jene Zahlen zu betrachten, deren Position mit Referenzpunkt zur Ausgangszahl ein
Vielfaches von p ist.

Wir haben in diesem Kapitel eine sehr interessante und lehrreiche Methode zur
Primfaktorzerlegung kennen gelernt. Ich muss gestehen, diese Methode ist mathematisch
nicht ganz einfach zu durchblicken, aber ich hoffe, ich konnte so manchen interessierten Leser
für ein Stück Zahlentheorie mit all ihrer mathematischen Raffinesse begeistern. Carl
Pomerance hat uns mit diesem Verfahren ein kreatives Konzept zur Ermittlung von

56
Primfaktoren hinterlassen. Ich möchte Ihnen an dieser Stelle noch einmal kurz die
wesentlichen Schritte punktuell anführen:

1) Wahl einer bestimmten Faktorbasis a.


2) Ermittlung der Differenz (x0 + i)2 – n mit x0 ist Wurzel aus n und i = 1, 2, 3 …
3) Überprüfung, ob die Differenz (x0 + i)2 – n sich in die Faktorbasis a zerlegen lässt.
4) Siebvorgang mit jeder x + k·p-ten Zahl.
5) Kombination der Primzahlenpotenzen zu einer Quadratzahl y.
6) Bestimmung des größten gemeinsamen Teilers ggT (x + y, n) oder ggT (x – y, n).

Wir sehen anhand der aufgezählten Punkte, dass es sich um einen relativ komplizierten
Faktorisierungsalgorithmus handelt. Vielleicht hat der eine oder andere Leser jetzt Lust
bekommen, diesen Algorithmus in ein Programm umzusetzen. Ich würde hier auf jeden Fall
eine Programmiersprache wählen, die eine umfangreiche mathematische Bibliothek
beinhaltet; sehr gut erweist sich dafür die Programmiersprache C.

2.5 Ein Algorithmus aus eigener Idee

Ich würde mich selbst als eine mathematisch interessierte Person bezeichnen, die es in ihrer
Euphorie manchmal zu neuen mathematischen Herausforderungen hinzieht und die zuweilen
unermüdlich nach neuen mathematischen Ansätzen und Ideen zu suchen beginnt. Aber das ist
gerade das Besondere an der Mathematik, dass man bloß mit einem Buch, Bleistift und Blatt
Papier seinen neuen Gedanken und Spielereien stundenlang nachgehen und das –
wahrscheinlich in konträrer Ansicht zu vielen anderen Menschen – auch noch Spaß machen
kann.
Der Erfahrung nach verlieren viele Schüler das Interesse an der Mathematik schon sehr früh.
Das liegt wahrscheinlich daran, dass der Unterricht zu wenig übergreifend zwischen den
einzelnen Wissenschaftsgebieten gestaltet wird und die Anwendungsmöglichkeiten der
Mathematik ebenso zu wenig aufgezeigt werden. Meiner Meinung nach ist es relativ
langweilig, wenn man die Integralrechnung in der Schule lernen muss und dafür keine
praktischen Anwendungen zu sehen bekommt. Und von diesen gibt es reichlich. Zu trocken

57
sollte der Mathematikunterricht nicht ausfallen; vor allem würden sich viele Querbezüge in
die Physik herstellen lassen. In dieser gibt es Stoff genug, mathematischen
Anschauungsunterricht zu betreiben, der den schwer zu verarbeitenden Stoff genießbarer
macht. Daher werden wir uns im nächsten Kapitel mit den Anwendungsmöglichkeiten der
Zahlentheorie in der Kryptografie beschäftigen. Vorerst möchte ich Ihnen aber meinen selbst
entwickelten Algorithmus vorstellen. Die Beschäftigung mit dieser Problematik hat mich dazu
bewogen, dieses Buch zu schreiben. Daher habe ich mich nach langem Zögern dazu
entschlossen, diesen Algorithmus in dieses Buch aufzunehmen.
Meine Überlegungen beruhen, wie auch viele andere Faktorisierungsverfahren, auf der
Annahme der fermatschen Darstellung für zusammengesetzte Zahlen. Daher ist der
Ausgangspunkt meiner Betrachtungen folgender Ansatz:

n = x2 – y2 2.21

Jede ungerade Primzahl kann – wie jede ungerade Zahl – als Differenz zweier Quadratzahlen
geschrieben werden, was sich logisch aus dem fermatschen Ansatz ableiten lässt, da wir von
der Annahme ausgehen, dass n ungerade und das Produkt zweier ungerader Primzahlen ist.
Wir wählen diesen Ansatz der Einfachheit halber für unsere Berechnung – natürlich kann die
Annahme auf mehr als zwei Primfaktoren erweitert werden. Wir können also für jede
ungerade Primzahl p schreiben:

p = x2 – y2 2.22

Und mit unserer Annahme n = p1 * p2 folgt daraus

n = (a2 – b2) (c2 – d2) 2.23

Wir lösen die beiden Klammerausdrücke aus Gl. 2.23 auf und erhalten folgendes Ergebnis:
a2b2 – b2c2 – a2d2 + b2d2. Wir werden nun den Ausdruck –a2d2 – b2c2 um den Term –2 abcd und
den Ausdruck a2b2 + b2d2 um den Term 2 abcd erweitern; damit erhalten wir jeweils ein
vollständiges Quadrat. Wir können natürlich nur um einen Gesamtausdruck erweitern, der in
der Summe wieder 0 ergibt, was bei den beiden Termen 2 abcd und –2 abcd auch der Fall ist.
Also können wir schreiben:

58
(a2 – b2) (c2 – d2) = (a2b2 + 2 abcd + b2d2) – (a2d2 + 2 abcd + b2c2) = (ac + bd)2 – (ad + bc)2.

Die Darstellung (ac + bd)2 – (ad + bc)2 ist nicht eindeutig. Es gibt noch eine zweite
Darstellungsmöglichkeit, wenn in den beiden Klammerausdrücken statt dem positiven ein
negatives Vorzeichen gesetzt wird:

(a2 – b2) (c2 – d2) = (a2c2 – 2 abcd + b2d2) – (a2d2 – 2 abcd + b2c2) = (ac – bd)2 – (ad – bc)2.

n besitzt außer der Zerlegung n = p1 * p2 noch die triviale Zerlegung n = n * 1 oder anders
ausgedrückt:

n = (n + 1)2 / 4 – (n – 1)2 / 4 = n * 1

Vergleich man nun die Darstellung von n als Differenz zweier Quadrate mit
(ac + bd)2 – (ad + bc)2, so lässt sich folgendes Gleichungssystem aufstellen:

ac + bd = (n + 1) / 2
ad + bc = (n – 1) / 2

Lösen wir dieses Gleichungssystem nach b auf, so ergibt sich folgender Zusammenhang
zwischen b und d:

b = ((n – 1) / 2 – d) / (2 d + 1) 2.24

Betrachten wir dazu wieder ein konkretes Beispiel: Wir ermitteln uns mit der Formel von
Euler zunächst zwei Primfaktoren (diese Formel haben wir bereits in Kapitel 1 behandelt).

Die Formel von Euler zur Generierung von Primzahlen lautet: x2 – x + 41.

Wir setzen x = 3 und x = 5 und erhalten aus der Formel von Euler die beiden Primzahlen
p1 = 47 und p2 = 61 und n = 47 * 61 = 2867. Diese Zahl gilt es nun mit der Darstellung aus Gl.
2.24 zu faktorisieren. Zu diesem Zweck führen wir eine Laufvariable d = 1, 2, 3 usw. ein.
Bestimmen wir nun (n – 1) / 2 und führen schrittweise bei d = 1 beginnend unsere

59
Berechnungen durch, so lange, bis b einen ganzen Wert annimmt, dann erhalten wir folgendes
Ergebnis:

(n – 1) / 2 = (2867 – 1) / 2 = 1433

d =1 : b = (1433 – 1) / 3 = 1432 / 3 – nicht ganzzahlig


d = 2 : b = (1433 – 2) / 5 = 1431 / 5 – nicht ganzzahlig
d = 3 : b = (1433 – 3) / 7 = 1430 / 7 – nicht ganzzahlig
d = 4 : b = (1433 – 4) / 9 = 1429 / 9 – nicht ganzzahlig
.
.
.
d = 23 : b = (1433 – 23) / 47 = 30 → bingo, wir haben einen ganzzahligen Wert gefunden!

Mit den Gleichungen p1 = 2 * d + 1 und p2 = 2 * b + 1 folgen die Primzahlen 47 und 61 und


somit haben wir die Zahl n = 2867 in ihre Primfaktoren zerlegt.
Wo liegt nun die obere Grenze für die Laufvariable d? Dazu müssen wir folgende
Ungleichung lösen:

b = ((n – 1) / 2 – d) / (2 d + 1) ≥ 1

Es ist einleuchtend, dass man b ≥ 1 annehmen darf, da 1 der kleinste Wert ist, der gerade noch
mit 2 * b + 1 zu einer ungeraden Primzahl führt, nämlich zu der 3. Würden wir von b = 0
ausgehen, wäre das Ergebnis für 2 * b + 1 = 1 und dann wäre n keine zusammengesetzte Zahl,
sondern eine Primzahl. Lösen wir die Ungleichung nach d auf, so führt das zu der oberen
Schranke:

d ≤ (n - 3) / 6

Ich möchte jedoch anführen, dass es sich hierbei um einen nicht allzu schnellen Algorithmus
handelt. Das Verfahren kann aber für die Primfaktorisierung bis zu einer etwa 20-stelligen
zusammengesetzten Zahl herangezogen werden.

2.6 Pollard-p-1-Methode

60
Es gibt Zahlen mit bestimmten Eigenschaften, die mit geeigneten Faktorisierungsmethoden,
wie beispielsweise der Pollard-p-1-Methode, relativ gut zerlegt werden können. Solche
Zahlen müssen bei Verschlüsselungsverfahren, die auf zahlentheoretischen Ansätzen beruhen,
wie z. B. das RSA-Verfahren, vermieden werden. Die p-1-Methode geht auf John M. Pollard
zurück, der sie 1974 beschrieben hat. Das p-1-Verfahren ist für zusammengesetzte Zahlen n
mit einem Primfaktor p geeignet, wobei aber p – 1 in kleine Primfaktoren zerlegt werden
kann. Dann ist es möglich, ein Vielfaches k von p – 1 zu bestimmen, ohne p zu kennen.
Ausgangspunkt in unserer Überlegung ist der kleine fermatsche Satz, den wir bereits in
Kapitel 1 erläutert haben. Dieser beruht darauf, dass für eine Primzahl p der Ausdruck ap-1 – 1
durch p ohne Rest geteilt werden kann oder in kongruenter Schreibweise:

ap-1 1 mod p 2.25

Potenzieren wir nun Gl. 2.25 mit k, das dem Vielfachen von p – 1 entspricht, erhalten wir

a(p-1)k 1k mod p 2.26

1 hoch k ergibt natürlich immer 1 und a(p-1)k kann auch in der Form a(p-1)ak geschrieben
werden. Also kann Gl. 2.26 wie folgt formuliert werden:

ap-1ak 1 mod p 2.27

Nachdem aber ap-1 1 mod p und für Restklassenverknüpfungen das Kommutativgesetz gilt,
lässt sich Gl. 2.27 zu

ak 1 mod p 2.28

umformen. Gl. 2.28 ist somit die Basis für die Berechnung der Primfaktoren einer
zusammengesetzten Zahl, vorausgesetzt, dass a und p teilerfremde Zahlen sind, sprich
ggT (a, p) = 1. Da p ein Teiler von ak – 1 ist und mit der zusätzlichen Bedingung, dass a k – 1
nicht durch n teilbar ist, haben wir mit ggT (ak – 1, n) einen echten Teiler von n gefunden.
Damit ist n faktorisiert.

61
Der Algorithmus von Pollard verwendet als Kandidaten für k die Produkte aller
Primzahlenpotenzen, die nicht größer als eine bestimmte Schranke B sind. Wir betrachten zur
Veranschaulichung des Pollard-p-1-Algorithmus ein Beispiel: Wir wählen als
zusammengesetzte Zahl n = 27869 und a = 2. Mit Hilfe des euklidischen Algorithmus kann
man zeigen, dass ggT (3, 27869) = 1 ist. Als obere Schranke wählen wir B = 8, d. h., es
kommen für k alle Produkte der Primzahlenpotenzen der Primzahlen 2, 3, 5 und 7 in Frage,
die nicht größer als 8 sind. Wir gehen nun schrittweise vor und beginnen mit den kleinsten
Primzahlenpotenzen, die innerhalb dieser Schranke liegen:

k = 2: ggT (22 – 1, 27869) = 1


k = 3: ggT (23 – 1, 27869) = 1
k = 5: ggT (25 – 1, 27869) = 31 → bingo, wir haben einen Teiler von n = 27869 gefunden

Die Zerlegung der Zahl n = 27869 in ihre Primfaktoren lautet:

27869 = 29 * 31 * 31

Eine Weiterentwicklung der Pollard-p-1-Methode ist die Faktorisierungsmethode mit


elliptischen Kurven. Diese funktioniert für beliebig zusammengesetzte Zahlen.

2.7 Pollard-Rho-Methode

In diesem Abschnitt werden wir uns mit einem probalistischen Algorithmus beschäftigen, der
von John M. Pollard im Jahr 1975 vorgestellt wurde. Dieses Verfahren beruht auf einer
zufälligen Ermittlung der Primfaktoren einer zusammengesetzten Zahl, wobei die Laufzeit im
Wesentlichen von der Größe des kleinsten Primfaktors abhängt. Dieses Verfahren ist für
zusammengesetzte Zahlen mit relativ kleinen Primfaktoren besonders gut geeignet.
Ausgangspunkt unserer Betrachtung ist eine Funktion, mit der natürliche Zahlen aufeinander
abgebildet werden können. Aus dieser Funktion können mit einem bestimmten Startwert x0
Pseudozusfallszahlen in bestimmten iterativen Schritten generiert werden. Die
Pseudozufallszahlen werden aus den Funktionswerten x0, f (x0), f (f (x0)) usw. berechnet.
Gehen wir von der Annahme aus, dass wir bereits den Primfaktor p kennen, so können wir
den Funktionswert modulo p bestimmen. Mit der Operation modulo p können nur p

62
verschiedene Funktionswerte berechnet werden und nach einer bestimmten Anzahl von
Schritten wird sich der Wert der Folge wiederholen, sprich: die Folge wird irgendwann
periodisch.
Aus dem Verhalten der Folge entstand der Name des Verfahrens, das sich aus der Form eines
Kreises, der bildlich gesehen eine periodische Funktion beschreibt, ergibt. Mit dem
Anfangswert, der wie ein Stiel in den Kreis mündet, ergänzt sich das Bild zu dem
griechischen Buchstaben ρ.
Sind nun x und y zwei Zahlen der Folge der Pseudozufallszahlen, für die gilt

x ≡ y modulo p 2.29

so erhalten wir mit ggT (x – y, n) ein Vielfaches von p und in vielen Fällen resultiert daraus
ein echter Teiler von n. Da wir aber p nicht kennen und somit die Periodenlänge modulo p
nicht berechnet werden kann, wählt man folgende Vorgehensweise bei der Pollard-Rho-
Methode:

- Im ersten Schritt werden x und y durch die gleiche Zufallszahl s initialisiert


- Es wird so lange x = f (x) mod n, y =f (f (y)) mod n berechnet, bis die Bedingung
ggT (x – y, n) erfüllt ist
- Die Berechnung wird so lange durchgeführt, bis die Zahl aus ggT (x – y, n)
ungleich n und ein echter Teiler von n ist. Wenn das nicht der Fall ist, muss die
Berechnung schlimmstenfalls immer wieder mit neuen Startwerten x0 so lange
wiederholt werden, wie die Länge der Periode ist.

Um den Algorithmus zu veranschaulichen, werden wir eine zusammengesetzte Zahl in ihre


Primfaktoren zerlegen. Ausgangspunkt unseres Beispiels ist die zusammengesetzte Zahl
n = 703. In seiner ursprünglichen Version wählte John Pollard für die zu betrachtende
Funktion folgenden Ansatz:

f (x) = x2 + a 2.30

In unserem Beispiel wählen wir für a = 23, damit erhalten wir für die Funktion f (x) = x 2 + 23.
Als Zufallszahl legen wir s = 13 fest. Nun können wir mit der Ermittlung der Primfaktoren
beginnen:

63
1. Schritt: Initialisierung

x0 = y0 = s = 13

2. Schritt: Bestimmung x1 = f (x0) und y1 = f (f (y0))

x1 = f (x0) = f (13) = 132 + 23 = 192 ≡ 192 mod 703


y1 = f (f (y0)) = f (f (13) = 1922 + 23 = 36887 ≡ 331 mod 703

ggT (x1 – y1, n) = ggT (192 – 331, 703) = 1

3.Schritt: Bestimmung x2 = f (x1) und y2 = f (f (y1))

x2 = f (x12) = f (192) = 1922 + 23 = 36887 ≡ 331 mod 703


y2 = f (f (y1)) = f (f (331)) → um f (331) zu bestimmen, benötigen wir einen Zwischenschritt:

f (331) = 3312 + 23 = 109584 ≡ 619 mod 703

y2 = f(f (331)) = 6192 + 23 = 383184 ≡ 49 mod 703

ggT (x2 – y2, n) = ggT (331 – 49, 703) = 1

4.Schritt: Bestimmung x3 = f (x2) und y3 = f (f (y2))

x3 = f (x2) = f (311) = 3312 + 23 = 109584 ≡ 619 mod 703


y3 = f (f (y2)) = f (f (49)) → um f (49) zu bestimmen, benötigen wir erneut einen
Zwischenschritt:

f (49) = 492 + 23 = 2424 ≡ 315 mod 703


y3 = f(f (49)) = 3152 + 23 = 99248 ≡ 125 mod 703

64
ggT (x3 – y3, n) = ggT (619 – 125, 703) = 19 → bingo, wir haben einen Primfaktor gefunden

Nach nur vier Rechenschritten hat uns der Ansatz von John Pollard zum gewünschten
Ergebnis geführt. Hätte man hingegen im Vergleich dazu die Faktorisierungsmethode der
Probedivision auf die Zahl n = 703 angewandt, die in der Praxis bei der Ermittlung kleiner
Primfaktoren üblich ist, wären bei der Überprüfung etwa doppelt so viele Rechenschritte
erforderlich gewesen, wenn man die Rechung bloß auf die fraglichen Primzahlen begrenzt
hätte. Somit ist die Methode von John Pollard ein gutes Instrumentarium zur Überprüfung
kleiner Primfaktoren einer zusammengesetzten Zahl.

Die Zahl n = 703 in Primfaktoren zerlegt lautet demnach:

703 = 19 * 37

Ich möchte an dieser Stelle meine Ausführungen über Faktorisierungsverfahren beenden. Es


ließe sich noch eine Reihe anderer Verfahren beschreiben, ich denke aber, das würde den
Rahmen des Buches sprengen. Trotzdem konnten wir einen grundlegenden Einblick in die
Welt der Faktorisierungsalgorithmen gewinnen, von den eher langsamen und alten Verfahren
der Probedivision und fermatschen Methode bis hin zu den sehr schnellen und trickreichen
Methoden des quadratischen Siebs, der Pollard-p-1-Methode und Pollard-Rho-Methode.
Nebenbei konnte ich Ihnen eine Eigenentwicklung präsentieren, die – wie ich hoffe –
vielleicht den einen oder anderen Leser möglicherweise anspornen kann, eine eigene
Faktorisierungsmethode zu entwerfen. Wie wir gesehen haben, gibt es viele verschiedene
Wege, ein zahlentheoretisches Problem wie das der Primfaktorzerlegung zu lösen. Ich möchte
daher jene, die sich auf dem Gebiet der Faktorisierung vertiefen wollen, noch auf folgende
Algorithmen aufmerksam machen:

- Faktorisierungsmethode von Lehman


- Pollard-p+1-Methode
- Methode der elliptischen Kurven
- Zahlkörpersieb

Im nächsten Kapitel werden wir uns einen geschichtlichen Überblick über die Entwicklung
der Verschlüsselungstechniken verschaffen. Mit diesem Rückblick werden wir neben der

65
historischen Entwicklung auch die Kunst der Verschlüsselung kennen lernen. Ebenso werden
wir anhand der RSA-Verschlüsselung ein typisches Beispiel einer zahlentheoretischen
Anwendung diskutieren und wir werden sehen, wie eng die Kryptografie mit bestimmten
Themen der Zahlentheorie verwoben ist.

66
3. Geschichte und Kunst der Verschlüsselung

Das Wort „Kryptografie“ stammt aus dem Griechischen und bedeutet soviel wie „verborgen
schreiben“. Mit diesen Wörtern wird eigentlich schon das Wesentliche über die Kunst der
Verschlüsselung zum Ausdruck gebracht. Erfolgt ein Austausch von Nachrichten zwischen
Sender und Empfänger, sollte es einem Dritten nicht möglich sein, diese Nachrichten zu
lesen. Dazu bedarf es komplizierter Verschlüsselungstechniken, die aus einem Klartext einen
Geheimtext generieren. Entscheidend dabei ist, verschlüsselte Nachrichten vor Angriffen
eines Dritten zu schützen. Dass das in der Geschichte der Verschlüsselung nicht immer
gelang, werden wir anhand bestimmter historischer Ereignisse sehen, die manchmal sogar zu
einer Wende in der Geschichte führten.
Gelangt nun die Nachricht an seinen Adressaten, so sollte der Geheimtext wieder in einen
leserlichen Klartext umgewandelt werden können. Dazu ist allerdings der Zugriff auf einen
Schlüssel erforderlich, mit dem der Klartext zuvor in einen Geheimtext verschlüsselt wurde
und mit dem auch der Umkehrprozess ermöglicht werden kann. Lange Zeit waren für die
Erzeugung, Aufbewahrung und Versendung solcher Schlüssel gewaltige logistische
Anstrengungen und Sicherheitsvorkehrungen notwendig – erst vor Kurzem wurden diese
Probleme mit neuen Verschlüsselungstechniken mit einem Schlag gelöst. Wir werden später
noch näher darauf eingehen. In Kapitel 3 werden wir nun mehr über folgende Themen
erfahren: Geschichte der Verschlüsselung, Verschlüsselungsmethoden, Bezüge zur
Zahlentheorie und zukünftige Entwicklungen. Es handelte sich um einen langen Kraftakt in
der Kunst der Verschlüsselung von der Antike bis heute, wie wir im nächsten Abschnitt sehen
werden.

3.1 Geschichte der Verschlüsselung von der Antike bis ins Internetzeitalter

Obwohl die Kryptografie auf eine lange und komplexe Geschichte zurückblicken kann,
begann diese sich erst im 20. Jahrhundert zu einer systematischen Wissenschaftsdisziplin zu
entwickeln. Im Zeitalter des Internets wurde dann der Zugang für jedermann möglich und so
ist es für uns heutzutage beinahe zu einer Selbstverständlichkeit geworden, Daten sicher und

67
schnell auszutauschen. Die Zahlentheorie hat eine große Portion zu dieser Entwicklung
beigetragen.
Schon in der Antike wurden unübliche Hieroglyphen zum Austausch geheimer Botschaften
benutzt. Die ersten Aufzeichnungen stammen aus Ägypten um etwa 1900 v. Chr. So wurden
bei Pharaonen untypische Zeichen in Gräbern verewigt, deren Sinn und Zweck bis heute nicht
bekannt ist. Im eigentlichen Sinne waren die ersten geheimen Botschaften keine
verschlüsselten Texte, sondern die überbrachten Nachrichten wurden lediglich versteckt.
Beispielsweise wurden Nachrichten in Holzplatten geritzt und mit Wachs überzogen oder man
tätowierte Sklaven die Nachricht auf ihre Glatze und wartete, bis das Haar nachgewachsen
war und schickte sie dann mit der Botschaft zum Empfänger. Die ersten systematischen
Verschlüsselungen findet man bereits im alten Testament – dort wurde beispielsweise das
Wort „Babel“ an manchen Stellen durch das Wort „Sheshech“ ersetzt. Die
Verschlüsselungstechnik funktionierte nach einem Substitutionsalgorithmus, in dem der erste
Buchstabe mit dem letzten, der zweite Buchstaben mit dem vorletzten usw. vertauscht wurde.
Daraus ergab sich dann das umgekehrte Alphabet. Das gleiche Prinzip wurde um 600 v. Chr.
in Palästina in der hebräischen Geheimschrift „Atbash“ angewandt.
Ein nach Caesar benanntes Verschlüsselungsverfahren, die so genannte „Caesar-Cipher“,
bediente sich ebenfalls einer Substitutionstechnik. Nachdem damals nur sehr wenige Leute bis
drei zählen konnten, wurde ein Buchstabe durch einen Buchstaben, der drei Stellen weiter im
Alphabet stand, ersetzt. Dieses Verfahren hatte aber auf Grund des zunehmenden
Bildungsniveaus nur kurze Zeit Erfolg. Im Laufe der Zeit wurden die
Verschlüsselungsverfahren immer komplizierter und das Klartextalphabet, womit die
ursprüngliche Nachricht geschrieben war, wurde mit immer besser entwickelten Methoden –
durch das Geheimtextalphabet, das an Stelle der Klarbuchstaben trat – ersetzt. Grundsätzlich
lässt sich feststellen, dass die Sicherheit eines Kryptosystems nicht auf der Geheimhaltung des
Algorithmus, sondern auf der Geheimhaltung des Schlüssels beruht. Nicht nur in der
Geheimhaltung dessen, sondern auch in der Anzahl der möglichen Kombinationen.
Beispielsweise hat die Caesar-Verschiebung insgesamt nur 25 mögliche Schlüssel. Wenn nun
der Gegner die verschlüsselte Nachricht abfängt und vermutet, dass die Caesar-Verschiebung
als Verschlüsselungsmethode gebraucht wurde, muss er nur diese 25 Möglichkeiten prüfen.
Ein wesentlich sichereres Verfahren beruht darauf, einen Klarbuchstaben nach dem
Zufallsprinzip mit einem Geheimbuchstaben zu paaren, was schon 400 v. Chr. als 45. von 64
Künsten im Kamasutra beschrieben wurde. Die Kunst der Geheimschrift war den Frauen von
damals gewidmet, um ihre Affären geheim zu halten. Der Vorteil dieser

68
Verschlüsselungsmethode lag in der riesigen Anzahl von Kombinationen. Selbst wenn der
Gegner eine Vermutung über den Algorithmus anstellen konnte, bestand gute Hoffnung, dass
er den Schlüssel nicht erraten würde. Der Schlüssel, der in diesem Fall die zufällige
Zuordnung von Klar- auf Geheimtextalphabet ist, musste natürlich streng geheim bleiben. Der
Oberbegriff für diese Substitutionsmethode, bei der das Klartextalphabet durch Buchstaben,
Symbole oder Zahlen ersetzt wird, nennt man monoalphabetische Verschlüsselung. Diese galt
lange als unverwundbar, doch wie so oft in der Geschichte wurde man eines Besseren belehrt.

Nachdem das Substitutionsverfahren viele Jahrhunderte die höchste Verschlüsselungskunst


war, gelang der Durchbruch zur Entschlüsselung im arabischen Raum um 800 bis 1200 n.
Chr. Damals steckte Europa noch tief im Mittelalter. Die arabischen Gelehrten dieser Zeit
sind die Erfinder der Kryptoanalyse, also der Wissenschaft der Entschlüsselung eines
Geheimtextes ohne Kenntnis des Schlüssels. In der Blütezeit der islamischen Kultur und
Wissenschaft wurde durch eine Mischung aus Mathematik, Statistik und Sprachwissenschaft
die Methode der Häufigkeitsanalyse geboren, die das Ende der monoalphabetischen
Substitutionsmethode besiegelte. Aus dem Studium des Korans entwickelten arabische
Theologen diese Technik, in dem sie die Anzahl der Wörter und Buchstaben zählten. Im
Arabischen kommen beispielsweise das A und das l am häufigsten, jedoch das J zehnmal
weniger häufig vor. Diese scheinbar harmlose Beobachtung ist aber genau der Schlüssel zur
Dechiffrierung der damaligen geheimen Botschaften. Analysiert man den fraglichen
Geheimtext und stellt die Häufigkeit jedes Buchstaben fest, lässt sich aus einem Vergleich mit
der Häufigkeit der Buchstaben in der jeweiligen Sprache eine Paarung nach der Häufigkeit
herstellen. Im Deutschen ist das E der häufigste Buchstabe, wäre jetzt der häufigste Buchstabe
im Geheimtext das J, dann steht er wahrscheinlich für das E. Somit lassen sich durch Analyse
der Häufigkeit der Buchstaben in der chiffrierten Nachricht die Buchstaben im Geheimtext
entschlüsseln.
Ein geschichtlich interessantes Ereignis steht im Zusammenhang mit der Entschlüsselung
eines geheimen Briefwechsels zwischen Maria Stewart und ihren katholischen Anhängern,
der zu Maria Stewarts Enthauptung führte. Anthony Babington plante im Jahr 1586
gemeinsam mit seinen befreundeten Katholiken eine Verschwörung, die zum Ziel hatte, die
protestantische englische Königin Elisabeth I. zu ermorden. Diese Verschwörung ging als
„Babington-Komplott“ in die Geschichte ein. Der Überbringer dieser Botschaft, Maria
Stewart, saß zu diesem Zeitpunkt gerade im Gefängnis war ein Spion der englischen Königin
– so kamen die Mordabsichten schnell ans Tageslicht. Die Briefe zwischen Maria Stewart und

69
ihren Anhängern waren zwar verschlüsselt worden, aber mit der Kenntnis der
Häufigkeitsanalyse war es in dieser Zeit keine Schwierigkeit mehr, die Texte zu dechiffrieren.
Sie wurde auf Grund der erdrückenden Beweislage von einem Gericht schuldig gesprochen
und am 8. Februar 1586 in Anwesenheit von 300 Zuschauern enthauptet. Die Fortschritte in
der Kryptoanalyse wurden Maria Stewart zum schicksalhaften Verhängnis.
Nachdem die Kryptologen ein Verfahren entwickelt hatten, um das damals sicherste
Verschlüsselungskonzept zu sprengen, lag nun der Ball wieder bei den Kryptografen, eine
neue, stärkere Verschlüsselung zu entwickeln. Die Vorarbeiten dafür lieferte der Florentiner
Mathematiker Leon Battista Alberti, der im Jahr 1640 ein verbessertes Konzept, aufbauend
auf der monoalphabetischen Verschlüsselung, vorschlug. Seine Idee lag darin, statt einem
einzigen Geheimtextalphabet zwei oder mehrere Geheimtextalphabete als Schlüssel zu
verwenden. Damit konnte ein Buchstabe aus dem Klartext in mehrere unterschiedliche
Buchstaben des Geheimtextes chiffriert werden. Alberti gelang hiermit zwar der bedeutendste
Durchbruch in der Kryptografie seit über tausend Jahren, doch er entwickelte seine Idee nicht
zu einem ausgereiften Verschlüsselungssystem weiter. Den entscheidenden Schritt dazu
machte der französische Diplomat Blaise de Vigenère mit der nach ihm benannten Vigenère-
Verschlüsselung, die dem neuen Verschlüsselungssystem seine endgültige Gestalt gab. Die
Stärke bei dieser Verschlüsselung beruht darauf, dass nicht nur ein, sondern 26
Geheimtextalphabete benutzt werden, um eine Botschaft zu verschlüsseln. Als ersten Schritt
zeichnet man ein so genanntes Vigenère-Quadrat. Unter einem Klartextalphabet sind 26
Geheimtextalphabete aufgelistet und jedes davon um einen Buchstaben gegenüber dem
Vorgänger verschoben, wie es aus Tabelle 2 hervorgeht.

Klar A B C D E F G H I J K L M N O P Q R S T U V W X Y Z
1 B C D E F G H I J K L M N O P Q R S T U V WX Y Z A
2 C D E F G H I J K L M N O P Q R S T U V WX Y Z A B
3 D E F G H I J K L M N O P Q R S T U V WX Y Z A B C
4 E F G H I J K L M N O P Q R S T U V WX Y Z A B C D
5 F G H I J K L M N O P Q R S T U V WX Y Z A B C D E
6 G H I J K L M N O P Q R S T U V WX Y Z A B C D E F
7 H I J K L M N O P Q R S T U V WX Y Z A B C D E F G
8 I J K L M N O P Q R S T U V WX Y Z A B C D E F G H
9 J K L M N O P Q R S T U V WX Y Z A B C D E F G H I
10 K L M N O P Q R S T U V WX Y Z A B C D E F G H I J

70
11 L M N O P Q R S T U V WX Y Z A B C D E F G H I J K
12 M N O P Q R S T U V WX Y Z A B C D E F G H I J K L
13 N O P Q R S T U V WX Y Z A B C D E F G H I J K L M
14 O P Q R S T U V WX Y Z A B C D E F G H I J K L M N
15 P Q R S T U V WX Y Z A B C D E F G H I J K L M N O
16 Q R S T U V WX Y Z A B C D E F G H I J K L M N O P
17 R S T U V WX Y Z A B C D E F G H I J K L M N O P Q
18 S T U V WX Y Z A B C D E F G H I J K L M N O P Q R
19 T U V WX Y Z A B C D E F G H I J K L M N O P Q R S
20 U V WX Y Z A B C D E F G H I J K L M N O P Q R S T
21 V WX Y Z A B C D E F G H I J K L M N O P Q R S T U
22 WX Y Z A B C D E F G H I J K L M N O P Q R S T U V
23 X Y Z A B C D E F G H I J K L M N O P Q R S T U V W
24 Y Z A B C D E F G H I J K L M N O P Q R S T U V WX
25 Z A B C D E F G H I J K L M N O P Q R S T U V WX Y
26 A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

Tabelle 2: Vigenère-Quadrat

Um nun eine Nachricht zu verschlüsseln, muss als Erstes ein Schlüssel zwischen dem Sender
und dem Empfänger festgelegt werden. Dieser kann aus einem Wort, einem Satz oder einem
ganzen Text bestehen. Danach wird er entsprechend der Länge der zu verschlüsselten
Nachricht mehrmals hintereinander geschrieben. Nun folgt der geheime Text, den man unter
die Anreihung des Schlüssels notiert. Dazu betrachten wir folgendes Beispiel: Wir definieren
als Schlüssel das Wort QUADRAT und wollen folgenden Text in eine geheime Botschaft
umwandeln: Kunst der Verschlüsselung. Schreiben wir nun das Wort QUADRAT in
wiederholender Sequenz über den Klartext, erhalten wir folgende Darstellung:

QUADRATQUADRATQUADR (Anreihung des Schlüssels)


Kunst der Verschlüsselung (Klartext)

Nun können wir mit der eigentlichen Verschlüsselung beginnen. Um in unserem Beispiel den
ersten Klarbuchstaben zu verschlüsseln, betrachten wir im Vigenère-Quadrat die Q-Zeile, da
sich über dem K von „Kunst der Verschlüsselung“ der Schlüsselbuchstabe Q befindet. Die Q-
Zeile entspricht nun dem Geheimtextalphabet, das zur Verschlüsselung von K verwendet

71
wird. Da über dem Vigenère-Quadrat ein Klartextalphabet steht, fällt es nicht schwer, aus
diesem das K herauszusuchen und dann senkrecht nach unten bis zur Q-Zeile zu gehen. Dabei
erhält man den Geheimbuchstaben A. Also wird der erste Klarbuchstabe K im Geheimtext
durch ein A ersetzt. Man kann nun immer nach dem gleichen Schema fortfahren und daraus
den Geheimtext generieren. Ich möchte es an dieser Stelle dem Leser überlassen, den Klartext
„Kunst der Verschlüsselung“ in einen Geheimtext zu chiffrieren.
An diesem Beispiel kann man deutlich das Hauptmerkmal der polyalphabetischen
Verschlüsselung erkennen. Derselbe Klarbuchstabe wird im Geheimtext nicht immer vom
gleichen Geheimbuchstaben dargestellt. Trotz der Komplexität und extrem hohen Sicherheit
gelang es einem exzentrischen Briten namens Charles Babbage Mitte des 19. Jahrhunderts,
diese Verschlüsselungsmethode zu knacken. Das Genie Charles Babbage ist vor allem für den
ersten Entwurf eines modernen Computers bekannt geworden.
Am Ende des 19. Jahrhunderts hatten die Kryptologen wieder mal den Wettstreit um die
Vorherrschaftsstellung in der Kunst der Verschlüsselung und Entschlüsselung gewonnen und
so begann die Suche nach einem neuen Verfahren, das durch die Entdeckung des italienischen
Physikers Guglielmo Marconi notwendiger denn je wurde. Marconi ist der Entdecker des
ersten Funkgeräts, mit dem Nachrichten zwischen Sender und Empfänger drahtlos übermittelt
werden konnten. Zuvor war der Telegraf schon seit einem halben Jahrhundert in Gebrauch,
doch für diese Art der Telekommunikation war bis dato immer eine Drahtverbindung
notwendig gewesen. Der Vorteil in der drahtlosen Verbindung durch Funkwellen lag in der
direkten Kommunikation zwischen beliebigen Orten – damit waren Funkgeräte ideale
Instrumente für militärische Zwecke. Nachdem sich Funkwellen in alle Richtungen ausbreiten
können, liegt der entscheidende Nachteil darin, dass diese nicht nur den gewollten Empfänger,
sondern auch unweigerlich den Gegner erreichen können. Eine zuverlässige Verschlüsselung
wurde damit unumgänglich, damit der Gegner an der Entschlüsselung militärischer
Meldungen gehindert werden konnte.
Mit Ausbruch des Ersten Weltkriegs waren alle Kriegsgegner darauf konzentriert, die
Möglichkeiten des Funkverkehrs voll auszuschöpfen; zugleich hatte man aber bis dahin kein
sicheres Konzept für die Verschlüsselung von Nachrichten entdeckt. Trotz vieler
Bemühungen seitens der Kryptografen gab es eine Reihe kryptografischer Fehlschläge. In der
Zeit zwischen 1914 und 1918 wurden zwar einige neue Verschlüsselungsmethoden entdeckt,
aber diese hielten den Entschlüsselungskünsten der Kryptologen nicht lange stand. Erst mit
Ende des Ersten Weltkriegs begann sich das Blatt wieder zu Gunsten der Kryptografen zu
wenden. Der deutsche Erfinder Arthur Scherbius entwarf als Erster eine elektronisch-

72
mechanische Chiffriermaschine, die er „Enigma“ nannte und für die er 1918 sein erstes Patent
erwarb. Sie sollte die gefürchteste Chiffriermaschine der Geschichte werden. Die „Enigma“
bestand aus mehreren Walzen und einer Schreibmaschinentastatur. Wurde eine Taste
gedrückt, floss über elektronische Kontakte Strom durch die Walzen bis zu der Anzeige, an
der die verschlüsselten Buchstaben aufleuchteten. Bei jedem Tastendruck drehten sich die
Walzen weiter, somit wurde derselbe Buchstabe immer wieder anders verschlüsselt. Die
Standardversion der „Enigma“ hatte drei Walzen und vier vertauschbare Buchstabenpaare, die
über ein so genanntes „Steckerbrett“ mittels Kabelverbindungen gewechselt werden konnten.
Aus der Lage und Anfangsstellung der Walzen und der vertauschbaren Buchstabenpaare
ergibt sich eine ungemein große Anzahl an Schlüsselkombinationen. Insgesamt sind es
17.298.883.602.000 mögliche Schlüssel. Schon vor dem Zweiten Weltkrieg lieferte eine
Gruppe polnischer Mathematiker um Marian Rejweski große Erfolge bei der Entschlüsselung
von Texten, die mit der „Enigma“ codiert wurden. Mit Hilfe elektronischer
Rechenmaschinen, die als „Bomben“ bezeichnet wurden, konnte innerhalb von Stunden der
Tagesschlüssel, der zum Chiffrieren militärischer Nachrichten während des Zweiten
Weltkriegs von den Deutschen benutzt wurde, ermittelt werden. Daher verbesserten die
Deutschen 1939 ihre alte Version der „Enigma“, verwendeten statt bisher drei nun fünf
Walzen und erweiterten die Anzahl der vertauschbaren Buchstabenpaare von vier auf zehn.
Eine wahre Armada von britischen Kryptoanalysten arbeitete während des Zweiten
Weltkriegs, um an die Arbeiten des polnischen Mathematikers Marian Rejweski anzuknüpfen.
Insgesamt 7000 Frauen und Männer waren in Bletchley Park beschäftigt, um die von der
deutschen „Enigma“ verschlüsselten Nachrichten zu knacken. Letztlich hatte sich der
Aufwand an Rechenmaschinen und geistigen Potenzial gelohnt, denn die entschlüsselten
militärischen Nachrichten der Deutschen und die damit verbundene Offenbarung ihrer
Strategie haben den Ausgang des Zweiten Weltkrieges entscheidend zu Gunsten der Alliierten
beeinflusst.
Wir werden uns nun der modernen Kryptografie widmen, die aus grundlegenden
mathematischen Konzepten entstanden ist. Als eigentlicher Begründer der mathematischen
Kryptografie wird Claude Shannon angesehen, der auch als Schöpfer der Informationstheorie
gilt. Seine Arbeit über Informations- und Kommunikationstheorie im Jahr 1949 bildete die
mathematische Grundlage der modernen Kryptografie. 1976 gelangen zwei wichtige Schritte
in der modernen Kryptografie: Einerseits die Entwicklung des Data-Encryption-Standard-
Algorithmus (kurz: DES-Algorithmus), der von der IBM und der NSA gemeinsam entworfen
wurde, und andererseits die Veröffentlichung eines Artikels, in dem Whitfield Diffie und

73
Martin Hellman, zwei sehr bedeutende Kryptografen in jüngerer Zeit, eine Lösung des
fundamentalen Problems der Schlüsselverteilung vorschlagen. DES war ein weit verbreiteter
symmetrischer Verschlüsselungsalgorithmus, der ursprünglich entwickelt wurde, um sichere
Bankentransaktionen durchführen zu können. Allerdings wird dieser auf Grund der
unsicheren kurzen Schlüssellänge von 56 Bit heutzutage nicht mehr verwendet. Wir werden
auf diesen Algorithmus im nächsten Kapitel noch genauer eingehen.
Die neue radikale Methode der Schlüsselverteilung von Diffie und Hellman, die besser unter
dem Namen Public-Key-Verfahren bekannt ist, ist entscheidend anders als das herkömmliche
Verteilungsprinzip, das stets auf einem symmetrischen Schlüssel beruhte. Bei den
vorangegangenen Verschlüsselungsmethoden erlaubte der Besitz eines Schlüssels die Ver-
und Entschlüsselung einer Nachricht, daher musste der Schlüssel immer über einen äußert
sicheren Weg ausgetauscht werden. Das änderte sich nun schlagartig mit dem grundlegenden
neuen Konzeptvorschlag von Diffie und Hellman. Im Public-Key-Verfahren gibt es ein Paar
zusammenpassender Schlüssel. Einer davon ist der öffentliche Schlüssel und der andere der
private Schlüssel. Der öffentliche Schlüssel wird zum Verschlüsseln einer Nachricht, der
private Schlüssel zum Entschlüsseln der Nachricht verwendet. Der öffentliche Schlüssel kann
von jedermann benutzt werden, um dem Eigentümer des privaten Schlüssels eine Nachricht
zu schicken. Der private Schlüssel, wie das Wort schon zum Ausdruck bringt, muss vom
Besitzer geheim gehalten werden und dient zum Entschlüsseln der gesendeten Nachricht. Mit
dieser Methode wird das Problem der Schlüsselverteilung gänzlich gelöst, da nur ein
Schlüsselpaar für jeden Empfänger benötigt wird. Der Besitz des öffentlichen Schlüssels setzt
die Sicherheit des privaten Schlüssels nicht aufs Spiel. Ein solches Kryptosystem wird als
„asymmetrisch“ bezeichnet.
Auf den Vorarbeiten von Diffie und Hellmann entwickelten die drei Mathematiker Rivest,
Shamir und Adleman ein neues Public-Key-Verfahren mit den Namen RSA, das heutzutage zu
den gängigsten und wichtigsten Verschlüsselungsverfahren zählt. Ihre Idee basiert auf der
Faktorisierung einer großen Zahl mit mindestens zwei Primfaktoren. Die Multiplikation
zweier Primzahlen ist eine einfache Angelegenheit, jedoch ist die Zerlegung, wie wir schon
ausgiebig in Kapitel 2 diskutiert haben, eine äußerst aufwändige Sache. Die große
zusammengesetzte Zahl ist nun die Basis für den öffentlichen Schlüssel und kann zur
Verschlüsselung einer Nachricht verwendet werden. Die Kenntnis der Primfaktoren der
zusammengesetzten Zahl dient zum Entschlüsseln einer Nachricht und ist die Grundlage für
den privaten Schlüssel. Wie schon in Kapitel 2 erwähnt, haben wir es hier mit einer
zahlentheoretischen Anwendung für ein sehr modernes und sicheres Kryptoverfahren zu tun.

74
Funktionen, bei denen die eine Richtung leicht, die andere Richtung jedoch schwer zu
berechnen ist, nennt man „Einwegfunktionen“. Auf solche Funktionen werden wir noch
einmal bei der Diskussion im Zusammenhang mit Verschlüsselungsverfahren treffen. Das
britische Government Communications Headquarters hatte am 17. Dezember 1997
veröffentlicht, dass sie bereits vor Diffie und Hellman ein ähnliches Public-Key-Verfahren
entwickelt haben. Es liegt anscheinend in der Natur der Sache, dass das Militär über die
notwendigen Mittel verfügt, in diesen Dingen eine bedeutende Rolle zu spielen, aber seit jeher
sehr verschwiegen in solchen Angelegenheiten war.
Ich hoffe, ich konnte Ihnen einen kurzen geschichtlichen Überblick über die Kunst der
Verschlüsselung vermitteln. Wie wir gesehen haben, war die Entwicklung der Kryptografie
immer eng an militärische Ziele gekoppelt und nicht nur einmal wurde der Ausgang einer
kriegerischen Auseinandersetzung durch den Ausgang des Wettlaufs zwischen Kryptografen
und Kryptologen bestimmt. Die Entwicklung war immer dadurch gekennzeichnet, dass
Verschlüssler versuchten, immer schwerer zu knackende Kryptosysteme zu konstruieren und
die Entschlüssler probierten, diese mit gefinkelten Methoden und Überlegungen wieder zu
Fall zu bringen. Aus heutiger Sicht gehen die Kryptografen mit ihren modernen
mathematischen Verschlüsselungsverfahren als Sieger hervor; wie lange das so sein wird,
wird uns die Zeit zeigen – keiner weiß es.
Bevor wir uns den Verschlüsselungsverfahren zuwenden, werde ich hier einen Einschub
machen und Ihnen die Methoden zur Primzahlenbestimmung vorstellen. Primzahlen
bestimmter Charakteristik sind die grundlegenden Elemente, damit überhaupt ein sicheres
Verschlüsselungsverfahren wie das RSA-Verfahren funktionieren kann. Wir werden uns daher
nun einen genaueren mathematischen Einblick in Primzahlen verschaffen.

3.2 Primzahlen

Für Public-Key-Verfahren braucht man häufig große Primzahlen. Aus diesem Grund erzeugt
man natürlich Zahlen der richtigen Größe und prüft, ob sie Primzahlen sind. Dazu wurden
effiziente Primzahlentests entwickelt, die ich Ihnen in diesem Kapitel vorstellen möchte. Die
Definition einer Primzahl habe ich schon in Kapitel 1 gebracht, die besagt, dass jede Primzahl

75
nur die Zahl 1 und sich selbst geteilt werden kann. Alle anderen Zahlen können eindeutig, laut
dem Fundamentalsatz der Arithmetik, in Primfaktoren zerlegt werden. In diesem Kapitel
werden wir uns mit folgenden Themen befassen: Allgemeines zu Primzahlen, Probedivision,
Fermat-Test, Pseudoprimzahlen und Naturphänomene. Mit dem Thema Naturphänomene
möchte ich einen kurzen Ausflug in die Welt der Biologie machen, um die vielfältigen
Anwendungsmöglichkeiten der Primzahlen aufzuzeigen. In diesem Zusammenhang ist es
einer Forschergruppe das erste Mal gelungen, eine Brücke zwischen den weit auseinander
liegenden Disziplinen, der Zahlentheorie und der Biologie, zu schlagen.

3.2.1 Allgemeines zu Primzahlen

Wir werden uns hier kurz mit den Eigenschaften von Primzahlen beschäftigen, da sie, wie
schon mehrmals erwähnt, eine zentrale Rolle in der Kryptografie respektive für
Verschlüsselungsverfahren spielen. Primzahlen nehmen in der Mathematik eine besondere
Stellung ein und man kann sie mit Recht als die atomaren Bausteine der Zahlentheorie
bezeichnen.
Mit Ausnahme der Zahl 2 sind alle Primzahlen ungerade, daher lassen sich alle ungeraden
Primzahlen in der Form

p=2*k+1 3.1

darstellen. Jede Primzahl kann aber auch entweder in der Form

p=4*k+1 3.2

oder in der Form

p=4*k+3 3.3

76
geschrieben werden. Wir haben bereits in Kapitel 1 Primzahlen der Form 4 * k + 1 behandelt
und festgestellt, dass sie als Summe zweier Quadratzahlen darstellbar sind. Daraus lässt sich
sogar ein Primzahlenkriterium definieren. Hätte nämlich eine Zahl genau nur eine Darstellung
a2 + b2 mit a und b größer 1 und wäre noch ggT (a, b) = 1 erfüllt, dann haben wir eine
Primzahl der Form 4 * k + 1 gefunden.

Jede Zahl der Form 4 * k + 3 enthält mindestens einen Primfaktor der Form 4 * k + 3.

Ein weiteres Primzahlenkriterium lässt sich aus der Darstellung der Differenz zweier
Quadrate ableiten. Besitzt eine ungerade Primzahl 2 * k + 1 keine weitere Darstellung außer
(k + 1)2 – k2, dann haben wir es ebenfalls mit einer Primzahl zu tun. Für sehr große Zahlen
sind das natürlich keine praktikablen Kriterien. Ein sehr interessanter Zusammenhang ergibt
sich aus dem Primzahlsatz, mit dem die Verteilung der Primzahlen unterhalb einer
bestimmten Schranke abgeschätzt werden kann. Der Primzahlsatz besagt, dass

3.4

gilt, d. h., dass der Quotient von linker und rechter Seite für gegen 1 strebt. Anhand
folgender Beispiele kann die Anzahl der Primzahlen bis zur Grenze 10, 100 und 1000
bestimmt werden:

Die Anzahl der Primzahlen innerhalb einer bestimmten Grenze ist natürlich auch im Kontext
der Primzahlensuche zu sehen. Wir betrachten nun zwei Methoden zur Überprüfung von
Primzahlen.

3.2.2 Probedivision

Wir haben schon in Kapitel 2 zum Thema „Faktorisierungsmethoden“ das Verfahren der
Probedivision besprochen, das auf Eratosthenes von Kyrene zurückgeht. Unser
Primzahlenkriterium beruhte auf folgendem Satz: Wenn n eine zusammengesetzte natürliche

77
Zahl ist, dann hat n einen Primteiler, der nicht größer als √n ist. Die Richtigkeit dieses Satzes
wurde in den dazugehörigen Gl. 2.1 – 2.3 gezeigt. Wir werden im Folgenden anhand eines
Beispiels diese einfache Methode veranschaulichen. Wir wählen als zusammengesetzte
natürliche Zahl n = 10151. Wir werden zeigen, dass es sich bei dieser Zahl um eine Primzahl
handelt. Folgende Schritte sind für die Berechnung notwendig:

1) Bestimmung des gerundeten ganzzahligen Wertes aus √n.


2) Prüfung aller Primteiler bis zu √n.

Zu 1): Der gerundete Wert von √10151 = 100.


Zu 2): Folglich müssen wir prüfen, ob es einen ungeraden Primteiler mit p ≤ 100 gibt.

Welche Primzahlen kommen bis zu der natürlichen Zahl 100 in Frage?


3, 5, 7, 11, 13, 17, 19, 23, 29, 31, 37, 41, 43, 47, 53, 59, 61, 67, 71, 73, 79, 83, 89, 97.

Wir müssen nun testen, ob einer dieser Primzahlen ein Teiler der natürlichen Zahl n = 10151
ist. Sie können sich selbst davon überzeugen, dass keine dieser Zahlen n teilt. Daraus folgt,
dass n = 10151 eine Primzahl ist.

Wie wir schon gesehen haben, kann die Probedivision auch verwendet werden, um die
Primfaktorzerlegung einer natürlichen Zahl zu finden. In Faktorisierungsalgorithmen
verwendet man die Probedivision mit Primzahlen bis zu einer Größe von 106, um kleinere
Primfaktoren zu ermitteln. Nach einer Abschätzung, siehe auch Kapitel 2, sind

Probedivisionen notwendig. Im RSA-Verfahren sind Primzahlen gebräuchlich, die größer als


1075 sind. Nach dieser Abschätzung wären mehr als 1036 Probedivisionen erforderlich. Das ist
mit den momentanen technischen Mitteln nicht machbar. Im nächsten Abschnitt werden wir
ein effizienteres Verfahren besprechen, um die Primalität einer Zahl zu zeigen.

78
3.2.3 Fermat-Test

Um zu beweisen, dass eine Zahl n eine Primzahl ist, ist ein sehr aufwändiges Verfahren nötig
und dies ist für große Zahlen kaum möglich. Daher greift man auf eine Reihe von Verfahren
zurück, die feststellen können, dass eine natürliche Zahl n mit hoher Wahrscheinlichkeit eine
Primzahl ist. Man nennt solche Verfahren probalistische Primzahlentests. Ein solcher
Primzahlentest ist der Fermat-Test, der auf dem kleinen Satz von Fermat beruht, den wir in
Kapitel 1 im Zusammenhang mit der Biografie von Pierre de Fermat diskutiert haben.
Nachdem uns die Begriffe der Kongruenz und der Modulo-Operation aus der Besprechung
des quadratischen Siebs bekannt sind, kann der Satz von Fermat in folgender Version
geschrieben werden:

Ist n eine Primzahl, so gilt

an-1 1 mod n 3.5

mit ggT (a, n) = 1. Der kleine Satz von Fermat besagt nichts anderes, als dass der Ausdruck
an-1 – 1 durch n ohne Rest teilbar ist. Dieses Theorem ist eine Möglichkeit, um festzustellen,
ob eine Zahl n zusammengesetzt ist. Man setzt anstatt a eine Zahl aus der Menge 2, …, n – 1
ein und berechnet an-1 mod n mit Hilfe der schnellen Exponentiation. Danach prüft man, ob
das Ergebnis ungleich 1 ist. Trifft dies zu, ist n eine zusammengesetzte Zahl.

Warum können wir gerade eine Zahl aus der Menge 2, …, n – 1 wählen?
Wenn wir von der Annahme ausgehen, dass n eine Primzahl ist, dann sind die Zahlen 2, …,
n – 1 keine echten Teiler der Zahl n, da diese nicht als Vielfache einer Primzahl geschrieben
werden können. Daher ist die Voraussetzung ggT (a, n) = 1 erfüllt. Bei 1 handelt es sich um
einen trivialen Teiler, daher kommt dieser in der Betrachtung nicht in Frage.

Was versteht man unter einer schnellen Exponentiation?


Unter schneller Exponentiation versteht man ein Verfahren für die schnelle Berechnung von
Exponenten. Dazu schreibt man den Exponenten zunächst einmal in Binärdarstellung. Danach
bestimmt man an mod n mit der Bildung sukzessiver Quadrate. Schauen wir uns dazu wieder

79
ein Beispiel an: Angenommen wir wollen 65 mod 7 bestimmen. Wir schreiben zunächst die
Zahl 5 in Binärdarstellung an:

5 = 1 + 22

Jetzt bestimmen wir für die Zahl 6 sukzessive die Quadrate:

6, 62 = 36 1 mod 7, 64 = 362 1 mod 7

Also bekommen wir mit einer Quadrierung und einer Multiplikation folgendes Ergebnis:

65 = 6 * 64 6 * 1 mod 7 = 6 mod 7

Fünf Multiplikationen wären mit der normalen Multiplikation notwendig gewesen. Natürlich
wächst der Rechenaufwand der normalen Multiplikation im Vergleich zur schnellen
Exponentiation mit steigendem Exponenten.

Wir haben nun das mathematische Rüstzeug gewonnen, um ein Beispiel zum Fermat-Test zu
betrachten. Wir wählen für die Variable a in der vorangegangenen Gl. 3.5 den Wert 2. Man
sagt auch, dass die Zahl 2 die Rolle eines Belastungszeugen übernimmt, um festzustellen, ob
eine natürliche Zahl n zusammengesetzt ist. Wir wollen nun prüfen, ob die Zahl n = 561 eine
Primzahl oder eine zusammengesetzte Zahl ist. Dafür ermitteln wir zunächst einmal mit Hilfe
der schnellen Exponentiation das Resultat des Ausdrucks an-1 mod n mit a = 2 und n = 561.
Wir stellen dazu die Zahl n – 1 = 560 in Binärschreibweise dar:

560 = 24 + 25 + 29 = 16 + 32 + 512

Also müssen wir aus folgender riesiger Zahl den Rest aus der Division durch 561, sprich
modulo 561, bestimmen:

2560 mod 561 = 216 + 32 + 512 mod 561 = 216 * 232 * 2 512 mod 561

Anhand dieser extrem großen Zahl können wir den klaren Vorteil der schnellen
Exponentiation erkennen. Bei der üblichen Multiplikation wären für die Berechnung 2560 mod

80
561 insgesamt 560 Multiplikationen notwendig gewesen, jedoch sind, wie wir gleich sehen
werden, mit der schnellen Exponentiation wesentlich weniger Schritte erforderlich.

Nun bilden wir, wie schon eingangs beschrieben, sukzessive die Quadrate von 2.

2, 22 = 4, 24 = 16, 28 = 256, 216 = 65536 460 mod 561, 232 4602 103 mod 561, 264 1032
511 mod 561, 2128 5112 256 mod 561, 2256 2562 460 mod 561, 2512 4602 103 mod
561

Wir können nun den Ausdruck 216 * 232 * 2 512


mod 561 mit den bereits dargestellten
Berechnungen auflösen:

216 460 mod 561


232 103 mod 561
2512 103 mod 561

216 * 232 * 2 512 mod 561 460 * 103 * 103 mod 561 1 mod 561

Würden wir an dieser Stelle unsere Berechnungen abbrechen, kämen wir zu dem Schluss,
dass 561 eine Primzahl ist, da der kleine fermatsche Satz mit dem Resultat

2560 1 mod 561

erfüllt ist. Wir haben in diesem Abschnitt bereits einmal festgestellt, dass eine beliebige Zahl
aus der Zahlenmenge 2, …, n – 1 zur Überprüfung, ob der kleine fermatsche Satz gilt,
herangezogen werden kann. Aus diesem Grund befragen wir noch einen anderen
Belastungszeugen. Wir wählen die Zahl 3 und nach einer kurzen Rechnung, die analog zu
dem obigen Beispiel durchgeführt wird, erhalten wir folgendes Ergebnis:

3560 1 mod 561

Damit ist 561 überführt worden – es handelt sich um eine zusammengesetzte Zahl. In diesem
Fall haben wir Glück gehabt, dass schon der zweite Belastungszeuge den ggT (3, 561) <> 1
liefert. Sobald wir ein Element aus der Menge 2, …, n – 1 finden, das den kleinen
fermatschen Satz nicht erfüllt, haben wir es mit einer zusammengesetzten Zahl zu tun.

81
Was konnten wir aus diesem Beispiel lernen?

Der Fermat-Test liefert keine hundertprozentig sichere Aussage darüber, ob n eine Primzahl
ist, außer man prüft alle Belastungszeugen, womit wir aber einen Aufwand wie bei der
klassischen Methode, der Probedivision, in Kauf nehmen müssten. Ist nämlich für einen
Belastungszeugen a der kleine fermatsche Satz erfüllt, so heißt das noch nicht, dass n eine
Primzahl ist, denn für bestimmte Belastungszeugen, in unserem Beispiel war das der
Belastungszeuge a = 2, gilt auch für eine zusammengesetzte Zahl der kleine fermatsche Satz.
Man nennt solche Zahlen „Pseudoprimzahlen“ oder „Carmichaelzahlen“. Derartige Zahlen
sind allerdings eher selten.

Die Zahl 561 setzt sich aus folgenden Primteilern zusammen:

561 = 3 * 11 * 17

Wenn wir aber für viele Basen a keinen Beweis gefunden haben, dass n zusammengesetzt ist,
scheint es wahrscheinlich zu sein, dass n eine Primzahl ist. Darum spricht man beim Fermat-
Test von einem probalistischen Primzahlentest.

3.2.4 Primzahlen einmal anders – Naturphänomen Zikaden

Nicht nur in der Mathematik sind Primzahlen von zentraler Bedeutung, auch in der Biologie
interessiert man sich für Fragestellungen im Zusammenhang mit dem Auftreten von
Primzahlen. Ich möchte an dieser Stelle einen Einschub machen und ein interessantes Beispiel
aus der Biologie erläutern. Wir werden sehen, dass ein Modell in der Biologie herangezogen
werden kann, um große Primzahlen zu erzeugen.
Lange blieb das Paarungsverhalten der Zikaden, die sich nur in einem Zyklus von 13 oder 17
Jahren vermehren, ein Rätsel der Natur. Zikaden sind Insekten, die in weiten Teilen
Nordamerikas auftreten und sich alle 13 oder 17 Jahre massenhaft auf der Erde vermehren.
Danach ziehen sie sich wieder als Larven unter die Erde zurück, in der sie wieder für den
angegebenen Zyklus verweilen. Eine Forschergruppe von Wissenschaftlern des Max-Planck-

82
Instituts und chilenischen Forschern entwickelte ein Jäger-Beute-Modell, in dem nur
Lebenszyklen, deren Länge eine Primzahl von Jahren ist, in Frage kommen. Nur unter dieser
Voraussetzung bleibt das Modell stabil. Im Jahr 1634 wurden europäische Siedler im Osten
Tennessees erstmals mit einer Zikadenplage konfrontiert. Seitdem wiederholt sich die Plage
im Zyklus von 17 Jahren und trat auch 1991 pünktlich zum 22. Mal auf. Die Plage beginnt
mit der Metamorphose von einer Larve zu einem zirpenden Insekt, dabei werden bis zu 40000
Löcher um einen Baum gezählt, die von den kriechenden Larven hinterlassen werden. Von
der Paarung über die Eiablage bis zum Tod vergehen nur wenige Wochen, aber in dieser Zeit
können die kleinen Insekten einen gewaltigen Schaden anrichten. Erstaunlicherweise hält sich
das Erscheinen der Tiere zeitlich sehr genau an die Prognosen – die Werte liegen höchstens
eine Woche auseinander. Das massenhafte Auftreten der Zikaden ist in ihrem Überlebenstrieb
begründet, da potenzielle Räuber, wie beispielsweise Vögel oder Wespen, durch das
überproportionale Nahrungsangebot übersättigt werden.

Wie lässt sich nun der Zyklus von 13 oder 17 Jahren erklären?

Die Vermehrung im Intervall von 13 oder 17 Jahren erklärt man mit der Jäger-Beute-
Beziehung: Betrüge die Zykluslänge beispielsweise nur 12 Jahre, so könnten die Zikaden von
allen synchronisierten Räubern gefressen werden, die alle 1, 2, 3, 4, 6 und 12 Jahre
erscheinen. Erscheinen die Zikaden jedoch in einem Zyklus von 13 Jahren, kommen nur
Fressfeinde in Frage, die jedes Jahr oder alle 13 Jahre auftreten. Daher sollten Primzahlen für
Vermehrungsintervalle bevorzugt sein.
Aufbauend auf diesen Überlegungen entwickelte die Forschungsgruppe ein Evolutionsmodell,
das durch Mutation und Selektion von Räuber und Beute Primzyklen der Beute erzeugt. Die
Forschergruppe konnte mathematisch zeigen, dass ein Primzyklus der Beute stabil gegenüber
zyklusverändernden Mutationen von Räuber oder Beute ist. Neben der zeitlichen Komponente
flossen in die Modellierung auch noch räumliche Aspekte ein, indem die Wechselwirkung
zwischen benachbarten Populationen berücksichtigt wurde. Daraus resultierten, wie auch in
der Natur, in Eigenorganisation entstandene Territorien, die einen bevorzugten Zyklus von 13
oder 17 Jahren aufweisen konnten. Die Forschungsgruppe nahm – unabhängig von der
Natur – als Anfangsbedingung Zyklen an, deren Länge die Grenzen der Rechnerkapazität
erreichten; in solchen Fällen war die Simulation bei sehr hohen Primzahlen stabil. Damit hatte
man aber ein Modell entwickelt, das sehr große Primzahlen erzeugen konnte. Es ist äußerst

83
erstaunlich, dass ein biologischer Vorgang mit der Zahlentheorie anhand eines
Evolutionsmodells verknüpft werden kann.

3.3 Verschlüsselungsverfahren

In diesem Abschnitt werden wir uns noch grundlegender mit den unterschiedlichen Methoden
der Verschlüsselung auseinander setzen. Als Einleitung möchte ich Ihnen zunächst einmal
einige Grundbegriffe erklären, die wir in den nächsten Abschnitten bei der Diskussion des
jeweiligen Verfahrens benötigen. Wir werden im ersten Schritt die Klassifizierungen und die
Grundelemente für Verschlüsselungsverfahren kennen lernen. Fast alle
Verschlüsselungsverfahren lassen sich in folgende drei Gruppen einteilen:

- Symmetrische Verschlüsselungsverfahren
- Asymmetrische Verschlüsselungsverfahren
- Hybride Verschlüsselungsverfahren

Unter symmetrische Verschlüsselungsverfahren fallen all jene, die mit einem einzigen
Schlüssel arbeiten. Das bedeutet, dass dem Sender und dem Empfänger für die Ver- und
Entschlüsselung einer Nachricht der Schlüssel bekannt sein muss. Aus dieser Tatsache heraus
arbeiten symmetrische Verschlüsselungsverfahren normalerweise sehr schnell und effizient.
Da es sich bei dieser Art der Verschlüsselung historisch gesehen um eine klassische Variante
handelt, spricht man auch häufig von „herkömmlicher Verschlüsselung“. Symmetrische
Verschlüsselungsverfahren bieten bei einer geeigneten Schlüssellänge ein hohes Maß an
Sicherheit, vorausgesetzt natürlich, dass die Schlüsselübergabe zwischen Sender und
Empfänger sicher erfolgt. Der Schwachpunkt bei symmetrischen Verschlüsselungsverfahren
liegt in der Vertraulichkeit des Schlüssels, dass am Beispiel Pay-TV illustriert werden soll.
Beim Pay-TV wird das Fernsehsignal verschlüsselt versendet und kann mit einem passenden
Schlüssel wieder entschlüsselt werden. Um einen Zugang auf das Fernsehprogramm zu
erhalten, muss dieses abonniert und an den Abonnenten ein elektronischer Schlüssel per
Chipkarte verschickt werden. Diese Karte muss dann nur noch in den Decoder gesteckt
werden und schon ist man im Genuss eines vielfältigen Programmangebots. Wo aber liegt

84
hierbei der Haken? Es besteht die Möglichkeit, eine Kopie von der Chipkarte anzufertigen
und damit hat auch ein Schwarzseher Zugang zu den vertraulichen Daten. Man kann Abhilfe
schaffen, indem der Schlüssel derart gut auf der Chipkarte untergebracht wird, dass er nicht
ohne Zerstörung der Karte extrahiert werden kann. Gleichzeitig wird der Schlüssel extrem
lang gewählt, so dass eine manuelle Suche nach dem richtigen Schlüssel auf Grund der
Vielzahl an theoretischen Möglichkeiten ein extrem aufwändiges Unterfangen ist. Ein
weiterer Nachteil liegt in der Anzahl der benötigten Schlüssel. Für jedes Paar Personen, das
geheime Nachrichten austauschen will, wird ein eigener Schlüssel benötigt. Daher braucht
man für die Kommunikation von n Personen n (n – 1) / 2 Schlüssel, wünschenswert wären
aber n Schlüssel. Ist z. B. n = 1000, so sind das 499500 Schlüssel. Einen Ausweg kann die
Einrichtung eines zentralen Schlüsselservers bieten, der aber wiederum die Vertraulichkeit
des Betreibers sowie die Sicherheit des Schlüsselservers usw. voraussetzt. In der Praxis wird
wegen dieser Gründe meist ein hybrides Verschlüsselungsverfahren verwendet, auf das wir
im Anschluss zu sprechen kommen. Ein bekanntes symmetrisches Verschlüsselungsverfahren
ist DES (Digital Encryption Standard).
Asymmetrische Schlüsselverfahren arbeiten mit so genannten „Schlüsselpaaren“, die sich aus
einem öffentlichen und einem privaten Schlüssel zusammensetzen. Die Schlüsselpaare
hängen so miteinander zusammen, dass mit dem öffentlichen Schlüssel verschlüsselte
Nachrichten nur mit dem privaten Schlüssel entschlüsselt werden können. Das heißt, damit
ein Absender eine Nachricht verschicken kann, benötigt er den öffentlichen Schlüssel des
Empfängers. Nur der Empfänger, der im Besitz des privaten Schlüssels ist, kann die Nachricht
auch wieder entschlüsseln. Das starke Konzept dieser Verschlüsselungsvariante liegt darin,
dass vom öffentlichen Schlüssel nicht auf den privaten Schlüssel geschlossen werden kann.
Technisch wird der Schlüssel durch eine so genannte „Einwegfunktion“ realisiert. Bei einer
Einwegfunktion handelt es sich um eine mathematische Funktion, die schwer umkehrbar ist.
Der Nachteil des asymmetrischen Verschlüsselungsverfahrens beruht auf der Tatsache, dass
es langsamer und weniger effizient arbeitet als das symmetrische. Zu den bekanntesten
asymmetrischen Verschlüsselungsverfahren zählt das RSA-Verfahren.
Hybride Verschlüsselungsverfahren vereinen, wie das Wort „hybrid“ schon sagt, die Vorteile
von symmetrischen und asymmetrischen Verschlüsselungsverfahren. Einerseits machen sie
sich die Schnelligkeit einer symmetrischen Verschlüsselung und andererseits die Sicherheit
aus der Idee eines Public-Key-Verfahrens zu Nutze. In hybriden Verschlüsselungsverfahren
wird die Nachricht auf Basis einer symmetrischen Verschlüsselung zunächst mit einem
zufällig generierten Schlüssel codiert. Der zufällig generierte Schlüssel wird anschließend mit

85
einem asymmetrischen Verschlüsselungsverfahren chiffriert. Beide Informationen werden in
einer gemeinsamen kryptografischen Nachricht an den Empfänger gesandt (siehe dazu
Abbildung 1). Besitzt nun der Empfänger den privaten Schlüssel des Schlüsselpaares, so kann
er mit diesem den Schlüssel des symmetrischen Verschlüsselungsverfahrens extrahieren und
daraufhin die chiffrierte Nachricht entschlüsseln. Sehr wichtig dabei ist die Qualität des
Schlüsselgenerators für den zufällig generierten Schlüssel. Dieser Schlüssel darf keine
Systematik zu anderen generierten Schlüsseln aufweisen. Praktisch arbeiten heutzutage alle
Verschlüsselungsprogramme, die nach dem Public-Key-Verfahren funktionieren, in
Wirklichkeit mit einem hybriden Verfahren.

Abbildung 2: Prinzip des hybriden Verschlüsselungsverfahrens

Aus welchen Grundelementen besteht nun ein Verschlüsselungsverfahren?

Im Wesentlichen haben wir bereits alle grundlegenden Elemente eines Kryptosystems kennen
gelernt; ich möchte sie hier aber noch einmal kurz zusammenfassen. Ein Kryptosystem
besteht aus folgenden Komponenten:

- Klartextraum: die Elemente heißen Klartexte, gemeint ist die unverschlüsselte


Nachricht

86
- Chiffriertextraum: die Elemente heißen Chiffrier- oder Schlüsseltexte, gemeint ist
die verschlüsselte Nachricht
- Schlüsselraum: die Elemente heißen Schlüssel
- Verschlüsselungsfunktionen
- Entschlüsselungsfunktionen

Wir werden im Folgenden einige bekannte symmetrische, asymmetrische und hybride


Verschlüsselungsverfahren besprechen.

3.3.1 Klassische Beispiele symmetrischer Verschlüsselungsverfahren

Zu den klassischen Beispielen der symmetrischen Verschlüsselungsverfahren zählen die


Caesar-Chiffrierung, Vigenère-Verschlüsselung und das One-Time-Pad-Verfahren.

3.3.2 Caesar-Chiffrierung

Die Caesar-Chiffrierung verdankt ihren Namen Julius Caesar, der für die militärische
Nachrichtenübermittlung jeden Buchstaben seiner Botschaften des 20 Buchstaben
umfassenden lateinischen Alphabets um drei Buchstaben nach rechts verschob. Ein bekannter
Ausspruch Caesars kann mit der Caesar-Chiffrierung wie folgt verschlüsselt werden:

veni, vidi, vici (Klartext)


YHQL, YLGL, YLFL (Geheimtext)

Um die Elemente aus dem Klartextraum, sprich: des Klartextalphabets, des früheren
lateinischen Alphabets in einen Chiffretext zu transformieren, wird die folgende
Verschlüsselungsfunktion benutzt:

c = k + 3 mod 20 3.6

87
k bezeichnet hier den Klartextbuchstaben und c den Geheimtextbuchstaben. Um die
verschlüsselte Botschaft wieder rückgängig zu machen, greift man auf folgende
Entschlüsselungsfunktion zurück:

p = c – 3 mod 20 3.7

Der Schlüssel zum Ver- und Entschlüsseln der Botschaft ist also die Zahl 3. Natürlich können
alle Zahlen von 1 bis 19 als Schlüssel benutzt werden. Somit ergeben sich 19 mögliche
Schlüsselvarianten. In unserem heutigen Alphabet wird die Zahl 20 durch die Zahl 26 ersetzt
und man erhält damit 25 Schlüsselkandidaten. Man spricht bei der Caesar-Chiffrierung von
einem symmetrischen Schlüsselverfahren, weil für die Ver- und Entschlüsselung derselbe
Schlüssel verwendet wird. Das Verfahren findet heutzutage sogar noch Anwendung bei dem
kommerziell genutzten Dateimanager „Xtree“ für Dos. Dieses Programm nutzt eine Variante
der Caesar-Chiffrierung zum Schutz der eingebauten Seriennummer.

3.3.3 Vigenère-Verschlüsselung

Bei der Vigenère-Verschlüsselung handelt es sich, wie schon gesagt, um eine


polyalphabetische Verschlüsselung. Ein Beispiel dazu haben wir bereits erläutert. Ich möchte
an dieser Stelle noch einmal die wichtigsten Merkmale in einen mathematischen Kontext
bringen. Bei dieser Substitutionsmethode wird ein Klarbuchstabe k durch verschiedene
Geheimbuchstaben c ersetzt. Es wird zunächst einmal ein Schlüssel s mit einer beliebigen
Zeichenfolge der Länge n festgelegt. Die Zeichenfolge wird in wiederholender Sequenz über
den Klartext geschrieben. Anschließend werden die übereinander stehenden Paare addiert und
mit der Formel

c = s + k mod 26 3.8

wird das Chiffrezeichen c bestimmt. Jedem Buchstaben wird dabei eine Zahl von A = 0 bis Z
= 25 zugeordnet. Gl. 3.8 ist in diesem Verfahren unsere Verschlüsselungsfunktion. Die
Entschlüsselungsfunktion dazu lautet:

88
s = c – k mod 26 3.9

Betrachten wir zur Verdeutlichung ein Beispiel: Wir wählen das Wort VIGENERE als
Klartextalphabet und WIE als Schlüsselwort. Wir schreiben nun das Schlüsselwort WIE
wiederholt über das Klartextalphabet:
WIEWIEW (Schlüssel)
VIGENERE (Klartextalphabet)

Nun ordnen wir jedem Buchstaben des Schlüssels und des Klartextalphabets eine Zahl im
Bereich von 0 bis 25 zu.

Schlüssel Klartextalphabet
W – 22 V – 21
I – 8 I – 8
E – 4 G– 6
E – 4
N – 13
E – 4
R – 17
E – 4

Wendet man nun die Verschlüsselungsfunktion aus Gl. 3.8 an, so kann daraus der Geheimtext
generiert werden. Für den ersten Geheimbuchstaben erhalten wir:

c = W + V mod 25 = 22 + 21 mod 25 = 43 mod 25 = 17 = R

Nach kurzer Rechnung führt das zu dem Geheimtext: RQKAVINM. In analoger Form kann
der Geheimtext wieder in den Klartext entschlüsselt werden.
Wie wir ausführlich in der Geschichte der Verschlüsselung aufgezeigt haben, wurde diese Art
der Verschlüsselung mit der Häufigkeitsanalyse geknackt, trotzdem ist die Anzahl der
möglichen Schlüssel bei einer Schlüssellänge von fünf Zeichen bereits enorm.

89
Anzahl der möglichen Schlüssel: 26m, bei m = 5 also bereits 1,1 * 107 Schlüsselkandidaten. Ein
reines Durchprobieren der Schlüssel per Hand ist in diesem Fall ausgeschlossen.

3.3.4 One-Time-Pad-Verfahren

One-Time-Pad ist das einzige bekannte Verfahren mit absoluter theoretischer Sicherheit, doch
in der Praxis ziemlich unhandlich. Man spricht bei dieser Methode auch von Vernam-
Verschlüsselung, die nach dem Amerikaner Gilbert Vernam benannt wurde. Die Sicherheit
beruht auf der Zufälligkeit des Schlüssels, der mindestens genauso lang wie der Klartext sein
muss und der nur ein einziges Mal zur Verschlüsselung herangezogen wird. Es darf sich um
keine Pseudozufallszahl, wie sie der Computer generiert, handeln, sondern es muss eine echte
Zufallszahl sein. Daher muss man bei der Wahl des Schlüssels äußerst sorgfältig vorgehen.
Für echte zufällige Zahlen würde z. B. das Ticken eines Geigerzählers, das durch den Zerfall
eines radioaktiven Elements verursacht wird, in Frage kommen. Die Schwierigkeit liegt nun
darin, dass beide Kommunikationspartner den Schlüssel über einen sicheren Kanal
austauschen müssen. Da der Schlüssel aber genauso lang ist wie die zu verschlüsselnde
Nachricht, ist es nicht sehr praktisch, längere Botschaften über diesen Weg auszutauschen.
Ein weiterer Nachteil des Verfahrens liegt in der permanenten Versorgung mit neuen
Zufallszahlen und das damit verbundene Problem der logistischen Verteilung der geheimen
Schlüssel an die beteiligten Partner. Bei einer geringen Teilnehmerzahl eignet sich die One-
Time-Pad-Verschlüsselung ideal für die Chiffrierung nicht zu langer Nachrichten oder zum
Aufbewahren oder Teilen von Geheimnissen.

3.4 Das RSA-Verfahren

Bei der RSA-Verschlüsselung handelt es sich um ein asymmetrisches


Verschlüsselungsverfahren. Der große wirtschaftliche Vorteil des RSA-Verfahrens resultiert
aus der Lösung des Problems der Schlüsselverteilung. In der Vergangenheit mussten immense
Transport- und Sicherheitskosten für den Austausch von Schlüssel- und Codebüchern
zwischen Sender und Empfänger in Kauf genommen werden – dies fällt mit dem neuen

90
Prinzip der Schlüsselpaarung eines Public-Key-Verfahrens weg. Die Sicherheit der bekannten
Verfahren hängt eng mit der Schwierigkeit zusammen, effiziente Lösungen für bestimmte
zahlentheoretische Probleme zu finden. Wie ich bereits erwähnt habe, liegt die Sicherheit im
RSA-Verfahren in der Herausforderung, eine große natürliche Zahl in ihre Primfaktoren zu
zerlegen. Wir werden im Anschluss im Detail den Algorithmus für das RSA-Verfahren
diskutieren und uns das Verfahren anhand eines Beispiels veranschaulichen.

3.4.1 Schlüsselerzeugung

Es sind drei Schritte für die Erzeugung eines öffentlichen Schlüssels notwendig:

1) Man wähle zufällig zwei große Primzahlen und berechne deren Produkt.
2) Man wähle eine Zahl e, die kleiner als n und teilerfremd zu (p – 1) und (q – 1) ist.
3) Man finde eine Zahl d, so dass ed – 1 durch (p – 1) * (p – 1) teilbar ist.

Mathematisch ausgedrückt können die Punkte 1)–3) wie folgt formuliert werden:

zu 1): n=p*q 3.10


zu 2): 1 < e < φ (n) = (p – 1) (q – 1) 3.11
ggT (e, (p – 1) (q – 1)) = 1 3.12
zu 3): 1 < d < (p – 1) (q – 1) 3.13
de 1 mod (p – 1) (q – 1) 3.14

In Kapitel 1 haben wir uns bereits mit der eulerschen Phi-Funktion φ vertraut machen
können. Die Funktion steht für die Anzahl der teilerfremden Zahlen zu einer gegebenen
natürlichen Zahl. Da wir es bei n mit einer zusammengesetzten Zahl aus zwei Primfaktoren zu
tun haben, lässt sich die Anzahl der teilerfremden Zahlen mit (p – 1) (q – 1) bestimmen, denn
jede Primzahl hat stets 1 bis p – 1 teilerfremde Zahlen. Daher ergibt sich für eine
zusammengesetzte Zahl n = pq die Anzahl der teilerfremden Zahlen aus dem Produkt
(p – 1) (q – 1). Betrachten wir für die Schlüsselerzeugung folgendes Beispiel: Wir wählen
p = 19 und q = 31 und bestimmen daraus die Zahlen n, e und d. Die Zahl n heißt RSA-Modul

91
und die Zahlen e und d bezeichnet man als Verschlüsselungs- und Entschlüsselungsexponent.
Der öffentliche Schlüssel besteht aus dem Paar n und e. Der private Schlüssel ist die Zahl d.
Setzen wir dies in Gl. 3.10 ein, erhalten wir für

n = pq = 19 * 31 = 589

Des Weiteren bestimmen wir die Anzahl der teilerfremden Zahlen mit der eulerschen Phi-
Funktion:

φ (n) = (p – 1) (q – 1)
φ (589) = (19 – 1) (31 – 1) = 18 * 30 = 540

Um e zu bestimmen, müssen wir zunächst einmal φ (589) in Primfaktoren zerlegen und eine
Zahl suchen, so dass die Bedingung ggT (e, 589) = 1 erfüllt ist.

φ (589) = 540 = 2 * 2 * 3 * 3 * 3 * 5

Wir wählen für e die kleinste Primzahl, die kein Primfaktor der Zahl 540 darstellt, also e = 7.
7 ist kein Teiler von 540. Mit e = 7 sind die Gl. 3.11 und 3.12 erfüllt:

Gl. 3.11: 1 < e < φ (n) = (p – 1) (q – 1)


1 < 7 < 540
Gl. 3.12: ggT (e, (p – 1) (q – 1)) = 1
ggT (7, 540) = 1

Mit dem Paar (n, e) = (589, 7) haben wir den öffentlichen Schlüssel gefunden. Als nächsten
Schritt bestimmen wir mit den Gl. 3.13 und 3.14 den privaten Schlüssel d. Wir müssen also
folgende Gleichung lösen:

Gl. 3.14: ed 1 mod (p – 1) (q – 1)


7d 1 mod 540

92
Oder in anderen Worten ausgedrückt: 7 d – 1 muss ein Vielfaches von 540 sein oder
nochmals anders ausgedrückt: 7 d – 1 muss durch 540 ohne Rest teilbar sein. Wir können
daher die Gleichung 7d 1 mod 540 wie folgt umschreiben:

7 d – 1 = 540 * r oder
d = (540 * r + 1) / 7

Wir beginnen bei r = 1 und erhöhen r so lange schrittweise um 1, bis d als ganze Zahl
geschrieben werden kann:

r = 1: d = 541 / 7 → keine ganze Zahl


r = 2: d = 1081 / 7 → keine ganze Zahl
.
.
.
r = 6: d = 3241 / 7 = 463 → bingo, eine ganze Zahl

Die Berechnung des privaten Schlüssels führt mit d = 463 zum Resultat. Wie wir sehen,
erforderte die Ermittlung des öffentlichen und privaten Schlüssels einige Überlegungen und
Rechenschritte. Unsere Bemühungen werden sich aber am Ende lohnen, wenn wir es mit
einem sehr modernen Verfahren geschafft haben, einen Klartext in einen Geheimtext zu
chiffrieren. Es war mein Ziel, Ihnen den nötigen mathematischen Background zu verschaffen,
damit sie letztlich die Verschlüsselung als Anwendung der Zahlentheorie mit dem
theoretischen Grundgerüst der Zahlentheorie verknüpfen können. Als nächsten Schritt werde
ich Ihnen das Verschlüsselungsprinzip des RSA-Verfahrens erläutern.

3.4.2 Verschlüsselung – Entschlüsselung

Wie ich eingangs erläutert habe, besteht ein Kryptosystem aus mehreren Komponenten, unter
anderem auch aus einer mathematischen Verschlüsselungsfunktion. Auch das RSA-Verfahren
benutzt eine solche Verschlüsselungsfunktion, um aus einem Klartext einen Chiffretext zu
erzeugen. Wir werden nun Schritt für Schritt das nötige Wissen aufbauen, um die
Verschlüsselungsmethode in ihrer Gesamtheit erfassen zu können.

93
Zunächst definieren wir den Klartextraum, der aus allen natürlichen Zahlen m mit

0≤m<n 3.15

besteht. Das ist sozusagen unser Klartextalphabet, das uns zur Verfügung steht. Jetzt
definieren wir die Verschlüsselungsfunktion mit unserem öffentlichen Schlüssel. Jeder, der
diesen kennt, kann wie folgt einen Klartextbuchstaben m in einen Geheimtextbuchstaben c
umwandeln:

c = me mod n 3.16

In unserem vorangegangenen Beispiel ist also der Klartextraum {0, 1, …, 589}. Wir setzen
m = 3 und bestimmen mit Gl. 3.16 den Geheimbuchstaben. Die Berechnung von me mod n
erfolgt wieder mit Hilfe der schnellen Exponentiation.

c = 37 mod 589

Nun bestimmen wir den Wert für c mit Hilfe der Bildung von sukzessiven Quadraten der Zahl
3 modulo 589.

3, 32 = 9, 34 = 81
37 = 3 * 32 * 34 = 3 * 9 * 81 = 72 * 81 = 5832 531 mod 589

Nach kurzer Rechnung resultiert für c = 531. Die Zahl 3 wird also zur Zahl 531 verschlüsselt.
Dabei haben wir den öffentlichen Schlüssel e = 7 herangezogen. Klarerweise muss für ein
vollständiges Kryptosystem auch der umgekehrte Prozess möglich sein, sprich: die
Entschlüsselung der Nachricht mittels einer Entschlüsselungsfunktion oder wie in unserem
Fall, die Entschlüsselung der Geheimtextbuchstaben. Die Entschlüsselungsfunktion des RSA-
Verfahrens lautet wie folgt:

m = cd mod n 3.17

Wenn wir für c und d die Werte 531 und 463 in Gl. 3.17 einsetzen, kann daraus der
Klarbuchstabe bestimmt werden:

94
3 = 531463 mod 589

Es liegt beim RSA-Verfahren ein sensibles Gleichgewicht zwischen der Sicherheit und der
Effizienz vor. Der öffentliche Schlüssel muss also so gewählt werden, dass die Sicherheit,
aber auch die Effizienz bei der Berechnung gegeben sind. Das bedeutet, je kleiner der
Exponent in der Verschlüsselungsfunktion ist, desto effizienter kann die Verschlüsselung
durchgeführt werden. Aber Vorsicht: Bei der Wahl eines kleinen Exponenten ist die
Sicherheit vor einem Angreifer nicht mehr gegeben, da man mit der so genannten „Low-
Exponent-Attacke“ den Schlüssel dechiffrieren könnte. Daher ist die Wahl eines Schlüssels
richtiger Größe für die Sicherheit dieses Kryptosystems entscheidend.

3.5 Pretty Good Privacy – ein hybrides Verschlüsselungsverfahren

Wir haben bereits erläutert, dass hybride Verschlüsselungsverfahren auf der Mischung
symmetrischer und asymmetrischer Verschlüsselungsprinzipien aufbauen und diese häufig als
Kryptoverfahren Anwendung in der Praxis finden. Phil Zimmermann startete im Jahr 1990
ein Programm, um der breiten Öffentlichkeit einen Zugang zur Verschlüsselung privater
elektronischer Daten zu ermöglichen. Das unter dem Namen Pretty Good Privacy (PGP)
bekannte Verschlüsselungsprogramm wurde für private Internetuser entwickelt, die
Nachrichten über einen frei zugänglichen Quellcode chiffrieren und später versenden
möchten. Schätzungen zufolge geht man heutzutage von etwa 25 Millionen Anwendern aus
und man vermutet, dass immerhin bis zu 90 % aller E-Mails mit PGP verschlüsselt werden.
Der Erfinder Phil Zimmermann hat es durch großen persönlichen Einsatz und einer cleveren
Strategie fertig gebracht, sein Programm – trotz massiver Widerstände und amerikanischer
Exportrestriktionen – für jedermann verfügbar zu machen. Auf Grund der Offenlegung des
Source Codes kann man davon ausgehen, dass die Software PGP auf Herz und Nieren
getestet wurde und dass somit heutzutage eine äußerst stabile Version zur sicheren
Chiffrierung privater Informationen vorliegt.

95
Was sind nun die wichtigsten Komponenten der Software PGP?

PGP ist ein Programm, das jedem Benutzer kryptografische Routinen zur Verfügung stellt.
Zu übermittelnde Nachrichten oder Dateien können vor dem Versand verschlüsselt sowie
durch eine digitale Unterschrift signiert werden. Im Gegensatz zu symmetrischen
Verschlüsselungsverfahren, die sowohl zum Verschlüsseln als auch zum Entschlüsseln den
gleichen Schlüssel benutzen, basiert PGP auf einem Zwei-Schlüssel-Prinzip. PGP bietet
Funktionen zum Ver- und Entschlüsseln von Dateien und Texten. Dabei werden Private-Key-
und Public-Key-Verfahren gemeinsam eingesetzt. Das schnellere Private-Key-Verfahren stellt
eine Implementierung des IDEA-Algorithmus dar. Für die langsamere Public-Key-
Verschlüsselung wird der RSA-Algorithmus verwendet. Soll eine Datei in verschlüsselter
Form verschickt werden, verschlüsselt PGP diese Datei zunächst mit dem IDEA-Algorithmus.
Der notwendige Schlüssel wird von PGP zufällig erzeugt. Anschließend wird dieser zufällige
Schlüssel mit dem öffentlichen Schlüssel des Empfängers nach dem RSA-Algorithmus
verschlüsselt. Dieser so erzeugte Schlüssel wird „Session-Key“ genannt, da er nur für diese
Kommunikation gültig ist. Die verschlüsselte Nachricht wird gemeinsam mit dem Session-
Key an den Empfänger geschickt.
Die PGP-Software des Empfängers führt dann die entsprechenden Entschlüsselungsschritte
durch. Die Verwaltung der Schlüssel geschieht durch bestimmte Dateien, die PGP verwaltet.
In diese Dateien können die öffentlichen Schlüssel anderer Benutzer aufgenommen werden,
um die Kommunikation zu vereinfachen. PGP unterscheidet dabei zwischen verschiedenen
Vertrauensstufen für die einzelnen Schlüssel.

3.6

Ausblick in die Zukunft

96
Wie wir gesehen haben, gibt es sehr sichere und effiziente Verschlüsselungsverfahren, anhand
derer verschlüsselte Nachrichten vor den Attacken eines Angreifers geschützt werden können.
Jedoch wurde bis jetzt kein schlüssiger Beweis erbracht, ob es in Zukunft nicht doch einem
hochgradigen Kryptoanalytiker gelingen könnte, eine neue Methode zu finden, auch die
sichersten Kryptosysteme zu knacken. Aus diesem Grund wäre es wünschenswert, eine
absolut sichere Art der Verschlüsselung zu entwickeln. Momentan arbeiten Kryptografen an
einem technischen Wunderwerk, das Aussicht auf perfekte Geheimhaltung bietet. Die Rede
ist hier von der Quantenkryptografie. Wie das Wort schon sagt, beruht die Idee eines
perfekten Systems auf der Quantentheorie, der physikalischen Welt der kleinsten Bausteine
der Materie. Die Geschichte der Quantenkryptografie geht auf eine Idee in den
Sechzigerjahren zurück. Der Urheber war Stephen Wiesner, der damals als Doktorand an der
Columbia University gearbeitet hat und als Erster vorschlug, Quantengeld zu entwickeln.
Wiesner hatte das Pech, dass er seiner Zeit weit voraus war und keiner seine Idee wirklich
ernst nahm. Bevor wir uns aber mit der Quantenkryptografie vertraut machen können, müssen
wir zunächst tiefer in die Welt der Quanten eindringen. Daher werde ich Ihnen im nächsten
Kapitel die Grundlagen und Phänomene der Quantentheorie erläutern. Wir verlassen jetzt das
Feld der Zahlentheorie und begeben uns in die Welt der Physik mit ihren bedeutenden
Erkenntnissen in den kleinsten Strukturen und Dimensionen.

97
4. Grundlegende Konzepte der Quantentheorie

Als Begründer der Quantentheorie gilt Max Planck, der am 14. Dezember 1900 die Grundidee
der Quantentheorie in einem Vortrag vor der physikalischen Gesellschaft in Berlin
präsentierte. Max Planck führte mit seiner Arbeit über die Strahlung des schwarzen Körpers
den Begriff des diskreten Energiequants ein. Er postulierte, dass die Energie und die Frequenz
des Lichts über eine universelle Konstante, das so genannte „Wirkungsquantum“, korreliert
seien. Mathematisch kann die Beziehung folgendermaßen formuliert werden:

E = hf E … Energie, h … planksches Wirkungsquantum, f … Frequenz

Dieses Postulat hat die Menschen zu einem tief greifenden Umdenken über die Vorstellung
der Natur der physikalischen Realität geführt. Trotz dieser revolutionären Umwälzung in der
grundlegenden Anschauung der physikalischen Vorgänge in der Welt des Mikrokosmos hat
die planksche Relation keine weit verbreitete Popularität erreicht. Das Jahr 1900 ist zwar das
Geburtsjahr der Quantentheorie, aber erst in den Jahren 1925 und 1927 gelang Werner
Heisenberg, Max Born, Erwin Schrödinger und Paul Dirac eine adäquate Interpretation dieser
Theorie. Von der Quantenmechanik kann man nicht behaupten, dass sie zur Alltagsphysik
gehört, jedoch sind wir von den technischen Anwendungen der Quantenphysik im alltäglichen
Leben ständig umgeben, ob es sich nun um die Lasertechnik oder um die Halbleitertechnik
mit ihrer Mikrochiptechnologie handelt. Wir werden uns nun mit den faszinierenden
Phänomenen der Quantenmechanik beschäftigen und ihren fundamentalen Prinzipien auf den
Grund gehen.
Bei der Quantenmechanik handelt es sich um eine physikalische Theorie, die sich mit der
Beschreibung der Bewegung, der Wechselwirkung und den Zuständen von atomaren und
subatomaren Teilchen beschäftigt. Die Quantenmechanik trifft im Gegensatz zur klassischen
Theorie Wahrscheinlichkeitsaussagen, daher lassen sich bestimmte klassische Vorstellungen
auf die Quantenmechanik nicht übertragen. Um sich eine richtige Vorstellung von der
Quantenmechanik machen zu können, muss man sich daher von klassischen Begriffen lösen,
wie wir später noch sehen werden. Um die Eigenschaften subatomarer Bausteine wie
beispielsweise Elektronen, Neutronen oder Protonen zu verstehen, betrachten wir im ersten
Schritt ein bekanntes Experiment. Es ist schon verwunderlich, wenn man zu hören bekommt,
dass sich Elementarteilchen situationsabhängig einmal wie Wellen und ein anderes Mal wie

98
Teilchen verhalten. Man spricht hier auch von einem „Welle-Teilchen-Dualismus“ der
Elementarteilchen. Je nach Anordnung des Experiments tritt das eine oder andere Phänomen
in Erscheinung und das widerspricht im hohen Grade der physikalischen Alltagserfahrung,
denn dort gibt es eine klare Trennung der Objekte und Zustände. Einem vergleichsweise
massiven Objekt, wie beispielsweise einer Billardkugel, würde man erfahrungsgemäß nur
Teilcheneigenschaften und keine – wie bei einer Welle, bei der das Auftreten bestimmter
Interferenzbilder oder Beugungserscheinungen üblich ist – Welleneigenschaften zusprechen.
Aber das gerade gilt für quantenmechanische Objekte wie z. B. Elektronen nicht mehr, da es
hier sehr wohl auch zu Wellenerscheinungen kommen kann, wie folgendes Experiment zeigen
wird. In den Anfangsjahren handelte es sich lediglich um ein Gedankenexperiment,
inzwischen kann das Experiment an Elektronen, Neutronen, Atomen und Molekülen
durchgeführt werden. Die Rede ist hier vom Doppelspaltexperiment, mit dem
Beugungsphänomene von Quantenobjekten nachgewiesen werden können. Betrachten wir
dazu die Versuchsanordnung in Abbildung 3. Wir sehen auf diesem Bild eine
Elektronenquelle, daher sind Elektronen unsere Quantenobjekte, die wir untersuchen wollen.
Die Elektronen treten aus dieser Quelle aus und bewegen sich Richtung Blende, bei der sie
einen Spalt oder zwei Spalte passieren können. Wenn die Elektronen den Weg durch den
Spalt genommen haben, treffen sie auf einen Schirm, auf dem sich ein Detektor befindet, mit
dem die Elektronen beobachtet werden können. Nun ergibt sich bei der Beobachtung eine
verwirrende Situation: Wird nur Spalt 1 geöffnet und Spalt 2 geschlossen und misst man die
Intensitätsverteilung der Elektronen durch einen Elektronendetektor an der Position des
Schirmes, so erhalten wir eine Verteilungsfunktion 1, wie sie in der roten Kurve dargestellt
wird. Analog ergibt sich dieselbe Verteilungsfunktion 2 (blau dargestellt), nur in Richtung
Spalt 2 verschoben, wenn man Spalt 2 öffnet und Spalt 1 schließt.
Man sollte jetzt annehmen, wenn beide Spalte geöffnet werden, dass sich eine
Verteilungsfunktion ergibt, die aus der Summe der beiden Verteilungen 1 und 2 gebildet
werden kann. Sind jedoch beide Spalte offen, stellt der Elektronendetektor eine ganz andere
Intensitätsverteilung fest, die durch die Kurve P12 wiedergegeben wird. Obwohl der Detektor
jedes Mal nur ein Elektron gemessen hat und dieses entweder Spalt 1 oder Spalt 2 passiert
haben muss, beobachtet man eine Intensitätsverteilung, die eine Interferenzstruktur darstellt.
Wir haben also für Quantenobjekte ein Beugungsbild erhalten. Dieses Quantenphänomen
widerspricht gänzlich unserer Alltagserfahrung und dennoch ist es Realität. Wir haben es hier
mit einer Welleneigenschaft zu tun, obwohl die gemessenen Quantenobjekte Elektronen, also
Teilchen, sind.

99
Abbildung 3: Doppelspaltexperiment

Es ist bemerkenswert, dass ein und dieselbe Intensitätsverteilung auf drei ganz
unterschiedlichen Wegen realisiert werden kann:

- Man schickt einen dichten Elektronenstrom durch die Anordnung Spalt und
Schirm, so dass viele Quantenobjekte gleichzeitig am Schirm beobachtet werden
können
- Man schickt immer nur nacheinander ein einzelnes Quantenobjekt durch die
Versuchsanordnung
- Man baut eine große Zahl gleicher Versuchsanordnungen auf und schickt immer
nur genau ein Quantenobjekt durch jede dieser Versuchsanordnungen. Die
unterschiedlichen Aufnahmen aus jeder Versuchsanordnung werden zu einem Bild
zusammengefügt.

In allen drei Fällen ergibt sich oben gezeigtes Interferenzbild. Voraussetzung ist natürlich,
dass die Quantenobjekte nicht miteinander wechselwirken können, d. h., ein einzelnes
Quantenobjekt hat keinerlei Information darüber, wo ein anderes Quantenobjekt aufgetroffen
ist. Das Einzelereignis, also wo ein Quantenobjekt auftreffen wird, ist absolut
undeterministisch, mithin zufällig. Wird das Experiment jedoch mit vielen Quantenobjekten
wiederholt, entsteht immer wieder dasselbe Beugungsbild. Daher ist die Entstehung des

100
Gesamtbildes ein deterministischer Vorgang. Es handelt sich dabei um einen
Ensemblezustand.
Anhand des Doppelspaltexperiments konnten wir sehen, dass Quantenobjekte, wie
beispielsweise Elektronen, je nach Versuchsanordnung entweder Teilchen- oder
Wellencharakter zeigen. Das gleiche Interferenzbild wie in Abbildung 3 würde durch Licht
hervorgerufen werden, da es sich bei der Ausbreitung von Licht um einen Wellenvorgang
handelt. Tritt eine ebene Lichtwelle durch einen Doppelspalt, wobei die Dimension der
Durchtrittsöffnung in der Größenordnung der Wellenlänge liegen muss, so wird analog dem
Doppelspaltexperiment mit Elektronen eine Interferenzerscheinung mit Hauptmaximum und
Nebenmaxima in der Intensitätsverteilung beobachtet. Unter „Interferenz“ versteht man die
Überlagerung von Wellen, die sich verstärken oder abschwächen können. Verursacht durch
die auftreffende ebene Welle gehen vom Spalt Kugelwellen aus, die sich hinter dem Spalt
überlagern. Treffen nun an einem Ort zwei Wellenberge aufeinander, so entsteht ein höherer
Wellenberg und es tritt eine Verstärkung ein. Treffen jedoch ein Wellenberg und ein
Wellental aufeinander, heben sich beide gegenseitig auf. Das resultierende Wellenbild hinter
dem Spalt ist also das Ergebnis einer Addition, siehe Abbildung 4. Man spricht auch von
einer Superposition von Elementarwellen.

Abbildung 4: Beugungsbild am Doppelspalt

Bildet man das Quadrat des resultierenden Wellenfeldes zum Beispiel am Ort x des Schirmes,
so erhält man eine normierte Intensitätsverteilung.
Übertragen wir nun unser Wellenbild mit der Superposition von Lichtwellen auf
Quantenobjekte, so können wir folgenden Analogieschluss ziehen: Es zeigt sich für die

101
Aufschläge von Elektronen auf dem Schirm dasselbe Beugungsbild wie bei Lichtwellen im
Doppelspaltversuch. Da nun für Lichtwellen das Superpositionsprinzip, also die Überlagerung
von Einzelwellen, die aus den Spalten 1 und 2 kommen, gilt, können wir in Analogie zu den
Lichtwellen auch für Quantenobjekte so genannte Materiewellen definieren, die sich ebenfalls
auf additive Weise überlagern. Man spricht deswegen von Materiewellen, weil es sich bei
diesen Quantenobjekten um Masseteilchen handelt. Um nun eine mathematische
Beschreibung für dieses Quantenphänomen zu finden, führen wir eine Funktion Ψ (r) ein.
Ψ (r), die nach dem griechischen Buchstaben Psi benannt ist, ist von dem Ort abhängig, den
die Wellensituation am Schirm beschreibt. Diese Funktion dient also der Beschreibung eines
quantenmechanischen Zustandes eines physikalischen Systems. Gebräuchlich in diesem
Zusammenhang ist der Begriff der Wellenfunktion, der allerdings etwas unglücklich gewählt
wurde, weil die Funktion mathematisch gesehen in bestimmten Situationen die Form einer
Welle hat, jedoch im physikalischen Sinne nicht so aufzufassen ist. Daher werden wir in
Zukunft die Funktion Ψ (r) als Zustandsfunktion bezeichnen, weil sie einen
quantenmechanischen Zustand beschreibt. Das Quadrat des Betrages der Funktion |Ψ (r)|²
interpretieren wir physikalisch als Auftreffwahrscheinlichkeit am Ort r in einem kleinen
Volumselement rund um r. Mit den beiden mathematischen Elementen der Zustandsfunktion
und Auftreffwahrscheinlichkeit haben wir das Grundgerüst geschaffen, um in diesem Buch
die Phänomene der Quantenmechanik und -kryptografie mathematisch zu beschreiben.
Betrachten wir noch einmal die Situation im Doppelspaltexperiment für Elektronen, und zwar
den Fall, bei dem beide Spalte geöffnet sind. Wir haben bereits gesehen, dass in dieser
Versuchsanordnung ein Beugungsbild mit Minima und Maxima entsteht, wie es auch bei
Wellen beobachtet wird. Wir können nun die Überlagerung der Materiewellen für Elektronen
in folgender Weise formulieren: Ψ1 (r) ist die Zustandsfunktion, wenn Spalt 1 geöffnet und
Spalt 2 geschlossen ist. Umgekehrt ist Ψ2 (r) die Zustandsfunktion, wenn Spalt 2 geöffnet und
Spalt 1 geschlossen ist. Jetzt kann der Zustand, wenn beide Spalte geöffnet sind, als
Überlagerung der Zustände 1 und 2 geschrieben werden, also:

Ψ (r) = Ψ1 (r) + Ψ2 (r) (1)

Der Vollständigkeit halber muss nach angeführt werden, dass zusätzlich noch ein
Normierungsfaktor wegen der Wahrscheinlichkeitsinterpretation der Zustandsfunktionen
notwendig wäre, dieser aber für das Prinzip vorerst keine Relevanz hat. Es gibt eine Vielzahl
quantenmechanischer Systeme, die als Überlagerung von Zuständen geschrieben werden

102
kann. Das Experiment am Doppelspalt zeigt in drastischer Weise, dass sich Quantenobjekte
nicht mehr wie klassische Teilchen mit Masse verhalten. Die Häufigkeit der Aufschläge ist
nicht etwa hinter den beiden Spaltöffnungen am größten, wie man es bei der klassischen
Mechanik annehmen würde, sondern im Zwischenbereich beider Spalte. Durch die Addition
der beiden Zustandsfunktionen kann es zu einer konstruktiven oder destruktiven Interferenz
kommen, daher auch das gänzlich andere Verhalten für die Auftreffwahrscheinlichkeit der
Teilchen am Schirm.

Ich möchte am Ende dieses Abschnitts noch einmal die wichtigsten Elemente, die wir kennen
lernen konnten, anführen:
- Quantenmechanische Objekte weisen je nach Versuchsanordnung ein
unterschiedliches Verhalten auf, das sich im Welle-Teilchen-Dualismus
widerspiegelt
- Quantenmechanische Objekte können durch eine Zustands- oder Wellenfunktion
beschrieben werden
- Superposition: Quantenmechanische Zustände können überlagert werden und
zeigen Interferenzerscheinungen, wie sie auch im klassischen Sinne bei Wellen
auftreten

4.1 Verschränkung und Kohärenz

4.1.1 Verschränkung

Zu den besonderen quantenmechanischen Eigenschaften zählt die Verschränkung, die


typischerweise in der klassischen Physik nicht beobachtet wird. Die Verschränkung ist ein
quantenmechanisches Phänomen, das in den Anfängen der Quantenphysik großen Widerstand
hervorrief, heute jedoch als physikalische Realität weitgehend anerkannt ist. Als
Quantenverschränkung bezeichnet man ein Zwei- oder Mehrteilchensystem, in dem Teilchen
nicht unabhängig voneinander beschrieben werden können. In der klassischen Physik ist es
immer möglich, Eigenschaften, z. B. Geschwindigkeit oder Ort eines Teilchens, zu

103
beschreiben, ohne die Eigenschaft anderer Objekte zu kennen. In der Quantenphysik ist das
jedoch anders. So können sich mehrere Teilchen nach einer bestimmten Wechselwirkung in
einem gemeinsamen Zustand befinden, der durch eine gemeinsame Wellenfunktion
beschrieben wird. Die Wahrscheinlichkeit, eine Eigenschaft des einen Teilchens zu messen,
hängt dabei von der Messung des anderen Teilchens ab. Dabei steht zur Zeit der Trennung der
beiden Teilchen jedoch noch nicht fest, in welchem Zustand sich die Teilchen bei der
Messung befinden werden. Für jedes einzelne der verschränkten Quantenteilchen ist also der
Ausgang einer Messung unbestimmt, während die Korrelation von Beginn an feststeht. Dieser
Effekt, der als Konsequenz des Superpositionsprinzips gesehen werden kann, ist eigentlich
erst für die spezifischen Eigenschaften von quantenmechanischen Informationssystemen
verantwortlich.
Wir wollen uns die Quantenverschränkung anhand eines Standardexperiments an
verschränkten Photonen, also an Lichtteilchen, veranschaulichen. Diese lassen sich aus einem
Kristall erzeugen, der die Eigenschaft besitzt, aus einem Photon zwei zu erzeugen. Auf Grund
von Erhaltungssätzen sind die Eigenschaften der beiden Photonen nicht unabhängig
voneinander, sondern verschränkt. Eine dieser Eigenschaften ist die Polarisation eines
Photons. Darunter versteht man die Schwingung einer Welle in einer bestimmten Ebene. Im
Gegensatz dazu spricht man von unpolarisierten Photonen, wenn die Schwingungen einer
Welle wahllos über alle möglichen Ebenen, die senkrecht zur Ausbreitungsrichtung der Welle
stehen, verteilt sind. Jedes Photon der zwei erzeugten Photonen kann nun eine beliebige
Polarisationsrichtung aufweisen. Wird jedoch die Polarisation eines Photons gemessen, dann
folgt daraus direkt die Polarisation des anderen Photons. Eine solche Abhängigkeit wird in der
Physik als „Korrelation“ bezeichnet. Das interessante und verblüffende an der
quantenmechanischen Korrelation spiegelt sich in der Situation wider, dass die Polarisation
der einzelnen Photonen zum Zeitpunkt ihrer Entstehung noch gar nicht feststeht. Diese wird
erst zum Zeitpunkt der Messung festgelegt. Bei der Erzeugung der Photonen liegt jedoch
schon eine Korrelation der Photonen vor. Der scheinbare Widerspruch lässt sich rein
mathematisch durch eine gemeinsame Wellenfunktion beschreiben. Die Beschreibung führt
dazu, dass es sich bei der Quantenmechanik um eine nicht lokale Theorie handelt, denn die
Messung an einem Photon bestimmt den Ausgang der Messung an einem beliebig weit
entfernten Ort des anderen Photons. Die Korrelation erfolgt instantan, also ohne
Zeitverzögerung, egal, wie weit die Photonen voneinander räumlich getrennt sind. Bei der
Verschränkung erfolgt allerdings keine Informationsübertragung, somit ist die
Lichtgeschwindigkeit nach wie vor die maximale Geschwindigkeit, mit der Informationen

104
übertragen werden können. Nach Einsteins Relativitätstheorie sind die Lichtgeschwindigkeit
und der Maximumwert, mit dem die Informationsübermittlung erfolgen kann, konstant. Die
Nichtlokalität der Quantenmechanik bezeichnete Einstein als spukhafte Fernwirkung. Einstein
wollte gemeinsam mit Podolsky und Rosen anhand eines Gedankenexperiments (EPR-
Experiment) zeigen, dass die quantenmechanische Beschreibung der physikalischen Realität
unvollständig sei. Dieses Gedankenexperiment und seine Folgen werden wir im Anschluss
näher erläutern.

4.1.2 Einstein-Podolsky-Rosen-Paradoxon

Zu Beginn des 20. Jahrhunderts revolutionierten zwei Entwicklungen das Gebäude der
Physik – die Relativitätstheorie und die Quantenmechanik. Einsteins Relativitätstheorie hat
unsere Vorstellung des Zusammenhanges von Raum, Zeit und Materie grundlegend verändert,
hingegen stand Einstein der Quantenmechanik – einer neuen Theorie des Mikroskopischen –
von Anfang an sehr skeptisch gegenüber. Niels Bohr, einer der Begründer der Quantenphysik,
versuchte im Jahr 1927 auf einem Kongress in Brüssel, sein Auditorium davon zu
überzeugen, dass die Quantenmechanik kein Stückwerk, sondern eine verständliche,
vollständige und fundamentale Theorie der Materie sei. Im Anschluss des Vortrages trat
Einstein in einer emotionsgeladenen Diskussion Bohr öffentlich entgegen, indem er
behauptete, dass sich die Quantenmechanik momentan nur in einem Übergangsstadium
befände, bis die Mikroobjekte und ihre Wechselwirkungen endgültig vollständig verstanden
seien. Einstein glaubte nicht an den prinzipiellen Zufall beim Aufbau der Materie, denn nach
seinem Verständnis hätte das bedeutet, dass der Mensch eine prinzipielle Grenze im
Verständnis der Natur erreicht hätte und das konnte er so nicht einfach hinnehmen. Hier sah
Einstein einen krassen Widerspruch in seiner religiösen Anschauung, dass ein Schöpfer wohl
die Welt in einer Weise erschaffen würde, dass auch der Mensch diese im Prinzip begreifen
könne. Ein berühmter Ausspruch von Einstein bringt es auf den Punkt: „Raffiniert ist der
Herrgott, aber bösartig ist er nicht.“ Dies war der Anfang einer jahrzehntelangen Diskussion
zwischen Bohr und Einstein, der so genannten „Bohr-Einstein-Debatte“.

105
Aus dieser Diskussion ging ein Aufsatz hervor, den Einstein gemeinsam mit den jungen
Physikern Podolsky und Rosen im Jahr 1935 veröffentlichte. Dieses ursprüngliche
Gedankenexperiment, später im Labor als nachgewiesener EPR-Effekt, das gegen die Regeln
des klassisch-lokalen Realismus verstieß, beinhaltete das Grundproblem beim Verständnis der
Quantenmechanik. In diesem Aufsatz störten sich die drei daran, dass in der
Quantenmechanik die Messung der Eigenschaft eines Teilchens, z. B. eines Elektrons oder
Photons, ein weit entferntes, scheinbar unabhängiges Teilchen beeinflussen kann. Nach ihrer
Auffassung sollten nach gesundem Menschenverstand drei Prämissen, wie sie auch in der
klassischen Physik gelten, in der Quantenmechanik erfüllt sein: Lokalität, Realität und
Vollständigkeit.
Da die Originalarbeit schwer verständlich ist, möchte ich Ihnen das EPR-Experiment anhand
der Polarisation von Photonen erläutern:
Angenommen, wir haben eine Lichtquelle, die in entgegengesetzte Richtungen gleichzeitig
zwei Photonen aussendet (siehe Abbildung 5).

Abbildung 5: EPR-Effekt

Die Quelle ist so beschaffen, dass beide Photonen verschränkt werden können, d. h., wird die
Polarisation des einen Photons gemessen, ist somit die Polarisation des anderen Photons
senkrecht dazu festgelegt. Vor der Messung sind die Polarisationsrichtungen der Photonen
unbestimmt. Für die Messung der Polarisationsrichtungen werden in großer Entfernung

106
Polarisationsfilter aufgestellt. Über Detektoren hinter den Filtern kann dann beobachtet
werden, ob ein Photon den Polarisator passiert hat oder nicht.

Was ist nun das Ergebnis dieses Experiments?

Bei paralleler Stellung der Polarisationsfilter lässt sich immer folgendes Ergebnis beobachten:
Wenn die Polarisationsrichtung des linken Photons mit Polarisationsfilter 1 bestimmt wird,
wird das rechte Photon absorbiert und umgekehrt. Das gilt für jede parallele Stellung der
Polarisationsfilter – unabhängig davon, welchen Winkel man einstellt. Das gilt auch dann
noch, wenn die Polarisatoren nach Erzeugung des Photonenpaares eingestellt wurden.
Die Erklärung durch die Quantenphysik ist, dass wenn ein Photon den Polarisator passiert, es
durch die Messung in eine bestimmte Richtung in diesen Zustand präpariert wird. In dem
Augenblick, in dem die Polarisation des einen Photons durch den Polarisator festgelegt wird,
ist die Polarisation des anderen Photons ohne zeitliche Verzögerung senkrecht dazu
festgelegt. Einstein nannte diesen Effekt, wie schon gesagt, eine geisterhafte Fernwirkung. In
der klassischen Physik wäre ein solcher Effekt unmöglich, denn wenn damit eine
Wechselwirkung lokal an einem bestimmten Ort feststellbar ist, müsste eine Information von
einem Photon auf das andere übertragen werden und das wäre maximal mit
Lichtgeschwindigkeit möglich. Auf Grund der makroskopischen Entfernung der beiden
Teilchen ist die Informationsübertragung nur in endlicher Zeit gegeben. Nachdem die
klassische Physik dem Kausalitätsprinzip, also dem Ursache-Wirkungsprinzip unterliegt, kann
zwischen Vergangenheit und Zukunft unterschieden werden.
Experimentell kann der EPR-Effekt heutzutage jederzeit nachgewiesen werden. Aus der
Beobachtung heraus lässt sich der Schluss ziehen, dass auf quantenmechanischer Ebene nicht-
lokale Effekte auftreten, die sich einer kausalen Wirkung entziehen. Wir sehen also, dass wir
es hier mit einer gänzlich anderen Erscheinungswelt als in der klassischen Physik zu tun
haben. Mit dieser scheinbar sehr bizarren Welt konnte sich Einstein nie wirklich anfreunden,
letztlich musste aber auch er die Fakten der scheinbar widersprüchlichen Quantenwelt
akzeptieren.

4.1.3 Kohärenz

107
Die Kohärenz und die Verschränkung sind grundlegende Konzepte der Quantenmechanik; sie
bilden die Grundlage für zukunftsweisende Anwendungen wie Quantenkryptografie und
Quantencomputer. Bei allen Versuchen im Labor konnten bis jetzt verschränkte Zustände nur
relativ kurz aufrechterhalten werden, die z. B. verglichen mit der Dauer von
Rechenoperationen für die Ausführung komplexerer Rechnungen auf einem
Quantencomputer nicht ausreichend sind.

Was verbirgt sich nun hinter dem Begriff der Kohärenz?

Greifen wir zur Erklärung noch einmal auf die interferierenden Wellen zurück, wie wir sie am
Doppelspaltversuch beobachten konnten. Unser Interferenzmuster am Doppelspalt entstand
aus vielen Einzelereignissen; das heißt, aus einer Vielzahl von Elektronen, die durch den
Doppelspalt geschickt werden, erhält man ein klares Interferenzmuster nur dann, wenn alle
Elektronen phasengleich sind, sonst versucht jedes Elektron, sein eigenes Interferenzmuster
aufzubauen. Unter gleicher Phase oder auch gleichem Takt verstärkt sich die Amplitude
zweier Wellen, man spricht daher von konstruktiver Interferenz. Sind jedoch die beiden
Wellen um 180° phasenverschoben, tritt eine destruktive Interferenz auf. Tritt nun eine
Störung der Phasenbeziehung auf, wie sie beispielsweise durch eine zu geringe Isolierung von
der Umwelt hervorgerufen werden kann, weisen die Einzelereignisse der Elektronen in der
Summe keine Interferenz mehr auf. Unter Kohärenz wird also nichts anderes verstanden, als
die Fähigkeit, Interferenz zu erzeugen; hingegen führen Prozesse, die eine Interferenz
beeinträchtigen oder gar verhindern, zu einer Dekohärenz. Ebenso verlieren
quantenmechanische Wellen ihre Kohärenz durch einen gezielten Eingriff einer Messung. In
diesem Fall entsteht ein verschränkter Zustand zwischen dem Quantenobjekt und dem
Messgerät. Will man z. B. bestimmen, durch welchen Spalt sich das Elektron im
Doppelspaltversuch bewegt hat, ist es notwendig, eine Ortsbestimmung durchzuführen. Zu
diesem Zweck kann der Raum hinter der Blende mit einem Lichtstrahl ausgeleuchtet werden.
Hierfür darf aber der Lichtstrahl nicht beliebig schwach gewählt werden, sondern es muss
zumindest ein Lichtquant respektive ein Photon in Wechselwirkung mit dem Elektron treten.
Durch die Streuung des Photons am Elektron erhält man die Information über die Position des
Elektrons. Somit entsteht eine Verschränkung zwischen dem Zustand des Elektrons und dem
des Photons. Wird nun das Photon gemessen und erfolgt damit eine gleichzeitige Bestimmung

108
über den Aufenthaltsort des Elektrons, wird diese Information an die Umwelt übertragen und
das Elektron ist lokalisiert.
Ganz allgemein kann gesagt werden, dass jedes komplexe System, das nicht von seiner
Umwelt isoliert ist, durch Interaktion mit seiner Umwelt in einen ständig verschränkten
Zustand übergeht. Die damit verbundene Dekohärenz führt zu einem klassischen Erleben
unserer Umwelt. Um die Quantenwelt zu erfahren, bedarf es eines perfekt abgeschotteten
Systems von der Umgebung, mit dem Ziel, die Komplexität der Verschränkung zu
beherrschen und für neue Anwendungen zu nutzen.

109
5. Quanteninformatik

Die Quantenmechanik eröffnet faszinierende Perspektiven für die Kommunikation und


Informationsverarbeitung. Wir sind gegenwärtig Zeugen der rasanten Entwicklung eines
neuen interdisziplinären Fachgebiets, das Ideen der Informationstheorie, Mathematik und
Physik in sich vereinigt. Die Quanteninformatik beschäftigt sich mit der
Informationsverarbeitung auf Grundlage der Quantenphysik sowie mit den physikalischen
Konzepten des Informationsbegriffes. Das große Interesse an den Themenkreisen
Quantencomputer und Quantenkommunikation hat verschiedene Gründe: Einerseits beinhaltet
es grundsätzliche Fragen über die Quantenphysik und Informationstheorie und verspricht
andererseits Anwendungen wie geheime Kommunikation und effiziente Quantenalgorithmen.
Beispiele sind hierfür der Shor-Algorithmus zur Faktorisierung großer Zahlen oder der
Grover-Algorithmus zur Datenbanksuche. Ich werde Ihnen die Anwendungsmöglichkeiten der
Quanteninformatik noch näher erläutern. Die momentane Entwicklung erinnert an die
Pionierzeit der klassischen Informatik, als die moderne Informationstechnologie geschaffen
wurde. Trotz der beachtlichen Fortschritte in dieser Disziplin stecken die experimentelle
Realisierung und die praktische Implementierung derzeit noch in den Kinderschuhen. Zwar
sind einige bemerkenswerte Experimente in der Quantenkommunikation und
-informationsverarbeitung demonstriert worden, jedoch in welcher Form die Entwicklung zu
einer technologischen Anwendung führen wird, ist momentan noch ungewiss.

110
5.1 Grundlagen der Quanteninformation

5.1.1 Quantencomputer

Wir können in diesem Abschnitt auf die grundlegenden Konzepte der Quantenmechanik
zurückgreifen, die wir in dem vorangegangenen Abschnitt erläutert haben. Die
Quanteninformation wird in Quantenzuständen eines physikalischen Systems gespeichert.
Neue Quanteninformationsverfahren beruhen auf der Erweiterung der üblichen digitalen
Verschlüsselung der Information. In der klassischen Informatik sind Bits, die durch die Werte
0 und 1 repräsentiert sind, die Informationseinheiten, die für die Speicherung und
Manipulation von Daten verwendet werden; dagegen wird in der Quanteninformatik als
Informationseinheit das Qubit (= Quantenbit) herangezogen. Für die Realisierung von Qubits
werden Quantenobjekte als Träger der Information verwendet. Um die Einstellungen von den
klassischen Werten 0 und 1 des Bits zu unterscheiden, verwenden wir die
Quantenschreibweise |0 > und |1 >. Das Qubit misst den Informationsgehalt, der in einem
Zwei-Zustandssystem gespeichert wird. Es gibt eine Reihe von Möglichkeiten, wie ein Zwei-
Zustandssystem realisiert werden kann. Beispiele sind die lineare Polarisation eines
Lichtquants mit den Einstellungen |H > für horizontale und |V > für vertikale Polarisierung
oder der Spin eines Elektrons mit den Einstellung +|½ > oder –|½ > für die Spinausrichtung. |
H > und |V > stehen für |0 > und |1 >.

Wo liegt nun der wesentliche Unterschied zur herkömmlichen binären Information?

Im letzten Kapitel haben wir gesehen, dass Quantenzustände überlagert werden können. Und
hierin liegt genau der Unterschied zur klassischen binären Informationsverarbeitung. Die
Quanteninformatik macht sich zu Nutze, dass nicht nur die Schalterstellungen |0 > und |1 >,
sondern auch beliebige Linearkombinationen beider Basiszustände realisiert werden können.

a|0 > + b|1 > (1)

111
Bei a und b handelt es sich um komplexe Koeffizienten. Physikalisch vom Standpunkt der
Wahrscheinlichkeitsinterpretation aus gesehen befindet sich das Quantensystem mit der
Wahrscheinlichkeit |a|2 im Zustand |0 > und mit der Wahrscheinlichkeit |b|2 im Zustand |1 >.
Die Beobachtung ergibt einen der beiden Werte mit der angegebenen Wahrscheinlichkeit,
somit ist bei einer Messung, welcher Wert bestimmt wird, ungewiss.

Natürlich kommt man bei der Beschreibung von komplexeren Informationssystemen mit
2 Bits nicht aus, dafür ist eine Vielzahl von Informationseinheiten notwendig. Aus diesem
Grund ist vom Standpunkt der praktischen Betrachtung die Überlagerung von mehreren
Qubits von Interesse. Der Einfachheit halber betrachten wir hier ein Paar von Qubits. In
klassischer Hinsicht ergibt sich die Wertekombination 00, 01, 10 und 11. In Analogie dazu
erhalten wir für ein Paar von Qubits folgende Basiseinstellungen |0 >|0 >, |0 >|1 >, |1 >|0 >
und |1 >|1 >. Zustände dieser Art bezeichnet man als Produktzustände, da der Gesamtzustand
durch ein Produkt von Einzelzuständen beschrieben werden kann. Beide Qubits können
natürlich wieder durch eine Überlagerung der Basiszustände hergestellt werden.
Betrachten wir ein Paar von Lichtquanten, so genannte „Photonen“. Wir gehen davon aus,
dass sich das Paar im folgenden Überlagerungszustand befindet:

(|HV > – |VH >) / √2 (2)

Der Normierungsfaktor 1 / √2 ergibt sich aus Überlegungen der


Wahrscheinlichkeitsrechnung. Die Gesamtwahrscheinlichkeit aus der Summe der
Einzelwahrscheinlichkeiten aller zu messenden Zustände ist klarerweise gleich 1. Wir nehmen
an, dass beide Zustände |HV > und |VH > mit gleich hoher Wahrscheinlichkeit gemessen
werden, also mit der Wahrscheinlichkeit ½. Wir haben bereits festgestellt, dass die
Wahrscheinlichkeit, z. B. einen Zustand |0 > zu messen, gleich |a|2 ist. In Analogie zu |HV >
ist daher |a|2 = ½ und folglich a = 1 / √2. Misst man jetzt das erste Photon mit einer
Wahrscheinlichkeit von ½ in horizontaler Polarisation, so folgt aus unserer Annahme, dass
das zweite Photon in vertikaler Richtung beobachtet wird. In diesem Fall haben wir es immer
mit zwei unabhängigen Qubit-Zuständen zu tun. Zeigt sich aber eine gegenseitige
Abhängigkeit der beiden Qubits, so können die Zustände nicht mehr als Produkte von zwei
unabhängigen Qubit-Zuständen geschrieben werden.

112
Welche schwierigen Herausforderungen ergeben sich bei der Realisierung eines
Quantencomputers?

Als Quantencomputer bezeichnet man ein System, in dem eine kontrollierte Verarbeitung von
Quanteninformationen möglich ist. Die Definition des Informationsbegriffes und der
Informationsverarbeitung basiert hier auf einer physikalischen Theorie, nämlich der
Quantentheorie, die die möglichen Zustände und die Dynamik der Informationsträger
bestimmt. Insofern ist das Problem der Quanteninformationsverarbeitung eng mit dem
Problem der Dekohärenz verbunden. Jedes reale System ist, wenn auch nur schwach, an
Freiheitsgrade seiner Umgebung gekoppelt. Damit ist eine unkontrollierte Wechselwirkung
mit der Umgebung gegeben, sprich eine Dekohärenz. Quantenmechanische Überlagerungen
werden dadurch empfindlich gestört und daher sind Quantenfehlerkorrekturen der wesentliche
Bestandteil eines Quantencomputers. Für die Implementierung eines Quantencomputers ist
ein physikalisches System notwendig, das es erlaubt, Quantenzustände verlässlich zu
speichern, aber auch Quantenoperationen präzise durchzuführen. In der Praxis gibt es dafür
nur wenige taugliche Kandidaten. Zur Realisierung von Quantencomputern muss eine Reihe
von Bedingungen erfüllt sein:

• Identifikation einzelner Qubits


• Schwache Dekohärenz, sprich schwache Wechselwirkung mit der Umgebung
• Effiziente Implementierung von Fehlerkorrekturen
• Implementierung von Quantengattern
• Adressierbarkeit und Auslesen einzelner Bits

In einem Quantencomputer haben wir als Input und Output eine Anzahl von Qubits, der
Computer erzeugt mit Hilfe quantenmechanischer Operationen aus einem Input einen Output.
Die charakteristischen Eigenschaften der Quantenmechanik – etwa Superposition, Interferenz
und letztlich die Verschränkung zwischen Qubits – ermöglichen im Vergleich zum Aufwand
bei klassischen Berechnungen eine erhebliche Beschleunigung in der Berechnung von
zeitkritischen Problemen. Ein wesentlicher Punkt liegt im Quantenparallelismus, mit dem es
möglich ist, Eigenschaften herauszufinden, die allen Resultaten gemein sind, ohne dass jedes
Mal die Rechung für jeden einzelnen Input separat ausgeführt werden muss. So hat Peter Shor
eine Formulierung des bisher effektivsten Quantenalgorithmus für die Zerlegung einer großen
Zahl in ihre Primfaktoren auf einem Quantenparallelismus aufgebaut.

113
5.1.2 Faktorisierungsalgorithmus von Peter Shor

Wir haben uns bereits ausführlich in Kapitel 2 mit Faktorisierungsverfahren auseinander


gesetzt und sind dabei der Problematik der Faktorisierung großer Zahlen auf den Grund
gegangen. Es stellte sich heraus, dass ein enormer Rechenaufwand mit langen Laufzeiten für
die Faktorisierung großer Zahlen in Kauf genommen werden muss. Peter Shor hat einen
Algorithmus entdeckt, der, wenn es jemals eine praktische Umsetzung in Form eines
Quantenrechners geben sollte, alle bekannten Faktorisierungsverfahren in ihrem
Laufzeitverhalten in den Schatten stellen wird. In diesem Abschnitt werden wir uns im Detail
damit beschäftigen. Die Faktorisierung großer Zahlen erfolgt im Shor-Algorithmus nicht
direkt, sondern auf Umwegen. Ausgangspunkt ist ein schwieriges zahlentheoretisches
Problem, bei dem es um die Bestimmung der Periode der Funktion

ax mod n (1)

geht. Im ersten Schritt wollen wir zeigen, warum die Lösung dieser Aufgabe auch das
Faktorisierungsproblem löst. Wir wählen n als die zu faktorisierende Zahl und eine Zahl a, die
zunächst beliebig angenommen wird, jedoch einigermaßen groß und zu n teilerfremd ist,
sprich ggT (a, n) = 1. Die Idee liegt einfach in der binomischen Formel:

a2m – 1 = (am – 1) ( am + 1) (2)

Es wird nun nach Werten von m gesucht, mit denen n die linke Seite der Gl. (2) und folglich
auch die rechte Seite der Gl. (2) teilt. Auf der rechten Seite steht dann das Produkt zweier
Zahlen, das durch n teilbar ist.
Es stellt sich also die Frage, wie wir m finden, so dass a2m durch n geteilt den Rest 1 lässt. In
Form der kongruenten Schreibweise bedeutet das, folgende Aufgabe zu lösen:

ax 1 mod n (3)

114
Im Prinzip haben wir im Auffinden der Zahl x eine große Ähnlichkeit zu der Lösungsvariante
des quadratischen Siebs. Als Beispiel betrachten wir die Zahl 21, die es zu faktorisieren gilt.

Welche Zahlen sind zu 21 teilerfremd, also ggT (a, 21) = 1?


2, 4, 5, 8, 10, 11, 13, 16, 17, 19, 20.

Wir wählen a = 5 und bestimmen den Exponenten x, indem wir bei x = 1 beginnen x und
schrittweise um 1 erhöhen:

51 5 mod 21
52 4 mod 21
53 –1 mod 21
55 –4 mod 21
56 1 mod 21 → bingo, Gl. (3) ist erfüllt

Aus der Zerlegung von Gl. (2) folgt, wenn man 2 m = 6 setzt:

56 – 1 = (53 – 1) ( 53 + 1)

Nun teilt zwar die Zahl 21 das Ergebnis aus 56 – 1, aber auch die Zahl 53 + 1 = 126. Somit
haben wir eine triviale Lösung gefunden, denn 126 ist ein Vielfaches der Zahl 21 und somit
kein Primteiler. Wir versuchen einen neuen Ansatz und wählen a = 2. Wir werden sehen, dass
wir mit a = 2 eine gute Wahl getroffen haben und damit die Primfaktoren bestimmen können.
Wir zerlegen die Zahl 64 in folgender Weise:

64 = 3 * 21 + 1

64 kann mit der Basis a = 2 in exponentieller Schreibweise wie folgt formuliert werden:

26 = 64 = 3 * 21 + 1

Bilden wir nun auf beiden Seiten modulo 21, so erkennen wir, dass Gl. (3) wieder erfüllt ist:

26 1 mod 21

115
Zerlegen wir nun die Zahl 26 – 1 mit der binomischen Formel, so erhalten wir:

26 – 1 = (23 – 1) (23 + 1)

Mit 23 – 1 = 7 ist ein nicht-trivialer Primfaktor von 21 gefunden und wir können unsere
Berechnung an dieser Stelle beenden. Fassen wir unsere Rechenschritte für den klassischen
Teil des Shor-Algorithmus noch einmal zusammen:

1) Man wähle zu einer gegebenen Zahl n eine teilerfremde Zahl a, also ggT (a, n) = 1.
2) Man berechne die Periode y von ax mod n, also ay 1 mod n → x = ay/2.
3) Wiederholung von Schritt 1 und 2, wenn y eine ungerade Zahl bzw. eine gerade Zahl mit
trivialer Lösung ist.
4) Berechne p = ggT (x – 1, n) und p = ggT (x + 1, n) → n = p * q.

Es stellt sich im diesen Zusammenhang natürlich die Frage, wie groß die Wahrscheinlichkeit
ist, eine gerade Periode y zu bekommen, denn nur in diesem Fall funktioniert auch unser
Algorithmus. Wir können klarerweise bei der Wahl von a auch Pech haben und eine ungerade
Periode finden. Dazu bedarf es einer Abschätzung; dabei handelt es sich um ein rein
zahlentheoretisches Problem, die Berechnung hat mit der Quantenmechanik nichts zu tun. Wir
wählen also ein ungerades n und fragen nach der Wahrscheinlichkeit W, ein teilerfremdes a
mit einer geraden Periode y zu finden. Die Größe lässt sich wie folgt abschätzen:

W ≥ 1 – 1 / 2k-1 (4)

k steht für die Anzahl der verschiedenen Primfaktoren von n. Für k = 1, also wenn n = py,
versagt unser Algorithmus, denn mit W ≥ 0 kann auch der Fall W = 0 eintreten. Zum Glück
gibt es aber für Zahlen dieser Form schnelle Faktorisierungsmethoden, daher müssen für den
vollständigen Shor-Algorithmus Zahlen der Form py geprüft werden. Setzt sich nun die
zusammengesetzte Zahl aus zwei Primfaktoren zusammen, erhält man pro Durchgang mit
einer Wahrscheinlichkeit von ½ die Lösung. Also ist nach t Schritten die Wahrscheinlichkeit
eines Misserfolgs 2-t. Wir haben nun die Feinheiten des Shor-Algorithmus ausführlicher
diskutiert und wir wenden uns nun dem quantenmechanischen Teil zu.

116
Die Aufgabe, die der Shor-Algorithmus leistet, ist das Auffinden der Periode einer Funktion.
Angewendet wird das Ganze auf die Funktion f (x) = ax mod n, aber man könnte dafür auch
praktisch jede andere periodische Funktion heranziehen. Wir interessieren uns nun insgesamt
für das Laufzeitverhalten. Der eigentliche Unterschied zu den bisherigen klassischen
Algorithmen zur Faktorisierung von Zahlen liegt darin, für alle x die Funktion f (x) in einem
Schritt berechnen zu können. Ich möchte an dieser Stelle den mathematisch-physikalisch
interessierten Leser auf weiterführende Literatur verweisen. Im Rahmen dieses Buches wäre
eine quantenmechanische Abhandlung des Problems zu kompliziert, aber die Vorteile liegen
klar auf der Hand. Mit dem Shor-Algorithmus gelingt die Faktorisierung großer Zahlen auf
Quantencomputern genauso schnell wie das Multiplizieren. Der Quantencomputer gibt das
gesuchte Ergebnis zwar nur mit einer gewissen Wahrscheinlichkeit richtig aus, doch Shor
konnte beweisen, dass die Fehlerwahrscheinlichkeit beliebig klein wird, sofern man diesen
Rechenschritt oft genug wiederholt. Dieses Wiederholen mag den Quantencomputer
verlangsamen, doch er bleibt trotzdem schneller als herkömmliche Computer. Für das
Zerlegen einer 130-stelligen Zahl benötigt ein Quantencomputer 10 Millionen Mal weniger
Rechenschritte als ein klassischer Rechner. Bei einer 600-stelligen Zahl ist Shors
Quantenalgorithmus sogar um eine eins mit zwanzig Nullen mal schneller. Aus dieser
Tatsache heraus wird eines Tages die Sicherheit von derzeit sicheren
Verschlüsselungssystemen gefährdet sein. Mit dem zukünftigen gewaltigen Potenzial eines
Quantencomputers ist mit Shors Quantenalgorithmus die Zerlegung einer sehr großen
zusammengesetzten Zahl kein Hindernis mehr, jedoch haben die Quantenkryptologen eine
neue Entdeckung gemacht, mit der dieser Angriff auf sichere Verschlüsselungssysteme
umgangen werden kann. Im nächsten Abschnitt widmen wir uns der Idee eines absolut
sicheren Verschlüsselungsverfahrens, das seinen Ursprung ebenfalls in der Quantenmechanik
hat, der so genannten „Quantenkryptografie“.

5.2 Quantenkryptografie

Seit langer Zeit versuchen Menschen, Nachrichten so sicher zu übertragen, dass außer dem
Sender und dem Empfänger keiner Zugang zu den Nachrichten hat. Die klassische
Kryptografie hat sich trickreicher Methoden bedient, um einen maximalen hohen Grad an
Sicherheit zu gewähren. Mit der Zunahme des Datenverkehrs, bedingt durch die steigende

117
Vernetzung durch das Internet, werden zuverlässige und schnelle Verschlüsselungsverfahren
immer wichtiger. Bis jetzt wurde jedoch kein absolut sicheres und auch praktikables
Verfahren entdeckt, mit dem das Abhören von gesendeten Informationen verhindert und
dieses Vorgehen auch von Sender und Empfänger bemerkt werden könnte. Die
Quantenkryptografie schafft hier Abhilfe. Das erste kryptografische Protokoll wurde das erste
Mal von Ch. Bennett und G. Brassard vorgeschlagen. Wie schon erwähnt, können
Quantenobjekte und im Besonderen die Superpositionszustände bei einer Beobachtung
empfindlich gestört werden. Werden nun für eine Schlüsselübertragung Quantenobjekte
übermittelt und versucht ein Angreifer, den Schlüssel abzuhören, wird der Vorgang durch die
quantenmechanische Veränderung sofort aufgedeckt.
In der quantenmechanischen Schlüsselübertragung wird zwischen zwei Klassen
unterschieden, basierend auf der Verwendung von Ein- oder Zweiteilchensystemen. Ein
Einteilchensystem ist in Abbildung 5 am Beispiel von Polarisationskodierung von
Einzelphotonen skizziert. Dieses Protokoll wurde von Charles Bennet und Gilles Brassard
vorgeschlagen und ist heutzutage als BB84-Protokoll bekannt.

Abbildung 5: Abhörsicheres System anhand des BB84-Protokolls

In unserem Beispiel wählen wir für den Sender und Empfänger zwei Personen, die wir Alice
und Bob nennen wollen. Alice, die mit der Übertragung beginnt, sendet an Bob linear
polarisierte Photonen. Photonen sind Lichtteilchen und die ausgesuchten Quantenobjekte für
die Schlüsselübertragung. Wir ordnen horizontal sowie im Winkel von –45° polarisierten
Photonen den Bitwert 0 und vertikal sowie im Winkel von 45° polarisierten Photonen den
Bitwert 1 zu. Alice sendet einzelne Photonen in einem dieser vier Polarisationszustände und

118
überträgt die gewählten Zustände in eine Liste. Bob, der als Empfänger fungiert, hat zwei
Analysatoren zur Verfügung. Der erste ermöglicht die Unterscheidung zwischen horizontal
und vertikal polarisierten Photonen, der zweite kann zur Unterscheidung von diagonal
polarisierten Photonen benutzt werden. Vor jeder Messung wählt Bob einen dieser beiden
Analysatoren. Er notiert in einer Liste, ob er ein Photon und mit welchen Analysator er ein
Photon registriert hat. Nach der Übertragung ausreichender Photonen vergleichen Alice und
Bob öffentlich ihre Listen. Sie wählen nur jene Ereignisse, bei denen Bobs Stellung des
Analysators an der Ausrichtung der von Alice versendeten Photonen angepasst war. In diesen
Fällen haben beide identische Bit-Werte. Alle Ereignisse, bei denen keine Übereinstimmung
gegeben ist, werden nicht weiter berücksichtigt. Hierbei ist es wichtig zu verdeutlichen, dass
die Kommunikation, ob ein Photon horizontal, vertikal oder diagonal polarisiert war,
zwischen Alice und Bob zwar öffentlich ist, aber keine Detailinformation über den Zustand
der gesendeten Teilchen offen gelegt wird. Somit erhalten Alice und Bob Zahlenketten mit
gleicher Abfolge von Nullen und Einsen.

Wie aber ist die Sicherheit bei dieser Art der Informationsübertragung gewährleistet?

Angenommen, ein Angreifer möchte einen Lauschangriff starten und den übertragenen
Schlüssel abhören. Für den Angreifer ist es unmöglich, einen geringen Teil des optischen
Signals abzuzweigen, ohne dass Bob es merkt. Er hat nun entweder die Wahl, nicht zu messen
(in diesem Fall bekommt er keinerlei Informationen über den Zustand des Photons) oder er
misst das Photon als Ganzes und schickt entsprechend dem Resultat der Messung ein
präpariertes Ersatzphoton weiter. Wählt der Angreifer einen von zwei Analysatoren, so wird
er in einer Vielzahl der Fälle den falschen Zustand messen und ein zufälliges Ergebnis
erhalten. In den Fällen, in denen der Angreifer ein falsches Ergebnis gemessen hat, hat der
Angreifer in den quantenmechanischen Zustand eingegriffen und die Photonen kommen
verändert bei Bob an. Vergleichen nun Alice und Bob eine zufällige Auswahl von Bits,
können sie auf Grund der Abweichungen einzelner Bits feststellen, dass ein Angreifer
gelauscht hat.
Wir haben soeben eine Methode erläutert, wie auf quantenmechanischer Basis ein
abhörsicheres Verfahren realisiert werden kann. Sollte es jemals gelingen,
Quantenkommunikation und -informationsverarbeitung im großen Maßstab praxistauglich zu
machen, gehen wir einer sicheren Zukunft beim Austausch heikler Daten entgegen.

119
5.3 Quantenteleportation

Die Quantenteleportation beschreibt ein Verfahren, mit dem quantenmechanische Zustände


oder Eigenschaften eines Teilchens ohne Zeitverzögerung auf ein anderes, auch unter
Umständen weit entferntes, Teilchen übertragen werden kann. Bei diesem Verfahren wird
aber nicht im klassischen Sinne die Materie von einem zu einem anderen Ort transportiert,
sondern man macht sich die extreme Nichtlokalität der Quantenmechanik zu Nutze.
Gehen wir davon aus, dass Alice einen Gegenstand mit all seinen Eigenschaften an Bob
versenden möchte. Will nun Alice alle Eigenschaften ihres Gegenstands genau bestimmen,
also eine exakte Kopie des ursprünglichen Objekts herstellen, und an Bob weitergeben, so ist
das auf Grund der Unbestimmtheitsrelation in der Quantenphysik unmöglich. So besagt die
Quantenmechanik, dass sich Eigenschaften eines Objekts von einem bestimmten Punkt an
nicht mehr beliebig genau ermitteln lassen. Werner Heisenberg entdeckte im Jahr 1927 die
nach ihm benannte heisenbergsche Unschärferelation, die besagt, dass Ort und Impuls eines
Teilchens nicht gleichzeitig beliebig genau bestimmt werden können. Das gilt auch für andere
Paare physikalischer Messgrößen, wie z. B. Drehimpuls und Winkel oder Energie und Zeit.

Wie ist es nun aber möglich, eine exakte Kopie der Eigenschaften eines Objekts an einen
Empfänger zu übertragen?

Im Prinzip muss lediglich dafür gesorgt werden, dass Bobs Gegenstand am Ende der
Übertragung die gleichen Eigenschaften aufweist, die Alices Gegenstand zu Beginn hatte.
Dies kann mit Hilfe einer Verschränkung zwischen Quantenobjekten erreicht werden. Wie
schon erwähnt, haben zwei verschränkte Teilchen für sich keinen wohl bestimmten Zustand.
Das eigentlich Neue bei der Quantenteleportation ist nun, dass es möglich ist, einen
Quantenzustand zu übertragen, ohne das Teilchen selbst zu transportieren; dabei kann der zu
übertragende Quantenzustand völlig unbekannt sein. Für eine Teleportation ist die Kenntnis
des zu übertragenden Zustands nicht erforderlich.
Schickt nun Alice ein Teilchen aus dem zunächst gemeinsamen Mischzustand aus zwei
verschränkten Teilchen durch einen Kommunikationskanal zu Bob, so kann sie das

120
verbliebene Teilchen mit dem zu übertragenden Teilchen kombinieren; dabei entsteht bei Bob
simultan und ohne unmittelbare Einwirkung eine exakte Kopie des zu teleportierenden
Teilchens. Das gleiche Phänomen konnten wir auch beim EPR-Effekt beobachten, daher zieht
man zur Realisierung einer Teleportation eine EPR-Quelle heran. Die Quanteninformation
wird somit vom Ursprungsort zu einem anderen Ort transportiert, wobei die Information am
Ursprungsort verloren geht. Abbildung 6 illustriert schematisch eine Quantenteleportation.
Anton Zeilinger und sein Team waren 1997 die Ersten, die eine Quantenteleportation im
Labor in die Realität umgesetzt haben. Die am weitesten entwickelte Anwendung der
Quantenteleportation ist sicher die Quantenkryptografie. Die Quantenverschränkung macht es
dabei möglich, den Schlüssel für die Dekodierung beim Empfänger und Sender gleichzeitig
zu erzeugen.

121
Abbildung 6: Schema einer Quantenteleportation. Erhalten Alice und Bob von einer EPR-
Quelle jeweils ein Teilchen eines verschränkten Paares A und B, so kann der Quantenzustand
auf das teleportierte Objekt O übertragen werden.

122
6. Genetische Verschlüsselung

Sie sind vielleicht etwas verwundert, dass ich der Genetik in diesem Buch ein eigenes Kapitel
widme, jedoch ist für mich gerade die Genetik eine faszinierende Thematik, wie effizient und
ausgeklügelt in der Natur Informationen verschlüsselt werden können. Der Mensch hat zwar
stets durch seine intellektuellen Fähigkeiten sehr komplizierte künstliche Systeme geschaffen,
aber die Kreativität und Vielfältigkeit der Vorgänge und Erscheinungen in natürlichen
Systemen sind ohne Zweifel unerreicht. Die Menschheit hat zwar in vielen Bereichen
großartige technische und wissenschaftliche Fortschritte gemacht, trotzdem scheint es so, als
ob der Facettenreichtum in der Natur für den menschlichen Verstand nicht ganzheitlich
fassbar ist. Da in den letzten Jahrzehnten revolutionäre Entdeckungen auf dem Gebiet der
Genetik gemacht wurden, wobei bestimmte Entwicklungen nicht ganz unkritisch gesehen
werden sollten, möchte ich Ihnen einen Einblick in die Welt der kleinsten Bausteine des
Lebens geben – der Gene. Wie vielseitig und schwierig die Organisation, die Speicherung und
die Strukturierung der genetischen Information im Kern der kleinsten Organismen, der Zellen,
stattfindet, werden wir in diesem Kapitel sehen. Um einen besseren Einblick in das Gebiet der
Genetik zu bekommen, werden wir uns im ersten Abschnitt mit Grundlagen der Genetik
befassen. Darüber hinaus möchte ich in den folgenden Abschnitten Querbezüge hin zur
Mathematik und Physik herstellen und Verwandtschaften zwischen natürlichen und den von
Menschen geschaffenen künstlichen System herstellen. Wie gesagt, gibt es viele
unterschiedliche Teilbereiche in den unterschiedlichen wissenschaftlichen Disziplinen, aber
man findet immer wieder Schnittstellen und Ähnlichkeiten zwischen den Teilen eines
übergeordneten Ganzen.

6.1 Grundlagen der Genetik

Sobald ein Kind geboren wird und die ersten Verwandten und Freunde in das Krankenhaus
kommen, um den Sprössling zu bewundern, stellen sich alle die Frage, wem das Kind ähnlich
sieht. Soweit ist jedem klar, dass bestimmte Merkmale vererbt werden können – ob es sich
nun um äußere Attribute wie Augenfarbe, Haarfarbe oder andere Körpermerkmale oder um

123
eher schon umstrittenere Eigenschaften wie persönlicher Charakter oder Intelligenz handelt.
Soweit hat heutzutage praktisch fast jeder eine Assoziation mit der Genetik oder
Vererbungslehre. Wissenschaftlich zum Ausdruck gebracht beschäftigt sich die Genetik mit
dem Aufbau und der Funktion von Erbanlagen, der Gene, sowie der Weitervererbung von
Genen.
Schon seit der Antike versuchen die Menschen, die Gesetzmäßigkeiten der Vererbung durch
unterschiedlichste Annahmen zu erklären. So lehrte bereits der griechische Philosoph
Anaxagoras um 500 v. Chr., dass das Geschlecht des Kindes nur vom Vater abhängig sei.
Ebenso vertrat Aristoteles die Anschauung, dass Erbanlagen nur von der väterlichen Seite
weitergegeben werden und den Frauen nur eine ernährende Funktion zukommt. Solche
Anschauungen über Fortpflanzung und Vererbung waren bis zur Neuzeit gang und gäbe.
Einen entscheidenden Schritt in der Vererbungslehre machte der Mönch Gregor Mendel, der
1865 als Erster Vererbungsregeln aufstellte und erklären konnte, nach welchen Mustern
Eigenschaften der Eltern an ihre Nachkommen weitergegeben werden. Seine Gesetze, die
heute als mendelsche Gesetze bekannt sind, fand er auf Grund von Kreuzungsversuchen an
Erbsen. Mendel prägte die Begriffe „dominant“ und „rezessiv“ – diese Eigenschaften spielen
bei der Vererbung von Genen eine entscheidende Rolle. Auf diese Begriffe werden wir später
noch genauer eingehen. Von dieser Zeit an wurden entscheidende Fortschritte in der Genetik
gemacht und die Grundlagen dazu möchte ich Ihnen jetzt vorstellen.
Im Mittelpunkt aller gentechnischen und molekularbiologischen Untersuchungen stehen die
Nukleinsäuren, die Träger der Erbinformation sind. In fast allen Organismen kommen zwei
verschiedene Arten von Nukleinsäuren vor, die DNA und die RNA. DNA steht für
Desoxyribonukleinsäure und RNA für Ribonukleinsäure. 1954 entdeckten James Watson und
Francis Crick, dass die DNA die Gestalt einer Doppelhelix aufweist. Die Doppelhelix weist
eine geometrische Struktur auf, bei der sich zwei Stränge in Form einer Spirale schraubenartig
umeinander schlingen, die beiden DNA-Molekül-Stränge werden dabei durch chemische
Bindungen zusammengehalten. In Abbildung 7 sehen wir ein Modell der DNA-Struktur.
Die Erbinformation ist in einer bestimmten Form, dem genetischen Code, in der DNA
festgeschrieben und aus dieser Information können Proteine synthetisiert werden. Proteine
sind lebenswichtige Bausteine des Lebens, auf deren Erklärung wir später noch einmal
zurückkommen werden.

Wie gestaltet sich der Aufbau der DNA?

124
Die Desoxyribonukleinsäure ist ein Makromolekül, das sich aus vielen Einzelbausteinen
zusammensetzt. Die Einzelbausteine, die so genannten „Nukleotide“, reihen sich aneinander
und bilden eine Molekülkette, wobei die Nukleotide selbst wieder aus drei Komponenten
zusammengesetzt sind: aus Zucker, einer Phosphatgruppe und einer Base. Die drei
Komponenten werden über chemische Bindungen zusammengehalten.

Abbildung 7: Struktur des DNA-Moleküls

In der DNA findet man vier unterschiedliche Basen, die die Namen Adenin, Cytosin, Guanin
und Thymin tragen. Die DNA liegt in der Zelle die meiste Zeit als Doppelstrang vor, der
entsteht, indem sich zwischen den Basen eines Stranges und denen eines anderen
Wasserstoffbrückenbindungen bilden. Die Bindung der beiden Stränge aneinander erfolgt
über eine komplementäre Basenpaarung, so bindet sich Adenin an Thymin und Guanin an
Cytosin. Das hat zur Folge, dass in einem DNA-Doppelstrang immer gleich viel Adenin und
Thymin sowie Guanin und Cytosin vorhanden sind. Ist nun die Bindung zwischen zwei DNA-
Einzelsträngen vollständig abgeschlossen, verbleiben die beiden Stränge nicht einfach in der

125
Ebene, sondern werden räumlich schraubenartig verdreht. Daraus entsteht, wie oben bereits
erwähnt, die räumliche Struktur der Doppelhelix.

Wie ist die DNA in der Zelle „verpackt“?

Zunächst wollen wir uns einmal den gigantischen Informationsgehalt, den die DNA
beinhalten muss, vor Augen führen. Wählen wir als Beispiel die menschliche DNA. Diese
besteht etwas aus 6 Milliarden Basenpaaren, was ausgestreckt etwa einer Länge von 2 Metern
gleichkommt. Der DNA-Strang befindet sich in einem winzigen Zellkern von ungefähr 10
Mikrometern Größe als ein Hundertstelmillimeter verpackt. Daher muss die Natur eine
besonders Platz sparende, aber auch stabile Form für die Verpackung des Genmaterials
gewählt haben. Aus diesem Grund windet sich die DNA-Doppelhelix um bestimmte
Proteinpartikel und wird so weiter aufgeschraubt. Das Aufwinden erfolgt bis zu einer
maximalen Verdichtung, bis die DNA im Zustand eines Chromosoms vorliegt. Bei
Chromosomen handelt es sich um faden- oder x-förmige Gebilde, die die genetische
Information tragen.

Wir haben bis jetzt die wichtigsten Merkmale der DNA erläutert, daher werden wir uns jetzt
mit der Genexpression beschäftigen. Unter dieser versteht man die Realisierung von
Information, die in der DNA eines Gens gespeichert ist. In den Basensequenzen der DNA
sind alle notwendigen Informationen gespeichert, damit sich ein lebensfähiger Organismus
entwickeln kann. Als Gen bezeichnet man einen DNA-Abschnitt, der als Vorlage für die
Synthese eines Proteins dient. Um die Genexpression vollständig zu verstehen, widmen wir
uns noch einer wichtigen Komponente, der RNA. Die RNA unterscheidet sich von der DNA
durch folgende Eigenschaften:

• RNA besitzt als Zucker eine Ribose, die DNA hingegen eine Desoxyribose
• In der RNA wird die Base Thymin durch die Base Uracil ersetzt, alle anderen Basen
sind gleich
• Die RNA besteht in der Regel nur aus einem Einzelstrang

Insgesamt lassen sich in der Zelle drei verschiedene RNA-Arten unterscheiden: Messenger-
RNA, Ribosomale-RNA und Transfer-RNA.

126
Es interessiert uns nun, wie diese im Zellkern vorliegende genetische Information umgesetzt
werden kann, damit aus einer Abfolge von Nukleotiden letztlich ein spezifischer Stoffwechsel
zu Stande kommt. Die Vorgänge bei der Genexpression werden in zwei Phasen unterteilt –
der Transkription und der Translation. Wir werden nun ein natürliches Verfahren kennen
lernen, mit dem die verschlüsselte genetische Information entschlüsselt wird, und auch die Art
und Weise, wie die genetische Information zum Empfänger gelangt.

6.1.1 Transkription

Wie wir schon erläutert haben, ist die DNA der Träger der Erbinformation und diese setzt sich
aus einer Kette von Basenpaaren zusammen. Daher ist die genetische Information in den
Basensequenzen der DNA verschlüsselt. Es lassen sich generell zwei Typen von Genträgern
unterscheiden: einerseits die Eukaryonten, das sind Organismen mit echtem Zellkern, und
andererseits Prokaryonten, hier handelt es sich um Organismen ohne echten Zellkern. Die
Erbinformation liegt bei Eukaryonten im Zellkern, hingegen ist sie bei Prokaryonten im
Cytoplasma oder Zellplasma angesiedelt. Um die genetische Information freizusetzen oder zu
exprimieren, muss zunächst eine Übertragung der Erbinformation von der DNA auf die RNA
stattfinden. Dieser Vorgang wird als „Transkription“ bezeichnet.

Wie gestaltet sich der Ablauf der Transkription?

Zur Veranschaulichung betrachten wir für die Genfreisetzung Organismen mit echtem
Zellkern. Der Vorgang der Transkription findet bei Eukaryonten im Zellkern statt. Die
Transkription ist dem Vorgang der DNA-Replikation, sprich der Verdopplung des gesamten
Erbguts bei der Zellteilung, sehr ähnlich. Ein Enzym mit den Namen „RNA-Polymerase“
kopiert die Nukleotidabfolge eines DNA-Matrizenstranges nach den Regeln der
komplementären Basenpaarung. Enzyme sind lebenswichtige Proteine, die chemische
Reaktionen katalysieren, d. h. sie beschleunigen als Katalysatoren chemische Reaktionen,
indem sie die Aktivierungsenergie, die für einen Stoffwechsel benötigt wird, herabsetzen.
Bevor die Übertragung eines DNA-Abschnittes auf die RNA erfolgen kann, muss die DNA-
Doppelhelix aufgetrennt werden. Für diesen Prozess sind die so genannten „DNA-Helicasen“
verantwortlich, die sich entlang des DNA-Stranges bewegen und die die

127
Wasserstoffbrückenbindungen zwischen den komplementären Basenpaaren lösen. Nach der
Trennung des DNA-Doppelstrangs kann sich die RNA-Polymerase daran machen, eine Kopie
des DNA-Stranges herzustellen, wobei bei der RNA-Synthese statt der Base Thymin die Base
Uracil eingebaut wird. Die RNA-Polymerase knüpft nun ein Nukleotid nach dem anderen an
die wachsende RNA-Kette an. Dabei übernimmt die RNA die Rolle eines Boten, der die
genetische Information vom Zellkern zum Ort der Proteinsynthese, zu den Ribosomen im
Zellplasma, transportiert. Daher wird eine solche RNA als „Boten-“ oder „Messenger-RNA“
(mRNA) bezeichnet. Abbildung 8 veranschaulicht den Prozess von der Genexpression bis zur
Informationsübertragung zu den Ribosomen in einer eukaryontischen Zelle.
Die Synthese beginnt aber nicht wahllos an irgendwelchen Stellen im Genom des
Organismus, sondern setzt an ganz definierten Punkten an. Dafür gibt es in der DNA eine
bestimmte Erkennungssequenz, die man „Promoter“ nennt. An dieser Stelle, sprich am
Promoter, bindet die RNA-Polymerase und beginnt von diesem Punkt an, das zu
transkribierende Gen zu lesen. Promotoren markieren also den Startpunkt oder die
Startsequenz für die Übersetzung von der DNA in die RNA. Nun liegt die Gensequenz in
Form der Messenger-RNA vor, die aber noch weiter modifiziert werden muss. Einerseits
erfolgt eine Modifikation zur Stabilisierung, andererseits kommt es zum so genannten
„Spleißen“ der Boten-RNA. Die molekulare Struktur der Gene bei Eukaryonten weist eine
ganz besondere Eigenart auf. Diese schlägt sich in einer nicht fortlaufenden genetischen
Informationscodierung nieder. Codierende Gensequenzen, so genannte „Exons“, werden
durch nicht codierende Sequenzen, den „Introns“ unterbrochen. Letztere bezeichnet man auch
als „Nonsens-“ oder „Junksequenzen“. Jüngste Forschungen zeigen jedoch, dass
möglicherweise auch Introns bei der Expression eine wichtige Rolle spielen könnten.

128
Abbildung 8: Schematische Darstellung der Genexpression und Transfer via
Boten-RNA zu den Ribosomen

Nach der Transkription werden die nicht codierenden Sequenzen, sprich die Introns,
herausgeschnitten und die Enden der beiden Exons mit Hilfe von Enzymen wieder verknüpft.
Während des Spleißvorgangs bilden die Introns eine Schleifenstruktur aus. Abbildung 9 zeigt
einen schematischen Ablauf des Vorgangs des Spleißens:

129
Abbildung 9: Vorgang des Spleißens

Nach der vollständigen Reifung der Boten-RNA kann diese vom Zellkern ins Cytoplasma
transportiert werden, wo während der Phase der Translation die Basensequenz der Boten-
RNA in Aminosäuresequenzen eines Proteins übersetzt wird.

6.1.2 Proteinbausteine aus der Erbinformation

Wie ich Ihnen schon erläutert habe, bedeutet der Begriff der Genexpression, dass bestimmte
Nukleinsäuresequenzen in die Boten-RNA umgeschrieben werden und in Folge das
transkribierte Gen in Proteine übersetzt wird (= Translation). Dazu existiert ein genetischer

130
Code in der DNA beziehungsweise in der RNA, der auf den vier Basen A = Adenin, G =
Guanin, C = Cytosin und T = Thymin beziehungsweise U = Uracil aufbaut.

Wie aber kann eine Kombination der vier Basen eine Verschlüsselung einzelner
Aminosäuren, die als Bausteine der Proteine fungieren, bewirken?

In der Natur kommen insgesamt 20 verschiedene Aminosäuren vor, die für alle bekannten
Proteine codieren. Da aber den 20 Aminosäuren nur vier Basen gegenüberstehen, ist es
unmöglich, dass nur eine Base für die Codierung einer Aminosäure zuständig ist. Wie lange
muss nun eine Nukleotidsequenz sein, damit 20 verschiedene Aminosäuren codiert werden
können? Angenommen, wir gehen von zwei Basen für die Verschlüsselung einer Aminosäure
aus, dann könnten damit theoretisch 42 = 16 Aminosäuren zusammengesetzt werden. Damit
hätten wir noch immer zu wenig Kombinationen, um alle 20 Aminosäuren abzudecken. Erst
mit der Kombination von drei Basen ergibt sich die Möglichkeit, alle 20 Aminosäuren zu
codieren. Daraus resultieren nämlich 43 = 64 Kombinationsmöglichkeiten. Der rein
rechnerische Ansatz wurde auch experimentell bestätigt. Die 43 verschiedenen Kombinationen
stellen eine redundante oder degenerierte Repräsentation der Aminosäuresequenz dar, daher
codieren verschiedene Kombinationen für ein und dieselbe Aminosäure.
Fassen wir also noch einmal zusammen: Die Kombination dreier Basen – ein Basen-Triplett
oder die Aneinanderreihung dreier Nukleotide – ergibt eine Aminosäure. Ein solches Basen-
Triplett wird auch noch als Codon bezeichnet. Somit ist der genetische Code entschlüsselt.
Wie wir sehen, gibt es auch in der Natur zur Verschlüsselung von Informationen eine eigene
Sprache – die genetische.
Um nun unser Bild zu komplettieren, müssen wir uns noch im Detail mit dem Prozess der
Translation beschäftigen.

6.1.3 Translation

Wie bereits erwähnt, bildet der Prozess der Translation den zweiten Schritt in der
Genexpression. Hier erfolgt die Übersetzung der genetischen Information der Messenger-
RNA in Proteine. Es existiert ein wesentlicher Unterschied bei der Genexpression für
Prokaryonten und Eukaryonten. Während bei Prokaryonten keine räumliche Trennung
zwischen Transkription und Translation vorliegt, findet bei Eukaryonten die Transkription im

131
Kern statt, hingegen die Translation im Zellplasma. Wir werden an dieser Stelle wieder
Organismen mit echtem Zellkern als Eukaryonten betrachten. Beim Prozess der Translation
sind so genannte „Ribosomen“ eingebunden, mit deren Hilfe die Synthetisierung von
Proteinen ermöglicht wird.

Wie lässt sich der Vorgang der Translation im Detail beschreiben?

Ein Ribosom setzt sich aus zwei Untereinheiten zusammen: einer großen Untereinheit, die bei
der Proteinproduktion die Aminosäuren zu einer Kette verknüpft, und einer kleineren
Untereinheit, die für die Erkennung der Boten-RNA zuständig ist. Beide Untereinheiten, die
bei der Proteinbiosynthese eng zusammenarbeiten, setzen sich aus Proteinen und der
ribosomalen RNA zusammen. Die Untereinheiten des Ribosoms heften sich nun an eine
bestimmte Region der mRNA und ermöglichen so den Kontakt zwischen den Codons der
mRNA und der Transfer-RNA. Dabei müssen verschiedene Faktoren für die korrekte
Platzierung der mRNA sichergestellt sein. Den Beginn der Proteinbiosynthese kennzeichnet
ein Startcodon oder eine Startsequenz der mRNA, bestehend aus den drei Basen AUG, also
Adenin, Uracil und Guanin.
Die Transfer-RNAs (tRNAs) spielen beim Ablauf der Proteinerzeugung eine wichtige Rolle,
da sie als Vermittler zwischen den Codons der mRNA und den dazu passenden Aminosäuren
fungieren. Die Moleküle der tRNAs schwimmen quasi frei im Cytoplasma, nehmen die zu
ihnen passenden Aminosäuren auf und wandern zu den Ribosomen. Das Ribosom bringt
dabei die mRNA und das frei herumschwimmende tRNA-Molekül, das eine Aminosäure
aufgenommen hat, so zusammen, dass sich an ein bestimmtes Codon auf der mRNA – quasi
als passendes Gegenstück – ein komplementäres Anticodon der tRNA anlagert. Eine zweite
tRNA, die ebenfalls eine Aminosäure trägt, setzt sich neben der ersten tRNA an die mRNA.
Die beiden an den tRNA-Molekülen hängenden Aminosäuren werden mit einer
Peptidbindung verknüpft und die erste tRNA verlässt ohne Aminosäure das Ribosom. Die auf
das nächste Codon passende tRNA lagert sich nun an die mRNA an. Ihre Aminosäure wird an
die bereits bestehende Aminosäurekette geknüpft und erweitert diese so um ein neues Glied.
Dieser Prozess verläuft so lange, bis das Stoppcodon erreicht ist und den Prozess stoppt. Ein
neues Protein ist entstanden. Eine schematische Darstellung der Translation wird in
Abbildung 10 gezeigt. Allerdings wird nicht die gesamte mRNA in eine Aminosäuresequenz
übersetzt, sondern nur der Bereich, der zwischen einem Start- und einem Stoppcodon liegt.
Nach dem Abschluss der Proteinbiosynthese zerfällt das Ribosom in seine beiden

132
Untereinheiten und das entstandene Protein entweicht in das Zellplasma. Ebenso wird die
nicht mehr benötigte Messenger-RNA von Enzymen abgebaut. Die Erzeugung eines Proteins
findet oft in einem Verbund von mehreren Ribosomen statt. Hierfür wird von jedem Ribosom
dieselbe mRNA abgelesen; somit kann sichergestellt werden, dass ein benötigtes
lebenswichtiges Protein in größerer Menge in kürzerer Zeit von der Zelle produziert werden
kann.

Abbildung 10: Prozess der Translation

Die Struktur der tRNA lässt sich mit der Form eines Kleeblatts vergleichen (siehe Abbildung
11). An einem Ende besitzt die tRNA eine Aminosäure-Anheftungsregion, an die sich eine
bestimmte Aminosäure binden kann, und am anderen Ende befindet sich ein Triplett, das so
genannte „Anticodon“, das komplementär zum Codon der mRNA ist.
Die neu gebildeten Proteine im Zellplasma haben ihre Wirkungsorte oft an weit entfernten
Stellen im Organismus, aus diesem Grund müssen die Proteine an ihren richtigen Platz
transportiert werden. Dafür sind bestimmte Erkennungsmerkmale notwenig; daher besitzen
viele Proteine am Ende eine zusätzliche Aminosäuresequenz, die als Adresse fungiert und das
Protein zu seinem Bestimmungsort lenkt.
Wir haben anhand des Beispiels der Genexpression ein sehr schönes Beispiel aus der Biologie
respektive der Genetik erläutert, das man sehr wohl auch als hohe Kunst der Verschlüsselung
bezeichnen könnte. Wir werden später noch, auch im Hinblick auf die Gehirnforschung, die
Parallelen zu den Verschlüsselungsprinzipien der Mathematik und der Physik erläutern.

133
Davor aber werden wir uns der erfolgreichen Attacke zur Entschlüsselung der menschlichen
Erbinformation zuwenden, die man ohne Weiteres als Meilenstein in der Genforschung
bezeichnen kann.

Abbildung 11: Struktur der Transfer-RNA

6.2 Entschlüsselungsmethodik zur Entschlüsselung des menschlichen Genoms

In der Tat kann die Entschlüsselung des menschlichen Genoms, sprich: die Entzifferung der
gesamten menschlichen Erbinformation, als einer der bedeutendsten Meilensteine in der

134
Geschichte der Wissenschaft bezeichnet werden. Die Entschlüsselung des Genoms ist das
Ergebnis einer mühsamen und aufwändigen Forschungsarbeit Tausender Wissenschaftler aus
vielen Ländern dieser Erde. Begonnen hatte die Erforschung des menschlichen Erbgutes mit
dem offiziellem Start des mit staatlichen Geldern finanzierten, internationalen „Human
Genome Project“ (HGP) im Oktober 1990. Ziel der internationalen Zusammenarbeit war die
Sequenzierung, das heißt die Bestimmung der Reihenfolge der über 3 Milliarden Bausteine
und circa 30.000 bis 40.000 menschlichen Gene bis zum Jahr 2003. Durch verbesserte und
schnellere Sequenzierungsmethoden, nicht zuletzt aber vor allem durch die Beiträge der US-
Biotechnologiefirma Celera unter der Leitung von Craig Venter wurden jedoch bereits bis
zum Januar 2000 etwa 90 % des Genoms entschlüsselt. Die Zusammenarbeit von öffentlichen
Instituten im Human Genome Project, dessen Ergebnisse Wissenschaftlern aus aller Welt
umgehend im Internet zur Verfügung gestellt wurden, und dem Privatunternehmen Celera,
das selbstverständlich auch kommerzielle Ziele verfolgt, ermöglichte die Präsentation einer
Rohversion des menschlichen Genoms schon im Juni 2000.
Wie bereits erläutert, beinhaltet jede Zelle die gesamte menschliche Erbinformation, die wie
Buchstaben in der DNA aneinander gereiht sind. Unsere Erbinformation besteht etwa aus 3
Milliarden dieser Buchstaben, die abgekürzt als A, C, G und T für die Nukleotidbasen
Adenin, Cytosin, Guanin und Thymin stehen. Davon bilden etwa 1.000 bis 3.000 solcher
Buchstaben ein Gen, wobei die Gene über insgesamt 23 Chromosomenpaare verteilt sind.
Anhand der großen Datenmenge und auch der Datenverteilung kann man sich vorstellen, dass
es alles andere als leicht war, die Erbinformation zu entschlüsseln.

Wie gelang es überhaupt, die gesamte Erbinformation zu entschlüsseln?

Der Schlüssel dazu liegt, wie bereits dargestellt, in der Sequenzierung der DNA. Die
wichtigste und grundlegendste Information, die man über ein Gen erhalten will, ist seine
Sequenz, also die exakte Reihenfolge der vier Nukleotide A, C, G und T. Auf Grund der
exakten Nukleotidsequenz kann man bestimmte Eigenschaften des zu untersuchenden Gens
bestimmen. Die Techniken, die uns heute zur Sequenzierung der DNA zur Verfügung stehen,
wurden bereits Ende der 1970er-Jahre entwickelt und wurden in den letzten 20 Jahren
entscheidend vereinfacht.
Prinzipiell werden zwei Verfahren zur Bestimmung einer DNA-Sequenz unterschieden: die
enzymatische bzw. die nach ihren Entwicklern benannte Sanger-Coulson-Sequenzierung und
die chemische Sequenzierung, die auch nach den Entdeckern als Maxam-Gilbert-

135
Sequenzierung benannt ist. Beide Methoden liefern eine Vielzahl an DNA-Fragmenten, die an
genau definierten Stellen beginnen. Die meisten Sequenzierungen werden heutzutage wie
auch im Human Genome Project nach dem Sanger-Coulson-Prinzip durchgeführt. Für die
enzymatische Sequenzierung wird die zu sequenzierende DNA in einer Synthesereaktion
vervielfältigt. Die Methode kann in zwei Teilschritte aufgeteilt werden:

- Markierungsreaktion: Erstellen einer markierten Ausgangsprobe


- Terminationsreaktion: In dieser wird die Synthese nach der Erzeugung des ersten
hervorgegangenen DNA-Teilstücks beendet

Bevor wir uns der Sanger-Coulson-Methode widmen können, muss ich ein wenig ausholen,
denn dieses Verfahren basiert auf einem sehr ähnlichen Prinzip wie die PCR
(Polymerasekettenreaktion), dessen Erklärung zum Verständnis der Sequenzierungsmethode
nach Sanger-Coulson helfen soll. Keine andere Methode hat seit der Erfindung der
Polymerasekettenreaktion die Arbeitsweise so entscheidend in der Biotechnologie und der
Molekularbiologie revolutioniert. Für die Entwicklung dieser Methode erhielt Kary Mullis
1993 den Nobelpreis für Chemie. Das Prinzip der PCR ist relativ einfach und beruht auf der
natürlichen Replikation der DNA in der Zelle. Ein bestimmter Abschnitt eines DNA-
Moleküls wird durch die DNA-Polymerase in sehr kurzer Zeit millionenfach dupliziert –
dieser Vorgang wird als Amplifikation bezeichnet. Nach der PCR steht das betreffende DNA-
Molekül in sehr großen Mengen für weitere Versuche zur Verfügung.

Was sind nun die Grundprinzipien der Polymerasekettenreaktion?

Es gibt für die Vermehrung eines bestimmten DNA-Abschnittes gewisse einzelne


Reaktionskomponenten in einer Polymerasekettenreaktion.

• Ausgangsmaterial: Theoretisch würde ein DNA-Molekül als Ausgangsmaterial für die


PCR genügen, jedoch werden tatsächlich meist zwischen zehntausend und einer Million
Moleküle Template-DNA in einer PCR verwendet. Die erforderliche DNA-Menge ist von
der Genomgröße des zu untersuchenden Organismus abhängig.

• DNA-Polymerase: Zur Synthetisierung eines DNA-Abschnittes in einer


Polymerasekettenreaktion werden Polymerasen eingesetzt, die eine bestimmte

136
Hitzebeständigkeit haben müssen. Dafür stehen unterschiedliche thermostabile
Polymerasen zur Verfügung. Die Hitzebeständigkeit bestimmter Polymerasen hat die
Automatisierung der PCR wesentlich vereinfacht.

• Primer: Unter einem Primer versteht man eine Starthilfe, die von allen Polymerasen
benötigt wird, um DNA-Abschnitte zu vervielfältigen. Ein Primer besteht aus einem
kurzen Nukleinsäurestück, das auf Grund der Basenkomplementarität an den Startpunkt
des zu replizierenden DNA-Abschnitts anheftet. Die DNA-Polymerase bindet sich im
Folgenden an den Primer und kann mit der Replizierung beginnen. Primer, die in einer
PCR Einsatz finden, werden künstlich hergestellt. Dabei müssen aber bereits vor der
Synthetisierung von Primern kurze Nukleotidsequenzen für den zu replizierenden DNA-
Abschnitt bekannt sein.

• Nukleotide: Die vier Nukleotide Adenin, Cytosin, Guanin und Thymin sind die Bausteine
für die neu gebildeten Nukleinsäurestränge.

• Puffer: Damit die Polymerase optimal arbeiten kann, wird bei der PCR-Reaktion ein
Puffer eingesetzt. Einerseits dient er der Aufrechterhaltung des pH-Wertes, andererseits
wird er für das korrekte Anlagern der Primer an ihre Zielsequenz benötigt.

All diese Komponenten werden nun in einem bestimmten Verhältnis in einem kleinen
Reaktionsbehälter gemischt und dann einer PCR-Maschine, einem so genannten
„Thermocycler“, einer Polymerasekettenreaktion, unterworfen. Die PCR kann dabei in drei
Schritte mit unterschiedlichen Reaktionstemperaturen eingeteilt werden:

Schritt 1: Der erste Schritt ist die Denaturierung der Ausgangs-DNA. Wie bereits erläutert,
sind die Einzelstränge eines Doppelstrangs einer DNA über Wasserstoffbrückenbindungen
miteinander verbunden. Die Bindungen können durch Erhitzen der Probe auf 94° C für die
Dauer von etwa 30–60 Sekunden aufgebrochen werden. Der Doppelstrang zerfällt dabei in
seine beiden Einzelstränge.

Schritt 2: Im zweiten Schritt erfolgt die Anlagerung des Primers an seine Zielsequenz. Um das
gewährleisten zu können, wird die Temperatur auf etwa 45 bis 65° C gesenkt. Damit kann
sich der Primer an der passenden Stelle auf dem DNA-Einzelstrang binden.

137
Schritt 3: Im letzten Schritt der Polymerasekettenreaktion erfolgt die Neusynthese des
gewünschten DNA-Abschnitts durch die Polymerase. Hierfür wird die Temperatur auf 72° C
erhöht – das entspricht dem Temperaturoptimum der Polymerase. Nun kann die Polymerase,
ausgehend von beiden Primern auf den beiden Einzelsträngen, eine komplementäre
Genabschrift des zu replizierenden Genabschnitts erzeugen.

Die Schritte 1 bis 3 werden etwa in 25–35 Zyklen wiederholt, wobei sich die Zahl der
vervielfältigten Fragmente exponentiell mit jedem Zyklus erhöht. Am Ende der PCR liegt der
gewünschte DNA-Abschnitt in mehreren Millionen Kopien im Reaktionsbehälter vor. In
Abbildung 12 ist der Prozess der PCR schematisch dargestellt:

Abbildung 12: Schematische Darstellung der PCR: 1. Denaturierung,


2. Primeranlagerung, 3. Polymerase

138
Wie bereits erwähnt, wird die Sanger-Coulson-Methode zur Sequenzierung des menschlichen
Genoms herangezogen. Es handelt sich bei diesem Verfahren um eine enzymatische
Sequenzierung, die der Polymerasekettenreaktion sehr ähnlich ist. Bei diesem Verfahren
denaturiert man ebenso wie bei der PCR das zu sequenzierende DNA-Stück, lagert daraufhin
einen Primer an und synthetisiert mittels der DNA-Polymerase die neuen komplementären
Stränge. Hierbei erfolgt aber keine Neusynthese eines einzelnen durchgehenden Stranges,
sondern es werden nur Teilstücke repliziert, die komplementär zu dem zu sequenzierenden
DNA-Abschnitt sind. Das Ziel dieser Methode ist, alle Teilstücke zu erhalten, die theoretisch
möglich sind. Die Methode von Sanger-Coulson wird auch als Kettenabbruchmethode
bezeichnet, da man sich bei der Erzeugung kurzer DNA-Teilstücke eines Tricks bedient, der
zum Abbruch der Synthese führt. Zur Synthese des komplementären Strangs werden der
Polymerase außer den vier Nukleotiden A, C, G und T noch die so genannten
Didesoxynukleotide zur Verfügung gestellt. Sie werden zwar auch wie die Nukleotide in den
DNA-Abschnitt eingebaut, können jedoch an keine weiteren Nukleotide angefügt werden –
somit kommt es zum Abbruch der Synthese. Wichtig ist hierbei aber, dass nur eine geringe
Menge an Didesoxynukleotiden vorliegt, damit es überwiegend zum Einbau normaler
Nukleotide kommt und dadurch die DNA-Stränge bis zu mehreren Hundert Basen lang sind.

Was kann aber nun mit dem Kettenabbruch erreicht werden?

Um die gewünschte Sequenz des betreffenden DNA-Abschnitts zu erhalten, wird die gesamte
Reaktion auf vier Einzelreaktionen aufgeteilt. Dazu werden vier Reaktionsgefäße verwendet,
deren Inhalt aus den normalen Nukleotiden gemeinsam mit je einem anderen
Didesoxynukleotid besteht. Dem ersten Gefäß wird Adenin zugesetzt, dem zweiten Cytosin,
dem dritten Guanin und dem vierten schließlich Thymin. Also wird in jeder der vier
Einzelreaktionen der Abbruch jeweils an einer anderen Stelle stattfinden. Im ersten
Reaktionsgefäß hat man daher eine Mischung neu synthetisierter DNA-Stücke, die auf das
Nukleotid A enden, im zweiten Reaktionsgefäß enden die unterschiedlich langen Fragmente
auf C usw. Die Reaktionsansätze werden nun nebeneinander auf einem hochauflösenden Gel
aufgetragen, dabei werden die unterschiedlich langen Fragmente, die sich lediglich durch ein
Nukleotid unterscheiden, durch radioaktive oder auch nicht-radioaktive Markierungen
sichtbar gemacht. Aus dem Bandenmuster lässt sich die Sequenz des DNA-Abschnittes
bestimmen. Man beginnt mit dem kleinsten Fragment, sucht dann nach dem zweitkleinsten

139
Fragment, das um ein Nukleotid größer ist, und fährt so fort. Die Größenabfolge entspricht
der Reihenfolge unseres DNA-Stücks.
Ich habe Ihnen ein elegantes Verfahren zur Sequenzierung des menschlichen Genoms
erläutert, mit dem der genetische Code geknackt und das menschliche Genom entziffert
werden konnte. Die Ergebnisse der Entschlüsselung der menschlichen Erbinformation sollen
das Verständnis der Erbkrankheiten erleichtern und – wenn möglich – neue Wege der
Diagnostik und Therapie aufzeigen. Im nächsten Abschnitt werden wir eine Anwendung der
Biologie respektive auch der Genetik, besprechen, die eng mit dem Schutz vor Datenzugriffen
nicht berechtigter Personen verbunden ist. Im Zweig der Biometrie macht man sich die
Erkennung eines Lebewesens mit Hilfe geeigneter Körpermerkmale zu Nutze, um eine
maximale Sicherheit beim Zugang zu vertraulichen Daten zu erreichen. Diese Art der
Erkennung ist in Sicherheitsfragen sogar teilweise gegenwärtigen Kryptosystemen überlegen,
da sie auf ganz individuelle Merkmale jedes einzelnen Menschen zurückgreifen kann.

6.3 Biometrie – neue Technologie der Authentifizierung

Mit dem Begriff „Biometrie“ wird ein Forschungszweig assoziiert, der sich mit der
Vermessung quantitativer Merkmale von Lebewesen beschäftigt. Hierfür werden statistische
Methoden herangezogen, die auf großen Datenmengen aufsetzen und deren Bearbeitung erst
mit der Entwicklung der Informationstechnologie ausreichend beherrschbar wurde. Die
klassische Biometrie beschäftigte sich mit der Anwendung statistischer Methoden in der
Human- und Veterinärmedizin sowie in der Land- und Forstwirtschaft. In jüngerer Zeit ging
die Entwicklung der Biometrie in Richtung der Merkmalsanalyse von Menschen, wobei aus
einzelnen oder mehreren Merkmalen auf die Identität einer Person geschlossen werden kann.
Die hinterlegten biometrischen Daten einer Person können beispielsweise durch
computergestützte Anwendungen für die Authentifizierung beim Zugang zu streng
vertraulichen Daten benutzt werden.
Bereits zur Zeit der Assyrer wurde der Fingerabdruck als Form der Identifizierung eines
Menschen eingesetzt, wie archäologische Funde belegen. Dazu wurden Tonvasen mit dem
Fingerabdruck des Töpfers gekennzeichnet. Um Verträge zu unterzeichnen und um danach
den Unterzeichner zu authentifizieren, wurden in der Tang-Dynastie (618–906 n. Chr.)
Fingerabdrücke verwendet. Schon zur Zeit der Pharaonen wurde die Körpergröße einer
Person zum Nachweis seiner Identität benutzt. Im Zuge der Strafverfolgung wird die

140
Vermessung menschlicher Körpermerkmale schon sehr lange angewendet, wie historische
Überlieferungen belegen. Die ersten Vorschläge zur Nutzung des Fingerabdrucks in der
Kriminalistik stammen aus dem Jahr 1858; im gleichen Jahr wurde der Fingerabdruck das
erste Mal verwendet, um Verträge mit Handelsreisenden zu authentifizieren. Alphonse
Bertillon entwickelte 1879 ein Messsystem, das das Ziel verfolgte, die Identifikation einer
Person durch physiologische Merkmale zu sichern. Diese Methode wurde zu Beginn des 20.
Jahrhunderts für polizeiliche Untersuchungen auf der ganzen Welt eingeführt. Im Jahr 1892
entdeckte Sir Francis Galton, ein Statistiker und Cousin von Charles Darwin, dass der
Fingerabdruck ein einzigartiges Merkmal für jedes Individuum darstellt und sich im Laufe des
Lebens einer Person nicht ändert. Fünf Jahre später wurden bereits die ersten Straftäter durch
New Scotland Yard mittels Fingerabdruck identifiziert.
Die Erkennung einer Person durch ein automatisiertes Fingerabdrucksystem erfolgte erst viel
später, die Anfänge dafür liegen in den Sechzigerjahren. In dieser Zeit wurde die
automatische Fingerabdruckerkennung auch das erste Mal im nicht-forensischen Bereich für
Hochsicherheitssysteme eingesetzt. Etwa zehn Jahre später, in den Siebzigerjahren, folgten
Entwicklungen von Handgeometrieerkennungssystemen. Ab Mitte der Achtzigerjahre wurden
neue Verfahren entwickelt, die bei der Erkennung von Retina und Iris ansetzen. Seit etwa
1995 werden biometrische Systeme auf Basis von neuronalen Netzen entwickelt; in diesen
Zeitraum fällt auch die Kommerzialisierung biometrischer Systeme. Wir werden uns nun
einen kurzen Überblick über biometrische Merkmale verschaffen und die generellen Vor- und
Nachteile biometrischer Anwendungen ebenso wie ihre Einsatzmöglichkeiten diskutieren.

Welche biometrischen Merkmale lassen sich grundsätzlich unterscheiden?

Biometrische Merkmale basieren stets auf drei Komponenten. Daher lassen sie sich
grundsätzlich in drei Kategorien einteilen: konditioniert, vererbt und zufällig.

• Konditionierte Merkmale: Hierbei handelt es sich um verhaltensgesteuerte Merkmale, die


man sich im Laufe des Lebens angeeignet hat. Darunter fallen beispielsweise die
Handschrift, Rhythmus und Dynamik von Tastaturanschlägen sowie teils das Aussehen
und die Körperform. Hierzu ergibt sich die Problematik, dass solche Merkmale, nachdem
sie konditioniert sind, auch von einer anderen Person erlernbar sind.

141
• Vererbte Merkmale: Unter genetisch bedingte Merkmale fallen neben der DNA das
Gesicht und die Körperdimension oder auch die Handgeometrie. Es ergeben sich ähnlich
ausgeprägte Eigenschaften innerhalb der Vererbungslinie oder humangenetische
Ähnlichkeiten in einer Region. Solche Ähnlichkeiten können die Qualität des Merkmals
bei Anwendungen einschränken.

• Zufällige Merkmale: Darunter versteht man Merkmale, die sich im Heranwachsen eines
Menschen zufällig entwickeln. Solche Merkmale können z. B. das Venenmuster der
Retina, die Rissbildung der Regenbogenhaut oder die Minutien der Fingerabdrücke sein.
Diese Merkmale bilden ein hohes Maß an Sicherheit, da sie eine hohe Unterscheidbarkeit
zwischen Individuen aufweisen. Eine Kopie dieser Merkmale ist nicht durch Erlernen
oder die gezielte Suche in einem Personenkreis möglich, sondern bedarf der Erstellung
eines Replikates.

Allgemein gesehen führen zufällige oder vererbte Merkmale fast immer zu statischen
Verfahren. Folgende Merkmale, wobei es sich hier nicht unbedingt um eine vollständige Liste
handelt, werden im Zuge biometrischer Verfahren verwendet:

- Venenmuster
- Fingerabdruck
- Gesichtsform
- Retina
- Handgeometrie
- Sprachbild
- Handschriftdynamik
- Unterschrift
- DNA

Biometrische Verfahren lassen sich grundsätzlich in zwei unterschiedliche Zielsetzungen


einteilen. Einerseits macht man sich die Verifikation zu Nutze, um eine Person durch ein
repräsentatives Merkmal gegen ein Referenzmerkmal zu vergleichen, andererseits bestimmt
man eine Person aus einem bekannten Personenkreis durch Vergleich ihrer
Referenzmerkmale. Letzteres entspricht einem 1:n-Vergleich.

142
Wie ist nun der Ablauf einer biometrischen Erkennung und welche Verfahren kommen häufig
zur Anwendung?

Grundsätzlich kann man sagen, dass die biometrische Erkennung für alle Systeme mehr oder
weniger gleich funktioniert. Alle biometrischen Systeme setzen sich unabhängig vom
individuellen technologischen Aufbau aus folgenden Komponenten zusammen:

• Personalisierung oder Registrierung des Systembenutzers


• Erfassung der relevanten biometrischen Eigenschaften einer Person
• Erstellung von Datensätzen, so genannten „Templates“
• Vergleich der aktuellen mit den zuvor abgelegten Daten

Will man nun eine Person in einem biometrischen System erfassen, muss im ersten Schritt
vom Originalmerkmal ein Abbild erzeugt und aufgezeichnet werden. Dieses Abbild, das in
Rohdatenform vorliegt, wird mittels spezifischer Algorithmen in ein so genanntes „Template“
umgewandelt und als solches im System gespeichert. Dabei handelt es sich um extrahierte
Daten aus der Originalaufnahme. Beim so genannten „Matching“ wird schließlich ein
Vergleich zwischen dem gespeicherten Template und dem auszuwertenden Merkmal
gemacht. Bei einer Übereinstimmung gibt es eine positive Rückmeldung des Geräts, was
bedeutet, dass der Benutzer im System erkannt wurde. Naturgemäß unterliegen Erfassung,
Auswertung und Vergleich biometrischer Merkmale Messfehlern, da sich die erfassten
Merkmale im Laufe der Zeit verändern können. Änderungen können altersbedingt oder auch
durch äußere Einflüsse wie Krankheit oder Verletzung auftreten. Hinzu kommen noch
äußerliche Veränderungen wie beispielsweise das Tragen einer Brille oder das Tragen von
Kontaktlinsen. Zugleich wird das biometrische Merkmal nie in gleicher Art und Weise im
System erfasst, sondern kann sich z. B. durch unterschiedliche Positionen des Fingers auf
einem Fingerabdrucksensor oder durch Änderung des Blickwinkels des Gesichts bei jeder
Nutzung geringfügig ändern. Das hat zur Folge, dass zwei digitale Abbilder eines
biometrischen Merkmals niemals identisch sein können. Daraus resultiert wieder, dass ein
exakter Abgleich der Daten nicht erreicht werden kann. Die tatsächliche Entscheidung über
Match oder Non-Match beruht vielmehr auf den eingestellten Parametern mit einer
bestimmten Toleranzgrenze im System. Zusammenfassend gesagt werden biometrische Daten
nicht auf Gleichheit, sondern nur auf hinreichende Ähnlichkeit geprüft. Als Nächstes möchte
ich Ihnen die häufigsten Verfahren zur Erkennung biometrischer Merkmale erläutern. Unter

143
anderem werden wir uns auch mit dem Prinzip des genetischen Fingerabdrucks, wie er in der
Kriminalistik zur Aufklärung von Gewaltverbrechen verwendet wird, beschäftigen.

6.3.1 Häufige biometrische Erkennungsverfahren

In diesem Abschnitt werden wir auf folgende vier biometrische Verfahren genauer eingehen:
Gesichtserkennung, Iris-Scan, Fingerabdruck und genetischer Fingerabdruck.

6.3.2 Gesichtserkennung

Die Gesichtserkennung basiert auf der Erfassung markanter Punkte des menschlichen
Gesichtes, die Aufzeichnung erfolgt hierbei über Videoaufnahmen. Der Einsatz solcher
Erkennungssysteme dient auf Flughäfen zur Identifikation bei der Lokalisierung von
Passagieren oder zur Identifikation im Zuge einer Fahndung über Überwachungskameras,
aber auch zur Verifikation, um beispielsweise eine Person bei einer Grenzkontrolle mit dem
Foto eines vorgelegten Reisedokumentes zu vergleichen. Der große Vorteil in der
Gesichtserkennung liegt in der kontaktlosen Erfassung der biometrischen Merkmale, die sich
über größere Distanzen erstrecken kann, hingegen ist die geringe Vielfalt des Merkmals, das
auch vererbte Charakteristika aufweist, problematisch.

6.3.3 Iris-Scan

Erfolgt eine Analyse eines Bildes der Regenbogenhaut, so spricht man von Iris-Scan.
Hauptsächlich werden dazu monochrome Videoaufnahmen herangezogen, selten wird
hingegen die Farbinformation ausgewertet. Im Gegenteil zur Gesichtserkennung liegt der
klare Vorteil hierbei in der hohen Vielfalt des Merkmals sowie in sehr geringen
Fehlerakzeptanzraten. Somit ist der Iris-Scan für beide Zieltypen einsetzbar, sowohl für den
der Verifikation als auch für den der Identifikation. Darüber hinaus ist die Erkennung
handelsüblicher kosmetischer Kontaktlinsen möglich, jedoch gibt es derzeit keine

144
systematische Untersuchung zur Umgehung von Iris-Scan-Systemen. Der Nachteil wird in der
komplizierten Erfassung der Daten gesehen, da sich der Abstand zwischen Auge und Kamera
in einer relativ kleinen Bandbreite bewegen muss, um ein gutes Bild zu erhalten. Ebenso kann
es auf Grund erweiterter Pupillen zu Fehlrückweisungen kommen.

6.3.4 Fingerabdruck

Zu den bekanntesten biometrischen Verfahren zählt die Erfassung des Fingerabdrucks, der
den autorisierten Zugang zu Netzen und Geräten sichert. Da die Papillarlinien eines
Fingerabdrucks eines Menschen unverwechselbar sind, können damit Personen eindeutig
identifiziert werden. Abbildung 13 zeigt ein typisches Muster eines Fingerabdrucks mit der
Kennzeichnung der Minutien. Minutien sind besondere Merkmale der Papillarlinien und
stellen eine Endung oder Verzweigung der Papillarlinien eines Fingerabdrucks dar. Diese
werden daher zur Identifizierung einer Person über einen Fingerabdrucksensor herangezogen.

Abbildung 13: Kennzeichnung der Minutien eines Fingerabdrucks

Häufig findet die Fingerabdrucktechnik Einsatz in der Kriminalistik, bei der die am Tatort
gefundenen Fingerabdrücke mit den katalogisierten Fingerabdrücken einer Datenbank
verglichen werden, um verdächtige Personen zu identifizieren. Erst durch das Aufkommen
leistungsfähiger Computer ist der Abgleich eines Fingerabdrucks mit einer Datenbank
möglich geworden. Der Fingerabdruck wird häufig bei biometrischen Systemen zur
Unterscheidung zwischen berechtigten und nicht berechtigten Benutzern eingesetzt, jedoch ist
in der Praxis die Fehlrückweisung durch Verschmutzung der Sensoren oder auch durch

145
Verletzungen oder Verschmutzungen an Händen und Fingern gegeben. Daher ist bei breitem
Einsatz dieses biometrischen Erkennungsverfahrens mit Fehlrückweisungen zu rechnen.

6.3.5 Genetischer Fingerabdruck

Der genetische Fingerabdruck zählt zu den Anwendungen in der Genetik, mit denen ein
Individuum eindeutig identifiziert werden kann. Bei dieser Technik greift man bei der
Analyse auf die nicht-codierenden Sequenzen in der DNA zurück. Da der analysierte Bereich
beim genetischen Fingerabdruck der nicht-codierende Abschnitt aus der DNA ist, können
keine Rückschlüsse auf andere Merkmale gemacht werden. Eine Ausnahme bildet hier jedoch
das Geschlecht. Beim genetischen Fingerabdruck wird an definierten Stellen auf der DNA
gezählt, wie oft sich dort eine bestimmte Buchstabenreihenfolge der vier Nukleotide A, C, G
und T wiederholt. Bei jedem Individuum ist die Kombination der Anzahl der Wiederholungen
unterschiedlich. Daraus kann die gewünschte Person identifiziert werden.

Wo lässt sich der genetische Fingerabdruck anwenden?

Die häufigsten Anwendungen des genetischen Fingerabdrucks liegen in der Kriminalistik und
der Abstammungsanalyse. Mit der DNA-Analyse haben die Kriminalisten ein äußerst
wirksames Mittel zur eindeutigen Identifizierung einer Person in der Hand. Die
Wahrscheinlichkeit einer zufälligen absoluten Übereinstimmung zweier Personen liegt bei
1 : 100.000.000.000. Das Verfahren scheitert jedoch bei eineiigen Zwillingen, da in diesem
Fall ein identisches Erbgut vorliegt. Die DNA ist ein sehr stabiles Molekül, das in fast allen
Körperzellen vorkommt. Somit lassen sich genetische Fingerabdrücke aus Zellproben
reproduzieren, die am Tatort gefunden werden. Damit ist das genetische Profil des Täters
bekannt und kann mit dem von verdächtigen Personen aus einer Gendatenbank verglichen
werden. Zur Erstellung eines genetischen Fingerabdrucks können zellhaltige Proben wie
beispielsweise Haarwurzeln, Blut- und Sekretspuren oder Hautschuppen verwendet werden.
Typische Spuren am Tatort sind z. B. benutzte Taschentücher, Kleidungsstücke mit Haaren,
Sekretflecken, gerauchte Zigarettenfilter oder Hautabrieb.
In der Zwischenzeit verwenden beinahe alle kriminalbiologischen Labors das PCR-Verfahren,
das wir im vorigen Abschnitt ausführlich im Kontext der Sequenzierungsverfahren
besprochen haben. Wie bereits erwähnt, werden zur Identifizierung einer Person die nicht-

146
codierenden Sequenzen aus der DNA analysiert. Auf diese funktionslosen Bereiche haben es
die Biologen beim PCR-Verfahren abgesehen, da ihre Länge von Mensch zu Mensch
verschieden ist. Um für den genetischen Fingerabdruck die Länge dieser nicht-codierenden
Sequenzen zu bestimmen, muss eine Vielzahl identischer Kopien des gesuchten Abschnitts
hergestellt werden. Für diesen Vorgang bedient man sich des Verfahrens der
Polymerasekettenreaktion.
Eine faszinierende junge Forschungsrichtung liegt in der Vision, einen Computer zu
entwerfen, der auf Basis von DNA-Molekülen rechnen kann. Wie dieser realisiert wird und
welche Voraussetzungen dafür gegeben sein müssen – mit diesen Themen werden wir uns im
nächsten Kapitel eingehender beschäftigen.

6.4 DNA-Computer

Bei der Erläuterung des RSA-Verschlüsselungsverfahrens sind wir bereits auf Leonard M.
Adleman gestoßen, der zu den Entdeckern des RSA-Verfahrens zählt und der entscheidend zu
neuen Verschlüsselungsprinzipien beigetragen hat. Derselbe überraschte 1994 die Fachwelt
mit seinen in der Fachzeitschrift „Science“ publizierten Experimenten, die eine ganze neue
Art der Berechnung demonstrieren sollten. Adleman konnte zeigen, dass chemische Einheiten
von DNA-Molekülen Informationen speichern und verarbeiten können, indem er ein
einfaches Beispiel des bekannten hamiltonschen Wegproblems der Informatik im Labor löste.
Diese vom irischen Hofastronom William Rowan Hamilton Mitte des 19. Jahrhunderts
aufgestellte Aufgabe lässt sich wie folgt formulieren: ausgehend von einem Startknoten einen
Weg zu einem Ziel finden und dabei auf dem Weg alle anderen vorgegebenen Stationen
genau einmal berühren. Diese Aufgabe ist auch unter dem Namen des
Handlungsreisendenproblems bekannt. Ein Handlungsreisender soll eine bestimmte Anzahl
von Städten besuchen und den kürzesten Weg zwischen ihnen finden. Die Aufgabe wird
allerdings dadurch erschwert, dass die Städte nur einmal besucht werden dürfen und nicht
immer eine Direktverbindung zwischen ihnen gegeben ist. Das Faszinierende daran ist, dass
Adleman dieses Problem mit bestimmten Annahmen mit Hilfe von DNA-Molekülen
berechnen konnte. Dieses Experiment war der Auftakt für das interdisziplinäre
Forschungsgebiet des DNA-Computing.

147
Was versteht man unter DNA-Computing und wie lässt sich ein DNA-Computer realisieren?

Es gibt in der Natur bestimmte erprobte Mechanismen, die in der Informationsverarbeitung


entscheidende Verbesserungen bringen können. Mittlerweile gibt es in der Molekularbiologie
etablierte Techniken, mit Hilfe derer man sich Verfahren bedienen kann, die es ermöglichen,
Informationen in Erbmolekülen der Desoxyribonukleinsäure (DNA) zu speichern und zu
verarbeiten. Dadurch sind heutzutage Computer auf molekularer Ebene denkbar, die den
momentanen Stand der Informationstechnik an Speicherdichte, Energieausnutzung und
Anzahl möglicher Rechenschritte um viele Zehnerpotenzen übertreffen könnten. Die Idee ist
nun, das über Jahrmillionen optimierte Genmaterial für Informationsspeicherung und
-verarbeitung zu nutzen, um damit die Möglichkeit zu schaffen, neuartige programmierbare
Parallelrechner zu entwickeln.
Der kühne Gedanke, dass DNA-Moleküle rechnen können, kam Leonhard M. Adleman, als er
über die Turingmaschine nachdachte. Der englische Mathematiker Alan M. Turing (1912–
1954) hatte sich eine Maschine ausgedacht, die zwar für Berechnungen im größeren Umfang
ungeeignet war, jedoch durch seine geniale Einfachheit und Durchschaubarkeit bestach. Eine
Version seiner Maschine bestand aus zwei Magnetbändern und einer Steuereinheit. Die
Steuereinheit konnte sich gleichzeitig entlang beider Bänder bewegen, wobei das eine Band
als Eingabeband diente, von dem nur gelesen werden konnte, und das zweite Band als
Ausgabeband fungierte, das sowohl die Funktion des Lesens als auch des Schreibens
beherrschte. Es ist nun relativ leicht, diese Maschine so zu programmieren, dass sie eine Folge
der Zeichen Adenin (A), Cytosin (C), Guanin (G) und Thymin (T) vom Eingabeband liest und
deren Komplemente auf das Ausgabeband überträgt. Als nun Leonhard M. Adleman über
diese Übereinstimmung nachdachte, kam ihm der geniale Gedanke, dass die DNA-
Polymerase Eigenschaften einer Turing-Maschine hatte und somit für Berechnungen
herangezogen werden könnte.
Aus dieser Idee heraus entwarf er ein DNA-Experiment, mit dem er das hamiltonsche
Wegproblem mit folgenden Annahmen löste: Adleman wählte einen Grafen mit sieben
Städten und 14 Einbahnstraßen aus. Untersuchungen zufolge brauchte ein Mensch
durchschnittlich 54 Sekunden, um in dieser Anordnung den einzigen Weg zu finden, der alle
Städte genau nur einmal berührt. Jetzt lag natürlich auch die Frage nahe, wie lang die
Berechnung anhand von DNA-Molekülen dauern würde. Adleman ordnete für diese Zwecke
allen Städtenamen eine bestimmte DNA-Sequenz zu, die jeweils aus acht Basen bestand. Die
ersten vier Basen bildeten gewissermaßen den Vornamen, die letzten vier Basen den

148
Nachnamen der Stadt. Jeder Direktflug zwischen den Städten bildete den Nachnamen der
Ausgangsstadt und den Vornamen der Zielstadt. Nehmen wir an, die Sequenz ACGG TTAT
steht für Ohio und die Sequenz TGGT ACAT steht für Paris. In diesem Beispiel und mit der
Annahme von oben hätten wir für den Direktflug Ohio–Paris quasi die Flugnummer: TTAT
TGGT. Wie bereits erläutert, bindet sich eine Base immer nur an eine bestimmte andere
komplementäre Base: Adenin (A) bindet sich an Thymin (T) und Cytosin (C) bindet sich an
Guanin (G). Aus dieser Tatsache heraus gibt es zu jedem Städtenamen auch eine
komplementäre Version. So wäre beispielsweise die komplementäre Sequenz zu Ohio: TGCC
AATA.
Adleman ließ nun alle komplementären Städtenamen und die Flugrouten-Sequenzen künstlich
synthetisieren und gab eine winzige Menge davon gemeinsam mit einer Salzlösung und mit
bestimmten Enzymen, die als „Ligasen“ bezeichnet werden, in ein Reagenzgefäß. Unter
Ligasen versteht man Enzyme, die DNA- oder RNA-Stücke zusammenfügen können.
Nachdem die chemische Reaktion eingesetzt hatte, verging genau eine Sekunde, bis die
Lösung des Problems vorlag. Was war passiert? Im Reagenzglas hatten sich die
komplementären Städtenamen und die Flugrouten zu einem Doppelstrang verbunden, der
Reihenfolge nach wurden dabei die Nachnamen der einen Stadt über die Flugrouten-
Sequenzen mit den Vornamen der Folgestadt verbunden. Die Ligasen verbanden die
aufeinander folgenden Sequenzen jedes Stranges untereinander. Am Ende des Prozesses lag
ein Gemisch von Billionen von DNA-Strängen mit unterschiedlichen Reihenfolgen der Städte
vor. Daraus entstand aber das Problem, dass zwar der DNA-Computer alle möglichen
Kombinationen innerhalb einer extrem kurzen Zeitspanne mit Hilfe der Parallelrechnung
ermittelt hatte, jedoch lag die einzig richtige Lösung inmitten einer gigantischen Auswahl
falscher Kombinationen.

Wie kann die richtige Sequenz aus der Vielzahl der Möglichkeiten ermittelt werden?

Die Lösung des Problems kann über mehrere Teilschritte erreicht werden:

Schritt 1: Im ersten Schritt werden alle Sequenzen ausgesondert, die nicht die richtige
Anfangs- und Zielsequenz haben. Dazu wird das Verfahren der Polymerasekettenreaktion, das
wir bereits erläutert haben, eingesetzt. Mit dieser Technik lassen sich gezielt und in großen
Mengen DNA-Moleküle herstellen, die mit einer bestimmten vorgegebenen Primersequenz
behaftet sind. Auf diese Weise können zwar die falschen Sequenzen nicht eliminiert werden,

149
jedoch die richtigen so stark vermehrt werden, dass die falschen in der Masse untergehen. Der
Primer setzt sich aus dem Nachnamen der Anfangsstadt und dem Komplement des
Vornamens der Zielstadt zusammen. Die DNA-Polymerase kann somit in großen Mengen die
Sequenz zur richtigen Anfangsstadt und die Wirkung für die richtige Zielstadt erzeugen,
wobei das PCR-Verfahren zu einem schnellen exponentiellen Wachstum der zu
vervielfältigenden Sequenzen verhilft.

Schritt 2: Die Lösung erhält man aus jenen Strängen, die alle sieben Stadtsequenzen
beinhalten. Da es sich dabei um die längsten Moleküle handelt, werden die kürzeren
Sequenzen ausgesiebt und die übrig gebliebenen Sequenzen mittels Gelektrophorese auf
einem Gel sichtbar gemacht. Übrig bleibt nun ein Gemisch aus DNA-Strängen mit der
richtigen Länge, Start- und Zielsequenz, die aber unterschiedliche Zwischenstationen
aufweisen. Aus diesen muss nun die richtige Lösung bestimmt werden, die jede Stadtsequenz
jeweils nur einmal enthält. Das ist der langwierigste Teil des Experiments.

Schritt 3: Im letzten Schritt erfolgt die Auslese nach Affinität. An mikroskopisch kleine
Eisenkugeln werden Sondenmoleküle angebracht, die dem komplementären Namen einer
Stadt entsprechen. Im Anschluss werden diese Kugeln mit den verbliebenen Molekülen, die
als Einzelstränge vorliegen, im Reagenzglas verrührt. Diejenigen, die den richtigen
Stadtnamen enthalten, verbinden sich mit dem komplementären Strang der Sonden. Die
Eisenkugeln werden daraufhin mit einem Magneten an der Wand des Reagenzglases
festgehalten und der flüssige Teil der Lösung wird entfernt. Damit werden alle Moleküle
ausgefiltert, die diesen Namen nicht enthalten. Als Nächstes wird das Reagenzgefäß mit einer
neuen Flüssigkeit befüllt und der Magnet wieder entfernt, um die Kugeln freizugeben.
Daraufhin wird das Reagenzglas erhitzt, durch die Temperaturerhöhung trennen sich die
Moleküle wieder von den Sonden und vermischen sich mit der Flüssigkeit. Die Eisenkugeln
werden jetzt abermals, diesmal im Originalzustand, an die Wand des Reagenzglases
gebunden. Die Lösung, die nur noch die gewünschten Stränge enthält, wird in ein neues
Reagenzglas umgegossen. Dieser Vorgang wird für die restlichen Zwischenstationen
wiederholt. Am Ende müssen im Reagenzglas genau jene DNA-Moleküle vorhanden sein, die
einen hamiltonschen Weg darstellen.

150
Bis die Lösung im Labor vorlag, benötigte Adleman insgesamt eine Woche Laborarbeit. Wir
sehen anhand dieses Verfahrens, dass ein Optimierungsproblem wie das des Handelsreisenden
auf Basis von DNA-Molekülen gelöst werden kann. Eine äußerst interessante Tatsache.
Wir wollen nun bestimmte Zukunftsperspektiven diskutieren, die einige attraktive Aspekte im
Hinblick auf molekulare Computer bieten. Molekulare DNA-Computer können Informationen
mit extrem hoher Dichte speichern, so enthält ein Gramm DNA, das entspricht im trockenen
Zustand etwa einem Kubikzentimeter, genau so viel Information wie eine Billion CD-ROMs.
Sie sind besonders für die parallele Informationsverarbeitung geeignet. Selbst die äußerst
geringe Menge eines Tröpfchens Lösung, das Adleman in seinem Experiment verwendete,
führte dazu, dass 1014 DNA-Flugnummern gleichzeitig verkettet wurden und das innerhalb
von einer Sekunde. Eine unvorstellbar hohe Zahl, wenn man bedenkt, wie gering die
Ausgangsmenge war. Es ist fragwürdig, ob der schnellste Supercomputer heutzutage mit
dieser Geschwindigkeit mithalten könnte. Molekulare Computer wären zumindest theoretisch
ungemein energieeffizient. Im Prinzip würde man für 2 * 1019 DNA-Operationen ungefähr ein
Joule benötigen, davon sind die derzeit existierenden Supercomputer viele Größenordnungen
entfernt. Ihre Kapazität liegt etwa bei 109 Operationen pro Joule. Auf Basis der massiven
Parallelität von DNA-Computern und mit der Aussicht auf eine praktische Umsetzung in den
nächsten Jahrzehnten stellt sich in diesem Zusammenhang natürlich auch die Frage, ob die
heute gängigen Kryptosysteme vor den Attacken molekularer Rechner auf Grund der
ungeheuer schnellen Informationsverarbeitung sicher sein werden. Sollte es gelingen, eine
praxistaugliche Technologie auf einer molekularen Ebene zu schaffen, können wir mit
Spannung in die Zukunft sehen, in der heutzutage schwierig zu lösende Probleme, wie z. B.
das der Primfaktorzerlegung von sehr großen natürlichen Zahlen, der Vergangenheit
angehören. Es bleibt auf jeden Fall spannend!
Keineswegs weniger faszinierend ist der Vorgang der Informationsverarbeitung, wie er in
unserem empfindlichsten Organ, dem Gehirn, stattfindet. Auch hierbei werden wir zunächst
mit den Grundlagen der Gehirnforschung beginnen, um anschließend die Anwendungen in
diesem Bereich näher zu betrachten.

151
7. Gehirn – Wunderwerk der Natur

Das Gehirn ist eines der kompliziertesten Strukturen, die wir kennen, und war stets im
Mittelpunkt des Interesses menschlichen Denkens. Es wurde bereits in der Frühzeit mit
mystischen und religiösen Vorstellungen in Verbindung gebracht. So glaubten die Menschen
der Vorzeit, der Kopf sei eine Behausung böser Geister, die Besitz von besessenen Menschen
ergreifen können. Um die bösen Geister zu entfernen, wurden Löcher in den Kopf geschabt.
Wir können uns vorstellen, dass dieser Vorgang ein sehr schmerzlicher Prozess gewesen sein
muss. So suchten schon griechische Anatomen wie Anaxagoras nach dem Sitz des Geistes im
menschlichen Körper. Anaxagoras vermutete, dass die Flüssigkeit in den Hohlräumen des
menschlichen Gehirns den Hauch des Geistes beinhaltete. Erste zielgerichtete Forschungen,
die der normalen Ansicht, dass die geistige Aktivität nichts mit dem Gehirn zu tun habe,
widersprach, führte Alkmaion von Kroton (570–500 v. Chr.) durch. Bei Tiersektionen fand er
Nervenbahnen, die die Sinnesorgane mit dem Gehirn verbanden. Daraufhin verkündete er,
dass das Gehirn auf jeden Fall der Sitz des Denkens sein müsste. Jedoch hielt er das Gehirn
für eine Drüse, die Gedanken genauso absondere wie die Tränendrüse Tränen.
Herophilos (335 v. Chr.) und Erasistratos (300 v. Chr.) waren offiziell die Ersten, die
entdeckten, dass bei einer Durchtrennung bestimmter Nervenbahnen die Menschen nicht mehr
sehen konnten. Sie schlossen daraus, dass es ein zusammenhängendes System von
Nervenbahnen geben müsse, wobei das Gehirn das Zentrum bilde. Ihre Beschreibung des
Gehirns war schon wesentlich detaillierter und sie trafen bereits eine Unterscheidung
zwischen Bewegungs- und Empfindungsnerven. Einem römischen Arzt namens Claudius
Galenus gelang allmählich der Durchbruch zur allgemein akzeptierten Anschauung, dass das
Gehirn das Zentrum menschlichen Denkens und des Gedächtnisses sei. In seiner
systematischen Untersuchung bei verschiedenen Tieren beobachtete er
Lähmungserscheinungen, wenn er Teile des Gehirns entfernte oder das Rückenmark
durchtrennte. Er irrte jedoch im Aufbau des Nervensystems, das er für ein Röhrensystem
hielt, in das das Gehirn den Seelengeist aus den Hirnhöhlen pumpe. Die Vorstellung, dass das
Gehirn der Sitz der Seele sei, blieb für Jahrhunderte vorherrschend. Leonardo da Vinci
änderte das Bild vom Gehirn, indem er dieses mit Wachs ausgoss und dabei feststellte, dass
die Hirnkammern labyrinthartig voneinander getrennt sind. Ein sehr mechanisches Bild vom
Gehirn hatte René Descartes, das er mit den Funktionen einer Maschine verglich. So
betrachtete er Funktionen wie das Schlafen, Gedächtnis oder Gefühle als eine Anordnung von

152
Organen, deren Zusammenwirken er wie das einer Maschine sah. Ein wahrlich sehr
vereinfachtes Bild von dem, das sich durch die moderne Gehirnforschung heutzutage darstellt.
Wir sehen also, dass es viele Irrtümer in der Geschichte der Erforschung unseres wichtigsten
Organs gegeben hat und sich erst in jüngster Zeit ein halbwegs vollständiges Gesamtbild der
Vorgänge und Strukturierung im Gehirn ergab.

Wie ist nun eigentlich der Aufbau des Gehirns und wie erfolgen die Speicherung und
Verarbeitung der von außen einströmenden Informationen? Wie können wir uns überhaupt
Erlebnisse und Fakten merken, kurz: wie funktioniert unser Gedächtnis?

7.1 Aufbau des Gehirns

Die äußere Erscheinung des Gehirns lässt sich wie folgt beschreiben: Es handelt sich hierbei
um ein cremefarbenes, runzeliges Objekt, das im Durchschnitt etwa 1,3 Kilogramm wiegt. Es
ist durch gegeneinander abgegrenzte Bereiche bestimmter Form und Struktur aufgeteilt, die
nach einem großen Bauplan miteinander verbunden sind. Im Aufbau des Gehirns erkennt man
zwei deutlich getrennte Hälften, die so genannten „Hemisphären“, die sich um einen dicken
Stiel, den Hirnstamm, anordnen. Der Hirnstamm geht von den beiden Hirnhälften in das
Rückenmark über, in dem er sich allmählich verjüngt. Auf der Rückseite befindet sich eine
blumenkohlartige Ausbuchtung, die als „Kleinhirn“ bezeichnet wird und unter dem Großhirn
angesiedelt ist. In Abbildung 14 sehen wir einen Längsschnitt durch das menschliche Gehirn:

Abbildung 14: Längsschnitt durch das menschliche Gehirn

153
Das Gehirn kann als wichtigstes Organ des Zentralnervensystems angesehen werden, es ist
sozusagen die Kontrollinstanz, die aus etwas über einhundert Milliarden Nervenzellen
besteht. Unser wichtigstes Organ ist für alle Aktivitäten, ob es sich nun um bewusste oder
unbewusste handelt, verantwortlich, daher kann es als Sitz unserer Persönlichkeit angesehen
werden. Um das Gehirn besser zu verstehen und untersuchen zu können, unterteilt man es in
verschiedene Bereiche, die für ganz bestimmte Funktionen zuständig sind. Wie aus Abbildung
14 ersichtlich, kann das Gehirn grob in folgende Bereiche eingeteilt werden: Großhirnrinde,
Großhirn, Thalamus, Hypothalamus, Hirnstamm und Kleinhirn, deren Funktionen ich kurz
beschreiben möchte.

• Großhirnrinde: Bei dieser handelt es sich um eine graue Substanz, die die äußere
Nervenzellschicht des Gehirns bildet. Die Oberfläche der Großhirnhemisphären ist durch
viele Furchen und Krümmungen stark vergrößert. Folgende Teile der Großhirnrinde
werden durch vier Bereiche, die als „Lappen“ bezeichnet werden, unterschieden: der
Schläfenlappen ist für Geruch, Gehör und Sprache zuständig, der Scheitellappen für
Tastsinn und Geschmack, der Hinterhauptslappen für das Sehen und der Stirnlappen, in
dem man den Sitz des Bewusstseins vermutet, für Bewegung, Sprache und Denkvorgänge.
Diese Grobeinteilung muss allerdings unter Vorbehalt gesehen werden, da die
Gehirnforschung beim Thema Bewusstsein immer noch vor vielen Rätseln steht und
vermutlich immer stehen wird.
• Großhirn: Für unser Denken und Wahrnehmungsvermögen ist das Großhirn zuständig.
Man vermutet hier die Intelligenz und das Urteilsvermögen des Menschen. Die
Längsfurche unterteilt das Großhirn in zwei spiegelgleiche Hemisphären, die zum
gleichen Zeitpunkt unterschiedliche Funktionen ausüben können. Im Zentrum der
Hemisphäre sitzen die Basalganglien, die für das Bewegungsmuster der Skelettmuskulatur
wie das Sitzen oder Gehen zuständig sind. Je nachdem, ob in der linken oder rechten
Gehirnhälfte eine stärkere Aktivität vorhanden ist, werden unterschiedliche Fähigkeiten
des Menschen angesprochen. So ist die linke Gehirnhälfte mehr für das mathematisch
logische und analytische Denken zuständig, hingegen ist die rechte Gehirnhälfte für die
visuelle Wahrnehmung verantwortlich. In der rechten Gehirnhälfte liegen auch die
kreativen Fähigkeiten eines Menschen sowie die Wahrnehmung von emotionalen
Zuständen. In Abbildung 15 sehen Sie die Einteilung der wichtigsten Charakteristika eines
Menschen in die linke und rechte Gehirnhälfte.

154
Abbildung 15: Einteilung der menschlichen Charakteristika in die linke und rechte
Gehirnhälfte

• Thalamus: Allgemein gesehen ist der Thalamus die zentrale Schaltstelle von sensorischen
und motorischen Funktionen sowie für das vegetative Nervensystem.

• Hypothalamus: Unter dem Hypothalamus versteht man einen kleinen Bereich im


Zwischenhirn, der dieses mit dem Hormonsystem verbindet. Der Hypothalamus hat
Kontakt zur Hirnanhangdrüse und reguliert deren Hormonausschüttung. Ein beträchtlicher
Teil des Informationsaustausches findet über dieses System durch Hormone statt, die in
den Nervenzellen des Hypothalamus gebildet werden. Er regelt so die Körpertemperatur,
den Herzschlag und die Nierenfunktion, aber auch Hunger und Durst sowie unseren
Schlafrhythmus und den Geschlechtstrieb.

• Hirnstamm: Der Hirnstamm verbindet das Gehirn mit dem Rückenmark und steuert
allgemeine Lebensfunktionen wie die Herzfrequenz, den Blutdruck und die Atmung. Das
Schlaf-Wach-Zentrum ist ebenfalls hier angesiedelt.

• Kleinhirn: Das Kleinhirn ist in erster Linie für die Koordination unserer
Bewegungsabläufe verantwortlich. Mit Hilfe sensibler Nerven können

155
Körperbewegungen, so auch die Feinmotorik, kontrolliert werden. Informationen, die über
unsere Sinne empfangen werden, gelangen in das Kleinhirn und werden dort verarbeitet.

Wir können schon an der Grobeinteilung in wenige, aber wichtige Regionen im Gehirn
erkennen, dass es wir hier mit einem komplexen Zusammenspiel unterschiedlicher
Gehirnzentren zu tun haben. Auf die Feinaufteilung möchte ich hier im Detail nicht eingehen,
da wir in erster Priorität an der prinzipiellen Funktionsweise des Gehirns interessiert sind. Ich
möchte daher an dieser Stelle mit der Erklärung der Informationsverarbeitung im Gehirn
fortfahren.

7.2 Informationsverarbeitung im Gehirn

Eine Entdeckung, die einen großen Fortschritt für die Neurowissenschaft bedeutete, gelang
dem jungen italienischen Arzt Camillo Golgi (1844–1926). Um das Wesen des physischen
Gehirns zu verstehen, war es notwendig, die Materie, aus der es besteht, zu erforschen. Einer
Anekdote zu Folge ließ Golgi versehentlich ein Gehirnstücken in eine Schale mit einer
Silbernitratlösung fallen, in der es für mehrere Wochen lang liegen blieb. In dieser Zeit hatte
ein Umwandlungsprozess stattgefunden, der unter dem Mikroskop betrachtet ein komplexes
Muster dunkler Tropfen inmitten netzartig verwobener Strukturen hervorbrachte. Golgi hatte
damit den Grundbaustein des Gehirngewebes, einen charakteristischen Zelltyp, den man als
„Nervenzelle“ oder „Neuron“ bezeichnet, entdeckt. Was kann man sich nun unter
Nervenzellen oder Neuronen vorstellen? Immer findet man ein kompaktes, mehr oder minder
tropfenförmig vergleichbares Zentrum, das den Namen „Zellkörper“ oder „Soma“ (das
griechische Wort für Körper) trägt. Typisch für eine Nervenzelle sind die mit einem
mikroskopisch kleinen Baum vergleichbaren, aus der Nervenzelle wachsenden Dendriten, die
sich aus dem griechischen Wort für Baum ableiten. Die Dendriten können in ihrem Aussehen
beträchtlich variieren; so können sie einerseits sternförmig dem Zellkörper entspringen und
andererseits auch von einem oder beiden Enden des Zellkörpers ausgehen. Man kann etwa 50
unterschiedliche Grundformen bei Gehirnneuronen unterscheiden.
Typisch für Neuronen sind nicht nur die klein gewachsenen Zweige, sondern auch ein langer,
dünner Fortsatz, der sich vom Zellkörper ausgehend ins umliegende Gewebe fortsetzt. Dieser
Fortsatz wird als „Axon“ bezeichnet und ist wesentlich länger als das übrige Neuron. Der
Durchmesser des Zellkörpers liegt in einem Bereich von bis zu etwa einem 1/100.000

156
Millimeter, hingegen kann sich das Axon im Extremfall bis in das menschliche Rückenmark
hinunterziehen und somit bis zu einem Meter lang werden. Bild 16 zeigt eine typische
Nervenzelle mit ihren wichtigsten Merkmalen:

Abbildung 16: Aufbau einer Nervenzelle/eines Neurons

Dendriten sind echten Zweigen sehr ähnlich, da sie sich zum Ende hin zuspitzen, was Axone
nicht tun. Wie alle anderen Körperzellen sind auch Neuronen zum Teil damit beschäftigt, das
Überleben der Zelle zu sichern und die nötigen chemischen Verbindungen herzustellen. Die
Rolle, die Dendriten und Axone spielen, ist nicht so eindeutig zu beantworten, da diese
ausschließlich bei Nervenzellen vorkommen. Daher sind sie für ganz spezifische Funktionen
verantwortlich.
In diesem Abschnitt wollen wir uns damit beschäftigen, wie Neuronen elektrische Signale
aussenden und empfangen. Luigi Galvani (1737–1798) war der Erste, der nachwies, dass
Nerven Elektrizität erzeugen können. Die vielen Milliarden Nervenzellen, die in einem
ausgewachsenen menschlichen Gehirn vorhanden sind, sind pausenlos damit beschäftigt,
Informationen von außen über die Sinne oder aus verschiedenen Körperstellen zu empfangen
und weiterzugeben. Um den Informationsfluss im menschlichen Körper aufrechtzuerhalten,
werden Signale von einer bestimmten Stelle im Gehirn über Tausende von Neuronen und
Synapsen an andere Bereiche im Gehirn oder Körperstellen weitergeleitet. Für die
Kommunikation sind die Dendriten und Axone zuständig, die als Empfänger und Sender die
elektrischen Signale entgegennehmen und an andere umliegende Neuronen weitergeben. Bei
der neuronalen Kommunikation spielen chemische Verbindungen eine zentrale Rolle, wobei
die Kommunikation beispielsweise durch Drogen leicht gestört und verändert werden kann.

157
Wie lässt sich die Interaktion zwischen den Neuronen im Detail beschreiben?

Unter elektrischem Strom versteht man das Fließen von Ladungen, wobei ein derartiger
Ladungsfluss im menschlichen Gehirn durch die Bewegung einer oder mehrerer Ionenarten
bewerkstelligt wird. Ein Ion ist ein Atom, dem entweder mindestens ein Elektron fehlt oder
das überschüssige Elektronen besitzt. Häufige Ionenarten, die im menschlichen Körper
vorkommen, sind: Natrium, Kalium, Chlorid oder Kalzium. Diese Ionen können sich
entweder im Inneren (wie z. B. Kalium) oder auf der Außenseite des Neurons (wie Kalzium,
Natrium oder Chlorid) befinden. Nun liegt der Umstand vor, dass Ionen nicht nach Belieben
zwischen innen und außen wechseln können, sondern sie werden durch eine Barriere, der so
genannten „Zellmembran“, daran gehindert. Die Zellmembran ist nicht nur eine einfache
Wand, sondern sie besteht aus zwei Schichten mit einer fettreichen Mittelregion. Da nun
Ionen diese fettreiche Mittelschicht nicht einfach überwinden können, kann kein Ion
ungehindert in das Neuron hinein- oder aus ihm hinauswandern.
Die Konsequenz daraus ist, dass sich die Ionen an der Innen- und Außenseite des Neurons
konzentrieren. Zusätzlich befinden sich in der Zelle negativ geladene Eiweißmoleküle, sprich
Proteine. Addiert man nun die Ladungen der Proteine und Ionen, so ergibt sich eine ungleiche
Ladungsverteilung auf der Innen- und Außenseite des Neurons. Auf der Innenseite existiert
ein Überschuss an negativen Ladungen, daher ist die Innenseite im Vergleich zur Außenseite
negativ geladen. Somit entsteht eine Potenzialdifferenz zwischen innen und außen, was
bedeutet, dass eine Spannung über der Membran liegt, die (in Volt ausgedrückt) einen
negativen Wert von –70 bis –80 Millivolt ergibt. Wie können sich nun die Ionen durch die
undurchdringliche, fettreiche Membranschicht bewegen? Dafür sind bestimmte
Spezialstrukturen, die aus großen Proteinen gebildet werden, verantwortlich. Sie helfen
bestimmten Ionenarten dabei, von der wässrigen, fettarmen Zone – der Außenseite – zur
Innenseite des Neurons gelangen können. In der Neurowissenschaft spricht man daher von
einem Kanal, der das Passieren der Ionen ermöglicht.

Welche Vorgänge sind in einem Neuron erforderlich, damit dieses ein Signal aussenden
kann?

Der Potenzialverlauf kann in vier Phasen eingeteilt werden. Damit ein Neuron ein elektrisches
Signal aussenden kann, müssen für kurze Zeit positiv geladene Natriumionen in die Zelle
eindringen. Lagern sich nun die positiv geladenen Teilchen auf der Innenseite des Neurons an,

158
dreht sich die Potenzialdifferenz über der Membran um und die Innenseite ist vorübergehend
gegenüber der Außenseite positiv geladen. Diese Phase entspricht der Depolarisation.
Abbildung 17 zeigt einen typischen Potenzialverlauf mit seinen unterschiedlichen Phasen, wie
er bei einer Stimulation im Neuron auftritt:

159
160
Abbildung 17: Aktionspotenzial in einem Neuron

Befindet sich nun die Zelle im Zustand der Depolarisation, so führt die Spannung von etwa
+20 bis +30 mV zu einer Entladung der Kaliumionen. Es erfolgt ein Öffnen der Kaliumkanäle
und die Kaliumionen verlassen die Zelle. Diese Phase bezeichnet man als „Repolarisation“.
Nachdem so viele geladene Kaliumionen die Zelle verlassen haben, dass die Spannung über
der Membran kurzfristig negativ im Vergleich zum Ruhezustand wird, tritt die Phase der
Hyperpolarisation ein. Wird nun das Neuron auf eine Weise stimuliert, dass es zu einer
kurzen, aber typischen Veränderung der Potenzialdifferenz mit einem positiven Impuls,
gefolgt von einem negativen Nachpotenzial kommt, so spricht man von einer positiv-
negativen Stosswelle, die etwa ein bis zwei Millisekunden dauert und als „Aktionspotenzial“
bezeichnet wird. Beim wiederhergestellten Ruhepotenzial wartet die Zelle erneut auf einen
depolarisierenden Stimulus.

Was löst nun eigentlich das Aktionspotenzial aus?

161
Dazu müssen wir noch einmal zu den Dendriten zurückkehren. Dendriten dienen als
Empfänger für Signale, die von anderen Neuronen stammen. Ist nun das Signal stark genug,
so laufen die Signale entlang des Dendritenzweiges und werden so zum Zellkörper
transportiert. So können gleichzeitig Hunderte oder Tausende von Signalen im Zellkörper
zusammenlaufen, die die Wahrscheinlichkeit erhöhen, dass in der Zielzelle ein
Aktionspotenzial respektive ein elektrisches Signal erzeugt wird. Die einlaufenden Signale am
Zellkörper addieren sich auf und führen gemeinsam zu einer Spannungsänderung, die, wenn
sie groß genug ist, ein neues Aktionspotenzial erzeugt. Nachdem nun das Aktionspotenzial
unabhängig vom Neuron immer dieselbe Größe hat, in etwa 90 Millivolt, wird bei verstärktem
Auftreten von einlaufenden Signalen nicht das Aktionspotenzial vergrößert, sondern es
werden stattdessen mehr Aktionspotenziale erzeugt. Dass heißt, das Neuron ist stärker erregt
und kann dementsprechend mehr Signale senden, die sich wieder in der Frequenz der
erzeugten Aktionspotenziale widerspiegeln. Manche Neuronen weisen eine Frequenz von 500
Hertz auf, der Durchschnitt liegt zwischen 30 und 100 Hertz.
Der nächste wichtige Schritt liegt in der Weiterleitung des Aktionspotenzials an benachbarte
Neuronen, das über das Axon, dem dünnen langen Fortsatz der Zelle, geschieht. Die
Geschwindigkeit, mit der das elektrische Signal übertragen wird, hängt einerseits vom
Durchmesser des Axons ab und andererseits davon, ob das Axon von einer fettreichen
Isolierung, der Myelinscheide, umgeben ist. Viele Bewegungen sind so schnell und
automatisch, dass kaum eine Verzögerung zwischen Gedanken im Gehirn und einer
Muskelkontraktion im Körper festgestellt werden kann. Diese Schnelligkeit verdanken wir
unseren Nervenleitungen, die Informationen mit einer Geschwindigkeit von bis zu
100 Metern pro Sekunde übertragen können.

Wie kann jetzt aber ein Signal von einem Neuron auf das andere Neuron übertragen werden?

Mit der Entwicklung des Elektronenmikroskops, das die Beobachtung einer Zelle mit hohem
Auflösungsvermögen möglich macht, kam es zu einem methodischen Durchbruch. Ein
Elektronenmikroskop schafft eine Vergrößerung einer Zelle bis zu einem Faktor von 10.000.
Für elektronenmikroskopische Untersuchungen werden Gehirnschnitte herangezogen, die auf
Fotoplatten abgebildet werden. Auf diesen Platten lässt sich ein schmaler Zwischenraum
zwischen den Neuronen erkennen, der so genannte „synaptische Spalt“, der die Neuronen
voneinander trennt. Gemeinsam mit der Membranregion bildet der synaptische Spalt die
Synapse, wie sie in Abbildung 18 schematisch dargestellt ist:

162
Abbildung 18: Schematische Darstellung einer Synapse

Die Kontaktaufnahme kann im Gehirn auf unterschiedliche Weise erfolgen. So können


Dendriten in synaptischer Verbindung mit anderen Dendriten stehen oder auch Axone mit
anderen Axonen. Die häufigste Verbindung ist jedoch die zwischen Axonen und Dendriten.
Hier nimmt der axonale Endpunkt einen synaptischen Kontakt mit den verzweigenden
Regionen der Dendriten auf. Es stellt sich nun die Frage, wie ein elektrischer Impuls die
Lücke zwischen Axon und Dendrit überwinden kann, wenn er das Ende des Axons erreicht
hat und am synaptischen Spalt eintrifft. Dazu ist es notwenig, eine Methode zu finden, die das
ursprünglich elektrische Signal in ein anderes Signal umwandeln kann, das letztlich den
synaptischen Spalt überqueren kann. Bereits im 19. Jahrhundert wurde die Vermutung
geäußert, dass chemische Verbindungen am Prozess der neuronalen Kommunikation beteiligt
sind. Aber erst im 20. Jahrhundert konnte der Kandidat für den chemischen Prozess entlarvt
werden. 1921 gelang Otto Loewi die Entdeckung der natürlich vorkommenden chemischen
Verbindung, die das entscheidende Bindeglied für die neuronale Kommunikation darstellt. Es
ist eine Substanz mit den Namen „Acetylcholin“, die als Prototyp diverser chemischer
Substanzen gilt und bei verschiedenen Nerven in Körper und Gehirn als wichtiges Bindeglied
bei der Signalübertragung freigesetzt wird. Jene Substanzen werden in die Gruppe der
neuronalen Botenstoffe oder Neurotransmitter zusammengefasst. Die Entdeckung von
Acetylcholin hat zu einem tief greifenden Verständnis in der Kommunikation zwischen den
Gehirnzellen beigetragen. Sobald ein elektrisches Signal das Ende eines Axons erreicht,
schafft es die Voraussetzung für die Ausschüttung von Acetylcholin in den synaptischen
Spalt. Im axonalen Ende einer feuernden oder signalisierenden Zelle ist der Botenstoff

163
Acetylcholin in vielen kleinen Paketen gespeichert, die bei Eintreffen eines Aktionspotenzials
oder elektrischen Signals durch eine kurzfristige Spannungsänderung freigesetzt werden. Je
mehr Aktionspotenziale eintreffen, desto mehr Acetylcholin wird aus den einzelnen Paketen
entleert.

Wie ist es nun aber möglich, dass ein so einfaches Molekül wie Acetylcholin eine Botschaft
übertragen kann?

Der Mechanismus liegt darin, dass das ursprüngliche elektrische Signal, das in ein chemisches
Signal umgewandelt wurde, wieder in einen elektrischen Impuls zurückverwandelt wird.
Daher ist es wichtig zu verstehen, wie Acetylcholin oder eben ein anderer Neurotransmitter
eine kurzfristige Spannungsänderung in der Zielzelle hervorrufen kann. Sobald der
Neurotransmitter das andere Ende des synaptischen Spalts erreicht hat, muss er in irgendeiner
Weise Kontakt mit dem Zielneuron aufnehmen. Dafür sitzt auf der Außenseite des
Zielneurons ein charakteristisches Proteinmolekül, das als „Rezeptor“ bezeichnet wird. Diese
Rezeptoren sind ganz speziell auf einen bestimmten Neurotransmitter zugeschnitten, so dass
beide Teile wie bei einem Schloss-Schlüssel-Prinzip zusammenpassen. Ein Rezeptor lässt sich
nicht mit jedem beliebigen Molekül verbinden, sondern die molekulare Struktur muss exakt
der Bindungsstelle des Rezeptors entsprechen. Wird nun der Neurotransmitter an das
Zielneuron gebunden, so erfolgt das Öffnen der Natriumkanäle oder das Öffnen der Kanäle
einer anderen Ionenart. Das Ein- oder Ausströmen der Ionen bewirkt eine kurzfristige
Änderung der Potenzialdifferenz in der Zielzelle. Diese Änderung der Potenzialdifferenz führt
dazu, dass ein elektrisches Signal entlang der Dendriten zum Zellkörper weitergeleitet wird.
Somit hat sich der Kreislauf der Kommunikation von Ausgangs- auf Zielzelle geschlossen. In
der Fortsetzung der Kommunikation gilt wiederum: Wenn nun die Summe aller
Spannungsänderungen groß genug ist, so öffnen sich wieder die Natriumkanäle in der Nähe
des Zellkörpers, so dass in dieser neuen Zielzelle ein Aktionspotenzial ausgelöst wird. Nun
sendet die Zielzelle selbst wieder ein Signal aus, das auf die nächste Zielzelle weitergeleitet
wird. Somit haben wir es hier mit einer fortlaufenden Folge von elektrischen und chemischen
Ereignissen zu tun. Wichtig in diesem Prozess der Signalübertragung ist auch, dass der
Neurotransmitter nach beendeter Arbeit schnell aus dem synaptischen Spalt entfernt wird.
Dafür sind Enzyme verantwortlich, die die Fähigkeit besitzen, Neurotransmitter abzubauen.
Wir konnten nun einen Eindruck von der Komplexität der Informationsverarbeitung im
Gehirn gewinnen. Es handelt sich hierbei um eine Verschaltung von Milliarden von

164
Neuronen, deren Wirkungsweise im Zusammenspiel der verschiedenen Gehirnzentren uns
unsere Fähigkeiten verleiht und die uns zu dem macht, was wir sind. Aus den Erkenntnissen
der Gehirnforschung heraus wurde ein ehrgeiziges Vorhaben gestartet, die Funktionsweise
des Gehirns mit seiner Fähigkeit, aus Erfahrungen zu lernen, auf intelligente Systeme zu
übertragen. Das Forschungsgebiet, das sich damit beschäftigt, eine neuartige Technologie auf
Basis neuronaler Netze zu entwerfen, trägt den Namen „Künstliche Intelligenz“. Wir wollen
uns damit kurz beschäftigen.

7.3 Künstliche Intelligenz – KI

Seit einigen Jahren setzt man große Erwartungen in die künstliche Intelligenz oder kurz KI.
Diese verfolgt das Ziel, mit Maschinen so viel wie möglich von der Funktionsweise des
menschlichen Geistes zu imitieren und ihn vielleicht eines Tages darin zu übertreffen. Es gibt
in diesem Forschungsbereich unterschiedliche Ziele und Komplexitätsstufen. Einerseits gibt
es eine Richtung, die vorwiegend dem praktischen Bedarf in der Wirtschaft dient – die
Roboterforschung. Hierfür werden mechanische Geräte, die quasi intelligente Tätigkeiten
ausführen können, eingesetzt. Solche Systeme finden Anwendung in der Industrie, wenn es
beispielsweise darum geht, standardisierte Arbeitsabläufe im Autoherstellungsprozess mit
maschineller Hilfe zu automatisieren. Des Weiteren ist die Entwicklung von
Expertensystemen, die den Erkenntnisstand einer ganzen Berufssparte, wie beispielsweise
Medizin oder Jura, in einem codierten Programmpaket abbilden möchte, von kommerziellem
und allgemeinem Interesse. In diesem Zusammenhang ist ebenfalls interessant, ob es eines
Tages wirklich möglich sein wird, die Erfahrung und Sachkenntnis eines Menschen aus
diesen Berufsbereichen durch ein adäquates Programmpaket zu ersetzen. Für die Entwicklung
künstlicher Systeme bedarf es tiefer Einsichten in die Funktionsweise des menschlichen
Gehirns, dessen Funktionsweise, wie schon besprochen, auf Basis der Verschaltung vieler
einzelner Neuronen passiert oder besser gesagt: auf einem neuronalen Netz aufbaut.
Die Anfänge der Entwicklung künstlicher neuronaler Netze gehen auf das Jahr 1943 zurück.
In diesem Jahr beschrieben Warren McCulloch und Walter Pitts als Erste die Möglichkeit,
neurologische Netzwerke zu konstruieren, die auf Basis von Neuronen funktionieren. Sie
konnten zeigen, dass mit Hilfe einfacher Klassen neuronaler Netze im Prinzip jede
arithmetische und oder logische Funktion berechnet werden kann. Das war der Startschuss für
eine Reihe von Forschungsarbeiten, die das Forschungsfeld der künstlichen Intelligenz

165
vorantrieben. Ich möchte Ihnen hier einige Forschungsbeiträge verschiedener Forscher mit
den Konsequenzen auf die Entwicklung auf dem Gebiet der künstlichen Intelligenz vorstellen.
1949 schuf Donald O. Hebb in seinem Buch The Organization of Behaviour das erste
einfache, universelle Lernkonzept individueller Neuronen, die heutzutage als hebbsche
Lernregeln bekannt sind. Diese Lernregeln setzte Donald O. Hebb ein, um Ergebnisse aus
psychologischen Experimenten zu begründen. Die hebbschen Lernregeln gelten bis heute in
ihrer allgemeinen Form für fast alle neuronalen Lernverfahren. 1951 wurde von Marvin
Minsky der erste bekannte Neurocomputer theoretisch beschrieben, der jedoch nie praktisch
umgesetzt wurde. 1957 bis 1958 wurde von Mitarbeitern am MIT unter Anleitung von Frank
Rosenblatt und Charles Wightman der erste funktionsfähige Neurocomputer entwickelt, der
für Mustererkennungsprobleme eingesetzt wurde. Dieser Computer besaß bereits die
Fähigkeit einfacher Ziffernerkennung, die mit einem 20 mal 20 Pixel großen Bildsensor
umgesetzt wurde. Neben seinen technischen Leistungen wurde Frank Rosenblatt durch sein
Buch Principles of Neurodymanics bekannt, das er 1959 veröffentlichte. In diesem Buch
beschreibt er sehr detailliert verschiedene Varianten des Perzeptrons, das einem einfachen
Neuronenmodell entspricht. Ebenso stellt er in diesem Buch einen Beweis vor, der zeigt, dass
das Perzeptron alles erlernen kann, was durch das von ihm angegebene Lernverfahren zum
Erlernen fähig ist. Im Jahr 1969 unterzogen Marvin Minsky und Seymour Papert das Modell
des Perzeptrons einer genaueren Analyse und konnten damit zeigen, dass dieses Modell viele
wichtige Probleme gar nicht lösen konnte. Anhand mehrerer einfacher Probleme, wie z. B.
das XOR-Problem, konnten sie feststellen, dass das ursprüngliche Perzeptron und auch
bestimmte Varianten davon nicht in der Lage waren, diese zu repräsentieren. Als konsequente
Schlussfolgerung ergab sich daraus, dass auch mächtigere Modelle die gleichen Probleme
aufweisen würden und damit das ganze Gebiet der neuronalen Netze eine wissenschaftliche
Einbahnstraße darstellte. Diese Vermutung ist zwar aus heutiger Sicht nicht zutreffend, jedoch
führte das Ergebnis zu einer Stagnation und der Kürzung von Forschungsgeldern auf diesem
Gebiet. Stattdessen flossen ab diesem Zeitpunkt Forschungsgelder in das neue
Forschungsgebiet der künstlichen Intelligenz. Nach 15 Jahren der geringen Wertschätzung
erfolgte eine Renaissance des Gebietes der Erforschung neuronaler Netze, die durch die
theoretischen Grundlagen der berühmten Forscher von heute hervorgerufen wurde. Mit
diesem Gebiet wollen wir uns im nächsten Abschnitt beschäftigen.

7.4 Grundlagen und Anwendung neuronaler Netze

166
Es gibt Probleme, die durch einen Algorithmus in kurzer Zeit exakt gelöst werden können, bei
denen ein Computer deutlich schneller ist als ein menschliches Gehirn. Hingegen benötigt der
Mensch beim Erkennen eines Gesichts wesentlich weniger Zeit und erreicht eine viel höhere
Erkennungsleistung als der Computer. Ein weiterer Vorteil des menschlichen Gehirns ist der,
dass auch dann noch korrekte Ergebnisse geliefert werden, wenn es zu einem Ausfall einiger
für die Problemlösung notwendiger Nervenzellen kommt. Selbst wenn die Eingaben ungenau
sind, also beispielsweise ein Text durch Verschmutzung unleserlich geworden ist, kann das
Gehirn diesen noch erkennen. Ein Computer liefert in diesen Fällen fehlerhafte bzw.
unbrauchbare Ergebnisse. Die Idee ist daher, die Arbeitsweise des Gehirns auf Maschinen zu
übertragen.
Künstliche neuronale Netze sind – wie das Gehirn von Säugetieren – aus einer großen Anzahl
kleiner Elemente, den Neuronen, aufgebaut. Information werden daher verarbeitet, indem sich
die Neuronen mit Hilfe von gerichteten Verbindungen untereinander aktivieren. Es handelt
sich hierbei um das gleiche Prinzip, wie es bei den Vorgängen im Gehirn beobachtet werden
kann. Neuronale Netze zeichnen sich durch ihre Lernfähigkeit aus sowie dadurch, dass sie
bestimmte Aufgaben anhand von Trainingsbeispielen lernen können, ohne dazu explizit
programmiert werden zu müssen. Weitere Vorteile sind die hohe Parallelität bei der
Informationsverarbeitung, die hohe Fehlertoleranz und die verteilte Wissensrepräsentation,
wodurch ein zerstörtes Neuron nur einen relativ kleinen Wissensausfall bedeutet.

Aus welchen Komponenten setzt sich ein neuronales Netz zusammen und was sind seine
Prinzipien?

Ein künstliches neuronales Netz setzt sich aus stark idealisierten Neuronen zusammen. Diese
bestehen, ebenso wie ihr biologisches Vorbild, aus drei Komponenten: dem Zellkörper,
Dendriten und Axonen. Die Prinzipien können wie folgt umrissen werden: Wie im
menschlichen Gehirn summieren die Dendriten die Eingabe auf, das Axon leitet die Ausgabe
der Zelle an die Dendriten nachfolgender Synapsen weiter. Die Stärke einer Synapse wird
durch eine Gewichtung, die einem numerischen Wert entspricht, dargestellt. Daher lässt sich
die Verbindung zwischen Neuronen als direkt gewichtete Verbindung zwischen den Zellen
darstellen. In Abbildung 19 sehen wir eine typische schematische Darstellung eines
neuronalen Netzes:

167
Abbildung 19: Schematische Darstellung eines neuronalen Netzes

Was sind die wesentlichen Komponenten neuronaler Netze?

Zelle oder Neuronen: Innerhalb der Zelle wird zwischen folgenden Größen unterschieden:

- Aktivierungszustand: Dieser beschreibt den Aktivierungsgrad der Zelle.


- Aktivierungsfunktion: Diese gibt an, wie sich ein neuer Aktivierungszustand eines
Neurons aus der alten Aktivierung und der Netzeingabe sowie dem Schwellwert
des Neurons ergibt.
- Ausgabefunktion: Diese bestimmt aus der Aktivierung die Ausgabe des Neurons.

Verbindungsnetzwerk der Zellen: Ein neuronales Netz kann als gerichteter, gewichteter Graf
angesehen werden. Die Kanten stellen die Verbindungen zwischen den Neuronen dar. Dabei
wird für die Gewichtung der Verbindung zwischen den Neuronen eine Gewichtsmatrix
herangezogen.

Propagierungsfunktion: Diese gibt an, wie sich die Netzeingabe eines Neurons aus den
Ausgaben der anderen Neuronen und den Verbindungsgewichten berechnet. Dabei handelt es
sich um die gewichtete Summe der Ausgaben der Vorgängerzellen.

Lernregel: Hierbei handelt es sich um einen Algorithmus, nach dem das Netz lernt, für eine
vorgegebene Eingabe eine gewünschte Ausgabe zu produzieren. Durch die wiederholte
Eingabe von Trainingsmustern wird die Stärke der Verbindungen zwischen den Neuronen
modifiziert. Dabei wird versucht, den Fehler zwischen erwarteter und tatsächlicher Ausgabe
des Netzes zu minimieren. Lernverfahren sind die interessanteste Komponente der neuronalen
Netze.

168
Wo liegen die Anwendungsgebiete neuronaler Netze?

Auf Grund der besonderen Eigenschaften sind künstliche neuronale Netz für alle
Anwendungen interessant, bei denen kein oder nur ein geringes systematisches Wissen über
das zu lösende Problem vorhanden ist. So sind typischerweise die Text-, Bild- und
Gesichtserkennung Anwendungen, bei denen einige Hunderttausend bis Millionen Bildpunkte
in eine im Vergleich dazu geringe Anzahl erlaubter Ergebnisse überführt werden müssen.
Ebenso kommen neuronale Netze in der Regelungstechnik zum Einsatz, um herkömmliche
Regler zu ersetzen oder ihnen Sollwerte vorzugeben. Die Anwendungsmöglichkeiten sind
allerdings nicht nur auf die Technik begrenzt, sondern neuronale Netze werden auch bei der
Vorhersage von Veränderungen in komplexen Systemen in unterstützender Weise
hinzugezogen, wie z. B. zur Früherkennung sich abzeichnender Tornados oder aber auch zur
Abschätzung der weiteren Entwicklung wirtschaftlicher Prozesse.

169
8. Resümee, Diskussion und Aussicht

In der heutigen Zeit existieren viele junge Forschungsdisziplinen, deren Entwicklungen nach
dem momentanen Kenntnisstand nicht genau vorsehbar sind. Jedoch gibt es einerseits äußerst
innovative Ideen und Anstrengungen, um spezielle Fachrichtungen in der Mathematik, Physik
und Biologie voranzutreiben, die – meiner Meinung nach – in Zukunft Früchte tragen und zu
allgemein zugänglichen technischen Anwendungen führen könnten. Andererseits wäre es
jedoch auch denkbar, dass auf Grund solcher Ansätze die Sicherheit bestimmter derzeit
bestehender Kryptosysteme gefährdet und möglicherweise neben der Störung der Privatsphäre
auch wirtschaftlicher Schaden angerichtet werden könnte. Aus diesem Grund lässt sich in
bestimmten Wissenschaftsdisziplinen häufig eine Gradwanderung zwischen dem praktischen
Nutzen durch technischen Fortschritt und den nicht immer absehbaren Folgen und
Folgeschäden in sozialer und wirtschaftlicher Hinsicht beobachten.

Welche kritische Bemerkungen und zukunftsweisenden Richtungen lassen sich zu den


vorangegangenen Themen anführen?

In Kapitel 3 habe ich Ihnen einige Verschlüsselungstechniken erläutert, worunter auch das
allgemein verwendete RSA-Verfahren fällt. Die Sicherheit dieses Verfahrens baut auf dem
Produkt zweier großer Primzahlen auf und die Zerlegung dessen ist bei hinreichender Größe
ein zeitaufwändiges und rechenintensives Unterfangen. Um nun eine nahezu absolute
Sicherheit beim Austausch von Nachrichten zu gewährleisten, werden zurzeit für die
Verschlüsselung von Botschaften häufig 1024-Bit-Schlüssel eingesetzt. Auf Grund der Länge
des Schlüssels müssten in diesem Fall Dezimalzahlen mit mehr als 200 Stellen in
Primfaktoren zerlegt werden. Ein einzelner PC-Rechner würde mit der Berechnung dieser
Aufgabe Millionen Jahre beschäftigt sein und selbst bei einem Zusammenschluss mehrerer
Tausend PCs wäre noch immer ein Rechenaufwand von vielen Tausend Jahren gegeben.
Warum sollte also ein so vertrauenswürdiges Verfahren vor den Attacken eines Angreifers
nicht mehr sicher sein? Mit der momentan bekannten Hardware- und Softwaretechnik dürfte
es vorerst unmöglich sein, nach dem RSA-Verfahren chiffrierte Nachrichten in annehmbarerer
Zeit zu knacken; aber angenommen, eine Person oder Institution hätte zukünftig eine extrem

170
schnelle Faktorisierungsmethode oder eine neue Hardwaretechnologie zur Verfügung und
diese würde auch der breiten Masse öffentlich zur Verfügung stehen ...

Was wären die Konsequenzen daraus?

Gerüchten und Verschwörungstheoretikern zufolge, hat die NSA (National Security Agency)
bereits einen Weg gefunden, um dem RSA-Verfahren den Rang eines der sichersten
Verschlüsselungsverfahren abzuringen. Denkbar wäre es natürlich, dass die NSA eine
Möglichkeit entdeckt hat, um das RSA-Verfahren zu knacken, aber meiner Meinung nach fällt
dies vorerst einmal in den Bereich der reinen Spekulation. Dazu müsste zunächst ein Beweis
erbracht werden, was für eine Institution wie die NSA etwas schwierig sein dürfte, wenn man
bedenkt, dass es sich hier um einen Geheimdienst handelt und an erster Stelle bekanntlich
militärische Interessen stehen. Eine solche Waffe, wie die der endgültigen Decodierung des
RSA-Verfahrens, aus der Hand zu geben, wäre für eine Einrichtung wie die NSA wahrlich
nicht klug. Als Schlussfolgerung davon müsste es sich um eine unabhängige Person oder
Institution handeln, die einen Weg findet, den Algorithmus des RSA-Verfahrens für immer
unsicher zu machen.
Wenn Sie sich noch erinnern können, haben wir im Zusammenhang mit
Verschlüsselungsverfahren das für jedermann zugängliche Programm Pretty Good Privacy
(PGP) kennen gelernt, das erst durch den massiven Einsatz Phil Zimmermanns in der 90er-
Jahren ermöglicht wurde. Unter anderem ist auch das RSA-Verfahren in diesem hybriden
Verschlüsselungsprogramm implementiert. Mit diesem Programm werden heutzutage
jederzeit E-Mails oder Dateien verschlüsselt und sicher verschickt. Wäre das nun auf Grund
eines unsicheren Algorithmus beim RSA-Verfahren nicht mehr der Fall, so könnte
beispielsweise ein privater Internetbenutzer nicht mehr davon ausgehen, dass seine privaten
E-Mails streng vertraulich nur beim Empfänger landen. Jederzeit wäre es für eine Person aus
reinem Interesse oder eigenem Vorteil bei geeignetem Zugang denkbar, einen Lauschangriff
zu starten, die E-Mails abzufangen und lesbar zu machen. Sie könnten jetzt entgegenbringen,
dass es im privaten Bereich eigentlich wenig zu verbergen gibt, allerdings sollten an dieser
Stelle meiner Ansicht nach zwei Punkte nicht vernachlässigt werden: erstens mit dem
Gedanken leben zu müssen, dass jederzeit jemand mithorchen könnte, wenn Sie z. B. intime
Gefühle mit ihrem Gegenüber austauschen, und zweitens gibt es auf jeden Fall kritische
Daten, die in nur ganz bestimmte Hände fallen sollten, z. B. gerichtliche oder berufliche
Angelegenheiten. Abgesehen von der möglichen Störung der Intimsphäre ist auch noch die

171
kommerzielle Seite zu bedenken. Wie wir wissen, ist Betriebsspionage ein recht lukratives,
aber auch recht anrüchiges Geschäft. Mit dem Abhören von streng vertraulichen
Informationen zwischen Geschäftspartnern oder dem Anzapfen wichtiger interner
Informationen innerhalb eines Unternehmens würde sich der eine oder andere
Wettbewerbsvorteil ergeben, der einerseits zu einem wirtschaftlichen Schaden, aber auch
andererseits zu Rufschädigung für denjenigen, der ausspioniert wird, führen könnte. Ich habe
hier nur ein paar Szenarien aus denkbar vielen verschiedenen Möglichkeiten herausgegriffen.
Wie hoch der wirtschaftliche Schaden und der private Missbrauch tatsächlich wären, lässt sich
nicht mit Sicherheit sagen. Aber lediglich die Aussicht auf eine solche Situation ist
keineswegs erfreulich.
Als Nächstes ist es mir ein Anliegen, die Zukunftsaussichten von DNA-Computern und
Quantencomputern zu diskutieren.

Worin liegen die Chancen dieser jungen Forschungsrichtungen?

Nicht nur, dass Computer unseren Alltag erobert haben, sie werden immer kleiner und
schneller. Jedoch sind der Miniaturisierung physikalische Grenzen gesetzt, die durch
alternative Rechenarchitekturen in Zukunft kompensiert werden könnten. So entwerfen
Computerwissenschaftler auf der ganzen Welt faszinierende Szenarien von rechnenden DNA-
Molekülen bis zu Rechenmaschinen, die auf Quanteneffekten basieren. Die Entwicklung der
Computerbranche war in den letzten Jahrzehnten enorm. 1949 waren Computer 30 Tonnen
schwere und ganze Räume füllende Rechenmaschinen, die mit Zehntausenden von
Vakuumröhren und Hunderten von Kabelkilometern ausgerüstet waren. Zu dieser Zeit hätte
sich wohl keiner träumen lassen, dass in der Zukunft im Zuge der Transistor- und
Mikrochiptechnologie Transistoren eine Größe von einem Bruchteil eines menschlichen
Haares aufweisen und die Abstände zwischen ihnen im Nanometerbereich liegen würden. Seit
Beginn des Silizium-Zeitalters hat sich die Dichte der Transistoren auf einem Chip alle 18 bis
24 Monate verdoppelt. Doch diesen rasanten Entwicklungen sind, wie bereits gesagt,
physikalische Grenzen gesetzt, die spätestens dann erreicht sind, wenn so genannte
„Quanteneffekte“ zu wirken beginnen. Unterhalb einer gewissen Größe, dann nämlich, wenn
die einzelnen Schaltkreise nur mehr durch wenige Atomlagen voneinander getrennt sind,
wirken physikalische Gesetzmäßigkeiten, die beispielsweise zu einem „Durchtunneln“ von
Elektronen durch dünne isolierende Schichten und somit zu Lecks in den einzelnen

172
Schaltkreisen führen können. Wir können also davon ausgehen, dass in naher Zukunft die
Grenze des Machbaren im Bereich der Silizium-Mikroelektronik erreicht ist.
Ausgehend von theoretischen Überlegungen und physikalischen Grundgesetzen suchten
Bennet und Landauer nach Möglichkeiten, die bei Berechnungen eines Computers auftretende
Reibungswärme zu reduzieren. Auf Basis dieser und anderer theoretischer Überlegungen
wurden experimentelle Schritte unternommen, in scheinbar weit entfernten Gebieten abseits
der gängigen Technologien nach Lösungen zu suchen. Daraus entstanden innerhalb kurzer
Zeit gleich mehrere völlig verschiedene Ansätze. Die einen sehen in der DNA, in Enzymen
und anderen Biomolekülen die Hardware der Zukunft, hingegen setzen wiederum andere
Forschungsgruppen auf Quantenphänomene. Momentan ist noch keine Technologie so weit
entwickelt, um die herkömmliche Technologie auf Silizium-Basis abzulösen, jedoch
prophezeien einige Experten, dass solche exotisch anmutenden Technologien eines Tages
zum Alltag gehören könnten. Laut Aussagen von Computerforschern und Quantenphysikern,
die jetzt noch eher wie Utopie klingen, werden spätestens in 30 bis 40 Jahren die vertrauten
Geräte der Vergangenheit angehören und durch Gebilde ganz anderer Art ersetzt werden. Statt
aus Transistoren wird das Herz der neuen Geräte aus Flüssigkeit bestehen, gesteuert von
Radioimpulsen und Laserblitzen. So könnte der Rechner der Zukunft in kürzester Zeit das
gesamte Internet durchforsten sowie jeden jemals entwickelten Code knacken oder jede
Rechenaufgabe dank extremer paralleler Rechenoperationen in milliardenfacher
Geschwindigkeit ausführen. Mit diesen Aussichten ist schon jetzt der Wettlauf um die neuen
Zukunftstechnologien in vollem Gange. Die Forschungsarbeit beschränkt sich jetzt nicht mehr
nur auf den universitären Bereich, längst haben auch die Großen der Computerbranche
Forschungsprojekte initiiert, um den Zug der zukunftsträchtigen Technologie nicht zu
verpassen.
Neben dem Potenzial einer aussichtsreichen Technologie auf quantenmechanischer Ebene ist
ein Computer auf biologischer molekularer Ebene ein ebenso realistischer und
zukunftsweisender Kandidat. Hier liegt die Vision darin, eine Maschine zu konstruieren, die
Lösungen komplexer Algorithmen oder Informationsweitergaben durch Molekülstrukturen
bewerkstelligen kann. Es hört sich eher wie ein Science-Fiction-Roman an, wenn man davon
spricht, dass der Biocomputer der Zukunft statt aus Chips, Transistoren und Platinen eben
dann aus DNA- oder anderen Biomolekülen aufgebaut ist und Leitungsbahnen durch
chemische oder biologische Interaktionen zwischen den Molekülen ersetzt werden. Ein
gelungenes Experiment habe ich Ihnen bereits in Kapitel 5 vorgestellt, mit dem die
Optimierungsaufgabe von Hamilton – das hamiltonsche Wegeproblem – in einer Woche

173
Laborarbeit mit Hilfe von DNA-Molekülen von Leonard Adleman erfolgreich gelöst werden
konnte. Das war ein erster wegweisender Schritt in eine neue Richtung der
Informationsverarbeitung. Seit einigen Jahren arbeiten viele Computerwissenschaftler
weltweit daran, funktionierende Biocomputer zu entwickeln, dabei bedienen sie sich auf
unterschiedliche Weise aus dem reichhaltigen Vorrat der Natur. Diese Forscher sind ebenso
wie Adleman davon überzeugt, dass es zu einer molekularen Revolution kommen und diese
eine dramatische Auswirkung auf die gesamte Welt haben wird. Viele werden jetzt sicher der
Ansicht sein, dass das wieder einmal zu dick aufgetragen ist und schon seit Jahren von einer
Quanten- oder molekularen Revolution gesprochen wird, dass aber kaum Fortschritte erzielt
wurden. Nun, dann denken Sie nur einmal an die Vergangenheit – wir müssen gar nicht weit
zurückgehen. Es reichen etwa 100 Jahre, und jetzt führen Sie sich einmal vor Augen, wie
damals der Stand der Technik war: keine Mikrochips, Roboter- oder Lasertechnik, nichts
davon. Daher sollte man mit oben angeführten Ansichten bzw. Aussagen immer ein wenig
vorsichtig sein, denn es braucht eben viel Zeit und Forschungsarbeit, bis sich eine Idee zu
einem marktreifen Produkt entwickelt hat. Meiner Ansicht nach sollten wir dieser
Entwicklung vorurteilsfrei entgegengehen.

Wo liegen nun die Vorteile in der Informationsverarbeitung mit Biomolekülen?

Gegenüber herkömmlichen Technologien haben Biomoleküle gleich mehrere Vorteile:


Einerseits sind sie in der Produktion kostengünstiger, da sie sich entweder selbst vermehren
oder relativ einfach durch chemische und biotechnische Verfahren hergestellt werden können,
andererseits sind sie äußerst klein. In einem Gramm DNA kann so viel Information wie auf
einer Million CDs gespeichert werden und ein Tropfen DNA könnte möglicherweise eines
Tages die schnellsten Computer an Rechenleistung um ein Vielfaches übertreffen. Ein
weiterer Vorteil liegt in der geringen Ausfallwahrscheinlichkeit bei schadhaften Bauteilen. So
können biologische Systeme Schäden und Fehlfunktionen abschwächen und daher mit einer
geringeren Störanfälligkeit den laufenden Betrieb aufrechterhalten. Computerwissenschaftler
gehen unterschiedliche Wege, um die Vorteile in konkrete Technologien umzusetzen. Manche
setzen auf die Rekombinationsfähigkeit von DNA-Molekülen, andere setzen auf Bakterien,
die sich als lebende replizierende Schalter anbieten.

Wie sehen die möglichen Anwendungen eines DNA-Computers aus?

174
Laut Ansicht der Biocomputerforscher hat der DNA-Rechner das Potenzial, um ein Computer
der Zukunft zu werden. Bis aber der erste DNA-Computer einsatzfähig ist, werden
wahrscheinlich noch Jahrzehnte vergehen, jedoch ist es jetzt schon gelungen, Biomoleküle zu
entwickeln, die sich auf Grund gezielter Programmlogik zu komplexen Strukturen
zusammenlagern können. Viele Experten gehen eher von einer geringen Wahrscheinlichkeit
aus, dass der handelsübliche PC durch ein Gerät mit Reagenzglas ersetzt wird, aber sie sehen
eine Anwendungsmöglichkeit für Hochleistungsrechner mit ganz spezifischen Aufgaben. So
entwarf Leonard Adleman gemeinsam mit Richard Lipton schon vor einigen Jahren
Algorithmen, die den so vermeintlich sicheren Verschlüsselungsverfahren von heute in
Zukunft das Fürchten lehren könnten. Dann würde nämlich auch eine Hardware existieren,
vor der auch die RSA-Verschlüsselung nicht mehr sicher wäre. Sollte aber vorher eine
marktreife Version des Quantencomputers vorliegen, der das Potenzial einer absolut sicheren
Verschlüsselung auf Quantenebene eröffnet – die so genannte „Quantenkryptografie“ –
stünde wieder ein Instrumentarium zur sicheren Verschlüsselung zur Verfügung. In Zukunft
könnte sich somit wieder ein spannender Wettlauf zwischen Kryptografen und Kryptologen
abzeichnen. Wir werden sehen, wer am Ende die Nase vorn hat.
Am Ende dieses Buches ist es mir noch ein Anliegen, die Unterschiede und gemeinsamen
Schnittpunkte in der Informationsspeicherung und -verarbeitung von digitalen Computern und
dem menschlichen Gehirn zu diskutieren. Ebenso möchte ich auf die Frage eingehen, ob das
Gehirn genetisch vorprogrammiert ist.

Zunächst möchte ich Ihnen allerdings kurze Definitionen für alle Teilbereiche bringen, wie
sich überhaupt die kleinsten „Informationseinheiten“ festlegen lassen, die quasi der
Informationsspeicherung dienen:

Zahlentheorie: Hier würde ich als die kleinsten Informationseinheiten die kleinsten Bausteine
im Bereich der natürlichen Zahlen sehen, nämlich die Primzahlen.

Quantenphysik: In diesem Fall sind es – wie der Name schon sagt – die Qubits, die als die
kleinsten Informationseinheiten gelten. Träger der Information sind Quantenobjekte.

Genetik: Drei miteinander verbundene Nukleotide bilden die kleinste Informationseinheit, die
in der DNA und RNA zur Codierung der genetischen Information zur Verfügung steht. Daher
ist zur Speicherung der genetischen Information die kleinste Informationseinheit ein Codon.

175
Gehirn: Im Gehirn lässt sich keine bestimmte Informationseinheit eindeutig feststellen. Es
wird jedoch eine Unterscheidung zwischen Lang- und Kurzzeitgedächtnis getroffen. Für das
Langzeitgedächtnis vermutet man, dass die langzeitige Informationsspeicherung durch die
Bildung neuer Synapsen erfolgt. Für die Speicherung im Kurzzeitgedächtnis muss die
Neurotransmitterfreisetzung verändert werden, so dass die Frequenz der Aktionspotenziale
ein neues Muster erzeugt.

Da Gehirne gerne mit Computer verglichen werden und wir unterschiedliche Forschungswege
zur Realisierung neuer Computertechnologien kennen gelernt haben, werden wir dies an
dieser Stelle noch diskutieren. Leider ist es ein allgemeines Vorurteil geworden, dass das
menschliche Denken wie ein Computer funktioniert. Jedoch zeigt die neuere
Gehirnforschung, dass die Gleichsetzung von Gehirn und Computer ein Irrtum ist. Die
langjährigen Forschungsarbeiten im Bereich der künstlichen Intelligenz und die daraus
entstandenen Maschinen haben gezeigt, dass eine bestimmte Qualität menschlichen Denkens
nicht durch Maschinen ersetzt werden kann: die Wahrnehmung und Bewertung von
Situationen, die menschliche Kreativität oder die Entscheidungsfindung. Fassen wir noch
einmal kurz die Struktur des Gehirns zusammen: Die wichtigsten Bausteine sind die
Neuronen, die als chemisch-elektrische Elemente gedacht werden können. Neuronen sind
vielfältig miteinander verbunden und bilden ein so genanntes „neuronales Netz“. Die
Neuronen sind über Synapsen miteinander verschaltet und diese bilden quasi die chemisch-
elektrischen Gewichte. Sie steuern die Stärke der Verbindung zwischen den Neuronen. Im
Gehirn gibt es viele Milliarden von Nervenzellen und die Zahl der Verknüpfungen einer Zelle
durch Axone mit anderen Zellen liegt zwischen 1.000 und 10.000. Daraus ergibt sich eine
unglaublich große Zahl an Verbindungen. Aus dieser Tatsache heraus entsteht jedoch auch ein
Nachteil gegenüber der elektronischen Verarbeitung: das Gehirn funktioniert im Vergleich zu
einem Computer sehr langsam. Die CPU (= Central Processing Unit) eines Prozessors ist bei
Rechenoperationen etwa um den Faktor 10.000 schneller als eine Nervenzelle. Jedoch arbeitet
ein Gehirn wesentlich zuverlässiger. Weist etwa eine Computer eine defekte Stelle auf, so
kann es sein, dass das ganze System ausfällt, hingegen bleibt die Funktionsfähigkeit des
Gehirns trotz einer verletzten Nervenzelle erhalten. Ein noch weit wichtigerer Unterschied
zeigt sich im Verhalten der Informationsverarbeitung. Das Gehirn arbeitet hochgradig
parallel, d. h., die Verarbeitung von Informationen erfolgt zeitgleich; ein Computer arbeitet
im Gegensatz dazu seriell, sprich: die Informationsverarbeitung ist zeitlich hintereinander

176
geschaltet. Ein Computer hat beispielsweise große Probleme bei der Mustererkennung,
dagegen kann das Gehirn ein Gesicht aus einer größeren Menschenmasse relativ rasch
erkennen. Die Ursache liegt eben in der gleichzeitigen Verarbeitung visueller Informationen.
Ein weiterer Unterschied zwischen Gehirn und Computer liegt in der
Informationsspeicherung. Im Computer liegt eine klare Trennung zwischen CPU und
Speicher vor, dagegen verändert jede Wahrnehmung oder jeder Gedanke die Gewichtung der
Verbindungen zwischen den Neuronen oder besser gesagt in den Synapsen. Anders als bei
einer Turing-Maschine (wir haben diesen Begriff bereits bei der Behandlung des DNA-
Computers erläutert) ist die Software nicht von der Hardware zu trennen. Auf Grund dieser
Unterschiede sehen wir, dass die Strukturierung und Funktionsweise des Gehirns ganz anders
als beim Computer festgelegt sind.
Im nächsten Punkt möchte ich noch auf die kontrovers diskutierte Frage eingehen, ob die
Struktur des Gehirns genetisch vorprogrammiert ist. Die moderne Gehirnforschung würde
diese Frage mit einem klaren Nein beantworten. Schon aus quantitativen Überlegungen
heraus sollte dies nicht möglich sein: Das menschliche Genom als Träger der Erbinformation
besitzt etwa einen Informationsgehalt von rund 750 Megabyte. Wie kommt man auf diese
Größe? Das menschliche Erbgut besteht aus etwa 3 Milliarden Basenpaaren, jedes Basenpaar
hat einen Informationsgehalt von zwei Bits, das ergibt bei Multiplikation mit der Anzahl der
Basenpaare 6 Milliarden Bits oder 750 Megabyte. Bei einem Vergleich mit der Kapazität des
Gehirns, das selbst bei konservativen Schätzungen noch immer 1,25 Millionen Megabyte an
realisierbaren neuronalen Vernetzungen aufweist, ist es auf Grund dieser enormen Differenz
unmöglich, dass die Erbinformation Träger der intellektuellen Fähigkeiten eines Menschen
ist. Als Schlussfolgerung daraus muss die Bildung von Netzen neuronaler Informationen
anders erklärt werden. Natürlich ist es nicht ausgeschlossen, dass bestimmte Fähigkeiten des
Menschen angeboren sein können, aber eben nur in sehr geringem Umfang.

Wie lässt sich nun aber das Gehirn in einem angemessenen Umfang beschreiben, nachdem
bereits zwei denkbare Erklärungsmodelle nicht erfolgreich waren?

Aus der Vielzahl der Theorien der Neurowissenschaft in der Gegenwart zur Erklärung der
Funktionsweise des Gehirns möchte ich Ihnen ein Erklärungsmodell näher vorstellen, das von
Gerald M. Edelman entworfen wurde und den Namen Theorie des neuronalen Darwinismus
trägt. Edelman erhielt den Nobelpreis für eine Theorie des Immunsystems, die vom
Evolutionsgedanken Darwins ausgeht. Diesen Grundgedanken übertrug Edelman auf das

177
Gehirn und daraus entstand seine Theorie der Selektion neuronaler Gruppen. Es handelt sich
hierbei um eine nicht ganz einfache Theorie, daher werde ich diese so leicht wie möglich
darstellen: Bei der Geburt ist das menschliche Gehirn kaum strukturiert, jedoch steht eine
große Auswahl theoretischer Verknüpfungen zwischen den Neuronen zur Verfügung. Nun
erzeugt das Gehirn spontan, z. B. bei der Bewegung der Arme oder Beine, eine Vielzahl an
zufälligen Mustern, die man sich – bildlich verglichen – wie elektrische Entladungen
vorstellen kann. Ein solches Zufallsmuster ist an eine ganz bestimmte vernetzte Struktur
gekoppelt, die in der Gehirnforschung als „Karte“ bezeichnet wird. Wenn beispielsweise ein
Säugling durch eine unkoordinierte Bewegung nach einem Gegenstand greifen möchte, dann
entspricht dieser Bewegungsablauf einer solchen Karte. Gelingt es dem Säugling nun zufällig,
diesen Gegenstand zu berühren, so erfolgt eine Rückkopplung über die Sinnesorgane und der
Gegenstand wird für eine bestimmte Zeit festgehalten. Aus dieser Rückkopplung entsteht ein
Signal im Stammhirn, das Edelman dem Umstand einer „Bewertung“ zuordnete. Diese
Bewertung entspricht subjektiv gesprochen wahrscheinlich einer Emotion, die physiologisch
ausgedrückt einem elektro-chemischen Prozess im Gehirn gleichkommt. Dieser Prozess
verstärkt die Verbindungen zwischen den Neuronen, die bei dieser Bewegung aktiv waren,
und infolge dessen prägt sich ein Bewegungsmuster im Gehirn ein. Aus dieser Prägung
entsteht eine engere Verknüpfung zwischen den Nervenzellen. Somit steigt die
Wahrscheinlichkeit, dass diese Bewegung wiederholt wird. Ist hingegen eine Bewegung
gescheitert, werden die synaptischen Verbindungen geschwächt und es wird im Gehirn,
subjektiv gesehen, ein Gefühl der Enttäuschung oder eine neutrale Emotion ausgelöst. Wir
fassen noch einmal zusammen: Durch erfolgreiche Bewegungen können
Synapsenverbindungen gestärkt werden. Je öfter die Bewegung wiederholt und mit einer
positiven Emotion verbunden wird, desto stärker ist die Prägung einer neuronalen Karte. Also
haben wir es hier mit Lernvorgängen und mit keinen angeborenen Reflexen zu tun. Obwohl es
Hinweise auf angeborene Reflexe gibt, müssen wir die meisten unserer Fähigkeiten von
Geburt an erlernen, ob es nun das Laufen, Sprechen oder Lesen usw. ist. Es handelt sich bei
der neuronalen Vernetzung nicht um eine Speicherung von Informationen an einer
bestimmten Stelle, wie es beispielsweise bei der Speicherung von Informationen auf
bestimmten Speicherplätzen im Computer der Fall ist, sondern daran ist das ganze Gehirn
beteiligt.
Ich hoffe, ich konnte Ihnen in diesem Buch einen spannenden und besseren Einblick in die
Welt der Zahlentheorie, der Verschlüsselungen, Genetik und Gehirnforschung verschaffen
und Ihnen einige zukunftsweisende Wege im Bereich der Molekularbiologie und

178
Quanteninformatik aufzeigen. In diesem Sinne möchte ich meine Ausführungen mit
folgendem Zitat von Sokrates beenden: „Lernen besteht in einem Erinnern von Informationen,
die bereits seit Generationen in der Seele des Menschen wohnen.“

179