Sie sind auf Seite 1von 90

Wolfgang W.

Osterhage

Mathematische
Algorithmen und
Computer-Performance

Prozesse

IO-Kanäle
Anwendungen

CPU Hauptspeicher

System

IO-Kanäle

Platten
IT kompakt
Werke der „kompakt-Reihe“ zu wichtigen Konzepten und Technologien
der IT-Branche:

 ermöglichen einen raschen Einstieg,


 bieten einen fundierten Überblick,
 sind praxisorientiert, aktuell und immer ihren Preis wert.

Weitere Titel der Reihe siehe: http://www.springer.com/series/8297.

Weitere Bände dieser Reihe finden Sie unter


http://www.springer.com/series/8297
Wolfgang W. Osterhage

Mathematische
Algorithmen und
Computer-Performance
kompakt
Wolfgang W. Osterhage
Wachtberg-Niederbachem, Deutschland

IT kompakt
ISBN 978-3-662-47447-1 ISBN 978-3-662-47448-8 (eBook)
DOI 10.1007/978-3-662-47448-8

Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Na-


tionalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-
nb.de abrufbar.

Springer Vieweg
© Springer-Verlag Berlin Heidelberg 2016
Das Werk einschließlich aller seiner Teile ist urheberrechtlich geschützt. Jede Ver-
wertung, die nicht ausdrücklich vom Urheberrechtsgesetz zugelassen ist, bedarf der
vorherigen Zustimmung des Verlags. Das gilt insbesondere für Vervielfältigungen,
Bearbeitungen, Übersetzungen, Mikroverfilmungen und die Einspeicherung und Ver-
arbeitung in elektronischen Systemen.
Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in
diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme,
dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als
frei zu betrachten wären und daher von jedermann benutzt werden dürften.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und
Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und
korrekt sind. Weder der Verlag noch die Autoren oder die Herausgeber übernehmen,
ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder
Äußerungen.

Gedruckt auf säurefreiem und chlorfrei gebleichtem Papier.

Springer Vieweg ist Teil von Springer Nature


Die eingetragene Gesellschaft ist Springer-Verlag GmbH Berlin Heidelberg
Vorwort

Dieses Buch entstand aus einer Sammlung disparater Artikel, die alle-
samt etwas mit dem Thema Computer-Performance zu tun hatten. Da
bereits ein umfassendes Werk zur Performance allgemein (s. Quellenan-
gaben) vorlag, bestand die Herausforderung darin, sozusagen als verspä-
tetes Supplement, diese Aspekte zusammenzutragen und in eine akzep-
table Form zu bringen. Das Besondere an diesem Werk ist die Tatsache,
dass es zwei ungewöhnliche, noch nicht veröffentlichte Algorithmen ent-
hält, die sich auf dem Gebiet der Performance-Optimierung erst noch
bewähren müssen. Wir hoffen, dafür das Interesse von Software- und
Hardware-Architekten geweckt zu haben.
An dieser Stelle gilt mein besonderer Dank wie immer der Springer-
Redaktion, insbesondere Herrn Engesser, Frau Glaunsinger und Frau Fi-
scher für ihre geduldige Unterstützung dieses Projekts.

Mai 2016 Dr. Wolfgang Osterhage

V
Inhaltsverzeichnis

1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

2 Computer-Performance allgemein . . . . . . . . . . . . . . . 3
2.1 Begrifflichkeiten . . . . . . . . . . . . . . . . . . . . . . . . 3
2.2 Drei Ebenen . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
2.3 Performance-Theorie . . . . . . . . . . . . . . . . . . . . . 8
2.3.1 System-Performance . . . . . . . . . . . . . . . . . 8
2.3.2 Anwendungs-Performance . . . . . . . . . . . . . 27
Weiterführende Literatur . . . . . . . . . . . . . . . . . . . 30

3 Test-Automatisierung . . . . . . . . . . . . . . . . . . . . . . . 31
3.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.2 Warum Automatisierung? . . . . . . . . . . . . . . . . . . 32
3.3 Vergleich manuelles mit automatisiertem Testen . . . . 36
3.4 Symbolic Execution . . . . . . . . . . . . . . . . . . . . . . 36
3.4.1 Herausforderungen und Lösungswege . . . . . . 39
3.4.2 Tools . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.5 Search-Based Automated Structural Testing . . . . . . . 40
3.5.1 Genetischer Algorithmus . . . . . . . . . . . . . . 41
3.5.2 Grenzen . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.6 Kombination von SE und SBST . . . . . . . . . . . . . . 43
3.7 Fazit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

VII
VIII Inhaltsverzeichnis

4 Erhaltungszahlen: ein neuer Ansatz in Soft Computing . 45


4.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2 Berechnungen und Beobachtungen . . . . . . . . . . . . 46
4.3 Die Wirtschaftlichkeit von Berechnungen . . . . . . . . 48
4.4 Erhaltungszahlen . . . . . . . . . . . . . . . . . . . . . . . . 48
4.5 Definitionen . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.5.1 Genauigkeit . . . . . . . . . . . . . . . . . . . . . . 49
4.5.2 Effizienz . . . . . . . . . . . . . . . . . . . . . . . . 50
4.6 Beziehungen . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.6.1 Genauigkeit und Effizienz . . . . . . . . . . . . . . 52
4.6.2 Genauigkeit, Effizienz und Erhaltungszahlen . . 52
4.7 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.8 Verkettungen . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.9 Logik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.10 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.11 Nomenklatur . . . . . . . . . . . . . . . . . . . . . . . . . . 58
A Anhang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

5 Sprungtransformationen . . . . . . . . . . . . . . . . . . . . . 63
5.1 Einleitung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.2 Sprungtransformationen . . . . . . . . . . . . . . . . . . . 65
5.3 n-Tupel Transformationen . . . . . . . . . . . . . . . . . . 65
5.3.1 Definitionen und Regeln . . . . . . . . . . . . . . . 65
5.3.2 Charakteristika . . . . . . . . . . . . . . . . . . . . 67
5.3.3 Formalisierungen . . . . . . . . . . . . . . . . . . . 68
5.3.4 Beispiele . . . . . . . . . . . . . . . . . . . . . . . . 69
5.3.5 Zwischenbeziehungen . . . . . . . . . . . . . . . . 70
5.4 Transformationen mit willkürlichen Triggern . . . . . . 71
5.4.1 Defnitionen und Regeln . . . . . . . . . . . . . . . 72
5.4.2 Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.5 Inter-Transformationen . . . . . . . . . . . . . . . . . . . . 75
5.5.1 Beziehungen zwischen zwei willkürlichen
Triggern . . . . . . . . . . . . . . . . . . . . . . ... 75
5.5.2 Transformationen zwischen n-Tupel
und willkürlichen Triggern . . . . . . . . . . ... 75
Inhaltsverzeichnis IX

5.6 Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . 75
5.6.1 Mengen und Adressräume . . . . . . . . . . . . . 76
5.6.2 Kryptografie . . . . . . . . . . . . . . . . . . . . . . 77
5.6.3 Computerkunst . . . . . . . . . . . . . . . . . . . . 77
5.6.4 Weitere Anwendungsgebiete . . . . . . . . . . . . 77
Literatur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
Einleitung 1

Dieses Buch behandelt das Thema Performance nicht unter allgemeinen


Gesichtspunkten und auch nicht vollständig. Es geht dabei um ausge-
suchte Ansätze, wie unter bestimmten Bedingungen bestimmte Perfor-
mance-Aspekte verbessert werden können. Das bedeutet, dass – im Ge-
gensatz zu anderen Werken (s. Quellenangaben am Ende des Buches) –
z. B. Gesichtspunkte von Prozess-Performance überhaupt nicht in Er-
scheinung treten. Das Buch ist sehr technisch gehalten und ist zum Teil
spekulativ.
Nach einem einführenden Kapitel, das sich mit den Grundsätzen der
Computer-Performance auseinandersetzt und einen weiten Überblick
gibt, folgen drei Kapitel, die sich jeweils mit konkreten Algorithmen
befassen, die unter Performance-Gesichtspunkten eine Rolle spielen
(können):

 Symbolic Execution (SE),


 Search-Based Automated Structural Testing (SBST),
 Erhaltungszahlen als Instrumente von Soft Computing,
 Sprungtransformationen.

SE und SBST sind etablierte Methoden im automatisierten Testen


von komplexer Software. Sie sind relevant, um Performance während
umfangreicher Tests zu gewährleisten bzw. zu optimieren. Das Konzept
von den Erhaltungszahlen ist ein neuer Ansatz im Rahmen von Soft
© Springer-Verlag Berlin Heidelberg 2016 1
W. W. Osterhage, Mathematische Algorithmen und Computer-Performance
kompakt, IT kompakt, DOI 10.1007/978-3-662-47448-8_1
2 1 Einleitung

Computing und bietet sich für komplexe mathematische Anwendungen


an, beispielsweise für theoretische Modellrechnungen oder Simulationen
im technisch-wissenschaftlichen Bereich. Sprungtransformationen sind
ebenfalls ein neuer Algorithmus, mit dem auf Grund von Transformati-
onsgrenzen überlappende Zahlenräume generiert werden können, die bei
der Auslegung von Hauptspeichern genutzt werden könnten, konkurrie-
rende Adressräume innerhalb ein und desselben Speichers zu schaffen.
Computer-Performance allgemein 2

2.1 Begrifflichkeiten

Das Thema Performance-Optimierung gliedert sich in drei Hauptteile:

 System-Performance,
 Anwendungs-Performance und
 Prozess-Performance.

Für alle drei Bereiche existieren wiederum (Abb. 2.1):

 Theorie,
 Messung,
 Analyse und
 Optimierung.

2.2 Drei Ebenen

Wenn von Performance die Rede ist, wird sehr häufig implizit nur die
System-Performance gemeint – oder noch mehr vereinfacht: die Leis-
tungsfähigkeit der Hardware, sprich Prozessor und Hauptspeicher. Das
ist mit ein Grund dafür, dass das Thema Performance in den zurück lie-
genden Jahren vernachlässigt worden ist. Hardware wurde irgendwann
© Springer-Verlag Berlin Heidelberg 2016 3
W. W. Osterhage, Mathematische Algorithmen und Computer-Performance
kompakt, IT kompakt, DOI 10.1007/978-3-662-47448-8_2
4 2 Computer-Performance allgemein

Prozesse

Anwendungen Theorie Messung Analyse Optimierung

System

Abb. 2.1 Performance-Dimensionen

so billig, dass sich programmtechnische Optimierungen nicht mehr zu


lohnen schienen, da Manpower eben im Verhältnis zu teuer geworden
war. Man kaufte Hardware und Erweiterungen dazu, und schon liefen die
Systeme wieder schneller. Oder man war von vornherein so ausgestattet,
dass Performance-Probleme einfach nicht auftreten sollten.
Die Enduser-Erfahrungen jedoch sprachen immer schon eine ande-
re Sprache. Nach wie spielt negativ empfundenes Antwortzeitverhalten
eine nicht nur psychologisch wichtige Rolle, sondern auch bei der Bewäl-
tigung des Durchsatzes im Tagesgeschäft. Das Verhältnis von Hardware-
Investitionen zu Optimierungen ist quasi immer konstant geblieben. Die
Ursache liegt darin, dass großzügige Hardware-Ressourcen eben so groß-
zügig ausgebeutet werden.
Vor noch vierzig Jahren konnte man sich eine Speicherbelegung mit
Leerzeichen oder binären Nullen nicht erlauben. Bereits auf der Ebene
der Variablen-Deklarationen und sukzessive bei der Adressierung musste
bewusst jedes Byte ausgespart werden. Ansonsten wären Großanwen-
dungen nicht ausführbar gewesen. Spätestens seit Einführung grafischer
Oberflächen, mit C++, Java und deren Derivaten war es mit der struktu-
rierten Programmierung im klassischen Verständnis zu Ende. Ansprüche
2.2 Drei Ebenen 5

an Bedienkomfort, Enduser-Queries usw. haben das ihrige getan, um al-


te Flaschenhälse in neuem Gewand wieder auferstehen zu lassen. Somit
ist die Performance-Debatte wieder aktuell geworden – und eben nicht
nur auf Systeme und Hardware allein beschränkt. Obwohl zu Anfang
(Abb. 2.1) die drei Ebenen:

 System-Performance,
 Anwendungs-Performance,
 Prozess-Performance.

angesprochen wurden, beschränken sich die nun folgenden Begriffsbe-


stimmungen zunächst nur auf System- und Anwendungs-Performance.
Die System-Performance schließt ein (Abb. 2.2):

 Hardware-Auslastung (Speicher, Prozessor),


 Konfiguration der System-Tabellen,
 Ein-/Ausgabe.

IO-Kanäle

CPU Hauptspeicher

IO-Kanäle

Platten

Abb. 2.2 Untergliederung System-Performance


6 2 Computer-Performance allgemein

mit allen für das System-Management relevanten Vorgängen und Para-


metern.
Bei der Anwendungs-Performance und deren Analyse gibt es natür-
lich über den Aufruf von System-Ressourcen, die Datenspeicherung und
Ein-Ausgabe-Vorgänge mehr oder weniger starke Verquickungen mit
den System-Ressourcen im Detail. Insgesamt aber existiert der große
Zusammenhang, dass zum Ausführen von Anwendungen eben Systeme
benötigt werden. Abb. 2.3 zeigt diesen Gesamtzusammenhang auf. Bei
Performance-Betrachtungen können beide Ebenen letztendlich nicht als
getrennt nebeneinander existierend betrachtet werden.
Die wesentlichen Elemente, die bei der Anwendungsanalyse eine Rol-
le spielen sind:

batch
Programme
GUI
Subroutinen
Daten-
modell

IO-Kanäle

CPU Hauptspeicher

IO-Kanäle

Platten

Abb. 2.3 Zusammenspiel zwischen Anwendungen und System


2.2 Drei Ebenen 7

 Programmstruktur (Gesamtanwendung und Module),


 Datenhaltungskonzept,
 GUI (General User Interface).

Auf der obersten Ebene schließlich steht die Prozess-Performance.


Damit ist nicht der systemische Prozessor gemeint, sondern diejenigen
Unternehmens-Prozesse, die durch die zu untersuchenden Anwendun-
gen auf ihren Systemen unterstützt werden. Diese Seite der Performance-
Debatte wird an dieser Stelle nicht weiter verfolgt. Die Grundsatzfragen
sind immer die gleichen:

 Welche System-Stützung ist wirklich erforderlich?


 Wie wird mein Durchsatz durch Anwendungs-Performance beein-
flusst?

Auf dieser Basis ist schließlich zu entscheiden, wo beim Tuning am


ehesten angesetzt werden muss. An dieser Stelle kommt die Kosten-Nut-
zen-Frage zu ihrer wahren Bedeutung.
Zusammenfassend lässt sich sagen:

Überblick
Performance-Probleme werden auf der Prozess-Ebene zuerst er-
kannt, wenn das Tagesgeschäft leidet. An neuralgischen Punkten
werden die kritischen Anwendungen identifiziert. Sie wiederum
sind abhängig von den Systemen, auf denen sie laufen.
Performance-Messung startet auf der System-Ebene und identi-
fiziert Engpässe, die wiederum auf den Ressourcenverbrauch von
Anwendungen zurückzuführen sind.

Soweit die klassischen Ansätze zum Thema Computer-Performance.


Wir werden später sehen, dass es weitere und tiefer gehende Möglichkei-
ten gibt, auf die Performance Einfluss zu nehmen. Doch zunächst noch
einige Betrachtungen zur Performance-Theorie.
8 2 Computer-Performance allgemein

2.3 Performance-Theorie

Wir behandeln die System-Seite und die Anwendungsseite getrennt. Die


Praxis lehrt zwar, dass beide Aspekte eigentlich untrennbar miteinander
verwoben sind, und Änderungen in der Parametrisierung des einen mit an
Sicherheit grenzender Wahrscheinlichkeit Effekte auf der anderen Seite
nach sich ziehen werden, aus mindestens zwei Gründen jedoch eine Ab-
schichtung des Gesamtproblems durch eine solche Separatbetrachtung
erleichtert wird:

 Auftrennung von Problembereichen nach wechselseitigen Schwer-


punkten,
 Identifizierung spezifischer Maßnahmen (ohne mögliche Wechselwir-
kungen aus den Augen zu verlieren).

Eine vermengte Gesamtbetrachtung der Performance-Komplexität er-


schwert ungemein das Herausarbeiten von kritischen Einzelaspekten. In
diesem Abschnitt werden wir also diese beiden Linien System und An-
wendung nacheinander betrachten.

2.3.1 System-Performance

Der Abschnitt System-Parameter teilt sich selbst noch einmal auf in

 Hardware-Parameter und
 Betriebssystem-Parameter.

Auch hier haben wir wiederum Verflechtungen, da beide sich bedin-


gen. Beide Elemente machen aus, was man System-Architektur nennt,
sollten aber getrennt betrachtet werden, wenn möglich. Das Spektrum
möglicher Betriebssystem-Parameter ist natürlich abhängig vom Hard-
warehersteller. Auf der anderen Seite ist eine fast unendliche Kombina-
torik von Betriebsseinstellungen denkbar für eine gegebene Hardware-
konfiguration desselben Herstellers – nur begrenzt durch die Realitäten
der laufenden Anwendungen, wobei wir wieder bei den oben genannten
Randbedingungen wären. Umgekehrt kann dieselbe Version eines Be-
triebssystems auf unterschiedlichen Hardwareumgebungen zuhause sein.
Wir werden zunächst auf die Hardware selbst eingehen.
2.3 Performance-Theorie 9

2.3.1.1 Hardware-Parameter

2.3.1.1.1 Allgemeine Hinweise


Eigentlich müsste es besser heißen: System- beziehungsweise Hardwa-
re-Komponenten. Zu denen, die losgelöst vom Gesamtsystem betrachtet
werden können, gehören (Abb. 2.2):

 CPU,
 Hauptspeicher,
 Plattenspeicher,
 Ein-/Ausgabe-Kanäle.

Selbstverständlich gehören zur Hardware noch viele andere Elemen-


te, wie Endgeräte, Modems und andere Kommunikationskomponenten,
die aber für unsere Performance-Betrachtungen hier nicht gesondert ab-
gehandelt werden sollen (zum Beispiel: Konfiguration der Cursor-Ge-
schwindigkeit durch Mauseinstellungen). Die Theorie der System-Per-
formance behandelt die oben genannten Komponenten in dieser Rei-
henfolge. Wir werden uns hier jedoch auf CPU und Hauptspeicher be-
schränken. Das Gewicht der jeweiligen Komponente bezogen auf eine
bestimmte Performance-Situation hängt von der Art der Anwendung, der
Anzahl User und weiteren Faktoren ab. Deshalb sollte man im Vorfeld
keine Prioritätenfestlegung treffen.
Auch zwischen diesen Komponenten gibt es Beziehungen, die jeweils
auch aufgezeigt werden. Obwohl die erwähnten Ressourcen zunächst
isoliert betrachtet werden, hängt die Bedeutung für spezifische Perfor-
mance-Situationen natürlich wiederum – wie bereits erwähnt – von den
Anwendungen ab, die diese Ressourcen in Anspruch nehmen. Zur Ein-
kreisung eines spezifischen Problems sind dennoch zunächst Aussagen
erforderlich, die grundsätzliche Mechanismen offen legen, die unabhän-
gig von den jeweiligen Anwendungsfällen Gültigkeit besitzen.
Bevor wir uns nun den Ressourcen und deren Eigenheiten im Detail
zuwenden, sollen noch einige allgemeine Grundsätze angesprochen wer-
den. Dazu gehören auch die Fragen:

 Wie kann System-Performance grundsätzlich getestet werden? und


 Wann macht Performance-Messung Sinn?
10 2 Computer-Performance allgemein

Performance-Testung ist eine Disziplin, über die man auf Menschen,


Prozesse und Technologie Einfluss nehmen kann, um Risiken zu vermei-
den, die z. B. bei System-Einführung, Upgrades oder Patch-Einspielung
entstehen können. Kurz gesagt: Performance-Tests bestehen dann dar-
in, eine typische Produktionssystemlast zu erzeugen, bevor zum Beispiel
neue Anwendungen eingespielt werden, um das Leistungsverhalten zu
messen, zu analysieren und Enduser-Erfahrung zu sammeln. Ziel ist es
also, Performance-Probleme unter Produktionsbedingungen zu identifi-
zieren und zu beheben. Ein gut vorbereiteter Performance-Test sollte in
der Lage sein, die folgenden Fragen zu beantworten:

 Ist das Antwortzeitverhalten für die Enduser zufriedenstellend?


 Kann die Anwendung die voraussichtliche System-Last bewältigen?
 Kann die Anwendung die Anzahl Transaktionen, die durch die Ge-
schäftsvorfälle zu erwarten sind, bewältigen?
 Bleibt die Anwendung stabil unter zu erwartenden, aber auch uner-
warteten Lastzuständen?
 Werden Enduser beim Scharfschalten positive überrascht sein oder
eher nicht?

Indem diese Fragen beantwortet werden, hilft Performance-Testung,


die Auswirkungen von Veränderungen und die Risiken von System-Ein-
führungen zu kontrollieren. In diesem Sinne sollten Performance-Tests
folgende Aktivitäten beinhalten:

 Emulation von Dutzenden, Hunderten oder gar Tausenden von End-


usern, die mit dem System interagieren,
 konsistente Last-Wiederholungen,
 Antwortzeitverhalten messen,
 System-Komponenten unter Last messen,
 Analyse und Abschlussbericht.

Tests und Analyse sollten stattfinden, bevor Engpasssituationen auf-


treten. Ansonsten müssen später Performance-Messungen am laufenden
System durchgeführt und entsprechende Maßnahmen ergriffen werden.
Das bedeutet, dass man die Lastverteilung über den Arbeitstag bereits im
Vorfeld abschätzen möchte, oder auch, welche Jobs dürfen wann laufen.
2.3 Performance-Theorie 11

Abb. 2.4 Schritte zur Performance-Optimierung (nach HP Dokument 4AA1-


4227ENW)

Finden sich nach Einführung dann tatsächlich Durchsatzprobleme, bietet


sich folgende allgemeine Vorgehensreihenfolge an (Abb. 2.4):

 zunächst CPU unter Last messen,


 dann Speicherauslastung,
 Sind CPU und Speicher problemlos, sollten die Ein-Ausgabevorgänge
zu den Plattenspeichern untersucht werden.
Neben der bisher diskutierten vorausschauenden Performance-Beob-
achtung sollten in regelmäßigen Abständen oder kontinuierlich Messun-
gen am laufenden System erfolgen – insbesondere dann, wenn subjektiv
der Verdacht schlechter Performance gemeldet wird: lange Antwortzei-
ten im Dialog, lang laufende Auswertungen.
Ein Problem dabei ist natürlich die anzusetzende Messlatte. Das sub-
jektive Empfinden eines vor einem stummen Bildschirm sitzenden Nut-
zers, der auf die Rückkehr seines Cursors wartet – also das reine Ant-
wortzeitverhalten – ist meistens nicht ausreichend, um als messbare Grö-
ße zu gelten. In der Regel werden deshalb neben den online-Funktionen
oder GUIs zusätzlich batch-Läufe, deren Exekutionsdauer sich quantifi-
zieren lässt, herangezogen, um ein Bild über den Gesamtzusammenhang
zu bekommen.
Leistungs-Tests stellen also ein Werkzeug dar, mit dem sich feststellen
lässt, ob eine System-Anpassung zu eine Verbesserung oder Verschlech-
terung führen wird. Dabei darf die Konzeptionierung solcher Tests in der
12 2 Computer-Performance allgemein

Vorbereitung nicht unterschätzt werden. Sie hängt überdies von den kon-
kreten Verhältnissen vor Ort ab:

 Anzahl User,
 erwarteter Durchsatz,
 vorhandene Hardware usw.

Wichtig ist auf jeden Fall, dass nicht einzelne Anwendungen isoliert
getestet werden, sondern reale Bedingungen entweder simuliert oder wie
vorgefunden betrachtet werden, bei denen viele System-Prozesse parallel
laufen.
Für den einzelnen Anwender reduzieren sich Leistungs-Tests auf ganz
handfeste Kennzahlen:

 Antwortzeit und
 Verweilzeit.

Das sind Größen, die direkte Auswirkungen haben auf seinen Arbeits-
fortschritt und damit auf seine persönliche Produktivität unter Zuhilfe-
nahme seiner IT-Infrastruktur. Seine Prozess-Schritte setzen sich insge-
samt aus der reinen Bedienzeit und einer eventuellen Wartezeit auf Sys-
tem-Antworten bzw. -verfügbarkeiten zusammen. Wartezeiten sind eine
direkte Konsequenz der jeweils aktuellen System-Auslastung. Genauso
hat also Performance-Tuning einen direkten Effekt auf die Produktivi-
tät.
Demgegenüber stehen die Erwartungen des operativen Betriebs, die
in eine andere Richtung gehen. Das Interesse hier orientiert sich an der
Durchsatzmaximierung auf der Jobebene – also eben auf die Erzeugung
hoher Auslastungen. Beide Erwartungshaltungen – die des Anwenders
und die des operativen Betriebs – müssen beim Tuning kompromisshaft
zusammengeführt werden. Dafür stehen gewisse Richtwerte zur Verfü-
gung, die fallweise unterstützend herangezogen werden können. Dabei
handelt es sich nicht allein um quantitativ-technische Werte, sondern um
Abwägungen, die insgesamt eine ineffiziente Nutzung von System-Res-
sourcen verhindern sollen. Vor den ersten Maßnahmen der Performance-
Analyse sind folgende Klärungen sinnvoll:
2.3 Performance-Theorie 13

 Geht es um reine Durchsatzprobleme?


 Ist die Performance des Gesamtsystems unzureichend?

Quantitativ lassen sich dazu folgende Eingrenzungen machen:

 Transaktionsraten in Abhängigkeit vom Antwortzeitverhalten,


 Durchsatzraten in Abhängigkeit von Jobverweilzeiten.

Auf den Anwender bezogen gibt es weitere Kenngrößen:

 Antwortzeiten bezogen auf den Transaktionstyp,


 Verweilzeiten für beauftragte Jobs.

Das Leistungsverhalten des Systems lässt sich nun wiederum auf sei-
ne einzelnen Komponenten umlegen; andererseits können sich auch or-
ganisatorische Schwächen der Produktionssteuerung dahinter verbergen,
wenn eine unausgewogene Jobsteuerung dahinter steckt. Beim Einsatz
von Mess-Systemen ist zu berücksichtigen, dass solche Systeme ihrer-
seits auch wieder Ressourcen verbrauchen.
Ein wichtiger Richtwert bei der Messung ist die sogenannte System-
Zeit. Sie setzt sich aus folgenden Anteilen zusammen: Zeiten zur

 Steuerung des Timesharing mehrere gleichzeitiger Prozesse,


 Steuerung von Ein-Ausgaben,
 Steuerung des Swappings von Hauptspeicherbeladungen.

Aus der Erfahrung kann man für die System-Zeit folgende Richtwerte
für die CPU festlegen:

 System-Zeit insgesamt: 10–20 %,


 Timesharing: 5–10 %,
 Ein-Ausgaben: 2–6 %,
 Swapping: 1–2 %.

Abb. 2.5 und 2.6 zeigen grundsätzliche Vorgehensweisen im Ablauf


eines Tuning-Prozesses. Zum Schluss noch zwei generelle Hinweise:
Aufrüstung vorhandener Hardware ist meistens nicht das Allheilmittel
14 2 Computer-Performance allgemein

Skript
Entwicklung

Tuning Szenario
Optimierung Entwicklung

Ergebnis Szenario
Analyse Umsetzung

Abb. 2.5 Optimierungszyklus (nach HP-Dokument 4AA1-5197ENW)

bei Performance-Engpässen, wie weiter unten sichtbar werden wird.


Und: Performance-Probleme wachsen exponentiell mit der zu bewäl-
tigenden Datenmenge. Nach diesen grundsätzlichen Vorbetrachtungen
folgt nunmehr die Einzelbetrachtung der fraglichen Ressourcen.

Abb. 2.6 Von der allgemeinen Konzeption zu konkreten Zielen (nach HP-Dokument
4AA1-5197ENW)
2.3 Performance-Theorie 15

2.3.1.1.2 CPU
CPU steht für Central Processor Unit. Unter dem Gesichtspunkt der Per-
formance geht es bei der CPU-Betrachtung um Leistung, d. h. Durch-
satz über den Prozessor. Gemessen wird diese Leistung in mips: million
instructions per second. Dabei handelt es sich um eine reine Papiergrö-
ße, die etwas über nutzbare Leistung aussagt und über Overheads und
Task-Verarbeitung ohne Eingabe-/Ausgabe-Vorgänge oder Warteschlan-
genmanagement für nicht verfügbare andere Ressourcen, auch nicht Vir-
tual Memory Management.
CPU-Leistung wird ein kritischer Faktor für Anwendungen, die stark
CPU-gebunden sind: wissenschaftliche und technische Anwendungen
mit langen Sequenzen mathematischer Berechnungen.
Eine Messgröße kann dabei der „Relative Performance-Faktor (RPF)“
sein. Dieser Wert macht eine Aussage über die Leistungsfähigkeit ei-
ner CPU – und zwar unter möglichst realen Produktionsbedingungen. Zu
seiner Ermittlung werden sowohl Online-Anwendungen als auch Batch-
Verarbeitung hinzu gezogen. Bei ersteren wird die Transaktionsrate als
Maß, bei letzterer die Verarbeitung von Jobs pro Zeiteinheit herange-
zogen. Je nach Austarierung der Anwendungslandschaft werden diese
Maße gewichtet, z. B. 20 % für Batch, 80 % für Online. Mit einer einzi-
gen Zahl kann man allerdings keine schlüssigen Aussagen über das CPU-
Verhalten insgesamt machen. In der Regel ist die Anwendungslandschaft
dazu zu komplex. Weitere Einflussfaktoren sind durch die Serverarchi-
tekturen gegeben. All diese Überlegungen machen natürlich nur Sinn,
wenn CPU-Performance und Hauptspeichergröße sich von vornherein in
einem vernünftigen Verhältnis zueinander befinden.
Eine CPU kann sich in folgenden Zuständen befinden:

 user busy,
 Overhead-Verarbeitung,
 im Wartezustand,
 idle.

User busy bezieht sich auf das Ausführen von Anwendungstasks;


Overhead-Verarbeitung deutet darauf hin, dass sich die CPU mit sich
selbst beschäftigt, z. B. in dem sie durch die Warteschlangen geht oder
Prioritäten neu verteilt. Wartezustand weist darauf hin, dass eine benö-
16 2 Computer-Performance allgemein

tigte Ressource nicht verfügbar ist, und „idle“ heißt, dass zur Zeit keine
Anforderungen an die CPU vorliegen. Die Overheads kann man noch
weiter spezifizieren:

 Memory Management / Paging,


 Process Interrupt Control,
 Cache Management.

Ganz anders sieht das Problem in einer Multiprozessorenumgebung


aus (Tab. 2.1). Diese Umgebung konstituiert sich einmal aus den Ver-
arbeitungsprozessoren, andererseits auch aus einer dazu im Verhältnis
geringeren Anzahl von I/O-Prozessoren. Um diese Konfigurationen op-
timal auszunutzen, müssen die Anwendungen entsprechen geschrieben
sein. Dazu gehört unter anderem Parallelverarbeitung ohne gegenseitige
Interferenzen.
Davon zu unterscheiden sind Konfigurationen, die Prozessoren par-
allel betreiben unter dem Gesichtspunkt der Ausfallsicherheit, um eine
kontinuierliche Verfügbarkeit von Systemen zu gewährleisten (Abb. 2.7).
Auf der Ebene der Tasks kann einer bestimmten Task immer nur ein
Prozessor zugeordnet werden und umgekehrt. Daraus ergibt sich schon,
dass durch reine Hardware-Aufstockung (mehr Prozessoren) Performan-
ce-Probleme nur bedingt gelöst werden können, was das Antwortzeitver-
halten betrifft. Im Grenzfall findet lediglich eine schnellere CPU-Zutei-
lung, aber keine sonstige Durchsatzverbesserung statt. Ebenso ist eine si-
gnifikante Beschleunigung von Batchläufen nur durch massive Paralleli-

Tab. 2.1 Erhöhung Management-Overheads in Multiple CPU-Umgebung (nach Sie-


mens: BS2000/OSD Performance-Handbuch Nov. 2009)
Anzahl CPUs Erhöhung CPU-Zeit [%]
2 5–10
4 10–15
6 15–20
8 20–30
10 25–35
12 30–40
15 35–45
2.3 Performance-Theorie 17

CPU1
CPU1 HS1
CPU2

HS CPU3 CPU2 HS2

Parallelbetrieb

CPUn

Multiprozessorbetrieb

Abb. 2.7 CPU-Betriebsarten

tät zu erreichen. Daneben ist zu beachten, dass mit steigender Prozessor-


zahl die Anforderungen an die Synchronisation mit dem Hauptspeicher
steigen, und dadurch zusätzliche Overheads erzeugt werden. Die Tab. 2.2
und 2.3 zeigen beispielhaft für Siemenssysteme unter BS2000 die Ver-
besserungsmöglichkeiten für die Verarbeitung unabhängiger Tasks durch
Zuschaltung mehrere CPUs.

Tab. 2.2 Verbesserungseffekt durch CPU-Zuschaltung (nach Siemens: BS2000/OSD


Performance-Handbuch Nov. 2009)
Anzahl CPUs Faktor
2 1,7–1,9
4 3,3–3,6
6 4,6–5,2
8 5,8–6,6
10 6,8–7,8
12 7,8–8,8
15 8,8–9,9
18 2 Computer-Performance allgemein

Tab. 2.3 Auslastung in Abhängigkeit der Anzahl CPUs (nach Siemens:


BS2000/OSD Performance-Handbuch Nov. 2009)
Auslastung [%] Anzahl CPUs
75 2
80 4
85 6
90 8

Solche Upgrades haben in der Regel zur Folge, dass auch Hauptspei-
cher und Laufwerke angepasst werden müssen.
Viele Hersteller geben Richtwerte bezüglich der optimalen Auslas-
tung ihrer CPUs. Betrachtet werden im Weiteren lediglich Monopro-
zessoren. Bei Online-orientierten Systemen sollte die CPU-Auslastung
durch die Hauptanwendungen 70 % nicht übersteigen. Darüber hinaus
kann es zu Problemen beim Management der Warteschlangen und den
zugehörigen Wartezeiten kommen. Naturgemäß gehen die möglichen
Auslastungszahlen in Multiprozessorumgebungen über diesen Richtwert
hinaus.
Um die Tasks in der CPU zu steuern, werden bestimmte Routinen
eingesetzt, um sie zu managen und zu überwachen. Folgende Parameter
spielen beim Task-Management eine Rolle:

 Aktivierung,
 Initiierung,
 Multi-Programming Level,
 Priorität,
 Multiprogramming-Level (MPL) pro Kategorie,
 Betriebsmittel-Auslastung (CPU, Hauptspeicher, Paging Aktivität),
 System-Dienste (CPU-Zeit, Anzahl Ein-/Ausgaben),
 Zuteilung der Berechtigung zur Hauptspeicher-Nutzung,
 Zuteilung des Betriebsmittels CPU,
 Zustand „active, ready“,
 Deinitiierung,
 Betriebsmittelentzug bei Wartezeiten,
 Zustand „active, not ready“,
 Verdrängung.
2.3 Performance-Theorie 19

Da die CPU von vielen Tasks gleichzeitig genutzt wird, ist die Aus-
lastung ein wichtiges Kriterium für Wartezeiten. Die durchschnittliche
Bedienzeit durch die CPU ist allerdings klein im Verhältnis zu den Ein-
und Ausgabezeiten. Das bedeutet, dass das Antwortzeitverhalten we-
sentlich von Ein-/Ausgabevorgängen, insbesondere durch das Lesen und
Schreiben auf Speichermedien beeinflusst wird. Dadurch kommen die
bereits genannten 70 % Auslastung zustande. Einige Hersteller erlauben
zudem eine manuelle Prioritätenvergabe, sodass auch ursprünglich nied-
rig priorisierte Tasks aus den Warteschlangen heraus zum Zuge kommen
können. Eine 100 %ige Auslastung ist ein idealer Wert, der in der Praxis
nicht erreicht wird.
Prioritäten beziehen sich auf den Zugriff auf CPU-Ressourcen, I/Os
sind dabei nicht berücksichtigt. Im Normalfall sind Prioritäten so verge-
ben, dass Online-Taks grundsätzlich höher priorisiert sind als Batches.
System-Programme wiederum haben meistens eine höhere Priorität als
die übrigen Online-Funktionen. Innerhalb der Programmverarbeitung
berechnet das System dann selbst die Prioritäten nach einem Algorith-
mus, der Warteschlangen-Position, Swap-Rate und andere Parameter
einbezieht. Die Vergabe einer externen fixen Priorität ist möglich, sollte
jedoch mit Vorsicht gehandhabt werden, da die Priorität sich danach
nicht mehr dynamisch anpasst und je nach Einstellung zu Verdrängun-
gen anderer Prozesse führen kann. So kann man grundsätzlich wenigen
Nutzern, die große Programme fahren, niedrigere Prioritäten geben als
den vielen anderen Usern, die nur kleine Tasks erledigen wollen. Kurz-
fristig kann man bei eiligen Geschäftsvorfällen die Priorität erhöhen,
ebenso für Speicher intensive Programme, die alles blockieren, um das
System wieder freizuschaufeln (Abb. 2.8).
Spricht man von einer hohen CPU-Auslastung, dann liegt diese bei
über 90 %. Das braucht noch keine Engpasssituation zu sein. Bei hoher
Auslastung ist es allerdings besonders wichtig, die Effizienz des CPU-
Betriebes zu beobachten. Dazu sind folgende Maßnahmen von Bedeu-
tung:

 Überprüfen der Höhe der Ein-/Ausgaberate,


 Überprüfen der Höhe der Paging-Rate.
20 2 Computer-Performance allgemein

Abb. 2.8 Tuning Ansätze bei hoher CPU_Auslastung (nach Siemens: BS2000/OSD
Performance-Handbuch Nov. 2009)
2.3 Performance-Theorie 21

Ein Maß für die Effizienz einer CPU bei hoher Auslastung ist das
Verhältnis:
Wartezeit zu Benutzung der CPU / Hardware-Bedienzeit der CPU.
Beim Auftreten längerer Wartezeiten sind folgende Ursachen mög-
lich:

 Sub-optimale Einstellung von System-Parametern,


 Gesamter CPU-Zeitbedarf für alle Tasks ist zu hoch. Eine Analyse der
Warteschlangenzeiten kann darüber Aufschluss geben.

Eine wichtige Rolle beim Mechanismus der CPU-Verwaltung ist der


Umgang mit Unterbrechungen. Offensichtlich finden beim Swapping
Unterbrechungen von exekutierendem Code statt. Dadurch werden ein
Programm oder ein Programmteil angehalten, das Code-Segment aus
dem Hauptspeicher ausgeladen und die Task in eine Warteschlange ver-
wiesen, aus der sie entsprechend ihrer Priorität (im Normalfall: Position
in der Schlange) später wieder Ressourcen bekommt. Unterbrechungen
können folgende Ursachen haben:

 prioritärer Ressourcenzugriff durch das Betriebssystem,


 Abschluss eines geschlossenen Programmteils,
 auftretende technische Fehler („exception“),
 längere Pause bei der Adressierung der Programmseite,
 I/Os,
 fehlende Daten,
 Status „idle“ mit timeout.

Es können aber auch Performance-Probleme in Erscheinung treten bei


niedriger CPU-Auslastung. Dafür können folgende Gründe verantwort-
lich sein:

 Ein-/Ausgabekonflikte,
 hoher Zugriff auf Speichermedien durch gleichzeitig viele User (zen-
trale Dateien),
 zu hohe Paging-Rate,
 Engpässe durch Server-Tasks,
 ineffiziente Parallelverarbeitung durch zu wenig Tasks,
22 2 Computer-Performance allgemein

 CPU-Zeit für das Ausführen bestimmter Programme,


 zu viele System-Aufrufe,
 System-Selbstverwaltung,
 zu viele Bibliotheksroutinen,
 zu viele I/O-Routinen,
 zu viele gleichzeitige User,
 Multiprozessor-Management,
 ungünstige CPU Taktzahl pro Prozess,
 Prozessor-Stillstand,
 Abfolge von Maschinenbefehlen.

Falls Performance-Probleme weiter bestehen, selbst wenn die CPU


„idle“ ist, so sind diese Probleme woanders zu suchen. Durch Aufrüstung
der CPU ist dann nichts gewonnen.

2.3.1.1.3 Hauptspeicher
Ein wesentliches Merkmal für den Hauptspeicher ist seine nominelle
Größe: die Anzahl von Zeichen, Bytes, die für eine zentrale Verarbei-
tung und die dazu erforderliche temporäre Speicherung zur Verfügung
steht. Die absolute Größe des Hauptspeichers kann für eine Performan-
ce-Situation

 passend,
 zu groß oder
 zu klein.

sein. Das liest sich banal. Dabei gibt es Folgendes zu bedenken: ein
überdimensionierter Hauptspeicher, häufig als Empfehlung bei Engpäs-
sen ausgesprochen, kann zu sekundären CPU-Problemen führen, wenn
die Leistung nicht Schritt hält, oder eine Unterdimensionierung von I/O-
Kanälen aufweisen. Der Grund liegt darin, dass die Anzahl möglicher
Tasks, die geladen werden können, die Möglichkeiten dieser beiden
anderen Ressourcen übersteigt, sodass Warteschlangen sich heraus-
bilden.
Natürlich ist ein zu klein dimensionierter Hauptspeicher eher das Pro-
blem. Der Hauptspeicher hat umzugehen mit (Abb. 2.9):
2.3 Performance-Theorie 23

Abb. 2.9 Hauptspeicher-


belegung

 Programm-Segmenten,
 Daten,
 Cache Partitionen und
 Teilen vom Betriebssystem.

Normalerweise ist ein Teil des Hauptspeichers ständig durch Grund-


funktionen des Betriebssystems belegt: base memory mit einer fixen
Prozentzahl des gesamten Speichers, z. B. 10 %. Weitere Anteile des
Betriebssystems werden später je nach Bedarf nachgeladen. Ein ge-
wichtiger Teil wird für die User-Prozesse benötigt. Deshalb ist z. B.
bei Betriebssystem-Updates, die zusätzliche Funktionalitäten beinhalten
können, darauf zu achten, dass entsprechend neu und sparsam konfigu-
riert wird.
Cache Partitionen werden benötigt für Speichersegmente, die Da-
ten enthalten, auf denen wiederholt zugegriffen wird. Diese Partitionen
sind konfigurierbar, können aber auch dynamisch zugewiesen werden.
Im letzteren Fall stellt die Cache kein besonderes Problem dar, obwohl
bei Engpässen Einschränkungen bezüglich des Cache-Anteils entste-
24 2 Computer-Performance allgemein

hen können, sodass sich die Performance wiederum verschlechtert,


dadurch dass die Daten jetzt wieder direkt von den Platten gelesen wer-
den müssen. Auf der anderen Seite führt eine intensive Cache-Nutzung
zu Interrupt und Adressen Mapping. Dadurch entstehen zusätzliche
CPU-Overheads.
Die Datenbelegung des Hauptspeichers speist sich aus folgenden
Quellen:

 Userdaten,
 temporäre Zuweisungstabellen,
 Sondersegmente,
 System-Puffer.

Die Userdaten beaufschlagen den einem spezifischen User zugewie-


senen Adressraum, zum Beispiel für Sortiervorgänge. Sondersegmen-
te werden beispielsweise für Nachrichtendateien oder Kommunikations-
puffer benötigt und System-Puffer für bestimmte System-Tasks. Der Rest
steht dann Programmsegmenten oder für das Paging zur Verfügung.
Ein wichtiger Faktor bei der Betrachtung von Hauptspeicher-Perfor-
mance ist die Paging-Rate. Mit Paging-Rate ist die Anzahl von Vorgän-
gen pro Zeiteinheit gemeint, die aktuell Speicher residente Code-Seiten
(Pages), die momentan für die Ausführung eines Programms durch die
CPU benötigt werden, temporär aus dem Speicher entfernen, durch an-
dere ersetzen, und die ursprünglichen Seiten später wieder hinein laden.
Dieser Vorgang wird auch als Swapping bezeichnet.
Es gibt einige Algorithmen, die diejenigen Hauptspeichereinträge
identifizieren, die dem Swapping unterliegen sollen. Normalerweise
werden die Ressource-Warteschlangen bei jedem System-Zyklus in-
nerhalb der Frequenz der System-Uhr abgefragt, um festzustellen, auf
welche Segmente während des vorhergehenden Zyklus nicht zugegriffen
wurde. Diese werden dann mit einem Flag als Overlay- Kandidaten ver-
sehen. Beim nächsten Zyklus werden die Overlay-Kandidaten nochmals
geprüft und dann unter Umständen geswappt, falls Speicherplatz benö-
tigt wird. Gibt es viele Overlay-Kandidaten und lange Verweilzeiten für
bestimmte Segmente, die ohne Prozess-Unterbrechung geswappt werden
können, entstehen nur minimale Memory Management Overheads.
2.3 Performance-Theorie 25

Abb. 2.10 Paging

Hohe Paging-Raten können kritisch für eine effiziente Nutzung der


Ressource Hauptspeicher werden (Abb. 2.10). Gründe dafür können sein:

 zu viele Prozesse,
 zu große Programme.

Deshalb geben Hersteller auch maximal empfohlene Werte an. Me-


mory Management für eine sauber laufende CPU sollte nicht mehr
als wenige Prozent betragen. Ansonsten führen zu hohe Paging-Raten
grundsätzlich zu schlechtem Antwortzeitverhalten, weil CPU-Ressour-
cen dafür benötigt werden. Hintergrund: in den beiden genannten Fällen
versucht die CPU zunächst, die Hauptspeicherbelegung neu zu organi-
sieren, indem ein zusammenhängender Adressraum gebildet wird (das
führt zu erheblichen Overheads). Falls das nicht gelingt, gibt die CPU
auf, d. h. es kommt zu Unterbrechungen von Prozessen mit niedriger
Priorität. Geswappt wird in den virtuellen Speicher oder auf Pagingbe-
reiche der Festplatten. Konsequenzen:

 entgangene CPU Ressourcen für Memory Management (Erhöhung


der subjektiven Antwortzeiten),
26 2 Computer-Performance allgemein

 unterbrochene Userprozesse (Erhöhung der subjektiven Antwortzei-


ten).

Wird dieses Problem chronisch, geht nichts um einen Upgrade des


Hauptspeichers herum. Ein Grund dafür ist auch, dass externe Swapping-
bereiche gesondert konfiguriert werden müssen. Sind diese zu klein, wird
Paging zu einem Sekundärengpass mit zusätzlichen I/O-Wartezeiten und
entsprechendem Memory Management.
Um Engpässe beim Hauptspeicher zu vermeiden, sind prophylaktisch
regelmäßige Messungen mit einem geeigneten Monitor sinnvoll. Dabei
sollten folgende Werte ermittelt werden:

 Anzahl der seitenwechselbaren Seiten (Größe des Hauptspeichers mi-


nus der Anzahl ständig für System-Zwecke residenten Seiten),
 Anzahl der global genutzten Seiten (Anzahl der seitenwechselbaren
Seiten minus der Anzahl der frei nutzbaren Seiten).

Ähnlich wie bei der CPU gibt es auch für den Hauptspeicher Richt-
werte. Auslastung bis 75 % gilt als unkritisch. Werden ständig über 90 %
erreicht, ist ein Upgrade unerlässlich. Analog zur CPU gibt es ein Task-
Management mit ganz ähnlichen Triggern über die Kontrollfunktionen
der Hauptspeicherverwaltung mit Seitenverwaltungs-Algorithmus:

 Aktivierung,
 Deaktivierung,
 Zwangsdeaktivierung,
 Verdrängung.

Zusammenfassend können folgende Situationen entstehen:


Der Speicherbedarf ist höher als der vorhandene Speicher. Dann ent-
steht ein Paging-Problem. Das hat zur Folge, dass bestimmte Prozess-
Schritte temporär auf dezentrale Speichermedien verlagert werden, was
zu einem spürbaren Leistungsabfall führt. Lösungen können entweder
durch Hardware-Erweiterung oder Anwendungsoptimierung herbeige-
führt werden. Organisatorisch könnte man auch die Anzahl User redu-
zieren, was in der Regel nicht akzeptiert wird.
Das gegensätzliche Szenario ist, wenn ausreichend Speicherplatz vor-
handen ist. Zwischen diesen beiden Zuständen gibt es keine Alternativen.
2.3 Performance-Theorie 27

Dabei muss ein Programm nicht immer vollständig geladen sein, damit
bestimmte Funktionen ausgeführt werden können. Programmseiten wer-
den über deren Adressenfolgen stückweise geladen, was wiederum zu
Swap-ins und Swap-outs, also Paging-Vorgängen führt. Ohnehin zeigt
die Statistik, dass die meisten Programme 80 % ihrer Exekutionszeit
in nur 20 % ihres eigenen Codes verbringen. Inaktive Prozesse werden
hauptsächlich durch Online-Anwendungen hervorgerufen – wenn User
vor dem Bildschirm sitzen und keine Eingaben tätigen, das Programm
aber über die GUI dennoch aufgerufen bleibt. Zur Optimierung bezogen
auf das Paging können folgende Maßnahmen herangezogen werden:

 Nutzung von gemeinsamen Subroutinen durch mehrere Programme,


 Größenoptimierung von Codes,
 Nutzung von gemeinsamen Bibliotheken,
 Speicherkonfigurierung anhand geschätzter User-Zahl.

2.3.2 Anwendungs-Performance

2.3.2.1 Anwendungsparameter
Obwohl ein Performance-Tuning auf der Basis von Anwendungsopti-
mierungen meistens zeitaufwendig ist und deshalb in der Regel kurzfris-
tig keine sichtbaren Ergebnisse zeitigt, ist es dennoch häufig unerlässlich,
um mittel- und langfristige Erfolge zu erzielen. Hier sind die Einflussfak-
toren:

 Programmiersprache,
 modularer Programmaufbau,
 Anzahl Subroutinen und externer Aufrufe,
 Dateimanagement,
 Ein-/Ausgabeprozeduren,
 GUI oder Batchverarbeitung,
 Größe von Codesegmenten,
 Kommunikations-Prozesse mit anderen Anwendungen.

Falls beeinflussbar, spielt die Programmiersprache eine wichtige Rol-


le für die zukünftige Performance einer Anwendung. Demgegenüber
28 2 Computer-Performance allgemein

sind zum Beispiel die Realisierungszeiten abzuwägen – modularer Pro-


grammaufbau – im Gegensatz zu struktureller Programmierung, die
im Zuge moderner Sprachen an Bedeutung verloren hat. Gemeint ist
in diesem Zusammenhang die Entkopplung von Anwendungsmodulen
untereinander unter einem gemeinsamen Frontend. Dadurch wird der
Hauptspeicher entlastet. Außerdem können dabei bestimmte Module aus
unterschiedlichen Anwendungsanteilen angesprochen und so gemein-
sam genutzt werden – zum Beispiel Fehlerroutinen.
Während man erwarten kann, dass jedes neue Release akzeptable An-
wendungs-Performance liefert, hängt das Ergebnis doch sehr stark ab
von den vorbereitenden Maßnahmen. Dabei sollten die Wünsche der
User berücksichtigt werden und deren Vorstellungen über gute Perfor-
mance. Auch der gesamte Prozess-Ablauf, in dem die IT-Unterstützung
eingebunden ist, sollte Berücksichtigung finden. Am Ende sollten fol-
gende Fragen beantwortet werden:

 Muss die Anwendungsarchitektur angepasst werden, um bestimmten


Performance-Kriterien zu genügen?
 Ist ein Upgrade der IT-Infrastruktur erforderlich?
 Wird Performance negativ beeinflusst durch GUI-Gestaltung?
 Wie wird sich eine zu erwartende Durchsatzsteigerung auf die Sys-
tem-Last auswirken?

Bestimmte Faktoren lassen sich manchmal mit geringem Aufwand


tunen, wie z. B. Ein-/Ausgabeprozeduren oder Wechsel von GUI auf
Batch. Andere erfordern größere Investitionen. Dazu gehören sicherlich
die Transposition in andere Programmiersprachen oder Änderungen am
Datenmodell.
Zusätzlich zu den Messwerten, die für die reine System-Performance
von Bedeutung sind, gibt es eine Reihe von Kenngrößen, die im di-
rekten Bezug zu den Anwendungen stehen. Dazu gehören insbesondere
die Task spezifischen Betriebsmittelanforderungen im zeitlichen Durch-
schnitt und auf Spitzen, bezogen auf

 CPU-Zeit,
 Ein-/Ausgaben inklusive Zugriffe auf bestimmte Datentabellen und
Plattenzugriffsstatistiken,
2.3 Performance-Theorie 29

 Wartezeiten,
 Pagingraten,
 Kanal-Transporte inklusive TCP/IP-Verbindungen,
 eventuelle Kommunikationsereignisse im Rechnerverbund,
 Zugriffe auf Hauptspeicher,
 Antwortzeitenstatistik,
 Cache-Trefferquoten,
 Anzahl job-Aufrufe.

Diese Informationen werden entweder durch Messmonitore geliefert


oder sind teilweise aus Logfiles zu ermitteln, wenn die entsprechenden
Transaktionstypen dafür eingeschaltet sind. Logdateien für die Aufzeich-
nung von Transaktionen bedürfen in zweierlei Hinsicht spezifischer Aus-
richtung:

 Formatierung,
 Selektion.

Bei der Formatierung ist darauf zu achten, dass die Einträge mög-
lichst von technischen Informationen befreit werden. Das heißt alles, was
Bezug zum Transaktionscode und zu Datenverschlüsselungen, Format-
angaben usw. hat, sollte ausgespart werden. Lediglich aussagekräftige
Textinformationen sollten hinterlegt werden, die dem Auswerter sofort
einen Hinweis auf das tatsächliche Transaktionsgeschehen geben.
Die Selektion zur Aufzeichnung von Transaktionen sollte sich auf
solche beschränken, die für eine spätere Analyse interessant sind. Ne-
bensächliche Funktionsaufrufe wie „Datumsanzeige“, „Rückkehr zum
Hauptmenu“ u. a. sollten ausgeblendet werden.
Neben Durchschnitt und Spitzen ist die Aufnahme des zeitlichen Ver-
laufs über typische Arbeitstage von Interesse. Hier zeigen sich zeitlich
abhängige Engpässe, die unter Umständen zunächst einmal ohne großen
technischen Aufwand organisatorisch entkoppelt werden können. Bei der
Anzahl User, die hinter all diesen Ressourcenverbräuchen steht, ist zu
differenzieren zwischen aktiven und lediglich über Sessions verbunde-
nen.
30 2 Computer-Performance allgemein

Weiterführende Literatur
1. Osterhage, W. 2012. Performance-Optimierung. Heidelberg: Springer Vieweg.
Test-Automatisierung 3

3.1 Einleitung

Performance spielt eine wichtige Rolle nicht nur im Produktivbetrieb


einer Anwendung, sondern auch bei Erweiterungen bzw. Neu-Einfüh-
rungen und dem dazu gehörigen Test-Betrieb. Um die zugehörigen Test-
Verfahren so breit wie möglich mit einem akzeptablen Durchsatz anzu-
legen, bieten sich verschiedene Algorithmen an, von denen wir hier zwei
vorstellen möchten.
In diesem Kapitel werden kurz die Beweggründe für automatisiertes
Testen angeführt. Dann folgt eine Gegenüberstellung der wichtigsten Ge-
sichtspunkte zwischen manuellem und automatisiertem Testen.
Es gibt jede Menge automatisierte Test-Verfahren. Zum Teil werden
diese von den Entwicklungsabteilungen größerer Häuser für deren Be-
lange spezifisch entwickelt. Nach den grundsätzlichen Überlegungen
werden dann zwei Verfahren vorgestellt, die in der Entwickler-Commu-
nity weltweit Einzug gehalten haben:

 Symbolic Execution (SE),


 Search-Based Automated Structural Testing (SBST).

Für beide wird zum Abschluss auch eine kurze Zusammenfassung des
heutigen state-of-the-art gegeben [1].

© Springer-Verlag Berlin Heidelberg 2016 31


W. W. Osterhage, Mathematische Algorithmen und Computer-Performance
kompakt, IT kompakt, DOI 10.1007/978-3-662-47448-8_3
32 3 Test-Automatisierung

3.2 Warum Automatisierung?

Gewöhnlicherweise gibt es zwei Ansätze für umfangreiche Tests


(Abb. 3.1):

 manuelle Verfahren und


 Automatisierung.

Leider bringt manuelles Testen einige implizite Nachteile mit sich:

 die Schwierigkeit, das Verhalten von einer großen Anzahl User zu


emulieren,
 den User-Betrieb effizient zu koordinieren.
 Ergebnisvergleiche zwischen den unterschiedlichen Test-Szenarien
sind schwierig.
 Manuelles Testen ist auch häufig nicht sehr praktisch. Will man ein
Problem genau diagnostizieren, so müssen dieselben Tests mehrere
Male wiederholt werden. Die Software muss gepatched werden, und
danach finden Re-Tests statt, um feststellen zu können, ob der Feh-
ler behoben wurde. Bei automatischem Testen ist das leichter mög-
lich. Bestimmte Tools ermöglichen es, die entsprechenden Test-Skrip-
te und deren Ergebnisse abzulegen und zu verwalten. Außerdem wer-
den beim automatischen Testen menschliche Fehler während der Test-

Abb. 3.1 Manuelles gegenüber automatisiertem Testen


3.2 Warum Automatisierung? 33

Abb. 3.2 Automatisiertes Test-Tool

Phase weitgehend vermieden. Solche Tools stellen folgende wesentli-


che Komponenten bereit (Abb. 3.2):
– eine Kontrolleinheit, die Test-Input bereitstellt und kontrolliert,
– eine virtuelle User-Landschaft (User-Generator),
– automatisierte Test-Skripte für Online-Simulation (müssen ent-
sprechend der zu in Frage kommenden Anwendungen immer
maßgeschneidert erstellt werden),
– ein Monitor,
– eine Analyse-Maschine.

Dadurch wird Folgendes ermöglicht (Abb. 3.3):

 Ersatz von manuellen Usern durch virtuelle,


 simultaner Einsatz vieler virtueller User auf einem einzigen System,
 Wiederholung von Szenarien, um den Effekt von Anpassungen zu ve-
rifizieren.

Auf diese Weise werden Kosten und Ressourcen gespart.


34 3 Test-Automatisierung

Abb. 3.3 Automatisierte Test-Möglichkeiten

Auch bei überwiegend manuellem Testen kann automatisiertes Testen


und Messen ebenfalls zur Unterstützung der manuellen Prozesse dienen.
Gelegentlich ist das notwendig, wenn keine ausreichenden Enduserres-
sourcen vorhanden sind. Auf diese Weise können die nachfolgenden In-
formationen gewonnen werden (Abb. 3.4):

 wiederholte Prozess-Gänge unter identischen Bedingungen,


 end-to-end Prozesse und deren Verhalten,
 automatisches Aufzeichnung von Ergebnissen,
 Monitor-Reports für einzelne System-Komponenten.

Obwohl der Aufwand für automatisiertes Testen während der Test-


Phase selbst erheblich geringer sein kann als durch viele User verursach-
te Einzeltests, bedeutet die Automatisierung einen hohen Aufwand an
Vorbereitung. Dazu gehören unter anderem (Abb. 3.5):

 Festlegung der Test-Ziele,


 Geschäfts-Prozesse, Teil-Prozesse aufnehmen,
 Auswahl zu testender Transaktionen,
3.2 Warum Automatisierung? 35

Abb. 3.4 Automatisierte Prozess-Tests

Abb. 3.5 Test-Vorbereitung


36 3 Test-Automatisierung

 Anzahl konkurrierender User festlegen,


 Auswahl der Datenbasis; bei Simulationen: synthetische Daten oder
Abzüge aus der Produktion.

Eine weitere Möglichkeit bei der Automatisierung ist der vollständige


Verzicht auf echte User. Stattdessen müssen Skripte erstellt werden, die
die GUIs automatisch mit Daten füllen und die Transaktionen selbständig
weiter führen. Um sicher zu gehen, dass ein Prozess durchläuft, muss
auch Vorsorge für „Eingabefehler“ getroffen werden, und wie sich das
System dann verhalten soll.
Während einer automatisierten Testung wird beim Monitoring sofort
sichtbar, wo an welcher Stelle in der Infrastruktur Prozess-Probleme auf-
tauchen. Auf diese Weise lassen sich alle kritischen Einheiten abfragen
und einsehen.
Ein weiterer Vorteil der Automatisierung besteht darin, dass ein sol-
ches Monitoring für identische Transaktionsabfolgen aufgesetzt werden
kann.

3.3 Vergleich manuelles mit automatisiertem Testen

Die Tab. 3.1 gibt einen Vergleich zwischen automatisierten und Manuel-
len Test-Verfahren wieder.

3.4 Symbolic Execution

Eine weit verbreitete Methode, die beim automatischen Testen zum Ein-
satz kommt, ist die Symbolic Execution Methode. Diese Methode er-
möglicht es, festzustellen, bei welchem Input welcher Programmteil wie
reagiert. Dabei kommt ein Interpreter zum Einsatz. Statt eines konkreten
Inputs, wie beim normalen Einsatz eines Programms, werden symbo-
lische Werte verwendet, welche die komplette Bandbreite von Werten
repräsentiert, die eine Variable annehmen kann.
Mittels dieser symbolischen Werte werden Ergebnisse und Variablen
generiert, sowie die Bedingungen bzgl. möglicher Ergebnisse für jede
Verzweigung innerhalb eines Programms erkannt. Der Output des Codes
3.4 Symbolic Execution 37

Tab. 3.1 Vergleich zwischen manuellem und automatisiertem Testen


Funktion Manuell Automatisiert
Große Anzahl User emulie- Aufwendig Einfach
ren
Koordination Tester-Be- Erforderlich Nicht erforderlich, Kon-
trieb trolleinheit erforderlich,
virtuelle Userlandschaft
Ergebnisvergleiche User abhängig Standardisierbar
Test-Skripte Prozess orientiert Prozess orientiert; Tool
orientiert
Nachvollziehbarkeit Aufwendig Automatisch durch Wie-
derholung
Auswertung Aufwendig Per Monitor
Fehlerentdeckung Durch rückwärtige Sofortige Lokalisierung
Suchvorgänge

ist also abhängig von diesen Werten. Um einen Code symbolisch auszu-
führen, müssen alle Input Variablen durch Symbole initiiert werden.
Ziel der symbolischen Ausführung ist es, einen Test-Input für jeden
Programmpfad zu erzeugen, sodass letztendlich der gesamte Code abge-
deckt werden kann.
Ein einfaches Beispiel für den Test einer logischen Verzweigung ist in
Abb. 3.6 aufgezeigt.
Das Tool, welches für die symbolische Ausführung eingesetzt wird,
besteht aus zwei Komponenten (s. Abb. 3.7):

 program analyzer und


 constraint solver.

Der program analyzer führt das Programm aus, während der cons-
traint solver feststellt, welche konkreten Input Variablen erlaubt sind.
Ziel in unserem Falle ist es, festzustellen, bei welchem Wert für eine
symbolische Input Variable sich ein Programm beendet (constraint).
Statt eines numerischen Inputs wird das Symbol „Z“ durch den pro-
gram analyzer eingesetzt. In dem Folgebefehl erhalten wir als Zwischen-
ergebnis „3Z“. Danach folgt eine Verzweigung je nach berechnetem Er-
gebnis aus dem vorhergehenden Befehl. Der analyzer ermittelt nun, dass
38 3 Test-Automatisierung

Abb. 3.6 Beispiel SE

Abb. 3.7 SE-Tool


3.4 Symbolic Execution 39

sich das Programm bei einem Wert für b = 9 beendet, ansonsten b aus-
druckt. Daraus schließt der constraint solver, dass der Programmabbruch
für einen Wert von Z = 3 erfolgt.
SE untersucht also, ob und – wenn ja – ein Code mit welchen Werten
befriedigt werden kann. Oder umgekehrt: für welche Werte das nicht zu-
trifft. Außerdem erfolgt für die unterschiedlichen Pfade ein Fehlercheck.
Andererseits ist SE nicht unproblematisch. So gibt es eine Reihe von
Beschränkungen, die beachtet werden müssen:

 Große Programme:
Die Anzahl möglicher Pfade in einem Programm wächst exponentiell
mit der Größe des Codes.
 Schleifen:
Für bestimmte Schleifen wächst die Anzahl möglicher Pfade ins Un-
endliche.
 Wirtschaftlichkeit:
Wenn bestimmte Pfade nur von wenigen unterschiedlichen Input-
Werten genutzt werden, kann man sich SE schenken und direkt mit
der begrenzten Anzahl Variablen auf klassische Weise testen.

3.4.1 Herausforderungen und Lösungswege

 Pfad-Explosion
Lösungswege:
– heuristischer Ansatz: willkürliche Pfadauswahl,
– Pfad-Priorisierung,
– paralleles Ausführen von Programmteilen,
– Mischung aus symbolischem Ansatz und Ansatz mit konkreten Da-
ten.
 Constraint Solver Limitierung: diese kann verursacht werden durch:
– nicht-lineare Funktionen,
– Bibliotheksaufrufe,
– nicht-entscheidbare Bedingungen.
Lösungswege:
– Ausschließen von irrelevanten Nebenpfaden, wenn das Ergebnis
des aktuellen Pfades davon nicht beeinflusst wird.
40 3 Test-Automatisierung

– Stufenweises Vorgehen unter Ausnutzung bereist vorhandener Lö-


sungen aus vorhergehenden Schritten.
– Iteratives bzw. näherungsweises Vorgehen.
 Datenabhängigkeit: die Ausführung bestimmter Programmschleifen
kann von spezifischem Daten-Input abhängen, damit die Schleife
nicht unendlich oft ausgeführt wird.
 PTOP: program-to-program-communication
Lösungsweg:
– In diesem Falle müssen die beteiligte Programme parallel getestet
werden, wenn z. B. das Ergebnis des einen als Input für das andere
dient.
 Externe Programmaufrufe
Lösungswege:
– Sind entweder wie Bibliotheksaufrufe oder wie PTOP zu behan-
deln.
 Arithmetische Operationen: sind grundsätzlich nur bedingt geeignet
für SE.

3.4.2 Tools

In der Tab. 3.2 finden Sie einige open source Links für SE Tools. Es
ist zu beachten, dass die Tools sprachenabhängig sind bzw. bestimmte
Prozessor-Voraussetzungen haben können.

3.5 Search-Based Automated Structural Testing

SBST (Search Based Software Testing) wendet Optimierungsmethoden


beim Test von komplexer Software an, für die ein weites Feld und eine
massive Kombinatorik von Test-Daten absehbar ist. Dabei kommen di-
verse Algorithmen zum Einsatz, von denen der am weitesten verbreitete
der so genannte genetische Algorithmus ist. Die Methode wurde zuerst
Mitte der 70er-Jahre des vergangenen Jahrhunderts eingeführt.
3.5 Search-Based Automated Structural Testing 41

Tab. 3.2 SE Tools


http://klee.github.io/
http://bitblaze.cs.berkeley.edu/fuzzball.html
http://babelfish.arc.nasa.gov/trac/jpf
https://github.com/osl/jcute
https://github.com/ksen007/janala2
http://www.key-project.org/
http://dslab.epfl.ch/proj/s2e
https://github.com/codelion/pathgrind
https://bitbucket.org/khooyp/otter/overview
https://github.com/SRA-SiliconValley/jalangi
http://www.cs.ubc.ca/labs/isd/Projects/Kite/
https://github.com/feliam/pysymemu/
https://github.com/JonathanSalwan/Triton

3.5.1 Genetischer Algorithmus

Genetische Algorithmen leiten sich aus der Evolutionstheorie her. Im


Grunde handelt es sich dabei um ein Optimierungsverfahren. Der ge-
samte Datenraum von möglichen Input-Daten wird abgetastet, um die
bestmöglichen zu finden (Abb. 3.8).
Die wichtigsten Bestandteile eines genetischen Algorithmus sind:

 Lösungskandidaten: erste Generation,


 Fitnessfunktion: Bewertung der Lösungskandidaten,
 Vererbung: nächste Generation,
 Mutation: willkürliche Änderung der Nachfahren,
 Rekombination: Kombination bestimmter Kandidaten.

Man beginnt mit einer Menge willkürlich gewählter Inputs. Der Al-
gorithmus erzeugt daraus eine neue Generation von Input-Daten unter
Zuhilfenahme von Mutationen usw. Schließlich entscheidet eine Fitness-
funktion über die optimale erste Generation von Test-Daten – also denje-
nigen, welchem dem Test-Ziel am ehesten entgegenkommt. Letztendlich
geht es um die Optimierung von Datenqualität.
42 3 Test-Automatisierung

Abb. 3.8 Evolutionärer Algorithmus

3.5.2 Grenzen

 Unmöglicher Input
Dabei kann es sich um Test-Fälle handeln, die in der Praxis niemals
vorkommen.
 Suchlängen
In evolutionären Algorithmen besteht die Gefahr, dass immer neue
Generationen erzeugt werden, wenn dem nicht eine Grenze gesetzt
wird (Abbruchkriterium). Diese Grenze ist in diesem Falle jedoch
willkürlich und nicht durch ein Optimum bestimmt, welches durch
die Fitnessfunktion entschieden wird.
 Parametrisierung
Der Algorithmus muss parametrisiert werden (z. B. Umfang des In-
put-Satzes, Mutationsrate etc.). Die Parametrisierung hat Einfluss auf
die Optimierung.
3.6 Kombination von SE und SBST 43

 Lokale Optima
Es kann sein, dass der Suchalgorithmus vorschnell ein lokales Op-
timum in irgendeinem Teil einer Software findet und dann anhält.
Dieses Optimum ist aber nicht notwendigerweise auch das globale,
sodass dieses Ergebnis irreführend ist.
 Umgebungsprobleme
Der Code ist kein in sich geschlossenes Objekt, sondern interagiert
mit einer Datenbasis, mit Usern, innerhalb eines Netzwerkes etc. Die-
se gesamte Umgebung hat natürlich ebenso Einfluss auf das Verhalten
eines Programms. Die Ergebnisse des evolutionären Algorithmus sind
in diesem Zusammenhang zu bewerten.

3.6 Kombination von SE und SBST

Wir haben gesehen, dass sowohl SE als auch SBST gewisse Vorteile
mit sich bringen, aber auch Limitierungen. Die Frage, die sich stellt, ist:
kann man beide Ansätze kombinieren, um so zu besseren und effiziente-
ren Test-Ergebnissen zu kommen? Dagegen ist zu sagen, dass die beiden
Verfahren jeweils auf völlig verschiedenen theoretischen Gebäuden auf-
bauen. Meistens analysiert man das Test-Problem vorher und entscheidet
dann über eine von den beiden Methoden.
Dennoch gibt es in den letzten Jahren Bemühungen, die Schwächen
des einen Ansatzes durch die Stärken des jeweils anderen zu kompensie-
ren. Dabei werden unterschiedliche Wege ausprobiert. Man kann grund-
sätzlich davon ausgehen, dass eine ganze Reihe von Parametern unter-
sucht werden muss:

 Wie sieht die technische Integration aus?


 Wann wird welche Methode angewandt?
 Wie viele Ressourcen kann man jeder Methode zuordnen?

An dieser Stelle seien nur zwei Stoßrichtungen erwähnt, mit denen


man das Problem angehen kann:

1. Hintereinanderschaltung von vorhandenen genetischen Algorithmen


und SE. In diesem Fall findet das SE Tool Bedingungen für die Er-
gebnisse von SBST.
44 3 Test-Automatisierung

2. Einsatz von SE als Mutations-Operator. Andererseits kann man um-


gekehrt auch die Fitnessfunktion als Messlatte während eines SE-
Prozesses anwenden.

Es gibt einige Tools, die sich auf eine Kombination der beiden Me-
thoden spezialisiert haben. Dazu gehören:

 Evacon,
 CORAL,
 PEX,
 Evosuite.

3.7 Fazit

Automatisiertes Testen birgt gewisse Vorteile gegenüber manuellem.


Zwei der wichtigsten Methoden (SE und SBST) wurden von ihrer Phi-
losophie her vorgestellt. Beide Methoden unterstützen eine Reihe von
Programmiersprachen. Für die Anwendung dieser Methoden stehen
neben kommerziellen auch open source Tools zur Verfügung. Bei der
Analyse von konkreten Test-Vorhaben müssen allerdings die erwähnten
Einschränkungen sorgfältig geprüft werden, bevor man sich für eine
bestimmte Test-Strategie entscheidet.

Literatur

Verwendete Literatur
1. Papadhopulli, I., und N. Frasheri. 2015. Today´s Challenges of Symbolic Execution
and Search Based Algorithms for Automated Structural Testing. Open Journal of
Communications and Software.

Weiterführende Literatur
2. Osterhage, W. 2015. Windows-Kompendium, AL-34. Kissing: WEKA Fachverlag.
Erhaltungszahlen: ein neuer Ansatz
in Soft Computing
4

4.1 Einleitung

In diesem Kapitel wird gezeigt, dass ein mathematisches Ergebnis, be-


zogen auf seine Nützlichkeit im Rechenumfeld eines Computers, sowohl
vom Typ einer mathematischen Operation selbst als auch von der relati-
ven Größe der Input-Parameter (deren Wert) abhängt. Um die Bedeutung
dieser Annahme zu illustrieren, wird das Konzept der „Erhaltungszah-
len“ eingeführt. Erhaltungszahlen sind nützlich, um jede Art von numeri-
schen Operationen in drei unterschiedliche Kategorien zu klassifizieren –
in Abhängigkeit vom Typ einer Operation und der relativen Größe des
numerischen Inputs.
Die Formulierung des Theorems von den Erhaltungszahlen führt di-
rekt zum Konzept arithmetischer Effizienz. Effizienz bezieht sich auf den
Typ einer Operation und seinen Input. Es gibt Beziehungen zwischen der
Effizienz einer einzelnen numerischen Operation und ganzen Operations-
sequenzen. Sowohl Effizienz als auch Genauigkeit werden formalisiert
und zueinander in Beziehung gesetzt. Daraus ergibt sich die Auswahl
von Erhaltungszahlen. Es werden einige praktische Beispiele aufgezeigt,
um das Konzept zu illustrieren. Und schließlich wird das Theorem von
den Erhaltungszahlen als neuer Ansatz der Verneinung des „tertium non
datur“ in logischen Systemen vorgestellt.
Sowohl arithmetische Effizienz und das Genauigkeitstheorem als auch
die Verneinung des tertium non datur bieten Potentiale für die Opti-
© Springer-Verlag Berlin Heidelberg 2016 45
W. W. Osterhage, Mathematische Algorithmen und Computer-Performance
kompakt, IT kompakt, DOI 10.1007/978-3-662-47448-8_4
46 4 Erhaltungszahlen: ein neuer Ansatz in Soft Computing

mierung von Anwendungen und Systemen: erstere, um den Durchsatz


technisch-wissenschaftlich hoch-komplexer Programme zu beschleuni-
gen, letztere als Basis für fuzzy-ähnliche Logiken beim Design von Sys-
tem-Architekturen oder Chips.

4.2 Berechnungen und Beobachtungen

Klassische mathematische Berechnungsverfahren sollen praktikable, ex-


akte und eindeutige Ergebnisse erzeugen, die auf Regeln basieren, die
innerhalb eines bestimmten axiomatischen Systems relevant sind. Mit
der Einführung der fuzzy logic verwischte sich sozusagen dieses Bild et-
was. Von da an bestand der Sinn einer Operation nicht so sehr darin, ein
eindeutiges Ergebnis zu erhalten, sondern eines, welches später ausrei-
chen würde, einen Teil einer Wirklichkeit zu beschreiben.
In der Physik unterscheidet man zwischen Theorie und Experiment,
also zwischen berechneten und beobachteten Ergebnissen. Beobachtung
hat in der Mathematik offensichtlich keinen Platz mit vielleicht der einen
Ausnahme der Statistik. Aber es gibt nichts, was uns daran hindern soll-
te, den Effekt mathematischer Operationen bezogen auf die numerischen
Werte, die sie beeinflussen, zu untersuchen. In diesem Sinne findet die
„Beobachtung“ weder auf einzelne Operationen oder einzelne Werte,
sonder auf die Kombination beider statt.
Sei Z irgendein mathematischer Operator (wie z. B. +, sin, ln etc.) und
p irgendeine Zahl, dann ist die Entität unseres Interesses [Zp]. Unsere Be-
obachtung folgt der Änderung des ursprünglichen Input-Wertes p durch
die Operation Z – die Input-„Historie“. In diesem Sinne könnte man Z als
ein Experiment verstehen, das an einer bestimmten Input-Quantität aus-
geführt wird, und das berechnete Ergebnis wäre dann der Output dieses
bestimmten mathematischen Experiments, welches ausgeführt worden
ist. Indem wir annehmen, dass der Input-Wert Informationen mit sich
führt (sein absoluter Wert, sein Vorzeichen etc.), dann sagt uns unsere
Beobachtung, was von dieser ursprünglichen Information nach der Ope-
ration noch übrig geblieben ist: wurde diese Information auf irgendeine
Weise erhalten, wurde sie nur geringfügig verändert oder ging sie voll-
ständig verloren?
4.2 Berechnungen und Beobachtungen 47

Tab. 4.1 Kategorisierung für Addition und Subtraktion


Kombination Kategorisierung
n n n+
n +  n 2 0 0
n +  n+ 2 0 0
n +  n 1 0 0
n+ n 0 1 0
n +  n+ 0 2 0
n+ +  n+ 0 0 1

Das kann man an folgendem Beispiel erläutern:


Man stelle sich drei Zahlen vor, von denen die eine sehr klein ist (z. B.
1010 ) (n ), eine andere mit mittlerer „Reichweite“ (zwischen 1 und
100) (n) und eine dritte sehr große (z. B. 1010 ) (n+ ). In diesem Gedan-
kenexperiment soll die Größenordnungsverteilung relativ gleichmäßig
sein, um die argumentative Rechtfertigung für eine Zweigruppenauftei-
lung in eine einzelne extreme Zahl und zwei nahe beieinander liegende
Gegenstücke auszuschließen. In unserem Beispiel wollen wir anfänglich
nur Addition (Subtraktion) und Multiplikation (Division) betrachten. Das
führt für jede Operation zu sechs möglichen Kombinationen. Wir werden
die Ergebnisse der Operationen kategorisieren. Wir werden einer Ope-
ration „0“ zuordnen, wenn keine spürbare Änderung beobachtet wird,
„1“, wenn eine deutliche Änderung stattgefunden hat, und „2“ für eine
vollständige Änderung der Größenordnung. Die Kombinationen und ihre
Effekte sind in der Tab. 4.1 dargestellt.
Nimmt eine Zahl nicht an einer Operation teil, bekommt sie eine „0“.
Die Tab. 4.2 zeigt das Gleiche für Multiplikation und Division.

Tab. 4.2 Kategorisierung für Multiplikation und Division


Kombination Kategorisierung
n n n+
n x/ n 1 2 0
n x/ n+ 2 0 2
n x/ n 2 0 0
n x/ n 0 1 0
n x/ n+ 0 2 1
n+ x/ n+ 0 0 2
48 4 Erhaltungszahlen: ein neuer Ansatz in Soft Computing

4.3 Die Wirtschaftlichkeit von Berechnungen

Es gibt viele Anwendungen in der Wissenschaft und Technik, die ihre Er-
gebnisse nicht durch eine Verkettung rein analytischer mathematischer
Operationen gewinnen können. In der Praxis sind oft nicht alle erfor-
derlichen Input-Informationen vorhanden, oder die Operationen selbst
erfordern eine unverhältnismäßig hohe Computer-Leistung, oder es gibt
keine arithmetischen Lösungen. Das hat zur Einführung der fuzzy Funk-
tionen [1] und fuzzy sets [2] geführt.
Andererseits ist für numerische Berechnungen eine Anzahl von Al-
gorithmen entwickelt worden, um die genannten Probleme auf andere
Weise zu lösen, z. b. durch die Anfangswert-Methode, Taylor-Reihen
und das Runge-Kutta-Verfahren [3]. Die Herausforderung in diesen An-
sätzen für reale Berechnungen liegt in der Optimierung der notwendigen
Rechenschritte, um einen Kompromiss zu finden zwischen genauen Er-
gebnissen und der dafür erforderlichen Computer-Leistung.
Um zum Überblick des vorhergehenden Abschnitts zurück zu kom-
men: offensichtlich gibt es einige [Zp], die wirtschaftlicher als andere
sind, in Abhängigkeit von einer konkreten Kombination Z mit p. Das
führt uns zu drei Fragen in Bezug auf praktische numerische Anwendun-
gen:

1. Besteht die Möglichkeit, Berechnungsketten dahin gehend wirt-


schaftlicher zu gestalten, indem man bestimmte Rechenschritte
auslässt?
2. Was wäre eine brauchbare Basis, um dieses Ziel zu erreichen?
3. Wie könnte man eine solche Basis formalisieren?

4.4 Erhaltungszahlen

Um die Fragen am Ende des vorherigen Abschnitts zu beantworten, füh-


ren wir einen neuen Begriff ein – den der „Erhaltungszahl“ mit den
möglichen Werten f0,1,2g. Mit einer solchen Erhaltungszahl Pi verhält
es sich ganz ähnlich wie mit einer Quantenzahl in der Atom- oder Kern-
physik: sie beschreibt einen Zustand und nicht einen berechneten oder
4.5 Definitionen 49

beobachteten Wert. Jedoch – wie später gezeigt wird – folgt die Logik
unter ihnen auch einer besonderen Arithmetik.
Ganz in Übereinstimmung mit der Kategorisierung in dem Beispiel in
Abschn. 4.2 bekommt die Erhaltungszahl den Wert „0“ für eine Opera-
tion, die keine signifikante Änderung hervorruft, „1“ für eine Änderung
innerhalb der bestehenden Größenordnung und „2“, wenn sich die Grö-
ßenordnung vollständig ändert.
Eine Erhaltungszahl sagt also etwas aus über eine spezifische mathe-
matische Operation im Zusammenhang mit bestimmten Größenordnun-
gen und über die Wirtschaftlichkeit einer bestimmten Operation [Zp],
über Informationsverlust oder Veränderung während eines Berechnungs-
Prozesses.

4.5 Definitionen

Für unsere weiteren Betrachtungen wollen wir zwei Begriffe definieren,


die für die Formalisierung der Erhaltungszahlen nützlich sein werden:
Genauigkeit und Effizienz.

4.5.1 Genauigkeit

Der Begriff „Genauigkeit“ ist weit verbreitet in der Statistik [4–6] und
wird in technischen und wissenschaftlichen Messungen verwendet. In
unserem Zusammenhang jedoch wird vorgeschlagen, ihn in ähnlicher
Weise auf die Ergebnisse mathematischer Berechnungen anzuwenden.
Man hätte auch den Begriff „Präzision“ nehmen können. Allerdings wä-
re der Begriff „Präzision“ irreführend gewesen, da Präzision einen wohl
definierten Wertebereich innerhalb enger Grenzen festlegen kann, ohne
dass alle betrachteten präzisen Ereignisse notwendigerweise überhaupt
genau zu sein hätten [7].
50 4 Erhaltungszahlen: ein neuer Ansatz in Soft Computing

Definition
Genauigkeit ist ein Attribut für einen Output-Wert, der die Ab-
weichung pc vom zugehörigen Input-Wert nach einer mathema-
tischen Operation beschreibt. Der Informationsgehalt einer nume-
rischen Entität kann als genau bezeichnet werden, wenn er einer
vorgegebenen Referenz entspricht. Die Referenz leitet sich von ei-
nem bestimmten mathematischen oder physikalischen System her.
Der Genauigkeitswert selbst stellt damit ein Maß für die Abwei-
chung von der Referenz dar.

Seien po der in Frage kommende numerischen Output-Wert und pr die


Referenz.
Damit po in Bezug zu pr als genau gilt, muss die Bedingung
jpr  po j  pc (1)
erfüllt sein – in unserem Zusammenhang: pr = p.
Die Genauigkeit einer Operation wird dadurch bestimmt, inwiefern
die Operation den Informationsgehalt eines numerischen Wertes erhält
oder nicht.

Definition
Eine Operation [Zp] ist genau, wenn es im Großen und Ganzen
den Input-Wert zu dieser Operation erhält. Sie ist weniger genau,
wenn die Information verändert wird (gleiche Größenordnung). Sie
ist vollständig ungenau, wenn der Informationsgehalt vollständig
verloren geht.

4.5.2 Effizienz

Es gibt nach wie vor Ansätze, die Effizienz mathematischer Modelle und
zugehöriger Programmierung zu verbessern [8, 9]. Jedoch liegt die Ziel-
richtung darin, bestehende Berechnungsverfahren und Modelle selbst zu
4.5 Definitionen 51

verbessern, um schnelleren Durchsatz und bessere Performance zu errei-


chen. Die Evaluierung der Effizienz einer Operation an sich bezogen auf
deren Argumente [Zp] ist bisher noch nicht Gegenstand einer Untersu-
chung gewesen.

Definition
Die Effizienz E ist ein Attribut einer mathematischen Operation als
ein Maß, welches die Erhaltung der Genauigkeit derselben Opera-
tion bezogen auf den Input beschreibt.

Von den Ingenieurwissenschaften her kommend könnte man E fol-


gendermaßen ausdrücken:

E D Output/Input mit 0 < E < 1 (II. Hauptsatz der Thermodynamik):

Je näher E an 1 kommt, desto höher ist die Effizienz eines Systems,


d. h. desto kleiner ist die Differenz zwischen Input und Output, wobei
Output immer kleiner ist als der Input. In unserem Zusammenhang je-
doch ist der Input ein numerischer Wert und der Output ein numerischer
Wert nach einer Operation [Zp]. Aus diesem Grunde kann E tatsächlich
> 1 oder sogar  1 werden. Deshalb ist die folgende Definition für unse-
re Zwecke hilfreich:
jp0  pj
ED1 (2)
p0 C p
mit p als Input und p0 als Output.
Wir sind uns im Klaren darüber, dass diese Definition zwar konform
geht mit einer technischen Definition von Effizienz, aber nicht der An-
schaulichkeit entspricht, die wahrscheinlich einen Zusammenhang zwi-
schen Effizienz und der Stärke der Auswirkung einer Operation Z auf
eine Zahl vermutet.
52 4 Erhaltungszahlen: ein neuer Ansatz in Soft Computing

4.6 Beziehungen

Die folgenden Beziehungen zwischen Genauigkeit, Effizienz und Er-


haltungszahlen werden hergestellt, um ein formales Modell bzgl. der
Kategorisierung für verschiedene [Zp] zu erhalten.

4.6.1 Genauigkeit und Effizienz

Mit (1) und (2) erhalten wir:

pc
E1 (3)
p0 C p

Eine Operation erhält Genauigkeiten, wenn diese Bedingung erfüllt


ist; sie wird dann mit der Effizienz E durchgeführt. Die Effizienz ei-
ner Berechnung ist wiederum ein Maß für die Genauigkeit derselben
Operation bezogen auf die Erhaltung letzterer, was den teilnehmenden
numerischen Wert betrifft. Das betrifft alle positiven Zahlen.
Für p0  0 und für alle reellen Zahlen R muss die Effizienz-Glei-
chung folgendermaßen erweitert werden:

jjp0 j  jpjj
ED1 (4)
jjp0 j C jpjj

4.6.2 Genauigkeit, Effizienz und Erhaltungszahlen

Um unsere Kategorisierung durch Erhaltungszahlen auszudrücken,


schlagen wir Folgendes vor:

Für p Š p0
E = 1: Genauigkeit ist hoch.
pc;0 Š 0

PD0 (5)
4.6 Beziehungen 53

Für p  p0
E = 0: Genauigkeit ist niedrig.
pc;0 ) 1

PD2 (6)

Für p ¤ p0 < 10 p, aber nicht die Bedingung (1) erfüllend:


1 < E < 0 Genauigkeit ist mittel.
0 < pc;0 < 1

PD1 (7)
Diese Definitionen, besonders diejenige für P = 1, sind weich und kön-
nen jederzeit je nach Art der Anwendung angepasst werden. Hier eine
Alternative:

Für 1 < E > 0,9 und pc;0  0;18 p

PD0 (8)

Für 0;5 jpj < jp0 j < 5 jpj

PD1 (9)

mit 0,9 > E > 0,6 und 0;18 p  pc;0  0;5 p und
0,9 > E > 0,3 und 0;18 p  pc;0  4 p

Für jp0 j > jpj;


mit 0,6 > E > 0 und jp0 j < jpj und
0,3 > E > 0 und jp0 j > jpj

PD2 (10)
Dadurch wird unsere Definition von oben gekennzeichnet: Effizienz
ist ein Maß für die Erhaltung von Genauigkeit, d. h. für die Erhaltung
des Informationswertes einer Zahl durch eine Operation – und kein Maß
für die Wirkung einer Operation selbst. Tatsächlich führt die Effizienz
der Wirkung einer Operation genau zu einer Minderung bezogen auf die
Erhaltung des Informationswertes.
54 4 Erhaltungszahlen: ein neuer Ansatz in Soft Computing

4.7 Beispiele

Tab. 8 im Anhang zeigt einige Beispiele mit mathematischen Operatio-


nen und deren Effekt bezogen auf den Informationswert numerischer
Entitäten in Abhängigkeiten von Werteintervallen (die Werte sind durch
Interpolation ermittelt worden aus Tabellen von Bronstein et al. [10]).
Die Intervalle sind bestimmt worden über die Effizienzkriterien aus Gl. 5
bis 7.

4.8 Verkettungen

Bis hier haben wir lediglich eine einzelne Operation Z betrachtet. Bei
großen numerischen Anwendungen kann jedoch eine lange Folge von
Operationen stattfinden. Es gibt offensichtlich Beziehungen zwischen
individuellen Operationen mit ihren Effizienzen, Genauigkeiten und Er-
haltungszahlen – und zwar bezogen auf eben diese individuellen Opera-
tionen innerhalb einer Kette von Operationen, aber auch bezogen auf die
komplette Berechnungskette mit ihrer konsolidierten Effizienz, Genau-
igkeit und Erhaltungszahl. Im Folgenden schlagen wir einige nützliche
Definitionen vor, die dazu dienen können, die Erhaltung des Informati-
onsgehalts von solchen kombinierten Operationen zu bewerten.
Sei i die Anzahl von hintereinander folgenden Operationen, dann ist
P
Ei
i
Em D (11)
i
die mittlere Effizienz der Verkettung, wobei Ei die jeweils individuelle
Effizienz jeder einzelnen Operation ist.
Wenn Et die gesamte oder totale Effizienz der Verkettung am Ende
aller Operationen ist, dann ist

Et
DT (12)
Em
4.8 Verkettungen 55

die Transparenz der gesamten Operationskette, also das Verhältnis von


Gesamteffizienz zur Durchschnittseffizienz.
Ei
D Er (13)
Em
mit Er der relativen inkrementalen Effizienz als Verhältnis der individu-
ellen Effizienz zur Durchschnittseffizienz.
Ei
D Ef (14)
Et
mit Ef der fraktionellen Effizienz als Verhältnis jeder individuellen Effi-
zienz zur Gesamteffizienz am Ende jeder Berechnungsverkettung.
Diese Definitionen können nützlich sein, wenn man groß angelegte
Anwendungen modellieren möchte, um eventuell die Berechnungsse-
quenzen zu modifizieren. Andererseits ist es auch möglich, einer Ver-
kettung selbst eine Erhaltungszahl zuzuweisen.
Nimmt man Operationen mit P = 0 wie z. B. die Addition kleiner Zah-
lenwerte zu einem sehr großen, dann kann man die Operation eigentlich
vernachlässigen. Wenn aber innerhalb einer Verkettung Operationen in
einer Schleife eines Computerprogramms stattfinden, und die Anzahl der
Rechenschritte führt zu einem Ergebnis, welches zu einer Erhaltungszahl
von P = 1 oder sogar P = 2 führt, gilt die Vernachlässigung nicht mehr.
Dann haben zwei parallele Prozesse stattgefunden:

 individuelle Abfolgen in inkrementalen Schritten bis der Endwert er-


reicht wurde und
 eine Abfolge von Sprüngen, jedes Mal wenn ein entsprechendes Kri-
terium erreicht wurde, das zu einem Übergang von Pi zu Pi+1 führte.

Wenn E = const. = 1 und anfänglich P = 0 und p D p0 C np, wobei n


irgendeine Anzahl von Rechenschritten bedeutet, dann ist die Effizienz
am Sprungpunkt für pi ! piC1 , die „Sprungeffizienz“
ˇ ˇ ˇˇ
ˇjp0 j  ˇp0 C nj pˇˇ
Ej D ˇ ˇ ˇˇ (15)
ˇjp0 j C ˇp0 C nj pˇˇ

mit nj die Anzahl ausgeführter Rechenschritte.


56 4 Erhaltungszahlen: ein neuer Ansatz in Soft Computing

4.9 Logik

Genauso wie die Fuzzy Theorie ihre eigene Logik gegenüber der Bool-
schen Logik anwendet, gründet auch die Theorie der Erhaltungszahlen
auf ihrer eigenen Logik. Wogegen die Boolsche Logik klar dem Prinzip
„tertium non datur“ folgt, d. h. sie nur zwei Wahrheitszustände zulässt
(s. Tab. 4.3 und 4.4), bricht Fuzzy Logik mit dieser Regel, indem sie
eine unbegrenzte Anzahl von Wahrheiten zulässt. Zudem gab es in der
Vergangenheit eine Reihe von Ansätzen, die drei oder mehr dezidierte
Wahrheitszustände einführten [11].
In unserem Falle betrachten wir drei Möglichkeiten von Wahrheit,
wie man es ja bei drei möglichen Erhaltungszahlen erwarten kann (s.
Tab. 4.5). Wahr und falsch sind offensichtlich für P = 0 und P = 2, wäh-
rend die Bedeutung von P = 1 sich ändern kann. Davon ausgehend kann
die Erhaltungszahlarithmetik konstruiert werden (s. Tab. 4.6 und 4.7).

Tab. 4.3 Boolsche Logik (Konjuktion)


^ 0 1
0 0 0
1 0 1

Tab. 4.4 Boolsche Logik (Disjunktion)


_ 0 1
0 0 1
1 1 1

Tab. 4.5 Logische Werte


Erhaltungszahl Logischer Wert
0 Wahr
1 Wahr(2)/falsch(0)
2 Falsch
4.10 Anwendungen 57

Tab. 4.6 Logische Operation (Konjunktion)


^ 0 1 2
0 0 0 0
1 0 1 1
2 1 1 2

Tab. 4.7 Logische Operation (Disjunktion)


_ 0 1 2
0 0 1 2
1 1 1 2
2 2 2 2

4.10 Anwendungen

Das vorgestellte Zahlentheorem könnte in verschiedenen Anwendungs-


bereichen zur Geltung kommen. Der wichtigste dabei ist die Optimierung
von rechenintensiven Programmen, also umfangreichen numerischen
Anwendungen. Durch den Einsatz von Rechenfiltern können Computer-
Ressourcen geschont werden. Indem man Anwendungen entsprechend
gestaltet und deren Berechnungsschritte mit Hilfe eines Erhaltungszah-
lenfilters evaluiert, kann man unter Umständen ausgesuchte Berech-
nungsstränge überspringen (s. Abb. 4.1).
Der Funktionsfilter könnte so aufgebaut sein wie in Tab. 4.8 im An-
hang. Weiter Anwendungsfelder könnten sein:

 Datenbank-Zugriffsberechnungen,
 Chip-Design unter Verwendung der Erhaltungszahlenlogik.
58 4 Erhaltungszahlen: ein neuer Ansatz in Soft Computing

Abb. 4.1 Funktionsfilter

4.11 Nomenklatur

Z irgendein mathematischer Operator


E Effizienz
Pi Erhaltungszahl
p irgendeine Zahl
po Output Wert
pr Referenz Wert
pc Genauigkeit
Em mittlere Effizienz
T Transparenz
Er relative inkrementale Effizienz
Ef fraktionelle Effizienz
A Anhang 59

A Anhang

Tab. A.1 Erhaltungszahlen für bestimmte Zahlenbereiche verschiedener Funktionen


Operation Wertebereich p Erhaltungszahl P
log10 p>1 2
ln p > 100 2
e 0,11p3,5 1
p3,5 2
p
2 0,995p1,004 0
1,004p < 10 1
p10 2
sin 0,52 < p < 1 1
cos 0,52 < p < 1,05 1
arc p=0 0
p¤0 2
tan 0,52 < p < 1,05 1
cot 0,52 < p < 1,05 1
arctan 10 > p > 1 1
p > 10 2
arcsin (außer für p!0) 1
arccos 1
arcctg 10 > p > 1 1
p > 10 2
sh 4>p>1 1
p>4 2
th 1 < p < 10 1
p > 10 2
 p=1 0
sonst 1
p1,6 2
Bessel Functions J0 p0,8 0
0,8p0,2 1
2,0p0,8 1
p2,0 2
J1 2
60 4 Erhaltungszahlen: ein neuer Ansatz in Soft Computing

Tab. A.1 (Fortsetzung)


Operation Wertebereich p Erhaltungszahl P
Y0 p0,2 2
0,6p0,2 1
p0,6 2
Y1 p0,35 2
1,2p0,35 1
p1,2 2
I0 p0,2 2
4,9p0,2 1
p4,9 2
I1 p0,4 2
2,5p0,4 1
p2,5 0
5,0p2,5 1
p5,0 2
K0 p0,3 2
0,9p0,3 1
p0,9 2
K1 p > 1,8 2
0,8p1,5 1
p0,8 0
p1,5 2
Legendre Polynome P2 p0,1 2
0,3p0,1 1
0,35p0,3 0
0,5p0,35 1
0,8p0,5 2
0,99p0,8 1
p1,0 0
P3 p0,03 2
0,3p0,03 1
0,35p0,3 0
0,4p0,35 1
0,49p0,4 0
0,7p0,49 1
0,9p0,7 2
0,99p0,9 1
p1,0 0
A Anhang 61

Tab. A.1 (Fortsetzung)


Operation Wertebereich p Erhaltungszahl P
P4 p0,07 2
0,2p0,07 1
p0,2 0
0,24p0,2 1
0,5p0,24 2
0,8p0,5 1
0,95p0,8 2
0,99p0,95 1
p1,0 0
P5 p0,04 2
0,3p0,04 1
0,37p0,3 0
0,43p0,37 1
0,55p0,43 2
0,75p0,55 1
0,99p0,98 2
p1,0 0
P6 p0,06 2
0,16p0,06 1
p0,16 0
0,19p0,16 1
0,98p0,65 2
0,999p0,98 1
p1,0 0
P7 p0,03 2
0,26p0,03 1
p0,26 0
0,33p0,26 1
0,52p0,33 2
0,6p0,52 1
0,99p0,6 2
p1,0 0
! 2p1 0
3p > 2 1
p>3 2
62 4 Erhaltungszahlen: ein neuer Ansatz in Soft Computing

Literatur
1. Mayer, Andreas et al. 1993. Fuzzy Logic. München: Addison-Wesley.
2. Klir, George J., und Bo. Yuan. 1995. Fuzzy Sets and Fuzzy Logic
3. Butcher, J.C. 1987. The Numerical Analysis of Ordinary Differential Equations:
Runge-Kutta and General Linear Methods
4. Weisstein, Eric W. “Accuracy”, from MathWorld – a Wolfram Web Resource.
http://mathworld.com/Accuracy/html
5. Gililisco, Stan, und Norman H. Crowhurst. 2007. Mastering Technical Mathema-
tics. Columbus, USA: McGraw-Hill Professional.
6. Taylor, John Robert 1997. An Introduction of Error Analysis: The Study of Un-
certainties in Physical Measurements. Science Books, S. 128–129.
7. Clamson University, Physics Lab Tutorial: “Accuracy & Precision”, Dept. of Phy-
sics & Astronomy, South Carolina
8. Schrijver, Alexander 2003. Combinatorical optimization. Berlin: Springer.
9. Argyros, Ioannis K. 2000. Advances in the Efficiency of Computational Methods
an Applications. Singapur: World Scientific Publishing Co..
10. Bronstein et al. 2005. Taschenbuch der Mathematik. Frankfurt am Main: Verlag
Harri Deutsch.
11. Kreiser, Lothar et al. 1990. Nicht-klassische Logik. Berlin: Akademie-Verlag.
Sprungtransformationen 5

5.1 Einleitung

Zahlenräume sind bekannt aus der Mathematik und Physik (Eulersche


Zahlenebene, Hilbert-Raum). Zahlen werden Symbole zugeordnet: 1 für
„eins“, 15 für „fünfzehn“. Symbole stehen für Zahlenwerte. Man kann
unterscheiden zwischen Werteräumen und Symbolräumen. In unserem
Dezimalsystem decken sich Symbol- und Werteräume. In den in Com-
putern genutzten Zeichen- oder Symbolräumen ist das anders:
Binärsystem mit nur zwei Symbolen 0 und 1:

„fünf“ ) 101

Hexadezimalsystem mit 16 Symbolen:

„zwölf“ ) C

Man nennt solche Zuweisungen auch Transformationen. Der Begriff


„Transformation“ wird gebraucht, um eine Zahlenumwandlung von einer
Dezimalbasis zu einer Nicht-Dezimalbasis oder von irgendeiner Nicht-
Dezimalbasis zu einer anderen Nicht-Dezimalbasis zu beschreiben, ähn-
lich wie die Umwandlung von dezimal nach binär oder hexadezimal.
„Sprung“-Transformationen beziehen sich in diesem Zusammenhang auf
einen Trigger-Wert, bei dem eine solche Transformation innerhalb ei-
© Springer-Verlag Berlin Heidelberg 2016 63
W. W. Osterhage, Mathematische Algorithmen und Computer-Performance
kompakt, IT kompakt, DOI 10.1007/978-3-662-47448-8_5
64 5 Sprungtransformationen

ner Zahlenfolge geschieht. Die hier diskutierten Transformationen fol-


gen einer Sequenz von Basis-Änderungen innerhalb ein und desselben
Transformationstyps in Abhängigkeit von Regeln, die durch den Trigger
vorgegeben werden.
Zunächst wird das Konzept der Sprungtransformation selbst erläutert,
um dann einen besonderen Transformationstyp vorzustellen, bei dem
der Trigger auf einem n-Tupel von Zahlen basiert. Für diese besonde-
ren Transformationen wird eine Reihe von Regeln eingeführt, die zu-
nächst willkürlich erscheinen, tatsächlich auch durch andere ähnliche
ersetzt werden könnten. Wie dann später gezeigt wird, würden die Kon-
sequenzen eines modifizierten Ansatzes allerdings dieselben sein. Die
Regeln selbst führen zu bestimmten Charakteristika von n-Tupel Trig-
gertransformationen, die sehr harmonisch aussehen, aber logisch zu er-
klären sind. Danach werden diese Transformationen korrekt formalisiert,
wobei man erkennt, dass sie einem zirkulären Algorithmus folgen. Nach-
dem die zugehörigen grafischen Darstellungen erörtert werden, werden
die Beziehungen zwischen Transformationen unterschiedlicher n-Tupel-
Trigger untersucht. Diese haben Auswirkungen auf mögliche praktische
Anwendungen.
Danach werden die n-Tupel-Trigger durch willkürliche Trigger er-
setzt. Das führt zu unterschiedlichen Transformationen, bei denen aller-
dings einige Chrakteristika erhalten bleiben. Eine weitere Untersuchung
betrifft dann die Beziehungen zwischen irgendwelchen Triggertransfor-
mationen. Das führt zu weiteren Spekulationen über mögliche Anwen-
dungen.
Die in unserem Kontext interessanteste Anwendung könnte die Ar-
chitektur von Hauptspeicher-Adressräumen sein, in denen sich überlap-
pende, nicht interferierenden Adressfelder befinden, deren Adressierung
über Zahlenräume erfolgt, die bestimmten Transformationen zugeordnet
werden. Hinzu kommen noch mögliche andere Anwendungsfelder au-
ßerhalb unseres eigentlichen Interessensgebietes, wie z. B. in der Kryp-
tografie. Solche und andere Aspekte werden noch kurz gestreift.
5.2 Sprungtransformationen 65

5.2 Sprungtransformationen

In diesem Kapitel bedeutet „Transformation“ ein Wechsel der nume-


rischen Präsentation eines Wertes von einer Basis zu einer anderen –
genauso wie die Konversion vom Dezimalsystem auf ein binäres. Wie ge-
zeigt werden wird, geht man zunächst von der Dezimalbasis aus, solange,
bis ein Trigger aktiv wird, wenn eine vorgegebene Bedingung erreicht
wird. Dann wird ein „Sprung“ zu einer anderen Basis ausgeführt. Die
Konversion zu dieser neuen Basis setzt sich weiter fort, solange, bis eine
nächste wohl definierte Bedingung erfüllt ist, auf Grund derer der nächs-
te Sprung zu einer anderen Basis stattfindet und so weiter. Bedingungen
und Sprungfolgen sind verbunden durch vorgegebene Regeln und kön-
nen berechnet werden.

5.3 n-Tupel Transformationen

Der Begriff n-Tupel beschreibt die folgende Art von Zahl:

Nn D an an1 an2 : : : a1 a0 ; mit an D an1 D an2 D : : : a1 D a0 ;

wobei ai eine einzelne Ziffer zwischen 1 und 8 bedeutet (die Begründung,


warum auf 9 verzichtet wird, wird weiter unten klar werden).

Beispiele: 444, 55, 7777 usw.

5.3.1 Definitionen und Regeln

Immer, wenn für eine gegebene Ziffer k zwischen 1 und 8 eine n-Tupel-
Konfiguration erreicht wird, sodass

Nk D kn kn1 kn2 : : : k1 ko mit Nk  k1 ko D 11 k; (1)

findet eine Größenordnungsänderung – ein Sprung – zu einer (dezima-


len) Basis der kn+1 en Größenordnung entsprechend (k + 1)n2 (11k + 1)
(dezimal) bzw. 10n (transformiert) statt.
66 5 Sprungtransformationen

Tab. 5.1 Korrespondenztabelle


Dezimal Transformiert
1 1
2 2
... ...
21 21
22 22
23 100
24 101
... ...
44 121
45 122
46 200
47 201
... ...
67 221
68 222
69 1000
70 1001
... ...

Beispiel:
k = 2. Die Tab. 5.1 zeigt, was passiert.

Für die weitere Diskussion ist die folgende Definition nützlich:

(a) Ein Sprung wird als „Hauptsprung“ bezeichnet, wenn er durch eine
Größenordnungsänderung getriggert wird (22!100).
(b) Ein Sprung wird als „Nebensprung“ bezeichnet, immer dann, wenn
er innerhalb derselben Größenordnung getriggert wird (122!200).

Also, die ersten 22 Zahlen sind dezimal basiert. Nach dem ersten
Hauptsprung basiert die Ziffer der nächsten transformierten Zahl auf der
Basis 23. Diese Basis wird beibehalten, bis die transformierte Zahl 222
erreicht wird, die auf 1000 getriggert wird, mit Basis für die erste Zif-
fer 69. Im Ergebnis erhält man eine Zahl, in der jede Ziffer eine andere
5.3 n-Tupel Transformationen 67

Basis besitzt, anwachsend mit der jeweiligen Größenordnung, mit Aus-


nahme der unteren ersten zwei Ziffern, die dezimal basiert bleiben.
Die oben genannte Regel ist eingeschränkt. Die n-Tupel-Bedingung
ist eine geschlossene, d. h. sie wird immer nach vorwärts angewandt von
der letzten Ziffer aufwärts. Die Fälle, in denen eine n-Tupel-Folge ir-
gendwo zwischen der ersten und der letzten Ziffer auftaucht, zählen nicht
als Sprungkriterien. Dafür gibt es eigentlich keinen Grund. Nur in unse-
ren weiteren Untersuchungen werden sie ausgelassen.

5.3.2 Charakteristika

Die n-Tupel-Transformation zeigt einige interessante Charakteristika.


Daraus lassen sich zwei Gesetze ableiten:

1. Wenn die Basis nach dem ersten Sprung von Nk gleich 11k + 1 ist,
dann kann man die nachfolgenden Basen als (11k + 1)(k + 1)n berech-
nen, mit n = 1, . . . , i.
Beispiel für k = 2: s. Tab. 5.2.
2. Beziehung zwischen transformierter Größenordnung und (k + 1)n :
Eine Basis sei (11k + 1)(k + 1)n , mit n = 1, . . . , i, dann ist die korre-
spondierende transformierte Größenordnung gegeben durch 10n+2 .
Beispiel für k = 2: s. Tab. 5.2.

Die Definitionen, Regeln und Charakteristika, die bisher angeführt


wurden, sind anwendbar auf jede Ziffer zwischen 1 < k < 9.

Tab. 5.2 Basis in Abhängigkeit von n


Basis (dezimal) Transformed n
23 100 0
69 1000 1
207 10.000 2
...
68 5 Sprungtransformationen

5.3.3 Formalisierungen

dezimaler Vorlauf: ld D 11 k (2)


transformierter Vorlauf: lt D 11 k (3)
dezimale Sprungdifferenz: Sdk D .ld C 1/.k C 1/ n
(4)
X
nC2
transformierte Sprungdifferenz: Stk D k 10 j (5)
jD1

transformierte Sprunghöhe: htk .Sk;n / D 10nC1 (6)


Differenz für Nebensprung: dmin D 11 k C 1 (7)
Differenz für Hauptsprung: dma j D .11 k C 1/Œ.k C 1/nC1  .k C 1/n 
(8)
Anzahl Nebensprünge zwischen Hauptsprüngen:
(9)
Jm D .k C 1/nC1  .k C 1/n

Sprungbedingung: Zj .k; n/ C 1 D 10nC1 k (10)


Die Gesamttransformation folgt einem genesteten Prozess. Das kann
man aus der Tab. 5.3 erkennen, wobei J ein Zähler ist.

Tab. 5.3 Genestete Gesamttransformation


Dezimal Nd = 0 Transformiert Nt = 0
A Nd = Nd + 1 . . . ld Nt = Nt + 1 . . . .lt
Nd = Nd + 1 Nt = 100; J = 1
+1 . . . ld +1 . . . lt
+11k + 1 +100; J = J + 1 < Jm ;
... ...
P j
nC2
Nd D .k C 1/nC1 .11 k C 1/ C 1 Nd D Stk D k 10
jD1
Zurück zu „A“ bis n erreicht ist
5.3 n-Tupel Transformationen 69

Anmerkung: eine Funktion, die auf sich selbst angewandt wird, heißt
genestete Funktion [1], kurz nest. Wenn
" #
X X
fa D m 10 C 1 dann ist
n
nest1 fa ; m 10 ; lt ;
n

n n
(11)
und nest2 Œnest1 ; m; k;
und nest3 Œnest2 ; i; n:

Wenn
fd D Nd C 1 dann ist nestd Œfd ; Nd ; z: (12)
Die Transformation kann dann geschrieben werden als:

nestd Œfd ; Nd ; z , nest3 .z/Œnest2 ; i; n: (13)

5.3.4 Beispiele

Alle Transformationen zwischen 1 < k8 sind berechnet worden bis zu


Nd = 106 . Tab. 5.4 beinhaltet die wichtigsten Sprung-Kriterien bis zu den
ersten drei Hauptsprüngen inklusive.
Die folgenden Grafiken (Abb. 5.1 bis 5.4) stellen Nd !Nt in der Rei-
henfolge k = 1, alle k = 1 . . . 8, k = 1 . . . 3, k = 6 . . . 8 dar.

Tab. 5.4 Sprung-Kriterien für die ersten drei Hauptsprünge


k n l = 11k dma1 h1 t dma2 h2 t dma3 h3 t
1 2 11 12 100 24 1000 48 10.000
2 3 22 23 100 69 1000 207 10.000
3 4 33 34 100 136 1000 544 10.000
4 5 44 45 100 225 1000 1125 10.000
5 6 55 56 100 336 1000 2016 10.000
6 7 66 67 100 469 1000 3283 10.000
7 8 77 78 100 624 1000 4992 10.000
8 9 88 89 100 801 1000 7209 10.000
70 5 Sprungtransformationen

Abb. 5.1 Sprungtransformation für k = 1

5.3.5 Zwischenbeziehungen

Nachdem Nd !Nt transformiert wurde, stellt sich die Frage, wie man ei-
ne Transformation Nki !Nkj ¤i beschreiben kann. Zunächst nehmen wir
an, dass m < k ist. Die gesuchte Transformation wäre dann Nk !Nm . Bis
Im sind beide Transformationen identisch, d. h. dezimal basiert. Danach
besteht Nk weiter auf dezimaler Basis bis 11k, wonach die Zahl dann
in die übliche Abfolge verfällt. Entsprechend der Transformationsgeset-
ze wird diese Abfolge gegen das Auftreten von k-Tupels geprüft. Man
wird sie niemals finden, da jedes m-Tupel immer kleiner sein wird als
irgendein korrespondierendes k-Tupel.
Der umgekehrte Fall betrifft Nm !Nk . Nm fällt in die entsprechen-
de Abfolge nach Im . Auf diese Weise wird die erste Bedingung für Ik
niemals erreicht, und eine direkte Transformation ist unmöglich. Der
tiefere Grund dafür liegt in der Tatsache begründet, dass Transforma-
5.4 Transformationen mit willkürlichen Triggern 71

Abb. 5.2 Sprungtransformationen für k = 1 bis 8

tionen stattfinden zwischen numerischen Abbildungen und nicht Werten.


Eine indirekte Transformation kann natürlich erreicht werden über einen
Zwischenschritt mit Dezimalwerten. Die Tatsache, dass Intertransforma-
tionen nicht stattfinden können, eröffnet Möglichkeiten für Anwendun-
gen, die u. a. mit dem Performance-Thema zusammenhängen, wovon
später die Rede sein wird.

5.4 Transformationen mit willkürlichen Triggern

Bisher haben wir Sprungtransformationen mit n-Tupel-Triggern unter-


sucht. Im nächsten Schritt werden wir als Sprung-Trigger eine beliebige
Folge von Zeichen in einer Zahl definieren, so wie:
Nr D arn arn1 : : : ari : : : ar2 ar1
mit wenigstens eine von den ari ¤arj ¤ai .
72 5 Sprungtransformationen

Abb. 5.3 Sprungtransformationen für k = 1 bis 3

5.4.1 Defnitionen und Regeln

Nach dem ersten Auftreten des Triggers findet ein Sprung statt, wie z. B.
in:
Nd D an an1 an2 : : : arn arn1 : : : ari : : : ar2 ar1 :
Der erste Sprung findet statt bei Ndf = arn arn1 . . . ari . . . ar2 ar1 , mit
einer Transformation nach Ntr = 10n+1 analog zu Id,t für n-Tupels. Danach
folgt eine Reihe von Nebensprüngen mit Vielfachen von Ntf , während Nd
Ir -mal für jedes Vielfache von Ntf bis zum nächsten Hauptsprung hoch
gezählt wird.
Diese Bedingung wird dargestellt in der Tab. 5.5.
5.4 Transformationen mit willkürlichen Triggern 73

Abb. 5.4 Sprungtransformationen für k = 6 bis 8

Tab. 5.5 Bedingungen für willkürliche Trigger


Variable Dezimal Transformiert
Zahl rd = 10n an + 10n1 an1 . . . + rt = 10n an + 10n1 an1 . . . + 10a1
10a1 + a0 lr + a0 lr
Volauf/Neben- lr lr
sprung-Diffe-
renz  
Hauptsprung n;
 nC1 !  rn an C an 10nC1 C 10 Mod anr10
n
n C1
Mod anr10
n
n C1

5.4.2 Beispiel

Sei Nd = 51. Die Tab. 5.6 zeigt die Entwicklung dieser Transformation.
Die Grafik (Abb. 5.5) zeigt die Ergebnisse. Auf den ersten Blick sieht
die Form ähnlich aus wie bei n-Tupel-Transformationen.
74 5 Sprungtransformationen

Tab. 5.6 Transformationsentwicklung mit Trigger 51


Dezimal Transformiert
1 . . . 51 1 . . . 51
52 100
152 200
+52 300
... ...
+52 ( = 5 × 52 = 260) 500
261 501
... ...
270 510
271 1000
... ...
540 1510
541 2000
... ...
1408 5100
1409 10.000

random 51
12000

10000
transformed

8000

6000 Reihe1

4000

2000

0
0 200 400 600 800 1000 1200 1400 1600
decimal

Abb. 5.5 Sprungtransformation mit einem willkürlichen Trigger


5.5 Inter-Transformationen 75

5.5 Inter-Transformationen

5.5.1 Beziehungen zwischen zwei willkürlichen Triggern

Es seien Nr1 und Nr2 zwei willkürliche Trigger. Die Transformation ge-
schieht von Nr1 ! Nr2 . Dann gelten folgende Regeln:

für Nr1 < Nr2 : eine Transformation ist nicht möglich;


für Nr1 > Nr2 : es sei Nr1 = 10n an + 10n-1 an-1 . . . + 10a1 + a0 und Nr2 =
10i bi + 10i-1 bi-1 . . . + 10b1 + b0

Dann ist eine Transformation Nr1 !Nr2 nur möglich, falls

10i ai C 10i1 ai1 C : : : 10a1 C a0  10i bi C 10i1 bi1 C : : : 10b1 C b0


(14)

5.5.2 Transformationen zwischen n-Tupel und


willkürlichen Triggern

Die Transformation Nk ! Nr ist möglich unter den folgenden Bedingun-


gen:

Nk < Nr
und
ak0 < k.

Eine Transformation Nr ! Nk ist nicht möglich.

5.6 Anwendungen

Obwohl es schwierig ist, alle möglichen praktischen Auswirkungen der


beschriebenen Transformationen vorher zu sagen, gibt es einige inter-
essante Felder, die sich anbieten. An dieser Stelle möchten wir lediglich
einige Möglichkeiten aufzeigen, ohne detaillierte technische Lösungen
vorzustellen.
76 5 Sprungtransformationen

5.6.1 Mengen und Adressräume

Für n-Tupel sei Kk=f1,8g Z, dann ist jedes K unendlich und gleichzeitig
geschlossen für ihre Mitglieder mit Kki 6 Kkj ¤i .
Im Falle von willkürlichen Zahlen sei Cr fZ  Kk g und ci 2Ci , dann
ist Ci 6 Cj , wenn ci > cj , und Ci Cj wenn ci < cj und die Bedingung (14)
erfüllt ist.
Somit stellen diese Zahlen sowohl für K und unter bestimmten Bedin-
gungen auch C unendliche Adressräume dar, die nicht miteinander inter-
ferieren. Solche Adressräume könnten genutzt werden, um ein und den-
selben Speicherbereich in einem Rechner virtuell aufzuteilen (Abb. 5.6).
Dadurch ließe sich Speicherbedarf bei vorgegebener Speichergröße opti-
mieren.

Abb. 5.6 Nicht-inter-


ferierende Adressräume
5.6 Anwendungen 77

5.6.2 Kryptografie

Eine kryptografische Transformation von Zeichen, z. B. Buchstaben ist


möglich über deren Position im Alphabet unter Zuhilfenahme eines
Schlüssels fki ,Li g, wobei Li die Länge einer Transformationsperiode für
einen bestimmten Wert von ki bedeutet. Der komplette Schlüssel würde
aus einer Gesamtsequenz von Variationen von Li und ki bestehen. Bei
Verschlüsselungen unter Verwendung von willkürlichen Triggern würde
der Schlüssel den Trigger und das entsprechende L oder die Sequenzen
daraus enthalten. Dezimalzahlen ließen sich direkt verschlüsseln, falls
sie zu Z gehören. Im Falle von Q wäre eine vorhergehende Multipli-
kation mit 10m erforderlich. Falls die sich ergebenden Zahlen zu groß
werden, könnte auf eine logarithmische Darstellung zurückgegriffen
werden.

5.6.3 Computerkunst

Gibt man die Resultate in Microsoft EXCEL © ein, und verarbeitet sie
anschließend in verschiedenen Darstellungsarten weiter, so erhält man
Grafiken wie in den Abb. 5.7, 5.8 und 5.9: Kreis, Ring, Netz.

5.6.4 Weitere Anwendungsgebiete

Weitere mögliche Kandidaten für die Anwendung der Sprung-Transfor-


mationen könnten sein:

 Skalierbarkeit und Selektierung elektromagnetischer Impulse,


 Quantenphysik und Quantenelektrodynamik; Hamiltonian als Trans-
formationssequenz,
 Neurologie und Neurophysik, Epileptologie, künstliche neuronale
Netzwerke.
78 5 Sprungtransformationen

Abb. 5.7 Kreisgrafik für


K=6

Abb. 5.8 Netzgrafik für


K=6
Literatur 79

Abb. 5.9 Ringgrafik für


K=6

Literatur
1. Mathematica, Wolfram Research, Inc., Champain, Illinois, USA
Sachverzeichnis

A Erhaltungszahl, 45, 48, 52


Adressraum, 76 Erhaltungszahlenfilter, 57
Analyse-Maschine, 33
Anfangswert, 48 F
Antwortzeit, 29 Fitnessfunktion, 41
Antwortzeitverhalten, 10 fuzzy Logik, 56
Anwendung, 27 fuzzy set, 48
Anwendungsperformance, 3, 6 fuzzy Theorie, 56

B G
Basis, 65, 67, 70 Genauigkeit, 49, 52
Batch, 15, 19 genetischer Algorithmus, 40
Betriebsmittel, 18 Grafik, 77
Betriebssystemparameter, 8 GUI, 11, 28, 36
Binärsystem, 63
H
Boolsche Logik, 56
Hardware, 9
BS2000, 17
Hardware-Parameter, 8
busy, 15
Hauptspeicher, 9, 22, 29
Hauptsprung, 66
C
Hexadezimalsystem, 63
Cache, 16, 23, 29
constraint solver, 37 I
CPU, 9, 15, 28 I/O, 16, 19, 21
idle, 15
D Interrupt, 24
Dezimalbasis, 63, 65
Durchsatzproblem, 13 J
Job, 13
E
Effizienz, 50, 52, 54 K
Ein-/Ausgabe, 9 Konfiguration, 5

© Springer-Verlag Berlin Heidelberg 2016 81


W. W. Osterhage, Mathematische Algorithmen und Computer-Performance
kompakt, IT kompakt, DOI 10.1007/978-3-662-47448-8
82 Sachverzeichnis

M Subroutine, 27
Mapping, 24 Suchlänge, 42
Memory Management, 16, 26 Swapping, 13, 24
Monoprozessor, 18 Symbol, 37, 63
Multiprozessor, 16 Symbolraum, 63
Multi-Programming, 18 Systemaufruf, 22
Mutation, 41 Systemprogramm, 19
Systempuffer, 24
N Systemtabelle, 5
Nebensprung, 66 System-Performance, 3
nest, 69
n-Tupel, 64, 67 T
Task, 15, 19
O Taylor-Reihe, 48
Online, 15, 19 Timesharing, 13
Optimum, 43 Transaktionscode, 29
Overhead, 15, 17, 25 Transaktionsrate, 13
Overlay, 24 Transformation, 63, 65, 70, 72, 75
Transparenz, 55
P Trigger, 63, 64, 75
Paging, 16, 19, 21, 24 Tuning, 13
Partition, 23
Patch, 10 U
Pfad-Explosion, 39 Upgrade, 10
Plattenspeicher, 9 User-Generator, 33
Priorität, 18
program analyzer, 37 V
Programmiersprache, 27 Verdrängung, 18
Programmstruktur, 7 Vererbung, 41
program-to-program-communication, 40 Verkettung, 54
Prozessor, 5, 22 Verschlüsselung, 77

R W
Rechenfilter, 57 Wahrheitszustand, 56
Rekombination, 41 Warteschlange, 19
Runge-Kutta-Verfahren, 48 Wartezustand, 15
Werteraum, 63
S
Speicher, 5, 76 Z
Sprungeffizienz, 55 Zahlenraum, 63
Sprung-Trigger, 71 Zwangsdeaktivierung, 26

Das könnte Ihnen auch gefallen