You are on page 1of 47

Seminararbeit im Studiengang

M.Sc. IT-Management and Information Systems


an der
Fachhochschule der Wirtschaft (FHDW)

Cloud Computing

Vorgelegt von:
René Büst

Prüfer:
Prof. Dr. Wilhelm Nüsser
Prof. Dr. Eckhardt Koch

Eingereicht am:
11. Oktober 2009
VERZEICHNISSE i

Inhaltsverzeichnis
Inhaltsverzeichnis I

Abbildungsverzeichnis III

1 Einleitung 1

2 Historische Entwicklung 3
2.1 Entwicklung des High Performance Computing . . . . . . . . . . . . . . 3
2.1.1 Supercomputer . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2.1.2 Cluster Computing . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.3 Grid Computing . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Entwicklung des Business Computing . . . . . . . . . . . . . . . . . . . 11
2.2.1 Utility Computing . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2.2 Service Bureaus . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.2.3 Application Service Provider . . . . . . . . . . . . . . . . . . . . 13
2.3 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

3 Eigenschaften & Hintergründe des Cloud Computing 16


3.1 Der Begriff der Cloud . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.2 Cloud Architektur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3 Typen der Cloud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3.1 Private Cloud . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.3.2 Public Cloud . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.3.3 Hybrid Cloud . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.4 Dienste in der Cloud . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.4.1 Infrastructure as a Service . . . . . . . . . . . . . . . . . . . . . 19
3.4.2 Platform as a Service . . . . . . . . . . . . . . . . . . . . . . . . 20
3.4.3 Software as a Service . . . . . . . . . . . . . . . . . . . . . . . . 20
3.5 Klassifikationen der Rollen in der Cloud . . . . . . . . . . . . . . . . . . 21
3.6 Nutzen durch Cloud Computing . . . . . . . . . . . . . . . . . . . . . . 22
3.7 Vorteile des Cloud Computing . . . . . . . . . . . . . . . . . . . . . . . 23
3.8 Nachteile des Cloud Computing . . . . . . . . . . . . . . . . . . . . . . 24
3.9 Aktuelle Anwendungsbereiche des Cloud Computing . . . . . . . . . . . 26
3.9.1 Prozessverarbeitung . . . . . . . . . . . . . . . . . . . . . . . . 26
3.9.2 Batch Prozessverarbeitung . . . . . . . . . . . . . . . . . . . . . 26
VERZEICHNISSE ii

3.9.3 Webseiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

4 Marktübersicht 28
4.1 Amazon Web Services . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2 GoGrid . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.3 Google . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.4 Salesforce.com . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

5 Fallbeispiel 31
5.1 Ausgangssituation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.2 Analyse der IT-Umgebung . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.3 Handlungskonzept . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
5.3.1 Einführungsphase . . . . . . . . . . . . . . . . . . . . . . . . . . 34
5.4 Vorteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
5.4.1 Kostenbetrachtung . . . . . . . . . . . . . . . . . . . . . . . . . 37
5.5 Nachteile . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
5.6 Reflexion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

6 Reflexion & Ausblick 39

Literatur 43
VERZEICHNISSE iii

Abbildungsverzeichnis
1 Der Gartner Hypecycle 2009 . . . . . . . . . . . . . . . . . . . . . . . . 1
2 Die historische Entwicklung des Cloud Computing . . . . . . . . . . . . 3
3 Grid Computing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
4 Application Service Provider . . . . . . . . . . . . . . . . . . . . . . . . 14
5 Cloud Computing - Architektur . . . . . . . . . . . . . . . . . . . . . . . 17
6 Die Hybrid Cloud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
7 Services im Cloud Computing . . . . . . . . . . . . . . . . . . . . . . . 19
8 Nutzerrollen im Cloud Computing . . . . . . . . . . . . . . . . . . . . . 21
9 Ausgangssituation der Spielwaren GmbH . . . . . . . . . . . . . . . . . 32
10 Handlungskonzept für die Spielwaren GmbH . . . . . . . . . . . . . . . 34
11 Einführungsphase der Migration in die Cloud . . . . . . . . . . . . . . . 35
12 Vergleich der Kosten von Google Apps Professional mit einer Microsoft
Exchange Lösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1 EINLEITUNG 1

1 Einleitung

Der Begriff Cloud Computing prägt seit nun mehr zwei Jahren das Bild der Informati-
onstechnologie um Dienste und Infrastrukturressourcen über das Internet zu vermieten.

Gartner sieht in Cloud Computing gar als den Hype 2009 - siehe Abbildung 1 - an
und prophezeit, dass es sich in den kommenden zwei bis fünf Jahren etabliert und die
Welt der Informationstechnologie grundlegend verändern wird.

Abbildung 1: Der Gartner Hypecycle 2009

Die Idee IT-Ressourcen zu mieten anstatt diese zu kaufen ist nicht neu und blickt auf eine
lange Geschichte zurück, wie diese Arbeit zeigen wird.

Cloud Computing verspricht kostengünstig und schnell IT-Ressourcen und Dienste


zu beziehen, was zunehmend von den Großen der Internetbranche sowie Anbietern
von Software as a Service Diensten, Hostingprodukten und Netz- und Infrastrukturen
vorangetrieben wird. Letztendlich ist jedes dieser genannten Angebote aber nur ein Teil
1 EINLEITUNG 2

dieses großen Puzzles. Nur die (Teil-)Kombination aller genannten Angebote führt am
Ende zum Cloud Computing.

Cloud Computing soll zu einer dauerhaften Verbesserung der Kostenstruktur durch


Kostenreduktion führen, indem die benötigten Leistungen nur nach Bedarf genutzt und
anschließend abhängig vom Verbrauch abgerechnet werden. Weitere Vorteile werden in
der nachhaltigen Produktivitätssteigerung und Flexibilität einer Organisation gesehen.
Aber auch die Anbieter von Cloud Computing Diensten können ihren Profit anhand
einer besseren Auslastung ihrer Ressourcen und die Nutzung von Skaleneffekten steigern.

Neben hellen existieren aber auch immer dunkle Wolken. Sicherheit, Datenschutz(!) und
Qualitätssicherung sind Themen denen sich Anbieter von Cloud Computing Diensten
stellen und Lösungen finden müssen. Des Weiteren macht Cloud Computing für die
Anbieter nur Sinn, wenn sie ihre Angebote, Abläufe und Prozesse standardisieren.
Stellt sich die Frage, ob Unternehmen bereit sind, sich ihre Geschäftsprozesse und die
IT-Infrastruktur bis ins kleinste Detail diktieren zu lassen und die Angebote der Anbieter
überhaupt den Anforderungen der Unternehmen entsprechen.

Aufbau der Arbeit

Die Arbeit beginnt im ersten Kapitel mit der historischen Entwicklung des Cloud Com-
puting und leitet daraus eine Definition des Begriffs ab. Das zweite Kapitel beschreibt
die grundlegenden Eigenschaften und zeigt den Hintergrund und die Terminologie um
im dritten Kapitel die derzeit größten Anbieter im Cloud Computing Markt vorzustellen.
Das Fallbeispiel im vierten Kapitel soll die Möglichkeiten aber auch die Gefahren des
Cloud Computing aufzeigen um am Ende im fünften Kapitel eine Bewertung sowie einen
Ausblick der Thematik vorzunehmen.
2 HISTORISCHE ENTWICKLUNG 3

2 Historische Entwicklung

Um eine Vorstellung davon zu bekommen wie Cloud Computing entstanden ist und eine
passende Definition des Begriffs zu finden, sollte zunächst ein Blick auf die historische
Entwicklung der dabei betroffenen Bereiche der Informationstechnologie (bis heute) ge-
worfen werden. Die Entwicklung zeigt, dass zwei separate Zeitstrahle siehe Abbildung
2, zum Cloud Computing führen. Unter der Betrachtung und Analyse dieser beiden Zeit-
strahle wird daraus am Ende eine Definition von Cloud Computing abgeleitet und Cloud
Computing somit ebenfalls technologisch eingeordnet.

Abbildung 2: Die historische Entwicklung des Cloud Compu-


ting

2.1 Entwicklung des High Performance Computing

Die historische Entwicklung beginnt mit der Betrachtung des Zeitstrahls der Entwicklung
des High Performance Computing (technologische Sicht), die von den Supercomputern,
über die Computercluster bis hin zum Grid Computing führt.
2 HISTORISCHE ENTWICKLUNG 4

2.1.1 Supercomputer

Supercomputer sind Hochleistungsrechner die auf eine sehr hohe Verarbeitungsleistung


ausgerichtet sind. Sie verfügen über ein Array von Prozessoren, die auf eine gemeinsame
Peripherie und einen gemeinsamen Hauptspeicher zugreifen können. Die Aufgaben
werden parallel auf mehrere Prozessoren verteilt und anschließend ebenfalls mit hoher
Parallelität abgearbeitet. Da das Array dabei aus mehreren tausend Prozessoren bestehen
kann, wird damit die Arbeitsgeschwindigkeit erhöht. Die Rechnerarchitektur eines
Supercomputers ist dabei speziell für eine bestimmte Anwendung angepasst, um die
höchstmögliche Verarbeitungsgeschwindigkeit zu erreichen. [Adeli]

In den 1970er wurden die ersten Supercomputer von der Firma Cray (benannt
nach dem Unternehmensgründer Seymour Cray) hergestellt. Der erste Supercomputer
bekam den Namen Cray-1 und verfügte über 250 MegaFLOPS. [WikiSup]

Welche Ziele werden mit Supercomputern verfolgt?

Der Wunsch aufwendige Abbildungen der Realwelt (Simulationen) und immer genaue-
re Vorhersagen und aussagekräftige Gesamtergebnisse zu liefern ist in der Vergangenheit
drastisch gewachsen. Hinzu kommt, dass Simulationen immer realitätsnaher werden und
die beiläufigen Neben- und Randbedingungen zunehmen. Damit u.a. solche umfangrei-
chen und hochparametrigen numerischen Probleme schnell gelöst werden können und
immer mehr komplexere Zusammenhänge mit einbezogen werden können, sind Systeme
mit extrem schneller und hoher Rechenleistung erforderlich. Für die Lösungen solcher
Problemstellungen kommen Supercomputer zum Einsatz. Typischerweise werden Super-
computer heute in den folgenden Bereichen eingesetzt.

• In der Klimaforschung zur Wettervorhersage.

• Für die Auswertung hochauflösender bewegter Bilder in Echtzeit.

• Für den Einsatz in Verteidigungssystemen als Zentrale Einheit.

• In der Festkörperphysik.

• In der Weltraumforschung.

• Zur Berechnung von Filmsequenzen.

• In den Bereichen der Simulations- und Crashtechnik.


2 HISTORISCHE ENTWICKLUNG 5

Wie zu erkennen ist, handelt es sich in den Beispielen um Bereiche, in denen komplexe
Systeme oder Teilsysteme untereinander stark verbunden sind. Diese Abhängigkeiten füh-
ren dazu, das Veränderungen in einem Teilsystem sich in der Regel auch parallel auf alle
weiteren vorhanden Systeme auswirken, was eine hohe Rechenleistungen voraussetzt.

2.1.2 Cluster Computing

Handelte es sich bei Supercomputern zu Beginn noch um Systeme mit spezieller Techno-
logie, werden heute in der Regel gängige Servertechnologien eingesetzt. Dabei werden
viele einzelne, in der Regel kostengünstige Server zu einem sogenannten Servercluster
vernetzt, um über die Rechenleistung eines Supercomputers zu verfügen.

Die Grundlagen des Cluster Computing legte Gene Amdahl als Computerarchitekt
bei IBM. In seinem 1967 veröffentlichten Paper zum Thema ’Parallel Processing’ stellte
er folgende These auf, die auch als Amdahl’s Law bezeichnet wird und als Basis für
Multiprozessor sowie Clustercomputer gilt.

Das Gesetz besagt, ’... wie sich der nicht parallelisierbare Anteil eines Programms
auf die Gesamtrechenzeit auswirkt ...’[AlLeOb]. Genauer bedeutet dies, dass die Ge-
schwindigkeitszunahme in erster Linie durch den sequentiellen Anteil des Algorithmus
beschränkt wird. Das ist darauf zurückzuführen, dass sich die Ausführungszeit nicht
durch Parallelisierung verkleinern lässt.[Amdahl]

Die ersten Ideen einen Computercluster aufzubauen stammen aus den Zeiten, in
denen auch die ersten Computernetzwerke aufgebaut wurden. Der Grundgedanke zum
Aufbau solcher Netzwerke bestand darin, Ressourcen in Form von Computersystemen
untereinander zu verbinden und damit einen quasi Computercluster aufzubauen. Durch
die Einführung der Paket vermittelnden Netzwerke im Jahre 1962 durch die Firma
RAND, wurde auf dieser Grundlage 1969 das ARPANET Projekt gegründet. Dieses
gilt als das erste Commodity-Netzwerk auf Basis eines Computercluster, in dem vier
unterschiedliche Computercenter miteinander verbunden wurden. Jedes dieser vier
Computercenter war für sich selbst wieder ein Computercluster, die aber nur autonom ar-
beiteten. Aus dem ARPANET wurde später das Internet, weshalb das Internet auch als die
’Mutter’ aller Computercluster gilt, aus dem Grund, das quasi alle Computerressourcen
inkl. aller bereits bestehenden Cluster zusammengeschlossen werden können.[WikiClus]
2 HISTORISCHE ENTWICKLUNG 6

Ein Computercluster beschreibt also eine meist große Anzahl von einzelnen mit-
einander vernetzten Computern, die dazu verwendet werden einzelne Teilaufgaben,
die zu einer Gesamtaufgabe gehören, parallel zu verarbeiten. Von außen betrachtet
wirkt ein Computercluster wie ein einzelnes System. Die jeweiligen Knoten sind dabei
unterneinander über ein schnelles Netzwerk verbunden. Durch den Aufbau solcher
Serverfarmen wird die Rechenkapazität und Verfügbarkeit deutlich gegenüber eines
einzigen Computers erhöht. Vor allem die Ausfallsicherheit eines solchen Computer-
cluster ist ein entscheidener Vorteil gegenüber eines einzelnen Computersystems. Fällt
innerhalb eines Clusterverbunds ein einzelnes System aus, hat das keinen direkten
Einfluss auf alle anderen beteiligten Systeme innerhaln des Clusters. Es wird damit also
eine Redundanz erzielt. Computercluster können am besten für die Verarbeitung von
Batch-Jobs eingesetzt werden, bei denen viele parallele Teilberechnungen durchgeführt
werden. Handelt es sich bei der Verarbeitung jedoch um Teilaufgaben, die im hohen
Maße synchronisiert werden müssen, sind Computercluster dafür nicht geeignet, da der
Kommunikationsoverhead zwischen den einzelnen Systemen den Performancegewinn,
der durch die parallele Verarbeitung entsteht, wieder relativiert. [BauMe]

Der erste kommerziel zu erwerbende Computercluster (ARCnet) wurde im Jahr


1977 von der Firma Datapoint vorgestellt. Mit dem sogenannten VAXCluster für ihr
VAX-System hatte die Firma DEC im Jahr 1983 den ersten richtigen Erfolg im Bereich
des kommerzielen Clustercomputing. [WikiClus]

Arten von Computercluster

Das Ziel des Cluster Computing ist die Bereitstellung einer sehr hohen Rechenleistung
bzw. einer besonders ausfallsicheren Rechnerumgebung. Von diesen Zielen ausgehend
werden verschiedene Arten von Computercluster und dadurch auch deren Einsatzfeld
definiert.

Bei Clustersystemen wird grundsätzlich zwischen homogenen und heterogenen Clustern


unterschieden. Homogene Cluster zeichnen sich dadurch aus, dass die jeweiligen
Computer, die dem Cluster angehören, alle das gleiche Betriebssystem und die gleiche
Hardware einsetzen. Computer, die zu einem heterogenen Cluster gehören, dürfen über
unterschiedliche Betriebssysteme und Hardware verfügen.
2 HISTORISCHE ENTWICKLUNG 7

Heutzutage werden drei Arten von Computercluster unterschieden und eingesetzt:

• Hochverfügbarkeit Cluster
Hochverfügbarkeit Cluster werden verwendet die Verfügbarkeit zu steigern und für
eine bessere Ausfallsicherheit zu sorgen. Aus diesem Grund darf die gesamte Hard-
ware als auch die Software eines solchen Cluster in keiner Weise über einen Single-
Point-of-Failure verfügen, da die Definition und der Zweck diesem wiedersprechen
würde. Im Fehlerfall werden die Dienste von dem defekten Host des Cluster auf
einen anderen Host automatisch übertragen. Einsatzgebiete solcher Clustersysteme
sind Bereiche, in denen eine Ausfallzeit maximal einige Minuten pro Jahr erlaubt.
Eine besondere Art von Hochverfügbarkeit Cluster sind die sogenannten ’stretched
Cluster’. In diesem Fall werden einzelne Hosts eines Cluster räumlich getrennt in
verschiedene weit voneinander entfernte Rechenzentren untergebracht. Kommt es
in einem der Rechenzentren zu einem nicht vorhersagbaren Problem, können die
Hosts des anderen Rechenzentrums vollständig die Aufgaben übernehmen.

• Load-Balancing Cluster
Load-Balancing Cluster werden dazu verwendet eine Lastverteilung auf mehrere
Computer zu ermöglichen. Aus der Benutzersicht steht ihm nur eine zentrale Einheit
gegenüber, die aber logisch gesehen aus mehreren vernetzten Systeme besteht. Um
die Leistung des gesamten Cluster zu erhöhen, werden nicht die einzelnen Hosts
für sich aufgerüstet, sondern ein zusätzlicher Host dem Cluster hinzugefügt. Ein-
satzbereiche sind Umgebungen, in denen die Anforderungen an die Rechenleistung
extrem hoch sind.

• High Performance Computing Cluster


High Performance Computing Cluster werden überwiegend dazu verwendet Be-
rechnungsverfahren durchzuführen, wobei die Berechnungen auf mehrere Hosts
verteilt werden. Hierbei werden zwei unterschiedliche Arten der Aufgabenvertei-
lung unterschieden. Eine Möglichkeit besteht darin, die Aufgaben in unterschied-
liche Pakete zu verteilen, die dann parallel auf mehreren Hosts ausgeführt werden.
Die andere Variante wäre, die Aufgaben auf die einzelnen Hosts direkt zu vertei-
len. Einsatzgebiete der High Performance Computing Cluster liegen überwiegend
in den wissenschaftlichen Bereichen, aber auch die Serverfarmen für das Rendern
von 3D-Computergrafiken und Computeranimationen gehören zu dieser Art von
Cluster.
2 HISTORISCHE ENTWICKLUNG 8

2.1.3 Grid Computing

Die Charakteristiken von Computercluster sind das Bereitstellen von reiner Rechnerleis-
tung in einem lokalen begrenzten Bereich. Die nächste Herausforderung bestand also
darin, die Rechenleistung nicht nur lokal, sondern auch global verfügbar zu machen und
neben der Rechenleistung z.B. auch Daten und Applikationen bereitzustellen.

Mitte der 1990er wurde der Begriff des Metacomputing als Möglichkeit zur Erwei-
terung von Paralleler Datenverarbeitung und Custer Computing eingeführt. Die Idee
bestand darin, große Computersysteme über WAN-Leitungen (Wide Area Network)
miteinander zu verbinden. [IWay] Im Jahr 1997 wurden erstmals zwei Supercomputer
des High Performance Computing Center Stuttgart (HLRS) und des Pittsburgh Super-
computing Centre (PSC) miteinander verbunden. Trotz der Verfügbarkeit von hohen
Bandbreiten innerhalb der nationalen und internationalen Forschungsnetzwerke scheiterte
das Experiment auf Grund der Latenz. [HLPSC]

Das Metacomputing bezieht sich aber lediglich nur auf Computer (Rechenleistung)
im Allgemeinen. Ian Foster und Carl Kesselman stellten im Jahre 1999 ein neues erwei-
tertes Konzept mit dem Namen Grid Computing vor, das neben Computer auch andere
Arten von (IT-)Ressourcen wie Software, Datenbanken, Rechenleistung, Speicherplatz
oder spezielle Hardware beinhalten und miteiander vernetzen kann. [TheGrid] Der Be-
griff des Grid wird abgeleitet aus dem englischen Wort Electrical Power Grid (Deutsch:
Stromnetz), dessen Idee darin besteht, die Ressourcen den Benutzern so zur Verfügung zu
stellen, als wenn sie den Strom aus der Steckdose bekommen würden. Dabei verfügt das
Grid über standardisierte Schnittstellen, über die der Benutzer seine Anfragen übermitteln
kann und ihm die Ressourcen dann automatisiert zugeteilt werden. Die Ressourcen sind
dabei über das Internet verteilt und können unterschiedlichen ’virtuellen’ Organisationen
angehören. Anhand der Schnittstellen kann der Status der Ressourcen abgefragt und diese
direkt angesprochen werden. Ein entscheidener Vorteil liegt darin, dass der geographische
Ort an dem sich die Ressource befindet nicht mehr von Bedeutung ist - siehe Abbildung
3. Auf Grund des beliebigen und weltweiten Zugriffs auf Ressourcen über das Internet
gilt das Grid als Generalisierung des World Wide Web. Davon abgeleitet steht die
Technologie des Grid Computing somit als die Basistechnologie für die Koordination und
Verarbeitung organisationsübergreifender Geschäftsprozesse und den gemeinschaftlichen
Austausch und die Nutzung von Ressourcen. [BaSch]
2 HISTORISCHE ENTWICKLUNG 9

Abbildung 3: Grid Computing


Quelle: [Grid]

Das entscheidende Ziel des Grid Computings bestand also darin, Ressourcen gemein-
schaftlich global zu nutzen sowie diese zu koordinieren und darüber hinaus gemeinsam
Probleme institutionsübergreifend in dynamischen virtuellen Organisationen zu lösen.
Genauer bedeutet dies, dass zu Beginn Formalitäten wie das Abrechnungsschema und
die Zugangsrechte geklärt werden und anschließend der Zugriff auf die Ressourcen wie
z.B. Rechnerleistung oder Anwendungen für die gemeinschaftliche Nutzung bereitgestellt
werden. Der Begriff der virtuellen Organisation beschreibt in diesem Fall eine dynami-
sche Allianz von Organisationen, die ein gemeinsames Interesse während der Nutzung
des Grids vertreten. [GridAnatomy]

Arten von Grid Computing

Je nachdem wie die Ressourcen miteinander vernetzt sind und um was für ein Anwen-
dungsszenario es sich handelt, können Grids in unterschiedliche Arten unterteilt werden.
Nachfolgend werden fünf unterschiedliche Arten betrachtet. [BaSch]

• Compute Grids
Compute Grids werden verwendet um einem Benutzer Rechnerleistung bzw. Rech-
2 HISTORISCHE ENTWICKLUNG 10

nerkapazität, die ihm in seiner eigenen Umgebung nicht zur Verfügung stehen, ver-
teilt bereitzustellen. Das Bereitstellen kann hierbei eine derzeit nicht verwendete
Ressource - z.B. eine Workstation außerhalb der Geschäftszeiten sein, oder aber
auch ein Hochleistungclustersystem.

• Data Grids
Data Grids werden eingesetzt um große verteilte Datenmengen gemeinsam zu Nut-
zen und diese zu verarbeiten. Dabei wird eine sogenannte Data-Federation, eine
organisationübergreifende Sicht auf alle Daten, die beispielsweise einem Projekt
zugewiesen sind, definiert. Bei so einer Data-Federation handelt es sich um ein de-
zentral verwaltetes System, bei dem derjenige, der die Daten in dieser Umgebung
zur Verfügung stellt auch die uneingeschränkte Kontrolle über diese Daten behält.

• Application Grids
Application Grids waren der erste Ansatz um virtuelle Organisationen zu etablie-
ren und damit die organisationsübergreifende gemeinsame Nutzung von Ressour-
cen voranzutreiben. Die Betreiber der Grids sollten dadurch eine höhere Auslas-
tung und die Benutzer ein besseres Angebot erfahren. Themen, die innerhalb dieses
Grids auftreten, sind sichere und schnelle Datenverbindungen, Authentifikationen,
Authorisierungen und Single-Sign-On sowie Accounting und Abbrechnungsmög-
lichkeiten.

• Resource Grids
Resource Grids sind die Erweiterung der Application Grids. Diese definieren ein
Rollenmodell, in dem eindeutig zwischen einem Grid Benutzer, einem Grid Pro-
vider und einem Resource Provider unterschieden wird. Die Hierarchie ist logisch
geordnert. Ein Grid Benutzer verwendet die Grid Infrastruktur des Grid Provider um
die dort vorhandenen Ressourcen des Resource Providers zu nutzen. Für den Grid
Benutzer unterscheidet sich die Funktionalität des Application- und des Resource
Grids nicht. Das Konzept der beiden hat aber einen gravierenden Unterschied. Ap-
plication Grids werden vertikal integriert, was bedeutet dass der Bedarf an Fremd-
leistungen sehr gering gehalten wird und die Komponenten individuell hinzugefügt
werden. Dagegen müssen bei einem Resource Grid alle Schnittstellen definiert und
offen gelegt werden, da jeder Ressource Provider über die Spezifikation der Grid In-
frastruktur des Grid Providers informiert sein muss um dort ggf. seine Ressourcen
anbieten zu können.
2 HISTORISCHE ENTWICKLUNG 11

• Service Grids
Ein Service Grid verbindet das Konzept der Serviceorientierung mit der Technik
der Resource Grids. Ein Service wird in diesem Zusammehang als ein Bündel von
mehreren Komponenten betrachtet, von dem jede einzelne Komponente wiederum
als Utility von einem anderen Resource Provider zur Verfügung gestellt wird. In
dieser Form des Grids existiert eine übergeordnete Form des Grid Providers, der
sogenannte Grid Service Provider, der im direkten Kontakt mit den Grid Benutzern
steht und ihnen einen Komplettservice anbietet. Das bedeutet, dass der Grid Benut-
zer nicht darüber informiert ist, welcher Resource Provider ihm welche Ressource
bereitstellt.

2.2 Entwicklung des Business Computing

Die historische Entwicklung wird nun mit der Betrachtung des Zeitstrahls des Business
Computing (serviceorientierte Sicht) fortgesetzt, der vom Utility Computing über die Ser-
vice Bureaus bis hin zu den Application Service Providern führt.

2.2.1 Utility Computing

Bereits 1961 definierte Prof. John McCarthy [WikiMcCarthy] das Time Sharing von
Ressourcen wie z.B. die Nutzung von Rechnerleistung oder Anwendungen als Geschäfts-
modell. Er stellte sich dabei vor, diese Ressourcen der Öffentlichkeit als ein Public Utility
zur Verfügung zu stellen, also genau so, wie auch Strom, Wasser oder Gas bereitgestellt
wird.

Der Begriff Utility Computing wird von [Kircher] wie folgt definiert: ’Utility Computing
beschreibt eine grundlegende Transformation der Bereitstellung und des Managements
von IT-Services - von einem technologieorientierten zu einem geschäftsorientierten
Ansatz. Diese Umstellung erfordert eine äußerst flexible und effizient verwaltete dynami-
sche IT-Infrastruktur mit vollständiger Kostenkontrolle, flexibler Kostenverrechnung und
aktivem SLA-Management.’

Beim Utility Computing bekommt also ein ’Kunde’ von einem ’Serviceanbieter’
Rechenkapazität (Ressourcen) und die gesamte Infrastruktur inkl. dessen Management
2 HISTORISCHE ENTWICKLUNG 12

zur Verfügung gestellt. Dabei wird der Kunde nach dem Prinzip ’pay per use ’, also
bezahle nur das, was Du tatsächlich verbrauchst, abgerechnet - was auch den ent-
scheidenen Ansatz beim Utility Computing ausmacht. Für Utility Computing wird oft
auch der Begriff ’On-Demand Computing’ (deutsch: in etwa ’rechnen auf Anfrage’)
verwendet. Das Ziel von Utility Computing ist klar: Steigerung der effizienten Nutzung
der Computerressorucen und das Senken der dabei anfallenden Nebenkosten (Strom, etc.).

Der große Vorteil von Utility-Computing ist eine bessere Wirtschaftlichkeit, da


Unternehmen nur für die Computerressorucen bezahlen, die sie nutzen, wenn sie diese
nutzen. Rechenzentren von Unternehmen sind in der meisten Zeit nicht ausgelastet.
Server sind in der Regel im Durchschnitt mit 15% ausgelastet, sind also in 85% der
Zeit im Leerlauf. Unternehmen statten ihre Rechenzentren grundsätzlich mit zu vielen
Ressourcen aus. Dies ist auf der einen Seiten genau der richtige Ansatz, denn die Systeme
müssen auch in Spitzenzeiten (z.B. Urlaubszeit bei einem Online Reiseveranstalter aber
auch für unvorhersehbare Ereignisse) voll funktionsfähig sein und dürfen nicht plötzlich
überlastet sein und ausfallen. Andererseits sind die Systeme für normale Zeiten total
überdimensioniert. Um genau diese eben angesprochenen Spitzenzeiten abzufangen ist
Utility Computing das richtige Konzept, da der Anbieter in der Zeit die (angemieteten
Systeme) dynamisch vergrößern kann. Die Kosten sind in den normalen Zeit ’...relativ
gering und konstant...’ und steigen nur während der Hochkonjunktur, da auch die Systeme
wachsen.

Anbieter von Utility Computing Diensten profitieren von den Größenvorteilen ihrer
Systeme, da sie dieselbe Infrastruktur nutzen können, um damit mehrere Kunden zu
bedienen.

Wie zuvor im Grid Computing wird auch im Utility Computing der Begriff der
Virtuellen Organisation verwendet, mit denen Organisationen Computer Ressourcen in
dem Moment kaufen oder verkaufen, wenn diese gerade benötigt werden.

2.2.2 Service Bureaus

Ein auf das Utility Computing aufbauendes und daher ebenfalls aus den 1960er stammen-
des Geschäftsmodell sind die sogenannten Service Bureaus. Die Idee der Service Bureaus
bestand darin, die eigenen Ressourcen wie z.B. Computer oder Mitarbeiter für andere
2 HISTORISCHE ENTWICKLUNG 13

Unternehmen gegen eine Gebühr zur Verfügung zu stellen. Weitere Dienstleistungen, die
durch Service Bureaus übernommen wurden waren, u.a. die Bereitstellung von Speicher-
platz, Datenverarbeitung, individuelle Programmierung, Mietsoftware, die auf den Sys-
temen des Service Bureaus betrieben wird, aber auch Bereiche wie Desktop Publishing
oder Bildverarbeitung gehörten zum Angebot. Um eine große Anzahl von Kunden zu er-
reichen und damit Skaleneffekte zu erzielen, wurden die Dienstleitungen zu Produkten
zusammengefasst. Für die Verbindung von den Kunden zu den Service Bureaus wurden
einfache Wählverbindungen oder private Mietleitungen verwendet. [SBMag]

2.2.3 Application Service Provider

Als die indirekten Nachkommen der Service Bureaus gelten die Application Service
Provider. Application Service Provider sind Dienstleister, die über eine Datenverbindung
Anwendungssoftware wie z.B. ein CRM-System (Customer Relationship Management)
anbieten, das von einem Kunden gegen eine Nutzungsgebühr gemietet werden kann -
siehe Abbildung 4. Der Vorteil für den Kunden besteht darin, dass er sich nicht mehr
um die Administration der Software wie z.B. eine tägliche Datensicherung oder das
Einspielen von Updates kümmern muss. Die Software befindet sich innerhalb der
Infrastruktur auf den Servern des Application Service Providers, der sich um die gesamte
Maintenance, was auch die Betreuung der Endbenutzer beinhalten kann, kümmert.
Bekannte Anwendungen, die über einen Application Service Provider gemietet werden
können, sind z.B. Office Suites, E-Mail Lösungen, CRM-System oder ERP-Systeme
(Enterprise Resource Planning). [TamGue]
2 HISTORISCHE ENTWICKLUNG 14

Abbildung 4: Application Service Provider


Quelle: [ASP]

In der Anfangszeit der Application Service Provider gab es immer wieder Schwierigkei-
ten bei der Umsetzung dieses Modells, da die zu der Zeit vorhandene Hardware und die
Telekommunikationstechnologie nicht leistungsfähig genug und die Mandantenfähigkeit
der Software nicht gegeben war.

2.3 Definition

Die beiden Zeitstrahle - siehe dazu auch Abbildung 2 - verdeutlichen die Entwicklung
der Bereiche, die zum heutigen Cloud Computing führen. Aus dem Technologiebereich
kristallisierte sich das Grid Computing heraus, das einen Ersatz für Hochleistungsrechner
darstellt und die Möglichkeit bietet verteilte Ressourcen wie z.B. Rechenleistung nach
Bedarf abzurufen. Der serviceorientierte Bereich hingegen bringt zwei Ideen hervor, die
heutzutage wieder aufgegriffen werden. Das ist zum einen das Utility Computing, bei
dem IT-Services und Rechenleistung abhängig nach dem Verbrauch abgerechnet werden
und zum anderen die Application Service Provider, die Anwendungssoftware gegen eine
Nutzungsgebühr bereitstellen und sich dabei um die gesamte Maintenance kümmern.
Darüber hinaus wurden mit den Service Grids bereits die serviceorientierten Ansätze des
Business Computing dem Grid Computing hinzugefügt.
2 HISTORISCHE ENTWICKLUNG 15

Werden die Ergebnisse der Zeitstrahle zusammengefasst führt das zur folgenden Definiti-
on des Cloud Computing:

Cloud Computing vereinigt die Technologien des Grid Computing mit der Ser-
viceorientierung des Business Computing, indem über dynamisch skalierbar verteilte
Infrastrukturen Ressourcen wie Hardware und Software von einem oder mehreren An-
bietern zugleich bereitgestellt und anhand des Verbrauchs bzw. einer Nutzungsgebühr
abgerechnet werden.
3 EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING 16

3 Eigenschaften & Hintergründe des Cloud Computing

Nachdem im vorherigen Kapitel die historische Entwicklung des Cloud Computing be-
schrieben und daraus eine Definition hergeleitet wurde, befasst sich dieses Kapitel mit
den Ideen und Konzepten des Cloud Computing und stellt in diesem Zusammenhang die
gebräuchlichen Terminologien vor.

3.1 Der Begriff der Cloud

Das Wort Cloud ist aus der Illustration der Netzwerktechnik abgeleitet, in der das Internet
immer als Wolke (Cloud) dargestellt wird. Das hängt damit zusammen, dass es sich beim
Internet um ein globales, dezentralisiertes Netz handelt, welches aus vielen lokalen und
nationalen Netzen besteht, die miteinander verbunden sind. Wie Daten innerhalb des In-
ternets ausgetauscht werden, ist von außen nicht direkt sichtbar. Da auf sämtliche Daten
und Anwendungen im Sinne des Cloud Computing über das Internet zugegriffen wird,
steckt nun alles in der Wolke.

3.2 Cloud Architektur

Das Schlüsselkonzept des Cloud Computing ist ein riesiges Netzwerk bestehend aus vie-
len Servern, die in einem Grid organisiert sind. Alle Server verarbeiten die Anfragen par-
allel, indem die Ressourcen aller Beteiligten kombiniert werden um damit die Leistung
eines Supercomputers zu erzielen, siehe auch Grid Computing. Die Server werden in die-
sem Fall von Dienstleistern betrieben und sind über mehrere Rechenzentren verteilt. Der
Zugriff auf die Cloud erfolgt dabei über das Internet. Für den Benutzer stellt sich die
Cloud nach außen wie eine Anwendung dar. Die gesamte Infrastruktur, die für die Ver-
abeitung benötigt wird, ist dabei unsichtbar. Eine abstrakte Sicht der Cloud Computing
Architektur illustriert Abbildung 5.
3 EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING 17

Abbildung 5: Cloud Computing - Architektur

3.3 Typen der Cloud

Generell werden drei Arten von Cloud Computing unterschieden. Dabei kommt es darauf
an, wie und von wem die Cloud eingesetzt wird, woraus sich dann auch der Name ableitet.

3.3.1 Private Cloud

Von einer Private Cloud wird gesprochen, wenn Organisationen ihre eigenen Rechenzen-
tren betreiben / eigenen Server angemietet haben und ihre Dienste nur für Ihre eigenen
(geschäftlichen) Zwecke innerhalb ihrer eigenen privaten Netze verwenden und der All-
gemeinheit nicht zur Verfügung stellen. Die Datensicherheit, ’Corporate Governance’ und
Zuverlässigkeit liegen damit in ihrem eigenen Einflussbereich. Aus diesem Grund werden
Private Clouds nur indirekt zum Cloud Computing gezählt.
3 EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING 18

3.3.2 Public Cloud

In der Public Cloud dagegen werden die Dienste (Rechenkapazität/ Speicherplatz etc.)
gegen Bezahlung oder kostenlos der Allgemeinheit zur Verfügung gestellt. Die oben ge-
nannten Aufgaben, die ein Unternehmen in der Private Cloud vornimmt, werden in der
Public Cloud dann von einem Drittanbieter übernommen. Die Aufgaben und Services
von unterschiedlichen Kunden werden dabei auf derselben Infrastruktur (Server, Spei-
cher, etc.) gemeinsam gehostet und verarbeitet. Ein einzelner Kunde hat keine Kenntnis
darüber, wessen Dienste ebenfalls auf derselben Infrastruktur gespeichert und verarbeitet
werden.

3.3.3 Hybrid Cloud

Die Hybrid Cloud stellt eine Mischung aus der Private und der Public Cloud dar. Dabei
verfügen Unternehmen zwar über ihre eigene Private Cloud, verwenden aber zusätzlich
Dienste aus der Public Cloud von externen Anbietern. Die Attraktivität besteht vor allem
darin, dass der externe Anbieter bei Bedarf schneller und kostengünstiger die benötigte
Infrastruktur/ Dienste erhöhen bzw. verkleinern kann. Die Dienste werden so in die Private
Cloud integriert, dass der Endanwender nicht merkt, dass er eigentlich woanders arbeitet.
Abbildung 6 veranschaulicht das Verständnis einer Hybrid Cloud.

Abbildung 6: Die Hybrid Cloud


3 EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING 19

3.4 Dienste in der Cloud

Innerhalb der Wolke existieren drei unterschiedliche Möglichkeiten wie Dienstleistungen


bereitgestellt werden können. Da sie aufeinander aufbauen wird in diesem Zusammen-
hang auch von Schichten (Englisch: layers) gesprochen. Anhand dieses Drei-Schichten
Modells ergeben sich neue Möglichkeiten für per pay use Geschäftsmodelle. Abbildung
7 von [MSCloud] illustriert die unterschiedlichen Möglichkeiten.

Abbildung 7: Services im Cloud Computing


Quelle: [MSCloud]

3.4.1 Infrastructure as a Service

Infrastructure as a Service (IaaS) ist die unterste Schicht des Modells. Sie bildet die
Grundlage und stellt die grundlegenden Dienste wie Speicherplatz und Rechenkapazität
bereit. In diesem Zusammenhang kann auch von Hardware as a Service (HaaS) gespro-
chen werden, da die gesamte Infrastuktur - Server, Speicherplatz, aber auch Router und
Switches - mittels Virtualisierung bereitgestellt und gemietet (i.d.R pay per use) werden.
Die gesamte Infrastruktur ist so skaliert, dass sie in Zeiten von Spitzenlast dynamisch er-
weitert wird und somit unterschiedlichen Auslastungen angepasst werden kann. Bei IaaS
ist der Drittanbieter lediglich für die Bereitstellung und Wartung der Hardware zustän-
dig. Alle anderen benötigten Ressourcen wie z.B. das Betriebssystem, Anwendungen etc.
obligen dem Unternehmen.
3 EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING 20

3.4.2 Platform as a Service

Platform as a Service (PaaS) ist die nächste - mittlere - Schicht und geht einen Schritt
weiter. Sie ist dafür zuständig eine transparente Entwicklungsumgebung bereitzustellen.
Dabei stellt der Drittanbieter eine Plattform zur Verfügung auf der (Web)-Anwendungen
entwickelt, getestet und gehostet werden können. Die Anwendungen werden anschlie-
ßend auf der Infrastruktur des Anbieters ausgeführt und nutzen dessen Ressourcen. Der
vollständige Lebenszyklus einer Anwendung kann darüber vollständig verwaltet werden.
Über APIs können die Dienste auf der Plattform des jeweiligen Anbieters angespro-
chen werden. Der Vorteil besteht darin, dass vor allem kleine Unternehmen ihre Ent-
wicklungsinfrastruktur auf ein Minimum beschränken können. Sie benötigen lediglich
einen Desktop-PC, einen Web-Browser, evtl. eine lokale IDE, eine Internetverbindung
und ihr Wissen, um Anwendungen zu entwickeln. Der Rest obligt dem Drittanbieter, der
für die Infrastruktur (Betriebssystem, Webserver, Entwicklungsumgebung etc.) verant-
wortlich ist. Auch hier erfolgt die Abrechnung mit dem Prinzip per pay use.

3.4.3 Software as a Service

Software as a Service (SaaS) ist die oberste und letzte Schicht. Sie stellt dem Anwen-
der vollständige Anwendungen zur Verfügung. Sie kann als eine Art Distributionsmodell
verstanden werden, bei dem die Nutzung von Software (Lizenzen) über das Internet von
einem Drittanbieter angeboten wird. Der Drittanbieter übernimmt dabei u.a. die Wartung/
Aktualisierung und das Hosting der Software. Für den Anbieter besteht der Vorteil darin,
dass nur eine Instanz einer Software auf den Servern bereitgestellt werden muss, welche
unzählige Anwender gleichzeitig nutzen können. Wird die Software auf einen aktuellen
Stand gebracht, genügt ein Update Vorgang an zentraler Stelle und die Software ist für
alle Anwender gleichzeitig aktuallisiert. Der Vorteil für den Anwender besteht darin, dass
lediglich - wie schon bei PaaS - nur ein Desktop-PC, ein Web-Browser und eine Inter-
netverbindung ausreicht um z.B. Dienste wie E-Mail, Office Anwendungen oder sogar
ERP-Systeme nutzen zu können. Die Anschaffung und Wartung großer Serverlandschaf-
ten bzw. Softwarepakete entfällt ebenso wie das ’lästige’ Updaten der lokalen Anwen-
dungen. Der Drittanbieter sorgt immer für einen aktuellen Stand der Software und stellt
die gesamte Infrastruktur für das Hosting der Software bereit. Dazu gehören auch das
Speichern von Dateien (Dokumenten) auf den Servern des Anbieters. Der Anbieter ist
demnach für alle notwendigen Bereiche des Betriebs, wie Verfügbarkeit, Backup, Redun-
3 EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING 21

danzen und auch die Stromversorgung verantwortlich. Auch hier erfolgt die Abrechnung
wieder mit pay per use, mit dem kleinen Unterschied, dass die Kosten pro nutzenden
Anwender der Software berechnet werden.

3.5 Klassifikationen der Rollen in der Cloud

Im Cloud Computing werden vier Arten von Nutzerrollen unterschieden. Zum einen gibt
es die SaaS-Benutzer, also diejenigen Unternehmen, Mitarbeiter aber auch Privatanwen-
der, die einen SaaS Dienst verwenden. Des Weiteren wird von den SaaS-Providern ge-
sprochen, die den SaaS-Benutzern ihre Dienste bereitstellen. Den SaaS-Providern wird
zugleich die Rolle des Cloud-Benutzers zugesprochen, da von ihnen die Dienste der drit-
ten Nutzerrolle, nämlich den Cloud-Providern, in Anspruch genommen wird. Ein Cloud-
Provider steht im eigentlichen Sinne für den Betreiber der Wolke, ihm gehört in der Re-
gel das Rechenzentrum und die gesamte Infrastruktur, die dazugehört. Der SaaS-Provider
kann das Rechenzentrum nutzen um mittels der Infrastruktur dem SaaS-Benutzer seine
Dienste zur Verfügung zu stellen. Abbildung 8 veranschaulicht das Konzept nochmals.

Abbildung 8: Nutzerrollen im Cloud Computing


Quelle: [Berkeley]

In einigen Fällen kann der Cloud-Provider gleichzeitig die Rolle des SaaS-Providers
übernehmen. Das ist genau dann der Fall, wenn der Betreiber des Rechenzentrums auch
SaaS Dienste direkt anbietet. Genauso kann aber auch ein SaaS-Benutzer zusätzlich die
Rolle eines Cloud-Benutzers einnehmen, nämlich genau dann, wenn dieser z.B. seine ge-
samten Serverkapazitäten (Speicher, Rechenkapazität, etc.) direkt in das Rechenzentrum
eines Cloud-Providers auslagert.
3 EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING 22

Im Allgemeinen kann man sagen, dass sich die Probleme der jeweiligen Rollen verlagern.
Der SaaS-Benutzer verschiebt seine ’Probleme’ in Form von Software und Diensten zum
SaaS-Provider, der wiederum seine ’Probleme’ in Form eines Rechenzentrums an den
Cloud-Provider auslagert.

3.6 Nutzen durch Cloud Computing

Cloud Computing bietet den Anbietern von Cloud Diensten sowie den Anwendern einige
Nutzenvorteile. Anbieter von Cloud Services haben Zugriff auf einen unendlich großen
Pool von Speicherplatzressourcen und Rechenkapazitäten um ihre Anwendungen ausfüh-
ren zu lassen. Sie sind nicht mehr durch physikalische Gegebenheiten eingeschränkt, da
neue Wege für den Zugriff auf Informationen und die Verarbeitung und Analyse von Da-
ten zur Verfügung stehen. Darüber hinaus bestehen damit Möglichkeiten Anwender und
Ressourcen von jedem beliebigen Ort auf der Erde aus miteinander zu verbinden. Ein
Anwender ist nicht mehr an einen und denselben Computer gebunden. Webanwendungen
und damit auch die Daten sind mit jedem beliebigen Computer erreichbar, unabhängig
vom Ort und dem Netzwerk, mit dem er verbunden ist. Daten, die in der Cloud gespei-
chert werden, sind immer vorhanden, auch wenn der Computer plötzlich ausfällt. Das
erhöht die Datensicherheit. Ein weiterer Nutzen für den Anwender ist die Möglichkeit der
globalen Zusammenarbeit. Anwender/ Mitarbeiter an verschiedenen Standorten können
zur selben Zeit an der selben Datei arbeiten, was die Effezienz der Zusammenarbeit deut-
lich erhöht. Zu guter Letzt senkt Cloud Computing durch effizientes Ressourcensharing
die Kosten. Die Cloud Computing Infrastruktur kann überall vorhanden sein, so dass Un-
ternehmen nicht mehr gezwungen sind ihre eigenen Rechenzentren zu betreiben. Darüber
hinaus müssen die eigenen IT-Ressourcen nicht mehr überdimensioniert ausgelegt werden
um Spitzenzeiten abzufangen. In Zeiten zu denen z.B. ein Webserver mit vielen parallelen
Anfragen überhäuft wird, können Rechenleistung und Service aus der Cloud dynamisch
bezogen werden, je nachdem, was gerade benötigt wird. Ist die Überlast vorbei, werden
die Ressourcen wieder auf ein Mindestmaß heruntergefahren.
3 EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING 23

3.7 Vorteile des Cloud Computing

• Geringere Kosten für Arbeitsplatzrechner


Für die Nutzung von Cloud Computing Applikationen werden keine leistungsfä-
higen Arbeitsplatzrechner mehr benötigt. Die Anwendungen befinden sich in der
Cloud und nicht mehr lokal auf dem Computer und werden über einen Webbrowser
bedient. Dadurch ist eine hohe Rechenleistung und Speicherplatz auf dem lokalen
System nicht mehr notwendig.

• Leistungssteigerung
Das Arbeiten mit lokalen Systemen wird durch die Nutzung von Cloud Computing
Anwendungen beschleunigt. Die Software und Daten der Anwender werden nicht
mehr lokal gespeichert, wodurch das System entlastet wird.

• Geringere Kosten der IT-Infrastruktur


Unternehmen können darauf verzichten in eine Vielzahl eigener leistungsstarker
Server zu investieren und stattdessen die Rechenleistung etc. aus der Cloud bezie-
hen. Interessant ist dies vor allem für Unternehmen, die saisonale Hochzeiten aus-
gleichen müssen und aus diesem Zweck ihre Systeme überdimensionieren müssen.

• Geringere Instandhaltungskosten
Durch die Reduzierung der eigenen Serverfarm sinken die Instandhaltungskosten.
Die Instandhaltungskosten der Software entfallen praktisch komplett, da dieses
durch einen externen Anbieter übernommen wird.

• Geringere Kosten für Software


Anstatt für jeden Arbeitsplatz einzelne Softwarepakete zu kaufen, besteht die Mög-
lichkeit nur diejenigen Mitarbeiter die Software in der Cloud nutzen zu lassen, die
diese auch benötigen. Selbst wenn die Kosten einer webbasierten Anwendung im
Vergleich zu herkömmlicher Software gleich wären, würde die IT-Abteilung durch
fehlende Installation und Wartung der webbasierten Software Kosten einsparen
können.

• Software Updates on Demand


Webbasierte Anwendungen können zentral und praktisch auf die Minute ausge-
tauscht werden. Die Software ist zu jeder Zeit auf dem aktuellen Stand, egal wann
der Benutzer sich anmeldet.
3 EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING 24

• Höhere Rechenleistung
Durch den Einsatz von Cloud Computing haben Unternehmen zu jeder Zeit den
Zugriff auf die gesamten Ressourcen der Cloud und sind nicht mehr auf die Ge-
schwindigkeiten beschränkt, die ihr eigenes Rechenzentrum ihnen bietet. Dadurch
haben sie die Möglichkeit ihre Daten wie von einem Supercomputer verarbeiten zu
lassen.

• Unbegrenzter Speicherplatz
Im Vergleich zu einem Arbeitsplatzrechner oder einem Storage in einem Rechen-
zentrum ist der Speicherplatz in der Cloud praktisch unbegrenzt. Unternehmen ha-
ben dadurch den Vorteil ihren Speicherplatz dynamisch zu beziehen. Der angemie-
tete Speicherplatz in der Cloud wächst also mit den Daten, die dort abgelegt werden.

• Höhere Datensicherheit
Daten werden in der Cloud redundant (über mehrere Standorte) gespeichert, ein
Datenverlust ist dadurch im Prinzip ausgeschlossen. Sollte ein Arbeitsplatzrechner
abstürzen, sind die Daten davon nicht mehr betroffen. Lokale Datensicherungen
können dadurch entfallen.

• Einfachere Zusammenarbeit
Der klassische Dokumentenaustausch funktioniert so, dass die Daten auf einem Ser-
ver im Netzwerk abgelegt oder per E-Mail an den Kollegen verschickt werden. Da-
bei konnte immer nur ein Benutzer zur Zeit an dem Dokument arbeiten. Durch das
Ablegen der Daten in der Cloud können nun mehrere Benutzer - auch standortüber-
greifend - gleichzeitig auf ein Dokument zugreifen und dieses ebenfalls zur selben
Zeit bearbeiten. Die Zusammenarbeit innerhalb eines Projekts wird dadurch verbes-
sert.

• Mobilität
Werden die Daten in der Cloud gespeichert, kann weltweit von jedem Ort, mit jedem
Endgerät auf diese Daten zugegriffen werden - vorausgesetzt eine Internetverbin-
dung ist vorhanden.

3.8 Nachteile des Cloud Computing

• Konstante Internetverbindung
Cloud Computing ist nur möglich, wenn eine Internetverbindung verfügbar ist. Da-
3 EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING 25

durch ergibt sich hiermit schon ein Single-Point-of-Failure.

• Langsame Verbindungen
Um Cloud Computing akzeptal einsetzen zu können, bedarf es einer schnellen In-
ternetverbindung. Es kann sonst sehr lange dauern, bis die Seiten in einem großen
Dokument durchgesehen werden können.

• Geschwindigkeitsprobleme
Trotz einer schnellen Internetverbindung können webbasierte Anwendungen lang-
samer sein als die auf dem lokalen System. Das liegt an der Zeit, die der Transfer
benötigt, um die Daten zwischen der Cloud und dem Arbeitsplatzrechner auszutau-
schen.

• Schutz der gespeicherten Daten


Beim Cloud Computing werden alle(!) Daten in der Cloud gespeichert. Dadurch
ergeben sich natürlich die Fragen: Wie sicher ist die Cloud? Haben andere, mögli-
cherweise unauthorisierte Benutzer Zugriff auf meine Daten?

• Datenverlust durch die Cloud


Im Prinzip sind die Daten durch das Speichern über mehrere Server und Standorte
hinweg redundant vor Verlust geschützt. Sollten die Daten nun aber doch aus ir-
gendeinem Grund verloren gehen, existiert kein physikalisches bzw. lokales Backup
dieser Daten. Die Daten sind dann einfach weg. Das kann umgangen werden, indem
regelmäßig Backups aus der Cloud auf einen lokalen Rechner abgelegt werden, was
aber nicht im Sinne des Cloud Computings wäre.

• Abhängigkeit
Unternehmen machen sich zunehmend abhängig von ihren Dienstleistern. Wurden
Teile der Infrastruktur einmal in die Cloud migriert, ist der Weg zurück nicht mehr
so einfach. Die Dienstleister bieten Utilities um die Daten vom Unternehmen in die
Cloud zu vereinfachen. Programme um die Daten wieder aus der Cloud heraus zu
migrieren existieren aber bisher noch nicht. Genau so wenig existieren Program-
me um die Daten zwischen unterschiedlichen Anbietern zu übertragen, was daran
liegen mag, dass jeder Anbieter mit unterschiedlichen Standards arbeitet. Da bleibt
die Frage offen: Einmal Cloud - immer Cloud bzw. immer dieselbe Cloud?
3 EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING 26

3.9 Aktuelle Anwendungsbereiche des Cloud Computing

Cloud Computing wird heute schon in zahlreichen Bereichen eingesetzt. Die folgenden
Szenarien - vgl. [AWS] - beziehen sich auf die im Prinzip unendlich verfügbare Rechen-
leistung durch das Cloud Computing. Die Szenarien gehen dabei von einer Datenmenge
von mehreren Millionen Datensätzen (Dokumente, Bilder, etc.) aus.

3.9.1 Prozessverarbeitung

• Dokumentenverarbeitung
Die Konvertierung von hunderttausend Word Dokumenten in das PDF-Format

• Bildverarbeitung
Das Erstellen von millionen Thumbnails

• Videoverarbeitung
Die Transformation von AVI Dateien und MPEG Videos

• Indizierung
Die Erstellung eines Index aus einer Websuche

• Data Mining
Die Suche innerhalb von millionen von Datensätzen

3.9.2 Batch Prozessverarbeitung

• Back-Office Anwendungen
Anwendungen zur Berechnung im Finanzen- und Versicherungsbereich

• Analyse von Log-Einträgen


Analyse und Generierung von Tages-/ Wochen- und Montasberichten

• Nightly Builds
Parallele automatisierte Erzeugung von Code aus dem Repository

• Unit Tests
Automatisierte nächtliche Tests und Deployments anhand unterschiedlicher Konfi-
gurationen
3 EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING 27

3.9.3 Webseiten

• Automatische Skalierung am Tag


Webseiten befinden sich in der Nacht im Leerlauf und passen sich am Tag den
Anforderungen an.

• Webseiten für Events


Webseiten, die nur einmal im Jahr einen massiven Besucherzufluss erfahren und
sich sonst im Leerlauf befinden, z.B. Super Bowl Webseite.

• Saisonbedingte Webseiten
Webseiten, die z.B. zur Weihnachtszeit oder der Ferienzeit gut besucht sind.
4 MARKTÜBERSICHT 28

4 Marktübersicht

Der Markt der Cloud Computing Angebote ist in den letzten Jahren stark gewachsen. Für
einen kleinen Überblick werden in diesem Kapitel vier bekannte Anbieter vorgestellt.

4.1 Amazon Web Services

Die Amazon Web Services (http://aws.amazon.com) zählen zu den IaaS Providern und
bieten - basierend auf der skalierbaren Infrastruktur von Amazon.com - aus einer Samm-
lung unterschiedlicher Webservices Dienste für das Cloud Computing an. Neben Rechen-
leistung und Speicherplatz werden viele weitere Services angeboten, die angemietet und
auf einer pay per use Basis abgerechnet werden. Die folgenden Dienste werden von Ama-
zon Web Services angeboten:

• Amazon Elastic Compute Cloud (EC2)


Stellt die Grundlage der jeweiligen angemieteten Infrastruktur auf Basis virtueller
Server bereit und ist für die Rechenleistung verantwortlich.

• Amazon SimpleDB
Dient als verteilte Datenbank und ist für das Indizieren und Suchen innerhalb von
Amazons Cloud verantwortlich.

• Amazon Simple Storage Service (S3)


Der Speicherdienst der Amazon Web Services.

• Amazon CloudFront
Das Content Delivery Network der Amazon Web Services. Synchronisiert die Daten
von mehreren S3-Standorten (z.B. USA und Europa) miteinander.
4 MARKTÜBERSICHT 29

4.2 GoGrid

GoGrid (www.gogrid.com) ist ein IaaS Provider, bei dem die eigene Cloud Infrastruktur
nach dem ’Baukastenprinzip’ zusammengestellt werden kann. Die grundlegenden Bau-
steine können nach Belieben mit Windows oder Linux Betriebssystemen und eigener
Anwendungssoftware ausgestattet werden. Der Baukasten besteht aus folgenden Kom-
ponenten.

• Load Balancer

• Datenbankserver

• Web-/ Anwendungsserver

• Speicherplatz

4.3 Google

Google bietet mit seinen Diensten Google Apps (http://www.google.com/apps) und der
Google AppEngine (http://code.google.com/appengine) Cloud-Dienste im Bereich SaaS
bzw. PaaS an. Mit Google Apps stehen unterschiedliche Anwendungen zur Verfügung,
auf die über ein Webbrowser zugegriffen wird.

• Google Mail
E-Mail Client

• Google Kalender
Kalender

• Google Text & Tabellen


Textverarbeitung, Tabellenkalkulation und Präsentation. Dabei kann mit anderen
Benutzern in Echtzeit an den erstellten Dokumenten gearbeitet werden.

• Google Sites
Wiki Lösung von Google

Bekannte Kunden der Google Apps Lösung sind u.a. Unternehmen wie Motorola, Procter
& Gamble, Valeo, Guardian und Twitter.
4 MARKTÜBERSICHT 30

Die Google App Engine ist das Platform as a Service Angebot von Google und
bietet Softwareentwicklern die Entwicklung und das Hosting ihrer Anwendungen auf der
Infrastruktur von Google an. Der Service ist bis zu einem bestimmten Grad kostenlos.
Folgende Richtlinien müssen eingehalten werden, um den Dienst kostenlos nutzen zu
dürfen:

• Seitenaufruf einer Anwendung: max. 1.300.00 mal pro Tag und max. 7.400 mal pro
Minute

• Pro Anwender dürfen max. 10 Applikationen erstellt werden.

• Max. Versand von E-Mails über die entsprechende API: 2.000 pro Tag

• Ein-/ und ausgehender Datentransfer max. 1 GB am Tag und max. 56 MB pro Mi-
nute

• Pro Tag darf eine Applikation max. 6,5 CPU-Stunden nutzen

4.4 Salesforce.com

Salesforce.com wurde im Jahr 1999 gegründet und bietet Unternehmensanwendungen


auf Software as a Service Basis an, die über das Internet bezogen werden können. Neben
Anwendungen für das Customer Relationship Management gehören ebenfalls Vertriebs-,
Marketing-, Kundendienst-, Partnerbeziehungsmanagement- und Innovationsmanege-
mentanwendungen zu den Angeboten. Mit AppExchange stellt Salesforce.com einen
Online-Marktplatz für CRM- und Geschäftsanwendungen bereit, die von Drittanbietern
für Salesforce.com entwickelt werden und von den Kunden zusätzlich erworben und zu
ihrer Salesforce Umgebung hinzugefügt werden können.

Zu Salesforce Kunden zählen Unternehmen wie Dell, Canon, Dow Jones oder Morgen
Stanley.
5 FALLBEISPIEL 31

5 Fallbeispiel

Um die Möglichkeiten des Cloud Computing im Unternehmenseinsatz darzustellen, wird


am Beispiel der fiktiven Spielwaren GmbH die IT-Infrastruktur analysiert und ein Hand-
lungskonzept für die Migration in die Cloud vorgestellt.

5.1 Ausgangssituation

Die Spielwaren GmbH ist ein weltweit agierendes Unternehmen mit vier Standorten in
Deutschland, den USA, China und Indien. Das Unternehmen erzielt mit seinen knapp
3.500 Mitarbeitern weltweit einen Umsatz von ca. 1 Milliarde US Dollar pro Jahr. Die
IT-Umgebung des Unternehmens wurde in den letzten Jahren weitestgehend nur dann
aktualisiert, wenn die Notwendigkeit durch Ausfall eines Servers oder ähnliches bestand.
Die Systemumgebung setzt sich wie folgt zusammen.

• Customer Relationship Management: Microsoft Dynamics CRM

• Enterprise Resource Planing: Microsoft Navision

• Verzeichnisdienst/ Domain Controller: Microsoft Active Directory Services


(ADS)

• Kommunikationsserver/ E-Mail-Server: Microsoft Exchange 2000

• Applicationserver: Microsoft Windows 2000 Server

• Fileserver: Microsoft Windows 2000 Server (für Office Dokumente)

• Webserver: Microsoft Internet Information Server

• Betriebssysteme: Windows 2000 Professional

• Anwendungssoftware: Microsoft Office 2000

Die Kommunikation der Standorte findet über SDSL VPN-Verbindungen statt. Die be-
schriebene Systemumgebung gilt für jeden Standort. Eine Skizze der IT-Infrastruktur ist
in Abbildung 9 illustriert.
5 FALLBEISPIEL 32

Abbildung 9: Ausgangssituation der Spielwaren GmbH

5.2 Analyse der IT-Umgebung

Eine Analyse der IT-Infrastruktur führte zu folgendem Ergebnis.

• Microsoft Dynamics CRM: ok

• Microsoft Navision: veraltet

• Microsoft Active Directory Services: ok

• Microsoft Exchange 2000: veraltet, die Maintenance durch Microsoft endet im Juli
2010, Lizenzen können nicht mehr nachbestellt werden.

• Microsoft Windows 2000 Server: veraltet, die Maintenance durch Microsoft endet
im Juli 2010, Lizenzen können nicht mehr nachbestellt werden.

• Webserver: überdimensioniert, Erweiterungen ohne Konzept, Jahresdurchschnitt


ca. 15% Belastung, Hauptzeiten: 80% Zuwachs

• Windows 2000 Professional: veraltet, die Maintenance durch Microsoft endet im


Juli 2010, Lizenzen können nicht mehr nachbestellt werden.
5 FALLBEISPIEL 33

• Microsoft Office 2000: veraltet, die Maintenance durch Microsoft endet im Juli
2010, Lizenzen können nicht mehr nachbestellt werden.

• Arbeitsplatzrechner: überwiegend veraltete Systeme, die in den nächsten ein bis


zwei Jahren ausgetauscht werden müssen(!)

• VPN-Verbindungen: instabil(!), der Datenverkehr nimmt durch steigende Syn-


chronisationen zu

Generell gilt für die vorhandenen Rechenzentren: Die Hardware bei 80% der Server ist
am Limit bzw. veraltet und muss dringend augetauscht werden.

5.3 Handlungskonzept

Auf Basis der Analyse und der Sondierung des Marktes in Kapitel 4 erhält die Spielwaren
GmbH folgende Handlungsempfehlung

• Microsoft Dynamics CRM: Ablösung durch Salesforce.com

• Microsoft Navision: Ablösung durch Salesforce.com

• Microsoft Active Directory Services: Migration zu Google Apps mittels Directory


Sync, Integration von Salesforce.com in Google Apps Professional mittels Salesfor-
ce for Google Apps

• Microsoft Exchange 2000: Ablösung durch Google Apps Professional (Mail &
Kalender)

• Microsoft Windows 2000 Server: können entfallen, da sämtliche Office Doku-


mente auf Google Apps abgelegt werden, ggf. können auf GoGrid Fileserver an-
gemietet und über entsprechende APIs mit Salesforce und Google Apps verbunden
werden.

• Webserver: Go Grid Server (Baukastensystem bestehend aus Load Balancer, Da-


tenbankserver, Webserver und Speicherplatz) auf Linux oder Windows Basis

• Windows 2000 Professional: Kann durch eine Linux Distribution z.B. Ubuntu Li-
nux ausgetauscht werden
5 FALLBEISPIEL 34

• Microsoft Office 2000: Ablösung durch Google Apps Professional (Text & Tabel-
len)

• Arbeitsplatzrechner: Schrittweise Ablösung der Fat-Clients durch Thin-Clients

• VPN-Verbindungen: Die SDSL Leitungen bleiben vorhanden, die Kommunikati-


on erfolgt vollständig über die Cloud

Die beschriebene Handlungsempfehlung gilt für die gesamte IT-Umgebung der


Spielwaren GmbH, wodurch alle Standort betroffen sind. Eine Skizze der möglichen
IT-Infrastruktur nach Umsetzung der Handlungsempfehlung ist in Abbildung 10 illustiert.

Abbildung 10: Handlungskonzept für die Spielwaren GmbH

5.3.1 Einführungsphase

Für die Migration, die einen Zeitraum von ca. 2 bis 3 Jahren benötigen wird, sind folgende
Schritte in dieser Reihenfolge zu berücksichtigen.

• 1. Migration der Active Directory: nach Google Apps Professional

• 1.1 Migration E-Mail Konten: nach Google Apps Professional

• 1.1.1 Migration der CRM/ ERP Daten: nach Salesforce.com


5 FALLBEISPIEL 35

• 1.1.2 Migration der Office Dokumente : nach Google Apps Professional

• 1.2 Umstellung der E-Mail Kommunikation: nach Google Apps Professional

• 3. Migration der Webserver: nach GoGrid

• 4. Desktop PCs schrittweise ablösen: von Fat-Client auf Thin-Clients

Die Reihenfolge der Zahlen soll grob verdeutlichen, welche Schritte voneinander abhän-
gen. Die Migration der E-Mail Konten kann frühestens starten, wenn die Hälfte der Active
Directory Migration abgeschlossen ist. Die Umstellung der E-Mail Kommunikation kann
erst erfolgen, wenn die E-Mail Konten vollständig migriert sind. Dagegen kann die Mi-
gration der CRM/ EPR Daten und Office Dokumente bereits beginnen, wenn die Active
Directory vollständig migriert und die Hälfte der E-Mail Konten übertragen wurden. Die
Migration der Webserver und das Ablösen der Desktop PCs ist völlig unabhängig von
allen anderen Schritten und kann für sich selbst durchgeführt werden. Eine graphische
Darstellung in Abbildung 11 verdeutlicht die vorgeschlagene Einführungsphase.

Abbildung 11: Einführungsphase der Migration in die Cloud

5.4 Vorteile

Die Migration würde der Spielwaren GmbH folgende Nutzen bringen.

• Reduzierung der Kosten


- Lizenzkosten für Software
- Hardwarekosten (Server, Desktop)
5 FALLBEISPIEL 36

- Maintenance-Kosten
- Personalkosten

• Erhöhung der Datensicherheit


- Automatisierte Durchführung von Backups durch den Anbietern

• Optimierung der Zusammenarbeit


- Standortübergreifende Zusammenarbeit durch Web-Kollaboration

• Automatisierung der Softwarewartung


- die Anwendungssoftware ist immer auf dem aktuellen Stand

• Steigerung der Flexibilität


- Mitarbeiterverwaltung
- Hinzufügen neuer Anwendungen

• Mobilität
- Mitarbeiter können von überall arbeiten
- Zugriff auf alle Daten von überall

• Konzentration auf Kernkompetenzen


- Erhöhung der Investitionen in das Kerngeschäft
5 FALLBEISPIEL 37

5.4.1 Kostenbetrachtung

Um den finaziellen Vorteil mit Zahlen zu verdeutlichen, wird die vorgeschlagende Google
Apps Professional dem vergleichbaren Microsoft Exchange Server gegenüber gestellt.
Die Aufstellung der Kosten ist in Abbildung 12 nachzuvollziehen.

Abbildung 12: Vergleich der Kosten von Google Apps Profes-


sional mit einer Microsoft Exchange Lösung
Quelle: [ASP]

Der Vergleich zeigt den deutlichen finanziellen Vorteil durch den Einsatz der Google
Apps Professional Lösung. Über einen Zeitraum von drei Jahren liegen die Ersparnisse
pro Benutzer bei ca. 62,00 EUR im Vergleich zur Microsoft Exchange Lösung. Das
liegt zum einen an den geringeren Lizenzkosten der Google Lösung (Ersparnis: 98.000
EUR), zum anderen an den geringeren Wartungs- (Ersparnis: 53.000 EUR) und Admi-
nistrationskosten (Erspanis: 68.000 EUR) sowie an den fehlenden Investitionskosten in
eine eigene Infrastruktur für die Server (Ersparnis: 20.400 EUR). Werden die gesamten
Wartungs-, Administrations und Infrastrukturkosten herausgerechnet (letzte Zeile), liegt
der Kostenvorteil der Google Lösung über einen Zeitraum von drei Jahren nur noch bei
ca. 8,00 EUR pro Mitarbeiter.

Dieser Vergleich zeigt, wie die Infrastruktur- und Wartungskosten durch den Ein-
satz von Cloud Computing signifikant gesenkt werden können.
5 FALLBEISPIEL 38

5.5 Nachteile

Neben den Nutzen birgt die Migration aber auch einige Gefahren, die aufgezeigt werden
müssen.

• Politische Einflüsse: Politische Spionage/ Einschränkungen über die Internetver-


bindungen (z.B. China)

• Single point of failure: Internetverbindung (kann durch Backupleitungen abgesi-


chert werden)

• Ausfall eines Anbieters

• Datensicherheit(!)(!)(!)
Alle unternehmenskritischen Informationen befinden sich auf fremden Servern

• Standorte der Server


Ist in der Cloud nicht transparent

• Abhängigkeit
Die Standards der Anbieter müssen eingehalten werden

5.6 Reflexion

Die Handlungsempfehlungen, die für dieses Beispiel gewählt wurden, sind bewusst ein
wenig extrem und aber sollen gleichzeitig verdeutlichen, was bereits heute mit dem Cloud
Computing für Möglichkeiten bestehen. Ein Unternehmen muss sich gut überlegen, ob
es seine Infrastruktur bzw. die unternehmenskritischen Daten in der Form so auslagern
möchte. Zu groß ist z.B. das Risiko der Datensicherheit. Werden auf der anderen Sei-
te aber die Kunden von Google (Motorola und Procter & Gamble) und Salesforce.com
(Dell, Dow Jones und Morgen Stanley) herangezogen, sollte die Attraktivität dieses Out-
sourcingmodells nicht vernachlässigt werden. Zu so einer Entscheidung gehört auch im-
mer eine subjektive Betrachtung, bei der die Kosten eine immer größer werdene Variable
in der Gleichung werden. Aus diesem Grund müssen auch Kompromisse geschlossen
werden, wenn Kosten gesenkt werden sollen. Ob die Datensicherheit dabei zweitrangig
behandelt werden darf bleibt fraglich.
6 REFLEXION & AUSBLICK 39

Eine Kostenbetrachtung für dieses Beispiel konnte nicht vollständig vorgenommen wer-
den, da es sich um ein rein fiktives Beispiel handelt. Im Normalfall hätten u.a. auch Kosten
für die Bereiche Migration, Consulting, Training und Support betrachtet werden müssen.

6 Reflexion & Ausblick

Die grundlegenden Ideen und Konzepte des Cloud Computing reichen bis in die 1960er
zurück. Schon damals wurde die Idee entwickelt Rechenleistung und Anwendungen als
Utility der Öffentlichkeit gegen eine Nutzungsgebühr bereitzustellen. Dass der Durch-
bruch erst heute bevorsteht, hängt mit den technischen Voraussetzungen zusammen, die
zur damaligen Zeit einfach noch nicht gegeben waren.

Cloud Computing symbolisiert den service- und anwendungsorientierten Trend der


heutigen Informationstechnologie, bei dem verteilte und hoch skalierbare Infrastrukturen
über das Internet adaptiert werden können und Anwendungen und Dienste an jedem Ort
und zu jeder Zeit verfügbar sind.

Unternehmen können durch den Einsatz von Cloud Computing ihre IT-Gesamtausgaben
deutlich reduzieren und die Qualität, Sicherheit aber vor allem ihre Arbeitsabläufe mess-
bar steigern. Cloud Computing Anbieter können Skaleneffekte nutzen, indem sie ihre
Kosten über eine große Anzahl von Kunden verteilen und haben damit die Möglichkeit
die Investitionen in den Betrieb und die Sicherheit (Daten- und Zugangssicherheit) ihrer
Rechenzentren im Vergleich zu herkömmlichen Rechenzentrums Betreibern zu erhöhen.

Ob sich der Ansatz der Public Cloud durchsetzen wird, hängt von dem Bewusst-
sein jedes einzelnen zum Thema Datensicherheit(!) ab. Vorstellbar wäre, dass sich
hauptsächlich eine hybride Variante aus Private Cloud und Public Cloud durchsetzen
wird. Unternehmen werden für unternehmenskritische Daten ihre eigenen ’kleinen’
Rechenzentrenen betreiben und weitergehende Dienste und Anwendungen aus einer
Public Cloud beziehen. Für Startups kann zu Beginn der Nutzen einer Public Cloud von
besonderem Interesse sein. Die Kosten sind leicht zu kalkulieren und die IT-Infrastruktur
wächst dynamisch mit dem Unternehmen.
6 REFLEXION & AUSBLICK 40

Vor dem Hintergrund, dass die meisten Anbieter von Cloud Computing Diensten ihre
eigenen Standards innerhalb der Infrastrukturen einsetzen, sind für die Zukunft noch
Fragen offen, die geklärt werden müssen. Wie komme ich aus der Cloud wieder zurück?
und Wie wechsle ich von der Cloud eines Anbieters in die Cloud eines anderen Anbieters?
Das zeigt, dass offene Standards signifikant für die Akzeptanz und Weiterentwicklung
des Cloud Computing sind.

Zu guter Letzt müssen auch die Internetprovider und Telekommunikationsanbieter


sich verpflichtet fühlen ihren Teil zum Erfolg des Cloud Computing beizutragen. Sind die
aktuellen Angebote für Unternehmen sehr attraktiv, haben private Anwender fast keine
Möglichkeit Dienste, wie z.B. Cloud Storage (Speicherplatz im Internet) in Anspruch
zu nehmen. Die Uploadraten herkömmlicher Internetanschlüsse sind für diese Art von
Dienst einfach zu langsam und können und werden dadurch auch nicht genutzt werden.
Bessern die Anbieter in diesem Sektor ihre Angebote im Hinblick auf die Technik
und den Preis nicht nach, besteht die Möglichkeit, dass wir im Privatbereich dieselbe
Problematik erleben werden wie in den 1960er.
LITERATUR 41

Literatur

[Adeli] Hojjat Adeli.


Supercomputing in engineering analysis,
New York: CRC Press, 1991

[AlLeOb] Götz Alefeld, Ingrid Lenhardt, Holger Obermaier.


Parallele numerische Verfahren,
Berlin: Springer, 2002

[Amdahl] John L. Gustafson.


Reevaluating Amdahl’s Law,
http://www.scl.ameslab.gov/Publications/Gus/AmdahlsLaw/Amdahls.html

[ASP] Facility Wizard Software.


http://www.facilitywizard.com

[AWS] Jinesh Varia.


Cloud Architectures,
Amazon, Amazon Web Services

[AWSCase] Amazon Web Services.


Case Studies
http://aws.amazon.com/solutions/case-studies/

[BaSch] Thomas Barth, Anke Schül.


Grid Computing: Konzepte, Technologien, Anwendungen,
Wiesbaden: Vieweg+Teubner, 2006 (1.Auflage)

[BauMe] Heiko Bauke, Stephan Mertens.


Cluster Computing,
Berlin: Springer, 2009 (1.Auflage)
LITERATUR 42

[Berkeley] Michael Armbrust, Armando Fox, Rean Griffith, Anthony D. Joseph,


Randy H. Katz, Andrew Konwinski, Gunho Lee, David A. Patterson,
Ariel Rabkin, Ion Stoica, Matei Zaharia.
Above the Clouds: A Berkeley View of Cloud Computing,
Electrical Engineering and Computer Sciences,
University of California at Berkeley, Februar 2009
http://www.eecs.berkeley.edu/Pubs/TechRpts/2009/EECS-2009-28.pdf

[Gartner] Gartner Group.


Gartners hype cycle report, 2008.
Technicalreport, Gartner Group, July 2008

[Grid] DAME project.


http://voneural.na.infn.it

[GridAnatomy] Ian Foster, Carl Kesselman, Steven Tuecke.


The Anatomy of the Grid - Enabling Scalable Virtual Organizations, 2001
http://www.globus.org/alliance/publications/papers/anatomy.pdf

[HLPSC] Michael Resch, Thomas Beisel, Thomas Boenisch, Bruce Loftis, Raghu Reddy.
Performance Issues of Intercontinental Computing, 1997
http://citeseerx.ist.psu.edu

[IWay] Thomas A. DeFanti, Ian Foster, Michael E. Papka, Rick Stevens, Tim Kuhfuss.
Overview of the I-WAY: Wide Area Visual Supercomputing, 1996
http://citeseerx.ist.psu.edu

[Kircher] SHerbert Kircher.


IT: Technologien, Lösungen, Innovationen,
Berlin: Springer, 2006 (1.Auflage)

[MSCloud] Microsoft Press.


Cloud Computing mit der Microsoft Plattform
Microsoft Press PreView 1-2009

[SBMag] PC Magazine Encyclopedia.


Definition of: service bureau
http://www.pcmag.com/encyclopedia/
LITERATUR 43

[TamGue] Gerrit Tamm, Oliver Günther.


Webbasierte Dienste. Technologien, Märkte und Geschäftsmodelle: Technologien,
Markte Und Geschaftsmodelle
Heidelberg: Springer Physica-Verlag, 2005

[TheGrid] Ian Foster, Carl Kesselman.


The Grid: Blueprint for a New Computing Infrastructure: Blueprint for the New
Computing Infrastructure,
San Francisco: Morgan Kaufmann Publishers, 1998

[WikiClus] Wikipedia.
Cluster (computing)
http://en.wikipedia.org

[WikiGrid] Wikipedia.
Grid computing
http://en.wikipedia.org

[WikiMcCarthy] Wikipedia.
John McCarthy (computer scientist)
http://en.wikipedia.org

[WikiSup] Wikipedia.
Supercomputer
http://en.wikipedia.org