Seminararbeit im Studiengang M.Sc.

IT-Management and Information Systems an der Fachhochschule der Wirtschaft (FHDW)

Cloud Computing

Vorgelegt von: René Büst

Prüfer: Prof. Dr. Wilhelm Nüsser Prof. Dr. Eckhardt Koch

Eingereicht am: 11. Oktober 2009

VERZEICHNISSE

i

Inhaltsverzeichnis
Inhaltsverzeichnis Abbildungsverzeichnis 1 2 Einleitung Historische Entwicklung 2.1 Entwicklung des High Performance Computing 2.1.1 Supercomputer . . . . . . . . . . . . . 2.1.2 Cluster Computing . . . . . . . . . . . 2.1.3 Grid Computing . . . . . . . . . . . . 2.2 Entwicklung des Business Computing . . . . . 2.2.1 Utility Computing . . . . . . . . . . . 2.2.2 Service Bureaus . . . . . . . . . . . . 2.2.3 Application Service Provider . . . . . . 2.3 Definition . . . . . . . . . . . . . . . . . . . . I III 1 3 3 4 5 8 11 11 12 13 14 16 16 16 17 17 18 18 19 19 20 20 21 22 23 24 26 26 26

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

3

Eigenschaften & Hintergründe des Cloud Computing 3.1 Der Begriff der Cloud . . . . . . . . . . . . . . . . . 3.2 Cloud Architektur . . . . . . . . . . . . . . . . . . . 3.3 Typen der Cloud . . . . . . . . . . . . . . . . . . . . 3.3.1 Private Cloud . . . . . . . . . . . . . . . . . 3.3.2 Public Cloud . . . . . . . . . . . . . . . . . 3.3.3 Hybrid Cloud . . . . . . . . . . . . . . . . . 3.4 Dienste in der Cloud . . . . . . . . . . . . . . . . . 3.4.1 Infrastructure as a Service . . . . . . . . . . 3.4.2 Platform as a Service . . . . . . . . . . . . . 3.4.3 Software as a Service . . . . . . . . . . . . . 3.5 Klassifikationen der Rollen in der Cloud . . . . . . . 3.6 Nutzen durch Cloud Computing . . . . . . . . . . . 3.7 Vorteile des Cloud Computing . . . . . . . . . . . . 3.8 Nachteile des Cloud Computing . . . . . . . . . . . 3.9 Aktuelle Anwendungsbereiche des Cloud Computing 3.9.1 Prozessverarbeitung . . . . . . . . . . . . . 3.9.2 Batch Prozessverarbeitung . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . .

VERZEICHNISSE

ii

3.9.3 4

Webseiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27 28 28 29 29 30 31 31 32 33 34 35 37 38 38 39 43

Marktübersicht 4.1 Amazon Web Services 4.2 GoGrid . . . . . . . . 4.3 Google . . . . . . . . . 4.4 Salesforce.com . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

5

Fallbeispiel 5.1 Ausgangssituation . . . . . 5.2 Analyse der IT-Umgebung 5.3 Handlungskonzept . . . . 5.3.1 Einführungsphase . 5.4 Vorteile . . . . . . . . . . 5.4.1 Kostenbetrachtung 5.5 Nachteile . . . . . . . . . 5.6 Reflexion . . . . . . . . . Reflexion & Ausblick

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

6

Literatur

VERZEICHNISSE

iii

Abbildungsverzeichnis
1 2 3 4 5 6 7 8 9 10 11 12 Der Gartner Hypecycle 2009 . . . . . . . . . . . . . . . . . . . . . . . . Die historische Entwicklung des Cloud Computing . . . . . . . . . . . . Grid Computing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Application Service Provider . . . . . . . . . . . . . . . . . . . . . . . . Cloud Computing - Architektur . . . . . . . . . . . . . . . . . . . . . . . Die Hybrid Cloud . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Services im Cloud Computing . . . . . . . . . . . . . . . . . . . . . . . Nutzerrollen im Cloud Computing . . . . . . . . . . . . . . . . . . . . . Ausgangssituation der Spielwaren GmbH . . . . . . . . . . . . . . . . . Handlungskonzept für die Spielwaren GmbH . . . . . . . . . . . . . . . Einführungsphase der Migration in die Cloud . . . . . . . . . . . . . . . Vergleich der Kosten von Google Apps Professional mit einer Microsoft Exchange Lösung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 3 9 14 17 18 19 21 32 34 35 37

1

EINLEITUNG

1

1

Einleitung

Der Begriff Cloud Computing prägt seit nun mehr zwei Jahren das Bild der Informationstechnologie um Dienste und Infrastrukturressourcen über das Internet zu vermieten. Gartner sieht in Cloud Computing gar als den Hype 2009 - siehe Abbildung 1 - an und prophezeit, dass es sich in den kommenden zwei bis fünf Jahren etabliert und die Welt der Informationstechnologie grundlegend verändern wird.

Abbildung 1: Der Gartner Hypecycle 2009

Die Idee IT-Ressourcen zu mieten anstatt diese zu kaufen ist nicht neu und blickt auf eine lange Geschichte zurück, wie diese Arbeit zeigen wird. Cloud Computing verspricht kostengünstig und schnell IT-Ressourcen und Dienste zu beziehen, was zunehmend von den Großen der Internetbranche sowie Anbietern von Software as a Service Diensten, Hostingprodukten und Netz- und Infrastrukturen vorangetrieben wird. Letztendlich ist jedes dieser genannten Angebote aber nur ein Teil

1

EINLEITUNG

2

dieses großen Puzzles. Nur die (Teil-)Kombination aller genannten Angebote führt am Ende zum Cloud Computing. Cloud Computing soll zu einer dauerhaften Verbesserung der Kostenstruktur durch Kostenreduktion führen, indem die benötigten Leistungen nur nach Bedarf genutzt und anschließend abhängig vom Verbrauch abgerechnet werden. Weitere Vorteile werden in der nachhaltigen Produktivitätssteigerung und Flexibilität einer Organisation gesehen. Aber auch die Anbieter von Cloud Computing Diensten können ihren Profit anhand einer besseren Auslastung ihrer Ressourcen und die Nutzung von Skaleneffekten steigern. Neben hellen existieren aber auch immer dunkle Wolken. Sicherheit, Datenschutz(!) und Qualitätssicherung sind Themen denen sich Anbieter von Cloud Computing Diensten stellen und Lösungen finden müssen. Des Weiteren macht Cloud Computing für die Anbieter nur Sinn, wenn sie ihre Angebote, Abläufe und Prozesse standardisieren. Stellt sich die Frage, ob Unternehmen bereit sind, sich ihre Geschäftsprozesse und die IT-Infrastruktur bis ins kleinste Detail diktieren zu lassen und die Angebote der Anbieter überhaupt den Anforderungen der Unternehmen entsprechen. Aufbau der Arbeit Die Arbeit beginnt im ersten Kapitel mit der historischen Entwicklung des Cloud Computing und leitet daraus eine Definition des Begriffs ab. Das zweite Kapitel beschreibt die grundlegenden Eigenschaften und zeigt den Hintergrund und die Terminologie um im dritten Kapitel die derzeit größten Anbieter im Cloud Computing Markt vorzustellen. Das Fallbeispiel im vierten Kapitel soll die Möglichkeiten aber auch die Gefahren des Cloud Computing aufzeigen um am Ende im fünften Kapitel eine Bewertung sowie einen Ausblick der Thematik vorzunehmen.

2

HISTORISCHE ENTWICKLUNG

3

2

Historische Entwicklung

Um eine Vorstellung davon zu bekommen wie Cloud Computing entstanden ist und eine passende Definition des Begriffs zu finden, sollte zunächst ein Blick auf die historische Entwicklung der dabei betroffenen Bereiche der Informationstechnologie (bis heute) geworfen werden. Die Entwicklung zeigt, dass zwei separate Zeitstrahle siehe Abbildung 2, zum Cloud Computing führen. Unter der Betrachtung und Analyse dieser beiden Zeitstrahle wird daraus am Ende eine Definition von Cloud Computing abgeleitet und Cloud Computing somit ebenfalls technologisch eingeordnet.

Abbildung 2: Die historische Entwicklung des Cloud Computing

2.1

Entwicklung des High Performance Computing

Die historische Entwicklung beginnt mit der Betrachtung des Zeitstrahls der Entwicklung des High Performance Computing (technologische Sicht), die von den Supercomputern, über die Computercluster bis hin zum Grid Computing führt.

2

HISTORISCHE ENTWICKLUNG

4

2.1.1

Supercomputer

Supercomputer sind Hochleistungsrechner die auf eine sehr hohe Verarbeitungsleistung ausgerichtet sind. Sie verfügen über ein Array von Prozessoren, die auf eine gemeinsame Peripherie und einen gemeinsamen Hauptspeicher zugreifen können. Die Aufgaben werden parallel auf mehrere Prozessoren verteilt und anschließend ebenfalls mit hoher Parallelität abgearbeitet. Da das Array dabei aus mehreren tausend Prozessoren bestehen kann, wird damit die Arbeitsgeschwindigkeit erhöht. Die Rechnerarchitektur eines Supercomputers ist dabei speziell für eine bestimmte Anwendung angepasst, um die höchstmögliche Verarbeitungsgeschwindigkeit zu erreichen. [Adeli] In den 1970er wurden die ersten Supercomputer von der Firma Cray (benannt nach dem Unternehmensgründer Seymour Cray) hergestellt. Der erste Supercomputer bekam den Namen Cray-1 und verfügte über 250 MegaFLOPS. [WikiSup] Welche Ziele werden mit Supercomputern verfolgt? Der Wunsch aufwendige Abbildungen der Realwelt (Simulationen) und immer genauere Vorhersagen und aussagekräftige Gesamtergebnisse zu liefern ist in der Vergangenheit drastisch gewachsen. Hinzu kommt, dass Simulationen immer realitätsnaher werden und die beiläufigen Neben- und Randbedingungen zunehmen. Damit u.a. solche umfangreichen und hochparametrigen numerischen Probleme schnell gelöst werden können und immer mehr komplexere Zusammenhänge mit einbezogen werden können, sind Systeme mit extrem schneller und hoher Rechenleistung erforderlich. Für die Lösungen solcher Problemstellungen kommen Supercomputer zum Einsatz. Typischerweise werden Supercomputer heute in den folgenden Bereichen eingesetzt. • In der Klimaforschung zur Wettervorhersage. • Für die Auswertung hochauflösender bewegter Bilder in Echtzeit. • Für den Einsatz in Verteidigungssystemen als Zentrale Einheit. • In der Festkörperphysik. • In der Weltraumforschung. • Zur Berechnung von Filmsequenzen. • In den Bereichen der Simulations- und Crashtechnik.

2

HISTORISCHE ENTWICKLUNG

5

Wie zu erkennen ist, handelt es sich in den Beispielen um Bereiche, in denen komplexe Systeme oder Teilsysteme untereinander stark verbunden sind. Diese Abhängigkeiten führen dazu, das Veränderungen in einem Teilsystem sich in der Regel auch parallel auf alle weiteren vorhanden Systeme auswirken, was eine hohe Rechenleistungen voraussetzt.

2.1.2

Cluster Computing

Handelte es sich bei Supercomputern zu Beginn noch um Systeme mit spezieller Technologie, werden heute in der Regel gängige Servertechnologien eingesetzt. Dabei werden viele einzelne, in der Regel kostengünstige Server zu einem sogenannten Servercluster vernetzt, um über die Rechenleistung eines Supercomputers zu verfügen. Die Grundlagen des Cluster Computing legte Gene Amdahl als Computerarchitekt bei IBM. In seinem 1967 veröffentlichten Paper zum Thema ’Parallel Processing’ stellte er folgende These auf, die auch als Amdahl’s Law bezeichnet wird und als Basis für Multiprozessor sowie Clustercomputer gilt. Das Gesetz besagt, ’... wie sich der nicht parallelisierbare Anteil eines Programms auf die Gesamtrechenzeit auswirkt ...’[AlLeOb]. Genauer bedeutet dies, dass die Geschwindigkeitszunahme in erster Linie durch den sequentiellen Anteil des Algorithmus beschränkt wird. Das ist darauf zurückzuführen, dass sich die Ausführungszeit nicht durch Parallelisierung verkleinern lässt.[Amdahl] Die ersten Ideen einen Computercluster aufzubauen stammen aus den Zeiten, in denen auch die ersten Computernetzwerke aufgebaut wurden. Der Grundgedanke zum Aufbau solcher Netzwerke bestand darin, Ressourcen in Form von Computersystemen untereinander zu verbinden und damit einen quasi Computercluster aufzubauen. Durch die Einführung der Paket vermittelnden Netzwerke im Jahre 1962 durch die Firma RAND, wurde auf dieser Grundlage 1969 das ARPANET Projekt gegründet. Dieses gilt als das erste Commodity-Netzwerk auf Basis eines Computercluster, in dem vier unterschiedliche Computercenter miteinander verbunden wurden. Jedes dieser vier Computercenter war für sich selbst wieder ein Computercluster, die aber nur autonom arbeiteten. Aus dem ARPANET wurde später das Internet, weshalb das Internet auch als die ’Mutter’ aller Computercluster gilt, aus dem Grund, das quasi alle Computerressourcen inkl. aller bereits bestehenden Cluster zusammengeschlossen werden können.[WikiClus]

2

HISTORISCHE ENTWICKLUNG

6

Ein Computercluster beschreibt also eine meist große Anzahl von einzelnen miteinander vernetzten Computern, die dazu verwendet werden einzelne Teilaufgaben, die zu einer Gesamtaufgabe gehören, parallel zu verarbeiten. Von außen betrachtet wirkt ein Computercluster wie ein einzelnes System. Die jeweiligen Knoten sind dabei unterneinander über ein schnelles Netzwerk verbunden. Durch den Aufbau solcher Serverfarmen wird die Rechenkapazität und Verfügbarkeit deutlich gegenüber eines einzigen Computers erhöht. Vor allem die Ausfallsicherheit eines solchen Computercluster ist ein entscheidener Vorteil gegenüber eines einzelnen Computersystems. Fällt innerhalb eines Clusterverbunds ein einzelnes System aus, hat das keinen direkten Einfluss auf alle anderen beteiligten Systeme innerhaln des Clusters. Es wird damit also eine Redundanz erzielt. Computercluster können am besten für die Verarbeitung von Batch-Jobs eingesetzt werden, bei denen viele parallele Teilberechnungen durchgeführt werden. Handelt es sich bei der Verarbeitung jedoch um Teilaufgaben, die im hohen Maße synchronisiert werden müssen, sind Computercluster dafür nicht geeignet, da der Kommunikationsoverhead zwischen den einzelnen Systemen den Performancegewinn, der durch die parallele Verarbeitung entsteht, wieder relativiert. [BauMe] Der erste kommerziel zu erwerbende Computercluster (ARCnet) wurde im Jahr 1977 von der Firma Datapoint vorgestellt. Mit dem sogenannten VAXCluster für ihr VAX-System hatte die Firma DEC im Jahr 1983 den ersten richtigen Erfolg im Bereich des kommerzielen Clustercomputing. [WikiClus] Arten von Computercluster Das Ziel des Cluster Computing ist die Bereitstellung einer sehr hohen Rechenleistung bzw. einer besonders ausfallsicheren Rechnerumgebung. Von diesen Zielen ausgehend werden verschiedene Arten von Computercluster und dadurch auch deren Einsatzfeld definiert. Bei Clustersystemen wird grundsätzlich zwischen homogenen und heterogenen Clustern unterschieden. Homogene Cluster zeichnen sich dadurch aus, dass die jeweiligen Computer, die dem Cluster angehören, alle das gleiche Betriebssystem und die gleiche Hardware einsetzen. Computer, die zu einem heterogenen Cluster gehören, dürfen über unterschiedliche Betriebssysteme und Hardware verfügen.

2

HISTORISCHE ENTWICKLUNG

7

Heutzutage werden drei Arten von Computercluster unterschieden und eingesetzt: • Hochverfügbarkeit Cluster Hochverfügbarkeit Cluster werden verwendet die Verfügbarkeit zu steigern und für eine bessere Ausfallsicherheit zu sorgen. Aus diesem Grund darf die gesamte Hardware als auch die Software eines solchen Cluster in keiner Weise über einen SinglePoint-of-Failure verfügen, da die Definition und der Zweck diesem wiedersprechen würde. Im Fehlerfall werden die Dienste von dem defekten Host des Cluster auf einen anderen Host automatisch übertragen. Einsatzgebiete solcher Clustersysteme sind Bereiche, in denen eine Ausfallzeit maximal einige Minuten pro Jahr erlaubt. Eine besondere Art von Hochverfügbarkeit Cluster sind die sogenannten ’stretched Cluster’. In diesem Fall werden einzelne Hosts eines Cluster räumlich getrennt in verschiedene weit voneinander entfernte Rechenzentren untergebracht. Kommt es in einem der Rechenzentren zu einem nicht vorhersagbaren Problem, können die Hosts des anderen Rechenzentrums vollständig die Aufgaben übernehmen. • Load-Balancing Cluster Load-Balancing Cluster werden dazu verwendet eine Lastverteilung auf mehrere Computer zu ermöglichen. Aus der Benutzersicht steht ihm nur eine zentrale Einheit gegenüber, die aber logisch gesehen aus mehreren vernetzten Systeme besteht. Um die Leistung des gesamten Cluster zu erhöhen, werden nicht die einzelnen Hosts für sich aufgerüstet, sondern ein zusätzlicher Host dem Cluster hinzugefügt. Einsatzbereiche sind Umgebungen, in denen die Anforderungen an die Rechenleistung extrem hoch sind. • High Performance Computing Cluster High Performance Computing Cluster werden überwiegend dazu verwendet Berechnungsverfahren durchzuführen, wobei die Berechnungen auf mehrere Hosts verteilt werden. Hierbei werden zwei unterschiedliche Arten der Aufgabenverteilung unterschieden. Eine Möglichkeit besteht darin, die Aufgaben in unterschiedliche Pakete zu verteilen, die dann parallel auf mehreren Hosts ausgeführt werden. Die andere Variante wäre, die Aufgaben auf die einzelnen Hosts direkt zu verteilen. Einsatzgebiete der High Performance Computing Cluster liegen überwiegend in den wissenschaftlichen Bereichen, aber auch die Serverfarmen für das Rendern von 3D-Computergrafiken und Computeranimationen gehören zu dieser Art von Cluster.

2

HISTORISCHE ENTWICKLUNG

8

2.1.3

Grid Computing

Die Charakteristiken von Computercluster sind das Bereitstellen von reiner Rechnerleistung in einem lokalen begrenzten Bereich. Die nächste Herausforderung bestand also darin, die Rechenleistung nicht nur lokal, sondern auch global verfügbar zu machen und neben der Rechenleistung z.B. auch Daten und Applikationen bereitzustellen. Mitte der 1990er wurde der Begriff des Metacomputing als Möglichkeit zur Erweiterung von Paralleler Datenverarbeitung und Custer Computing eingeführt. Die Idee bestand darin, große Computersysteme über WAN-Leitungen (Wide Area Network) miteinander zu verbinden. [IWay] Im Jahr 1997 wurden erstmals zwei Supercomputer des High Performance Computing Center Stuttgart (HLRS) und des Pittsburgh Supercomputing Centre (PSC) miteinander verbunden. Trotz der Verfügbarkeit von hohen Bandbreiten innerhalb der nationalen und internationalen Forschungsnetzwerke scheiterte das Experiment auf Grund der Latenz. [HLPSC] Das Metacomputing bezieht sich aber lediglich nur auf Computer (Rechenleistung) im Allgemeinen. Ian Foster und Carl Kesselman stellten im Jahre 1999 ein neues erweitertes Konzept mit dem Namen Grid Computing vor, das neben Computer auch andere Arten von (IT-)Ressourcen wie Software, Datenbanken, Rechenleistung, Speicherplatz oder spezielle Hardware beinhalten und miteiander vernetzen kann. [TheGrid] Der Begriff des Grid wird abgeleitet aus dem englischen Wort Electrical Power Grid (Deutsch: Stromnetz), dessen Idee darin besteht, die Ressourcen den Benutzern so zur Verfügung zu stellen, als wenn sie den Strom aus der Steckdose bekommen würden. Dabei verfügt das Grid über standardisierte Schnittstellen, über die der Benutzer seine Anfragen übermitteln kann und ihm die Ressourcen dann automatisiert zugeteilt werden. Die Ressourcen sind dabei über das Internet verteilt und können unterschiedlichen ’virtuellen’ Organisationen angehören. Anhand der Schnittstellen kann der Status der Ressourcen abgefragt und diese direkt angesprochen werden. Ein entscheidener Vorteil liegt darin, dass der geographische Ort an dem sich die Ressource befindet nicht mehr von Bedeutung ist - siehe Abbildung 3. Auf Grund des beliebigen und weltweiten Zugriffs auf Ressourcen über das Internet gilt das Grid als Generalisierung des World Wide Web. Davon abgeleitet steht die Technologie des Grid Computing somit als die Basistechnologie für die Koordination und Verarbeitung organisationsübergreifender Geschäftsprozesse und den gemeinschaftlichen Austausch und die Nutzung von Ressourcen. [BaSch]

2

HISTORISCHE ENTWICKLUNG

9

Abbildung 3: Grid Computing Quelle: [Grid]

Das entscheidende Ziel des Grid Computings bestand also darin, Ressourcen gemeinschaftlich global zu nutzen sowie diese zu koordinieren und darüber hinaus gemeinsam Probleme institutionsübergreifend in dynamischen virtuellen Organisationen zu lösen. Genauer bedeutet dies, dass zu Beginn Formalitäten wie das Abrechnungsschema und die Zugangsrechte geklärt werden und anschließend der Zugriff auf die Ressourcen wie z.B. Rechnerleistung oder Anwendungen für die gemeinschaftliche Nutzung bereitgestellt werden. Der Begriff der virtuellen Organisation beschreibt in diesem Fall eine dynamische Allianz von Organisationen, die ein gemeinsames Interesse während der Nutzung des Grids vertreten. [GridAnatomy] Arten von Grid Computing Je nachdem wie die Ressourcen miteinander vernetzt sind und um was für ein Anwendungsszenario es sich handelt, können Grids in unterschiedliche Arten unterteilt werden. Nachfolgend werden fünf unterschiedliche Arten betrachtet. [BaSch] • Compute Grids Compute Grids werden verwendet um einem Benutzer Rechnerleistung bzw. Rech-

2

HISTORISCHE ENTWICKLUNG

10

nerkapazität, die ihm in seiner eigenen Umgebung nicht zur Verfügung stehen, verteilt bereitzustellen. Das Bereitstellen kann hierbei eine derzeit nicht verwendete Ressource - z.B. eine Workstation außerhalb der Geschäftszeiten sein, oder aber auch ein Hochleistungclustersystem. • Data Grids Data Grids werden eingesetzt um große verteilte Datenmengen gemeinsam zu Nutzen und diese zu verarbeiten. Dabei wird eine sogenannte Data-Federation, eine organisationübergreifende Sicht auf alle Daten, die beispielsweise einem Projekt zugewiesen sind, definiert. Bei so einer Data-Federation handelt es sich um ein dezentral verwaltetes System, bei dem derjenige, der die Daten in dieser Umgebung zur Verfügung stellt auch die uneingeschränkte Kontrolle über diese Daten behält. • Application Grids Application Grids waren der erste Ansatz um virtuelle Organisationen zu etablieren und damit die organisationsübergreifende gemeinsame Nutzung von Ressourcen voranzutreiben. Die Betreiber der Grids sollten dadurch eine höhere Auslastung und die Benutzer ein besseres Angebot erfahren. Themen, die innerhalb dieses Grids auftreten, sind sichere und schnelle Datenverbindungen, Authentifikationen, Authorisierungen und Single-Sign-On sowie Accounting und Abbrechnungsmöglichkeiten. • Resource Grids Resource Grids sind die Erweiterung der Application Grids. Diese definieren ein Rollenmodell, in dem eindeutig zwischen einem Grid Benutzer, einem Grid Provider und einem Resource Provider unterschieden wird. Die Hierarchie ist logisch geordnert. Ein Grid Benutzer verwendet die Grid Infrastruktur des Grid Provider um die dort vorhandenen Ressourcen des Resource Providers zu nutzen. Für den Grid Benutzer unterscheidet sich die Funktionalität des Application- und des Resource Grids nicht. Das Konzept der beiden hat aber einen gravierenden Unterschied. Application Grids werden vertikal integriert, was bedeutet dass der Bedarf an Fremdleistungen sehr gering gehalten wird und die Komponenten individuell hinzugefügt werden. Dagegen müssen bei einem Resource Grid alle Schnittstellen definiert und offen gelegt werden, da jeder Ressource Provider über die Spezifikation der Grid Infrastruktur des Grid Providers informiert sein muss um dort ggf. seine Ressourcen anbieten zu können.

2

HISTORISCHE ENTWICKLUNG

11

• Service Grids Ein Service Grid verbindet das Konzept der Serviceorientierung mit der Technik der Resource Grids. Ein Service wird in diesem Zusammehang als ein Bündel von mehreren Komponenten betrachtet, von dem jede einzelne Komponente wiederum als Utility von einem anderen Resource Provider zur Verfügung gestellt wird. In dieser Form des Grids existiert eine übergeordnete Form des Grid Providers, der sogenannte Grid Service Provider, der im direkten Kontakt mit den Grid Benutzern steht und ihnen einen Komplettservice anbietet. Das bedeutet, dass der Grid Benutzer nicht darüber informiert ist, welcher Resource Provider ihm welche Ressource bereitstellt.

2.2

Entwicklung des Business Computing

Die historische Entwicklung wird nun mit der Betrachtung des Zeitstrahls des Business Computing (serviceorientierte Sicht) fortgesetzt, der vom Utility Computing über die Service Bureaus bis hin zu den Application Service Providern führt.

2.2.1

Utility Computing

Bereits 1961 definierte Prof. John McCarthy [WikiMcCarthy] das Time Sharing von Ressourcen wie z.B. die Nutzung von Rechnerleistung oder Anwendungen als Geschäftsmodell. Er stellte sich dabei vor, diese Ressourcen der Öffentlichkeit als ein Public Utility zur Verfügung zu stellen, also genau so, wie auch Strom, Wasser oder Gas bereitgestellt wird. Der Begriff Utility Computing wird von [Kircher] wie folgt definiert: ’Utility Computing beschreibt eine grundlegende Transformation der Bereitstellung und des Managements von IT-Services - von einem technologieorientierten zu einem geschäftsorientierten Ansatz. Diese Umstellung erfordert eine äußerst flexible und effizient verwaltete dynamische IT-Infrastruktur mit vollständiger Kostenkontrolle, flexibler Kostenverrechnung und aktivem SLA-Management.’ Beim Utility Computing bekommt also ein ’Kunde’ von einem ’Serviceanbieter’ Rechenkapazität (Ressourcen) und die gesamte Infrastruktur inkl. dessen Management

2

HISTORISCHE ENTWICKLUNG

12

zur Verfügung gestellt. Dabei wird der Kunde nach dem Prinzip ’pay per use ’, also bezahle nur das, was Du tatsächlich verbrauchst, abgerechnet - was auch den entscheidenen Ansatz beim Utility Computing ausmacht. Für Utility Computing wird oft auch der Begriff ’On-Demand Computing’ (deutsch: in etwa ’rechnen auf Anfrage’) verwendet. Das Ziel von Utility Computing ist klar: Steigerung der effizienten Nutzung der Computerressorucen und das Senken der dabei anfallenden Nebenkosten (Strom, etc.). Der große Vorteil von Utility-Computing ist eine bessere Wirtschaftlichkeit, da Unternehmen nur für die Computerressorucen bezahlen, die sie nutzen, wenn sie diese nutzen. Rechenzentren von Unternehmen sind in der meisten Zeit nicht ausgelastet. Server sind in der Regel im Durchschnitt mit 15% ausgelastet, sind also in 85% der Zeit im Leerlauf. Unternehmen statten ihre Rechenzentren grundsätzlich mit zu vielen Ressourcen aus. Dies ist auf der einen Seiten genau der richtige Ansatz, denn die Systeme müssen auch in Spitzenzeiten (z.B. Urlaubszeit bei einem Online Reiseveranstalter aber auch für unvorhersehbare Ereignisse) voll funktionsfähig sein und dürfen nicht plötzlich überlastet sein und ausfallen. Andererseits sind die Systeme für normale Zeiten total überdimensioniert. Um genau diese eben angesprochenen Spitzenzeiten abzufangen ist Utility Computing das richtige Konzept, da der Anbieter in der Zeit die (angemieteten Systeme) dynamisch vergrößern kann. Die Kosten sind in den normalen Zeit ’...relativ gering und konstant...’ und steigen nur während der Hochkonjunktur, da auch die Systeme wachsen. Anbieter von Utility Computing Diensten profitieren von den Größenvorteilen ihrer Systeme, da sie dieselbe Infrastruktur nutzen können, um damit mehrere Kunden zu bedienen. Wie zuvor im Grid Computing wird auch im Utility Computing der Begriff der Virtuellen Organisation verwendet, mit denen Organisationen Computer Ressourcen in dem Moment kaufen oder verkaufen, wenn diese gerade benötigt werden.

2.2.2

Service Bureaus

Ein auf das Utility Computing aufbauendes und daher ebenfalls aus den 1960er stammendes Geschäftsmodell sind die sogenannten Service Bureaus. Die Idee der Service Bureaus bestand darin, die eigenen Ressourcen wie z.B. Computer oder Mitarbeiter für andere

2

HISTORISCHE ENTWICKLUNG

13

Unternehmen gegen eine Gebühr zur Verfügung zu stellen. Weitere Dienstleistungen, die durch Service Bureaus übernommen wurden waren, u.a. die Bereitstellung von Speicherplatz, Datenverarbeitung, individuelle Programmierung, Mietsoftware, die auf den Systemen des Service Bureaus betrieben wird, aber auch Bereiche wie Desktop Publishing oder Bildverarbeitung gehörten zum Angebot. Um eine große Anzahl von Kunden zu erreichen und damit Skaleneffekte zu erzielen, wurden die Dienstleitungen zu Produkten zusammengefasst. Für die Verbindung von den Kunden zu den Service Bureaus wurden einfache Wählverbindungen oder private Mietleitungen verwendet. [SBMag]

2.2.3

Application Service Provider

Als die indirekten Nachkommen der Service Bureaus gelten die Application Service Provider. Application Service Provider sind Dienstleister, die über eine Datenverbindung Anwendungssoftware wie z.B. ein CRM-System (Customer Relationship Management) anbieten, das von einem Kunden gegen eine Nutzungsgebühr gemietet werden kann siehe Abbildung 4. Der Vorteil für den Kunden besteht darin, dass er sich nicht mehr um die Administration der Software wie z.B. eine tägliche Datensicherung oder das Einspielen von Updates kümmern muss. Die Software befindet sich innerhalb der Infrastruktur auf den Servern des Application Service Providers, der sich um die gesamte Maintenance, was auch die Betreuung der Endbenutzer beinhalten kann, kümmert. Bekannte Anwendungen, die über einen Application Service Provider gemietet werden können, sind z.B. Office Suites, E-Mail Lösungen, CRM-System oder ERP-Systeme (Enterprise Resource Planning). [TamGue]

2

HISTORISCHE ENTWICKLUNG

14

Abbildung 4: Application Service Provider Quelle: [ASP]

In der Anfangszeit der Application Service Provider gab es immer wieder Schwierigkeiten bei der Umsetzung dieses Modells, da die zu der Zeit vorhandene Hardware und die Telekommunikationstechnologie nicht leistungsfähig genug und die Mandantenfähigkeit der Software nicht gegeben war.

2.3

Definition

Die beiden Zeitstrahle - siehe dazu auch Abbildung 2 - verdeutlichen die Entwicklung der Bereiche, die zum heutigen Cloud Computing führen. Aus dem Technologiebereich kristallisierte sich das Grid Computing heraus, das einen Ersatz für Hochleistungsrechner darstellt und die Möglichkeit bietet verteilte Ressourcen wie z.B. Rechenleistung nach Bedarf abzurufen. Der serviceorientierte Bereich hingegen bringt zwei Ideen hervor, die heutzutage wieder aufgegriffen werden. Das ist zum einen das Utility Computing, bei dem IT-Services und Rechenleistung abhängig nach dem Verbrauch abgerechnet werden und zum anderen die Application Service Provider, die Anwendungssoftware gegen eine Nutzungsgebühr bereitstellen und sich dabei um die gesamte Maintenance kümmern. Darüber hinaus wurden mit den Service Grids bereits die serviceorientierten Ansätze des Business Computing dem Grid Computing hinzugefügt.

2

HISTORISCHE ENTWICKLUNG

15

Werden die Ergebnisse der Zeitstrahle zusammengefasst führt das zur folgenden Definition des Cloud Computing: Cloud Computing vereinigt die Technologien des Grid Computing mit der Serviceorientierung des Business Computing, indem über dynamisch skalierbar verteilte Infrastrukturen Ressourcen wie Hardware und Software von einem oder mehreren Anbietern zugleich bereitgestellt und anhand des Verbrauchs bzw. einer Nutzungsgebühr abgerechnet werden.

3

EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING

16

3

Eigenschaften & Hintergründe des Cloud Computing

Nachdem im vorherigen Kapitel die historische Entwicklung des Cloud Computing beschrieben und daraus eine Definition hergeleitet wurde, befasst sich dieses Kapitel mit den Ideen und Konzepten des Cloud Computing und stellt in diesem Zusammenhang die gebräuchlichen Terminologien vor.

3.1

Der Begriff der Cloud

Das Wort Cloud ist aus der Illustration der Netzwerktechnik abgeleitet, in der das Internet immer als Wolke (Cloud) dargestellt wird. Das hängt damit zusammen, dass es sich beim Internet um ein globales, dezentralisiertes Netz handelt, welches aus vielen lokalen und nationalen Netzen besteht, die miteinander verbunden sind. Wie Daten innerhalb des Internets ausgetauscht werden, ist von außen nicht direkt sichtbar. Da auf sämtliche Daten und Anwendungen im Sinne des Cloud Computing über das Internet zugegriffen wird, steckt nun alles in der Wolke.

3.2

Cloud Architektur

Das Schlüsselkonzept des Cloud Computing ist ein riesiges Netzwerk bestehend aus vielen Servern, die in einem Grid organisiert sind. Alle Server verarbeiten die Anfragen parallel, indem die Ressourcen aller Beteiligten kombiniert werden um damit die Leistung eines Supercomputers zu erzielen, siehe auch Grid Computing. Die Server werden in diesem Fall von Dienstleistern betrieben und sind über mehrere Rechenzentren verteilt. Der Zugriff auf die Cloud erfolgt dabei über das Internet. Für den Benutzer stellt sich die Cloud nach außen wie eine Anwendung dar. Die gesamte Infrastruktur, die für die Verabeitung benötigt wird, ist dabei unsichtbar. Eine abstrakte Sicht der Cloud Computing Architektur illustriert Abbildung 5.

3

EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING

17

Abbildung 5: Cloud Computing - Architektur

3.3

Typen der Cloud

Generell werden drei Arten von Cloud Computing unterschieden. Dabei kommt es darauf an, wie und von wem die Cloud eingesetzt wird, woraus sich dann auch der Name ableitet.

3.3.1

Private Cloud

Von einer Private Cloud wird gesprochen, wenn Organisationen ihre eigenen Rechenzentren betreiben / eigenen Server angemietet haben und ihre Dienste nur für Ihre eigenen (geschäftlichen) Zwecke innerhalb ihrer eigenen privaten Netze verwenden und der Allgemeinheit nicht zur Verfügung stellen. Die Datensicherheit, ’Corporate Governance’ und Zuverlässigkeit liegen damit in ihrem eigenen Einflussbereich. Aus diesem Grund werden Private Clouds nur indirekt zum Cloud Computing gezählt.

3

EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING

18

3.3.2

Public Cloud

In der Public Cloud dagegen werden die Dienste (Rechenkapazität/ Speicherplatz etc.) gegen Bezahlung oder kostenlos der Allgemeinheit zur Verfügung gestellt. Die oben genannten Aufgaben, die ein Unternehmen in der Private Cloud vornimmt, werden in der Public Cloud dann von einem Drittanbieter übernommen. Die Aufgaben und Services von unterschiedlichen Kunden werden dabei auf derselben Infrastruktur (Server, Speicher, etc.) gemeinsam gehostet und verarbeitet. Ein einzelner Kunde hat keine Kenntnis darüber, wessen Dienste ebenfalls auf derselben Infrastruktur gespeichert und verarbeitet werden.

3.3.3

Hybrid Cloud

Die Hybrid Cloud stellt eine Mischung aus der Private und der Public Cloud dar. Dabei verfügen Unternehmen zwar über ihre eigene Private Cloud, verwenden aber zusätzlich Dienste aus der Public Cloud von externen Anbietern. Die Attraktivität besteht vor allem darin, dass der externe Anbieter bei Bedarf schneller und kostengünstiger die benötigte Infrastruktur/ Dienste erhöhen bzw. verkleinern kann. Die Dienste werden so in die Private Cloud integriert, dass der Endanwender nicht merkt, dass er eigentlich woanders arbeitet. Abbildung 6 veranschaulicht das Verständnis einer Hybrid Cloud.

Abbildung 6: Die Hybrid Cloud

3

EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING

19

3.4

Dienste in der Cloud

Innerhalb der Wolke existieren drei unterschiedliche Möglichkeiten wie Dienstleistungen bereitgestellt werden können. Da sie aufeinander aufbauen wird in diesem Zusammenhang auch von Schichten (Englisch: layers) gesprochen. Anhand dieses Drei-Schichten Modells ergeben sich neue Möglichkeiten für per pay use Geschäftsmodelle. Abbildung 7 von [MSCloud] illustriert die unterschiedlichen Möglichkeiten.

Abbildung 7: Services im Cloud Computing Quelle: [MSCloud]

3.4.1

Infrastructure as a Service

Infrastructure as a Service (IaaS) ist die unterste Schicht des Modells. Sie bildet die Grundlage und stellt die grundlegenden Dienste wie Speicherplatz und Rechenkapazität bereit. In diesem Zusammenhang kann auch von Hardware as a Service (HaaS) gesprochen werden, da die gesamte Infrastuktur - Server, Speicherplatz, aber auch Router und Switches - mittels Virtualisierung bereitgestellt und gemietet (i.d.R pay per use) werden. Die gesamte Infrastruktur ist so skaliert, dass sie in Zeiten von Spitzenlast dynamisch erweitert wird und somit unterschiedlichen Auslastungen angepasst werden kann. Bei IaaS ist der Drittanbieter lediglich für die Bereitstellung und Wartung der Hardware zuständig. Alle anderen benötigten Ressourcen wie z.B. das Betriebssystem, Anwendungen etc. obligen dem Unternehmen.

3

EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING

20

3.4.2

Platform as a Service

Platform as a Service (PaaS) ist die nächste - mittlere - Schicht und geht einen Schritt weiter. Sie ist dafür zuständig eine transparente Entwicklungsumgebung bereitzustellen. Dabei stellt der Drittanbieter eine Plattform zur Verfügung auf der (Web)-Anwendungen entwickelt, getestet und gehostet werden können. Die Anwendungen werden anschließend auf der Infrastruktur des Anbieters ausgeführt und nutzen dessen Ressourcen. Der vollständige Lebenszyklus einer Anwendung kann darüber vollständig verwaltet werden. Über APIs können die Dienste auf der Plattform des jeweiligen Anbieters angesprochen werden. Der Vorteil besteht darin, dass vor allem kleine Unternehmen ihre Entwicklungsinfrastruktur auf ein Minimum beschränken können. Sie benötigen lediglich einen Desktop-PC, einen Web-Browser, evtl. eine lokale IDE, eine Internetverbindung und ihr Wissen, um Anwendungen zu entwickeln. Der Rest obligt dem Drittanbieter, der für die Infrastruktur (Betriebssystem, Webserver, Entwicklungsumgebung etc.) verantwortlich ist. Auch hier erfolgt die Abrechnung mit dem Prinzip per pay use.

3.4.3

Software as a Service

Software as a Service (SaaS) ist die oberste und letzte Schicht. Sie stellt dem Anwender vollständige Anwendungen zur Verfügung. Sie kann als eine Art Distributionsmodell verstanden werden, bei dem die Nutzung von Software (Lizenzen) über das Internet von einem Drittanbieter angeboten wird. Der Drittanbieter übernimmt dabei u.a. die Wartung/ Aktualisierung und das Hosting der Software. Für den Anbieter besteht der Vorteil darin, dass nur eine Instanz einer Software auf den Servern bereitgestellt werden muss, welche unzählige Anwender gleichzeitig nutzen können. Wird die Software auf einen aktuellen Stand gebracht, genügt ein Update Vorgang an zentraler Stelle und die Software ist für alle Anwender gleichzeitig aktuallisiert. Der Vorteil für den Anwender besteht darin, dass lediglich - wie schon bei PaaS - nur ein Desktop-PC, ein Web-Browser und eine Internetverbindung ausreicht um z.B. Dienste wie E-Mail, Office Anwendungen oder sogar ERP-Systeme nutzen zu können. Die Anschaffung und Wartung großer Serverlandschaften bzw. Softwarepakete entfällt ebenso wie das ’lästige’ Updaten der lokalen Anwendungen. Der Drittanbieter sorgt immer für einen aktuellen Stand der Software und stellt die gesamte Infrastruktur für das Hosting der Software bereit. Dazu gehören auch das Speichern von Dateien (Dokumenten) auf den Servern des Anbieters. Der Anbieter ist demnach für alle notwendigen Bereiche des Betriebs, wie Verfügbarkeit, Backup, Redun-

3

EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING

21

danzen und auch die Stromversorgung verantwortlich. Auch hier erfolgt die Abrechnung wieder mit pay per use, mit dem kleinen Unterschied, dass die Kosten pro nutzenden Anwender der Software berechnet werden.

3.5

Klassifikationen der Rollen in der Cloud

Im Cloud Computing werden vier Arten von Nutzerrollen unterschieden. Zum einen gibt es die SaaS-Benutzer, also diejenigen Unternehmen, Mitarbeiter aber auch Privatanwender, die einen SaaS Dienst verwenden. Des Weiteren wird von den SaaS-Providern gesprochen, die den SaaS-Benutzern ihre Dienste bereitstellen. Den SaaS-Providern wird zugleich die Rolle des Cloud-Benutzers zugesprochen, da von ihnen die Dienste der dritten Nutzerrolle, nämlich den Cloud-Providern, in Anspruch genommen wird. Ein CloudProvider steht im eigentlichen Sinne für den Betreiber der Wolke, ihm gehört in der Regel das Rechenzentrum und die gesamte Infrastruktur, die dazugehört. Der SaaS-Provider kann das Rechenzentrum nutzen um mittels der Infrastruktur dem SaaS-Benutzer seine Dienste zur Verfügung zu stellen. Abbildung 8 veranschaulicht das Konzept nochmals.

Abbildung 8: Nutzerrollen im Cloud Computing Quelle: [Berkeley]

In einigen Fällen kann der Cloud-Provider gleichzeitig die Rolle des SaaS-Providers übernehmen. Das ist genau dann der Fall, wenn der Betreiber des Rechenzentrums auch SaaS Dienste direkt anbietet. Genauso kann aber auch ein SaaS-Benutzer zusätzlich die Rolle eines Cloud-Benutzers einnehmen, nämlich genau dann, wenn dieser z.B. seine gesamten Serverkapazitäten (Speicher, Rechenkapazität, etc.) direkt in das Rechenzentrum eines Cloud-Providers auslagert.

3

EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING

22

Im Allgemeinen kann man sagen, dass sich die Probleme der jeweiligen Rollen verlagern. Der SaaS-Benutzer verschiebt seine ’Probleme’ in Form von Software und Diensten zum SaaS-Provider, der wiederum seine ’Probleme’ in Form eines Rechenzentrums an den Cloud-Provider auslagert.

3.6

Nutzen durch Cloud Computing

Cloud Computing bietet den Anbietern von Cloud Diensten sowie den Anwendern einige Nutzenvorteile. Anbieter von Cloud Services haben Zugriff auf einen unendlich großen Pool von Speicherplatzressourcen und Rechenkapazitäten um ihre Anwendungen ausführen zu lassen. Sie sind nicht mehr durch physikalische Gegebenheiten eingeschränkt, da neue Wege für den Zugriff auf Informationen und die Verarbeitung und Analyse von Daten zur Verfügung stehen. Darüber hinaus bestehen damit Möglichkeiten Anwender und Ressourcen von jedem beliebigen Ort auf der Erde aus miteinander zu verbinden. Ein Anwender ist nicht mehr an einen und denselben Computer gebunden. Webanwendungen und damit auch die Daten sind mit jedem beliebigen Computer erreichbar, unabhängig vom Ort und dem Netzwerk, mit dem er verbunden ist. Daten, die in der Cloud gespeichert werden, sind immer vorhanden, auch wenn der Computer plötzlich ausfällt. Das erhöht die Datensicherheit. Ein weiterer Nutzen für den Anwender ist die Möglichkeit der globalen Zusammenarbeit. Anwender/ Mitarbeiter an verschiedenen Standorten können zur selben Zeit an der selben Datei arbeiten, was die Effezienz der Zusammenarbeit deutlich erhöht. Zu guter Letzt senkt Cloud Computing durch effizientes Ressourcensharing die Kosten. Die Cloud Computing Infrastruktur kann überall vorhanden sein, so dass Unternehmen nicht mehr gezwungen sind ihre eigenen Rechenzentren zu betreiben. Darüber hinaus müssen die eigenen IT-Ressourcen nicht mehr überdimensioniert ausgelegt werden um Spitzenzeiten abzufangen. In Zeiten zu denen z.B. ein Webserver mit vielen parallelen Anfragen überhäuft wird, können Rechenleistung und Service aus der Cloud dynamisch bezogen werden, je nachdem, was gerade benötigt wird. Ist die Überlast vorbei, werden die Ressourcen wieder auf ein Mindestmaß heruntergefahren.

3

EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING

23

3.7

Vorteile des Cloud Computing

• Geringere Kosten für Arbeitsplatzrechner Für die Nutzung von Cloud Computing Applikationen werden keine leistungsfähigen Arbeitsplatzrechner mehr benötigt. Die Anwendungen befinden sich in der Cloud und nicht mehr lokal auf dem Computer und werden über einen Webbrowser bedient. Dadurch ist eine hohe Rechenleistung und Speicherplatz auf dem lokalen System nicht mehr notwendig. • Leistungssteigerung Das Arbeiten mit lokalen Systemen wird durch die Nutzung von Cloud Computing Anwendungen beschleunigt. Die Software und Daten der Anwender werden nicht mehr lokal gespeichert, wodurch das System entlastet wird. • Geringere Kosten der IT-Infrastruktur Unternehmen können darauf verzichten in eine Vielzahl eigener leistungsstarker Server zu investieren und stattdessen die Rechenleistung etc. aus der Cloud beziehen. Interessant ist dies vor allem für Unternehmen, die saisonale Hochzeiten ausgleichen müssen und aus diesem Zweck ihre Systeme überdimensionieren müssen. • Geringere Instandhaltungskosten Durch die Reduzierung der eigenen Serverfarm sinken die Instandhaltungskosten. Die Instandhaltungskosten der Software entfallen praktisch komplett, da dieses durch einen externen Anbieter übernommen wird. • Geringere Kosten für Software Anstatt für jeden Arbeitsplatz einzelne Softwarepakete zu kaufen, besteht die Möglichkeit nur diejenigen Mitarbeiter die Software in der Cloud nutzen zu lassen, die diese auch benötigen. Selbst wenn die Kosten einer webbasierten Anwendung im Vergleich zu herkömmlicher Software gleich wären, würde die IT-Abteilung durch fehlende Installation und Wartung der webbasierten Software Kosten einsparen können. • Software Updates on Demand Webbasierte Anwendungen können zentral und praktisch auf die Minute ausgetauscht werden. Die Software ist zu jeder Zeit auf dem aktuellen Stand, egal wann der Benutzer sich anmeldet.

3

EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING

24

• Höhere Rechenleistung Durch den Einsatz von Cloud Computing haben Unternehmen zu jeder Zeit den Zugriff auf die gesamten Ressourcen der Cloud und sind nicht mehr auf die Geschwindigkeiten beschränkt, die ihr eigenes Rechenzentrum ihnen bietet. Dadurch haben sie die Möglichkeit ihre Daten wie von einem Supercomputer verarbeiten zu lassen. • Unbegrenzter Speicherplatz Im Vergleich zu einem Arbeitsplatzrechner oder einem Storage in einem Rechenzentrum ist der Speicherplatz in der Cloud praktisch unbegrenzt. Unternehmen haben dadurch den Vorteil ihren Speicherplatz dynamisch zu beziehen. Der angemietete Speicherplatz in der Cloud wächst also mit den Daten, die dort abgelegt werden. • Höhere Datensicherheit Daten werden in der Cloud redundant (über mehrere Standorte) gespeichert, ein Datenverlust ist dadurch im Prinzip ausgeschlossen. Sollte ein Arbeitsplatzrechner abstürzen, sind die Daten davon nicht mehr betroffen. Lokale Datensicherungen können dadurch entfallen. • Einfachere Zusammenarbeit Der klassische Dokumentenaustausch funktioniert so, dass die Daten auf einem Server im Netzwerk abgelegt oder per E-Mail an den Kollegen verschickt werden. Dabei konnte immer nur ein Benutzer zur Zeit an dem Dokument arbeiten. Durch das Ablegen der Daten in der Cloud können nun mehrere Benutzer - auch standortübergreifend - gleichzeitig auf ein Dokument zugreifen und dieses ebenfalls zur selben Zeit bearbeiten. Die Zusammenarbeit innerhalb eines Projekts wird dadurch verbessert. • Mobilität Werden die Daten in der Cloud gespeichert, kann weltweit von jedem Ort, mit jedem Endgerät auf diese Daten zugegriffen werden - vorausgesetzt eine Internetverbindung ist vorhanden.

3.8

Nachteile des Cloud Computing

• Konstante Internetverbindung Cloud Computing ist nur möglich, wenn eine Internetverbindung verfügbar ist. Da-

3

EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING

25

durch ergibt sich hiermit schon ein Single-Point-of-Failure. • Langsame Verbindungen Um Cloud Computing akzeptal einsetzen zu können, bedarf es einer schnellen Internetverbindung. Es kann sonst sehr lange dauern, bis die Seiten in einem großen Dokument durchgesehen werden können. • Geschwindigkeitsprobleme Trotz einer schnellen Internetverbindung können webbasierte Anwendungen langsamer sein als die auf dem lokalen System. Das liegt an der Zeit, die der Transfer benötigt, um die Daten zwischen der Cloud und dem Arbeitsplatzrechner auszutauschen. • Schutz der gespeicherten Daten Beim Cloud Computing werden alle(!) Daten in der Cloud gespeichert. Dadurch ergeben sich natürlich die Fragen: Wie sicher ist die Cloud? Haben andere, möglicherweise unauthorisierte Benutzer Zugriff auf meine Daten? • Datenverlust durch die Cloud Im Prinzip sind die Daten durch das Speichern über mehrere Server und Standorte hinweg redundant vor Verlust geschützt. Sollten die Daten nun aber doch aus irgendeinem Grund verloren gehen, existiert kein physikalisches bzw. lokales Backup dieser Daten. Die Daten sind dann einfach weg. Das kann umgangen werden, indem regelmäßig Backups aus der Cloud auf einen lokalen Rechner abgelegt werden, was aber nicht im Sinne des Cloud Computings wäre. • Abhängigkeit Unternehmen machen sich zunehmend abhängig von ihren Dienstleistern. Wurden Teile der Infrastruktur einmal in die Cloud migriert, ist der Weg zurück nicht mehr so einfach. Die Dienstleister bieten Utilities um die Daten vom Unternehmen in die Cloud zu vereinfachen. Programme um die Daten wieder aus der Cloud heraus zu migrieren existieren aber bisher noch nicht. Genau so wenig existieren Programme um die Daten zwischen unterschiedlichen Anbietern zu übertragen, was daran liegen mag, dass jeder Anbieter mit unterschiedlichen Standards arbeitet. Da bleibt die Frage offen: Einmal Cloud - immer Cloud bzw. immer dieselbe Cloud?

3

EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING

26

3.9

Aktuelle Anwendungsbereiche des Cloud Computing

Cloud Computing wird heute schon in zahlreichen Bereichen eingesetzt. Die folgenden Szenarien - vgl. [AWS] - beziehen sich auf die im Prinzip unendlich verfügbare Rechenleistung durch das Cloud Computing. Die Szenarien gehen dabei von einer Datenmenge von mehreren Millionen Datensätzen (Dokumente, Bilder, etc.) aus.

3.9.1

Prozessverarbeitung

• Dokumentenverarbeitung Die Konvertierung von hunderttausend Word Dokumenten in das PDF-Format • Bildverarbeitung Das Erstellen von millionen Thumbnails • Videoverarbeitung Die Transformation von AVI Dateien und MPEG Videos • Indizierung Die Erstellung eines Index aus einer Websuche • Data Mining Die Suche innerhalb von millionen von Datensätzen

3.9.2

Batch Prozessverarbeitung

• Back-Office Anwendungen Anwendungen zur Berechnung im Finanzen- und Versicherungsbereich • Analyse von Log-Einträgen Analyse und Generierung von Tages-/ Wochen- und Montasberichten • Nightly Builds Parallele automatisierte Erzeugung von Code aus dem Repository • Unit Tests Automatisierte nächtliche Tests und Deployments anhand unterschiedlicher Konfigurationen

3

EIGENSCHAFTEN & HINTERGRÜNDE DES CLOUD COMPUTING

27

3.9.3

Webseiten

• Automatische Skalierung am Tag Webseiten befinden sich in der Nacht im Leerlauf und passen sich am Tag den Anforderungen an. • Webseiten für Events Webseiten, die nur einmal im Jahr einen massiven Besucherzufluss erfahren und sich sonst im Leerlauf befinden, z.B. Super Bowl Webseite. • Saisonbedingte Webseiten Webseiten, die z.B. zur Weihnachtszeit oder der Ferienzeit gut besucht sind.

4

MARKTÜBERSICHT

28

4

Marktübersicht

Der Markt der Cloud Computing Angebote ist in den letzten Jahren stark gewachsen. Für einen kleinen Überblick werden in diesem Kapitel vier bekannte Anbieter vorgestellt.

4.1

Amazon Web Services

Die Amazon Web Services (http://aws.amazon.com) zählen zu den IaaS Providern und bieten - basierend auf der skalierbaren Infrastruktur von Amazon.com - aus einer Sammlung unterschiedlicher Webservices Dienste für das Cloud Computing an. Neben Rechenleistung und Speicherplatz werden viele weitere Services angeboten, die angemietet und auf einer pay per use Basis abgerechnet werden. Die folgenden Dienste werden von Amazon Web Services angeboten: • Amazon Elastic Compute Cloud (EC2) Stellt die Grundlage der jeweiligen angemieteten Infrastruktur auf Basis virtueller Server bereit und ist für die Rechenleistung verantwortlich. • Amazon SimpleDB Dient als verteilte Datenbank und ist für das Indizieren und Suchen innerhalb von Amazons Cloud verantwortlich. • Amazon Simple Storage Service (S3) Der Speicherdienst der Amazon Web Services. • Amazon CloudFront Das Content Delivery Network der Amazon Web Services. Synchronisiert die Daten von mehreren S3-Standorten (z.B. USA und Europa) miteinander.

4

MARKTÜBERSICHT

29

4.2

GoGrid

GoGrid (www.gogrid.com) ist ein IaaS Provider, bei dem die eigene Cloud Infrastruktur nach dem ’Baukastenprinzip’ zusammengestellt werden kann. Die grundlegenden Bausteine können nach Belieben mit Windows oder Linux Betriebssystemen und eigener Anwendungssoftware ausgestattet werden. Der Baukasten besteht aus folgenden Komponenten. • Load Balancer • Datenbankserver • Web-/ Anwendungsserver • Speicherplatz

4.3

Google

Google bietet mit seinen Diensten Google Apps (http://www.google.com/apps) und der Google AppEngine (http://code.google.com/appengine) Cloud-Dienste im Bereich SaaS bzw. PaaS an. Mit Google Apps stehen unterschiedliche Anwendungen zur Verfügung, auf die über ein Webbrowser zugegriffen wird. • Google Mail E-Mail Client • Google Kalender Kalender • Google Text & Tabellen Textverarbeitung, Tabellenkalkulation und Präsentation. Dabei kann mit anderen Benutzern in Echtzeit an den erstellten Dokumenten gearbeitet werden. • Google Sites Wiki Lösung von Google Bekannte Kunden der Google Apps Lösung sind u.a. Unternehmen wie Motorola, Procter & Gamble, Valeo, Guardian und Twitter.

4

MARKTÜBERSICHT

30

Die Google App Engine ist das Platform as a Service Angebot von Google und bietet Softwareentwicklern die Entwicklung und das Hosting ihrer Anwendungen auf der Infrastruktur von Google an. Der Service ist bis zu einem bestimmten Grad kostenlos. Folgende Richtlinien müssen eingehalten werden, um den Dienst kostenlos nutzen zu dürfen: • Seitenaufruf einer Anwendung: max. 1.300.00 mal pro Tag und max. 7.400 mal pro Minute • Pro Anwender dürfen max. 10 Applikationen erstellt werden. • Max. Versand von E-Mails über die entsprechende API: 2.000 pro Tag • Ein-/ und ausgehender Datentransfer max. 1 GB am Tag und max. 56 MB pro Minute • Pro Tag darf eine Applikation max. 6,5 CPU-Stunden nutzen

4.4

Salesforce.com

Salesforce.com wurde im Jahr 1999 gegründet und bietet Unternehmensanwendungen auf Software as a Service Basis an, die über das Internet bezogen werden können. Neben Anwendungen für das Customer Relationship Management gehören ebenfalls Vertriebs-, Marketing-, Kundendienst-, Partnerbeziehungsmanagement- und Innovationsmanegementanwendungen zu den Angeboten. Mit AppExchange stellt Salesforce.com einen Online-Marktplatz für CRM- und Geschäftsanwendungen bereit, die von Drittanbietern für Salesforce.com entwickelt werden und von den Kunden zusätzlich erworben und zu ihrer Salesforce Umgebung hinzugefügt werden können. Zu Salesforce Kunden zählen Unternehmen wie Dell, Canon, Dow Jones oder Morgen Stanley.

5

FALLBEISPIEL

31

5

Fallbeispiel

Um die Möglichkeiten des Cloud Computing im Unternehmenseinsatz darzustellen, wird am Beispiel der fiktiven Spielwaren GmbH die IT-Infrastruktur analysiert und ein Handlungskonzept für die Migration in die Cloud vorgestellt.

5.1

Ausgangssituation

Die Spielwaren GmbH ist ein weltweit agierendes Unternehmen mit vier Standorten in Deutschland, den USA, China und Indien. Das Unternehmen erzielt mit seinen knapp 3.500 Mitarbeitern weltweit einen Umsatz von ca. 1 Milliarde US Dollar pro Jahr. Die IT-Umgebung des Unternehmens wurde in den letzten Jahren weitestgehend nur dann aktualisiert, wenn die Notwendigkeit durch Ausfall eines Servers oder ähnliches bestand. Die Systemumgebung setzt sich wie folgt zusammen. • Customer Relationship Management: Microsoft Dynamics CRM • Enterprise Resource Planing: Microsoft Navision • Verzeichnisdienst/ Domain Controller: Microsoft Active Directory Services (ADS) • Kommunikationsserver/ E-Mail-Server: Microsoft Exchange 2000 • Applicationserver: Microsoft Windows 2000 Server • Fileserver: Microsoft Windows 2000 Server (für Office Dokumente) • Webserver: Microsoft Internet Information Server • Betriebssysteme: Windows 2000 Professional • Anwendungssoftware: Microsoft Office 2000 Die Kommunikation der Standorte findet über SDSL VPN-Verbindungen statt. Die beschriebene Systemumgebung gilt für jeden Standort. Eine Skizze der IT-Infrastruktur ist in Abbildung 9 illustriert.

5

FALLBEISPIEL

32

Abbildung 9: Ausgangssituation der Spielwaren GmbH

5.2

Analyse der IT-Umgebung

Eine Analyse der IT-Infrastruktur führte zu folgendem Ergebnis. • Microsoft Dynamics CRM: ok • Microsoft Navision: veraltet • Microsoft Active Directory Services: ok • Microsoft Exchange 2000: veraltet, die Maintenance durch Microsoft endet im Juli 2010, Lizenzen können nicht mehr nachbestellt werden. • Microsoft Windows 2000 Server: veraltet, die Maintenance durch Microsoft endet im Juli 2010, Lizenzen können nicht mehr nachbestellt werden. • Webserver: überdimensioniert, Erweiterungen ohne Konzept, Jahresdurchschnitt ca. 15% Belastung, Hauptzeiten: 80% Zuwachs • Windows 2000 Professional: veraltet, die Maintenance durch Microsoft endet im Juli 2010, Lizenzen können nicht mehr nachbestellt werden.

5

FALLBEISPIEL

33

• Microsoft Office 2000: veraltet, die Maintenance durch Microsoft endet im Juli 2010, Lizenzen können nicht mehr nachbestellt werden. • Arbeitsplatzrechner: überwiegend veraltete Systeme, die in den nächsten ein bis zwei Jahren ausgetauscht werden müssen(!) • VPN-Verbindungen: instabil(!), der Datenverkehr nimmt durch steigende Synchronisationen zu Generell gilt für die vorhandenen Rechenzentren: Die Hardware bei 80% der Server ist am Limit bzw. veraltet und muss dringend augetauscht werden.

5.3

Handlungskonzept

Auf Basis der Analyse und der Sondierung des Marktes in Kapitel 4 erhält die Spielwaren GmbH folgende Handlungsempfehlung • Microsoft Dynamics CRM: Ablösung durch Salesforce.com • Microsoft Navision: Ablösung durch Salesforce.com • Microsoft Active Directory Services: Migration zu Google Apps mittels Directory Sync, Integration von Salesforce.com in Google Apps Professional mittels Salesforce for Google Apps • Microsoft Exchange 2000: Ablösung durch Google Apps Professional (Mail & Kalender) • Microsoft Windows 2000 Server: können entfallen, da sämtliche Office Dokumente auf Google Apps abgelegt werden, ggf. können auf GoGrid Fileserver angemietet und über entsprechende APIs mit Salesforce und Google Apps verbunden werden. • Webserver: Go Grid Server (Baukastensystem bestehend aus Load Balancer, Datenbankserver, Webserver und Speicherplatz) auf Linux oder Windows Basis • Windows 2000 Professional: Kann durch eine Linux Distribution z.B. Ubuntu Linux ausgetauscht werden

5

FALLBEISPIEL

34

• Microsoft Office 2000: Ablösung durch Google Apps Professional (Text & Tabellen) • Arbeitsplatzrechner: Schrittweise Ablösung der Fat-Clients durch Thin-Clients • VPN-Verbindungen: Die SDSL Leitungen bleiben vorhanden, die Kommunikation erfolgt vollständig über die Cloud Die beschriebene Handlungsempfehlung gilt für die gesamte IT-Umgebung der Spielwaren GmbH, wodurch alle Standort betroffen sind. Eine Skizze der möglichen IT-Infrastruktur nach Umsetzung der Handlungsempfehlung ist in Abbildung 10 illustiert.

Abbildung 10: Handlungskonzept für die Spielwaren GmbH

5.3.1

Einführungsphase

Für die Migration, die einen Zeitraum von ca. 2 bis 3 Jahren benötigen wird, sind folgende Schritte in dieser Reihenfolge zu berücksichtigen. • 1. Migration der Active Directory: nach Google Apps Professional • 1.1 Migration E-Mail Konten: nach Google Apps Professional • 1.1.1 Migration der CRM/ ERP Daten: nach Salesforce.com

5

FALLBEISPIEL

35

• 1.1.2 Migration der Office Dokumente : nach Google Apps Professional • 1.2 Umstellung der E-Mail Kommunikation: nach Google Apps Professional • 3. Migration der Webserver: nach GoGrid • 4. Desktop PCs schrittweise ablösen: von Fat-Client auf Thin-Clients Die Reihenfolge der Zahlen soll grob verdeutlichen, welche Schritte voneinander abhängen. Die Migration der E-Mail Konten kann frühestens starten, wenn die Hälfte der Active Directory Migration abgeschlossen ist. Die Umstellung der E-Mail Kommunikation kann erst erfolgen, wenn die E-Mail Konten vollständig migriert sind. Dagegen kann die Migration der CRM/ EPR Daten und Office Dokumente bereits beginnen, wenn die Active Directory vollständig migriert und die Hälfte der E-Mail Konten übertragen wurden. Die Migration der Webserver und das Ablösen der Desktop PCs ist völlig unabhängig von allen anderen Schritten und kann für sich selbst durchgeführt werden. Eine graphische Darstellung in Abbildung 11 verdeutlicht die vorgeschlagene Einführungsphase.

Abbildung 11: Einführungsphase der Migration in die Cloud

5.4

Vorteile

Die Migration würde der Spielwaren GmbH folgende Nutzen bringen. • Reduzierung der Kosten - Lizenzkosten für Software - Hardwarekosten (Server, Desktop)

5

FALLBEISPIEL

36

- Maintenance-Kosten - Personalkosten • Erhöhung der Datensicherheit - Automatisierte Durchführung von Backups durch den Anbietern • Optimierung der Zusammenarbeit - Standortübergreifende Zusammenarbeit durch Web-Kollaboration • Automatisierung der Softwarewartung - die Anwendungssoftware ist immer auf dem aktuellen Stand • Steigerung der Flexibilität - Mitarbeiterverwaltung - Hinzufügen neuer Anwendungen • Mobilität - Mitarbeiter können von überall arbeiten - Zugriff auf alle Daten von überall • Konzentration auf Kernkompetenzen - Erhöhung der Investitionen in das Kerngeschäft

5

FALLBEISPIEL

37

5.4.1

Kostenbetrachtung

Um den finaziellen Vorteil mit Zahlen zu verdeutlichen, wird die vorgeschlagende Google Apps Professional dem vergleichbaren Microsoft Exchange Server gegenüber gestellt. Die Aufstellung der Kosten ist in Abbildung 12 nachzuvollziehen.

Abbildung 12: Vergleich der Kosten von Google Apps Professional mit einer Microsoft Exchange Lösung Quelle: [ASP]

Der Vergleich zeigt den deutlichen finanziellen Vorteil durch den Einsatz der Google Apps Professional Lösung. Über einen Zeitraum von drei Jahren liegen die Ersparnisse pro Benutzer bei ca. 62,00 EUR im Vergleich zur Microsoft Exchange Lösung. Das liegt zum einen an den geringeren Lizenzkosten der Google Lösung (Ersparnis: 98.000 EUR), zum anderen an den geringeren Wartungs- (Ersparnis: 53.000 EUR) und Administrationskosten (Erspanis: 68.000 EUR) sowie an den fehlenden Investitionskosten in eine eigene Infrastruktur für die Server (Ersparnis: 20.400 EUR). Werden die gesamten Wartungs-, Administrations und Infrastrukturkosten herausgerechnet (letzte Zeile), liegt der Kostenvorteil der Google Lösung über einen Zeitraum von drei Jahren nur noch bei ca. 8,00 EUR pro Mitarbeiter. Dieser Vergleich zeigt, wie die Infrastruktur- und Wartungskosten durch den Einsatz von Cloud Computing signifikant gesenkt werden können.

5

FALLBEISPIEL

38

5.5

Nachteile

Neben den Nutzen birgt die Migration aber auch einige Gefahren, die aufgezeigt werden müssen. • Politische Einflüsse: Politische Spionage/ Einschränkungen über die Internetverbindungen (z.B. China) • Single point of failure: Internetverbindung (kann durch Backupleitungen abgesichert werden) • Ausfall eines Anbieters • Datensicherheit(!)(!)(!) Alle unternehmenskritischen Informationen befinden sich auf fremden Servern • Standorte der Server Ist in der Cloud nicht transparent • Abhängigkeit Die Standards der Anbieter müssen eingehalten werden

5.6

Reflexion

Die Handlungsempfehlungen, die für dieses Beispiel gewählt wurden, sind bewusst ein wenig extrem und aber sollen gleichzeitig verdeutlichen, was bereits heute mit dem Cloud Computing für Möglichkeiten bestehen. Ein Unternehmen muss sich gut überlegen, ob es seine Infrastruktur bzw. die unternehmenskritischen Daten in der Form so auslagern möchte. Zu groß ist z.B. das Risiko der Datensicherheit. Werden auf der anderen Seite aber die Kunden von Google (Motorola und Procter & Gamble) und Salesforce.com (Dell, Dow Jones und Morgen Stanley) herangezogen, sollte die Attraktivität dieses Outsourcingmodells nicht vernachlässigt werden. Zu so einer Entscheidung gehört auch immer eine subjektive Betrachtung, bei der die Kosten eine immer größer werdene Variable in der Gleichung werden. Aus diesem Grund müssen auch Kompromisse geschlossen werden, wenn Kosten gesenkt werden sollen. Ob die Datensicherheit dabei zweitrangig behandelt werden darf bleibt fraglich.

6

REFLEXION & AUSBLICK

39

Eine Kostenbetrachtung für dieses Beispiel konnte nicht vollständig vorgenommen werden, da es sich um ein rein fiktives Beispiel handelt. Im Normalfall hätten u.a. auch Kosten für die Bereiche Migration, Consulting, Training und Support betrachtet werden müssen.

6

Reflexion & Ausblick

Die grundlegenden Ideen und Konzepte des Cloud Computing reichen bis in die 1960er zurück. Schon damals wurde die Idee entwickelt Rechenleistung und Anwendungen als Utility der Öffentlichkeit gegen eine Nutzungsgebühr bereitzustellen. Dass der Durchbruch erst heute bevorsteht, hängt mit den technischen Voraussetzungen zusammen, die zur damaligen Zeit einfach noch nicht gegeben waren. Cloud Computing symbolisiert den service- und anwendungsorientierten Trend der heutigen Informationstechnologie, bei dem verteilte und hoch skalierbare Infrastrukturen über das Internet adaptiert werden können und Anwendungen und Dienste an jedem Ort und zu jeder Zeit verfügbar sind. Unternehmen können durch den Einsatz von Cloud Computing ihre IT-Gesamtausgaben deutlich reduzieren und die Qualität, Sicherheit aber vor allem ihre Arbeitsabläufe messbar steigern. Cloud Computing Anbieter können Skaleneffekte nutzen, indem sie ihre Kosten über eine große Anzahl von Kunden verteilen und haben damit die Möglichkeit die Investitionen in den Betrieb und die Sicherheit (Daten- und Zugangssicherheit) ihrer Rechenzentren im Vergleich zu herkömmlichen Rechenzentrums Betreibern zu erhöhen. Ob sich der Ansatz der Public Cloud durchsetzen wird, hängt von dem Bewusstsein jedes einzelnen zum Thema Datensicherheit(!) ab. Vorstellbar wäre, dass sich hauptsächlich eine hybride Variante aus Private Cloud und Public Cloud durchsetzen wird. Unternehmen werden für unternehmenskritische Daten ihre eigenen ’kleinen’ Rechenzentrenen betreiben und weitergehende Dienste und Anwendungen aus einer Public Cloud beziehen. Für Startups kann zu Beginn der Nutzen einer Public Cloud von besonderem Interesse sein. Die Kosten sind leicht zu kalkulieren und die IT-Infrastruktur wächst dynamisch mit dem Unternehmen.

6

REFLEXION & AUSBLICK

40

Vor dem Hintergrund, dass die meisten Anbieter von Cloud Computing Diensten ihre eigenen Standards innerhalb der Infrastrukturen einsetzen, sind für die Zukunft noch Fragen offen, die geklärt werden müssen. Wie komme ich aus der Cloud wieder zurück? und Wie wechsle ich von der Cloud eines Anbieters in die Cloud eines anderen Anbieters? Das zeigt, dass offene Standards signifikant für die Akzeptanz und Weiterentwicklung des Cloud Computing sind. Zu guter Letzt müssen auch die Internetprovider und Telekommunikationsanbieter sich verpflichtet fühlen ihren Teil zum Erfolg des Cloud Computing beizutragen. Sind die aktuellen Angebote für Unternehmen sehr attraktiv, haben private Anwender fast keine Möglichkeit Dienste, wie z.B. Cloud Storage (Speicherplatz im Internet) in Anspruch zu nehmen. Die Uploadraten herkömmlicher Internetanschlüsse sind für diese Art von Dienst einfach zu langsam und können und werden dadurch auch nicht genutzt werden. Bessern die Anbieter in diesem Sektor ihre Angebote im Hinblick auf die Technik und den Preis nicht nach, besteht die Möglichkeit, dass wir im Privatbereich dieselbe Problematik erleben werden wie in den 1960er.

LITERATUR

41

Literatur
[Adeli] Hojjat Adeli. Supercomputing in engineering analysis, New York: CRC Press, 1991 [AlLeOb] Götz Alefeld, Ingrid Lenhardt, Holger Obermaier. Parallele numerische Verfahren, Berlin: Springer, 2002 [Amdahl] John L. Gustafson. Reevaluating Amdahl’s Law, http://www.scl.ameslab.gov/Publications/Gus/AmdahlsLaw/Amdahls.html [ASP] Facility Wizard Software. http://www.facilitywizard.com [AWS] Jinesh Varia. Cloud Architectures, Amazon, Amazon Web Services [AWSCase] Amazon Web Services. Case Studies http://aws.amazon.com/solutions/case-studies/ [BaSch] Thomas Barth, Anke Schül. Grid Computing: Konzepte, Technologien, Anwendungen, Wiesbaden: Vieweg+Teubner, 2006 (1.Auflage) [BauMe] Heiko Bauke, Stephan Mertens. Cluster Computing, Berlin: Springer, 2009 (1.Auflage)

LITERATUR

42

[Berkeley] Michael Armbrust, Armando Fox, Rean Griffith, Anthony D. Joseph, Randy H. Katz, Andrew Konwinski, Gunho Lee, David A. Patterson, Ariel Rabkin, Ion Stoica, Matei Zaharia. Above the Clouds: A Berkeley View of Cloud Computing, Electrical Engineering and Computer Sciences, University of California at Berkeley, Februar 2009 http://www.eecs.berkeley.edu/Pubs/TechRpts/2009/EECS-2009-28.pdf [Gartner] Gartner Group. Gartners hype cycle report, 2008. Technicalreport, Gartner Group, July 2008 [Grid] DAME project. http://voneural.na.infn.it [GridAnatomy] Ian Foster, Carl Kesselman, Steven Tuecke. The Anatomy of the Grid - Enabling Scalable Virtual Organizations, 2001 http://www.globus.org/alliance/publications/papers/anatomy.pdf [HLPSC] Michael Resch, Thomas Beisel, Thomas Boenisch, Bruce Loftis, Raghu Reddy. Performance Issues of Intercontinental Computing, 1997 http://citeseerx.ist.psu.edu [IWay] Thomas A. DeFanti, Ian Foster, Michael E. Papka, Rick Stevens, Tim Kuhfuss. Overview of the I-WAY: Wide Area Visual Supercomputing, 1996 http://citeseerx.ist.psu.edu [Kircher] SHerbert Kircher. IT: Technologien, Lösungen, Innovationen, Berlin: Springer, 2006 (1.Auflage) [MSCloud] Microsoft Press. Cloud Computing mit der Microsoft Plattform Microsoft Press PreView 1-2009 [SBMag] PC Magazine Encyclopedia. Definition of: service bureau http://www.pcmag.com/encyclopedia/

LITERATUR

43

[TamGue] Gerrit Tamm, Oliver Günther. Webbasierte Dienste. Technologien, Märkte und Geschäftsmodelle: Technologien, Markte Und Geschaftsmodelle Heidelberg: Springer Physica-Verlag, 2005 [TheGrid] Ian Foster, Carl Kesselman. The Grid: Blueprint for a New Computing Infrastructure: Blueprint for the New Computing Infrastructure, San Francisco: Morgan Kaufmann Publishers, 1998 [WikiClus] Wikipedia. Cluster (computing) http://en.wikipedia.org [WikiGrid] Wikipedia. Grid computing http://en.wikipedia.org [WikiMcCarthy] Wikipedia. John McCarthy (computer scientist) http://en.wikipedia.org [WikiSup] Wikipedia. Supercomputer http://en.wikipedia.org

Sign up to vote on this title
UsefulNot useful