Sie sind auf Seite 1von 46

AUGUST 2017

eBook
Cloud Computing

Migration, Kosten
und Sicherheit

› Speicherplattform für die Cloud


› Verschmelzung auf eine Plattform
› Cloud-Dienste & Schatten IT
› Application FW für die Cloud
› Mit der Cloud gegensteuern
› Heterogene Cloud managen
› Cloud Compliance
› Cloud Readiness
› ERP für die Cloud

1 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Die Cloud-Nutzung in der


Wirtschaft boomt
Zwei von drei Unternehmen (65 Prozent) haben in Deutschland im Jahr 2016 Cloud
Computing eingesetzt. Im Vergleich zum Vorjahr ist der Anteil der Cloud-Nutzer in
Unternehmen von 54 Prozent um 11 Prozentpunkte angestiegen. Im Jahr 2014 waren es erst
44 Prozent. Das ist das Ergebnis einer repräsentativen Umfrage von Bitkom Research im
Auftrag der KPMG AG unter 554 Unternehmen ab 20 Mitarbeitern.
Ein Aspekt sticht hervor: Die Verwendung von Sicherheitslösungen in der Cloud hat sich
mit 44 Prozent auf den zweiten Platz geschoben, vor so genannter Groupware (E-Mail,
Kalender u.ä.) mit 35 Prozent und Collaboration-Tools für die interne Zusammenarbeit mit
33 Prozent. Im Vorjahr nutzten erst 29 Prozent Security as a Service in der Public Cloud.
„Immer mehr Unternehmen erkennen die Chance, die Datensicherheit mit Public-Cloud-
Lösungen zu verbessern“, sagte dazu Marko Vogel, Director Cyber Security bei KPMG.
Nach den Ergebnissen der Umfrage halten 57 Prozent der befragten Geschäftsführer und
IT-Verantwortlichen ihre Unternehmensdaten in der Public Cloud für „sehr sicher“ oder
„eher sicher“. Nur 4 Prozent halten ihre Daten für „sehr unsicher“ oder „eher unsicher“. 37
Prozent können keine klare Aussage machen und haben sich für die Antwortoption „teils/
teils“ entschieden. „Die große Mehrheit der Unternehmen hat Vertrauen in die Sicherheit
ihrer Daten in der Cloud“, sagte Vogel. Dabei stelle sich die Frage, wie interne IT-Systeme in
der Praxis bei der Sicherheit im Vergleich zu Public Cloud-Lösungen abschneiden. In der
Umfrage geben 22 Prozent aller Befragten an, dass es in den vergangenen 12 Monaten
Datensicherheitsvorfälle in ihren eigenen, unternehmensinternen IT-Systemen gegeben hat.
Weitere 19 Prozent berichten, dass es einen Verdacht gab.
Unter den Nutzern von Public-Cloud-Lösungen sagen 19 Prozent, dass es zu Sicherheits-
vorfällen gekommen ist und nur 13 Prozent hatten einen Verdacht. „Unternehmensdaten
Cloud
sind in der Public Cloud genauso gut geschützt wie in internen IT-Systemen“, sagte Vogel.
Monitor 2017 „Unternehmen benötigen für ihre PublicCloud-Anwendungen aber ein angepasstes Sicher-
heitsmanagement.“ Laut Umfrage speichern 84 Prozent der Unternehmen vermeintlich un-
kritische BusinessInformationen in der Public Cloud. 67 Prozent der Public-Cloud-Nutzer
speichern Kommunikationsdaten wie E-Mails, 27 Prozent personenbezogen Daten und 19
Prozent auch kritische Business-Informationen.
Etwa zwei von drei Unternehmen haben Maßnahmen ergriffen, um die Datensicherheit
in der Wolke zu erhöhen. 63 Prozent kontrollieren die unerlaubte Nutzung von Public-
Cloud-Diensten im Unternehmen. Neben klaren internen Vorschriften für die Auswahl und
Nutzung von Cloud-Diensten kommen dabei dieAuswertung von Firewall-Logins oder
spezielle Sicherheitsüberprüfungen der genutzten Cloud-Anwendungen zum Einsatz.

2 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

„Die Unternehmen sollten einen Wildwuchs bei der Nutzung von Cloud-Diensten
vermeiden, um Sicherheitslücken zu vermeiden“, sagte Vogel. Ein Drittel der Unternehmen
(34 Prozent) kontrolliert die Cloud-Nutzung in der Organisation bislang nicht. Neun von
zehn Cloud-Anwendern (91 Prozent) nutzen spezielle Security Services, um unerlaubte
Zugriffe zu verhindern und die eigenen Daten zu schützen. Dazu zählt unter anderem eine
Verschlüsselung von Daten in der Cloud oder ein Monitoring der verwendeten Geräte und
Anwendungen, um ungewöhnliche Zugriffe oder Datenabflüsse schnell bemerken zu
können. Verbesserungswürdig ist die Einbindung der Sicherheitsabteilung. Nur knapp ein
Drittel beteiligt diese frühzeitig schon bei der Auswahl der Cloud-Provider. „Die Ergebnisse
der Studie zeigen, dass vielen Unternehmen noch ein umfassendes Sicherheitsmanagement
für die Cloud fehlt“, sagte Vogel.

Mehr Infos

Weitere Informationen zum „Cloud Monitor 2017“ finden Sie unter www.kpmg.de/cloud

Viel Spaß beim Lesen dieses eBooks!

Herzlichst
Ihr

Ulrich Parthier
Publisher it management

3 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

INHALT
2 Die Cloud-Nutzung in der Wirtschaft
boomt

5 Vorsicht Falle!
Speicher für Virtualisierung und Cloud

9 Cloud Computing
Eine hybride, analytische Infrastruktur

17 Potenziale erkennen
Warum in die Cloud?

23 Cloud-Dienste
Schatten-IT umgestalten

26 Kein Mut zur Lücke: Application-Firewalls


für die sichere Cloud

30 Schatten-IT
Mit der Cloud gegensteuern

34 Cloud-Management
Unigma Cloud Management Suite

36 Dreistufiger Security-Ansatz
Cloud-Compliance: Im unsicheren Hafen?

39 Der Cloud-Fitness-Check: Wie lässt sich


die Cloud sinnvoll nutzen?

42 Cloud-ERP-Lösungen
Für eine gute Mutter-Tochter-Beziehung

45 Impressum

4 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Vorsicht Falle!

Speicher für
Christopher Knörle,
Senior Systems Engineer,
Tintri

Virtualisierung und Cloud


Cloud-Speicher muss maßgeschneidert sein und volle Flexibilität bieten. Viele Anbieter behaupten,
ihr Speicher sei gut geeignet für die Cloud. Dabei unterstützt kaum eine Lösung die Cloud optimal.

n den meisten Unternehmen ist die Virtualisierung des Rechenzentrums weit

I vorangeschritten. Um es auf den nächsten Schritt – die Cloud – vorzubereiten,


verlassen sie sich jedoch nach wie vor auf Speicher, der aus einer physischen
Zeit stammt. Unternehmen, die auf die Cloud umstellen möchten, sollten jedoch
einen Speicher in Erwägung ziehen, der speziell für virtualisierte Arbeitslasten entwickelt
wurde. Auf diese Weise bekommen moderne Unternehmen und deren Rechenzentren, was
sie brauchen: Agilität sowie volle Transparenz.

5 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Legacy-Speicher: kann alles und nichts davon gut

Software-definiertes Rechenzentrum (Software Defined Datacenter, SDDC), virtuelles


Rechenzentrum, Hybrid Cloud oder Private Cloud: All das sind Bezeichnungen für das Da-
tencenter von heute. Dieses basiert auf virtuellen Infrastrukturen und nutzt Cloud-Techno-
logie, um IT-Dienste für Benutzer anzubieten. Der Speicher ist eine entscheidende Kompo-
nente jeder IT-Infrastruktur und angesichts der zunehmenden Digitalisierung sowie der
damit einhergehenden Datennutzung rund um die Uhr so wichtig wie eh und je. Jeder Spei-
cheranbieter behauptet natürlich, seine Lösung sei die beste Wahl für die Cloud. In der Re-
alität funktionieren die meisten Systeme allerdings nur begrenzt mit der Cloud. Doch wie
sieht ein Speicher wirklich aus, der perfekt für die Virtualisierung und die Cloud geeignet
ist?
Cloud-Dienste sind wie Bausteine. Indem Unternehmen diese auf bestimmte Art anord-
nen, erzielen sie Flexibilität. Das Speichersystem muss sich nahtlos in die gesamte Cloud-
Umgebung einfügen. Dies ist mit einem Legacy-Speicher nicht möglich, da dieser nicht für
diese Aufgabe gedacht ist. Unternehmen benötigen Anpassbarkeit auf verschiedenen Ebe-
nen, darunter die Möglichkeit zur Nutzung der korrekten Protokolle, verschiedener Hyper-
visoren und einer sauberen API, um den Speicher in ein System ihrer Wahl zu integrieren.

Das korrekte Protokoll

Durch die Wahl des richtigen Protokolls können Unternehmen enorme Flexibilitätsge-
winne in einer Cloud-Umgebung erzielen. Das Open-Source-Protokoll NFS (Network File
System) bietet z. B. echte Vorteile in virtualisierten Umgebungen, vor allem, wenn es in ei-
nem speziell für Virtualisierung entwickelten Array verwendet wird. Im Vergleich zu Block-
protokollen wie FC oder iSCSI reduziert NFS die Komplexität erheblich. Unternehmen brau-
chen keine Rücksicht auf Probleme mit der iSCSI-Reservierung nehmen. Das Ergebnis sind
weit weniger Datenspeicher, die verwaltet werden müssen. Darüber hinaus hat die Kompa-
tibilität von Treibern und Firmware keine Auswirkungen auf NFS.
Eine der größten Herausforderungen bei der Entwicklung der perfekten Lösung für eine
Umgebung besteht darin, nicht auf ein altes oder erprobtes Konzept zurückzugreifen, das
womöglich nur die vollständige Beseitigung des ursächlichen Problems verhindert. Ungelös-
te Probleme, die durch eine veraltete Herangehensweise verursacht wurden, treten mit der
Zeit zutage. Eine auf LUNs basierende Architektur beispielsweise zwingt ein Unternehmen
irgendwann dazu, sich mit all den Mängeln und Abhängigkeiten zu beschäftigen, die dieser
WEB-TIPP: Ansatz mit sich bringt. Diese werden sichtbar, sobald das Unternehmen das große Ganze be-
www.tintri.com
trachtet und bemerkt, dass Automatisierung – ein integraler Bestandteil der Cloud – sehr
schwierig ist, wenn sie auf althergebrachte Weise angegangen wird.
Wenn man die bevorstehende Aufgabe und die damit verbundenen Anforderungen kennt,
ist man in der Lage, das richtige Werkzeug auszuwählen. Maßgeschneiderter Speicher wird
genau auf die virtualisierte Umgebung abgestimmt, bis hin zu den Feinheiten von I/O-Mus-
tern. An einen NFS-Client für allgemeine Zwecke werden andere Ansprüche gestellt, als an
einen Virtualisierungs-Host. Vergleicht man eine für Virtualisierung maßgeschneiderte Lö-
sung mit einem allgemeinen System, die beide NFS nutzen, so sieht man bei der Betrachtung
der Datenströme, dass allgemeine Systeme einen äußerst hohen Anteil an Metadaten erzeu-
gen, wohingegen Virtualisierungs-Hosts fast ausschließlich tatsächliche Daten lesen und
schreiben.

6 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Bild: Vergleich zwischen


zwei herkömmlichen
NFS-Clients und eines
Virtualisierungs-Hosts, der
NFS verwendet.

Die Referenzwerte zeigen deutlich, dass herkömmliche Clients, große Mengen von Ver-
waltungsdaten für Metadaten-Vorgänge verwenden, mit denen das Speichersystem fertig
werden muss. Ein auf Virtualisierung maßgeschneidertes Speichersystem kann den IO-Pfad
auf Schreib- und Lesevorgänge optimieren.
Das ist ein gutes Beispiel dafür, dass virtualisierte Umgebungen und herkömmlicher Spei-
cher nicht zusammenpassen. Und während NFS als offener Standard zahlreiche Vorteile zu
bieten scheint, wird dieses Potenzial von überraschend wenigen Anbietern genutzt.
SMB 3 (Server Message Block) ist ein weiteres Protokoll, das zunehmend in virtualisier-
ten Umgebungen eingesetzt wird. Es bietet leistungsstarke Vorteile in Hyper-V-Umgebun-
gen, weshalb Speicheranbieter sowohl NFS als auch SMB unterstützen sollten. Auf diese Wei-
se können Kunden zwischen zwei guten Optionen wählen.

Der richtige Hypervisor

Die Auswahl des richtigen Hypervisors gewinnt ebenfalls an Bedeutung, da immer häu-
figer mehrere von ihnen gleichzeitig eingesetzt werden. Um genau zu sein, verwenden heute
bereits die meisten Rechenzentren aus verschiedenen Gründen mehr als nur einen Hypervi-
sor. Das bedeutet, speziell für die Virtualisierung entwickelte Lösungen müssen die Möglich-
keit bieten, diese zeitgleich auszuführen. Auch hier ist die Auswahl des geeigneten Werk-
zeugs maßgeblich. Der richtige Hypervisor kann basierend auf dem Lizenzierungsmodell,
den Merkmalen oder sogar der vorhandenen Fachkompetenz für dessen Verwaltung ausge-
wählt werden.
Eine Plattform, die derzeit Fahrt aufnimmt, ist OpenStack, das quelloffene Framework für
Private Clouds sowie Public Clouds. OpenStack hat sich zu einem echten Phänomen entwi-
ckelt – mit mehr als 500 Unternehmen, darunter einige der schlagkräftigsten Akteure der
IT-Industrie, die sich der OpenStack Foundation angeschlossen haben. Da viele Anbieter
den Übergang von ihrer bestehenden virtualisierten Umgebung zu OpenStack wahrschein-
lich schrittweise vollziehen werden, sind flexible Hypervisor-agnostische Speicherlösungen
gefragt. Dies erlaubt es den Unternehmen, OpenStack denselben Speicher wie andere Hy-

7 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

pervisoren nutzen zu lassen, was ihnen die Flexibilität bietet, ihre OpenStack-Implementie-
rungen in ihrem eigenen Tempo sowie im Rahmen ihres Budgets zu erweitern und zu ska-
lieren.

Leistungsstarke APIs

Mit Blick auf die Schaffung moderner Infrastrukturen für die Cloud werden maßge-
schneiderte Lösungen, die ein hohes Maß an Flexibilität bieten, von niemandem mehr ge-
schätzt als von Cloud-Dienstleistern sowie Managed Service Providern. Die Fähigkeit zur
Nutzung unterschiedlicher Hypervisoren oder Protokolle ist ein Muss für Unternehmen in
hart umkämpften Märkten, in denen jeder Wettbewerbsvorteil entscheidend ist. Um all dies
möglich zu machen, muss sich eine für die Cloud ideale Plattform anhand eines sehr saube-
ren API integrieren lassen, die das Unternehmen in die Lage versetzt, eigene Lösungen im
Frontend einzusetzen. Ein sauberes API ist unerlässlich – etwa in hochautomatisierten Um-
gebungen, in denen niemand von vorn beginnen und Skripte umschreiben sowie Arbeitsab-
läufe neu planen möchte, nur weil ein anderer Hypervisor verwendet wird. Ein sauberes und
leistungsfähiges API ist entscheidend für diese Unternehmen und ist in diesem Sinne zudem
maßgeschneidert für die Cloud, während komplexe und unklar strukturierte APIs die Flexi-
bilität behindern und langfristig mehr Probleme verursachen.

Skalierbarkeit für die Cloud

Es ist fast zu offensichtlich, um es überhaupt zu erwähnen, wird jedoch häufig übersehen:


Für die Skalierung virtualisierter Infrastrukturen und Cloud-Umgebungen benötigen Unter-
nehmen rundum skalierbaren Speicher. Speziell für die Cloud entwickelter Speicher erfor-
dert vollständige Flexibilität für die einfache Skalierung verschiedener Speicherarten wie All-
Flash- oder Hybrid-Arrays, um eine wachsende Zahl virtueller Maschinen mit genau der
Bandbreite zu unterstützen, die diese brauchen. Nur sehr wenige Lösungen lassen sich in-
nerhalb einer virtuellen oder Cloud-Infrastruktur unter einer einzigen Verwaltungskonsole
problemlos horizontal skalieren (Scale-out). Nur Lösungen, die speziell für die Cloud entwi-
ckelt wurden, bieten diese einfache Möglichkeit.

Speicher für die Cloud ist maßgeschneidert

Unternehmen, die hoch virtualisierte Rechenzentren betreiben und sich auf die Cloud
vorbereiten, sollten sich nicht auf veraltete Speicheransätze verlassen. Denn diese bieten
nicht die Leistung, die nur eine maßgeschneiderte Lösung liefern kann. Speicher in virtuali-
sierten Umgebungen muss volle Flexibilität bereitstellen, um Unternehmen in die Lage zu
versetzen, alle Vorteile der Virtualisierung und der Cloud nutzen zu können. Dazu gehört
maximale Auswahl hinsichtlich Protokolle, Hypervisoren oder sämtlichen Anwendungen im
Frontend. Die Freiheit, zu wählen, ermöglicht es Unternehmen, sich für die bestmögliche
Lösung zu entscheiden, die zu ihrer Umgebung passt. Jetzt ist die Zeit gekommen, um die
richtige Wahl zu treffen und auf Speicher aufzurüsten, der speziell für Virtualisierung und
die Cloud entwickelt wurde.

Christopher Knörle

8 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Cloud Computing

Eine hybride, analytische


Infrastruktur
Im Zuge der Digitalisierung der Geschäftsmodelle verschmelzen die eher in die Vergangenheit
schauende klassische Business-Intelligence-Welt und das in die Zukunft gerichtete Analyse-
verständnis von Big Data zu einer gemeinsamen Analytics-Plattform. Diese neue „analytische
Plattform“ zeichnet sich durch technologische Vielfalt und stetige Veränderung aus und verbindet in
verstärktem Maße unterschiedliche Cloud-Ansätze zu einer hybriden analytischen Infrastruktur.

eale und virtuelle Welt gehen heute immer mehr ineinander über. Eine radikale

R Transformation unseres beruflichen und privaten Umfeldes ist bereits im vollen


Gange(1). Gerade die Ex-post-Sicht der Business Intelligence (BI) gerät damit
unter Druck, denn der Wert einer Information nimmt in Relation zurzeit stetig
ab . Geschwindigkeit ist gefragt. Nichts ist schließlich so alt, wie die Zeitung von gestern!
(2)

Zwar hat die IT in den letzten Jahren BI-Lösungen geschaffen, die die Zeitspanne zwischen
Verarbeitung und Kommunikation von Informationen reduzieren können. Die Digitalisierung
verändert die Anforderungen jedoch noch einmal dramatisch durch ihre Forderung nach
Near-Realtime-Analysen und -Nutzung. Somit entfällt der zeitliche Versatz, der den aktuellen
WEB-TIPP:
BI-Architekturen innewohnt. Dazu kommt, dass der Blick der BI-Welt eher auf die
Vergangenheit gerichtet ist. Die Vergangenheit ist bei digitalen Geschäftsmodellen jedoch
www.opitz-consulting.com
oft nur ein Teilaspekt: Next-Best-Offer, Predictive Maintenance oder Deep Learning sind als
Analyseansätze integraler Bestandteil von operativen Prozessen. Sie verwenden Prognose-
ergebnisse der Gegenwart zur Steuerung von Entscheidungen.

9 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Parallel dazu verspricht Cloud Computing „IT Power aus der Steckdose“. Welche IT
träumt nicht davon? Die IT-Kosten beziehen sich damit auf die tatsächliche Nutzung und auf
Preismodelle, die nutzungsbezogen abrechnen. Betriebswirtschaftlich ist somit eine Wand-
lung der Kapitalbindung durch IT-Infrastruktur (CAPEX) in operative Betriebskosten
(OPEX) möglich.

Analytics bei der Digitalisierung

Im Folgenden geht es kurz um die grundlegenden Bausteine eines digitalen Geschäftsmo-


dells. Anhand von diesen Bausteinen, zeigt sich, wie dringend ein Regelkreis aus Big Data
und BI benötigt wird. Hieraus motiviert sich am Ende die Zusammenlegung zu einer analy-
tischen Infrastruktur.
Ein digitales Geschäftsmodell stellt nur eine Ausprägung eines klassischen Geschäftsmo-
dells dar, mit der Besonderheit, dass die Leistungserbringung von der Nutzung der Informa-
tionstechnologie abhängig ist und der Mehrwert für den Kunden meist ein digitales und so-
mit virtuelles Produkt ist(3). Doch ganz gleich, welche Klassifikation ein angestrebtes digitales
Geschäftsmodell besitzt, es wird in seiner Ausprägung grundlegende fachliche Komponen-
ten besitzen. Diese Komponenten sind in Bild 1 näher aufgeführt.

Bild 1: Fachlichen
Komponenten eines
digitalen Geschäftsmodells.

Der Wertschöpfungsprozess eines digitalen Geschäftsmodells beinhaltet einen „lernen-


den Regelkreis“. Dieser beginnt und endet mit der Nutzung des Gegenstands oder des End-
geräts. Verhalten und Zustand des Produkts werden durch die Sensorik seiner Daten nach
außen sichtbar(4).
Die übermittelten Sensordaten der Endgeräte werden im Rahmen des Datenmanage-
ments aufbereitet. Aufgrund der großen Menge und Variabilität der Sensordaten, wird die
Verarbeitung in der Regel als Fast-Data(5) implementiert. Die notwendige Geschwindigkeit

10 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

bei der Datenaufnahme und Verarbeitung wird über Architekturen erreicht, die sich über
mehrere Ebenen des Netzwerks erstrecken. Was das Datenvolumen angeht, helfen die Archi-
tekturkonzepte des Big Data weiter. Die Streaming-Daten werden in Near Realtime gefiltert
und analysiert, wobei bereits eine lokale Intelligenz zu einer Veränderung der Nutzung füh-
ren kann. (Siehe auch „Dunkelverarbeitung“ in Bild 1.)
Im Mittelpunkt vieler digitaler Geschäftsmodelle steht oft ein Verbund an Endgeräten,
etwa Beleuchtungseinheiten, Parkplätze, Mietobjekte, Connected Car etc., deren Verhalten
gemeinsam an die veränderten Umweltbedingungen angepasst werden muss. Hierzu werden
fachliche Nachrichten an ein lokales oder zentralisiertes Device Management versandt. Das
Device Management ist nun in der Lage, die logischen Events der unterschiedlichen Endge-
räte aufzubereiten und im Netzwerk zu propagieren, um das Verhalten der Endgeräte durch
eine Ansteuerung der Aktuatoren zu beeinflussen. Diesen Regelkreis zusammen mit dem
Datenmanagement stellt der Kasten „Daten- und Device Management“ in Bild 1 dar. Die
Frontend- und Backend-Applikationen des digitalen Geschäftsmodells nutzen anschließend
die aufbereiteten Daten zur Etablierung des neuen Angebots oder eines Mehrwerts für den
Kunden.

Bild 2: Der analytische


Regelkreis.

Maßnahmen

Bild 2 zeigt den Regelkreis, der durch Analytik-Maßnahmen geschlossen wird. Diese
Maßnahmen umfassen neben der Erfolgsmessung, die in Form eines klassischen Controllings
über einer BI-Welt stattfindet, auch eine explorative Erkennung von Mustern, etwa des
Kunden- und Produktverhaltens. Ziel ist eine Optimierung des digitalen Geschäftsmodells.
Die Optimierung erfolgt meist in einem explorativen Ansatz, der zeitlich eher unkritisch ist

11 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

– einem sogenannten Batch-orientierten Big-Data-Ansatz. Hierzu zählen statistische


Prognosemodelle ebenso wie die Ansätze des Deep Learning(6). Die Modelle werden fort-
laufend anhand von Testfällen aus der Praxis überprüft und somit kontinuierlich verbessert.
Die Erkenntnisse daraus können verwendet werden, um entsprechende Regelwerke auf den
Streaming-Daten für eine Near-Realtime-Filterung und -Prüfung zu verwenden. Das eher
klassische Controlling rundet den Regelkreis ab und liefert in einer Ex-post- und
betriebswirtschaftlichen Sicht Informationen zum Geschäftsmodell selbst.

Die analytische Plattform

Bild 3 verdeutlicht das Zusammenspiel der Ansätze von Big Data und klassischer BI-Welt
und beschreibt die Architekturkomponenten.

Bild 3: Analytische
Architekturen bei der
Digitalisierung.

Sowohl Near-Realtime-Entscheidungsfindung, klassisches BI als auch Modellbildung für


Prognosen fließen beim Aufbau einer analytischen Architektur mit ein. Es wird also deut-
lich, dass sowohl eine klassische BI/DWH-Sicht, als auch eine reine Big-Data-Sicht für sich
genommen jeweils unzureichend wären. Auf eben dieser Annahme baut die beschriebene
Referenzarchitektur auf. Dieser „analytischen Architektur“ liegt die Annahme zugrunde,
dass mittelfristig die klassische, eher Ex-post-orientierte Business Intelligence mit Data-
Warehouse-Ansätzen und die neuen Big-Data-Ansätze zu umfassenden Architekturen ver-
schmelzen werden. Auch wenn beide Ansätze hinsichtlich der technischen Implementierung
äußerst verschieden sind, so ist die betriebswirtschaftliche Aufgabenstellung bei beiden iden-
tisch: Beiden geht es darum, aus Daten Informationen zu gewinnen und das Geschäft durch
Analysen besser steuern zu können.

12 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Am Beispiel eines Geschäftsmodells zum Verleih von


Fahrrädern wird diese Verschmelzung gut sichtbar: In Ne-
ar Realtime analysiert ein Unternehmen die Sensordaten
seiner Fahrräder und erkennt Muster, die auf eine not-
wendige Reparatur schließen lassen. Hierzu generiert das
System einen Serviceauftrag an das Backend-Service-Mo-
dul, das als SaaS-Lösung implementiert sein kann. Des
Weiteren gelingt es, mit zeitlichem Versatz in Batch-orien-
tierten statistischen Verfahren die Positionen der Fahrrä- „Je höher der Einsatz
der mit ihrer Mietdauer sowie mit zukünftigen Events und unterschiedlicher
Großereignissen zu korrelieren. Aus dieser Korrelation er-
geben sich sogenannte „Lokalisierungsaufträge“, die gene-
Cloud-Lösungen ist,
riert werden, um Fahrräder an bestimmte geographische desto eher verschiebt
Punkte in die Nähe potenzieller Kunden zu bringen und sich auch die
damit bessere Ausleihquoten zu erreichen. Letztendlich
fließen die Fahrradinformationen nebst Daten aus den be- Integrationsplattform
triebswirtschaftlichen Systemen (MaWi, FiBu, Service in die Cloud und rückt
etc.) aggregiert in ein Data Warehouse und ermöglichen
so ein umfassendes finanzielles Controlling. Ferner wer-
damit näher an den
den die Batch-orientierten Ansätze verwendet, um neue Ursprung der Daten.“
Muster zu erkennen und diese, so möglich, auf dem
Stream für eine Near-Realtime-Verarbeitung zu imple- Rolf Scheuch, Geschäftsführer,
mentieren. Das Fallbeispiel zeigt, wie klassische BI-Ansät- Opitz Consulting GmbH
zen und neue Big-Data-Ansätze mit den Spielarten der
Batch-orientierten explorativen Simulation mit statistischen Modellen und der Near-Real-
time-Analyse des Datenstroms erst in ihrer Kombination zu wesentlichen Erfolgsfaktoren
werden.
Die geschilderten fachlichen Komponenten benötigen unterschiedliche Systeminfra-
strukturen. Daher bilden hybride Infrastrukturansätze unter Einbeziehung von Cloud-Lö-
sungen ein passendes Fundament für die analytische Architektur.

Hybride Cloud-Lösungen

Die meisten Unternehmen nutzen bereits eine Vielzahl an Cloud-Lösungen mit unter-
schiedlichen Liefer- und Servicemodellen. Dies gilt für BI-Branchenlösungen, die vermehrt
als SaaS-Lösungen angeboten werden, aber auch für PaaS-Lösungen für Big Data oder BI-
Suiten. So ist es nicht verwunderlich, dass ein ganzheitlicher Ansatz für analytische Lösun-
gen notwendig wird. Der ganzheitliche Ansatz verschafft hybriden Ansätzen bei analytischen
Lösungen bei allem Wildwuchs eine ordnende Sicht.
Anstatt auf die sich so entwickelnde Dezentralität mit Bestrebungen zur Zentralisierung
und Standardisierung zu antworten, und somit wieder Geschwindigkeit und Innovation zu
hemmen, kann die IT im Rahmen Hybrider Cloud-Lösungen einen „Design for Change“-
Ansatz verfolgen und die analytische Architektur auf einer reaktiven Infrastruktur imple-
mentieren.
Bei dezentralen Ansätzen treten schnell Herausforderungen für die Datenqualität auf.
Insbesondere sind Inkonsistenzen bei der Nutzung von Stamm-, Meta- und Referenzdaten
zu beobachten. In der Folge sinkt das Vertrauen in die Analysen und die dezentralen Platt-
formen geraten unter Druck. An dieser Stelle liefert die klassische BI-Welt einen Mehrwert

13 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

als Lieferant von qualitätsgesicherten Daten. Voraussetzung hierfür sind allerdings eine über-
greifende Governance beim Datenmanagement sowie die Transparenz über die Nutzung re-
levanter zentraler Daten.
Bild 4 stellt die unterschiedlichen Implementierungsansätze inklusive der Cloud-Ansätze
für analytische Lösungen in einem Blueprint für eine hybride Infrastruktur der analytischen
Welt dar. Hier gibt es kein Richtig oder Falsch, sondern Entscheidungen müssen situativ auf
Basis aktueller Anforderungen getroffen werden.

Bild 4: Zukunftsweisende
hybride Infrastrukturen.

Bild 4 zeigt unterschiedliche Szenarien für die Implementierung einer BI- oder Big-Data-
Lösung:
° Nutzung von Public-Cloud-Lösungen ohne eigene Lizenzen
° aalsls SaaS-Lösung
° PaaS-Plattform für BI oder Big Data
° Nutzung eigener BI- und/oder Big-Data-Lizenzen
° iinn einer Public-IaaS-Lösung
einer Private-Cloud-Lösung
° On-Premise auf der eigenen Infrastruktur
°
° Nutzung einer Integrationsplattform für die Datenbewirtschaftung
° iOnn-Premise
einer Public Cloud (Cloud Based Integration)
°
Für eine Cloud-Lösung sprechen einige Vorteile: Beim Betrieb einer Cloud-BI-Lösung
mit eigenen Lizenzen im Rahmen einer IaaS-Lösung ist die Unternehmens-IT mit den glei-
chen IT-Service-Prozessen belastet wie bei einer On-Premise-Lösung. Im Gegensatz dazu
entfallen bei einer PaaS-Lösung mit nutzungsabhängiger Abrechnung die direkten Lizenz-
kosten ebenso wie die Verantwortung für wesentliche IT-Service-Prozesse. Jedoch müssen
bei PaaS (wie auch bei SaaS) die internen Verrechnungsalgorithmen angepasst werden.

14 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Bei Pilot-Projekten oder einem Proof-of-Concept (PoC) hat ein Cloud-Ansatz Vorteile
für die Time-to-Value (7). In vielen Fällen ermöglichen die Anbieter von Cloud-Lösungen

° eeine schnelle Bereitstellung der benötigten Systemressourcen inklusive der Software selbst,
° eine umfassende Testumgebung,
° dine nutzungsabhängige Abrechnung,
ie leichtere Einführung von modernen Lean-Startup-Ansätzen nach dem „Fail fast, fail
° early“-Prinzip und deren Nutzung für den PoC.

Unternehmen beginnen verstärkt mit der Implementierung von Data Lakes(8)(9). Eine
Vielzahl von neuartigen Daten werden in die Analysen einbezogen: Sensordaten, Lokalisie-
rungsdaten, Geodaten, Text Messages, Log File etc. Die Heterogenität dieser Daten, die Va-
riabilität der Datenstrukturen und die schnellen Zyklen der Formatänderungen sind mit den
klassischen Datenbewirtschaftungsprozessen aus der BI-Welt schwerlich realisierbar. Ferner
lassen diese Daten sich nur mit hohem Aufwand in die notwendigen relationalen Strukturen
wie zum Beispiel Star-Schemata überführen. An dieser Stelle sind NoSQL-Datenhaltungen
(10)
auf dem Vormarsch und die Data-Lake-Konzepte lassen die Ablage der Daten in hetero-
genen Datenhaltungen zu.
BI & Big Data Neben den betriebswirtschaftlichen Überlegungen hinsichtlich Investitionsschutz und
Abschreibungszeiträumen sind am Ende vor allem zwei Kriterien bei der Entscheidung für
oder gegen die Cloud-Lösung ausschlaggebend: Der Datenschutz und die Kosten.

Datenschutz

Beim Datenschutz ist es notwendig, die gewachsenen, oft schon veralteten Datenschutz-
bestimmungen und Regelungen zu hinterfragen, um die Entscheidung gegen eine Cloud-
Lösung nicht vorschnell zu treffen. Dabei empfiehlt es sich, keine zentrale übergreifende Ent-
scheidung für alle BI- und Big-Data-Lösungen zu treffen, sondern zunächst die relevanten
Datenobjekte für den analytischen Bereich zu definieren und daraufhin eine Entscheidung
für das jeweilige Sub-Set zu treffen. Abgesehen davon sind alle in Bild 4 aufgeführten Spiel-
arten der Implementierung realistisch und sollten geprüft werden.

Kostentreiber

Ein wesentlicher Kostentreiber ist der Preis für die Datenspeicherung und den Datenex-
port von einer Cloud-Infrastruktur in eine andere Infrastruktur. Je größer die Datenmenge
ist, die aus der Cloud in BI- und Big-Data-Systeme fließt, desto preiswerter wird eine Inside-
Lösung im Unternehmensnetzwerk sein. Aktuell sind die Preismodelle der Cloud-Anbieter
nur für konkrete Anwendungsfälle vergleichbar.
Eine Besonderheit besteht in der Near-Realtime-Verarbeitung durch Streaming-Lösun-
gen, Fast-Data-Ansätze, Complex Event Processing und Realtime-Analytik, wie in Bild 3 auf-
geführt. Diese Lösungsansätze findet man häufig beim Internet der Dinge mit einer Vielzahl
an heterogenen Sensordaten. Die IoT-Plattformen selbst liegen in der Regel schon außerhalb
des Unternehmensnetzwerks und die Security bezieht sich auf einen Zugriffschutz zu den
Endgeräten und das Einspielen von fehlerhaften Daten auf die IoT-Plattform. In der Regel
besteht kein ausgeprägter Datenschutz. Für den Fall eines Datenverlusts bietet sich für das
Backup eine Cloud-Lösung als Plattform an.

15 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Für das Balance-Verhältnis zwischen On-Premise-Lösungen und Cloud-Lösungen steht


das „Center of Gravity“(11). Es setzt den Anteil der Cloud-Lösungen in Bezug zu den On-
Premise-Installationen. Aus diesem Verhältnis lassen sich wichtige Schlüsse ziehen, denn: Je
höher der Einsatz unterschiedlicher Cloud-Lösungen ist, desto eher verschiebt sich auch die
Integrationsplattform in die Cloud und rückt damit näher an den Ursprung der Daten.

Fazit

Die Verbreitung von Cloud-Lösungen ist unaufhaltsam. Unterschiedliche Liefer- und Ser-
vicemodelle nehmen Einzug in die Unternehmen, hybride Ansätze beim Cloud Computing
werden die Regel. Die Client/Server-Revolution hat uns gelehrt, die Verbreitung der Cloud-
Lösungen seitens der zentralen IT zu unterstützen, anstatt als „Bremser“ von Innovation auf-
zutreten.
Auch der Big-Data-Zug rollt. Und für eine zentrale BI-Einheit im Unternehmen macht es
wenig Sinn, die Big-Data-Welle einzudämmen. Wie geschildert ergänzen sich die beiden Fa-
cetten analytischer Fragestellungen gerade im Hinblick auf die kontinuierliche Verbesserung
von digitalen Geschäftsmodellen. Aus diesem Grunde werden die zentralistische BI-Welt
und die eher föderale Big-Data-Welt zu einer neuartigen analytischen Plattform verschmel-
zen. Das Thema der Governance der analytischen Plattform wird in dem Zusammenhang
ein neues wichtiges Handlungsfeld.
Auch etablierte Denkmuster der zentralen Plattform werden sich wandeln. Zu dynamisch
ist der Markt und zu groß sind die Chancen neuer Geschäftsmodelle durch neue Technolo-
gien. Der „Design for Change“-Gedanke nimmt Einzug in die Denkmuster und Cloud-Com-
puting wird zu einem entscheidenden Hilfsmittel um die Time-to-Value zu reduzieren und
Flexibilität zu erhöhen. Cloud Computing wird ein Fundament der neuen analytischen Platt-
form werden.

Rolf Scheuch

QUELLEN UND ANMERKUNGEN


(1)
Tim Cole: Digitale Transformation, Franz Vahlen Verlag 2015
(2)
Dominik Bial: IoT erfordert neues Denken, BI-Spektrum 02-2016
(3)
Thomas Bieger, Stephan Reinhold: Innovative Geschäftsmodelle: Konzeptionelle Grundlagen, Gestaltungsfelder und unter-
nehmerische Praxis. 2011 in: T. Bieger, D. zu Knyphausen-Aufseß, C. Krys (Hg.), Innovative Geschäftsmodelle, Springer Verlag
2011
(4)
Ferner kann der Gegenstand auch ein Smart Device wie etwa auch ein Tablet oder Smartphone sein.
(5)
BITKOM, Frauenhofer (Hg.): Big-Data-Technologien – Wissen für Entscheider, https://www.bitkom.org/Publikationen/2014/
Leitfaden/Big-Data-Technologien-Wissen-fuer-Entscheider/140228-Big-Data-Technologien-Wissen-fuer-Entscheider.pdf
(Download Juni 2015)
(6)
Einen guten Einstieg erhält man auf dieser Website: http://deeplearning.net/ (Download 10/2016)
(7)
Nello Franco: Time To Value: A Key Metric, https://blog.nellofranco.com/2013/08/25/time-to-value-a-key-metric/ (Down-
load 10/2016)
(8)
Tamara Dull: Data Lake vs Data Warehouse: Key Differences, http://www.kdnuggets.com/2015/09/data-lake-vs-data-
warehouse-key-differences.html (Download 10/2016)
(9)
Matthias Reiss und Stephan Reimann: Das Data Lake Konzept: Der Schatz im Datensee, https://www.it-daily.net/it-
management/big-data-analytics/11222-das-data-lake-konzept-der-schatz-im-datensee (Download 10/2016)
(10)
Eine Übersicht und Einführung findet sich unter http://nosql-database.org/ (Download 10/2016)
(11)
Jim Harris: The Cloud is shifting our Center of Gravity, http://www.ocdqblog.com/home/the-cloud-is-shifting-our-center-
of-gravity.html (Download am 28.5.2015)

16 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Potenziale erkennen

Warum in die Cloud?


Im IT-Budget beanspruchen die Infrastruktur und ihr Betrieb den größten Anteil. Deshalb wäre
dieser Kostenblock in der Public Cloud wesentlich billiger. Um das zu verifizieren, muss man die
eigenen Kosten ehrlich ermitteln. Denn nur dann kann man vergleichen, ob es in der Cloud
wirtschaftlicher ist.

m eBook von Februar 2016 wurden die Methoden und Werkzeuge dargestellt,

I die man für die Entscheidung „Rechenzentrum – selbst oder aus der Cloud“ be-
nötigt. Diese Kenntnis wird hier vorausgesetzt, da sie auf ein konkretes Beispiel
angewendet werden soll. Dazu versetzen wir uns in die oberste Entscheidungs-
ebene und betrachten die Wirtschaftlichkeit aus Sicht des Eigentümer-Unternehmers.
Wenn dieser erste Schritt die Vermutung von Ungleichgewichten zeigt, kann man schritt-
weise die Genauigkeiten erhöhen. Die Unwucht kann entweder im eigenen Controlling oder
im Vergleich mit Marktbegleitern sichtbar werden. Herrscht sie, dann sollte man entschei-
den. Zuerst hier eine Abgrenzung:

17 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Spricht man mit IT-Fachleuten über Cloud, so wird in 95 Prozent der Fälle die Nutzung,
Verlagerung oder das Angebot von cloudbasierten Anwendungen genannt. Man denkt in
ERP (SAP)-Plätzen, CRM(Salesforce)-Nutzern oder auch hauseigenen Prozessen, die man
in der Cloud besser, billiger, sicherer betreiben könnte als im eigenen Haus. Das ist natürlich
fast immer richtig. Weil man aber einen Aspekt – Infrastruktur - ausblendet, bleibt ein gro-
ßes Potential immer noch ungenutzt - warum?
In jeder Anwendung, die man pro Nutzer, Arbeitsplatz, Endprodukt oder noch anderen
Kriterien bezahlt, stecken ein Anteil für die Infrastruktur und ein zweiter für die eigentliche
Anwendung. Wie groß diese Anteile sind, ist selten bekannt. Nicht einmal der Anbieter weiß
das immer genau. Und wenn doch, wird es selten transparent kommuniziert.
Die alte Weisheit sagt: „was man nicht kennt, kann man nicht steuern“. „Man muss es auch
gar nicht steuern“, erwidert der Controller oder der IT-Verantwortliche. Denn solange es
preiswerter ist, als die frühere in-house-Lösung, hat man ja schon gewonnen. Der Wettbe-
werb zwischen den Anbietern sorge schon für ausreichende Preisoptimierung – wiegt man
sich in Sicherheit.
Der Vergleich mit dem Auto drängt sich auf. Für die Fahrt zum wichtigen Termin, zum
Einsatz, zum Krankenhaus, zum Urlaub guckt man nicht auf den Benzinpreis. Allenfalls
schaut man sich auf einem der Portale um. Denn die Anbieter-Konzerne kümmern sich ja
schon um ihre eigene Kostenstruktur. Sie optimieren die Prozesse der Raffinerie und der Lo-
gistik, um an den Tankstellen wettbewerbsfähige Preise zu bieten. Wenn es bei der IT eben-
so zuginge, wäre dieser Artikel überflüssig.

Hier wenden wir diese Sicht an und zoomen zunächst in die Zusammenhänge hinein.
° W ir betrachten das Rechenzentrum – nicht die Anwendungen
Vom IT-Budget interessieren nur die Kosten der Infrastruktur – nicht die Kosten der Pro-
° jekte, der Entwicklung und Wartung von Anwendungen
Von der Software interessiert alles vom Betriebssystem bis zur Oberkante Middleware, und
° der Datenbank – keine Apps.
° –Ebenso beim Support interessieren auch nur diese Schichten der Hardware und Software
nicht der first oder second level für die Anwendungen.

Schritt für Schritt

Im bereits erwähnten eBook von Februar 2016 wurde ab Seite 40 im Beitrag „Cloud-Kos-
tenpotenziale“ bereits das Verfahren erläutert, das in einigen Klienten-Projekten erfolgreich
angewendet wurde. Da bei vielen Unternehmen jedoch diese Chancen noch nicht gesehen
werden, soll hier nun eine einfache Möglichkeit gegeben werden, für das eigene Haus diese
ganz konkret zu ermitteln, vielleicht auch nur probeweise mit wenig Aufwand. Dazu werden
zunächst einfache Schritte gegangen. Sowie man erkennt, dass sich der Nutzen abzeichnet,
kann man dann jeweils den nächsten gehen.
Einer im Hause, der IT-Leiter, der CIO oder der Controller sollte an dieser Aufgabe in-
tensives Interesse haben. Am besten derjenige, der dafür sorgt, dass Computing Power,
Diskspace, Zugriffe, interne Bandbreite immer das günstigste Kosten-Niveau haben, um die
Anwendungen zu versorgen. Dass diese Sicht bisher nicht so intensiv genutzt wird, mag da-
ran liegen, dass die Margen einfach viel zu auskömmlich sind. Wie ein IT-Leiter mir kürzlich
sagte: „uns geht es eigentlich zu gut“. Sollten Sie, ähnlich wie dieser, einen Handlungsdruck
gar nicht verspüren, so lesen Sie bitte nicht weiter.

18 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Es kommt darauf an, Kosten und Leistungen der Infrastruktur:


° gmenau zu erfassen und regelmäßig zu überwachen
° a.it die Standards zu messen, zu vergleichen, welche:
Ergebnisse mit anderen Anbietern vergleichbar zu machen
b. auch den Vergleich mit anderen Nutzern anzustellen
so transparent zu zeigen, dass die eigenen Nutzern dies gern akzeptieren, und nicht fremd-
° gehen.

Für die Leistungen genügt es zunächst:


° deventuell
ie Computing Power – die Leistungskapazität - aller Rechner zu ermitteln
auch noch deren Arbeitsleistung zu erfassen
° für die Speicher deren Kapazität und die Geschwindigkeit zu erheben
° das Gleiche auf die Speicherzugriffe (I/Os) anzuwenden
° für das Netz im Rechenzentrum die Bandbreite zu erfassen, evtl. noch den Datendurchsatz.
°
Wenn eine grobe Schieflage herrscht, wird das jetzt auffällig. Es genügen diese wenigen
Parameter. Da es sich um commodities handelt, ist der Preis alleiniger Maßstab. Die genorm-
te Vergleichbarkeit lässt keinen Raum für begründete Abweichungen. Enorm niedrige oder
hohe Preise für die standardisierten Leistungselemente deuten auf gravierende Fehler hin.
Diese können in der Kostenrechnung oder im Management liegen. Das festzustellen, ist die
nächste Stufe, die in-depth Präzisierung, nötig.

Kosten

Für die Kosten zieht man am besten die IT-eigene Kostenstellen-Gliederung heran. Wenn
die nicht existiert, muss sie erst geschaffen werden.(1, 2) Am Ende hat man für jede der vier
vorgenannten Leistungen auf den vier zuständigen Kostenplätzen deren jährliche Gesamt-
kosten, zum Beispiel (alles in Euro oder USD):

Rechner 3,5 Mio

Speicherkapazität und Leistung 6,9 Mio

Zugriffe 2,4 Mio

Netz 6,7 Mio

Gesamt 19,5 Mio

eBook
Damit beläuft sich das gesamte Infrastruktur-Budget auf 19,5 Mio. Das IT-Gesamtbudget
mag bei ca. 30 Mio. liegen. Durch einfache Divisionskalkulation erhält man die spezifischen
Kosten die für die Aufgabenstellung in erster Näherung ausreichen. Dann lässt sich unmit-
telbar erkennen, wo es eine Unwucht geben könnte, bei der man tiefer ins Detail gehen muss.
Zunächst müssen noch die Leistungsmengen ermittelt werden.

19 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Leistungen

Schaut man sich die Leistungen genauer an, so bietet vor allem die Computing Power oft
eine Herausforderung, weil es hierfür keine marktweiten Standards gibt. Es existieren statt-
dessen fast nur hersteller-eigene Maßstäbe (Benchmarks). Die sind leider untereinander
nicht vergleichbar. Daher wurde in der Zeitschrift IT Management bereits vor einigen Jahren
der Server Leistungswert vorgeschlagen.(3) Herstellerunabhängig ist damit die Leistungska-
pazität jedes Rechners im Handumdrehen festgestellt und das mit einer Genauigkeit, die für
das Finanzmanagement der IT ausreicht.
Schwieriger ist es mit der Arbeitsleistung, d. h. wie lange (in Stunden, Minuten, Sekun-
den) jeweils mit welchem Prozentsatz die Nenn-Kapazität des Rechners tatsächlich zur Ar-
beit genutzt wurde. Da es bisher keine wirtschaftlich sinnvolle Methode gibt, dies für Server
genauso zu messen wie für Mainframes, hilft man sich gerne mit begründeten Schätzungen
(educated guesses), gestützt durch multimoment-Aufnahmen oder Intervallmessungen der
Systemlast.(4)

Die Mengen-Ergebnisse sehen dann zum Beispiel so aus


° CSpeicherplatz:
omputing Power: Kapazität 50 Mio. SLW-Stunden, Arbeit 35 Mio. SLW-Stunden
15 TB Kapazität mit 30 ms, 500 TB mit 100 ms
° Speicherzugriffe: ( I/Os) 500 Mrd
° Netz:
° a. Bandbreite 1.000MB/sec = 86,4 TB/Tag
b. Datendurchsatz 30 TB/Tag, Spitze 3 TB / Stunde

Produktionsumsatz

Stellt man nun die ermittelten Kosten je Kostenplatz den hier festgestellten Mengen ge-
genüber, so sieht man in der Tabelle, dass die tatsächlich genutzte Arbeit aus der Rechner-
farm 10 Cent pro SLW-Stunde kostet, während die vorgehaltene Rechenkapazität – auch
wenn sie das ganze Jahr über leerlaufen würde – pro SLW-Stunde 7 Cent kostet. Nun kann
WEB-TIPP: man den Kunden beides alternativ oder ergänzend, sollte es aber nicht gleichzeitig, berech-
www.jomi1.com nen.
Beim Speicher fallen für die schnellen Medien je Terabyte für ein Jahr 193.000 Euro, für
die langsamen nur 8.000 je TB pro Jahr an. Den Kunden berechnet man natürlich viel klei-
nere Einheiten, zum Beispiel 0,67 Euro für ein GB langsamen Speicher je Monat. Verhand-
lungssache bleibt, ob man dem Kunden nur den belegten oder auch den vorgehaltenen Platz
berechnet, selbst wenn er nicht belegt ist. Für den schnellen Speicher ist der Preis naturge-
mäß höher, aber die Methodik die gleiche.
Die Zugriffe kosten 4.800 Euro je Milliarde oder 4,8 Euro je Million oder 0,0048 Euro je
1.000.
Die Bandbreite im internen Netz des Rechenzentrums ist eine vorgehaltene Kapazität. Die
tatsächlich pro Stunde oder Sekunde geleistete Arbeit – also die übertragenen Mega- oder
Terabyte - wird selten festgehalten oder weiterberechnet, weil die Schwankungen groß sind
und die Vorgänge sehr schnell ablaufen. Allenfalls misst und verrechnet man die pro Tag,
Woche oder Monat insgesamt übertragenen Daten. In unserem Beispiel sind die Kosten z.B.
mit Euro 2,3 Mio.je peak-hour-Terabyte optisch sehr hoch. Daher berechnet man besser den
Durchsatz mit Euro 8,4 je durchgesetztes GB und kommt bei der Jahresmenge von 8.000 TB
auf den gleichen Erlös von Euro 6,7 Mio.

20 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Vergleichen Sie die in der Tabelle beispielhaft gezeigten Mengen und Preise, kommt es
eventuell zu einem ersten Schock. Wenn Ihre Kosten im eigenen Rechenzentrum on premi-
se ganz anders aussehen, kann die Überraschung groß sein. Oder die Kostenplätze, Kosten-
summen, Produktionsmengen, Produktbezeichnungen lauten ganz anders. Das ist keine Sel-
tenheit, weil es Standards oder Normen nicht gibt, ebenso wenig wie einen Kostenplan,
Kontenrahmen für die IT oder auch nur für die IT-Infrastruktur. Zwar wurden diese im Ar-
beitskreis „IT-Dienste-Abrechnung“ für die Beteiligten erarbeitet.(5) Doch haben noch längst
nicht alle Betreiber von IT-Infrastruktur diese umgesetzt. Daher schlagen wir hier vor, in ei-
ner freiwilligen Aktion zunächst die einfachen Grunddaten auszuwerten und diese bei Be-
darf schrittweise zu verfeinern.

Jochen K. Michels

Produktionsumsatz

Zur Berechnung des Server Leistungswertes nimmt man die Anzahl cores mal der Taktgeschwindigkeit
und addiert den Memoryspeicher. Es ergibt sehr große Zahlen, die man umrechnen kann in kSh = Kilo
SLW-Stunden, eine vereinfachte Leistungsgröße zur Bemessung der Computing Power.

Näheres dazu in IT-Management: „Endlich ein Urmeter fürs Computing“ Jan-Feb 2010 S. 32 ff..

alternativ
Jahreswerte Euro p.a. Stückkosten € je
€ je

Kapazität 50.000.000 SLW-h 0,070 /SLW-h


Arbeit 35.000.000 SLW-h 3.500.000 oder 0,10/ SLW-h

30 ms 15 TB-Jahr 2.900.000 193.333-/TB-J


100 ms 500 TB-Jahr 4.000.000 8.000 /TB-J. 0,67/GB-Mon

Mrd 500 I/O 2.400.000 4.800 /Mrd 0,0048/1000

Tag 30 TB-Tag 223.333 /TB-Tag


Spitzen-Std 3 TB-h 6.700.000 oder 2.233.333 TB-pkh

19.500.000

21 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Auswertung der Grunddaten

Dazu können Sie die folgenden Fragen einfach beantworten und vertraulich einsenden. Um zusätzliche
Vertraulichkeit zu erreichen, können Sie Ihre Angaben auch mit - nur Ihnen bekannten - Faktoren
umrechnen. Sie müssen dann allerdings auch die Ergebnisse in gleicher Weise „rückübersetzen“, damit
Sie vollen Nutzen daraus ziehen. Sofern die Euro-Beträge Ihnen nicht schon vorliegen, empfiehlt sich der
Aufbau eines BAB für das Rechenzentrum.

Kosten der Infrastruktur Jahressummen in Euro

Computing ………………

Speicher ………………

Zugriffe ………………

Netz ………………

Leistungen der Infrastruktur Jahreswerte, wenn nicht anders angegeben

Computing in Server Leistungswert-Stunden (SLW-Stunden)

Speicher in Terabyte und jeweiliger Geschwindigkeit

Zugriffe in Milliarden oder Billionen

Gesamt-Durchsatz in Megabyte
Netz Spitzenstunden-Durchsatz in MB
Zusätzlich: Bandbreite in Megabit pro Sekunde

Die eingegangenen Angaben werden mit Kennbuchstaben anonymisiert. Nur dem Einsender wird
dieser mitgeteilt. Die Angaben werden monatlich ausgewertet und allen Einsendern anonym und
vertraulich mitgeteilt. Zunächst wird nur eine einfache Gegenüberstellung mit Kennziffern erstellt.
In Abstimmung mit den Teilnehmern kann eine Vertiefung mit mehr Details durchgeführt werden, z. B.
nach Größenklassen, Branchen oder auch speziellen Eigenarten der Infrastruktur. Wenn die beteiligten
Firmen eine ausreichende Sicherheit der Analyse erkennen, können sie auf diese Weise die Cloud-
Entscheidung auf belastbare und dauerhaft gültige Informationen stützen. Das gilt gleichermaßen für
die Verlagerung oder das Behalten im eigenen Hause.

QUELLEN

1
ISBN: 978-3-7375-3891-6 - „IT-Betriebsabrechnung“ – Der BAB des Rechenzentrums
2
Speziell auf die Cloud-Entscheidung bezogen, ist das Verfahren in ISBN 978-3-639-38720-9 „IT-Cloud-Pricing“ dargestellt.
3
IT-Management: „Endlich ein Urmeter fürs Computing“ Jan-Feb 2010 S. 32 ff. und andernorts, sowie in ISBN 978-3-639-
38720-9 IT-Cloud-Pricing.
4
Immer wieder tauchen Angebote auf, diese Leistungen auch im Serverbereich genau zu messen. Bisher konnten sie nicht
bieten, was wirtschaftlich sinnvoll ist. Man sollte diese Angebote jedoch laufend verfolgen.
5
ISBN 978-3-639-72926-9 – IT-Dienste-Abrechnung – Protokolle des gleichnamigen Arbeitskreises

22 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Cloud-Dienste

Schatten-IT umgestalten
Praktisch alle Unternehmen nutzen Cloud-Dienste – viele davon sind jedoch ohne Wissen der
IT-Abteilung im Einsatz. Dieser Beitrag zeigt wie Firmen ihre IT konsolidieren, Schatten-IT in den Griff
bekommen und sich damit fit für die Zukunft machen.

aten hochladen und per Link an Freunde oder Kollegen senden – einfach, schnell

D und unkompliziert: Nach diesem Erfolgsrezept funktioniert Dropbox. Den


Cloud-Dienst nutzen jeden Monat weltweit mehr als 500 Millionen Menschen.
Unter ihnen viele Mitarbeiter von Unternehmen, häufig ohne den Segen oder
das Wissen ihrer IT-Abteilung – und in den meisten Fällen unter Umgehung der firmenin-
ternen Compliance-Richtlinien. Sie melden sich an, laden die App herunter und verschicken
darüber dienstliche Daten an Kollegen oder Kunden.

23 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

So sieht Schatten-IT im Business-Umfeld aus. Ein Ärgernis für IT-Verantwortliche, die


mit Kontrolle dagegen halten. Laut Bitkom Cloud-Monitor 2017 etwa überprüfen zwei Drit-
tel der Unternehmen die Nutzung von Public-Cloud-Diensten innerhalb ihrer Organisation,
um Schatten-IT zu vermeiden. Dabei, so eine aktuelle Studie der Cloud Security Alliance
(CSA) und des US-amerikanischen Cloud-Security-Anbieters Skyhigh Networks, zählt die
Marketingabteilung zu den Hauptverursachern von Schatten-IT.
Auf der anderen Seite entstehen durch eine vielfältige und bedarfsorientierte IT-Land-
schaft neue Möglichkeit und Lösungsansätze. Wie können Unternehmen die Not zur Tugend
machen und die Schatten-IT eliminieren sowie den Aufwand komplexer Multi-Cloud-Um-
gebungen effektiv reduzieren?
Viele Unternehmen sehen sich einem riesigen, historisch gewachsenen Berg an IT Services
und -Lösungen gegenüber. Das kann für Unternehmen problematisch werden. Es kommt
nämlich ganz darauf an, wie Unternehmen damit umgehen. Wenn verschiedene Abteilungen
einfach per Kreditkarte irgendwelche Cloud-Dienste buchen, entsteht Chaos. Ein großes
Problem, mit dem viele Unternehmen derzeit zu kämpfen haben. Doch diese Situation bietet
auch Chancen. Es empfiehlt sich für die meisten Unternehmen eine geschickte Kombination
verschiedener Public- und Private-Cloud-Dienste, die sich stets nach dem Anwendungszweck
richten sollte. Die verschiedenen Dienste müssen nur sinnvoll gemanagt werden. Dazu muss
die vorhandene IT zunächst erfasst und anschließend sinnvoll konsolidiert werden.

Worauf sollten Unternehmen bei der Konsolidierung achten?

Entscheidend ist eine akribische Vorbereitung. Dabei sollte die IT zunächst den Bedarf
und die Anforderungen im Unternehmen abfragen, um einschätzen zu können, welche Be-
standteile übernommen, welche abgeschafft und welche möglicherweise noch hinzugenom-
men werden sollten. Erst im zweiten Schritt sollte ein Leistungskatalog entstehen, der als
Grundlage für das weitere Vorgehen dient.
Welche Kriterien sind bei der Auswahl von Cloud Services relevant? Diese Frage stellen
sich viele IT-Verantwortliche. Dazu zählen Performance, Verfügbarkeit, Skalierbarkeit, Con-
nectivity, Sicherheit und Compliance. Also Eigenschaften, die sich nahezu alle Anbieter auf
WEB-TIPP: die Fahne schreiben. Aber wie finden Unternehmen den richtigen Provider?
www.qsc.de Für eine Vorauswahl bietet sich ein Abgleich mit dem Anforderungskatalog Cloud
Computing C5 des Bundesamtes für Sicherheit in der Informationstechnik (BSI), Plattformen
wie cloud ecosystem oder CSA STAR an. Auf dieser Basis lässt sich schon mal eine gute
Vorauswahl treffen. Die wichtigsten Kriterien für die Endauswahl bilden dann Funktionalität,
Kosten und Individualisierbarkeit der Services. Anschließend folgt eine klassische Kosten-
Nutzen-Analyse nach Gesamtbetriebskosten-Kriterien.

Der Multi-Vendor-Ansatz

Insbesondere große Unternehmen setzen bereits heute aufgrund der Vielfalt der benötig-
ten IT-Services auf einen Multi-Vendor-Ansatz. Die Frage ist: gilt das auch für mittelständi-
schen Unternehmen, ebenfalls auf mehrere Anbieter zu setzen? Die Antwort lautet: Definitiv.
Hier bildhaft ein schöner Vergleich.
Zehnkämpfer decken eine große Bandbreite an Spielarten ziemlich gut ab, zählen aber
nicht in jeder Disziplin zu den Topathleten. Genauso ist es bei IT-Anbietern. Wer kann, soll-
te für jede Disziplin einen Spezialisten beauftragen.

24 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Ist das nicht zu kompliziert? Viele Unternehmen beauftragen – wenn möglich – gerade
deshalb einen Anbieter für alles, weil sie dann alles aus einer Hand erhalten. Komplex ist die-
ses Unterfangen in der Tat. Aber dafür gibt es ja wiederum Dienstleister. Seine Aufgabe ist
es die Workloads von Unternehmen zu analysieren und zu ermitteln, welche Lösungen sich
am besten für das jeweilige Unternehmen eignen. Darauf basierend wird eine Multi-Cloud-
Strategie gebaut, die von allem die bestmögliche Lösung beinhaltet. Dabei bleibt der Dienst-
leister der erste Ansprechpartner, auch nach der Umsetzung. Auf diese Weise erhalten Kun-
den immer die beste Lösung, praktisch Best-of-Breed, und haben dennoch einen
Ansprechpartner für alles.

Die Exit-Strategie

Die Komponenten einer Multi-Cloud-Struktur hängen jedoch nicht voneinander ab. Es


ist sinnvoll auch immer eine Exit-Strategie zu definieren, damit kein Unternehmen in An-
bieterabhängigkeit gerät. Einfach gesagt muss erkennbar sein, mit welchem Aufwand Unter-
nehmen im Fall der Fälle ihre Daten und Applikationen vom Provider zurückerhalten. Man
muss prüfen, ob sich die Daten im bisherigen Format direkt zu neuen Anbietern übertragen
lassen oder ob sie zunächst bearbeitet werden müssen.
Angenommen, ein Unternehmen hat mit viel Mühe alle Dienste und Lösungen erfasst,
konsolidiert und in eine effiziente Multi-Cloud-Umgebung überführt – wie verhindert es,
dass neue Schatten-IT entsteht?
Kommunikation ist das beste Mittel, um Schatten-IT vorzubeugen. Wird die IT-Abteilung
im Unternehmen als Servicepartner wahrgenommen, bittet die Fachabteilung sie gerne um
Hilfe, wenn sie etwas braucht. Dadurch wird Schatten-IT im Ansatz verhindert.

Marc Sundermann

Über den Autor

Marc Sundermann ist Experte für das Thema Multi Cloud und Cloud-Strategien und
hat als IT-Architekt langjährige Erfahrung in der Planung und Umsetzung komplexer
Cloud-Architekturen. Bei der QSC AG ist er in seiner Position als Head of Business
Development für die strategische Ausrichtung des neuen Geschäftsbereichs Multi
Cloud zuständig.

25 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Kein Mut zur Lücke

Application-Firewalls für die


sichere Cloud
Längst haben Unternehmen und Organisationen die Vorteile, die das Arbeiten in der der Cloud bietet
erkannt – sei es der einfache Fernzugriff auf wichtige Daten, die effizienten Kollaborationsfunktionen
oder die Entlastung der IT-Teams, da eine zeit- und kostenaufwändige Hardwarewartung entfällt.

m Zuge der Migration in die Public Cloud können Unternehmen jedoch auf ei-

I ne Lücke zwischen dem bestehenden Schutz vor Ort und den neuen Sicher-
heitsanforderungen in der Cloud stoßen. Diese gilt es unbedingt zu schließen.

Wo die Public Cloud an ihre Grenzen stößt

Virtuelle Security Appliances gibt es schon länger. Sie bieten Tools wie Deep Packet Ins-
pection in einem portablen, einfach bereitzustellenden Format für Private Clouds und vir-
tuelle Rechenzentren. Moderne Netzwerke bestehen oft aus einer Kombination aus lokalen
Servern, Remote-Geräten und Applikationen, die in der Cloud gehostet werden. Werden
WEB-TIPP:
Cloud-basierte Plattformen wie Office 365, Salesforce, Amazon Web Services (AWS) und
Microsoft Azure verwendet, muss sichergestellt sein, dass alle wichtigen Applikationen und
www.barracuda.com
Devices dann verfügbar sind, wenn sie gebraucht werden. Der Schutz geschäftskritischer Ap-
plikationen in diesen Umgebungen stellt eine erhebliche Herausforderung für IT-Teams in
Unternehmen dar.

26 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Während Azure und ähnliche Produkte optimale Hardware-Sicherheit gewährleisten,


fehlt es ihnen an geeigneten Workload-spezifischen Security-Lösungen etwa für den Schutz
vor Exploits, bei der Implementierung von Anti-Malware-Lösungen oder der Abwehr kom-
plexer, gezielter Angriffe. Solch fehlende Unterstützung auf der Anwendungsebene bedeutet
für die Unternehmens-IT mitunter ein hohes Risiko. Beispielsweise, wenn datengesteuerte
Applikationen auf VMs in der Cloud ablegt werden.

Bild 1: Screenshot eines


NextGen Control Centers,
das die Verwaltung
der gesamten Firewall-
Infrastruktur zentral über
ein Interface - unabhängig
von Deployment-Größe
oder unterschiedlichen
Deployment-
Umgebungen erlaubt.
Das Management von
hunderten von Firewalls
ist nur geringfügig
aufwändiger als das einer
Firewall.

Sicherheit in der Cloud über das Grundsätzliche hinaus

Während on-Premises-Sicherheitslösungen wie Firewalls, VPNs oder IPS einen robusten


Schutzschild bieten, unterliegen Anwendungen innerhalb von Cloud-Umgebungen lediglich
einem Basis-Schutz, den gemeinsame Dienste oder das Server-Betriebssystem bieten. Für
Unternehmen reicht dieser keinesfalls aus. Die beispielsweise in Office 365 enthaltene E-Mail
Security – Exchange Online Protection (EOP) ist eine auf Connection Management fokus-
sierte Grundsicherung mit nur einer Ebene. Die integrierte E-Mail-Sicherheit schützt nur
vor Spam-Mails, bietet aber keinen wirksamen Schutz vor Sicherheitslücken durch Phishing
und Zero-Day-Attacken. Hierfür werden Zusatzlösungen wie Advanced Threat Protection
(ATP), benötigt.
Des Weiteren bietet Office 365 kein Backup und Recovery. Konkret: Gelöschte Daten sind
nach 90 Tagen für alle Zeiten verloren, wenn sie nicht mittels zusätzlicher Dienste gesichert
wurden. Für die Praxis bedeutet dies, die Gefahr von Datenverlust durch Sabotage, Anwen-
der- oder technische Fehler.
Public Cloud-Lösungen sollten also immer hinsichtlich Sicherheit, Archivierung und
Backup ergänzt werden:

Sicherheit

Die Implementierung einer kompatiblen Spam-Firewall ist notwendig um ausreichenden


Schutz zu erreichen. Das kann sowohl als Software as a Server (SaaS), als auch als lokale Ap-
pliance-Lösung realisiert werden. Im Zuge der Migration zu Cloud Services tendieren aller-

27 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

dings die meisten Unternehmen dazu, den Spam Filter ebenfalls als Service einschließlich
Advanced Threat Detection zu beziehen. Solch ein Dienst lässt sich einfach integrieren, bie-
tet mehrere Sicherheitsebenen und schützt wirksam beispielsweise vor Phishing-Angriffen
oder Ransomware.

Archivierung

Mailarchivierungstools von dritter Seite, die Nachrichten kontinuierlich archivieren, sind


die einzige Methode, um Unternehmen den dauerhaften Zugriff auf alle E-Mails zu
garantieren und damit Compliance-Vorgaben einzuhalten. Das Mailarchiv ist nahtlos in die
Exchange-Online-Umgebung eingebunden und Suchabfragen nach älteren Mails über das
Archiv sind viel effektiver als solche, die direkt in der Exchange-Instanz in der Cloud die
Nadel im Heuhaufen suchen.

Backup

Dateien in Public Cloud-Lösungen werden über redundante Server repliziert. Die


Wiederherstellung irrtümlich gelöschter Dateien ist aufwändig. Sie geschieht manuell in der
Regel durch den Anbieter – und das kann dann schon mal sechs bis zehn Tage in Anspruch
nehmen. Wirkungsvoller und vor allem schneller sind Cloud-to-Cloud Backup-Technologien,
die automatische Backupprozesse einrichten und es damit dem Administrator ermöglichen,
verlorene, irrtümlich gelöschte und beschädigte Dateien sofort in der Applikation in der sie
entstanden sind, wiederherzustellen.

Bild 2: Einbindung von


Firewalls in Public Cloud-
Umgebungen.

Cloud-Servicebetreiber wissen überdies nicht, was zum normalen Datenverkehr ihres


Kunden gehört oder wobei es sich bereits um bösartigen Datenverkehr handelt. Um den An-
forderungen an die Sicherheit in der Cloud zu entsprechen, müssen IT-Teams neue Sicher-
heits-Layer anhand eines virtuellen Sicherheitssystems implementieren, das sich innerhalb
der Organisationsumgebung befindet. Eine Next Generation Firewall kann aufbauend auf
Anwendungstransparenz und Kenntnis der Benutzeridentität, den Datenverkehr sowie die
Bandbreite intelligent verwalten und IT-Administratoren dabei unterstützen, die Kontrolle
über ihr Netzwerk zurückzuerlangen.

28 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Die Lücke schließen

Eine Cloud-basierte virtuelle Firewall adressiert eine


Reihe von Sicherheitsanforderungen, darunter:

Sicheres Rechenzentrum: Eine virtuelle Firewall kann


° Datenverkehr zum oder vom Internet, zwischen virtuel-
len Netzwerken oder zwischen den Mandaten filtern
und verwalten, um das virtuelle Rechenzentrum zu
schützen. Sie kann zudem ein physisches Rechenzent- Wieland Alge
rum sicher auf die Cloud erweitern, was vor allem dann Vice President, General Manager
wichtig wird, wenn Lösungen in die Cloud migriert wer- EMEA, Barracuda Networks
den sollen und daher eine sichere Verbindung zwischen
der Cloud-Umgebung und der lokalen Infrastruktur be-
nötigt wird.

Sicherer Fernzugriff: Während die für die Konfiguration von VPN-Gateways eingesetzten
° Standard-Tunnel aus Verschlüsselungs- und Datenschutzperspektive auf jeden Fall sicher
sind, bieten sie nicht das Maß an Steuerung, das zahlreiche IT-Konzerne mit ihrer Hard-
ware-basierten Firewall erreichen. Eine virtuelle Firewall liefert die fortschrittliche Zu-
griffsrichtlinien-, Filter- und Verbindungsverwaltung, die für die Bereitstellung von Client-
Zugriff auf die Cloud erforderlich ist. Mit Blick auf verschlüsselte Inhalte stellt die
virtuelle Firewall sicher, dass alle Daten (unabhängig von Quelle oder Zielort) den gleichen
Schutzmaßnahmen unterliegen, die eine Hardware-basierte Firewall vor Ort bieten würde.

Identität: Da die meisten Cloud-Plattformen nicht dafür entwickelt wurden, bösartige Ab-
° sichten zu erkennen und darauf zu reagieren, ist die virtuelle Firewall für die Aufrechter-
haltung der Integrität und Vertraulichkeit von Apps und Daten maßgeblich. Sie sollte sich
in die Lösungen der meisten namhaften Anbieter von Zugriffskontrolllösungen integrieren
lassen und ein breites Spektrum granularer, richtlinienbasierter Filter-Tools bieten.

Verwaltung: Während Cloud-Anbieter typischerweise Mandantenisolation und -sicher-


° heit bieten, wird für eine effektive Verwaltung der Mandantenumgebung eine Cloud-ba-
sierte Firewall benötigt. Diese wird für das Management der Performance, der Nutzung,
der Sichtbarkeit, des Reportings, der Konfiguration und der sonstigen Funktionen einge-
setzt, für die normalerweise interne Verwaltungstools zur Anwendung kommen.

Moderne Unternehmen erkennen immer mehr, dass der Einsatz der Cloud wettbewerbs-
relevante Vorteile bringt, Kosten einspart und die Arbeitsprozesse effizienter macht. Wer sei-
ne Infrastruktur entsprechend gut vorbereitet, Expertenwissen nutzt und weitsichtig plant,
was Zeit und Budget betrifft, wird sich schnell in der neuen Umgebung eingelebt haben.
Denn die Sicherung von Anwendungen und Daten in der Cloud ist mit eigens dafür entwi-
ckelten Tools viel einfacher. Eine Cloud-basierte Application-Firewall kann dort Sicherheit
bieten, wo sich die Anwendungen sowie die Daten tatsächlich befinden, und so die Lücke
zwischen der Netzwerksicherheit on-Premises und den Anforderungen an die Cloud-Sicher-
heit schließen. In diesem Fall ist ‚kein Mut zur Lücke‘ die bessere und vor allem sichere Ent-
scheidung.
Wieland Alge

29 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Schatten-IT

Mit der Cloud gegensteuern


Die Rolle der Informationstechnik rückt in Zeiten der digitalen Transformation und des wachsenden
Wettbewerbsdrucks immer mehr in den Fokus der Aufmerksamkeit. Wie sehr sich das Aufgabenfeld
der IT zukünftig wandelt und wie wichtig ihre Rolle für den zukünftigen Unternehmenserfolg ist, wird
hingegen noch immer unterschätzt.

owohl Unternehmensführung als auch Mitarbeiter stehen vor neuen Herausfor-

S derungen und Aufgaben: Die alten Rollenbilder, in denen die IT als Dienstleis-
ter und der Fachbereich als Kunde fungieren, verschwimmen und digitale Ge-
schäftsmodelle gewinnen an Wert. Die IT entwickelt sich mit der steigenden
Bedeutung für den Outcome der Unternehmen von der bisherigen Unterstützungs- zu einer
Kernfunktion für die Wertschöpfung des Unternehmens. Sie rückt die Entwicklung neuer,
im digitalisierten Umfeld erfolgreicher Leistungen und Produkte in den Mittelpunkt. Nur
die zuvor definierten Anforderungen bestehender Geschäftsprozesse zu erfüllen reicht für
eine erfolgreiche IT nicht mehr aus. Diese auf Effizienz und Zuverlässigkeit fokussierte Auf-
gabe bleibt wichtig, entwickelt sich jedoch deutlich erkennbar zu einer austauschbaren Stan-
dardleistung.

30 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Herausforderung für den CIO

Jahrelang forderten die Unternehmen von den CIOs vor allem Kostenreduzierung und
Stabilität. Das ging so weit, dass etablierte Wirtschaftsjournalisten noch vor wenigen Jahren
die Frage stellten, ob die IT zukünftig überhaupt noch eine wichtige Rolle spielen würde. Das
wiederum führte dazu, dass interne IT-Organisationen sich zunehmend auf Effizienz kon-
zentrierten. Die Bereiche, die sich um Infrastruktur und Betrieb kümmerten, befassten sich
vorrangig mit der Standardisierung im Hinblick auf Technologie und Prozesse. Ihre Leistun-
gen und Produkte wurden dadurch immer austauschbarer. Gleichzeitig setzten die Verant-
wortlichen in der Applikationsentwicklung viele Entwickler-Ressourcen für die Bewältigung
der Betriebsaufgaben ein. Die entsprechenden Abteilungen stecken noch heute häufig zwi-
schen langwierigen Entwicklungsprojekten und Ad-hoc-Wünschen ihrer direkten Ansprech-
partner fest. In der gesamten IT versanden Innovationen in starren Strukturen und stringen-
ten Effizienzvorgaben. Es gilt, das Gleichgewicht zwischen Stabilität und schnellem Rollout
innovativer Neu- und Weiterentwicklungen zu finden, was alle Beteiligten jedoch vor große
Herausforderungen stellt.
Zusätzlich konkurrieren die Infrastruktur- und Betriebsteams mit innovativen und at-
traktiven Angeboten externer Provider, deren Leistungen oft kostengünstiger und dennoch
qualitativ mindestens ebenbürtig sind. Auch den internen Entwicklungsabteilungen macht
das mögliche Nachlassen des Anteils an selbst entwickelten Applikationen der IT-Services
zu schaffen. Die wirtschaftlich interessanten, innovativen, benutzerfreundlichen und flexib-
len Cloud-Angebote für die konkreten Problemstellungen der Fachbereiche sind die Ursache
für die Veränderungen. Infolgedessen wird die interne IT nicht mehr als „natürlicher“ Lie-
ferant aller IT-Services gesehen und muss sich den Vergleichen mit externen Angeboten
mehr und mehr stellen. Das führt vor allem dann zu Problemen für die Wahrnehmung bei
Anwendern und Management, wenn die IT-Leistungen zu einem großen Teil aus weitgehend
austauschbaren Basisleistungen bestehen.

Schatten-IT gewinnt an Bedeutung

Der Trend, Angebote aus der Cloud zu beziehen, bleibt auch in Zukunft bestehen und
wird sich weiter verstärken. Die Angebote treffen die Bedürfnisse der Kunden zielgenau, sind
flexibel buchbar und aufgrund der inzwischen weitgehend verfügbaren hohen Bandbreiten
auch alltagstauglich fürs Geschäft. Die Fachbereiche wählen aus einem stetig wachsenden
Angebot an innovativen Apps und Lösungen das passende für ihr jeweiliges Problem aus.
Benötigt ein Unternehmen eine Leistung nicht mehr, kann es diese ebenso einfach wieder
abbestellen. Auf lange Bindefristen und Vertragslaufzeiten verzichten viele Anbieter inzwi-
schen zugunsten der Flexibilität und der besseren Befriedigung der Anwenderbedürfnisse.
Diese Angebote führen allerdings dazu, dass der Anteil der sogenannten Schatten-IT wächst
und sie sich in einigen Unternehmen bereits heute langsam zur eigentlich relevanten IT
formt. Die verbliebene interne IT hingegen entwickelt sich immer mehr zu einem Anbieter
von Basisleistungen und Infrastrukturen und verliert erheblich an Bedeutung und Akzep-
tanz.

31 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Neue Aufgaben annehmen

CIOs sollten ihren Einfluss in der IT wahren und stärken, allen voran bei den Themen
IT-Sicherheit und Datenschutz. Der Versuch, die Nutzung externer Angebote allein mit Ver-
boten und Vorgaben einzudämmen oder gar zu verhindern, wird langfristig nicht funktio-
nieren. Zu stark ist die Position der Fachbereiche gegenüber der internen Unternehmens-IT.
Stattdessen muss die IT überlegen, wie sie sich zu einer Plattform mit einem Angebot sinn-
voller IT-Services für das gesamte Unternehmen entwickelt. Das steigert das Interesse der
Verantwortlichen im Unternehmen mehr als die mühsame Recherche, der Vergleich und die
Auswahl externer Angebote. Dafür muss der CIO die IT darauf vorbereiten, die neue Aufga-
be anzunehmen, den stark wachsenden Markt der Lösungen zu überblicken und die Fach-
bereiche bei der Auswahl der passenden Angebote zu unterstützen.

Annäherung an Fachbereiche

Von einem Anbieter selbst gestalteter Systeme und Services entwickelt sich die IT zu ei-
nem „Broker“ verschiedener Leistungen aus unterschiedlichen Quellen. Entscheidend für
die Akzeptanz der IT ist das Verständnis der Aufgaben und Herausforderungen der Fachbe-
reiche. Nur so können einerseits schnell und unkompliziert passende Lösungen für beste-
hende Bedürfnisse gefunden und andererseits die Grundlagen für IT-getriebene Innovatio-
nen des Kerngeschäfts geschaffen werden. Damit rückt die IT immer näher an die einzelnen
Fachbereiche heran. In der Konsequenz verändern sich die Anforderungen an die Fähigkei-
ten und Ressourcen innerhalb der IT. Statt um detaillierte technische Fachkenntnisse und
Betriebs-Skills geht es zukünftig darum, die Anwender zu verstehen, die Angebote auf dem
Markt zu kennen sowie die passenden und wirtschaftlichen Lösungen zu finden. Demnach
zählt es zu den neuen Aufgaben der IT, den Markt zu überblicken, zu bewerten, die passen-
den Angebote auszuwählen und sie dem Fachbereich zu präsentieren. Wer die Leistung letz-
ten Endes erbringt, wird für den Anwender zunehmend unsichtbar.

Neue Aufgaben für die IT

Management und Steuerung der wachsenden Anzahl an externen IT-Providern rücken


zukünftig als Kernaufgabe der Unternehmens-IT in den Mittelpunkt. Ist jeder Fachbereich
WEB-TIPP:
allein verantwortlich für die Buchung externer Leistungen, führt das schnell zu einem un-
übersichtlichen Durcheinander und dem steigenden Risiko von Doppelbuchungen, Sicher-
www.aretas.de
heitslücken und unklaren Vertragssituationen. Auch fachlich und technisch müssen die ex-
ternen Angebote mit den weiterhin intern erbrachten Leistungen in Einklang gebracht
werden. Die Gestaltung der Schnittstellen zwischen verschiedenen Instanzen muss für die
Anwender das bestmögliche Ergebnis erzeugen. Um diesen Herausforderungen eines sich
schnell verändernden Umfelds mit kürzeren Innovationszyklen und hohen Voraussetzungen
für Qualität der Nutzererfahrung gerecht zu werden, bedienen sich die IT-Abteilungen zu-
nehmend auch agiler Methoden. So rücken sie näher an den Anwender heran, erkennen Be-
dürfnisse frühzeitig und integrieren Neuerungen schneller in den Regelbetrieb. Bedingun-
gen dafür sind grundlegende Veränderungen in der Kultur der Zusammenarbeit.

32 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Der DevOps-Gedanke versucht, Teams zu schaffen, die


durchgängig verantwortlich für ein definiertes Produkt
sind. Statt vertikaler Zusammenarbeit in den fachlichen
Silos erfordert dieser Ansatz horizontale Vernetzung und
Zusammenarbeit der Teams über Fachgrenzen hinaus.
Die Automatisierung der Tests und des Rollouts erhöht
parallel die Geschwindigkeit und mögliche Frequenz, eine
kontinuierliche Bereitstellung der Aktualisierungen er-
setzt einzelne größere Rollouts (Continuous integration). Martin Beims
Geschäftsführer, aretas GmbH
Grundprinzip hierbei ist die abteilungsübergreifende (ho-
rizontale) Zusammenarbeit von Betrieb und Entwicklung
und die gemeinsame Ende-zu-Ende-Verantwortung für die Ergebnisse. In einem Umfeld aus
eigenen Leistungen der IT, externen Partnern für den IT-Betrieb und der Nutzung cloud-
basierter Apps werden in Zukunft also interne sowie externe Teams, Partnerunternehmen
und Dienstleister eine gemeinsame Verantwortung für das Ergebnis übernehmen.

Fazit

Um nicht von frei verfügbaren Angeboten des Marktes an den Rand gedrängt zu werden,
müssen IT-Verantwortliche die IT zu einer unverzichtbaren Kernfunktion des Unterneh-
mens entwickeln. Statt der Betreuung der eigenen IT-Infrastruktur und Applikationsland-
schaft stehen zukünftig Innovationen für das Geschäftsmodell des Unternehmens, Differen-
zierung und direkte Wertschöpfung im Fokus. Voraussetzung dafür ist neben deutlich mehr
Nähe zum Kerngeschäft des Unternehmens und den Anwendern die Anpassung der vorhan-
denen Prozesse, Fähigkeiten und Ressourcen an diese neue Aufgabenstellung.

Martin Beims

33 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Cloud-Management

Unigma Cloud Management Suite


Kaseya gibt den Start und die allgemeine Verfügbarkeit der Unigma Cloud Management Suite
bekannt. Sie füllt die Lücken bei MSP-Management-Lösungen für öffentliche Clouds.

ie Software bietet Cloud-Management-Funktionen aus einem Guss, mit denen

D MSP Routineaufgaben automatisieren und Kostenmanagement mit detaillier-


ten Cloudanalysen optimieren können. Die Lösungssuite erweitert somit die
Kaseya IT Complete Plattform und stellt Technologie bereit, um öffentliche
Cloudinfrastrukturen effizient und kostengünstig zu überwachen. Sie ermöglicht es MSP zu-
dem, ihre Geschäfte mit neuen Serviceangeboten zu erweitern.
Der Kern der Technologie stammt aus der kürzlich erfolgten Akquisition von Unigma
durch Kaseya. Unigma ist eine Softwarelösung, mit der IT-Unternehmen ihre Workloads in
WEB-TIPP: Amazon Web Services (AWS), Microsoft Azure sowie Google Clouds vereinfachen, automa-
www.unigma.com
tisieren und sichern können. Als neuester Bestandteil der Kaseya IT Complete Plattform er-
gänzt die Lösung Kaseya Traverse, eine Lösung für Network Performance Monitoring und
Managementtechnologie.

34 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Die Technologie ermöglicht nicht nur das Management öffentlicher Clouds, sondern ad-
ressiert auch die finanzielle Optimierung. MSP eröffnen sich mit der Unigma Cloud Ma-
nagement Suite ganz neue Funktionalitäten beim Verwalten der öffentlichen Cloud. Sie spart
Zeit und Geld. Außerdem ergeben sich neue Möglichkeiten, um Einnahmen zu generieren
und zu wachsen.

Bild: Das Dashboard


mit allen wesentlichen
Informationen im
Überblick.

Highlights der Unigma Cloud Management Suite:

Cloud Manager – Die intuitiven Unigma Cloud Manager Dashboards ermöglichen es den
° Anwendern, AWS, Google Cloud, Microsoft Azure sowie weitere öffentliche Clouds naht-
los zu überwachen. MSP können Vorkommnisse ganz einfach mit Performance-Metriken
in Beziehung setzen und die Daten teilen. Das Dashboard greift Anwendern bei Problem-
lösung sowie Analyse unter die Arme, indem es einen besseren Einblick in Performance-
Metriken über multiple Clouds, Kunden und Services hinweg bietet. Zudem können die
Kunden innerhalb von Sekunden interne und markenkonforme Berichte erstellen. Darü-
Kosten-
ber hinaus sparen Anwender viel Zeit ein, weil sie Routineaufgaben automatisieren und
rechner Wartungen im Voraus planen können – ohne sich in verschiedene Panels einloggen zu
müssen. Das „SmartTask“-Feature führt richtlinienbasierte Automatisierung ein, mit der
jede Aufgabe automatisch und anlassbezogen durchgeführt wird.

Cloud Billing Manager – Der Unigma Billing Manager liefert Kunden Anwendungsbe-
° richte, mit denen MSP Rechnungen effizienter und auf Basis der individuellen Nutzung
stellen können. Dadurch rechnen MSP ihre Services genauer ab, was den monatlich wie-
derkehrenden Umsatz (Monthly Recurring Revenue, MRR) steigert und zusätzliche Profi-
te durch dieses Angebot schafft.

Cloud Cost Optimizer – Der Unigma Cloud Cost Optimizer bietet detaillierte Kostenein-
° blicke und individuelle Analysen der Kosteneinsparungen. Nutzer können auf deren
Grundlage die Art und Weise ihrer Cloudnutzung optimieren und ihr gesamtes Kosten-
management verbessern. MSP erstellen ganz einfach Übersichten ihrer Cloudausgaben
und erhalten Tipps, wo sie Kosten einsparen können, etwa bei ungenutzten oder überdi-
mensionierten Vorgängen.

35 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Dreistufiger Security-Ansatz

Cloud-Compliance:
Im unsicheren Hafen?
Safe Harbour ist Vergangenheit: Seit der Europäische Gerichtshof dieses grundlegende
Datenschutzabkommen im vorigen Herbst außer Kraft gesetzt hat, ist die Safe-Harbour-basierte
Übermittlung personenbezogener Daten in die Vereinigten Staaten unter Umständen illegal.

ie EU-Kommission hat zwar eine Reihe von Ländern, auch außerhalb des Euro-

D päischen Wirtschaftraums wie Argentinien und Neuseeland, zu datenschutz-


rechtlich sicheren Drittstaaten erklärt, doch die Vereinigten Staaten gehören
nicht dazu. Unklar ist außerdem, inwieweit sogenannte Standardvertragsklau-
seln mit einem dortigen Cloud-Anbieter überhaupt noch gültig sind. Wann schließlich Pri-
vacy Shield – das Nachfolgeabkommen für Safe Harbour – endlich unter Dach und Fach ist,
steht derzeit in den Sternen.
Deutsche Unternehmen, die etwa ihr CRM-System in die öffentliche Cloud eines US-
amerikanischen Providers ausgelagert haben, sollten die neue Rechtslage auf keinen Fall
ignorieren. Medienberichten zufolge hat beispielsweise die Hamburgische Datenschutzbehörde

36 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

bereits erste Bußgeldverfahren gegen hier ansässige


Firmen eingeleitet, die ihre Daten ausschließlich auf der
Basis eines Safe-Harbour-Zertifikats in einer US-Cloud
verarbeiten ließen.
Ist Konformität mit dem geltenden Datenschutzrecht
also nur noch durch den kompletten Verzicht auf die
zuweilen wettbewerbsrelevanten Cloud-Vorteile zu
erreichen? Eine so harte Konsequenz dürfte lediglich in
seltenen Ausnahmefällen tatsächlich angemessen sein. „Cloud Compliance
Vielmehr sollten Unternehmen ihren individuellen ist kein jemals
Handlungsbedarf valide bewerten können – wofür sich
ein ganzheitlicher Cloud-Security-Ansatz empfiehlt, der erreichbarer Zustand,
die unterschiedlichen Stadien der Cloud-Nutzung in sondern ein fort-
einem Drei-Phasen-Modell abbildet: Phase 1 beschreibt
unter dem Motto „Enable“ ein strukturiertes Vorgehen für
währender Prozess.“
all jene Unternehmen, bei denen aktuell die Entscheidung
Pro oder Contra Cloud ansteht. Die zweite Phase Murat Yildiz, Senior Manager
Information Security Solutions,
„Support“ deckt alle Aspekte des Umzugs in die Wolke ab,
Sopra Steria Consulting
während die dritte und letzte Phase „Check“ ein
methodisch fundiertes Verfahren bereitstellt, um die
datenschutzrechtliche Compliance bestehender Cloud-
Anwendungen kontinuierlich zu evaluieren.

Blick durch die Datenbrille

Um die Risiken abschätzen zu können, die ein Cloud-Umzug für eine bestimmte Anwen-
dung mit sich brächte, gehören zuallererst die hierbei verarbeiteten Informationen auf den
Prüfstand. Die Cloud-Risikobewertung sollte demnach mit einer detaillierten Inventur sowie
der Schutzbedarfsanalyse der betreffenden Daten beginnen. Zu klären ist hierbei insbeson-
dere, ob und welche personenbezogenen Informationen etwa von Kunden oder Mitarbeiten
involviert sind. Aber auch steuerrelevante Daten oder Informationen zu kritischen Infra-
strukturen, die speziellen regulatorischen Vorgaben unterliegen, sowie lizenz- und patent-
rechtliche Daten sind hierbei von Interesse. Das Ergebnis der Schutzbedarfsanalyse liefert als
Ergebnis eine Einteilung aller Daten in Schutzklassen wie vertraulich, geheim oder streng
geheim.
Auf der Grundlage einer solchen Klassifikation folgt anschließend die Evaluierung der
Cloud-Infrastruktur, und zwar anhand einer Gegenüberstellung denkbarer Bedrohungssze-
narien mit den Servicebeschreibungen sowie den Security-Standards des avisierten Cloud-
Providers. All das dient als Input für die Erarbeitung des konkreten Anforderungskatalogs,
wobei schon hier auf eine klare Aufgabenverteilung zwischen dem Provider in spe und dem
eigenen Unternehmen zu achten ist. Was noch fehlt, ist die Entwicklung eines Security-Kon-
zepts zum Schutz der Cloud-Infrastruktur, das auf Basis des Kundenschutzbedarfs durch den
Provider zu erstellen wäre: Wie muss beispielsweise die Netzwerkanbindung beschaffen sein?
Verschlüsselt von A bis Z? Und in welchem Maße redundant? Auch die Ausweitung des Kun-
den-internen Identitäts- und Zugriffsmanagements auf die Cloud sowie eigene Monitoring-
und Inspektionsmöglichkeiten der Cloud-Services gehören in diesen Kontext. Erst mit die-
sem umfassenden Detailwissen über den Security-Setup des Providers sowie über den
eigenen Security-Bedarf können Unternehmen durch eine Machbarkeitsuntersuchung ent-

37 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

scheiden, ob und gegebenenfalls mit welchem Aufwand sie Compliance in der Cloud reali-
sieren können. Bei positiver Entscheidung steht als letzter Schritt der Enable-Phase die Aus-
arbeitung des Vertragswerks mit dem Provider an, was SLAs mit passenden Kennzahlen
ebenso einschließt wie die Vereinbarung von Auditrechten, Regelungen über mögliche Sub-
Dienstleister sowie Bedingungen für die Rücküberführung der eigenen Datenbestände zum
Ende des Vertrags.

Cloud Security – ein Work in Progress

Die Support-Phase, also der eigentliche Umzug in die Cloud sowie der sichere Betrieb in
der Wolke, beginnt sinnvollerweise mit dem Aufbau einer sicheren Netzwerkschnittstelle zur
Cloud. Notwendig ist an dieser Stelle auch eine durchgängige Harmonisierung der Zugriffs-
steuerung für die eigenen IT-Systeme und die Anwendungen in der Cloud. Als Grundvor-
aussetzung für die Verlagerung schutzbedürftiger Informationen ist zudem auf eine saubere
Trennung innerhalb der mandantenfähigen Cloud-Infrastruktur zu achten. Und dies betrifft
nicht allein die Produktivsysteme des Providers, sondern zum Beispiel auch seine Backup-
Plattform. Denn überall in der Cloud müssen Datenbestände verschiedener Kunden sicher
gegeneinander abgeschottet sein.
Bei der Integration des Cloud-Zugriffsmanagements geht es hauptsächlich um die Aus-
dehnung der unternehmensinternen Rollen- und Nutzerrechteverwaltung auf die neuen
Cloud-Services sowie um die Implementierung passender Authentifizierungsverfahren.
Selbstverständlich müssen solche Verfahren regelmäßig kontrolliert werden, wofür ein Re-
porting auf Basis geeigneter Kennzahlen unabdingbar ist. Ebenso gilt es, klare Prozesse für
das Incident-, Problem- und Change-Management gemäß ITIL zu etablieren und die Koope-
ration mit dem Provider auf technischer wie organisatorischer Ebene festzulegen. Dabei soll-
ten sich Unternehmen stets auch das Recht zu eigenen forensischen Analysen vorbehalten.
Neben Cloud Security im engeren Sinne umfasst die Support-Phase überdies Vorsorgerege-
lungen für einen möglichen Service-Ausfall. Als Orientierung für ein effizientes Business
Continuity Management in der Cloud kann der ISO-Standard 22301 herangezogen werden.
Cloud Compliance ist kein jemals erreichbarer Zustand, sondern ein fortwährender Pro-
zess. Aus diesem Grund enthält der ganzheitliche Cloud-Security-Ansatz als dritte Phase ein
Check-Framework, das einerseits der permanenten Überprüfung aller geltenden Konformi-
WEB-TIPP:
tätskriterien dient und andererseits konkrete Anhaltspunkte für die weitere Optimierung der
Cloud-Dienste gibt. Neben regelmäßigen Audits vor Ort beim Provider und an den Cloud-
www.soprasteria.de
Schnittstellen zählen dazu auch periodische Auswertungen von Reports sowie sporadische
Penetrationstests ausgewählter Cloud-Segmente. Eine gute Grundlage für das angemessene
Sicherheitsniveau liefern in diesem Zusammenhang die IT-Sicherheitsstandards ISO 27001
und ISAE 3402. Die Ergebnisse aller laufenden Audits und Prüfungen können dann als Ba-
sis für vertragliche Anpassungen der SLAs und die Feinjustierung des zugehörigen Kennzah-
lenwerks genutzt werden.

Zusammenfassung

Als Fazit lässt sich zusammenfassen, dass Unternehmen mit dem dreistufigen Security-
Ansatz von Sopra Steria Consulting nicht nur die Compliance ihrer Cloud-Anwendungen
mit rechtlichen Anforderungen sicherstellen, sondern zugleich operative Risiken minimie-
ren und ihre Wettbewerbsfähigkeit dadurch nachhaltig verbessern können.

Murat Yildiz

38 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Der Cloud-Fitness-Check

Wie lässt sich die Cloud sinnvoll


nutzen?
Die Cloud ist reif. Ihre Vorteile überzeugen längst nicht mehr nur pragmatisch-dynamische Start-ups.
Immer mehr Mittelständler mit einer gewachsenen IT-Infrastruktur denken über die Integration von
Cloud Services nach und prüfen dabei sowohl den wirtschaftlichen Nutzen als auch die Datenschutz-
und Sicherheitskriterien genau.

ann ist der Einsatz der Cloud sinnvoll? Was passiert mit den Unternehmensda-

W ten? Welche Risiken bestehen bei einer Migration? Ein Cloud Readiness Assess-
ment hilft Unternehmen, die Vor- und Nachteile des Schritts in die Cloud vor-
her abzuwägen.
Akronyme gibt es zahlreiche: IaaS, SaaS, PaaS. Cloud Services – egal ob Infrastruktur-,
Software- oder Plattform-Dienste aus der Cloud – entsprechen inzwischen ausgewachsenen,
leistungsstarken Dienstleistungen und Produkten. Die Nachfrage danach wird 2015 noch
einmal einen wesentlichen Schub erfahren. Den Service-Providern gelingt es zunehmend,
WEB-TIPP:
alle Facetten des Kundenbedarfs abzubilden. Die Anwender in Unternehmen wiederum pro-
fitieren zum Beispiel wesentlich von einem standortunabhängigen Arbeiten. Überall auf der
www.it-mod.de
Welt können sie auf ihre Daten zugreifen, ihre Mails, Projektberichte und -stati abrufen, Do-
kumente teilen und Präsentationen ausprobieren. Cloud Services entlasten IT-Mitarbeiter
bei der Wartung von Servern und befreien sie vom ständigen Einspielen von Updates. Schnell

39 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

hinzugeschaltete Ressourcen gleichen Lastspitzen aus, während auf die Wünsche der Fachab-
teilungen zeitnah durch entsprechende Business-Anwendungen reagiert werden kann.
Schließlich werden so wichtige zeitliche und personelle Ressourcen frei, die effizient für an-
dere Dinge eingesetzt werden können. Die Angebote aus der Cloud sind reif für den profes-
sionellen Business-Einsatz. Doch das bedeutet nicht zwangsläufig, dass ihr Einsatz per sé
sinnvoll ist. Zunächst gilt es, dies umfassend zu prüfen. Darüber hinaus ist es zu einer Auf-
gabe für Spezialisten geworden, das richtige Angebot aus der schieren Menge zu identifizie-
ren und es mit der bestehenden On-Premise-Infrastruktur zu integrieren.

Cloud Service Brokerage als IT-Beratungsleistung

Bei der Frage, ob und wie ein Cloud-Dienst erfolgreich und effizient mit der Infrastruk-
tur eines Unternehmens verzahnt werden kann, spielt eine herstellerneutrale und lösungs-
offene Betrachtung der Ausgangssituation eine entscheidende Rolle. Derzeit bildet sich am
Markt ein neues Beratungskonzept heraus: Angesichts der Fülle unterschiedlicher Cloud
Services am Markt entstehen sogenannte Cloud Service Broker, die zwischen die Anbieter
und Unternehmen geschaltet den richtigen Dienst vermitteln und bei seiner Integration un-
terstützen. Erstmalig in der IT-Branche erwähnt wurde der Begriff durch das Marktfor-
schungsinstitut Gartner im Jahr 2009 – jetzt kommt er auch auf dem europäischen Markt an.
So verstehen sich Cloud Broker als „neutrale Makler“ und treten bestenfalls als Berater, Ver-
mittler und Integratoren in einem auf. Dabei müssen diese Dienstleister keineswegs aus-
schließlich auf Cloud Services spezialisiert sein. Ihre Funktion kann von IT-Gesamtdienst-
leistern wahrgenommen werden, die bereits am Markt vertreten sind, sodass
Ablaufschnittstellen vermieden werden. Mit der Expertise aus zahlreichen Cloud-Projekten
helfen sie bei der Bewertung, ob und wie sich der Einsatz der Cloud lohnt.
Whitepaper
Der Einsatz der Cloud ist dort erfolgreich, wo die Services zielgenau auf den Bedarf des
Unternehmens passen. Doch das ist keinesfalls in jedem Fall so. Häufig werden Lizenzkos-
ten, der Aufwand bei der Migration oder die Folgekosten leicht unterschätzt. Aus diesem
Grund bieten Dienstleister eine Systematik, mit der sie die Machbarkeit einer sinnvollen
Cloud-Integration bereits im Vorfeld bewerten. Mit einem Cloud Readiness Assessment er-
halten Unternehmen eine fundierte Entscheidungsgrundlage zu den Einsatzmöglichkeiten
FAQ
der Dienste in ihrer Organisation. Sie basiert zum einen auf der umfassenden Analyse des
Ist-Zustandes der unternehmenseigenen IT-Infrastruktur, ihrer Anwendungen und Prozes-
se. Zum anderen berücksichtigt sie die langfristige Unternehmensstrategie. Diese Analyse
stellt den ersten Teil des Assessments dar.

Das gesamte Unternehmen erfassen – nicht nur die IT

Welchen Anforderungen sollte der neue Cloud-Dienst gerecht werden? Um diese Krite-
rien detailliert zu bestimmen, werden nicht allein die bestehende IT-Infrastruktur und ihre
Systeme erfasst. Zentral ist es, alle wesentlichen Aspekte der IT- und Unternehmensstrategie
zusammenzuführen. Sind Akquisitionen geplant, die vorhandene Systemressourcen bald
überflüssig machen? Ist mit der Neueröffnung eines Standortes zu rechnen? Im zweiten Teil
des Cloud Readiness Assessments, dem sogenannten Scoping Workshop, werden Fragen
zum Current Mode of Operation thematisiert. Dazu zählt beispielsweise, wie bestehende
Verträge in neue Lizenzprogramme einfließen können. Des Weiteren sind die Wünsche und
Arbeitsweisen der Mitarbeiter sowie Sicherheits-, Datenschutz- und Compliance-Vorgaben
ein fester Bestandteil der Agenda dieses Workshops.

40 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Auf Basis dieser Analyse können anschließend die Lö-


sungen und Dienste erörtert werden, die den identifizier-
ten Anforderungen des Unternehmens entsprechen. Dem-
nach werden in der folgenden Phase des Assessments,
einem Solution Alignment Workshop, die Lösungswege
und Möglichkeiten der Integration in die bestehenden
Systeme entwickelt (Future Mode of Operation). Hier
läuft alles auf eine konkrete Kostenkalkulation hinaus:
Chancen und Risiken werden abgewogen, die Kosten und „Der Einsatz der
das Preis-Leistungs-Verhältnis verglichen. Selbst wenn ei- Cloud ist dort
ne Gegenüberstellung der TCO-Ergebnisse eine schnelle
Entscheidung zugunsten der Cloud nahelegt, sollten Nut- erfolgreich, wo die
zen und Risiken während der Migrationsphase sowie im Services zielgenau
anschließenden Betrieb sorgfältig abgewogen werden.
auf den Bedarf des
Cloud Readiness Assessment Unternehmens
passen.“
Die Ziele der Workshops sind, zum einen genau zu be-
werten, ob die eigene IT und ihre Prozesse reif für die
Marco Hattenbauer
Cloud sind, zum anderen dem Unternehmen einen ge-
Account Manager, modIT Services
nauen Überblick über die Schritte und die Kosten einer
Auslagerung von Daten und Diensten in die Cloud zu ge-
ben. So entsteht im Verlauf des zweiten Workshops eine
detaillierte Projektstudie, die bereits konkrete Handlungsempfehlungen und einen Projekt-
plan zur Umsetzung enthält. Er verschafft nicht nur die nötige Transparenz über den Auf-
wand einer solchen Migration, sondern schafft ganz generell Planungssicherheit sowohl für
die IT-Abteilung als auch für Geschäftsführung und Vorstand. Eine abschließende Präsen-
tation fasst die Ergebnisse der beiden Workshops sowie die möglichen nächsten Schritte zu-
sammen.
In der Praxis zeigte sich bereits, dass die Erkenntnisse aus der gründlichen Planungspha-
se nicht nur helfen, später den größtmöglichen Nutzen aus der Cloud zu ziehen. Sie verein-
facht und beschleunigt auch den Migrationsprozess – das spart Kosten und schont die Ner-
ven des CIO und seiner IT-Mannschaft.

Marco Hattenbauer

41 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Cloud-ERP-Lösungen

Für eine gute Mutter-Tochter-


Beziehung
Keine Beziehung ist so prägend und birgt so viel Streitpotenzial wie die von Müttern und Töchtern.
Man mag es kaum glauben, aber es gibt Parallelen zum Geschäftsleben. Auch dort wollen Mutter-
und Tochterunternehmen steht‘s das Beste für den jeweils anderen und dennoch kommt es immer
wieder zu Spannungen.

s fehlt an Abstimmung, Kommunikation oder schlicht an den Möglichkeiten da-

E zu. Dabei ist es gar nicht so schwer, richtig miteinander zu kommunizieren –


vorausgesetzt Sie haben eine Strategie und die richtige Technologie.
Cloud-ERP-Lösungen schaffen eine schnelle Anbindung, Aufwand und Kosten
sind kalkulierbar. SAP Business ByDesign zum Beispiel ist durchschnittlich in nur 12 Wo-
chen installiert. Währenddessen können die Geschäfte wie gewohnt weiterlaufen.

Anbindung an die Zentrale

Sieben Aspekte zeigen, wie Sie Ihre Tochter mit einer Cloud-ERP-Lösung wie SAP Busi-
ness ByDesign an Ihre Zentrale anbinden. Dabei gehen wir von einem klassischen Intercom-
pany-Szenario aus: Das Tochterunternehmen bestellt bei der Muttergesellschaft Teile oder
Produkte, verbaut diese oder vertreibt sie an seine Kunden und/oder bietet diesen Service-
leistungen an.

42 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

1. Change Management

Führen Sie eine Software ein oder lösen sie eine ab, heißt das: Sie verändern etwas. Wenn
Mitarbeiter nicht wissen oder verstehen, was ihnen das bringt, werden sie nicht voll bei der
Sache sein und die gebotene Sorgfalt vermissen lassen. Die meisten Fehler im Change Ma-
nagement sind bei guter Planung und entsprechendem Know-how vermeidbar.
Darum: Stellen Sie Ziel, Kontext und Verfahren ausführlich dar. Zeigen Sie, welche Pro-
zesse und Abläufe Sie sich vorstellen. Machen Sie klar, dass es ein strategisches Projekt ist,
das Personal und Kapital bindet.

2. Projektmanagement

Das richtige Team muss stehen! Entscheiden Sie frühzeitig, wer was verantwortet, wer das
Projekt über alle Gesellschaften hinweg begleitet.
Aus der Zentrale brauchen Sie ein Mitglied des Managements, der die strategische Bedeu-
tung des Projektes „bestätigt“, einen Projektleiter, der das Projekt operativ plant und steuert
und einen Prozess-Verantwortlichen, um die Prozess-Landschaften so zu gestalten, dass die-
se reproduzierbar sind und neue Geschäftsmodelle abbilden können.
Aus der Landesgesellschaft brauchen Sie den Geschäftsführer, der dessen Interessen ver-
tritt und zugleich die „Schirmherrschaft“ der Standardisierung übernimmt, ebenfalls einen
Prozess-Verantwortlichen, der um die lokalen Gegebenheiten weiß und einen IT-Experten,
der die lokale Infrastruktur kennt.

3. Tochtergesellschaft

Wie Sie am Projekt-Team erkennen, ist es wichtig, Management und Mitarbeiter der
Tochtergesellschaft aktiv einzubeziehen. Das motiviert. Dann werden diese die Veränderung
zumindest mittragen, wenn nicht sogar mitgestalten. Entscheidungen per Dekret sind un-
gleich schwerer durchzusetzen. Beim Management ist es ratsam, sich die Unterstützung des
Projektes auch in Form von Zielvereinbarungen zu sichern.
Durch einen offenen Austausch mit der Tochter erhält die Zentrale zudem wertvolle In-
formationen über landestypische Prozesse, Abläufe oder Kundenstrukturen. So ist in einem
WEB-TIPP:
Land womöglich die Bezahlung per Scheck üblich, in einem anderen läuft dagegen bereits
alles digital ab.
www.all4cloud.de
Ein Dialog mit den Mitarbeitern vor Ort fördert solche länderspezifischen Gepflogenhei-
ten zutage, sodass sich die zwingend notwendigen auch im ERP-System abbilden lassen.

4. Template-Ansatz fahren

Ob und wieweit sich die lokalen Gegebenheiten im Standard abbilden lassen oder von
diesem abweichen, hängt vom Einzelfall ab. Es ist ein wenig so, als ob Sie auf einem Schwe-
bebalken turnen. Es gilt, die Balance zu halten: In unserem Fall zwischen der Standardisie-
rung auf der einen und einer Freiheit für lokale Gegebenheiten auf der anderen Seite.
Generell lautet die Devise aber: bei Kernprozessen so nahe wie möglich am Standard blei-
ben – am besten auf Basis so genannter Templates. In diesen „Blaupausen“ sind vielfach er-
probte Standards für Prozesse und Daten definiert, die für alle Tochtergesellschaften ver-
bindlich sind. Stereotypen bevorzugt, lässt sich sagen.

43 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

Ein weiteres Plus standardisierter Prozesse: Wollen Sie


einen Prozess optimieren, weil Sie zum Beispiel planen,
ein neues Geschäftsmodell einzuführen, dann können Sie
dies aufgrund des Template-Ansatzes in allen Tochterge-
sellschaften bequem tun. Die Kernprozesse sind ja überall
gleich.

5. Prozesse automatisieren
„Es ist gar nicht so
Die Systeme von Mutter-Tochter zu koppeln, heißt schwer, richtig
auch die Prozesse zwischen den beiden zu automatisieren.
Das Vorgehen ist klar: erst die Prozesse aufsetzen, dann
miteinander zu
diese leben. Wie im Fußball sind sie nach einer gewissen kommunizieren –
Zeit eingespielt. Es ist Zeit, die Prozesse systemübergrei- vorausgesetzt Sie haben
fend abzubilden.
Nutzen Sie hierfür eine Middleware als Datendreh- eine Strategie und die
scheibe – beispielsweise SAP HANA. Diese vermittelt zwi- richtige Technologie.“
schen den Anwendungen, also zwischen dem klassischen
ERP der Mutter und der Cloud-ERP-Lösung der Tochter. Henrik Hausen, Geschäftsführer
Sie kommuniziert in alle Richtungen und greift dabei auf all4cloud GmbH & Co. KG
verschiedenste Datenquellen zu. Sie kann diese unterein-
ander vergleichen, konsolidieren und verarbeiten.
Zudem meldet die Middleware Datenfehler automatisch und erspart Ihnen zahlreiche
Schnittstellen, denn Sie erhalten quasi eine Allround-Schnittstelle für Ihre Prozesse und An-
wendungen.

6. Service richtig planen

Wenn Sie Ihrer Tochter schon zu standardisierten Prozesse verholfen haben, dann wollen
Sie natürlich auch, dass alles reibungslos funktioniert. Bestehen Sie deshalb auf einen Key-
User, der in der Tochtergesellschaft „sitzt“. Als erster Ansprechpartner betreut dieser die IT-
Prozesse und Mitarbeiter vor Ort. Alternativ kann diese Rolle auch ein Beratungsunterneh-
men übernehmen.
Noch ein heißer Tipp! Unterstützen sie Ihre Tochtergesellschaft auch nach Projekt-Ende.
Dadurch fühlen sich die Mitarbeiter weiterhin gut betreut und informiert.

7. Cloud-ERP-Lösung

Auch wenn sich eine Cloud-ERP-Lösung schnell an die Firmenzentrale anbinden lässt
und Aufwand sowie Kosten kalkulierbar sind, so will auch sie up-to-date gehalten werden.
Das geht allerdings schnell und einfach, denn es gibt quartalsweise Erweiterungen: etwa ei-
ne Funktion, die das Streckengeschäft abbildet oder ein Add-on, mit dem sich Anlagen, Ma-
schinen und andere Assets verwalten lassen.
Wächst die Tochtergesellschaft, wächst die Cloud-ERP-Lösung mit. Rechtliche Neuerun-
gen wie eine Anpassung der Spesensätze oder Buchungsregeln werden automatisiert durch
SAP Business ByDesign zur Verfügung gestellt.

Henrik Hausen

44 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
CLOUD COMPUTING
eBook

IMPRESSUM
Chefredakteur (V.i.S.d.P.): Ulrich Parthier (-14)

Redaktion: Silvia Parthier (-26), Carina Mitzschke

Redaktionsassistenz und Sonderdrucke: Eva Neff (-15)

Autoren: Christopher Knörle, Rolf Scheuch, Jochen K. Michels,


Marc Sundermann, Wieland Alge, Martin Beims, Murat Yildiz,
Marco Hattenbauer, Henrik Hausen

Anschrift von Verlag und Redaktion:


IT Verlag für Informationstechnik GmbH,
Rudolf-Diesel-Ring 21
82054 Sauerlach
Tel: +49 8104 6494-0,
Fax: +49 8104 6494-22

E-Mail für Leserbriefe: info@it-verlag.de

Homepage: www.it-daily.net

Alle Autoren erreichen Sie über die Redaktion. Wir reichen Ihre
Anfragen gerne an die Autoren weiter.

Manuskripteinsendungen: Für eingesandte Manuskripte wird


keine Haftung übernommen. Sie müssen frei sein von Rechten
Dritter. Mit der Einsendung erteilt der Verfasser die Genehmigung
zum kostenlosen weiteren Abdruck in allen Publikationen des
­Verlages. Für die mit Namen oder Signatur des Verfassers gekenn-
zeichneten Beiträge haftet der Verlag nicht. Die in dieser Zeit-
schrift veröffentlichten Beiträge sind urheberrechtlich geschützt.
Übersetzung, Nachdruck, Vervielfältigung sowie Speicherung in
Datenver­arbeitungsanlagen nur mit schriftlicher Genehmigung
des Verlages. Für Fehler im Text, in Schaltbildern, Skizzen, Listings
und dergleichen, die zum Nichtfunktionieren oder eventuell zur
Beschädigung von Bauelementen oder Programmteilen führen,
übernimmt der Verlag keine Haftung. Sämtliche Veröffentlichun-
gen erfolgen ohne Berücksichtigung eines eventuellen Patent-
schutzes. Ferner werden Warennamen ohne Gewährleistung in
freier Verwendung benutzt.

Herausgeberin: Dipl.-Volkswirtin Silvia Parthier

Layout: Kreativcode, Manuela Aksu

Illustrationen und Fotos:


Wenn nicht anders angegeben: shutterstock.com

Objektleitung: Ulrich Parthier (-14)

Beteiligungsverhältnisse nach § 8, Absatz 3 des Gesetzes über


die Presse vom 8.10.1949: 100 % des Gesellschafterkapitals hält
Ulrich Parthier, Sauerlach.

45 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
Erfrischend ...
Puh ... Die Suche nach IT-News macht
mich immer total fertig.

/newsletter
Kompakte IT News frisch
auf Ihren Bildschirm !
Sie haben die Wahl
zwischen IT-Management
und IT-Security

+ kostenlose
eBooks
Whitepaper,

+ 2mitAusgaben gratis
per Post

46 eBook AU G U S T 2 0 1 7 w w w. i t - d a i l y. n e t
IT Verlag GmbH • Rudolf-Diesel-Ring 21 • 82054 Sauerlach • Deutschland • www.it-daily.net • Tel.: +49 (0) 8104 6494-0 • Fax: +49 (0) 8104 6494-22