Sie sind auf Seite 1von 87

Konsolidierung der IT-Infrastruktur

eines mittelständischen Unternehmens


in redundanten Rechenzentren

Diplomarbeit
Studiengang Informationstechnik
der
Hochschule Mittweida(FH) – University of Applied Science

Jürgen Tabojer

Erstprüfer: Prof. Dr.-Ing. habil. Lutz Winkler


Zweitprüferin: DI(FH) Wolfgang Schwarz

Bearbeitungszeitraum: 28. August 2014 bis 05. März 2015

Obsteig, Februar 2015


Kurzfassung 2

Kurzfassung
Anhand dieser Arbeit wird es einem mittelständischen Unternehmen ermöglicht die IT
Infrastruktur zu planen und umzustrukturieren. Derzeit ist die IT Landschaft dezentral
und es ist nur mit großem personellen Aufwand möglich, diese zu betreuen. Diese Arbeit
soll aufzeigen welche Möglichkeiten es mit modernsten Mitteln gibt, einfach und effizient
ein eigenes zentrales Rechenzentrum zu betreiben.

Anhand von Erhebungen, Gesprächen und Umfragen mit und innerhalb des Unterneh-
mens wird sich ein gemeinsamer Weg ergeben, der in dieser Arbeit detailliert ausgeführt
wird. Der Neuigkeitswert liegt in einem neuen IT-Konzept für die Infrastruktur, da es
keine dezentralen Komponenten mehr geben wird auf denen die Kernapplikationen der
einzelnen Standorte betrieben werden sollen.

Ziel ist es durch Recherche und Vergleiche die bestmöglichste Lösung in Hinblick auf
technische Aspekte zu entwickeln, dabei aber auch auf die Wirtschaftlichkeit dieser Lö-
sung zu achten. Es ist kein Ziel dieser Arbeit, eine detaillierte Installations- und Konfigu-
rationsbeschreibung zu erstellen, der Fokus liegt klar auf dem ganzheitlichen Konzept.
Inhaltsverzeichnis 3

Inhaltsverzeichnis
Kurzfassung ......................................................................................................... 2

Inhaltsverzeichnis ................................................................................................ 3

Abbildungsverzeichnis ........................................................................................ 5

Abkürzungsverzeichnis ....................................................................................... 6

Vorwort ................................................................................................................. 8

1 Einleitung ................................................................................................... 9
1.1 Übersicht über den Auftraggeber ............................................................... 10
1.2 Wichtigkeit der IT-Infrastruktur für den Auftraggeber ................................. 12

2 Data Center – IST-Situation .................................................................... 14


2.1 Aufstellung Zentrale .................................................................................. 14
2.2 Aufstellung Außenstellen ........................................................................... 17
2.3 Umfrage und Gespräche über die IST-Situation ........................................ 18
2.3.1 Gespräch mit dem IT-Leiter ....................................................................... 18
2.3.2 Umfrage im IT-Infrastruktur-Team ............................................................. 19

3 Kundenanforderung ................................................................................ 23
3.1 Ziele des Unternehmens hinsichtlich langfristiger Planung der IT .............. 23
3.1.1 Fragen an das Management...................................................................... 23
3.2 Anforderungen der Key-User an die neue Infrastruktur.............................. 25
3.3 SOLL-Zustand aufgeteilt in Module ........................................................... 25
3.4 Strategische Anforderungen ...................................................................... 28
3.5 Technische Anforderungen ....................................................................... 29

4 Ergebnisse und Ausblick ........................................................................ 31


4.1 Auswertung der Daten ............................................................................... 31
4.1.1 IST-Situation Analyse ................................................................................ 31
4.1.2 Schematische Darstellung der derzeitigen Lösung .................................... 34
4.2 Bewertung der Ergebnisse ........................................................................ 36
4.2.1 Gesamtkonzept ......................................................................................... 36
4.2.2 Server ....................................................................................................... 37
4.2.3 Storage ..................................................................................................... 37
4.2.4 Rechenzentrums-Netzwerk ....................................................................... 37
4.2.5 Virtualisierung ........................................................................................... 38
4.2.6 Außenstellen ............................................................................................. 38
4.3 Ausblick ..................................................................................................... 38

5 Lösungsbeschreibung ............................................................................ 39
5.1 Server ....................................................................................................... 44
Inhaltsverzeichnis 4

5.2 Storage ..................................................................................................... 46


5.3 Netzwerk Rechenzentrum ......................................................................... 49
5.4 Außenstelle ............................................................................................... 50
5.5 Sonstiges .................................................................................................. 52
5.5.1 SAP HANA ................................................................................................ 52
5.5.2 Virtuelle Desktop Infrastruktur (VDI) .......................................................... 52
5.6 Kriterienkatalog ......................................................................................... 53

6 Projektablauf ........................................................................................... 54
6.1 Detail-Design ............................................................................................. 54
6.2 Installation ................................................................................................. 55
6.3 Testing ...................................................................................................... 55
6.4 Integration und Migration ........................................................................... 56
6.5 Dokumentation und Training...................................................................... 56
6.6 Abnahme ................................................................................................... 57
6.7 Go Live und Hypercare Support ................................................................ 57
6.8 Projektmanagement .................................................................................. 58

7 Rahmenbedingungen und Kostenübersicht.......................................... 60


7.1 Leistungen des Auftraggebers ................................................................... 60
7.1.1 Voraussetzung für Detail-Design ............................................................... 60
7.1.2 Voraussetzung für die Inbetriebnahme ...................................................... 60
7.2 Nicht-enthaltene Leistungen ...................................................................... 60
7.3 Kostenübersicht......................................................................................... 61
7.3.1 Komponenten, Support und Dienstleistung für Zentrale............................. 61
7.3.2 Komponenten und Support für Außenstellen ............................................. 62

8 Fazit .......................................................................................................... 64

Anhang A: Abstimmung der Ziele ..................................................................... 65

Anhang B: Kriterienkatalog ............................................................................... 67

Anhang C: Zeichnungen .................................................................................... 70

Anhang D: Stückliste im Detail.......................................................................... 76

Anhang E: Storage Konfiguration ..................................................................... 82

Literaturverzeichnis ........................................................................................... 85

Erklärung ............................................................................................................ 87
Abbildungsverzeichnis 5

Abbildungsverzeichnis
Abbildung 1: Vorgehensweise auf dem Weg zum Ziel ............................................ 9
Abbildung 2: Abhängigkeiten der wichtigsten Bereiche vom Rechenzentrum ....... 12
Abbildung 3: Aufstellung der IST-Situation in der Zentrale.................................... 15
Abbildung 4: Storagekapazitäten .......................................................................... 16
Abbildung 5: Performance Auslastung des Storage-Systems (IOPS) ................... 17
Abbildung 6: Aufstellung der IST-Situation in Außenstellen .................................. 18
Abbildung 7: Ergebnis zu Frage 1 zur IST-Situation ............................................. 19
Abbildung 8: Ergebnis zu Frage 2 zur IST-Situation ............................................. 20
Abbildung 9: Ergebnis zu Frage 3 zur IST-Situation ............................................. 20
Abbildung 10: Ergebnis zu Frage 4 zur IST-Situation ........................................... 21
Abbildung 11: Ergebnis zu Frage 5 zur IST-Situation ........................................... 21
Abbildung 12: Ergebnis zu Frage 6 zur IST-Situation ........................................... 22
Abbildung 13: Ergebnis zu Frage 7 zur IST-Situation ........................................... 22
Abbildung 14: Soll-Zustand .................................................................................. 27
Abbildung 15: Soll-Zustand Server ....................................................................... 28
Abbildung 16: IST-Situation Analyse .................................................................... 32
Abbildung 17: Schematische Darstellung Rechenzentren der Zentrale ................ 34
Abbildung 18: Management im Rechenzentrum ................................................... 34
Abbildung 19: Schematische Darstellung Außenstelle inkl. Management ............. 36
Abbildung 20: Schematische Darstellung der zentralen Komponenten (Lösung) .. 39
Abbildung 21: Schematische Darstellung der Lösung inkl. Management und
Reporting .................................................................................................. 40
Abbildung 22: Schematischer Aufbau Rechenzentrum ......................................... 41
Abbildung 23: Schematische Darstellung der Lösung in den Außenstellen .......... 42
Abbildung 24: Schematische Darstellung der Lösung in den Außenstellen inkl.
Management ............................................................................................. 43
Abbildung 25: Außenstellen schematisch ............................................................. 44
Abbildung 26: UCS Blade Infrastruktur ................................................................. 45
Abbildung 27: UCS Aufbau für Zentrale................................................................ 45
Abbildung 28: Schema Storage ............................................................................ 46
Abbildung 29: Storage Pools ................................................................................ 47
Abbildung 30: Storage Pool Information im Detail ................................................ 48
Abbildung 31: Überblick der Storage Kapazität .................................................... 48
Abbildung 32: Außenstelle klein ........................................................................... 50
Abbildung 33: Außenstelle groß ........................................................................... 50
Abbildung 34: Replikation Simplivity ..................................................................... 51
Abbildung 35: SAP HANA Vergleich Appliance mit TDI ........................................ 52
Abbildung 36: VDI Umgebung mit Simplivity inkl. Backup für Außenstellen .......... 53
Abbildung 37: Projektablaufplan ........................................................................... 54
Abkürzungsverzeichnis 6

Abkürzungsverzeichnis
AN Auftragnehmer

AG Auftraggeber

IT Informationstechnik

ITIT IT-Infrastruktur-Team

ITAT IT-Applikations-Team

ITST IT-Support-Team

LAN Local Area Network

WAN Wide Area Network

WLAN Wireless Local Area Network

ERP Enterprise Resource Planning

CRM Customer Relationship Management

DC Data Center

FC Fibre Channel

FCoE Fibre Channel over Ethernet

FI Fabric Interconnect

GBit Giga Bit

IOPS Input/Output operations Per Second

FCP Fibre Channel Protocol

CIFS Common Internet File System

NFS Network File System

SQL Structured Query Language

TSM Tivoli Storage Manager

LWL Lichtwellenleiter

SCSI Small Computer System Interface

ISCSI Internet Small Computer System Interface

SAS Serial Attached SCSI

CPU Central Processing Unit

RAM Random Access Memory

USV Unterbrechungsfreie Stromversorgung

NL-SAS Nearline SAS


Abkürzungsverzeichnis 7

SSD Solid State Drive

TDI Tailored Datacenter Infrastructure

RAID Redundant Array of Independent Disks

VSS Virtual Switching System

VPC Virtual Port Channel

VDI Virtuelle Desktop Infrastruktur

PLD Projektleitdokument
Vorwort 8

Vorwort
Da mich die Informationstechnologie (IT) schon seit meiner Kindheit begleitet, habe ich
mich in jungen Jahren bereits entschlossen, einen Weg in diese Richtung einzuschla-
gen. Mit dem Abschluss der Höheren Technischen Lehr- und Versuchsanstalt in Inns-
bruck mit Matura wurden die Grundsteine für eine Karriere in diese Richtung gelegt.

Ein anschließendes Studium kam für mich zu dieser Zeit nicht in Frage. Ich beschäftigte
und informierte mich aber immer wieder über berufsbegleitende Studien, um meinem
Ziel, einen akademischen Abschluss zu erlangen, näher zu kommen.

Nun bin ich am Ende dieses Studiums angelangt und bedanke mich bei meiner Familie
und Freunden für die tatkräftige Unterstützung während dieser Jahre. Insbesondere be-
danke ich mich bei meiner Lebensgefährtin Kathrin und bei meinem Sohn Max für ihre
Entbehrungen die Sie in dieser Zeit auf sich genommen haben, denn neben dem Stu-
dium stand auch eine neue berufliche Herausforderung und auch unser Familien-Projekt
‚Eigenheim‘ an.

Ich bedanke mich bei meinen Arbeitskollegen für die Inspiration zu dieser Arbeit und
bedanke mich ebenfalls bei meinem Erstprüfer Herrn Prof. Dr.-Ing. habil. Lutz Winkler
und bei meinem betrieblichen Betreuer Herrn DI(FH) Wolfgang Schwarz. Sie haben mich
auf meinem Weg unterstützt und gefördert.

Zu guter Letzt bedanke ich mich speziell bei meiner Mama und meinem Papa, die mich
auch in schwierigen Zeiten immer tatkräftig unterstützten. Sie haben es mir ermöglicht
meinen Grundstein, die Ausbildung an der Höheren Technischen Lehranstalt, zu legen
– ich bin ihnen sehr, sehr dankbar dafür!
Einleitung 9

1 Einleitung
Diese Arbeit dient als Entscheidungsgrundlage für ein mittelständisches Unternehmen
für eine Zentralisierung der IT-Infrastruktur in Bezug auf das Rechenzentrum. Dies be-
trifft das Rechenzentrum in der Zentrale, welches redundant ausgelegt werden soll und
auch Außenstellen die auf diverse zentrale Services Zugriff haben.

Die Parameter, Aufzeichnungen und Gespräche sind im Rahmen eines Projektes mei-
nes Arbeitgebers entstanden. Diese Arbeit ist jedoch neutral gehalten, da dieses Prinzip
der Informationsbeschaffung und Aufbereitung, dann auf weitere Unternehmen ange-
wendet werden soll.

Das Rechenzentrum ist heute ein wichtiger Bestandteil jedes Unternehmens, das sich
sehr rasch und flexibel anpassen muss. Die Infrastruktur muss sehr flexibel an das Un-
ternehmen angepasst werden um die täglichen Herausforderungen zu meistern.

Zeitgemäße Lösungen für die Anforderungen an die Infrastruktur sind dabei sehr hilf-
reich, um Projekte umzusetzen und die internen Services schneller bereitzustellen.

In der Zentrale soll das Setup der Server-, Storage- und Rechenzentrum-Netzwerk-Inf-
rastruktur sowie die Virtualisierung und das Management der Komponenten neu aufge-
stellt werden. Eine weitere Herausforderung ist, dass der Auftraggeber eine sehr
schlanke Infrastruktur-Mannschaft beschäftigt und es nicht geplant ist, weitere Arbeit-
nehmer anzustellen.

Der Auftraggeber erwartet sich, dass durch ein effizientes Rechenzentrum auch zeitliche
Vorteile bei geplanten Down Times (Erweiterungen oder Updates) entstehen.

Abbildung 1: Vorgehensweise auf dem Weg zum Ziel


Einleitung 10

Damit die Erwartungshaltung des Kunden erfüllt wird, sind verschiedene Schritte not-
wendig:

 Erhebung der der IST-Situation anhand der bestehenden Infrastruktur im Re-


chenzentrum, in den Außenstellen und bei Gesprächen mit den verantwortlichen
Mitarbeitern, ebenso Umfragen bei den Mitarbeitern, welche die Systeme tagtäg-
lich betreuen
 Erhebung der SOLL-Situation (Kundenanforderung) durch Gespräche mit IT-Mit-
arbeitern, dem IT-nahen Management, den Key-Usern
 Unternehmensziele und Visionen fließen ebenso in die Bewertung der Ergeb-
nisse mit ein
 Faktoren von außen, wie die Einführung neuer technischer Produkte von IT-Un-
ternehmen im Data Center, technische Grenzen oder technische Kompetenzen
können das Ergebnis beeinflussen

Dadurch kann ein Überblick gewonnen werden, der als Basis für die Neuplanung heran-
gezogen wird. Auf diese Weise wird eine Richtung vorgegeben, in welche sich dieses
Projekt weiterentwickeln soll. In die Bewertung ist auch das Unternehmen involviert.

Das Ziel dieses Projektes ist es, eine Lösungsbeschreibung anhand der Auswertung zu
erstellen.

1.1 Übersicht über den Auftraggeber


Der Auftraggeber hat seine Zentrale in Tirol in der Nähe von Innsbruck. Am Standort in
der Zentrale sind 650 MitarbeiterInnen beschäftigt. Zusammen mit den MitarbeiterInnen
an fünf weiteren Produktionsstandorten und Verkaufsbüros sind in Summe rund 1200
MitarbeiterInnen in diesem Unternehmen tätig. Der Jahresumsatz betrug 2013 rund €
650 Millionen. Der Auftraggeber ist in der Produktion tätig und es muss ein 24 Stunden
Produktionsbetrieb gewährleistet sein. Das Unternehmen hat Verkaufsbüros in 16 euro-
päischen Staaten und beliefert international über 100 Länder.

Der Auftraggeber ist in der Nahrungsmittelproduktion tätig und deshalb sind Anforderun-
gen wie Chargenrückverfolgung, Just-In-Time Zu- und Ablieferungen und stetige Audits
für den Kunden ohne IT nicht mehr durchführbar. Deshalb besteht auch der Anspruch,
dass die IT innerhalb des Unternehmens 24 Stunden pro Tag und 365 Tage im Jahr
laufen muss.

Die IT-Abteilung des Kunden ist speziell im Infrastrukturbereich schlank aufgestellt. Die
Betreuung der Rechenzentrums-Infrastruktur sowie die Betreuung der Server- und Sto-
rage-Systeme an den Außenstellen werden von drei Personen übernommen, wobei ein
Mitarbeiter dieser Gruppe der Teamleiter für Infrastrukturthemen ist. In diesem Infra-
struktur-Team sind noch weitere drei Mitarbeiter, die sich mit den Themen Sicherheit,
Netzwerk und Kollaboration beschäftigen.

Der IT-Leiter ist dem Infrastruktur-Team übergeordnet. Weitere Verantwortungsbereiche


des IT-Leiters sind das Applikations-Team und das Support-Team für User bzw. First-
Einleitung 11

Level Anfragen. Die gesamte IT-Abteilung besteht derzeit aus 21 MitarbeiterInnen. In


den weiteren Produktionsstätten gibt es keine dezidierten IT-MitarbeiterInnen. Es gibt an
jedem Standort AnsprechpartnerInnen die den IT-MitarbeiternInnen als ‚Remote-Hand“
bei vor-Ort Tätigkeiten zur Verfügung stehen.

Aufgabenbereiche der einzelnen IT-Teams:

 IT-Infrastruktur Team (ITIT) – sechs Mitarbeiter


Rechenzentrums Infrastruktur (Server, Storage);
Virtualisierung, Backup, Betriebssysteme;
Netzwerk (Local Area Network/LAN, Wide Area Network/WAN, Wireless Area
Network/WLAN);
Zentrale Sicherheitsthemen (Firewalls, Webfilter, Mailfilter);
Kollaboration (Telefonie, Video);

 IT-Applikations Team (ITAT) – neun MitarbeiterInnen


Betreuung und Anpassung der Hauptapplikation
Applikationen (Mail, Dokumentenablage)
Desktop Virtualisierung und Applikationsbereitstellung
Programmierung von Schnittstellen

 IT-Support Team (ITST) – sechs MitarbeiterInnen


1st Level Support für alle internen Anfragen;
Betreuung und Verwaltung der User-Endgeräte (Personal Computer, Notebook,
Mobile Devices);

Der IT-Leiter selbst ist dem oberen Management unterstellt und trägt die Budgetverant-
wortung für den gesamten IT-Bereich des Unternehmens.
Einleitung 12

1.2 Wichtigkeit der IT-Infrastruktur für den Auftraggeber


Die IT ist für den Auftraggeber enorm wichtig, deshalb werden auch sehr hohe Anforde-
rungen an die IT gestellt.

Der Auftraggeber betreibt ein Hochregallager mit Stellplätzen für ca. 40.000 Paletten.
Ohne permanenten Zugriff auf die elektronischen Daten kann die vollautomatische An-
lage keine Aufträge abarbeiten und es würde in weiterer Folge auch zu Komplikationen
in der Logistik kommen, da die Lieferungen Just-in-Time abgeholt werden müssen und
die Speditionen nur sehr kleine Zeitfenster für Zu- und Ablieferungen haben.

Die Anforderung an die Systeme bei Auswertungen durch die einzelnen innerbetrieb-
lichen Abteilungen werden im Einkaufs- und Verkaufsprozess immer wichtiger. Die Da-
ten sollten in Echtzeit abgegriffen und verarbeitet werden. Ein Stillstand des Rechen-
zentrums würde bedeuten, dass neben den Produktionsmaschinen auch die Angestell-
ten keinen Zugriff mehr auf Mails, Dokumente, Enterprise Ressource Planning (ERP)
und Customer Relationship Management (CRM) Systeme haben und somit neben der
nicht produktiven Arbeitszeit dem Unternehmen auch noch Mehrkosten durch nachträg-
liche Buchungen und Auslieferungen entstehen. Nicht zuletzt würde die Reputation am
Markt durch fehlerhafte bzw. nicht zeitgerechte Lieferungen stark sinken.

Abbildung 2: Abhängigkeiten der wichtigsten Bereiche vom Rechenzentrum

Um gegen Ausfälle besser gewappnet zu sein, wurden die Produktionsbereiche von den
Userbereichen komplett getrennt, damit Produktionsmaschinen und die produktionsna-
hen Systeme wie Hochregallager für eine gewisse Zeit auch komplett autark arbeiten
können. Dies hilft der IT speziell bei geplanten Down Times für Updates der Systeme,
Einleitung 13

ohne dass die Produktion oder die Auslieferung davon betroffen ist. Dies hilft aber nicht
bei ungeplanten Down Times, da nicht auf die Echtdaten zugegriffen werden kann.

Ein weiterer wichtiger Faktor ist, dass in den nächsten zwei Jahren drei weitere Produk-
tionsstätten übernommen bzw. in Betrieb gehen werden. Um die Aufnahme in die inter-
nen IT-Prozesse zu beschleunigen, sollten alle Außenstellen in dieses Konzept mit ein-
fließen und eine einheitliche Ausstattung erfolgen. Derzeit gibt es fünf Produktionsstan-
dorte innerhalb des Unternehmens und aus historischen Gründen und unterschiedlichen
Investitionszyklen wurde hier jeder Standort immer separat betrachtet. IT-MitarbeiterIn-
nen an den Produktionsstandorten wird es auch weiterhin keine geben und die Dienst-
leistungen werden vom bisherigen IT-Team mitbetreut.
Data Center – IST-Situation 14

2 Data Center – IST-Situation


Die Data Center Ist-Situation ist die Grundlage für das weitere Konzept, hier wird ermit-
telt, welche Komponenten der Kunde im Einsatz hat und welche Werte derzeit erreicht
werden. Durch Gespräche mit dem IT-Leiter und dem Gruppenleiter der IT-Infrastruktur
wird die derzeitige Situation dargestellt.

2.1 Aufstellung Zentrale


Erfassung Kundensituation für Rechenzentrum

Erfassung durch: Außenstellen:

Jürgen Tabojer, IT-Leiter und dem Grup- werden in dieser Aufstellung nicht berück-
penleiter des IT-Infrastruktur Teams sichtigt, diese werden separat aufgeführt

IST-Situation

HARDWARE
Anzahl der Server 22

Type der Server Hewlett Packard Server


Anzahl der virtuellen Maschinen 163
Anzahl Switch Ports im Data Center
96 Ports mit 1Gigabit (GB)
(DC)
64 Ports mit 8 GB FC
Fiber Channel (FC) Ports / FC Hersteller
4x Brocade E300 Switches
Backup System 2x IBM LTO4 Tape Library
Storage
Aktuelle Performance Werte
Input/Output operations Per Second 4500 IOPs
(IOPS)
NetApp 3140 Fabric Metro Cluster
Art des Storage Systems / der Systeme
NetApp FAS2240 (für Backup)

Fibre Channel Protocol (FCP)


Protokolle Common Internet File System (CIFS)

Network File System (NFS)


Kapazität Ca. 70TB (Terabyte)
2x 60 Disks 300 GB (Gigabyte) 15k
Anzahl
2x 84 Disks 900 GB 10k
Art (Fibre Channel, Serial Attached Stor-
Fibre Channel
age,…)
Data Center – IST-Situation 15

SOFTWARE
Betriebssysteme Microsoft, Linux
Mailsysteme Microsoft Exchange

Microsoft Structured Query Language


Art der Datenbanken
(SQL)
Virtualisierungs-Plattform VMware
Backup Software IBM Tivoli Storage Manager (TSM)

Allgemein

Distanzen zwischen Rechenzentrum 600m

Leitungen zwischen DC Lichtwellenleiter(LWL) Singlemode

Top of the Rack Design Nein

Klimatisierungserfordernisse Zentrale Klimaanlage

Strom: Verkabelungsarten, Stecker Ty- Rack Verkabelung mit PDU


pen, Absicherung
(Stecker Typen C19 und C14)

Redundanz NetApp Metrocluster

Auslagerung auf Tape


Desaster Recovery
Tapes werden außer Haus gebracht

Für die zentralen Komponenten vorhanden


Bestehender Wartungsvertrag
bis 30.07.2015

Abbildung 3: Aufstellung der IST-Situation in der Zentrale

Um ein genaueres Bild der derzeitigen Storage-Umgebung zu bekommen wurden zur


Analyse die Support-Daten aus dem Hersteller-Portal zugezogen. Hier bekommt man
die genauen Werte über die Storagekapazitäten und über die Performance-Auslastung
(IOPS), um die aktuellen Werte mit einzubinden. In Abbildung 2 erkennt man zwei
Grafiken. In der linken Grafik, beschrieben mit Physical Storage Details (TB), sieht man
die physische Kapazität des Storage-Systems. Hier bekommt man eine Kapazität von
64,24 TB. In der rechten Grafik erkennt man die Kapazität, die das Storage-System
effektiv hat. Bei diesem Storage-System sind logische Hilfsmittel wie
Data Center – IST-Situation 16

Datenkomprimierung und Datendeduplizierung aktiv und dadurch erhöht sich die


logische Kapazität des Storage Systems. Effektiv werden also 96,15 TB zur Verfügung
gestellt.

Norbert E. Deuschle (08/2011) erklärt die Daten-Deduplizierung wie folgt:

»Daten-Deduplizierung (abgekürzt „DeDupe“) bezeichnet verschiedene


Verfahren, um automatisiert redundante Files, Bytes oder Datenblöcken
zu entfernen. Die eliminierten Daten werden durch Pointer ersetzt. Ziel
ist es, die Menge zu speichernder Daten entweder bereits an der Quelle
(Source) oder am Ziel (Target) zu reduzieren. Das hierzu nötige Repo-
sitory (Metadaten‐Index) zur Identifikation von nicht-redundanten Daten
liefert im Zusammenspiel mit der eigentlichen Deduplizierung‐Engine
(Software, Algorithmen) die Grundlage zu Implementierung entsprechen-
der Lösungen. Es kommen in der Regel sog. Pattern-Matching‐(Delta-
based Suchmuster) oder hashbasierte Technologien zur Anwendung.«

Die Deduplizierung ist ein wichtiger Faktor bei der Planung der StorageInfrastruktur, da
es auch Systeme gibt, die diese Art der Datenoptimierung nicht vorsehen. Deshalb ist
es wichtig, den effektiven Storage-Platz für die weiteren Schritte heranzuzuiehen.

Abbildung 4: Storagekapazitäten

Die Performance entspricht laut Datenaufzeichnung in etwa dem in der Erfassung an-
geführten Wert von 4500 IOPS zu Spitzenzeiten. Bei diesem System pendelt sich die-
ser Wert in Summe in etwa bei 3000 IOPS ein. Dieser Wert ist ebenfalls ausschlagge-
bend für die Dimensionierung der neuen Systeme. Jedoch ist es auch hier wichtig zu
wissen welche zusätzlichen Anforderungen an die Systeme ggf. noch kommen werden.
Ein Beispiel für eine sehr intensive Nutzung der IO-Last von Storage-Systemen ist eine
Data Center – IST-Situation 17

Desktop-Virtualisierung. Hier kommt es durchaus vor, dass viele hunderte User gleich-
zeitig Last auf den Storage Systemen erzeugen und hier auch IOPS von mehreren
hunderttausend erzeugt werden können.

Abbildung 5: Performance Auslastung des Storage-Systems (IOPS)

2.2 Aufstellung Außenstellen


In den Außenstellen des Unternehmens werden die Daten für die vorhandenen Server
und evtl. vorhandenen Storage-Systemen ermittelt. Alle Außenstellen sind bereits virtu-
alisiert.
Außen- Außen- Außen- Außen- Außen-
IST-Situation
stelle 1 stelle 2 stelle 3 stelle 4 stelle 5

HARDWARE
Anzahl der Server 2 3 1 2 4
Fujitsu
IBM Rack IBM Rack HP Rack IBM Rack
Type der Server Rack Ser-
Server Server Server Server
ver
Anzahl der virtuel-
19 37 10 34 37
len Maschinen
24 Ports 48 Ports 48 Ports 24 Ports 2x 48 Ports
Anzahl Switch Ports
mit 1GB 1GB 1GB 1GB 1GB
Direkt am
1x 16 Ports 1x 16 Ports 2x 16 Ports
FC Ports / FC Her- Storage kein FC
4GB / Bro- 4GB / Bro- 8GB / Bro-
steller ange- vorhanden
cade cade cade
schlossen
nicht vor- IBM LTO3 nicht vor- IBM LTO3 nicht vor-
Backup System
handen Tape handen Tape handen
Storage
Aktuelle Perfor-
keine Vor- keine Vor- keine Vor- keine Vor- keine Vor-
mance Werte
handen handen handen handen handen
(IOPS)
Data Center – IST-Situation 18

interne
Art des Storage- IBM IBM HP IBM
Disks im
Systems DS3400 DS3400 EVA4400 DS3500
Server
Kapazität 4 TB 12 TB 3 TB 10 TB 15 TB
Protokolle FC FC - FC FC
12 (15k 24 (15k 6 (10k 24 (10k 24 (15k
Anzahl
Disks) Disks) Disks) Disks) Disks)
Art
(Fiber Channel, SAS SAS SAS FC SAS
SAS,…)

SOFTWARE
Virtualisierung VMware VMware VMware VMware VMware
Backup Software Commvault Commvault Commvault Commvault Commvault

Allgemein
Kaltgeräte
EU - EU - EU -
Power Dis- EU -
Stromanschluss Schuko Schuko Schuko
tribution Schuko
Stecker Stecker Stecker
Unit
keine vor- keine vor-
keine vor- keine vor- keine vor-
Redundanz
handen handen handen handen handen
vorhanden
19" Rack vorhanden vorhanden (24 Höhen- vorhanden vorhanden
einheiten)
vorhanden vorhanden vorhanden
Bestehender War- keine vor- nicht vor-
bis bis bis
tungsvertrag handen handen
30.06.2015 31.12.2014 31.01.2017
Abbildung 6: Aufstellung der IST-Situation in Außenstellen

2.3 Umfrage und Gespräche über die IST-Situation


Es wurde ein Gespräch mit dem IT-Leiter geführt, um zu erfahren wie er die Situation
mit dem derzeitigen Rechenzentrum und den Außenstellen sieht. Dem Gruppenleiter der
IT-Infrastruktur und den weiteren Teammitgliedern wurden gezielt Fragen gestellt, um
eine breitere Meinung zur derzeitigen Umgebung zu erhalten.

2.3.1 Gespräch mit dem IT-Leiter


Dem IT-Leiter ist es wichtig, dass seine MitarbeiterInnen entlastet werden, es gibt derzeit
eine sehr große Anzahl an Überstunden und Nachtarbeit durch notwendige Updates &
Patches. Generell gibt es kein Budget für neue MitarbeiterInnen im Infrastruktur-Bereich.
Es wird personell mehr in die anderen IT-Abteilungen investiert.

Zitat des IT-Leiters: „Die Infrastruktur muss einfach laufen, meine Mitarbeiter haben
wichtigere Aufgaben.“

Die jetzige Ausstattung der Außenstellen ist nicht mehr zeitgemäß in seinen Augen. In
den letzten zwei Jahren wurden hier nur die notwendigsten Investitionen getätigt, im
Data Center – IST-Situation 19

Hinblick darauf, dass in ein paar Jahren ein neues ganzheitliches Konzept entsteht. Aus
dem jetzigen Bestand wird bis auf die Backup-Infrastruktur alles erneuert und auf zeit-
gemäße Plattformen gesetzt.

Wichtig ist dem IT-Leiter auch der Support im Hintergrund, derzeit ist dies sehr mühsam,
da man unterschiedliche Hersteller und somit auch unterschiedliche Supportwege be-
streiten muss.

Der IT Leiter zum Thema Support und zum Thema Entwicklung der Abteilung:

»Der Support ist im Moment mit sehr viel internem Zeitaufwand verbunden
und dieser sollte minimiert werden. Unsere Abteilung entwickelt sich im-
mer mehr zum Dienstleister innerhalb des Unternehmens. Aus diesem
Grund müssen wir eine gute Grundlage der Infrastruktur schaffen, um den
neuen Anforderungen gerecht zu werden. Mit der vorhanden Infrastruktur
ist dies nicht möglich. «

Das Unternehmen wird auch mehr Budget für die IT-Infrastruktur zur Verfügung
stellen, da die IT auch die Grundlage für Produktion und Logistik ist. Das Budget
für dieses Projekt beträgt rund EUR 1,2 Mio. und inkludiert neben der Hardware
auch sämtlich Dienstleistungen und den Support für fünf Jahre.

2.3.2 Umfrage im IT-Infrastruktur-Team


Für die Umfrage wurden sieben Fragen zusammengestellt um einen Überblick über die
IST-Situation zu bekommen. Die Fragen waren jeweils mit den Noten 1 (sehr zufrieden-
stellend) bis 5 (wenig zufriedenstellend) zu beantworten.

Frage 1) Wie zufrieden sind Sie mit Ihrem derzeitigen zentralen Rechenzentrum?

Abbildung 7: Ergebnis zu Frage 1 zur IST-Situation


Data Center – IST-Situation 20

Frage 2) Wie zufrieden sind Sie mit dem Betrieb/ mit der Ausstattung ihrer Außenstellen?

Abbildung 8: Ergebnis zu Frage 2 zur IST-Situation

Frage 3) Wie bewerten Sie derzeit die einzelnen Rechenzentrumsbereiche im Normal-


betrieb in Ihrer Zentrale?

Abbildung 9: Ergebnis zu Frage 3 zur IST-Situation


Data Center – IST-Situation 21

Frage 4) Wie bewerten Sie derzeit die einzelnen Rechenzentrumsbereiche bei Erweite-
rungen/Updates in Ihrer Zentrale?

Abbildung 10: Ergebnis zu Frage 4 zur IST-Situation

Frage 5) Wie bewerten Sie die einzelnen Rechenzentrumsbereiche im Hinblick auf Per-
formance?

Abbildung 11: Ergebnis zu Frage 5 zur IST-Situation


Data Center – IST-Situation 22

Frage 6) Wie bewerten Sie derzeit die einzelnen Rechenzentrumsbereiche im Normal-


betrieb in Ihren Außenstellen?

Abbildung 12: Ergebnis zu Frage 6 zur IST-Situation

Frage 7) Wie bewerten Sie derzeit die einzelnen Rechenzentrumsbereiche bei Erweite-
rungen/Updates in Ihren Außenstellen?

Abbildung 13: Ergebnis zu Frage 7 zur IST-Situation


Kundenanforderung 23

3 Kundenanforderung
In diesem Abschnitt werden die kundenseitigen Anforderungen hinterfragt. In diesem
Abschnitt werden nicht nur MitarbeiterInnen aus dem IT Bereich befragt, sondern auch
die Geschäftsleitung und sogenannte Key-User mit einbezogen.

Hier die Definition zum Begriff Key-User (Wikipedia, 2014/12):

»Der Begriff Key-User wird im Zuge der Einführung betriebswirtschaftli-


cher Software (z. B. ERP-Systeme) genutzt. Der Key-User selbst ist ein
Mitarbeiter des Unternehmens, welches die betriebswirtschaftliche Soft-
ware einführt. Der Key-User ist jener Anwender, der sich in seinem Be-
reich auf die dort eingesetzte Software bzw. entsprechende Software-Mo-
dule spezialisiert. Ein Key-User unterstützt den Ausbau und die Inte-
grationstiefe und vertritt die fachlichen Interessen des Fachbereiches im
Projektteam. «

In diesem Fall werden Key-User befragt, um zu erfahren, welche Anforderungen Sie an


die IT haben und auch welche Projekte in den kommenden ein bis zwei Jahren bei Ihren
Abteilungen anstehen, um ggf. jetzt schon darauf reagieren zu können.

3.1 Ziele des Unternehmens hinsichtlich langfristiger Planung


der IT
Die Geschäftsleitung des Unternehmens besteht aus drei Geschäftsführern. Gespräche
gab es mit zwei Geschäftsführern, einmal aus dem Bereich Finanz (Chief Financial
Officer CFO) und einmal aus dem Bereich Produktion & Technik (Chief Technical Officer
CTO).

Beide Gesprächspartner wurden über die Besprechung informiert. Der Gesprächstermin


war lediglich auf 30 Minuten festgelegt und deshalb wurden jeweils drei Fragen inkl. einer
kurzen Zusammenfassung des Projektes an beide Geschäftsführer vorab gesendet.

3.1.1 Fragen an das Management

Auf welche Veränderungen muss sich das Unternehmen auf kurze oder lange
Sicht einstellen?

CFO:

Das Unternehmen ist ein sehr stark expandierendes Unternehmen. Das Wachstum be-
trug in den vergangenen fünf Jahren jährlich zwischen 8 - 15% Prozent. Auch in den
kommenden beiden Jahren wird das Wachstum über 10% liegen. Die Aufgabe, der wir
uns stellen, ist dieses Wachstum für uns zu nutzen und wir sind auf einem guten Weg,
auch diese Herausforderung zu meistern. Die Internationalisierung wird für unser Unter-
nehmen immer wichtiger.
Kundenanforderung 24

Derzeit ist das Unternehmen Marktführer in unserer Branche in Österreich. Dies soll ei-
nerseits gefestigt werden und andererseits soll die Expansion innerhalb Europas voran-
getrieben werden.

CTO:

Durch den starken Expansionskurs des Unternehmens ist jeder gefordert, rasch und fle-
xibel zu reagieren. Neue Standorte sollen einfach in das bestehende Konzept integriert
werden können. Die derzeitigen Produktionsstandorte sind mittlerweile zu mehr als 95%
ausgelastet. Deshalb wird Ende 2015 und Mitte 2016 ein neuer Produktionsstandort in
Betrieb gehen, bzw. die Zentrale um eine weitere Produktionsstraße erweitert werden.

Die IT muss auf Veränderungen reagieren – wie wirkt sich das auf das Unterneh-
men aus?

CFO:

Die IT ist aus dem Unternehmen nicht mehr wegzudenken und wird durch das Wachstum
in den nächsten Jahren immer wichtiger. Die komplette Bestellkette vom Lieferanten bis
zum Kunden ist digitalisiert – ein Stillstand in dieser Kette kostet dem Unternehmen viel
Geld und wir verlieren dadurch Reputation am Markt.

Durch flexible Gestaltungsmöglichkeiten in der IT sieht das Unternehmen auch Chancen


schneller in Märkte vorzudringen, in denen es derzeit wenige Marktanteile besitzt.

CTO:

Aufgaben unserer IT bestehen auch darin, die stetigen Änderungen und auch unser
Wachstum nicht nur zu unterstützen, sondern eventuell auch schneller voranzutreiben.
Die ist nicht nur auf die Bereiche unseres derzeitigen Unternehmens umzulegen, son-
dern umfasst auch die Erweiterung unserer Standorte auf mögliche Zukäufe in den
nächsten Jahren. Deshalb müssen auch neue Prozesse rasch abgebildet werden und
ebenso rasch implementiert werden. Je schneller wir am Markt agieren können, desto
besser ist die Entwicklung des Unternehmens.

Welche Anforderungen stellen Sie an ihre IT, damit diese auf Veränderungspro-
zesse im Unternehmen schnell und zuverlässig reagieren kann?

CFO:

Durch ein großes Wachstum in den letzten und in den kommenden Jahren, wird auch
dementsprechend in die IT investiert. Die zentralen Komponenten sollten jedoch so aus-
gelegt werden, dass die Infrastruktur nicht nach drei Jahren komplett getauscht werden
muss.

Der dadurch entstehende Kostenfaktor sollte in Relation zu dem Wachstum stehen, wo-
bei darauf geachtet werden soll, dass durch eine neue Infrastruktur kein interner Mehr-
aufwand generiert wird.

CTO:
Kundenanforderung 25

Unsere Bereiche der IT-Abteilung müssen das Wachstum unterstützen und dadurch
auch vorausschauend geplant werden. Deshalb gibt es klare Richtlinien dafür, wie sich
unsere IT-Struktur anpassen muss. Der Markt ist sehr dynamisch. Deshalb soll mit Stan-
dard-Produkten aus der Praxis gearbeitet werden. Innerhalb des Unternehmens wird
ebenfalls auf Standardprozesse gesetzt, welche dynamisch, flexibel und sehr skalierbar
sind.

Der IT-Infrastrukturbereich innerhalb des Unternehmens ist sehr wichtig, jedoch ist es
schwer, geeignetes Personal zu finden. Eine neue Infrastruktur inkl. neuer Standorte
sollte deshalb mit der bestehenden Mannschaft betrieben werden können.

3.2 Anforderungen der Key-User an die neue Infrastruktur


Es wurden vom IT-Leiter drei Key-User definiert. Die Key-User kommen aus dem Berei-
chen Produktion, Lager und aus dem SAP-Bereich. Es wurden hier Gespräche mit dem
Leiter der Produktion in der Zentrale, dem Lagerleiter und dem SAP-Team-Leiter geführt.

Aus diesen Gesprächen geht hervor, dass sowohl in der Produktion als auch im Lager
eine 24x7 Verfügbarkeit der Systeme an erster Stelle steht. Für Wartungsarbeiten kom-
men lediglich zwei Feiertage (Ostersonntag und der Weihnachtsfeiertag am 25.12.) im
Jahr für eine Down Time in Frage. Das bedeutet, dass auch eine Migration entweder
online, oder an einem dieser beiden Feiertage erfolgen kann.

Der Produktionsleiter hat auch darauf hingewiesen, dass in den Außenstellen teilweise
auch der 24x7 Schichtbetrieb eingeführt wird bzw. in Hochsaisonen schon praktiziert
wird. Deshalb ist es wichtig, dass auch hier ein Hochverfügbarkeitsbetrieb möglich ist.
Berücksichtigt werden sollten auch die Neueröffnung und die Erweiterung in der Produk-
tion.

Im SAP-Bereich wird man sich in den nächsten zwölf Monaten intensiv mit SAP HANA
(High Performance Analytics Appliance) beschäftigen. Es existiert schon eine Testum-
gebung und der Echtbetrieb für einen Teilbereich sollte Ende 2015 erfolgen.

Die Performance-Anforderungen werden in den nächsten drei Jahren aufgrund des


Wachstums auch in den SAP-Applikationen spürbar sein. Einfache Erstellung von Te-
stumgebungen ist ein weiterer Punkt des SAP-Beauftragten.

3.3 SOLL-Zustand aufgeteilt in Module


Der Soll-Zustand wurde vom IT-Infrastruktur-Team definiert und in drei Hauptbereiche
unterteilt. Diese Bereiche sind Rechenzentrum-Switching, Server & Virtualisierung sowie
der Bereich Storage. Der Bereich Backup soll hier nur bedingt einfließen, da man sich
erst vor 18 Monaten für ein neues Backupprodukt zusammen mit einem neuen Backup-
konzept entschieden hat. Sollte es jedoch Grund für Verbesserungen geben, sollten
diese berücksichtigt werden.
Kundenanforderung 26

Modul Thema Kundenanforderung

Rechenzentrum Anzahl Ports 24x 10 GB, 24x1GB pro Rechenzent-


Switching rum

Redundanz Ja innerhalb Standort als auch Stand-


ortübergreifend

Skalierbarkeit Ja

SAN Ports 24 Ports

Sonstige Anforderun- keine


gen

Server / Virtuali- Anzahl 22


sierung
Bauweise Blade Server + HANA Umgebung

Architektur Blade 2 in sich redundante Blade Systeme in


jedem Rechenzentrum mit redundan-
ten Anbindung zu den Core Kompo-
nenten

Performance Es müssen die Anforderungen für die


bestehenden SAP Systeme sowie der
virtuellen Systeme berücksichtigt wer-
den

Redundanz Sämtliche Komponenten im Switching,


Server und Storage müssen Lokal und
Site Redundant sein

Sonstige Anforderun- Keine


gen

Storage Kapazität (netto) 90 TB (inkl. Wachstum)

Performance 8000 IOPS (Wachstum nicht inbegrif-


fen)

Redundanz Sämtliche produktive Daten im Bereich


der virtuellen Maschinen sowie dem
SAP-System müssen Site Redundant
und hochverfügbar abgebildet werden.

Es wird angedacht, dass das SAP-


Testsystem auch Site Redundant ab-
gebildet wird.
Kundenanforderung 27

Skalierbarkeit Eine einfache Erweiterung des Storage


im Bereich der Speicherkapazitäten
sollte berücksichtigt werden

Storage Management Eine zentrale und einfache Verwaltung


ist erwünscht

Anbindung (Protokolle) FCP,CIFS,NFS

Datenmigration Die virtuellen Maschinen sollten ohne


Down Time vom alten auf das neue
Storage-System migriert werden.

Das SAP-System wird im Zuge der


Hardware-Aktualisierung auch migriert.
D.h. Cluster und Applikations-Systeme
werden mit dem aktuellen Stand der
Technik auf die neuen Systeme instal-
liert.

Wartungsvertrag Art des Wartungsver- 7 Tage /24 Stunden, 4 Stunden Wie-


trags derherstellungszeit (Vor-Ort-Service
für die Dauer von 5 Jahren)

Abbildung 14: Soll-Zustand

Für die Soll-Ausstattung der Server wurde eine eigene Tabelle mit den Anforderungen
an die CPU (Central Processing Unit) und an die Anzahl der RAM (Random-Access Me-
mory) Kapazität gemäß den Vorgaben der internen Ermittlungen bzw. den Vorgaben der
Software-Hersteller übermittelt.
An- CPU CPU RAM Anbindung Sto- Betriebssystem Anwendung
zahl Cores (GHz) (GB) rage
CPU
Windows Server 2012
2 4 3,50 512 FCoE oder FC R2 Std SAP SQL
Windows Server 2012 SAP Applikatio-
2 8 3,20 256 FCoE oder FC R2 Std nen
Windows Server 2012 SAP Applikatio-
2 8 3,20 256 FCoE oder FC R2 Std nen
VMware ESXi 5.1 Stan-
2 12 2,50 256 NFS dard Citrix AppServer
12 2,50 VMware ESXi 5.1 Stan-
2 256 NFS dard Citrix AppServer
12 2,50 Div.
NFS + VMware ESXi 5.1 Stan- Windows/Linux
2 384 FCoE/FC dard Server
12 2,50 Div.
NFS + VMware ESXi 5.1 Stan- Windows/Linux
2 384 FCoE/FC dard Server
12 2,50 Div.
NFS + VMware ESXi 5.1 Stan- Windows/Linux
2 384 FCoE/FC dard Server
Kundenanforderung 28

12 2,50 Div.
NFS + VMware ESXi 5.1 Stan- Windows/Linux
2 384 FCoE/FC dard Server
12 2,50 Div.
NFS + VMware ESXi 5.1 Stan- Windows/Linux
2 384 FCoE/FC dard Server
12 2,50 NFS + VMware ESXi 5.1 Stan- Diverse Testsys-
2 256 FCoE/FC dard teme
12 2,50 NFS + Windows Server 2012 Commvault Ba-
1 128 FCoE/FC R2 Std ckup
Abbildung 15: Soll-Zustand Server

In Abbildung 9 sind alle Server ersichtlich, die benötigt werden um den Betrieb aufrecht
zu erhalten. Für das redundante Rechenzentrum wird die Anzahl der Server doppelt be-
nötigt. Die Server 11 und 12 der Abbildung werden nicht redundant ausgelegt. Die Aus-
führung als Blade-Variante ist bevorzugt. Es sollten auch Reserven bezgl. einer Hard-
ware-Nachbeschaffung eingeplant werden. Hier sollte es vor allem möglich sein, rasch
und einfach die Hardware zu erweitern. Die Außenstellen werden mit denselben Prozes-
sortypen ausgestattet wie die VMware-Server in der Zentrale. Alle Außenstellen sollten
nach demselben Schema aufgebaut werden.

Spezielle Performance-Anforderungen in den Außenstellen gibt es nicht, durch eine ein-


heitliche Struktur soll das Management der Außenstellen sehr einfach ermöglich werden.
Hier werden lediglich Fileservices angeboten. Die virtuellen Maschinen der Produktion
laufen auf diesen Rechnern.

3.4 Strategische Anforderungen


Diese Punkte wurden vom IT-Leiter kommuniziert und müssen im Konzept berücksichtigt
werden.

 Offene Architektur (Es soll keine in sich geschlossenen Lösungen geben, son-
dern mit Standard-Schnittstellen und Standard Hardware gearbeitet werden, so-
fern dies möglich ist.)

 Skalierbarkeit - einfache Bereitstellung weiterer Speicher- oder Rechenkapazitä-


ten (Die Systeme sollten einfach erweiterbar sein und auch zukunftssichere
Technologien beinhalten.)

 Sicherheit und Integrität

 Kosteneffizienz und gesamthafte Wirtschaftlichkeit

 Standardisierung
Kundenanforderung 29

 Größtmögliche Homogenität in Bezug auf die Herstellervielfalt

 Bewährte Produkte und Technologie

 Durchgängige Kompatibilität

 Harmonisierte Umgebung (auf einander abgestimmte Systeme)

 Verfügbarkeit

 Zuverlässigkeit

 Einfache Administrierbarkeit

 Transparente und einfache Lizenzierungsmodelle für Software (z.B. Volumen-


Basis)

3.5 Technische Anforderungen


Die im Folgenden genannten Anforderungen an das „Gesamtsystem“ müssen im Zu-
sammenwirken der einzelnen Komponenten erfüllt werden. Das Gesamtsystem muss im
Planungszeitraum von fünf Jahren den wachsenden Leistungsanforderungen Rechnung
tragen und darf hinsichtlich Erweiterbarkeit nicht an Leistungsgrenzen stoßen, welche
einen erneuten Ersatz nötig machen würden.

Die Server- und Storage-Infrastruktur wird in zwei Rechenzentrum-Standorten betrieben.


Diese sind 600m voneinander entfernt. Die Architektur muss die Redundanz über die
beiden Rechenzentrum-Standorte gewährleisten, d.h. die Systeme an beiden Standor-
ten müssen hinsichtlich Funktionsumfang und Kapazität identisch sein. Bei Ausfall eines
Systems oder eines ganzen Rechenzentrums müssen Dienste unterbrechungsfrei und
ohne Leistungseinbußen weiterlaufen.

Die technischen Anforderungen sind für Außenstellen im Bereich der Redundanz und
Skalierbarkeit der Systeme ebenfalls zu berücksichtigen.

Das Gesamtsystem der Infrastruktur muss modular gestaltet sein und aus folgenden
Komponenten bestehen:

Server-Plattform:

 Blade-Server
 Rack-Server

Storage:
Kundenanforderung 30

 Redundante Systeme

Rechenzentrums-Netzwerk:

 SAN Switches
 LAN Switches

Virtualisierung:

 Hypervisor

Weitere Punkte:

 Außenstellen

Diese Modularität ist gefordert, um bei späteren Erweiterungen und Anpassungen die
nötige technische und kaufmännische Flexibilität sicherzustellen. Das Gesamtsystem
muss einen möglichst hohen Grad an Homogenität vorweisen. Zum einen in Hinblick auf
die Vielfalt der Hersteller, um durchgängige Kompatibilität sicherzustellen bzw. im Falle
von Problemen einen einzigen, verantwortlichen Ansprechpartner zu haben. Zum ande-
ren in Hinblick auf den Integrationsgrad und sich daraus ergebender Mehrwerte im Be-
reich Administration, Monitoring und Reporting, um möglichst eine einzige Verwaltungs-
ebene für alle Systeme bzw. geeignete Integrationen herzustellen.
Ergebnisse und Ausblick 31

4 Ergebnisse und Ausblick


Nach den Informationen über die IST-Situation und die Ausführungen über die SOLL-
Situation sollten diese im ersten Abschnitt in einer Dokumentation zusammengefasst
werden. Diese Dokumentation der Auswertung dient als Basis für die Neuplanung der
Rechenzentren.

In einem weiteren Abschnitt dieses Kapitels wird dann anhand der vorliegenden Doku-
mentation zusammen mit dem IT-Infrastruktur-Gruppenleiter und dem IT-Leiter der wei-
tere Verlauf dieses Projektes entschieden.

4.1 Auswertung der Daten


Die Auswertung der Daten erfolgt in erster Linie über eine grafische Aufbereitung der
Gespräche, um schnell zu erkennen in welchen Bereichen Handlungsbedarf besteht.
Die Dokumentation (Zusammenfassung der Daten) dient als Grundlage für die Planung
der neuen Infrastruktur.

4.1.1 IST-Situation Analyse

Dieser Teil beschäftigt sich mit der IST-Situation Analyse. Es wird grafisch veranschau-
licht, welche Bereiche Defizite aufweisen und in welchen Bereichen es keiner Verände-
rung bedarf. Die Analyse wurde in die vier Themenbereiche Server, Storage, Rechen-
zentrum, Netzwerk und Virtualisierung aufgeteilt. Diese Bereiche wurden dann in den
Themen Zentrale, Außenstelle, Management, Redundanz, Monitoring, Betrieb und Ska-
lierung näher beleuchtet.
Ergebnisse und Ausblick 32

Abbildung 16: IST-Situation Analyse

Es folgt eine textliche Zusammenfassung der Analyse anhand der vier verschiedenen
Bereiche.

4.1.1.1 Server
Es ist derzeit schwierig, den Betrieb der Server aufgrund der unterschiedlichen Hersteller
in diesem Bereich zu gewährleisten. Verschiedene Hersteller erschweren zudem auch
die Skalierung im Bedarfsfall, da es unterschiedliche Upgrade- und Update-Szenarien
gibt. In der Zentrale ist es noch eher möglich, da hier ein einheitlicher Hersteller verwen-
det wird. In den Außenstellen ist dies jedoch nur sehr schwer durchführbar. Die Redun-
danz ist nur bedingt gegeben, in der Zentrale ist die Rechenleistung auf zwei unter-
schiedliche Rechenzentren aufgeteilt. In den Außenstellen ist eine Redundanz der Sys-
teme jedoch nicht gegeben. Eine Voraussetzung ist es jedoch, durch erhöhte Produkti-
onsleistungen auch in den Außenstellen eine Redundanz für die wichtigsten Systeme zu
erhalten. Da aufgrund des 24x7 Betriebs in den Außenstellen auch eine große Abhän-
gigkeit zu den IT-Systemen besteht, wird hier der Ansatzpunkt auf einem einheitlichen
und zentralen Management der Systeme liegen.

Eine einheitliche Server-Infrastruktur ist auch eine Voraussetzung, um die anstehenden


Erweiterungen für neue Werke und Erweiterungen bestehender Werke abdecken und
mit dem bestehenden Infrastruktur-Team umsetzen zu können.

4.1.1.2 Storage
Ein wichtiger Teil der Planung ist ein skalierbares Storage-System. In der Zentrale ist
das Infrastruktur-Team mit dem bestehenden System zufrieden und der Aufwand für den
Betrieb ist überschaubar. Das Bild in den Außenstellen ist dazu jedoch sehr konträr und
Ergebnisse und Ausblick 33

deckt sich mit den Problemen im Server-Bereich. Unterschiedliche Hersteller erschwe-


ren die täglichen Arbeiten und es muss auch das Know-How für unterschiedliche Sys-
teme erworben werden. In der Zentrale entspricht die Redundanz den Erwartungen und
dies soll auch so beibehalten werden. In den Außenstellen ist ein neuer Ansatz für die
Redundanz erforderlich, da die Produktionsservices nicht zentralisiert werden können.

Auch hier ist ein einfaches Management über die Standorte hinweg erforderlich, damit
die wachsenden Anforderungen zeitgerecht umgesetzt werden können.

4.1.1.3 Rechenzentrum Netzwerk


Das derzeitige Rechenzentrum Netzwerk ist nicht mehr zeitgemäß. Es ist im Rechen-
zentrum eine durchgängige 1GB Struktur, welche nicht zentral verwaltet werden kann.
Neben dem LAN ist auch noch ein SAN vorhanden, welches mit einer 8GB FC Struktur
zwar noch zeitgemäß ist, jedoch auch erneuert werden sollte. Eventuell gibt es hier auch
Möglichkeiten zur Einsparung von Komponenten, um die Verwaltung einfacher zu ge-
stalten.

Im gesamten LAN wird der gleiche Hersteller verwendet, dies bringt Vorteile für die Ver-
waltung der Geräte. Das Monitoring der LAN-Geräte wird über eine Open-Source Lö-
sung abgedeckt. Diese Lösung bleibt weiterhin bestehen, da auch Applikationen und
weitere Komponenten mit diesem Tool überwacht werden.

4.1.1.4 Virtualisierung
Mit diesem Punkt ist das Team der IT-Infrastruktur sehr zufrieden. Sowohl in der Zentrale
als auch in den Außenstellen erfüllt das Produkt alle Anforderungen. Das zentrale Ma-
nagement und das zentrale Monitoring der Virtualisierung über alle Standorte ist ein
wichtiger Faktor. Das Wissen über die Software ist entsprechend vorhanden und wird
zudem weiter ausgebaut. Der Betrieb der Virtualisierung ist mit dem bestehenden Team
einfach möglich und es können ohne großen Aufwand auch weitere Standorte hinzuge-
fügt oder weitere Anforderungen abgedeckt werden.
Ergebnisse und Ausblick 34

4.1.2 Schematische Darstellung der derzeitigen Lösung

Abbildung 17: Schematische Darstellung Rechenzentren der Zentrale

Die Redundanz der Infrastruktur ist derzeit nur über beide Rechenzentren verteilt gege-
ben. In den beiden Räumen sind die einzelnen Komponenten nicht redundant ausgelegt.
Aufgrund der hochverfügbaren Vorgaben ist auch eine Redundanz in den einzelnen Re-
chenzentren anzudenken.

Abbildung 18: Management im Rechenzentrum


Ergebnisse und Ausblick 35

Das Management im Rechenzentrum ist derzeit nicht für alle Bereiche übergreifend. Ein
einheitliches Management gibt es derzeit nur im Storage Bereich und in der Virtualisie-
rung. Alle physischen Server und Netzwerkkomponenten werden separat konfiguriert.

In den Außenstellen gibt es keine Redundanz der einzelnen Komponenten. Lediglich die
Virtualisierung beinhaltet eine Redundanz, da es an den Standorten zentrale Storage-
Systeme gibt. Fällt jedoch ein Storage-System aus, so liegt auch die gesamte Außen-
stelle brach. Zentrale Services wie (Mail und ERP System) laufen in der Zentrale, doch
produktionsnahe Applikationen sollen weiterhin an den Außenstellen betrieben werden.
Deshalb ist es notwendig auch hier eine Redundanz der Systeme für einen 24x7 Betrieb
zu gewährleisten.
Ergebnisse und Ausblick 36

Abbildung 19: Schematische Darstellung Außenstelle inkl. Management

Der Schwachpunkt ist hier die nicht einheitliche Umgebung, jeder Standort hat unter-
schiedliche Hersteller im Einsatz. Deshalb ist auch ein zentrales Management der phy-
sischen Komponenten nicht möglich. Bei allen physischen Komponenten bedarf es un-
terschiedlicher Tools für ein und dieselbe Tätigkeit. Einzig das Management in der Vir-
tualisierung ist einheitlich und zudem von der Zentrale aus zu managen.

4.2 Bewertung der Ergebnisse


Die Ergebnisse wurden in Tabellen festgehalten. Es gab auch von IT-Leiter und dem
Teamleiter der IT-Infrastruktur Ergänzungen, diese wurden ebenfalls eingepflegt. Im An-
hang A ist ersichtlich welche Bereiche für das Unternehmen sehr wichtig sind und diese
werden in der Lösung berücksichtigt.

Die wichtigsten Punkte aus der Bewertung sind in die Bereiche Gesamtkonzept, Server,
Storage, Netzwerk, Virtualisierung und Außenstelle aufgeteilt und hier ersichtlich:

4.2.1 Gesamtkonzept
1. Die Zufriedenheit mit der derzeitigen Infrastruktur ist nicht bzw. nur teilweise ge-
geben
2. Die Zufriedenheit mit der derzeitigen Infrastruktur der Außenstellen ist nicht ge-
geben
3. Zentralisierung und Vereinfachung des Managements in allen Bereichen
4. Flexible Struktur, um neue Anforderungen rasch abdecken zu können
5. Auslegung der IT Infrastruktur für min. drei Jahre
Ergebnisse und Ausblick 37

6. 24x7 Support für alle Teile der Infrastruktur inkl. Vor-Ort-Unterstützung


7. First Level Support wird weiterhin durch die IT-Abteilung erbracht
8. Auslagerung des Betriebes an Dritte ist nicht erforderlich
9. Virtuelle Desktops werden in Zukunft eingeführt, dies ist zu berücksichtigen
10. Redundanz in der Zentrale soll ausgebaut werden
11. SAP HANA wird eingeführt und soll berücksichtigt werden
12. Testumgebungen sollen einfach umsetzbar sein
13. Kriterienkatalog für das zentrale Rechenzentrum wird erstellt und die Eckdaten
werden festgehalten
14. Upgrades, Erweiterungen, Patches müssen im laufenden Betriebe möglich sein

4.2.2 Server
1. Verwaltung und Management der Server verbessern
2. Architekturwechsel von Rack- auf Blade-Server
3. Einfache Erweiterbarkeit im laufenden Betrieb
4. Geringe Down Time bei Updates/Upgrades - evtl. Automatisierung
5. Komponenten innerhalb eines Rechenzentrums redundant auslegen
6. Anbindung mit min. 2x10Gbit Ethernet und 2x8Gbit FC
7. genügend Platz für Erweiterungen vorsehen

4.2.3 Storage
1. Redundanz innerhalb des Rechenzentrums und Redundanz über beide Rechen-
zentren hinweg
2. Verwaltung und Management über eine zentrale Oberfläche
3. Einfache Erweiterbarkeit im laufenden Betrieb
4. Änderung des Herstellers im Storage-Bereich möglich
5. Protokolle und Zugriffe müssen gleich bleiben

4.2.4 Rechenzentrums-Netzwerk
1. Einfache Verwaltung über beide Rechenzentren hinweg
2. Netzwerk min. 10Gbit und zwischen den Rechenzentren Ausbau auf 40Gbit
3. Redundante Komponenten innerhalb des Rechenzentrums
4. SAN mit min. 8GB auslegen
5. Reduktion der Hardware-Komponenten
6. Strategische Ausrichtung im Netzwerk ist Cisco innerhalb des Unternehmens
Ergebnisse und Ausblick 38

4.2.5 Virtualisierung
1. Kernkomponente im derzeitigen Betrieb und auch keine Änderung notwendig
2. Alle Bereiche sind sehr zufrieden damit
3. Ausbau des Monitorings in diesem Bereich
4. VMware wird beibehalten

4.2.6 Außenstellen
1. Ähnliches Konzept wie in der Zentrale anwenden
2. Standorte sollen in sich redundant ausgelegt werden
3. Reduktion der Hardware-Komponenten

4.3 Ausblick
Die Bewertung der Ergebnisse ergab, dass für die erforderlichen Komponenten ein Kri-
terienkatalog erstellt werden soll. Dieser Katalog beinhaltet technische Komponenten
und auch die Punkte dieses Kapitels, um die Lösung beurteilen zu können. Der Kriteri-
enkatalog wird in der Lösungsbeschreibung angeführt. Für die Virtualisierung entfällt ein
Kriterienkatalog, da hier der Weg vom Unternehmen bereits vorgegeben ist.

Da mein Unternehmen nicht herstellerunabhängig agiert und diese Arbeit im Rahmen


eines Kundenprojektes erarbeitet wird, gibt es Vorgaben, die an diverse Hersteller ge-
bunden sind.

Diese Hersteller für die einzelnen Bereiche sind:

SERVER Cisco Systems

STORAGE EMC, NetApp, Simplivity

NETZWERK Cisco Systems

VIRTUALISIERUNG VMware, Microsoft HyperV

Somit wird sich die Ausarbeitung der Lösung auf diese Hersteller konzentrieren. Im Be-
reich Storage werden wir zwei Hersteller in Betracht ziehen. Da es sich um eine Redun-
danz innerhalb eines Raumes im Rechenzentrum und auch über zwei Rechenzentren
hinweg handelt, fällt das System von NetApp (Metrocluster) derzeit weg. Es wird in naher
Zukunft eine neue Technologie mit Namen CDOT Metrocluster geben, dieses ist jedoch
derzeit in der Beta-Phase und kommt für dieses Projekt nicht in Frage.
Lösungsbeschreibung 39

5 Lösungsbeschreibung
Ausgehend von der in der Ausschreibung geforderten Funktionalität und Leistung basiert
die angebotene Architektur auf folgenden Komponenten:

 Cisco Unified Compute System mit Blade-Servern und Rack-Servern (für


Simplivity)
 Unified Storage-System EMC VNX 5400 mit drei Storage Pools und vollständig
automatisierten Tiering der Daten
 Virtualisierung des Storage-Systems und synchrone Spiegelung über zwei
Standorte mit EMC VPLEX
 Cisco SAN und LAN Infrastruktur, speziell für ein verteiltes Rechenzentrum
über zwei Standorte
Die Lösung ist vollständig redundant, sowohl pro Standort als auch standortübergrei-
fend. Es gibt keine „Single Point of Failure“ Komponente damit der Produktionsbetrieb
und der Lagerbetrieb 24 Stunden 7 Tage die Woche gewährleistet werden kann.

Zentrale

Das Konzept über alle Teile hinweg ist redundant ausgelegt und stellt eine Vereinfa-
chung des Management-Aufwands dar. Zudem ist ein zentrales Reporting über alle Inf-
rastruktur-Bereiche über die bestehende VMware-Umgebung vorgesehen. Der schema-
tische Aufbau in der Zentrale sieht wie folgt aus:

Abbildung 20: Schematische Darstellung der zentralen Komponenten (Lösung)

Aus der Abbildung 20 geht hervor, dass alle Systeme innerhalb des Rechenzentrums
redundant ausgelegt sind und auch redundant mit dem zweiten Rechenzentrum verbun-
den sind. Eine noch redundantere Variante wäre es, alle Systeme zu 100% zu virtuali-
sieren. Dies ist derzeit aufgrund von Einschränkungen verschiedener Applikationen nicht
Lösungsbeschreibung 40

möglich, dieses Ziel wird aber verfolgt. Diese Applikationen (SAP-Module) sind jedoch
als Cluster ausgelegt und somit wird die Redundanz von der Applikation aus gesteuert.
In diesem Ansatz können mehrere Komponenten innerhalb eines Standortes, oder auch
ein kompletter Standort ausfallen und trotzdem laufen alle Services weiter.

Ein weiterer Vorteil ist, dass Revisionsarbeiten, wie Upgrades/Updates oder auch War-
tungsarbeiten an der zentralen unterbrechungsfreien Stromversorgung (USV) zu jeder
Tageszeit durchgeführt werden können. Dies reduziert nicht nur die notwendige Dow
Time, sondern ist auch eine Entlastung für Planungen sowie der Durchführung des IT-
Teams.

Das Management wird dadurch ebenfalls vereinheitlicht und vereinfacht. Es gibt für die
einzelnen Bereiche jeweils ein Management-Tool und es muss nicht mehr jede Kompo-
nente einzeln konfiguriert und upgedatet werden. Ein komplett zentrales Management
macht einerseits aus Kostengründen und andererseits bei einer relativ statischen Um-
gebung wie dieser keinen Sinn. Ein komplettes zentrales Management wie zum Beispiel
Unified Computing System Director bedeutet einerseits einen hohen Kostenfaktor in der
Anschaffung und andererseits einen hohen Kostenfaktor in der Implementierung. Ein
komplettes zentrales Management wird nur in sehr dynamischen Umgebungen wie zum
Beispiel bei Service Providern oder Enterprise Unternehmen kostendeckend betrieben.

Abbildung 21: Schematische Darstellung der Lösung inkl. Management und Reporting

Es gibt somit eine deutliche Reduktion der Management-Punkte und alle vier Bereiche
können zentral und eigenständig verwaltet werden. Zudem ermöglicht das zentrale Re-
porting einen raschen Überblick auf den Zustand der kompletten Rechenzentrums-Um-
gebung und man erhält eine grafische Aufbereitung dieser Daten. Die Daten der Server,
Lösungsbeschreibung 41

Storage und Netzwerkkomponenten werden gesammelt und können über einen be-
stimmten Zeitraum hinweg ausgewertet werden.1

Dies ermöglicht dem Infrastruktur-Team frühzeitig auf Engpässe in der virtuellen Umge-
bung aufmerksam zu werden und dementsprechend reagieren zu können. Für den Ein-
satz dieser Software ist ein Upgrade der bestehenden Lizenzen von vSphere Enterprise
Plus auf vSphere Enterprise Plus mit Operationsmanagement notwendig.

Abbildung 22: Schematischer Aufbau Rechenzentrum

In Abbildung 22 ist der schematische Aufbau der Lösung in der Zentrale ersichtlich. Auf-
geteilt in die drei Hardware-Bereiche Storage, Netzwerk und Server.

1 Quellenangabe im Literaturverzeichnis unter VMware (2014): vSphere with Operations Ma-


nagement
Lösungsbeschreibung 42

Außenstellen

Die Infrastruktur wird in den Außenstellen homogenisiert, damit weitere Außenstellen


auch sehr einfach in das bestehende Konzept integriert werden können. Des Weiteren
werden die Außenstellen auch redundant ausgelegt, damit auch hier ein 24x7 Betrieb
gewährleistet ist. Die Redundanz ist hier nicht so hoch wie in der Zentrale, jedoch ist
gewährleistet, dass wenn ein Bereich der Infrastruktur ausfällt, der zweite Bereich die
Last übernimmt und der Betrieb der Produktion und des Lagers ohne Ausfälle weiterlau-
fen kann.

Hier werden klassische Rack-Server mit internen Disks eingesetzt und redundant an das
Netzwerk angebunden. In den Außenstellen ist ein Zugriff via ISCSI auf die Systeme
vorgesehen und deshalb ist in den Außenstellen nur mehr eine LAN-Infrastruktur zu be-
treiben. Die SAN Infrastruktur entfällt hier komplett.

Abbildung 23: Schematische Darstellung der Lösung in den Außenstellen

Eine Außenstelle gleicht somit jeder anderen Außenstelle und vereinfacht den Verwal-
tungsaufwand und den Betrieb um ein Vielfaches. Die Größe der Außenstelle wird nach
dem Bedarf der Ressourcen aufgebaut und kann rasch, flexibel und sehr einfach erwei-
tert werden. Auch neue Standorte können rasch und flexibel nach demselben System
aufgebaut werden.
Lösungsbeschreibung 43

Abbildung 24: Schematische Darstellung der Lösung in den Außenstellen inkl. Manage-
ment
Lösungsbeschreibung 44

Ein Produkt für die Außenstellen wird hier neben den Rack-Servern auch Simplivity sein.
Simplivity ist ein neues Produkt am Data Center Markt und im speziellen sehr gut für
Außenstellen geeignet. Es wäre auch die vSAN (virtuell Storage Area Network) Techno-
logie von VMware für dieses Konzept möglich, jedoch benötigt man für vSAN mindes-
tens drei Server pro Lokation und dies wäre für kleinere Außenstellen zu groß dimensi-
oniert.

Abbildung 25: Außenstellen schematisch

Ein großer Vorteil für das Infrastruktur-Team ist, dass der Management-Teil von VMware
auch gleichzeitig das Management von Simplivity ist. Somit bedarf es hier keiner zusätz-
lichen Software für das Management der kompletten Außenstelle.

5.1 Server
Als Blade-Server-Lösung ist das Cisco UCS Unified Computing System vorgesehen. Pro
Standort wird eine UCS-Instanz installiert, die sowohl die Blade-Server als auch Rack-
Server verwalten kann.

Die Anbindung an das Ethernet-Netzwerk und an das SAN übernehmen die Fabric In-
terconnect (FI). Über die Fabric Interconnect erfolgt auch das Management der UCS-
Umgebung. Alle Komponenten der Fabric Interconnect als auch der Chassis sind voll-
kommen redundant ausgelegt, ebenso die Anbindung an SAN und LAN.
Lösungsbeschreibung 45

Abbildung 26: UCS Blade Infrastruktur

Als Blade-Server sind 2 Sockel Systeme Typ CISCO B200M4 für SAP und für VMware
vorgesehen. Die genaue Aufstellung kann der Stückliste entnommen werden. Es werden
Prozessoren der neuesten Intel CPU Generation verwendet. Jeder Server verfügt über
bis zu 80Gbit ETH/FCoE und kann derzeit auf bis zu 768GB RAM erweitert werden.
Eine UCS-Instanz ist in der Lage bis zu 160 Server zu verwalten, somit sind auch genü-
gend Ressourcen für einen Ausbau vorhanden. 2

Abbildung 27: UCS Aufbau für Zentrale

Der Aufbau für die Zentrale sieht in Summe vier Fabric Interconnect und vier Chassis
vor, die mit jeweils 80Gbit an die FI angebunden sind. Ein FI-Pärchen wird über den
Cisco UCS Manager verwaltet, für das standortübergreifende Management wird Cisco

2 Quellenangabe im Literaturverzeichnis unter Cisco (2014): Server - Unified Computing.


Lösungsbeschreibung 46

UCS Central verwendet. Am FI sind 32 Unified Ports verfügbar. Unified bedeutet in die-
sem Fall, dass diese Ports so konfiguriert werden wie diese gerade benötigt werden
(Ethernet, FC oder FCoE).

Pro Standort sind 11 Server in unterschiedlicher Ausstattung vorgesehen. Die Server


sind redundant ausgelegt, damit jeder Standort die volle Last bei einem Ausfall überneh-
men kann. In den Servern ist auch ein Virtuell Interface Card (VIC) verbaut, welche mit
40Gbit Durchsatz arbeitet. Diese Karte kann nach Bedarf konfiguriert werden (LAN,
SAN) und beinhaltet ebenfalls ein automatisches Bandbreitenmanagement. Somit kön-
nen rasch und flexibel neue Anforderungen abgedeckt werden.

Rack-Server können optional in das UCS-System integriert werden. Damit ist eine Ver-
waltung der Rack-Server ident zu den Blade-Servern möglich. Die Rack-Server erhalten
damit 10Gbit Ethernet und FC-SAN über FCoE.

5.2 Storage
Für das Storage System wird eine EMC VNX5400 Unified verwendet. Dies ist ein Sto-
rage-System der neuesten Generation. Um die Redundanz im Standort und über beide
Standorte hinweg zu erhalten, wurde die EMC VPLEX Lösung eingesetzt.

Abbildung 28: Schema Storage


Lösungsbeschreibung 47

In der Abbildung 28 ist ersichtlich, dass alle Pfade redundant ausgelegt werden, auch
die VPLEX und das Storage in sich sind redundant. Jedes EMC VNX Storage beinhaltet
zwei Storage Controller und auch die VPLEX ist am Standort durch zwei Storage Direc-
toren redundant ausgelegt. Das Storage-System und auch die VPLEX Lösung kann ein-
fach und flexibel erweitert werden. Die Daten werden zwischen den beiden Standorten
über die VPLEX synchron gespiegelt, sodass auf die Daten in jedem der beiden Rechen-
zentren aktiv zugegriffen werden kann. Dies bedeutet ein unterbrechungsfreies Um-
schalten im Fehlerfall zwischen den beiden Rechenzentren und diese Funktion ermög-
licht auch unterbrechungsfreie Wartungen im laufenden Betrieb.

Für die Konfiguration der Redundanz wird das Management der VPLEX verwendet. Für
die Storage-Konfiguration wird das Management des Storage-Systems herangezogen.

Abbildung 29: Storage Pools

Um die geforderten Performance-Werte für die Lösung zu erhalten, wurden drei ver-
schiedene Storage Pools definiert (SAPSQL, VMware und Other). Beim SAPSQL Pool
wurde auf sehr hohe Performance wertgelegt und es sind nur Flash-Disks und SAS-
Disks in diesem Pool enthalten. Der VMware Pool ist ebenfalls ein Performance Pool mit
Flash-Disks, SAS-Disks und auch langsamen Nearline(NL)-SAS ‚ Disks. Für Kapazitäts-
anforderungen für Applikationen die keine hohen Performance-Anforderungen haben,
wurde ein Pool (Other) mit SAS-Disks und NL-SAS Disks eingerichtet.

Durch das automatische Tiering zwischen den Disks, werden die Daten je nach Verwen-
dungsgrad von der einen Disk auf eine andere Disk verschoben. Dadurch wird der Zugriff
auf die Daten beschleunigt oder verlangsamt. Dies hat den Vorteil dass „heiße Daten“ ,
auf die häufig zugegriffen wird, auf schnelleren Disks liegen und Daten, die immer weni-
ger im Zugriff sind sich auf langsameren Disks befinden.
Lösungsbeschreibung 48

Hot-Spar-Disks wurden ebenfalls in die Konfiguration aufgenommen, damit bei einem


Ausfall einer Disk bzw. einem Defekt einer Disk das Hot-Spare-Device einspringt und
der Betrieb gewährleistet ist.

Abbildung 30: Storage Pool Information im Detail

Die Aufteilung der Storage Pools inklusive der Kapazitätsangaben, der verwendeten
Disks und der IOPS Werte sind in Abbildung 30 angeführt. Alle drei Pools sind Mixed-
Pools und somit wird das automatische Storage Tiering des Systems verwendet. Die
Pools wurden nach Best-Practice-Vorgaben des Herstellers konfiguriert und mit unter-
schiedlichen Disks und unterschiedlichen RAID-Levels (Redundant Array of Indepen-
dent Disks) definiert.3

Abbildung 31: Überblick der Storage Kapazität

Die Nettokapazität des Storage-Systems beträgt rund 94TB. Im System selbst ist auch
eine Reserve für 20% Reserve Snapshots eingeplant. In der Abbildung 29 wird eine Ka-
pazität von 12,98% angeführt, dies ist jedoch auf die Raw-Daten (Rohdaten) bezogen
und somit ist darin kein Abzug durch RAID-Schutz oder anderen Overhead innbegriffen.
Weiter findet man hier auch die Anzahl der der Disks im System (107). Das VNX5400

3 Quelle im Literaturverzeichnis unter EMC (2014): EMC VNX Unified best practices for perfor-
mance
Lösungsbeschreibung 49

System kann bis auf 250 Disks erweitert werden, deshalb wurde dieses System gewählt.
Eine VNX5200 würde für den derzeitigen Betrieb ausreichen, jedoch wäre der Ausbau
mit maximal 125 Disks begrenzt.

Die angeführten Angaben sind jeweils für ein System gedacht. Ein zweites identes Sys-
tem wird für den zweiten Standort vorgesehen.

5.3 Netzwerk Rechenzentrum


Für diese Anforderung wird es keine getrennte Hardware für das SAN und das LAN
geben. Durch die Unified-Fabric-Lösung von Cisco ist es möglich, beide Anforderungen
auf derselben Plattform laufen zu lassen. Ähnlich wie bei den FI vom Cisco UCS System
sind hier die Ports ebenfalls Unified, und können nach Bedarf konfiguriert werden.

Für die SAN und LAN-Infrastruktur ist eine klassische Zwei-Fabric-Lösung vorgesehen.
Pro Standort ist als Core Switch je Fabric der CISCO NEXUS 5672UP mit 16x Unified
Ports und 32x 10GB Ports vorgesehen. Die Anzahl der Unified-Ports lässt sich mit Li-
zenzen je nach Bedarf erweitern. Für die Umsetzung werden Technologien wie Virtual
Port Channel (VPC) eingesetzt und ermöglichen ein unterbrechungsfreies Umschalten
bei einem Ausfall der Komponenten. Dies wurde nach den Best Practise Vorgaben ge-
löst. 4

Für die Verbindung zwischen den Standorten werden die bereitgestellten Verbindungen
genutzt. Die einzelnen Verbindungen werden zu einem SAN-Port-Channel Trunk zusam-
mengefasst, um eine Erhöhung der Bandbreite zu erreichen. Die Blade- und optional
die Rack-Server werden über die Fabric Interconnect direkt an die Nexus angeschlos-
sen, sowie auch das Storage-System inklusive VPLEX direkt an die Nexus angebunden
wird.

4 Quellenangabe im Literaturverzeichnis unter CISCO (2014): Cisco NX-OS Software Virtual Port-
Channel: Fundamental Concepts 5.0.
Lösungsbeschreibung 50

Die Switches innerhalb eines Standortes und auch des Rechenzentrums übergreifend
werden mit 40GBit Ethernet sowie auch mit 8GBit FC angebunden.

Des Weiteren ist es möglich, sogenannte Fabric Extender direkt an die Nexus anzu-
schließen. Hier kann man beispielsweise zusätzliche 1GBit bzw. 10GBit Switche an-
schließen, die auch zentral vom Nexus 5000 verwaltet werden. Das Management erfolgt
pro Standort zentral für die LAN- und die SAN-Umgebung.

5.4 Außenstelle
In den Außenstellen werden Cisco Catalyst 10GBit Switches eingesetzt. Um bei kleinen
und großen Außenstellen denselben Aufbau und dieselbe Hardware verwenden zu kön-
nen, werden hier WS-C4500X eingesetzt. Dieser Switch ist ebenfalls mit 10GBit ausge-
stattet und kann auch Core-Switch Funktionen übernehmen. Über das Virtual Switching
System (VSS) wird hier ebenfalls für die entsprechende Redundanz gesorgt und beide
Switche werden über dasselbe Management konfiguriert.

Abbildung 32: Außenstelle klein

Für kleine Außenstellen wird die Infrastruktur redundant in einem Rack (Raum) betrie-
ben. Simplivity virtualisiert hierbei den kompletten Datastore und verteilt die Daten re-
dundant auf beide Systeme. Das Management von Simplivity erfolgt über ein Plug-In im
VMware vCenter. Und man kann alle Außenstellen auf einer gemeinsamen Oberfläche
verwalten. Bei größeren Außenstellen oder Außenstellen mit der Möglichkeit die Kom-
ponenten getrennt unterzubringen, schaut dies wie folgt aus:

Abbildung 33: Außenstelle groß

Auch eine Erweiterung ist sehr einfach und man kann weitere Simplivity Knoten in die
bestehende Umgebung integrieren. Die Verwaltung erfolgt jedoch immer von derselben
Stelle aus. Für den Ausbau sind weitere 10Gbit Ports notwendig. Der gesamte Transfer
Lösungsbeschreibung 51

der Daten geht über diese 10Gbit Port. Simplivity wird auf Cisco Rack-Server betrieben
und es muss kein weiterer Hardware-Hersteller mit ins Konzept aufgenommen werden.

Eine weitere Bereicherung ist die Deduplizierung und Kompression der Daten, die es
ebenfalls ermöglicht, Snapshots auf den Systemen ohne spürbaren Kapazitätsverlust zu
erstellen.

Abbildung 34: Replikation Simplivity

Durch die Deduplizierung und Komprimierung der Daten ist es möglich, auch WAN- op-
timiert diese Daten zu übertragen und somit ein Backup bzw. einen Snapshot rasch und
bandbreitenoptimiert in eine andere Außenstelle zu übertragen und gegebenenfalls dort
die virtuelle Maschine zu starten. Auch diese Funktionen werden zentral über das vCen-
ter verwaltet.

Somit ist dies auch eine Ergänzung für das derzeitige Backup.
Lösungsbeschreibung 52

5.5 Sonstiges

5.5.1 SAP HANA


SAP HANA darf in der Umgebung der Zentrale auch als Tailored Datacenter Infrastruc-
ture (TDI) betrieben werden. Normalerweise ist die SAP HANA Infrastruktur eine Insel in
der internen IT-Umgebung, jedoch darf man die SAP HANA Infrastruktur auch mit der
Rechenzentrum-Infrastruktur gemeinsam betreiben und vorhandene Ressourcen teilen,
wenn bestimmte Voraussetzungen zutreffen.

Abbildung 35: SAP HANA Vergleich Appliance mit TDI5

Dies ermöglicht einen kosteneffizienteren Betrieb der Infrastruktur, da zum Beispiel die
Ressourcen wie Netzwerk oder Server gemeinsam verwendet werden können. Dies trifft
zum Beispiel auf die Cisco Nexus und Cisco Blade Infrastruktur zu, beide Systeme sind
für eine TDI Umgebung zertifiziert. Auch das EMC Storage-System ist für HANA zertifi-
ziert. Hier ist jedoch vor der Inbetriebnahme zu prüfen, ob die vorhandenen Ressourcen
ausreichen oder ob Plattenplatz erweitert werden muss.

5.5.2 Virtuelle Desktop Infrastruktur (VDI)


Für eine VDI-Umgebung gilt fast dasselbe wie für die SAP HANA-Umgebung. Es können
alle Infrastruktur-Bereiche auch für eine VDI-Umgebung genutzt werden. Hier bedarf es
lediglich an Rechenleistung und an Speicherkapazität, die auszubauen ist. Aufgrund des
Deduplizierungs-Mechanismus von Simplivity ist das System auch hervorragend für eine

5 Quellenangabe im Literaturverzeichnis unter SAP (2015) SAP HANA System Landscape


Lösungsbeschreibung 53

Desktop-Virtualisierung geeignet. Ein weiterer interessanter Aspekt ist, dass die VDI-
Umgebung in der Zentrale auch gleichzeitig das Backup für alle Außenstellen ist.

Abbildung 36: VDI Umgebung mit Simplivity inkl. Backup für Außenstellen

Die Simplivity-Knoten werden für die Desktop-Virtualisierung genutzt und können auch
an die bestehenden FI angeschlossen werden, da es sich um Cisco Rack-Server han-
delt. Das Backup für die Außenstellen kann so über das WAN in die Zentrale geschoben
werden. Das Management erfolgt nach wie vor über das vCenter.

Dies ist eine effiziente Lösung, um mit einer VDI-Umgebung gleichzeitig auch einen
Mehrwert für das Backup der Außenstellen bieten zu können.

5.6 Kriterienkatalog
Es wurde zusätzlich ein Kriterienkatalog mit Anforderungen erstellt. Der Kriterienkatalog
ist unter Anhang B ersichtlich und in folgende Bereiche unterteilt:

A) Allgemein
B) Server
C) Storage
D) Netzwerk
Projektablauf 54

6 Projektablauf
Um dieses Konzept umzusetzen, wird ein Projektablaufplan erstellt. Der Ablaufplan be-
inhaltet Teile des Auftragnehmers(AN) sowie Teile des Auftraggebers(AG), aber auch
Teile, die teilweise zusammen erarbeitet werden. Der Ablaufplan sieht wie folgt aus:

Abbildung 37: Projektablaufplan

Um zu bestimmen wer für die einzelnen Punkte verantwortlich ist, wurden die einzelnen
Bereiche unterteilt. Pro Bereich wurde eine Tabelle erstellt. In diesen Tabellen sind die
einzelnen Leistungen angeführt und pro Leistung wird definiert, unter welcher Verant-
wortung dieser Bereich steht.

In vielen Bereichen ist es erforderlich, dass der AG den AN in seiner Tätigkeit bei Instal-
lation und Planung unterstützt. Der AG ist mit den internen Anforderungen bestens ver-
traut und übernimmt zu einem großen Teil die Kommunikation mit den Software Part-
nern.

6.1 Detail-Design
Ziel der Phase Detail Design ist die Erstellung genauer Installationspläne sowie eines
Installationskonzepts.

Leistung im Rahmen des Detail-Designs AN AG

Gemeinsame Designerstellung • ◦

Erstellen und Befüllen einer Installationscheckliste • ◦


auf Basis des festgelegten Designs inkl. Berück-
sichtigung folgender Anforderungen: Terminplan,
Topologie, Netzplan, IP-Adress-Plan, VLAN-Plan,
kundenspezifische Rahmenbedingungen;

Diskussion der Installationscheckliste und Be- • ◦


schreibung des Migrationsvorgehens

Definition der Abnahmekriterien • •


Projektablauf 55

Abstimmung und Freigabe des Terminplans mit re- •


levanten MitarbeiterInnen sowie LieferantenInnen

• = verantwortlich; ◦ = unterstützt

6.2 Installation
Ziel der Phase Installation ist eine vollständig installierte Umgebung als Basis für die
Tests.

Leistung im Rahmen der Installation AN AG

Installation, Einrichtung und Überprüfung der defi- • ◦


nierten Komponenten

Einbauen der HW-Komponenten inkl. Verkabelung •

Beschriftung der HW-Komponenten und Verkabe- •


lung

Systemkonfiguration auf Basis der Installations- •


checkliste

Entsorgung der Verpackungsmaterialien •

Entsorgung der Alt-Komponenten •

Bereitstellung von Kleinmaterialien (Käfigmuttern, •


Kabelbinder, etc.)

• = verantwortlich; ◦ = unterstützt

6.3 Testing
Ziel der Phase Testing ist ein erfolgreich abgeschlossener Funktionstest.

Leistung im Rahmen Testing AN AG

Vorstellung der Standard-Testszenarien des AN •

Erstellung weiterer kundenspezifisch erforderlicher •


Testszenarien
Projektablauf 56

Durchführung der Tests, Auswertung der Ergeb- • ◦


nisse, Anpassung der Konfiguration

Nacharbeitung zur Detailanpassung zum Errei- •


chen der Anforderungen

Bestätigung erfolgreicher Tests und Abnahme der •


installierten Komponenten

• = verantwortlich; ◦ = unterstützt

6.4 Integration und Migration


Ziel der Phase Integration & Migration ist die Übertragung der definierten Services auf
die neuen Komponenten.

Leistung im Rahmen Integration und Migration AN AG

Backup der zu migrierenden Daten •

Koordination der Down Time und Einholung erfor- •


derlicher Change Freigaben

Übertragung der virtuellen und physikalischen Ser- • ◦


ver auf die neue Infrastruktur

Durchführung der Datenmigration • ◦

Übergangsphase von alter auf neue Backuplösung ◦ •

Prüfung der vollständigen Migration •

• = verantwortlich; ◦ = unterstützt

6.5 Dokumentation und Training


Ziel der Phase Dokumentation & Training ist, dass das Infrastruktur-Team in der Lage
ist, die Systeme selbständig zu betreuen. Deshalb ist es wichtig, dass diese Phase wäh-
rend des gesamten Projektes bis zum Livebetrieb parallel aufgesetzt ist.

Leistung im Rahmen Dokumentation und Trai- AN AG


ning

Erstellung einer Konfigurationsbeschreibung •


Projektablauf 57

Durchführung eines Trainingstages mit folgenden • ◦


Inhalten
- Erklärung der Konfiguration im Überblick

- Erklärung der wesentlichen Betriebsaufgaben

Erstellung einer Beschreibung der wesentlichen ◦ •


Betriebsaufgaben

Schulung weiterer Mitarbeiter, wenn notwendig •

• = verantwortlich; ◦ = unterstützt

6.6 Abnahme
Ziel der Phase Abnahme ist, dass das System durch den AG abgenommen wurde.

Leistung im Rahmen der Abnahme AN AG

Erstellung des Abnahmedokuments • ◦

Schriftliche Freigabe der Abnahme •

• = verantwortlich; ◦ = unterstützt

6.7 Go Live und Hypercare Support


Ziel der Phase Go Live & Hypercare Support ist die Unterstützung des Auftraggebers
im definierten Umfang bei unerwarteten Ereignissen.

Leistung im Rahmen Go Live und Hypercare AN AG


Support

Einleitung des Regelbetriebs ◦ •

Durchführung laufender Betriebsaufgaben ab Go- ◦ •


Live

Bereitstellung eines Support Engineers innerhalb •


der ersten 3 Tage im Umfang von 8 Stunden zur
Unterstützung bei Problemen

• = verantwortlich; ◦ = unterstützt
Projektablauf 58

6.8 Projektmanagement
Es besteht die Möglichkeit einen Projektmanager zur Verfügung zu stellen, der in seiner
Funktion den gesamten Ablauf begleitet. Er unterstützt den Auftraggeber bei Definition,
Entwicklung und Umsetzung der einzelnen Bereiche.

Leistung im Rahmen Projektmanagement AN AG

Erstellung eines Projektleitdokuments (PLD) • ◦


- Projektziele, Inhalte, Nichtinhalte, Rahmenbedin-
gungen, Lösungsansatz, Liefereinheiten (Pro-
dukte inkl. Abnahmekriterien), Erstellung Projekt-
plan / Phasenplan, Risikoliste, Qualität, Steue-
rungselemente

Abstimmung PLD mit beteiligten Projektteams auf • •


Kunden- und Lieferantenseite

Abnahme des PLD durch Lenkungsausschuss •

Steuerung des Projektes im zeitlichen Rahmen • ◦

Abhalten von regelmäßigen Projektmanagement • ◦


Statusmeetings inkl. Erstellung von Statusberich-
ten

Erstellung von Arbeitspaketen und Kommunikation • ◦


an ProjektmitarbeiterInnen

Erstellung von Phasenplan vor Start einer Phase • ◦

Identifizierung von Risiken, Ableiten von Gegen- • •


maßnahmen und Unterstützung zur Risikovermei-
dung (Risikomanagement)

Review Einhaltung des PM-Standards • ◦

Managing von Projektissues (z.B.: Änderung der • ◦


Anforderung)

Managing von Projektausnahmen (z.B.: Abwei- • ◦


chung vom geplanten Termin)

Kommunikationsschnittstelle zwischen Projekt- • ◦


team und Lenkungsausschuss
Projektablauf 59

Koordination der vom Kunden bereitgestellten Mit- •


arbeiterressourcen

Koordination mit weiteren Lieferanten (beauftragt •


durch Kunden)

• = verantwortlich; ◦ = unterstützt
Rahmenbedingungen und Kostenübersicht 60

7 Rahmenbedingungen und Kostenübersicht

7.1 Leistungen des Auftraggebers


7.1.1 Voraussetzung für Detail-Design

Folgende Informationen für das Detail-Design sind zur Verfügung zu stellen:


- Bestehenden Netzwerkpläne über logische Topologie und physikalische Topologie
- Detailpläne über IP-Adressierung und Services
- Verkabelungsplan
- Server/Storage: definierte Architekturstandards des Kunden (Protokolle, Feature-
Verwendung)
- Details über die eingesetzte Software
7.1.2 Voraussetzung für die Inbetriebnahme

Folgende Voraussetzungen für die Inbetriebnahme sind durch den Auftraggeber bereit-
zustellen:
- Strom, Kühlung und ausreichend Rack-Space (mind. 1m Einbautiefe)
- Physikalische Verkabelung
- Zugriff zu internen Systemen bzw. vollwertiger Remote-Zugang (kein Zugriff auf Ac-
tive Directory)
- Zugang zum Rechenzentrum
- Mitarbeiter des Auftraggebers mit Administratorrechten auf relevanten Drittsystemen
- Projektplan für die Gesamtumstellung / Erweiterung / Anpassung des Systems
- Koordinator vor Ort; d.h. ein Hauptverantwortlicher beim Auftraggeber

7.2 Nicht-enthaltene Leistungen


Folgende Leistungen sind prinzipiell nicht im Leistungsumfang enthalten:
- vollständig und zeitgerecht vorbereitete physikalische Infrastruktur als Basis für eine
reibungslose Inbetriebnahme: Verkabelung, Herstellen der Umgebung
- Steuerung von Drittlieferanten
- Überarbeitung der bestehenden Dokumentation des Kunden
- Dokumentation der Verkabelung, des Rack-Layouts
- Backup der Konfiguration
- Generell das Backup der Umgebung
- Drittkomponenten:
o Konfigurationen von Drittkomponenten
o Installation von Drittkomponenten
o Behebung von Fehlern auf Drittkomponenten
- Beschreibung von Standardfunktionen in der Installationsbeschreibung
- Migration von Applikationen
- Patchen von Applikationen
- Strukturierte Verkabelung (zum Beispiel Rack-to-Rack)
- Durchführung von erforderlichen Produkt-Trainings für die Administration
- Wartung der Komponenten nach Hypercare, sofern nicht explizit kommerziell ange-
boten
Rahmenbedingungen und Kostenübersicht 61

7.3 Kostenübersicht

7.3.1 Komponenten, Support und Dienstleistung für Zentrale


Bereich Leistungsumfang Summe

Server-Infrastruktur 2x Cisco Unified Computing System € 269.701,00

4x Fabric Interconnect, 4x Chassis

22x Blade Server M4 in diversen Varianten

Storage-Infrastruktur 2x VNX5400 inklusive VPLEX und Datamo- € 352.400,00


ver
11x 800GB SSD, 26x 600GB SAS, 20x
900GB SAS, 29x 1,2TB SAS, 18x 2TB NL-
SAS, 18x 4TB NL-SAS
94TB Nettokapazität und 20% Snapshot Re-
serve

Netzwerk-Infrastruk- 4x Cisco Nexus 5672 € 56.772,00


tur
4x 40GB SFP (bis zu 2 Kilometer Reichweite)

Wartung 24x7x4 Vor-Ort Support auf alle Komponen- € 203.442,00


ten
Laufzeit 60 Monate

Dienstleistung Detail-Design 2 Personentage € 29.120,00


Installation 6 Personentage
Testing 2 Personentage
Integration & Migration 5 Personentage
Dokumentation & Training 2 Personentage
Abnahme 1 Personentag
Go Live & Hypercare 3 Personentage
Projektmanagement 5 Personentage

GESAMTSUMME € 911.435,00
Rahmenbedingungen und Kostenübersicht 62

7.3.2 Komponenten und Support für Außenstellen


Bereich Leistungsumfang Summe

Außenstelle 1

Server-Infrastruktur 2x Cisco Rackserver C240 € 56.314,00

2x Simplivity Hardware und Software

Storage-Infrastruktur Inkludiert in der Position Server-Infrastruktur

Netzwerk-Infrastruk- 2x Cisco Catalyst 4500-X € 14.326,00


tur

Wartung 8x5x Next Business Day Support auf alle € 15.378,00


Komponenten
Laufzeit 60 Monate

SUMME Außenstelle 1 € 86.018,00

Außenstelle 2

Server-Infrastruktur 2x Cisco Rackserver C240 € 88.904,00

2x Simplivity Hardware und Software

Storage-Infrastruktur Inkludiert in der Position Server-Infrastruktur

Netzwerk-Infrastruk- 2x Cisco Catalyst 4500-X € 14.326,00


tur

Wartung 8x5x Next Business Day Support auf alle € 19.678,00


Komponenten
Laufzeit 60 Monate

SUMME Außenstelle 2 € 122.908,00

Außenstelle 3

Server-Infrastruktur 2x Cisco Rackserver C240 € 56.314,00

2x Simplivity Hardware und Software

Storage-Infrastruktur Inkludiert in der Position Server-Infrastruktur

Netzwerk-Infrastruk- 2x Cisco Catalyst 4500-X € 14.326,00


tur

Wartung 8x5x Next Business Day Support auf alle € 15.378,00


Komponenten
Laufzeit 60 Monate

SUMME Außenstelle 3 € 86.018,00


Rahmenbedingungen und Kostenübersicht 63

Außenstelle 4

Server-Infrastruktur 2x Cisco Rackserver C240 € 88.904,00

2x Simplivity Hardware und Software

Storage-Infrastruktur Inkludiert in der Position Server-Infrastruktur

Netzwerk-Infrastruk- 2x Cisco Catalyst 4500-X € 14.326,00


tur

Wartung 8x5x Next Business Day Support auf alle € 19.678,00


Komponenten
Laufzeit 60 Monate

SUMME Außenstelle 4 € 122.908,00

Außenstelle 5

Server-Infrastruktur 2x Cisco Rackserver C240 € 88.904,00

2x Simplivity Hardware und Software

Storage-Infrastruktur Inkludiert in der Position Server-Infrastruktur

Netzwerk-Infrastruk- 2x Cisco Catalyst 4500-X € 14.326,00


tur

Wartung 8x5x Next Business Day Support auf alle € 19.678,00


Komponenten
Laufzeit 60 Monate

SUMME Außenstelle 5 € 122.908,00

GESAMTSUMME € 540.760,00
Fazit 64

8 Fazit
Es wurde in diesem Dokument ein neues Design für den zentralen Standort erarbeitet
und umgesetzt. Die Komponenten und das Design erfüllen die Ansprüche, welche in
verschiedenen Methoden durch Umfragen und Gesprächen ermittelt wurden. Auch die
derzeitige Situation wurde festgehalten und analysiert.

Die Virtualisierung wurde durch Vorgaben des Auftraggebers hier nicht näher erläutert,
da diese nicht Teil des neuen Konzeptes werden sollte.

Das Konzept für die Außenstellen ist genau das, was sich das IT-Infrastruktur-Team er-
wartet, jedoch ist dieses Konzept preislich näher zu betrachten. Es muss dem gegen-
übergestellt werden, welchen Mehrwert ein solches System auch im täglichen Betrieb
hat und welche Kosten dadurch eingespart werden können. Derzeit ist das Konzept zwar
sehr flexibel und dynamisch, jedoch sind die Kosten meines Erachtens ohne nähere in-
terne Kalkulation zu hoch.

Im Vordergrund stehen sowohl in der Zentrale als auch in den Außenstellen, die Redun-
danz, das Management und die einfache Erweiterung. Gleichzeitig wurden neue As-
pekte wie SAP HANA und VDI mit einbezogen und erörtert. Die Infrastruktur wurde fle-
xibel geplant und durch Detailzeichnungen (siehe Anhang C) ergänzt, um diese in wei-
terer Folge umzusetzen. Ebenso wurde auch ein Phasenplan mit verschiedenen Berei-
chen erstellt, um ein zufriedenstellendes Ergebnis zu erreichen.

Dieses Dokument dient als Grundlage für weitere Projekte im Rechenzentrumsbereich,


bei denen in gleicher Weise vorgegangen werden kann.
Anhang A: Abstimmung der Ziele 65

Anhang A: Abstimmung der Ziele


Bewertung Auswertung IT-Leiter ITIT Leiter

(Noten 1 bis 5, 1 sehr zutreffend … 5 nicht zutreffend)


Allgemeine Fragen
Die Zufriedenheit mit der derzeitigen Inf-
rastruktur ist nicht bzw. nur teilweise ge- 1 2 1
geben
Die Zufriedenheit mit der derzeitigen Inf-
rastruktur der Außenstellen ist nicht ge- 1 1 1
geben
Zentralisierung und Vereinfachung des 2 1 2
Managements in allen Bereichen
Flexible Struktur, um neue Anforderun- 2 2 3
gen rasch abdecken zu können
Auslegung der IT-Infrastruktur für min. 2 2 2
drei Jahre
24x7 Support für alle Teile der Infra- 2 1 1
struktur inkl. Vor-Ort-Unterstützung
First Level Support wird weiterhin durch 1 2 1
die IT-Abteilung erbracht
Auslagerung des Betriebes an Dritte ist 2 1 1
nicht erforderlich
Virtuelle Desktops werden in Zukunft 4 1 3
eingeführt, dies ist zu berücksichtigen
Redundanz in der Zentrale soll ausge- 1 1 1
baut werden
SAP HANA wird eingeführt und soll be- 3 2 3
rücksichtigt werden
Testumgebungen sollen einfach um- 3 2 1
setzbar sein
Kriterienkatalog für das zentrale Re-
chenzentrum wird erstellt und die Eck- 4 1 1
daten festgehalten
Upgrades, Erweiterungen, Patches
müssen im laufenden Betrieb möglich 2 1 1
sein
Server
Verwaltung und Management der Ser- 2 1 1
ver verbessern
Architekturwechsel von Rack- auf 2 2 2
Blade-Server
Einfache Erweiterbarkeit im laufenden
1 2 1
Betrieb
Geringe Down Times bei Updates/Up- 2 2 1
grades - evtl. Automatisierung
Anhang A: Abstimmung der Ziele 66

Komponenten innerhalb eines Rechen- 2 1 1


zentrums redundant auslegen
Anbindung mit min. 2x10Gbit Ethernet 2 2 2
und 2x8Gbit FC
Genügend Platz für Erweiterungen vor-
2 2 2
sehen
Storage
Redundanz innerhalb des Rechenzent-
rums und Redundanz über beide Re- 1 1 1
chenzentren hinweg
Verwaltung und Management über eine 2 3 2
zentrale Oberfläche
Einfache Erweiterbarkeit im laufenden
2 2 1
Betrieb
Neuer Hersteller im Storage Bereich
2 1 3
möglich
Protokolle und Zugriffe müssen gleich
2 2 1
bleiben
Rechenzentrums-Netzwerk
Einfache Verwaltung über beide Re- 2 1 1
chenzentren hinweg
Netzwerk min. 10 Gbit und zwischen 2 3 2
den Rechenzentren Ausbau auf 40Gbit
Redundante Komponenten innerhalb 1 1 1
des Rechenzentrums
SAN mit min. 8GB auslegen 3 2 2
Reduktion der Hardware-Komponenten 3 1 2
Strategische Ausrichtung im Netzwerk 2 1 1
ist Cisco innerhalb des Unternehmens
Virtualisierung
Kernkomponente im derzeitigen Betrieb 1 1 1
und auch keine Änderung notwendig
Alle Bereiche sind sehr zufrieden damit 1 1 1
Ausbau des Monitorings in diesem Be-
2 3 3
reich
VMware wird beibehalten 1 1 1
Außenstellen
Ähnliches Konzept wie in der Zentrale 3 2 2
anwenden
Standorte sollen in sich redundant aus- 3 1 1
gelegt werden
Reduktion der Hardware-Komponenten 1 2 2
Anhang B: Kriterienkatalog 67

Anhang B: Kriterienkatalog
Lfd.Nr. Kriterium (K) VORGABE ANTWORT
A Allgemein
A.1 Die Lösung ermöglicht die Virtuali-
sierung sämtlicher Server und des Ja/Nein JA
gesamten Storage
A.2 Automatische Verteilung der Daten
bei Erweiterung auf Hypervisor o- Ja/Nein JA
der Storage
A.3 Autotiering auf Hypervisor oder JA, auf Storage System
Mid-Storage Ja/Nein
EMC VNX 5400
A.4 Beschreibung der verwendeten Es wird das Autotiering
Autotiering-Technologie der VNX verwendet. Da-
bei werden auf Block
Beschrei- Ebene mit einer Granula-
bung rität von 256MByte die
Daten nach ihrer Nutzung
in den optimalen Tier ver-
schoben.
A.5 Betrieb der Gesamtlösung über
beide Rechenzentren hinweg ohne JA, durch VPLEX Virtuali-
Ja/Nein
Einschränkung möglich sierung
A.6 Vollständige Beschreibung der ge-
samten Architektur Beschrei- JA, im Kapitel Lösungs-
bung beschreibung
A.7 Beschreibung, wie die Performance Kurzfristige Spitzen wer-
des Systems generell und zum Ab- den durch den adaptiven
fangen kurzzeitiger Spitzen sicher- Beschrei- Cache der VNX in Zu-
gestellt wird bung sammenhang mit den
Flash-Disken abgefan-
gen.
A.8 Die Lösung ermöglicht den kom-
plett redundanten Vollbetrieb an je-
dem einzelnen Standort. Die Lö- JA, im Kapitel Lösungs-
Ja/Nein
sungen besitzen den identischen beschreibung
Funktionsumfang pro Standort.
A.9 Tauglich für Kalt-/Warmgang Kon- JA, alle Komponenten
zept [Ansaugen der Kaltluft = Vor- sind Data Center Kompo-
derseite, Abgabe der Warmluft = Ja/Nein nenten mit Kaltluft= Vor-
Rückseite; bzw. Kaltluftaufnahme derseite und Abgabe =
über Doppelboden] Rückseite
A.10 Eine homogene Konsole für die Ad- Die VNX Systeme werden
ministration aller Speichersysteme Ja/Nein primär über die VPLEX
Gui/CLI administriert.
A.11 Alle Systeme remote administrier-
Ja/Nein JA
bar
A.12 Active Directory Integration möglich Ja/Nein
A.13 Getrennte Netze für Daten und Ma-
nagement Ja/Nein JA
A.14 GUI-Plug In für VMware vCenter Ja/Nein JA
Anhang B: Kriterienkatalog 68

A.15 Erstellen von Langzeitreports mit


konsolidierten Kapazitäts- und Per- Ja/Nein JA
formanceauswertungen möglich
A.16 Alle Lösungskomponenten sind
aufeinander abgestimmt, zertifiziert Ja/Nein JA
oder freigegeben.
A.17 Tausch von Hardwarekomponenten
ohne Down Time möglich Ja/Nein JA
A.18 Tausch von Hardwarekomponenten
ohne Performance-Einbußen mög- Ja/Nein JA
lich
A.19 Firmware Up- oder Downgrade
ohne Down Time der Gesamtlö- Ja/Nein JA
sung möglich
A.20 Die Kompatibilität der Systemkom-
ponenten zu den im Einsatz befind-
lichen Betriebssystemen und Da-
Ja/Nein JA
tenbanken ist gewährleistet.
(Windows Server, VMware, Red-
Hat, SUSE)
B Server
B.1 Max. mögliche Anzahl von
10 GB Ethernet-Ports [Backend] >=4 48 Unified Port pro Switch
B.2 Max. mögliche Anzahl von
4- oder 8 GB FC-Ports [Backend] >=4 48 Unified Port pro Switch
B.3 Max. mögliche Anzahl von 48 Unified Port pro Switch
8/16 GB FC-Ports [Frontend] Anzahl
(8GB)
B.4 Max. Anzahl Serverblades pro
Anzahl 8
Chassis
B.5 Höheneinheiten Chassis (Pa-
ckungsdichte) Anzahl 5
B.6 Aufgrund der bestehenden Cisco-
Infrastruktur sollten, wenn für das
Chassis verfügbar, Cisco-Switche Ja/Nein JA
eingebaut werden
B.7 redundante Netzteile Ja/Nein JA
B.8 redundante Lüfter Ja/Nein JA
B.9 Konnektivität der verbauten Blade-
Server erfolgt über interne Switche Ja/Nein JA
B.10 Min. mögliche Anzahl von
10 GB Ethernet-Ports 2 JA
B.11 Min. mögliche Anzahl von
4- oder 8 GB FC-Ports 2 JA
B.12 CPU Sockel pro Bladeserver 2 JA
B.13 max. RAM-Ausstattung pro Blade-
Anzahl max. 768 GB
Server
B.14 Blade-Server aufrüstbar mit Fest-
Ja/Nein JA
platten
B.15 booten über SAN Ja/Nein JA
C Storage
Anhang B: Kriterienkatalog 69

C.1 Das eingesetzte Produkt befindet


sich bereits im produktiven Einsatz Ja/Nein JA
C.2 10 GE Ethernet-Ports (>=4) Ja/Nein JA
C.3 8 GB FC-Ports (>=4) Ja/Nein JA
C.4 16 GB FC-Ports Ja/Nein NEIN
C.5 FCP Ja/Nein JA
C.6 CIFS Ja/Nein JA
C.7 NFS Ja/Nein JA
C.8 FC Ja/Nein JA
C.9 ISCSI Ja/Nein JA
C.10 Snapshots sind möglich Ja/Nein JA
C.11 Synchroner, bidirektionaler Spiegel
[Aktiv/Aktive] Ja/Nein JA
C.12 Für den Host transparenter Failo-
ver-Prozess Ja/Nein JA
C.13 Für den Host transparentes und un- Vergrößern der LUN ist
terbrechungsfreies Vergrößern und möglich, Verkleinern ist
Verkleinern der auf dem Speicher- aus Sicherheitsgründen
Ja/Nein
system abgebildeten LUNs bzw. nicht möglich. Es kann
Volumes aber initial mit Thin LUNs
gearbeitet werden.
C.14 Storage Rebalance bei Erweiterun-
Ja/Nein JA
gen
C.15 Kein Single Point of Failure Ja/Nein JA
C.16 NL SAS Ja/Nein JA
C.17 SAS Ja/Nein JA
C.18 SSD Ja/Nein JA
C.19 Versch. Plattentypen an einem
Controller mischbar Ja/Nein JA
C.20 FCoE JA,mit zusätzlichen IO
Ja/Nein
Module
C.21 iSCSI JA,mit zusätzlichen IO
Ja/Nein
Module
C.22 FC Ja/Nein JA
C.23 SMB V3 Ja/Nein JA
D Netzwerk
D.1 Die Lösung muss im 2 Fabric De- JA, jeweils 2x CISCO
sign aufgebaut sein Ja/Nein
Nexus 5672UP pro Fabric
D.2 Die angebotene Lösung ermöglicht
ein Core-Edge-Design Ja/Nein JA
D.3 Porterweiterungen sind im angebo-
tenen System möglich Ja/Nein Nein, maximal 48Ports
D.4 Kaskadierungen bzw. Erweiterun-
gen durch neue Komponenten Ja/Nein JA
(Switche) ist möglich
D.5 Max. mögliche Anzahl von 8 GB
FC-Ports im Coreswitch Anzahl JA, maximal 48 Ports
D.6 Core-Switch in 16GBits-Technolo-
Anzahl NEIN
gie
Anhang C: Zeichnungen 70

Anhang C: Zeichnungen
Gesamtkonzept Schematisch
Anhang C: Zeichnungen 71

Rack Aufbau
Anhang C: Zeichnungen 72

Cisco UCS Verkabelung


Anhang C: Zeichnungen 73

EMC Storage Verkabelung


Anhang C: Zeichnungen 74

Cisco Nexus Verkabelung


Anhang C: Zeichnungen 75

Außenstellen
Anhang D: Stückliste im Detail 76

Anhang D: Stückliste im Detail


D.1 Stückliste Zentrale
Artikelnummer Produktbezeichnung Anzahl
Server Infrastruktur
Fabric Interconnect
UCS-SP8-B-FI48 (Not Sold Standalone) UCS 6248 FI w/ 12p LIC, Cables 4
Bundle
UCS-PSU-6248UP-AC UCS 6248UP Power Supply/100-240VAC 8
CAB-9K10A-EU Power Cord, 250VAC 10A CEE 7/7 Plug, 8
EU
SFP-H10GB-CU3M 10GBASE-CU SFP+ Cable 3 Meter 16
DS-SFP-FC8G-SW 8 Gbps Fibre Channel SW SFP+, LC 16
SFP-10G-SR 10GBASE-SR SFP Module 16
N10-MGT011 UCS Manager v2.1 4
UCS-ACC-6248UP UCS 6248UP Chassis Accessory Kit 4
UCS-BLKE-6200 UCS 6200 Series Expansion Module Blank 4
UCS-FAN-6248UP UCS 6248UP Fan Module 8
UCS-FI-DL2 UCS 6248 Layer 2 Daughter Card 4
Chassis
UCS-SP-5108-AC2 (Not Sold Standalone) UCS SP BASE 5108 Blade Svr 4
AC2 Chassis
CAB-AC-2500W-EU Power Cord, 250Vac 16A, Europe 16
N01-UAC1 Single phase AC power module for UCS 5108 4
N20-CAK Access. kit for 5108 Blade Chassis incl Railkit, KVM 4
dongle
N20-CBLKB1 Blade slot blanking panel for UCS 5108/single slot 24
N20-FAN5 Fan module for UCS 5108 32
N20-FW012 UCS Blade Server Chassis FW Package 2.2 4
UCSB-5108-PKG-HW UCS 5108 Packaging for chassis with half width blades. 4
UCSB-PSU- 2500W Platinum AC Hot Plug Power Supply - DV 16
2500ACDV
UCS-IOM-2208XP UCS 2208XP I/O Module (8 External, 32 Internal 10Gb 8
Ports)
Server
Server (VMware)
UCSB-B200-M4-U UCS B200 M4 w/o CPU, mem, drive bays, HDD, mezz 10
(UPG)
UCS-CPU-E52680D 2.50 GHz E5-2680 v3/120W 12C/30MB Cache/DDR4 20
2133MHz
UCS-ML-1X324RU-A 32GB DDR4-2133-MHz LRDIMM/PC4-17000/quad 120
rank/x4/1.2v
UCSB-MLOM-40G-03 Cisco UCS VIC 1340 modular LOM for blade servers 10
UCSB-LSTOR-BK FlexStorage blanking panels w/o controller, w/o drive 20
bays
UCSB-HS-EP-M4-F CPU Heat Sink for UCS B200 M4 Socket 1 (Front) 10
UCSB-HS-EP-M4-R CPU Heat Sink for UCS B200 M4 Socket 2 (Rear) 10
Anhang D: Stückliste im Detail 77

Server (Citrix und Testsysteme)


UCSB-B200-M4-U UCS B200 M4 w/o CPU, mem, drive bays, HDD, mezz 5
(UPG)
UCS-CPU-E52680D 2.50 GHz E5-2680 v3/120W 12C/30MB Cache/DDR4 10
2133MHz
UCS-ML-1X324RU-A 32GB DDR4-2133-MHz LRDIMM/PC4-17000/quad 40
rank/x4/1.2v
UCSB-MLOM-40G-03 Cisco UCS VIC 1340 modular LOM for blade servers 5
UCSB-LSTOR-BK FlexStorage blanking panels w/o controller, w/o drive 10
bays
UCSB-HS-EP-M4-F CPU Heat Sink for UCS B200 M4 Socket 1 (Front) 5
UCSB-HS-EP-M4-R CPU Heat Sink for UCS B200 M4 Socket 2 (Rear) 5
Server (Commvault Backup)
UCSB-B200-M4-U UCS B200 M4 w/o CPU, mem, drive bays, HDD, mezz 1
(UPG)
UCS-CPU-E52680D 2.50 GHz E5-2680 v3/120W 12C/30MB Cache/DDR4 1
2133MHz
UCS-ML-1X324RU-A 32GB DDR4-2133-MHz LRDIMM/PC4-17000/quad 4
rank/x4/1.2v
UCSB-MLOM-40G-03 Cisco UCS VIC 1340 modular LOM for blade servers 1
UCSB-LSTOR-BK FlexStorage blanking panels w/o controller, w/o drive 2
bays
UCSB-HS-EP-M4-F CPU Heat Sink for UCS B200 M4 Socket 1 (Front) 1
Server (SAP SQL)
UCSB-B200-M4-U UCS B200 M4 w/o CPU, mem, drive bays, HDD, mezz 2
(UPG)
UCS-CPU-E52637D 3.50 GHz E5-2637 v3/135W 4C/15MB Cache/DDR4 4
2133MHz
UCS-ML-1X324RU-A 32GB DDR4-2133-MHz LRDIMM/PC4-17000/quad 32
rank/x4/1.2v
UCSB-MLOM-40G-03 Cisco UCS VIC 1340 modular LOM for blade servers 2
UCSB-LSTOR-BK FlexStorage blanking panels w/o controller, w/o drive 4
bays
UCSB-HS-EP-M4-F CPU Heat Sink for UCS B200 M4 Socket 1 (Front) 2
UCSB-HS-EP-M4-R CPU Heat Sink for UCS B200 M4 Socket 2 (Rear) 2
Server (SAP Applikationen)
UCSB-B200-M4-U UCS B200 M4 w/o CPU, mem, drive bays, HDD, mezz 4
(UPG)
UCS-CPU-E52667D 3.20 GHz E5-2667 v3/135W 8C/20MB Cache/DDR4 8
2133MHz
UCS-ML-1X324RU-A 32GB DDR4-2133-MHz LRDIMM/PC4-17000/quad 32
rank/x4/1.2v
UCSB-MLOM-40G-03 Cisco UCS VIC 1340 modular LOM for blade servers 4
UCSB-LSTOR-BK FlexStorage blanking panels w/o controller, w/o drive 8
bays
UCSB-HS-EP-M4-F CPU Heat Sink for UCS B200 M4 Socket 1 (Front) 4
UCSB-HS-EP-M4-R CPU Heat Sink for UCS B200 M4 Socket 2 (Rear) 4
Anhang D: Stückliste im Detail 78

Netzwerk Infrastruktur
Nexus
N5K-C5672UP Nexus 5672UP 1RU, 32x10G SFP+, 16pxUP SFP+, 4
6x40G QSFP+
N5672-ACC-KIT Nexus 5672 Chassis Accessory Kit 4
QSFP-H40G-CU1M 40GBASE-CR4 Passive Copper Cable, 1m 4
DS-SFP-FC8G-LW 8 Gbps Fibre Channel LW SFP+, LC 4
CAB-9K10A-EU Power Cord, 250VAC 10A CEE 7/7 Plug, 8
EU
N6KUK9-701N1.1 Nexus 5600/6000 Base OS Software Rel 7.0(1)N1(1) 4
NXA-PAC-1100W Nexus 1100W Platinum PS Forward airflow (Port side 8
outlet)
N6K-C6001-FAN-F Nexus 6001 Fan for Port Side exhaust (Front to Back) 12
airflow
N1K-VLCPU-96- Nexus 1000V Essential Edition Paper Delivery License 4
ESSTL Qty 96
WSP-Q40GLR4L= QSFP 40G Ethernet - LR4 Lite, LC, 2KM 4
Strorage Infrastruktur
VPLEX
VS2-CM8GFC 8 GBIT FC COM MODULES 2
VS2-ENG-BS-FD VPLEX VS2 BASE ENGINE (RACKABLE) 2
VS2-FM8GFC 8GBIT FC FRONT END I/O MODULES 2
VS2-SERVER-FD VPLEX VS2 MANAGEMENT SERVER (RACKABLE) 2
VS2-02-KIT-FD VPLEX VS2 SMALL CONFIG KIT (RACKABLE) 2
VS-MET-VNX VPLEX 1-1 Cont Avail SW Frame TF Lisc=IC 2
ESRS-GW-200 EMC SECURE REMOTE SUPPORT GATEWAY CLI- 2
ENT
VS-OS-GPL3 NP ASSY VPLEX; OS GPLV3 SW; NO CHARGE 2
VS-OS-NONGPL3 NP VPLEX; OS NON GPLV3 SW; NO CHARGE 2
VNX 5400
VNXB54DP25M VNX5400 DPE 25X2.5" DRIVE SLOTS-MIN RA 2
VNXB6GSDAE25F VNXB 25X2.5 6G SAS EXP DAE-FIELD INST 4
VNXB6GSDAE25W VNXB 25X2.5 6G SAS PRI DAE-FIELD INST 2
VNXB6GSDAE15F VNXB 15X3.5 6G SAS EXP DAE-FIELD INST 4
VNXBCSM VNXB CONTROL STATION-MINI RACK 2
VNXBCS2M VNXB 2ND CONTROL STATION-MINI RACK 2
VNXB54DMEM VNX5400 DME: 1 DM+FC SLIC-MINI RACK 2
VNXB54DMM VNX5400 ADD ON DM+FC SLIC-MINI RACK 2
V4-2S10-600 VNX 600GB 10K SAS 25X2.5 DPE/DAE 44
V4-2S10-900 VNX 900GB 10K SAS 25X2.5 DPE/DAE 40
V-V4-260010 VNX 600GB 10K VAULT 25X2.5 DPE/DAE 2
V4-2S6FX-800 VNX 800GB MLC SSD 25X2.5 DAE 22
V4-VS07-020 VNX 2TB NL SAS 15X3.5 DAE 36
V4-2S10-012 VNX 1.2TB 10K SAS 25X2.5 DPE/DAE 58
VNXBDMCBLD2 VNXB CABLE KIT FOR DPE + 2 DM+1 CS 2
C13-PWR-7 2 C13 PWRCORDS W/ CEE7/7 PLUGS 250V 10A 20
Anhang D: Stückliste im Detail 79

RP-LS RECOVERPOINT LICENSE SOLUTION 2


456-104-615 RP/SE LOC FOR LPS V53=IC 2
VNXOE-5400 VNX5400 Operating Environment 2
VNX54-KIT VNX5400 Documentation Kit=IC 2
UNISU-VNX5400 VNX5400 Unisphere Unified Suite=IC 2
ESA-VNX5400 EMC Storage Analytics VNX5400 Suite=IC 2
VSPBM8GFFEA VNXB 4 PORT 8G FC IO MODULE PAIR 4
VNXBOEPERFTB VNXB OE PER TB PERFORMANCE 152
FSTS-VNX5400 VNX5400 FAST Suite=IC 2
SCS-VNX5400 VNX5400 Security & Compliance Suite=IC 2
LPS-VNX5400 VNX5400 Local Protection Suite=IC 2
VDMBMXG2OPA VNXB 10GBE 2 OP MODULE (2 SFP+) 8
VSPBMXGI2A VNXB 2 PT OP 10G ISCSI IO MOD PR-SFP 2
VNXBOECAPTB VNXB OE PER TB HI CAPACITY 72

D.2 Stückliste Außenstellen


Artikelnummer Produktbezeichnung Anzahl
Außenstelle klein (für Außenstelle 1 und 3)
Netzwerk Infrastruktur
Catalyst 4500-X
Catalyst 4500-X 16 Port 10G IP Base, Front-to-Back,
WS-C4500X-16SFP+ No P/S 4
AA-WS-C4500X- NTS - BASIC Cisco Support 8x5xNBD for WS-C4500X-
16SFP+ 16SFP+ 4
Catalyst 4500X 750W AC front to back cooling power
C4KX-PWR-750AC-R supply 4
C4KX-PWR-750AC- Catalyst 4500X 750W AC front to back cooling 2nd
R/2 PWR supply 4
C4500X-IPB IP Base license for Catalyst 4500-X 4
C4KX-NM-BLANK Catalyst 4500X Network Module Blank 4
CAB-CEE77-C15-EU CEE 7/7 to IEC-C15 8ft Europe 8
S45XU-34-1512SG CAT4500-X Universal Image 4
SFP-H10GB-CU1M 10GBASE-CU SFP+ Cable 1 Meter 16
Server Infrastruktur
Rack Server
UCS C240 M4 SFF 24 HD w/o
UCSC-C240-M4SX CPU,mem,HD,PCIe,PS,railkt w/expndr 4
NTS - BASIC Cisco UCS Support 8x5xNBD for UCSC-
AA-UCSC-C240-M4SX C240-M4SX 4
2.60 GHz E5-2640 v3/90W 8C/20MB Cache/DDR4
UCS-CPU-E52640D 1866MHz 4
16GB DDR4-2133-MHz RDIMM/PC4-17000/dual
UCS-MR-1X162RU-A rank/x4/1.2v 32
1TB SAS 7.2K RPM 2.5 inch HDD/hot plug/drive sled
UCS-HD1T7KS2-E mounted 32
Anhang D: Stückliste im Detail 80

UCS-SD400G12S2-EP 400GB 2.5 inch Enterprise performance 12G SAS SSD 8


UCS-SD480G0KSB- 480 GB 2.5 inch Enterprise Value 6G SATA SSD
EV (BOOT) 4
Right PCI Riser Bd (Riser 1) 2onbd SATA bootdrvs+
UCSC-PCI-1C-240M4 2PCI slts 4
UCS-SD-64G-S 64GB SD Card for UCS Servers 8

UCSC-MLOM-CSC-02 Cisco UCS VIC1227 VIC MLOM - Dual Port 10Gb SFP+ 4
UCSC-PSU2V2- 1200W / 800W V2 AC Power Supply for 2U C-Series
1200W Servers 8
Power Cord, 250VAC 10A CEE 7/7 Plug,
CAB-9K10A-EU EU 8
Ball Bearing Rail Kit for C220 M4 and C240 M4 rack
UCSC-RAILB-M4 servers 4
UCSC-SCCBL240 Supercap cable 250mm 4
N20-BBLKD UCS 2.5 inch HDD blanking panel 56
UCSC-HS-C240M4 Heat sink for UCS C240 M4 rack servers 4
UCSC-MRAID12G Cisco 12G SAS Modular Raid Controller 4
UCSC-MRAID12G- Cisco 12Gbps SAS 2GB FBWC Cache module (Raid
2GB 0/1/5/6) 4
Simplivity
OS-C-C240M4-2400 Simplivity Hardware und Software 1CPU 8-10Core 4
AA-C-C240M4-2400 Simplivity 8x5xNBD Support 4
Außenstelle groß (für Außenstelle 2, 3 und 5)
Netzwerk Infrastruktur
Catalyst 4500-X
Catalyst 4500-X 16 Port 10G IP Base, Front-to-Back,
WS-C4500X-16SFP+ No P/S 6
AA-WS-C4500X- NTS - BASIC Cisco Support 8x5xNBD for WS-C4500X-
16SFP+ 16SFP+ 6
Catalyst 4500X 750W AC front to back cooling power
C4KX-PWR-750AC-R supply 6
C4KX-PWR-750AC- Catalyst 4500X 750W AC front to back cooling 2nd
R/2 PWR supply 6
C4500X-IPB IP Base license for Catalyst 4500-X 6
C4KX-NM-BLANK Catalyst 4500X Network Module Blank 6
CAB-CEE77-C15-EU CEE 7/7 to IEC-C15 8ft Europe 12
S45XU-34-1512SG CAT4500-X Universal Image 6
SFP-H10GB-CU1M 10GBASE-CU SFP+ Cable 1 Meter 24
Server Infrastruktur
Rack Server
UCS C240 M4 SFF 24 HD w/o
UCSC-C240-M4SX CPU,mem,HD,PCIe,PS,railkt w/expndr 6
NTS - BASIC Cisco UCS Support 8x5xNBD for UCSC-
AA-UCSC-C240-M4SX C240-M4SX 6
Anhang D: Stückliste im Detail 81

2.60 GHz E5-2640 v3/90W 8C/20MB Cache/DDR4


UCS-CPU-E52640D 1866MHz 12
16GB DDR4-2133-MHz RDIMM/PC4-17000/dual
UCS-MR-1X162RU-A rank/x4/1.2v 96
1TB SAS 7.2K RPM 2.5 inch HDD/hot plug/drive sled
UCS-HD1T7KS2-E mounted 96

UCS-SD400G12S2-EP 400GB 2.5 inch Enterprise performance 12G SAS SSD 24


UCS-SD480G0KSB- 480 GB 2.5 inch Enterprise Value 6G SATA SSD
EV (BOOT) 6
Right PCI Riser Bd (Riser 1) 2onbd SATA bootdrvs+
UCSC-PCI-1C-240M4 2PCI slts 6
UCS-SD-64G-S 64GB SD Card for UCS Servers 12

UCSC-MLOM-CSC-02 Cisco UCS VIC1227 VIC MLOM - Dual Port 10Gb SFP+ 6
UCSC-PSU2V2- 1200W / 800W V2 AC Power Supply for 2U C-Series
1200W Servers 12
Power Cord, 250VAC 10A CEE 7/7 Plug,
CAB-9K10A-EU EU 12
Ball Bearing Rail Kit for C220 M4 and C240 M4 rack
UCSC-RAILB-M4 servers 6
UCSC-SCCBL240 Supercap cable 250mm 6
N20-BBLKD UCS 2.5 inch HDD blanking panel 24
UCSC-HS-C240M4 Heat sink for UCS C240 M4 rack servers 6
UCSC-MRAID12G Cisco 12G SAS Modular Raid Controller 6
UCSC-MRAID12G- Cisco 12Gbps SAS 2GB FBWC Cache module (Raid
2GB 0/1/5/6) 6
NTS-Ebene2 Simplivity
OS-C-C240M4-2400 Simplivity Hardware und Software 2CPU 8-10Core 6
AA-C-C240M4-2400 Simplivity 8x5xNBD Support 6
Anhang E: Storage Konfiguration 82

Anhang E: Storage Konfiguration


Anhang E: Storage Konfiguration 83
Anhang E: Storage Konfiguration 84
Literaturverzeichnis 85

Literaturverzeichnis

Knut Hildebrand, Marcus Gebauer, Holger Hinrichs, Michael Mielke (2009): Daten-
und Informationsqualität.

Bernd Dürr (2013): IT-Räume und Rechenzentren planen und betreiben.

Walter Zrzavy (2009): Serverkonsolidierung in Rechenzentren.

Norbert E. Deuschle (08/2011): Business Consulting & Research im Auftrag für das
Storage Consortium. http://www.storageconsortium.de/content/sites/default/files/down-
loads/bersicht_2011_DeDuplizierungsverfahren.pdf (Datum des Zugriffs: 12. November
2014).

Robert Vogel (2010): Desktopvirtualisierung: Definitionen - Architekturen - Business-


Nutzen (German Edition).

Sven Schulter (2015): Virtualisierung. Theorie und Praxis am Beispiel der Servervirtu-
alisierung.

Wikipedia (2014): Key-User http://de.wikipedia.org/wiki/Key-User ( Datum des Zugriffes:


16. November 2014)

Volker Johanning (2014): IT-Strategie Optimale Ausrichtung der IT an das Business in


7

VMware (2014): vSphere with Operations Management. http://www.vmware.com/at/pro-


ducts/vsphere-operations-management/features.html (Datum des Zugriffes: 30. Dezem-
ber 2014)

Cisco (2014): Server - Unified Computing. http://www.cisco.com/web/DE/products/uni-


fied_computing/technology.html (Datum des Zugriffes: 30. Dezember 2014)

EMC (2014): EMC VNX Unified best practices for performance.


https://www.emc.com/collateral/software/white-papers/h10938-vnx-best-practices-
wp.pdf (Datum des Zugriffes 28. Dezember 2014)

CISCO (2014): Cisco NX-OS Software Virtual PortChannel: Fundamental Concepts 5.0.
http://www.cisco.com/c/en/us/products/collateral/switches/nexus-5000-series-
switches/design_guide_c07-625857.html (Datum des Zugriffes 10. Jänner 2015)
Literaturverzeichnis 86

SAP (2015): SAP HANA System Landscape. http://scn.sap.com/docs/DOC-59900 (Da-


tum des Zugriffes 05. Februar 2015)
Erklärung 87

Erklärung
Hiermit erkläre ich, dass ich die vorliegende Diplomarbeit selbständig angefertigt habe.
Es wurden nur die in der Arbeit ausdrücklich benannten Quellen und Hilfsmittel benutzt.
Wörtlich oder sinngemäß übernommenes Gedankengut habe ich als solches kenntlich
gemacht.

Ort, Datum Unterschrift