Sie sind auf Seite 1von 28

storage-magazin.

de
Eine Publikation von speicherguide.de

2 | 2012

Special Backup fr den Mittelstand

L STRATEGIE
Vorgaben fr
virtuelle Backups

L LSUNGEN
Schnelles und
flexibles Restore

storage-magazin.de
L PRODUKTE
Backup-Software
im Vergleich

virtualisierungs-guide

virtualisierungs-guide

28 Sei

ten

ECMguide.de
geball
Storag tes
e-Wiss
en

ECMguide.de

Backup fr den
Mittelstand
+++ Anwenderberichte +++

DISK-BACKUP IN DER PRAXIS

Backup fr den Mittelstand

Inhalt

Editorial

Editorial Seite 3

Backup/Recovery-Tools:

Impressum Seite 3

Backup-Strategie:
Gesucht: Backup fr hybride
Strukturen Seite 4
Backup-Hardware:
Schnelle Restores mit soliden
Backup-Technologien Seite 5
Advertorials:
Fallstudie: Kosten sparen und
Sicherheit gewinnen Seite 8
Virtualisierung braucht eine
passende Backup-Strategie Seite 11
Fallstudie: Druck rund
um die Uhr Seite 12
Fallstudie:
Neue Backup-Landschaft
auf Disk-Backup-Basis Seite 14
Fallstudie: Neues Backup fr
Pneuhage Reifendienste Seite 16
1 und 1 ergibt 3 Seite 18
Virtuelle Datensicherung:
Vorgaben beim Backup von
virtuellen Umgebungen Seite 20
Backup-Software:
Datensicherung fr den
Mittelstand Seite 22
Backup-Hardware:
Tape-Library ohne Tapes Seite 26

Noch Luft nach oben


Wie schon letztes Jahr verffentlichen Acronis und
Symantec je eine internationale Studie zu Backup
und Recovery. Whrend in der einen Untersuchung
die IT-Administratoren schlaflose Nchte haben, sehen sich deutsche
Unternehmen gleichzeitig gut auf Disaster-Flle vorbereitet. Wie kommt
das? Einerseits haben die IT-Manager hierzulande einen groen Fokus auf
der Thematik, gleichzeitig ist es vereinfacht gesagt reine Auslegungssache.
Wenn rund zwei Drittel mit irgendwas zufrieden sind, kann man dem
verbleibenden Drittel schon attestieren, dass etwas nicht stimmt.
Einig sind sich alle in der Tatsache, dass das Backup/Recovery speziell in
hybriden Umgebungen ein Problemherd ist und hier ein groes Optimierungspotenzial besteht. Beklagt wird, dass fr ein virtuelles und physisches
Backup zu viele unterschiedliche Tools ntig sind. Hieran werden die
Software-Hersteller zu arbeiten haben. Wobei knftig noch das Thema
Cloud hinzukommt. Allerdings ist ein Cloud-Backup fr die berwiegende
Mehrheit der Befragten kein Thema. Dies besttigen auch Gesprche die
wir als Redaktion mit IT-Managern fhren bzw. Leserkommentare, die wir
erhalten. Auch hier ist der Tenor klar: Unser Backup berlassen wir keinem
Dritten.
Nun hatten wir eigentlich fr dieses Special einen ausfhrlichen Test
verschiedener Backup-Programme vorgesehen. Wie so oft passiert vieles
aber immer auf den letzten Drcker. Whrend A das falsche Produkt
schickt, funktioniert Software B hinten und vorne nicht. Die Fehler konnten
bis zum Redaktionsschluss dieser Ausgabe leider auch nicht mehr behoben
werden. Wir liefern die Beitrge aber online in unserer Rubrik Backup/
Recovery nach (siehe http://www.speicherguide.de/backup-recovery/
backup-recovery).
Was sich auf jeden Fall schon gezeigt hat, nahezu keines der Tools lsst
sich ohne Nacharbeiten in Betrieb nehmen. Einmal wird ein Agent nicht
richtig installiert, beim anderen Produkt die RDX QuickStation nicht als
Bandbibliothek erkannt, dann fehlt eine Lizenz, das Programm sagt aber
man brauche keine Lizenz usw. Es verwundert nicht, dass IT-Manager
ihren Backups nicht vertrauen und sich mehr Einfachheit wnschen. Es ist
nicht so, dass die am Markt befindlichen Produkte nicht gut wren, aber fr
die Hersteller ist noch Luft nach oben.
Ihr Karl Frhlich
Chefredakteur, speicherguide.de

Impressum
storage-magazin.de eine Publikation von
speicherguide.de GbR Karl Frhlich, Engelbert
Hrmannsdorfer, Ulrike Rie

Redaktion:
Karl Frhlich, Rainer Huttenloher,
Max Lessel, Ulrike Rie

Auf der Grn 8, D-83714 Miesbach


Tel. 080 25/51 79, Fax: 080 25/51 71
E-Mail: redaktion@speicherguide.de

Schlussredaktion:
Brigitte Scholz

Chefredaktion, Konzept:
Karl Frhlich (verantwortlich fr den
redaktionellen Inhalt)
Tel. 089/740 03 99, Fax: 089/740 03 98
E-Mail: redaktion@speicherguide.de

Layout/Grafik:
Uwe Klenner,
Layout und Gestaltung,
Rittsteiger Str. 104, 94036 Passau,
Tel. 08 51/9 86 24 15
www.layout-und-gestaltung.de

Titelbild: iStockphoto.com
Mediaberatung:
Claudia Hesse, Tel. 00 41 41/761 32 47
E-Mail: media@speicherguide.de
Webkonzeption und Technik:
Gnther Schmidlehner
E-Mail: webmaster@speicherguide.de
Urheberrecht: Alle in storage-magazin.de
erschienenen Beitrge sind urheberrechtlich
geschtzt. Alle Rechte (bersetzung,

Eine Publikation von speicherguide.de

Zweitverwertung) vorbehalten. Reproduktion,


gleich welcher Art, sowie elektronische
Auswertungen nur mit schriftlicher
Genehmigung der Redaktion. Aus der
Verffentlichung kann nicht geschlossen
werden, dass die verwendeten Bezeichnungen
frei von gewerblichen Schutzrechten sind.
Haftung: Fr den Fall, dass in storagemagazin.de unzutreffende Informationen
oder Fehler enthalten sein sollten, kommt
eine Haftung nur bei grober Fahrlssigkeit der
Redaktion oder ihrer Mitarbeiter in Betracht.

speicherguide.de

storage-magazin.de

4 Backup-Strategie

Backup fr den Mittelstand

Unstimmigkeiten zwischen physischen und virtuellen Sicherungen

Gesucht: Backup fr hybride


Strukturen
Unternehmen mssen in ihrer Datensicherungsstrategie den nchsten Schritt gehen.
Gefragt sind Lsungen, die physischen und virtuellen sowie Cloud-Umgebungen gerecht
werden. Gleichzeitig versuchen IT-Manager die Komplexitt aus dem Backup/Recovery
herauszunehmen. Studien zufolge liegt hier aber noch einiges im Argen.
Durchschnittlich gehen 2,2 Tage
im Jahr durch Systemausflle
verloren. Dies verursacht zum Teil
einen Schaden in Millionenhhe.

Das zu bewltigende Backup-Volumen ist


das grte Problem der IT-Verantwortlichen, gefolgt von der dafr notwendigen
Bandbreite. Dies ist das Resultat einer
Symantec-Umfrage. Mit der zunehmenden Virtualisierung werden die Anforderungen nur noch komplexer. Hinzukommen
Unstimmigkeiten
zwischen
physischen und virtuellen Backups.
Zwar betreiben die Firmen relativ viel
Aufwand, Wetten wrden die IT-Verantwortlichen auf ihr Disaster-Recovery nicht
abschlieen. Es klingt unglaublich, aber
das alte Thema Backup und Recovery bereitet so manchen IT-Administratoren
immer noch groe Kopfschmerzen. Auslser sind offensichtlich die immer strengeren Service-Level-Agreements (SLA),
die es bei beiden Disziplinen einzuhalten
gilt, whrend neue Technologien wie Virtualisierung, die Menge der Daten und
die Dichte der Speichersysteme noch weiter steigern.
Im Durchschnitt verwenden Unternehmen vier verschiedene Lsungen fr physisches Backup. Fr virtuelles Backup sind
es immerhin drei unterschiedliche Tools.
Fr mehr als ein Viertel der Administratoren ist die Koordination dieser ganzen
Tools mit zu viel Aufwand verbunden.
Daher sei es an der Zeit fr grere Vernderungen im Bereich Backup und Disaster-Recovery. Der Untersuchung zufolge wollen Unternehmen innerhalb der
nchsten zwlf Monate ein Drittel ihrer
speicherguide.de
Bandlsungen gegen Appliances und

storage-magazin.de

Grafik: Acronis

Karl Frhlich

Backup aus der Cloud austauschen. Dies


besttigt auch eine Untersuchung der
Marktforscher des Ponemon Institut im
Auftrag von Acronis. Gesucht sind Backup- und Recovery-Lsungen, welche die
Anforderungen sowohl von physischen
und virtuellen als auch von Cloud-Umgebungen abdecken. Fr die berwiegende
Mehrheit der deutschen IT-Manager (68
Prozent) bietet ein System fr hybride
Infrastrukturen das grte Optimierungspotenzial im Bereich Backup und DisasterRecovery.
Bereits letztes Jahr ergab eine AcronisStudie, dass im internationalen Vergleich
bei deutschen Firmen mit am meisten zu
sichernde Daten anfallen. Die Grenordnung der tglich neu anfallenden Daten
liegt hierzulande bei 173 GByte. 2011
waren es noch 161 GByte. Nur Japan liegt
hier mit 187 GByte darber, whrend der
weltweite Durchschnitt bei lediglich 110
GByte (2011: 106 GByte) liegt. Durchschnittlich muss ein Mittelstndler daher
jhrlich rund 40 TByte neue Daten sichern
und in Deutschland sogar rund 63 TByte.
Erstaunlich an diesem Ergebnis ist, dass
IT-Abteilungen beim Thema Backup und

Eine Publikation von speicherguide.de

Disaster-Recovery in virtuellen Umgebun


gen nicht die gleichen Manahmen wie
bei physischen Systemen ergreifen. Obwohl die Befragten berwiegend besttigten, dass es hinsichtlich des Wertes der
Daten keinerlei Unterschied gebe.
 Ein Drittel (33 Prozent) besttigte, dass
bei virtuellen Maschinen (VMs) seltener
als bei physischen Servern ein Backup
durchgefhrt wird.
 Deutlich ber die Hlfte (61 Prozent)
fhren bei VMs nur unregelmige oder
lediglich wchentliche bzw. monatliche
Backups durch.
 Nur bei 37 Prozent gibt es ein tgliches
Backup bei den VMs.
Bei 86 Prozent der befragten Unternehmen kam es im letzten Jahr zu Systemausfllen. Die durchschnittliche Stillstandzeit
liegt dabei bei 2,2 Tagen. Bei sechs Prozent standen Systeme lnger als zehn
Tage still, bei 26 Prozent krzer als einen
Tag und nur bei 14 Prozent gar nicht. Im
internationalen Durchschnitt veranschlagen die Firmen die dadurch verursachten
jhrlichen Kosten mit rund 365.000 USDollar. In Deutschland liegt dieser Wert
K
sogar bei 430.000 US-Dollar.

Backup fr den Mittelstand

Datensicherung

Backups brauchen Strategie und technologisch ausgereifte Lsungen

Schnelle Restores mit soliden


Backup-Technologien
Der Mittelstand sieht sich beim Backup den gleichen
Problemen gegenber wie groe Unternehmen.
Allerdings bentigen sie bezahlbare und solide Lsungen,
um strategische Datensicherungen zgig, verlsslich
und sinnvoll durchzufhren. Firmen wie HP bieten DiskBackup-Systeme, die Effizienz, Funktionalitt, Flexibilitt
und Erschwinglichkeit vereinen sollen.

Ulrike Rie
Eine verlssliche und schnelle Datenwiederherstellung im Falle eines HardwareAusfalls oder aufgrund anderer Umstnde ist nur mglich, wenn zuvor eine
sinnvolle Backup-Strategie mit entsprechenden technischen Lsungen im Unternehmen umgesetzt wurde. Viele kleinere und mittelstndische Firmen fhren
allerdings ihre Datensicherung nur nachlssig durch. Datensicherung und -wiederherstellung sollte auch im Mittelstand,
SMB (Small Medium Business) bzw. SME
(Small Medium Enterprise) wieder einen
hheren Stellenwert einnehmen, meint
dazu Guido Klenner, Business Manager HP Storage von Hewlett-Packard.
Hufig wird ein Backup durchgefhrt
um ein gutes Gefhl zu haben: Es wurde
ja heute Nacht alles gesichert. Aber hier
stellt sich die Frage, wofr bentigt man

das Backup und wie sollte es dann dementsprechend umgesetzt werden?

Grafik: ESG

Das Wofr und Wie


beim Backup

Die hufigsten Backup-Probleme im


Mittelstand.

Unabhngig ob ein global agierendes


Unternehmen oder eine mittelstndische
Firma, stets mssen sich die EDV-Verantwortlichen fragen, wofr ein Backup notwendig ist, was gesichert werden soll und
wie sich dies am besten entsprechend zu
Geschftsvorgaben und Budget umsetzen lsst. Die Backup-Konzepte mssen
den Gegebenheiten bzw. den mglichen
nderungen, denen eine IT-Umgebung
unterworfen ist, entsprechen. SMBs und
Enterprises sehen sich dabei den gleichen
Herausforderungen gegenber, die nach
neuen oder umfassenderen Datensicherungsanstzen verlangen. Die Sicherungsprobleme bestehen nicht mehr nur aus
wachsenden Datenbestnden und immer
weiter schrumpfenden Backup-Fenstern.
Die Informationen mssen oft nicht nur
schneller abgesichert sein, sondern auch
zgiger wiederhergestellt.
Hier spielen vor allem virtualisierte
Server-Umgebungen eine Rolle. Ebenso
verlangen redundante Rechenzentren,
neue Funktionalitten, Service-Level-Ag-

reements, rechtliche Vorgaben und verteilte Standorte nach durchdachten Sicherungskonzepten. Kostendruck und
Sicherheitsfragen kommen noch dazu.
Sind darber hinaus noch unterschiedliche Medien, beispielsweise in der
Kombination Bandarchivierung und Festplattensicherung, abzudecken, so verkompliziert es die Backup-Implementierung. Nicht zuletzt muss der IT-Leiter die
gesamte Infrastruktur beachten, von der
Anwendung bis hin zum Netzwerk. All
diese Faktoren machen es IT-Managern
oft schwierig, die optimale Lsung mit
einem vernnftigen Preis-Leistungs-Verhltnis zu finden.
Die Datensicherung ist zu einer komplexen Sache herangewachsen, die man
mit einem konkreten Konzept ansprechen
muss, betont Klenner. Auf einmal mssen auch Mittelstndler virtualisierte Umgebungen sichern. Hier fallen auf einen
Schlag mehr Daten an, die aber ber das
gleiche Netzwerk transportiert werden
sollen. Performance-Verluste darf es aber
nicht geben. Hufig haben auch SMBs
verteilte Daten an externen Standorten in
einer zentralen Sicherung zusammenzufassen, was konzeptionell noch einmal
speicherguide.de
zur Hrde werden
kann. Diese Unterneh-

Eine Publikation von speicherguide.de

storage-magazin.de

6 Datensicherung

Gutes Konzept, gutes Backup,


gutes Restore
Sicherungskonzepte mssen keine endlosen Workshops, seitenlange Ausarbeitungen oder immense Kosten bedeuten,
sagt HP-Manager Klenner. Der erste
Schritt zu einer sicheren Infrastruktur ist,
Problemflle in der eigenen Datensicherungs- und Wiederherstellungsstrategie
zu erkennen und diese dann mit einer
optimierten Strategie auszumerzen. Damit das Unternehmen nicht nur ein zgiges Backup, sondern eine ebenso rasche
Wiederherstellung sicherstellen kann,
sollte es sich fr den Einsatz neuer Technologien entscheiden, um Daten schnell
und sicher zu speichern, Ausflle zu vermeiden sowie im Notfall eine verlssliche
Recovery-Strategie umzusetzen.
Die Analyse der vorhandenen Infrastruktur, der zu sichernden Daten bzw.
Rechner und die dazu zur Verfgung stehende Zeit geben den Ist-Zustand, mit
dem sich das Konzept der Datensicherung
umreien lsst. Dabei muss der IT-Verantwortliche beispielsweise bedenken, ob
und wie viele virtuelle Maschinen er ins
Backup integrieren muss, wobei das LAN
natrlich nicht belastet werden soll. Damit
optimale Restore-Services gewhrleistet
sind, sollte der EDV-Leiter das Backup
effizient, das heit mit hoher Funktionalitt durchfhren. Hierbei gilt es abzuwgen, ob eine Nutzung der kompletten
IT-Infrastruktur fr Backup und Recovery
die Anforderungen nicht besser erfllt als
der Einsatz rein punktueller Lsungen.
Mit aufeinander abgestimmten Komponenten lsst sich schlielich eine zuverlssige und vor allem automatisierte Datensicherung umsetzen. Diese wiederum
stellt dann die Basis fr eine zuverlssige
und rasche Wiederherstellung digitaler
Informationen im Notfall dar. Aber um
sicher zugehen, dass auch die Backupund Recovery-Prozesse sowie Entscheidungsprozesse wie geplant funktionieren,
sollte auch regelmig der Ablauf getestet werden. Es gibt genug Beispiele, bei
denen man sich sicher war, dass alles
speicherguide.de
funktioniert, um dann bei einem Ernstfall

storage-magazin.de

Kurzinfo HP B6200 StoreOnce Backup System


Das B6200 StoreOnce Backup System von
Hewlett Packard ist eine DeduplizierungsAppliance mit Scale-Out-Design, das vor allem fr groe Enterprise-Umgebungen kon-

zipiert wurde. Die Lsung operiert mit dualen


Nodes und stellt somit eine Erweiterung der
bereits existierenden D2D-Backup-Systeme
4300, 4100 und 2500.

Technische Details
 Kapazitt (min/max): 48 / 768 TByte
 Nutzbare Kapazitt (min/max):
32 / 512 TByte
 Logische Kapazitt: bis zu 10 PByte
(abhngig von der Deduplizierungsrate)
 Datendurchsatz: bis zu 28 TByte/h
(im Streaming)
 Untersttzte Festplatten:
1- und 2-TByte-SAS (7.200 U/min)
 Knoten pro Einheit: 2
 Erweiterungseinheit:
jeweils im Prchen mit 24 oder 48 TByte
 Host-Interfaces:
10- oder 1-Gbit/s-Ethernet, 8-Gbit/s FC
 RAID-Schutz: 6
 Redundante Komponenten: Controller,
Node, Lfter, Cache, Stromversorgung,
Pfade
 Emulationen: NAS (CIFS/NFS) oder
FC-Tape Library
 Anzahl untersttzter Targets (max): 384

Foto: HP

men bentigen Lsungen, die flexibel,


skalierbar und funktionell, vor allem aber
erschwinglich sind. Letztlich verdeutlichen sich der Trend und die Notwendigkeit, Datensicherung auf Disk-Systemen
durchzufhren, welche diese Anforderungen erfllen knnen.

Backup fr den Mittelstand

 Anzahl untersttzter Cartridges


(max): 6.294.156
 Anzahl untersttzter SourceAppliances (max): 384
 Integrierte Software: Dedupe 2.0;
Data Protector 6.2

Produkt-Review zur HP B6200 StoreOnce Backup System auf speicherguide.de unter


http://bit.ly/w58g3C

festzustellen, dass das Backup seit lngerer Zeit nicht wie geplant ablief oder die
Daten inkonsistent waren.

Disk-Systeme mit hoher


Funktionalitt
Disk-Systeme haben beim Backup die vorrangige Stellung eingenommen. Das liegt
nicht nur an den leistungsstarken Festplatten, sondern vor allem an der hohen Funktionalitt, die sich mit Disk-Drives realisieren lsst. Es gibt zahlreiche Funktionen,
die das Backup optimieren und effizienter
machen knnen. Dazu gehrt unter anderem die Daten-Deduplizierung. Mittels
dieser Technologie lassen sich Datenbestnde verringern und so Speicherkapazitten besser nutzen. Ebenso sorgt die
Deduplizierung dafr, dass die Netzwerkbelastung bei der Sicherung externer
Standorte geringer ausfllt und somit zgiger vonstattengeht. Das lsst sich entweder durch dedizierte Appliances oder
Software erreichen. Effizient ist eine sol-

Eine Publikation von speicherguide.de

che Lsung dadurch, dass sie redundante


Daten eliminiert und somit eine ungewollte Datenflut durch zahlreiche Kopien verhindert. Eine Datenbertragung von einer
Auenstelle an die zentrale Backup-Instanz bentigt so geringere Bandbreite
bzw. kann mit den vorhandenen weiterhin
reibungslos arbeiten.
Um die Ausfallsicherheit der IT und somit unterbrechungsfreie Geschftsablufe zu garantieren, kann der IT-Manager
Funktionen wie Snapshots, Klone und
Replikation einsetzen. Da sich mittelstndische Unternehmen oft kein vollstndig
redundantes Rechenzentrum leisten knnen, lohnt sich hier der Fokus auf die
kritischen, geschftsrelevanten Daten und
Anwendungen, die sich mit weniger
Hardware-Einsatz redundant halten lassen. Firmen, die virtualisierte Desktopoder Server-Umgebungen abzusichern
haben, sind in der Lage mittels SpeicherVirtualisierung die Vorteile dieser Technologie auch ins Backup zu tragen.

Backup fr den Mittelstand

Data Protector 6.2 ermglicht Snapshots, Replikation,


zentrales Management und die Sicherung von virtuellen
Maschinen sowie unterschiedliche Restore-Szenarien.

Snapshots, Sicherung von virtuellen


Maschinen ber eine einheitliche Software, Verkrzung der Wiederherstellungszeit (RTO) sowie Minimierung des
Datenverlustes (RPO) bestimmen den
Backup-Markt dieser Tage, meint HPManager Klenner. Doch das sinnvolle
Zusammenspiel aller Komponenten wie
Backup-to-Disk, Array-basierter Dienste
und Sicherungs-Software ist eine Grundvoraussetzung dafr, dass das Backup im
Mittelstand nicht zum Albtraum, sondern
zu einer sicheren Sache wird. Wir empfehlen hier aufeinander abgestimmte
Lsungsanstze.

Umfassende Backup-Lsungen
von HP
HP bietet fr den Mittelstand eine Vielzahl
von Produkten, um den unterschiedlichen
Anforderungen gerecht zu werden. Die
StoreOnce D2D Backup-Systemen integrieren effiziente Datendeduplizierung
und sind in verschiedenen Modellen fr
unterschiedliche Szenarien erhltlich. Die
meisten Storeonce-Modelle lassen sich in
Kapazitt und Performance skalieren, was
eine hohe Effizienz und Investitionsschutz
gewhrleistet. Diese Systeme optimieren
die Datensicherung an Auenstellen und
ermglichen eine Replikation von Siche-

rungsdaten in ein zentrales Rechenzentrum, deduplizieren schnell und sicher fr


eine effiziente Speicherung und integrieren sich in die unterschiedlichsten Infrastrukturen durch iSCSI-, FC- oder NASSchnittstellen in den Gerten. So kann
der EDV-Verantwortliche auch in einer
virtualisierten Infrastruktur auf iSCSI-Basis
wieder ein LAN-freies Backup durchfhren, um die Vorteile eines SANs auch fr
die Datensicherung und -wiederherstellung nutzen zu knnen. StoreonceSysteme integrieren sich in den Data
Protector, der fr eine flexible, automatisierte und umfassende Datensicherung
sorgt. Mittels der HP-Software erfolgt
eine Minimierung der ManagementWerkzeuge; die Administration lsst sich
zentral ausrollen und vereinfachen. Mit
Data Protector lassen sich auch Systeme
wie P4000 Lefthand oder P6000
EVA einheitlich steuern. Snapshots,
Replikation sowie die Integration von virtuellen Tape-Libraries oder der vStorage
API for Data Protection von VMware
sind fr den Mittelstand damit auch
realisierbar.
Dedizierte Lsungen wie Storonce,
Lefthand oder EVA geben mittelstndischen Unternehmen die Flexibilitt und
Funktionalitt, ein Backup umzusetzen,
das wirklich hilft und nicht zustzlich Probleme bereitet, betont Klenner. Die
zentrale und verschlankte Administration
spart zudem nervenaufreibende Installations-, Konfigurations- und Wartungsprozesse. Unsere Lsungen sind so konzipiert, dass sie Effizienz in allen Bereichen
bringen. Letztlich will der Mittelstand ein
Backup, dass sich leicht einstellen lsst
und welches dann reibungslos und ohne
manuellen Aufwand abluft. Wir adressieren dieses komplexe Konzept mit gut
K
zu bedienenden Produkten.

Disk-Systeme eignen sich fr Backup-Prozesse,


da sie hohe Speicherdichte, zuverlssigen Datenschutz und viele Funktionen wie Deduplizierung
oder Replikation bieten. Zustzlich lassen sie sich
nach Bedarf skalieren.

Eine Publikation von speicherguide.de

Foto: HP

Foto: HP

Datensicherung

speicherguide.de
storage-magazin.de

8 Advertorial

Backup fr den Mittelstand

Fallstudie: Fujitsu ersetzt EMC-Speicher mit seiner ETERNUS-Serie

Kosten sparen und


Sicherheit gewinnen
Ein modernes und hochwertiges Speichersystem bildet heutzutage einen der elementarsten
Bestandteile der Unternehmens-IT. Nur mit der richtigen Storage-Strategie lassen sich
Geschftsanforderungen erfllen, Risiken reduzieren und Kosten nachhaltig verringern. Fujitsu
setzt im eigenen Data Center auf seine ETERNUS-Serie.
Das Projekt
Der Kunde
Fujitsu Technology Solutions, der fhrende
europische IT-Infrastruktur-Anbieter, beschftigt mehr als 13.000 Mitarbeiter und
ist Teil der globalen Fujitsu Group.

Fujitsu verfgt am Standort Augsburg ber eine Training Academy sowie ein
Executive Customer Center, in dem sich Kundenszenarien auf modernen Serverund Storage-Plattformen durchspielen lassen.

Alexander Tlusti,
Fujitsu Technology Solutions
Fujitsu Technology Solutions ist der
fhrende europische IT-Infrastrukturanbieter, der auf allen Schlsselmrkten in
Europa, im Mittleren Osten, in Afrika und
Indien fr groe, mittelstndische und
kleine Unternehmen sowie Konsumenten
ttig ist. Das Unternehmen bietet mit seiner Dynamic Infrastructures-Strategie
ein vollstndiges Portfolio an IT-Produkten, -Lsungen und -Services an von
Clients ber Lsungen fr das Rechenspeicherguide.de
zentrum bis hin zu Managed Infrastruc-

storage-magazin.de

ture und Infrastructure-as-a-Service. Fujitsu Technology Solutions gehrt zur


weltweiten Fujitsu Group und beschftigt mehr als 13.000 Mitarbeiter. Unter
dem Claim Shaping tomorrow with you
produziert das Unternehmen unter anderem in Augsburg IT-Hardware in Europas
modernster Computerfertigung.

Zentraler Unternehmensstandort
in Augsburg
Augsburg ist fr Fujitsu allerdings weit
mehr als eine wichtige Produktionssttte.
Weil wir ein Entwicklungs-, Produktionsund Logistik-Standort sind, ist hier alles

Eine Publikation von speicherguide.de

Foto: Fujitsu

Die Herausforderung
Sichere Speicherung von Microsoft Exchange- und SAP-Daten aller Mitarbeiter in
der Region CEMEA&I verbunden mit schnellen Zugriffszeiten.
Die Lsung
Eternus DX440 S2 als schnelle und sichere
Hochverfgbarkeits-Plattenspeicherlsung
mit der Netapp V-Series zur Storage-Virtualisierung.

auf absolute Hochverfgbarkeit ausgelegt, erklrt Robert Mayer, verantwortlich fr IT-Governance und IT-Infrastrukturmanagement bei Fujitsu. Wir
verfgen bei unserer IT am Standort
Augsburg ber maximale Redundanz und
einen Hochverfgbarkeitslevel von bis zu
99,999 Prozent. Dass bei diesen Ansprchen nicht jedes Speichersystem mithalten kann, versteht sich von selbst. Es
ging natrlich auch darum, Kosten einzusparen, ergnzt Mayer. Bei unserem
bisherigen Speichersystem von EMC, das
bereits fnf Jahre alt war, schnellte der
Wartungsaufwand zuletzt enorm in die
Hhe. Das Unternehmen entschied sich
mit ETERNUS DX440 S2 fr ein System

Backup fr den Mittelstand

Kundenvorteile
 Zuverlssige und sichere Speicherung
von wertvollen Unternehmensdaten
 Kontinuierliche Datenverfgbarkeit
 Schnelle Erweiterbarkeit der Speicher
kapazitt
 Beste Skalierbarkeit
 Schnelle Zugriffszeiten
 Hohe Energieeffizienz

Produkte und Services


Speichersysteme:
 2x Eternus DX440 S2 mit 225 TByte
Speicherkapazitt
 2x Netapp V-Series zur StorageVirtualisierung
Services:
 Managed Infrastructure Services von
Fujitsu
 Storage Integration Services von Fujitsu
 Umfassendes Projektmanagement

aus eigener Produktion, welches alle Anforderungen aufs Beste erfllt. Die Wartungskosten sind signifikant gesunken,
eine sichere Datenspeicherung ist gewhrleistet und die Performance hat sich
deutlich gesteigert.
Zur Sicherstellung der Hochverfgbarkeit arbeiten im Corporate Data Center
von Fujitsu in Augsburg zwei EternusDX440-Speichersysteme in unterschiedlichen Brandabschnitten. Wir versorgen
von hier aus die gesamte Region CEMEA&I
mit Corporate Services beziehungsweise
Corporate Applications wie etwa SAP,
verdeutlicht Benno Zollner, CIO bei Fujitsu. Wir verwalten hier beispielsweise
20.000 Microsoft Exchange-Mailboxen.
Die E-Mail ist bisher noch die wichtigste
Anwendung fr den Austausch mit Kunden, Geschftspartnern und Kollegen.
Unsere Mitarbeiter senden und empfangen an jedem einzelnen Tag mehr als
400.000 Nachrichten. Da liegt es auf der
Hand, dass Fujitsu beim Storage der Exchange-Daten nicht nur aus Compliance-Grnden auf Nummer sicher gehen wollte.

Sichere Speicherung
Wenn es um SAP- und Messaging-Daten
geht, brauchen Unternehmen ein Hochverfgbarkeits-Speichersystem, das dynamisch mitwchst, pflichtet IT-Manager
Mayer dem CIO bei. Eternus-DX-Plattenspeichersysteme erfllen genau diese
Anforderungen. Schlielich verfgen die-

Advertorial

se Systeme ber redundante Komponenten, RAID-Schutz und neue Features wie


Redundant Copy ein Sicherheitsstandard, der RAID noch mal bertrifft. Hinter Redundant Copy verbirgt sich ein
automatisierter vorbeugender Laufwerkaustausch. Grundlage hierfr bildet die
stndige berwachung von FehlerSchwellwerten. Die Kontrolle innerhalb
der Plattenspeicher nennt sich bei Eternus
DX Data Block Guard. Dieses Feature
fgt an jeden Datenblock Prfcodes an
und verifiziert sie an mehreren Prfpunkten. Auf diese Weise berwacht sich das
Speichersystem sozusagen von selbst,
sagt Mayer. Das entlastet nicht nur unsere IT-Mannschaft enorm, sondern verringert auch die Reaktionszeiten.

Verlust-Risiko minimiert
Alles in allem lie sich die Sicherheit deutlich erhhen: Der Recovery-Prozess, genauer gesagt der Ausfall des Geschftsprozesses bis zu seiner Wiederherstellung
(Recovery Time Objective), wrde nun
drei Mal so schnell verlaufen. Im SAPUmfeld gewinnen wir zudem durch die
Mglichkeit des System-Clonings mehr
Flexibilitt, erklrt Mayer, denn dies
nimmt jetzt nur noch wenige Minuten in
Anspruch.

Weniger Kosten, mehr Effizienz


Bezogen auf die hheren Wartungskosten der alten Systeme und die Abschreibungen der neuen Plattenspeichersysteme fhrt der Einsatz von Eternus DX440
S2 im Fujitsu-Rechenzentrum zu einer
jhrlichen Ersparnis von 270.000 Euro.
Unser Return-on-Investment ist bereits
im ersten Betriebsjahr erreicht, berschlgt Mayer. Und da ist die Stromersparnis und eine deutlich effizientere
Kapazittsnutzung noch gar nicht eingerechnet. Dies ergibt sich aus der greren Storage-Dichte und dem geringeren
Platzbedarf von Eternus DX440 S2. Auch
die Erweiterbarkeit der Speicherkapazitt
ist ein echtes Plus fr den wachsenden
Speicherbedarf des Unternehmens.
Dank der Skalierbarkeit atmet das Speichersystem jetzt sozusagen mit der Auslastung unserer Anwendungen, erklrt
der IT-Director. Wir sind damit sehr viel
flexibler geworden. Derzeit ist jedes
Eternus-DX440-S2-System mit 85 TByte
Storage-Bruttokapazitt fr SAP-Daten
ausgelastet; hinzu kommen noch mal 140
TByte fr Microsoft Exchange-Daten. Die
Gesamtauslastung liegt also derzeit bei

225 TByte, verteilt auf 624 SAS-HDDs pro


Speichersystem. Skalierbar sind die Systeme auf bis zu 960 Festplatten (2,5 Zoll).
Diese lassen sich problemlos ohne Betriebsunterbrechung hinzufgen.

Storage-Virtualisierung als
Performance-Turbo
Auch in Sachen Schnelligkeit hat sich die
Investition gelohnt. Im SAP-Umfeld
konnten wir eine Performance-Steigerung von bis zu 30 Prozent verzeichnen,
sagt Mayer. Das ist ein sprbarer Leistungsschub, der unsere Prozesse sichtlich
beschleunigt und von dem unsere Mitarbeiter weltweit profitieren, wenn sie auf
unsere SAP-Anwendungen zugreifen.
Dieser Leistungszuwachs setzt sich aus
verschiedenen Komponenten zusammen.
Das Eternus-DX440-S2-System verfgt
von Haus aus ber eine hohe Performance, hinzu kommt der Einsatz hochwertiger Festplatten. Ein echter Turbo fr
die Leistung und Verfgbarkeit liegt in
der Kombination mit einem V-SeriesSystem von NetApp.

Mehr Flexibilitt dank


Storage-Virtualisierung
Die Netapp V-Series bernimmt bei unserem Eternus DX-System die StorageVirtualisierung und ist Bestandteil einer
hochverfgbaren Metrocluster-Konfiguration, verdeutlicht Daniel Gull, der als
IT-Architekt die Projektplanung innehatte. Neben der Erhhung der Performance durch Caching stehen ber die
ONTAP-Software von Netapp eine Reihe
kostensparender Funktionen zur Verfgung. Hierzu zhlen Snapshots, Snap
clones, Snapmirror und Datendeduplizierung. Darber hinaus bietet die
Netapp-Lsung die Mglichkeit, bei Bedarf weitere Speichersysteme anzuschlieen und diese Kapazitten wiederum
zu einem virtualisierten Storage-Pool zusammenzufassen.
Ein zustzlicher Pluspunkt liegt im flexiblen Datenzugriff, da ber die Netapp
V-Series nun auch Daten via NFS/CIFS
(NAS) angesprochen und auf der Eternus
DX gespeichert werden knnen, res-

Weitere Informationen
Fujitsu Technology Solutions
Hildesheimer Strae 25
30880 Laatzen/Hannover
Tel.: +49 (0)511 - 84 89 10 40
http://de.ts.fujitsu.com/storage
speicherguide.de

Eine Publikation von speicherguide.de

storage-magazin.de

10 Advertorial

Backup fr den Mittelstand

Grnes Rechenzentrum mit


Eternus DX
Die Eternus-DX-Plattenspeichersysteme
fr den Midrange- und Enterprise-Bereich
gehren zu den effizientesten ihrer Klasse. Fujitsu hat damit echte Green-ITProdukte geschaffen. So verfgen alle
Modelle der Eternus DX-Familie etwa
ber einen Eco-Modus, der bewirkt, dass
nicht oder nur selten verwendete Platten
automatisch nach einer definierten Leerlaufzeit abgeschaltet werden. Dies fhrt
abermals zu einem reduzierten Energieverbrauch, was wiederum eine geringere
Wrmeentwicklung im Rechenzentrum
zur Folge hat. Fr Fujitsu-CIO Zollner ist
die Eternus DX440 S2 damit ein optimaler Baustein fr die grne UnternehmensIT: Green IT ist nicht nur das, was wir
produzieren und vertreiben, sondern
dieses zukunftsweisende Konzept gehrt
auch zu unserer eigenen Firmenphilosophie. Wir wollen ein grnes IT-Unternehmen sein mit grnen Rechenzentren.
Die Speichersysteme der Eternus-DX-Serie
nutzen ein intelligentes Energiekonzept.
Dadurch schonen wir und unsere Kunden
Ressourcen und leisten einen wertvollen
Beitrag zur Energieeinsparung im Rechenspeicherguide.de
zentrum.

storage-magazin.de

Augsburger Democenter
fr Kunden

Speichern im Auftrag
ihrer Majestt

Wir haben einiges investiert, um der


Vision vom Green Data Center nherzukommen, ergnzt Mayer. Auch was die
Klimatechnik angeht, sind wir ganz stark
auf Green IT ausgerichtet, denn wir nutzen nur sparsame, aktuelle Systeme und
betten sie in genau passende Khl- und
Klimakonzepte ein. Wie das in der Praxis
aussieht, davon knnen sich Kunden bei
Fujitsu in Augsburg vor Ort ein Bild machen. So verfgt der Standort nicht nur
ber eine Training Academy, sondern
auch ber ein Executive Customer Center
(ECC), in dem sich Kundenszenarien auf
modernen Server- und Storage-Plattformen durchspielen lassen. In unserem
Produktiv-Rechenzentrum nutzen wir im
Grunde alles, was wir auch an Kunden
verkaufen, erklrt Mayer. In unserem
Kunden-Democenter prsentieren wir die
ganze Data-Center-Palette: von BladeServern ber Server-Pooling und natrlich
effizienten Speichersystemen inklusive
Backup-Pooling mit Tape-Librarys bis hin
zur virtuellen Tape-Library Eternus CS.

Es gibt noch einen Grund, der Robert


Mayer besonders stolz macht auf das
neue Speichersystem im Corporate Data
Center Augsburg: Wir haben bei der
Eternus DX440 S2 bewusst das Modell
mit der Seriennummer 001 zum Einsatz
gebracht, um als erster und eigener Kunde die Praxistauglichkeit an unseren unternehmenskritischen Produktivsystemen
unter Beweis zu stellen. Somit steht in
unserem Rechenzentrum nicht nur das
erste Produktiv-System dieses Typs, das in
unserer Augsburger Fertigung hergestellt
wurde, sondern wir knnen dadurch auch
sicherstellen, dass die Erwartungen der
Kunden an dieses Produkt auch in einer
komplexen Umgebung erfllt werden.
Aber es kommt noch besser: Schlielich
verfgt das Corporate Data Center noch
ber ein gespiegeltes zweites Plattenspeichersystem aus der Serie. Dies trgt zwar
nicht die Seriennummer 002, dafr aber
die 007, sagt IT-Manager Mayer. Daher
nennen wir es hausintern das JamesK
Bond-Speichersystem.

Foto: Fujitsu

miert Gull. Damit lassen sich alle Daten


auf einem System optimal konsolidieren.
Das professionelle Projektmanagement
inklusive Storage-Integration-Service wurde brigens vollstndig von Fujitsu erbracht. Die Zusammenarbeit mit Netapp
als engen strategischen Partner verlief
dabei absolut reibungslos.

Foto: Fujitsu

Im internen Rechenzentrum sind die kosteneffizienten und skalierbaren ETERNUS


DX440 S2 Speichersysteme die zentrale
Komponente im Hochverfgbarkeitskonzept von Fujitsu.

Bezogen auf die hheren Wartungskosten der alten Systeme


und die Abschreibungen der neuen Speichersysteme fhrt der
Einsatz von ETERNUS DX440 S2 im Fujitsu-RZ zu einer jhrlichen Ersparnis von 270.000 Euro.

Eine Publikation von speicherguide.de

Backup fr den Mittelstand

Advertorial

11

Schnelle und zuverlssige VM-Backups statt Sicherung auf gut Glck

Virtualisierung braucht eine


passende Backup-Strategie

Klassische Backup/Recovery-Strategien stoen bei virtuellen Maschinen an ihre Grenzen.


Zeitaufwand und Datenvolumen fr die Sicherung auf Band sind enorm und hufig
fehlertrchtig. Veeam Backup & Replication ermglicht eng getaktete Recovery Point
Objectives und im Bedarfsfall eine schnelle und zuverlssige Wiederherstellung.

Klassische Backup-Szenarien sind denkbar einfach aufgebaut: Hier ein Server mit
einer Anzahl virtueller Maschinen, dort
ein Bandlaufwerk, das die von einer traditionellen Backup-Software erstellten
Images der VM aufnimmt. Jeden Tag wird
ein Voll-Backup erstellt man will ja auf
der sicheren Seite sein und ein vernnftiges Recovery Point Objective (RPO) sicherstellen. Das RPO drfte gern dichter
getaktet sein, aber dafr ist die Sicherung
ganzer Images auf Tape ber das LAN
einfach zu langsam. Also verlsst man
sich auf die Integritt des Backup-Images
und geht davon aus, dass im Ernstfall alles gutgeht.
Die bertragung traditioneller BackupStrategien auf virtualisierte Umgebungen
verursacht aus drei Grnden oft mehr
Probleme als Lsungen:
1. Die technische Infrastruktur mit FullImage-Backup ber LAN auf Band ist zu
langsam, um sinnvolle, dicht getaktete
RPOs zu realisieren.
2. Die Sicherung der VM und Datenbank
erfolgt auf gut Glck, in der Hoffnung,
dass die Integrittsprfung der BackupDatei schon Alarm schlgt, wenn etwas
nicht stimmen sollte. Die tatschliche
Wiederherstellbarkeit der Informationen
wird nicht berprft.
3. Beim Restore bremst die Technik den
Prozess erneut aus und reit sptestens
hier jede fr den Produktivbetrieb sinnvolle Recovery Time Objective (RTO).
Hinzu kommt, dass die Anforderungen
an die Speichergre bei Full-ImageBackups enorm sind. Das Vorhalten von
Daten ber einen Zeitraum, der auch aus

Grafik: Veeam

Tapio Liller, Oseon Conversations

Compliance-Sicht sinnvoll und notwendig


ist, wird schnell sehr teuer.

Backup nach den Regeln der


Virtualisierung
Statt herkmmliche Backup-Methoden
einfach ber virtuelle Umgebungen zu
stlpen, empfiehlt es sich, einen Technologieansatz zu verfolgen, der auch beim
Backup auf Virtualisierung setzt. Veeam
Software hat hierfr mit Veeam Backup
& Replication eine 2-in-1-Lsung fr
Datensicherung und Replizierung im Programm. Die Software wurde ausschlielich fr virtuelle Umgebungen entwickelt
und kann dadurch Dinge, die in einer
physischen Welt kaum mglich wren.
Das Herz von Veeam Backup & Replication ist die Fhigkeit, virtuelle Maschinen direkt das heit ohne vorheriges
Kopieren auf einen Host aus der Backup-Datei heraus zu starten. Das funk
tioniert sogar mit komprimierten und
deduplizierten Images. Auf dieser Kernfunktion setzen die verschiedene Features
auf, die Veeam unter dem Namen
vPower zusammenfasst.
SureBackup fhrt nach jedem Sicherungsvorgang eine Wiederherstellbarkeitsprfung durch. So knnen Administratoren sicher sein, dass wirklich jedes Backup
im Ernstfall die bentigten Daten komplett
wieder zur Verfgung stellt. Das alles er-

folgt automatisch und im vom Rest des


Netzwerks isolierten Virtual Lab Adresskonflikte sind dadurch ausgeschlossen.
Im weiteren Verlauf steht das Backup
fr SmartCDP zur Verfgung, das nahezu Continuous Data Protection (CDP)
ermglicht. Der Schlssel dazu sind synthetische Full-Image-Backups. Einmal
gesicherte Komplett-Images werden nur
noch inkrementell um die angefallenen
nderungen ergnzt. Gemeinsam mit der
Untersttzung von Changed Block Tracking beschleunigt das den BackupProzess um den Faktor 10. Dadurch sind
RPOs von wenigen Minuten mglich.
Bei der Wiederherstellung kommt InstantRestore zum Einsatz. Diese Funktion kann man sich vorstellen wie einen
Reifenwechsel whrend der Fahrt. Die VM
wird aus dem Backup heraus gestartet
und direkt auf den Produktiv-Host
berfhrt Replizierung, Entpacken und
Starten entfallen. Veeam Backup & Replication V6 ist fr VMware vSphere und
K
Microsoft Hyper-V verfgbar.

Weitere Informationen
Veeam Software
Konrad-Zuse-Platz 8
81829 Mnchen
Tel. 089/207 04 28 00
www.veeam.de
speicherguide.de

Eine Publikation von speicherguide.de

storage-magazin.de

12 Advertorial

Backup fr den Mittelstand

Staudigl-Druck steigert Produktivitt mit SANsymphony-V

Druck rund um die Uhr


Die Donauwrther Staudigl-Druck nutzt neben Vmware ESX vSphere den Storage-Hypervisor
SANsymphony-V von Datacore, um die Leistungsfhigkeit und 24-Stunden-Verfgbarkeit
seiner Produktionssysteme sicherzustellen. Mit der virtuellen Infrastruktur wurden 30 Prozent
der Stromkosten eingespart und das Backup-Fenster halbiert.

Die Druckbranche unterlag in den letzten


15 Jahren Vernderungen wie kaum ein
anderer Markt. Staudigl-Druck aus dem
bayrisch-schwbischen Donauwrth
meisterte diese Herausforderungen erfolgreich: Der Umsatz wurde in diesem
Zeitraum in etwa verdoppelt, die Belegschaft wuchs kontinuierlich auf rund 180
Mitarbeiter.
Das mittelstndische Unternehmen ist
heute beim Plakatdruck Marktfhrer in
Sddeutschland und mit rund 15 Millionen Exemplaren zweitgrter Produzent
fr Bildkalender in der Bundesrepublik.
Grundlage dieser Geschftsentwicklung
sind die stndigen Investitionen in hochwertige Druck- und IT-Technologien und
deren kreative Umsetzung.
Systeme fr Offsetproduktion, Design,
Lager und Logistik sowie Vertrieb werden
daher beim Mittelstndler auf dem neuesten Stand gehalten und erneuert. Bestellung, Anmietung und Platzierung von
Plakaten knnen Kunden ber einen
Webshop-Partner erledigen. Dies erfordert einen 24x6-Geschftsbetrieb mit
3-Schicht-Produktion, der die Anforderungen an die Informationssysteme drastisch gesteigert hat. Hochverfgbarkeit,
Flexibilitt und Produktivitt smtlicher
Systeme muss garantiert sein.
Die Laufzeit von Auftrgen sinkt stetig, gleichzeitig mssen wir aber Kapazitten vorhalten, da wesentlich mehr Auftrge zur gleichen Zeit die Produktion
durchlaufen als vor Jahren, sagt IT-Leiter
Christian Waldenmeier, der bei Staudigl-Druck ein Team von acht Mitarbeitern
fhrt. Die Anforderung nach flexibler
Ressourcen-Erweiterung, stndiger Hochverfgbarkeit, hoher Performance und
speicherguide.de
zentraler Administration haben unsere

storage-magazin.de

Foto: Staudigl-Druck

Verena Simon, Konzept PR

Christian Waldenmeier, IT-Leiter, StaudiglDruck: Die Hardware-Unabhngigkeit und


Flexibilitt erlaubt uns in die verschiedensten Richtungen zu denken und zukunftsweisende Konzepte umzusetzen.

Entscheidung fr die Speichervirtualisierung mit DataCore `SANsymphony-V


vorangetrieben.

Zentrale Systeme gefordert


Vor dem Umstieg auf den Storage-Hypervisor von Datacore kmpfte man mit einer
dezentralen Speicherlandschaft mit direkt
angebundenem Plattenspeicher und diversen NAS- und RAID-Systemen verschiedener Hersteller. Mit dem Direct-Attached-Storage (DAS) war es nicht
mglich, Speicher-Ressourcen unterschiedlichen Systemen flexibel zur Verfgung zu stellen. Kapazittserweiterungen
bei Engpssen gestalteten sich aufwndig, whrend andernorts Speicherplatz
ungenutzt blieb. Auch konnte die Datenhaltung nicht redundant organisiert werden, was nicht nur zu unvorhergesehenen
Ausfllen fhrte, sondern auch bei Firmware- und Software-Updates und ohnehin geringen Wartungsfenstern eine Unterbrechung darstellte. Die Unmglichkeit

Eine Publikation von speicherguide.de

Tests und Analysen durchzufhren, erhhte das Vertrauen in diese FirmwareUpdates dabei nicht.
Insgesamt gestaltete sich das Handling
der Speicherumgebung mit wachsender
Gre ineffektiv. Die Administration der
verschiedenen Systeme erforderte zum
einen viel spezialisiertes Know-how, zum
anderen mussten unterschiedliche Wartungsplne und Garantievertrge gepflegt werden. Weil die Laufzeit der Systeme endete, war Handeln gefordert. Fr
die wachsenden Anforderungen sollte
dabei eine zentrale Lsung gefunden werden, die zudem auch die geplante Einfhrung von VMware ESX vSphere
untersttzte.
Diese neue, strategische Speicherlsung diverse Hard- und Software-Anstze wurden evaluiert lernte man auf
einem Informationstag des Dienstleisters
Kutzschbach Electronic kennen. Das
auf den Mittelstand fokussierte Systemhaus deckt Server- und Desktop-Virtuali-

Backup fr den Mittelstand

Advertorial

sierung mit Partnern wie Vmware und


Citrix ab, bei der Speichervirtualisierung
arbeitet man mit Datacore zusammen.

Datacore Sansymphony-V erledigt fr


Storage, was Vmware und Citrix fr Server und Desktop tun. Der Storage-Hypervisor ermglicht die Zusammenfhrung
heterogener Speicher-Hardware unabhngig von Typ, Hersteller oder Technologie. Zentral und flexibel knnen virtuelle Speicherlaufwerke beliebiger Gre
physischen oder virtuellen Maschinen zur
Verfgung gestellt werden und mit Funktionen aufgewertet werden, welche die
Hardware nur systemspezifisch oder gar
nicht leistet: systembergreifende synchrone Spiegelung (Mirroring) mit automatischem Failover, asynchrone Replikation, Snapshots, Zugriffsbeschleunigung
durch Caching, kontinuierliche Datensicherung CDP, Auslastungsoptimierung
(Thin Provisioning) sowie eine automatische Speicherklassifizierung (Auto-Tiering) fr die effizienteste Datenvorhaltung
zwischen Speichermedien von SATA-Disks
bis hin zu SSD.
Die Storage-Virtualisierung mit Sansymphony-V ist eine ideale Ergnzung fr
Desktop- und Servervirtualisierung und
ein geeigneter Ansatz, um Speicher zu
konsolidieren und zukunftsfhig zu machen, sagt Andreas Fischer, Leitung
Systemvertrieb bei Kutzschbach. Gerade fr einen Mittelstndler wie Staudigl-Druck ist es wichtig, dass er sich auf
das Kerngeschft konzentrieren kann.
Wir arbeiten daran, unsere Kunden vom
Hemmschuh der komplexen IT zu befreien und liefern hierfr von der Analyse,
einem mageschneiderten Konzept bis
hin zur wirtschaftlichen Umsetzung und
Wartung alles aus einer Hand.

Das Projekt
Nach rund drei Monaten Auswahlprozess
waren die Verantwortlichen bei StaudiglDruck vom Gesamtpaket und dem Preis-/
Leistungsverhltnis berzeugt und beauftragten die Kutzschbach-Spezialisten.
Zwei Monate spter waren die Vorbereitungen, vom Bestellen der Hardware ber
das Aufsetzen der Systeme und Migration
von Daten, abgeschlossen und die Installation vor Ort wurde durchgefhrt.
In getrennten Brandschutzzonen luft
Sansymphony-V R8 auf je einem HP
DL380G7-Server. Pro Datacore-Server
ist eine HP Storage Works MSA

Bild: Datacore Software

Der Storage-Hypervisor

Mit SANsymphony-V verbessert


Staudigl-Druck die Verfgbarkeit
und Performance und zentralisiert
die Verwaltung.

P2000G3 (Fibre Channel) mit 24 Erweiterungs-Shelfs D2700 und jeweils 25


SAS-Spindeln angebunden, wodurch
pro Speichersystem rund 16,4 TByte Nettokapazitt zur Verfgung stehen.
Die Storage-Server sind fr die Synchronisierung direkt ber Fibre Channel miteinander verbunden und wie die DiskKomponenten redundant an die
Fibre-Channel-Fabric angeschlossen.
Im Front-End luft Vmware ESX Vsphere 4.1 auf zwei HP Blade-Servern B460
sowie einem HP DL380G7-System in
einer hochverfgbaren Cluster-Konfiguration. Wobei nicht nur die Daten ber
den Datacore-Spiegel redundant vorgehalten werden, sondern auch die Datenpfade fr den Zugriff auf die LUN redundant eingerichtet sind. Rund 20 virtuelle
Maschinen belegen 3,5 TByte des Datacore-Speichers, darber hinaus greifen
drei weitere physische Server ber Sansymphony-V auf das SAN zu. Diese laufen
unter der Linux-Distribution CentOS
bzw. Windows Server 2003 R2 und
belegen aktuell 6,5 TByte. Mit der ServerFarm werden unter anderem Microsoft
Exchange und SQL, eine 4D-Datenbank,
MySQL, Webserver und ERP-Systeme zentral bereitgestellt.
Nach der grndlichen Vorbereitung
verlief die Installation problemlos, wobei
man positiv wahrgenommen hat, dass
smtliche Hard- und Software-Komponenten von Datacore und Kutzschbach
auf Kompatibilitt geprft wurden. Staudigl-Druck hat Sansymphony-V zudem
mit einem drei Jahre-Support-Vertrag lizensiert, der bislang nicht in Anspruch
genommen werden musste.

13

Kutzschbach hat hier einen hervorragenden Job gemacht und uns durch die
hohe Professionalitt und Expertise im
Virtualisierungsumfeld berzeugt, schildert IT-Leiter Waldenmeier. Wir waren
von der Zusammenarbeit begeistert vor
allem die Planung des Projektes und das
Einhalten des vereinbarten Zeitrahmens
haben uns voll berzeugt.
Bei Staudigl-Druck lobt man die intuitive und gut verstndliche Handhabung
der Sansymphony-V-Software, die man
derzeit fr die Bereitstellung virtueller
Laufwerke mit synchroner Spiegelung
nutzt. Die geforderte Hochverfgbarkeit
wird so durch die redundante Datenhaltung in getrennten Brandschutzzonen
gewhrleistet. Weitere Funktionen wie
Snapshots und CDP sollen in Krze integriert werden.
Ein weiterer Mehrwert liegt in der Geschwindigkeitssteigerung des Datenzugriffs und der zentralen Administration
der Lsung. Beispielsweise konnte die
Gesamtzeit des Backups aller Server von
zwlf auf sechs Stunden reduziert werden. Durch die Konsolidierung mit Vmware und Datacore wurde auch der Energieverbrauch im Rechenzentrum um 30
Prozent gesenkt.
Die Virtualisierungsprodukte von Vmware und Datacore greifen bei uns optimal ineinander und wir knnen die Vorteile vollstndig ausnutzen. freut sich
IT-Leiter Waldenmeier. Es ist uns mglich, ohne groen Administrationsaufwand Speicher ber Sansymphony-V
virtuell aufzursten, virtuelle Maschinen
zu verschieben und somit Firmware- und
Produkt-Updates im laufenden Betrieb
durchzufhren. Wir spielen jetzt mit dem
Gedanken, Desktop-Virtualisierung und
eine Erweiterung unserer virtuellen Infrastruktur durchzufhren. Dazu haben wir
mit Datacore eine optimale Lsung implementiert, die es uns dank ihrer Hardware-Unabhngigkeit und Flexibilitt erlaubt, in die verschiedensten Richtungen
zu denken und zukunftsweisende KonK
zepte umzusetzen.

Weitere Informationen
Datacore Software GmbH
Bahnhofstrae 18,
D-85774 Unterfhring
Tel: +49 (0)89 - 46 13 57 00,
Fax: +49 (0)89 - 461 35 70 90
E-Mail: infoGermany@datacore.com
www.datacore.de
speicherguide.de

Eine Publikation von speicherguide.de

storage-magazin.de

14 Advertorial

Backup fr den Mittelstand

Fallstudie: Sparkasse sagt zu Magnetbndern Ade

Neue Backup-Landschaft
auf Disk-Backup-Basis
Die Stadtsparkasse Mnchen ersetzt Tape als Sicherungsmedium. Ziel war. es den manuellen
Aufwand und die Kosten nachhaltig zu reduzieren. Auerdem gehrte ein beschleunigtes
Recovery zu den dringlichsten Vorgaben. Zusammen mit einer virtualisierten VmwareUmgebung setzt die Bank nun auf Disk-Backup-Systeme von EMC.

Die Stadtsparkasse Mnchen ist in der


Landeshauptstadt allgegenwrtig. Eine
Filiale oder ein Selbstbedienungsautomat
ist in der bayerischen Metropole fast berall nur wenige Straen entfernt. Kundennhe beweist die traditionsreiche Bank
jedoch nicht allein durch ihre breite Prsenz im urbanen Raum, sondern zum
Beispiel auch durch einen mehrfach preisgekrnten Internetauftritt. Internet und
Online-Banking sind nur die uerlich
sichtbaren Anzeichen einer universellen
Digitalisierung, die auch hinter den Kulissen nahezu alle Geschftsprozesse prgt.
Als Folge davon steigt die Menge digitaler Daten seit Jahren in rasantem Tempo
an: 2007 umfasste ein Voll-Backup noch
durchschnittlich 27 TByte. Das entspricht
in etwa dem Inhalt von 6.000 DVDs. Im
Frhjahr 2010 waren es bereits 94 TByte
ein Anstieg um 250 Prozent!
Gespeichert wurden die gigantischen
Daten-Backups sowohl auf Platten wie
auf Bndern. Da im Verwaltungszentrum
Ungererstrae und in der Hauptstelle am
Marienplatz insgesamt vier TByte Plattenkapazitt zur Verfgung standen, landete der Lwenanteil der Daten in Tape-Librarys, die von Bandrobotern automatisch
mit Magnetbandkassetten bestckt wurden. Als strategische Lsung zur Datensicherung und Wiederherstellung setzen
wir seit langem den IBM `Tivoli Storage
Manager ein, berichtet Markus Thanner, verantwortlicher Spezialist aus der
IT-Abteilung der Stadtsparkasse Mnchen. Die Tivoli-Lsung vereinheitlicht das
speicherguide.de
Backup ber diverse System- und Anwen-

storage-magazin.de

Foto: Stadtsparkasse Mnchen

Gabriele Tremmel-Blomberg, EMC

Ein Backup-Health-Check stellte


klar, eine berlastung der Bandlaufwerke in Stozeiten war nicht
mehr auszuschlieen. Die Lsung
konnte nur ein neuaufgesetztes
langfristig tragfhiges BackupSystem sein.

dungsgrenzen hinweg. In der Stadtsparkasse Mnchen betrifft dies zum Beispiel


das Unix-Betriebssystem AIX, Linux, Mac/
OS und Windows sowie die Kommunikationsanwendung Lotus Domino und
Oracle-Datenbanken.

Bandbibliotheken stieen an
ihre Grenzen
Was sich in Zeiten berschaubarer Datenmengen in der Stadtsparkasse Mnchen
als eine probate Plattform bewhrt hatte,
stie angesichts des explosionsartigen
Datenwachstums immer mehr an Grenzen. Schon Ende 2009 hatte ein BackupHealth-Check ergeben, dass eine ber-

Eine Publikation von speicherguide.de

lastung der Bandlaufwerke in Stozeiten


nicht mehr auszuschlieen war. Zur Beseitigung solcher Engpsse wren kostentrchtige Hardware-Erweiterungen an
den betroffenen Servern erforderlich gewesen bloes Stckwerk, das den
nchsten Engpass nicht htte aufhalten
knnen. Eine langfristig tragfhige Entscheidung ber die Zukunft der BackupLandschaft war seinerzeit dringlich, weil
die Wartungsvereinbarung fr die Bandroboter im Frhjahr 2010 auslief. IT-Manager Thanner und sein Team kamen
schlielich zu der berzeugung, dass
Magnetbnder in der Stadtsparkasse
Mnchen knftig keine Rolle mehr spie-

Backup fr den Mittelstand

Advertorial

Das Systemhaus Netzwerk

Stadtsparkasse Mnchen

Die Anforderungen des Projekts


 Beschleunigte Datenwiederherstellung
 Nachhaltige Reduktion von Aufwand
und Kosten
 Nahtlose Integration in die vorhandene
Backup-Landschaft

Netzwerk ist seit 1994 als Systemintegrationshaus auf die unternehmenskritischen


IT-Infrastrukturen im Rechenzentrum spezialisiert und heute als prmierter Partner of
the Year von renommierten IT-Anbietern
wie zum Beispiel EMC einer der Partner der
Technologietreiber/Hersteller in Deutschland. Ein zweites Standbein ist seit 2007
eine eigene Software-Entwicklung, Integration weiterer Lsungen und Consulting im
Bereich IT-Security.

Jeder zweite Kontoinhaber der bayerischen


Landeshauptstadt vertraut auf die Stadtsparkasse Mnchen. Das 1824 gegrndete
Haus ist Marktfhrer im Privatkundenbereich und bietet das mit Abstand dichteste
Filialnetz in der Stadt. Mit einer durchschnittlichen Bilanzsumme von 15,3 Milliarden Euro (Stand: Ende 2011), 800.000
Kunden, 2.500 Mitarbeitern und 300 Auszubildenden ist die Stadtsparkasse Mnchen die grte Sparkasse in Bayern.

Groen Einfluss auf das Votum zugunsten der EMC-Lsung hat die darin integrierte Technologie Inline-Deduplizierung.
Inline-Deduplizierung reduziert drastisch
das zu sichernde Datenvolumen, noch
bevor der erste Datenblock auf eine Festplatte geschrieben wird. Anders als herkmmliche Kompressionsverfahren, nutzt
Deduplizierung intelligente Algorithmen
zur Mustererkennung und eliminiert auf
diese Weise smtliche redundante Dateninhalte. Dies hat den Tivoli Storage Manager so richtig auf Touren gebracht,
sagt Thanner. Unter anderem auch des-

chen Einzug gehalten. Zur effektiven


Ressourcen-Auslastung und flexiblen Synchronisation zwischen IT und Geschftsprozessen nutzt die Stadtsparkasse die
marktfhrenden Virtualisierungslsungen
von VMware. In einer virtuellen Umgebung jedoch gehorchen Backups und
Datenrekonstruktion ganz eigenen Gesetzen. Analysten zufolge erweisen sich
ungeeignete Backup-Lsungen oftmals
als Stolperstein, der so manches Virtualisierungsprojekt straucheln lsst. IT-Manager Thanner fhlt sich auch in dieser
Hinsicht auf der sicheren Seite: EMC
Data Domain ist speziell fr VmwareUmgebungen optimiert und vereinfacht
erheblich die Sicherung und Wiederherstellung virtueller Server.
Ob virtuelle oder konventionelle Serverumgebung darauf nehmen die Archivierungsvorschriften fr die deutsche
Kreditwirtschaft keine Rcksicht. Wenn
elektronisch archiviert wird, mssen die
Daten unvernderbar, reproduzierbar und
jederzeit verfgbar sein. Hochinteressant
findet Thanner in diesem Zusammenhang
die WORM-Funktion von EMC Data Domain: WORM steht fr Write Once Read
Many. Gemeint sind technische Vorkehrungen, die das Lschen, berschreiben
und ndern von Daten auf einer Festplatte verhindern. Mit WORM werden wir
den diversen Archivierungsvorschriften
zuverlssig und mit deutlich verringertem
Aufwand gerecht. Beschleunigte Backups, reduzierte Kosten und verbesserte
Compliance-Fhigkeit nein, die alten
Bandbibliotheken hat Thanner noch keiK
ne Sekunde lang vermisst.

len sollten: Trotz Bandroboter blieb zu


viel manuelle Arbeit brig. Das ewige Hinund Herschleppen der Bnder und das
regelmige Einlegen von Reinigungsbndern nahm betrchtliche Zeit in Anspruch. Immer langwieriger gestaltete
sich auch die Wiederherstellung von
Daten. In einem Notfall bestimmen Zugriffsart und Zugriffshufigkeit der Bandroboter die tatschliche Wiederherstellungsdauer. Thanner erinnert sich an
einen konkreten Fall, bei dem ein FileServer erst nach vier Tagen vollstndig
wiederhergestellt war. Und noch ein
Punkt sprach gegen den Datentrger:
Whrend der Wiederherstellung hatten
wir immer ein ungutes Gefhl, weil wir
nie sicher sein konnten, ob die betreffenden Bnder auch tatschlich noch fehlerfrei funktionieren, sagt Thanner.

Bild: EMC Data Domain

Das Projekt

Die Lsung
 2x EMC Data Domain DD660
 Servervirtualisierung mit
Vmware-Lsung

Backups auf Touren gebracht


Nach einer Prfung alternativer Produkte
anderer Anbieter zusammen mit dem
Systemintegrator NETZWERK entschied
sich die Stadtsparkasse Mnchen schlielich fr eine rein plattenbasierte BackupRecovery-Lsung von EMC Data Domain. Die wichtigsten Grnde dafr
bringt Thanner folgendermaen auf den
Punkt: EMC Data Domain beschleunigt
die Datensicherung auch bei steigendem
Backup-Volumen. Die Lsung verkrzt die
Wiederherstellungszeiten um Grenordnungen und senkt den Aufwand. Auerdem arbeitet sie reibungslos mit unserem
Tivoli Storage Manager zusammen. Statt
mehrerer Tage gelingt die Wiederherstellung von File-Servern heute in maximal
vier Stunden.
Das aufwndige Handling und die
hohen Materialkosten fr Magnetbnder
entfallen komplett. Ohne jede Beschrnkung steuert die Tivoli-Software weiterhin
die Sicherung der rund 400 E-Mail-,
File-, Applikations- und Datenbankserver
in der Stadtsparkasse Mnchen.

15

Die DD660 erreicht eine BackupRate von bis zu zwei TByte/h und
stellt eine logische Systemkapazitt von 108 TByte zur Verfgung.

halb, weil die systemeigene Deduplizierung der IBM-Lsung nun abgeschaltet


werden konnte. Dadurch wurde die CPU
stark entlastet und die Performance von
Tivoli gesteigert. Um hohe Datensicherheit und schnelle Wiederherstellung auch
in einem Katastrophenfall zu gewhrleisten, spiegelt die Stadtsparkasse die Backups zwischen den Standorten. Die InlineDeduplizierung sorgt dafr, dass dabei
ausschlielich redundanzfreie Daten via
Netzwerk bertragen werden. Dadurch
laufen Netzwerkreplikationen schneller
und bentigen weniger Bandbreite.

Vereinfachte Virtualisierung,
verbesserte Compliance-Fhigkeit
Der Megatrend Server-Virtualisierung hat
lngst auch in der Stadtsparkasse Mn-

Weitere Informationen
EMC Deutschland GmbH
Am Kronberger Hang 2a
65284 Schwalbach/Taunus
06196/47 28 0
www.emc2.de
speicherguide.de

Eine Publikation von speicherguide.de

storage-magazin.de

16 Advertorial

SEP Sesam Bare-System-Recovery sorgt bei Pneuhage fr zustzliche


Betriebssicherheit, weil die Systeme auch im Falle eines Hardware-Schadens
jetzt wieder schnell zur Verfgung stehen.

SEP sesam verdrngt IBM Tivoli Storage Manager

Neues Backup fr
Pneuhage Reifendienste
Statt die bestehende Backup-Software-Installation mit zustzlichen Lizenzen zu erweitern,
wechselt der Reifenspezialist Pneuhage auf ein neues Sicherungskonzept. Der IT-Dienstleister
Daten Rausch migriert die bisherige Backup-Lsung und implementiert SEP Sesam. Daten
lassen sich nun bei Bedarf deutlich schneller wiederherstellen.
Georg Moosreiner, SEP
Fr die zentrale Datensicherung nutzte
Pneuhage bislang den Tivoli Storage
Manager (TSM) von IBM. Als im Herbst
2009 weitere Lizenzen fr die Sicherung
zustzlicher Server bentigt wurden,
spitzte der Reifenspezialist den Bleistift
und ersetzte TSM kurzerhand durch
SEP sesam. Damit fahren wir nicht
nur auf lange Sicht gnstiger, sondern
speicherguide.de
sparen direkt vom ersten Tag an trotz

storage-magazin.de

der Aufwendungen fr den Systemwechsel, erlutert Ralf Brauer, Leiter IT &


Telekommunikation von Pneuhage. Der
Dienstleister betreibt in Karlsruhe unter
anderem die EDV fr die gesamte Unternehmensgruppe, die mit 90 eigenen Niederlassungen sowie mehr als 220 eigenstndigen Vertriebspartnern umfassenden
Service rund um Rad und Reifen bietet.
Rund 45 Server werden am Hauptsitz

Eine Publikation von speicherguide.de

zentral gesichert, viele davon sind bereits


mit VMware virtualisiert. Neben dem
SAP-System und dem Microsoft
Exchange-Mailserver sind auch die Daten zahlreicher SQL- und mySQLDatenbanken von elementarer Bedeutung fr die Unternehmensgruppe. Da
auch die IT-Infrastruktur und die Zahl der
zu sichernden Server bei Pneuhage kontinuierlich wachsen, wurde im Herbst

Foto: Pneuhage

Backup fr den Mittelstand

Backup fr den Mittelstand

Das Projekt im Detail


Anwender | Die Pneuhage Unternehmensgruppe ist mit rund 1.250 Mitarbeitern ein
modernes, zukunftsorientiertes Familienunternehmen mit Sitz in Karlsruhe. Zur Pneuhage Unternehmensgruppe gehrt neben
den Reifendiensten, die mit ber 90 Stationen in ganz Deutschland prsent sind, ein
eigener, europaweit agierender Grohandel
fr Reifen und Alufelgen. Zustzlich hat
Pneuhage zwei Produktionssttten an den
Standorten Karlsruhe und Nossen. Dort
werden LKW-Reifen mit neuen Profilen
runderneuert und erhalten so ein zweites
oder drittes Leben.
Nutzen | Mit SEP Sesam konnten die Kosten
fr den Betrieb der IT-Infrastruktur gesenkt
und die Betriebssicherheit mit der Anschaffung von SEP Bare System Recovery verbessert werden. Mit SEP-Partner Daten Rausch
hat Pneuhage einen kompetenten Partner,
der die Anforderungen des Mittelstndlers
kennt und zuverlssig umsetzt.

2009 die Lizenzerweiterung der vorhandenen TSM-Backup-Software notwendig.


Dies war die Gelegenheit, das Angebot
fr die Erweiterung der IBM-Sicherung
mit dem Umstieg auf andere Lsungen
zu vergleichen.
Im Rahmen eines Funktions- und Kostenvergleichs wurden von Pneuhage vier
potenzielle Alternativen zu TSM untersucht. Dabei stellte sich unter anderem
heraus, dass das erste Erweiterungsangebot von IBM in einer Grenordnung lag,
fr die man zum Beispiel auch den kompletten Umstieg auf SEP Sesam erhalten
konnte. Der Blick auf die Folgekosten
machte schnell klar: Sowohl bei den jhrlich anfallenden Wartungskosten als auch
bei den Kosten fr zustzliche Server waren SEP Sesam und die anderen zur Auswahl stehenden Alternativen gnstiger
als IBMs TSM.
Die endgltige Entscheidung fr SEP
Sesam brachte dann eine ausfhrliche
Prsentation durch den SEP-Partner DatenRausch aus Lingenfeld. Er zeigte, dass
die Software ber die intuitive Benutzeroberflche einfach zu administrieren ist
und eine ganze Reihe zustzlicher Funktionen bietet, welche die Datensicherung
einfacher und flexibler machen. Zudem
konnte Karl-Heinz Rausch berzeugend
darlegen, wie er die komplette Datensicherung im laufenden Betrieb migrieren

Advertorial

wollte, wobei die vorhandene SicherungsHardware, ein IBM PowerPC-Server


sowie die wertvolle IBM-Tape-Library mit
121 Slots, weiter genutzt werden.

Migration im laufenden Betrieb


Die Migration der Backup-Lsung erfolgte innerhalb von sechs Wochen bis Weihnachten 2009. Um ein kontinuierliches
Backup zu garantieren, stellte Daten
Rausch fr die Zeit der Umstellung einen
Server mit SLES10 (SUSE Linux Enterprise Server) zur Verfgung, organisierte
eine zustzliche Tape-Library und installierte SEP Sesam auf diesem Parallelsystem. Erst als alle Sicherungen auf das
provisorische System umgestellt waren,
wurde TSM deinstalliert und SEP Sesam
auf dem Power-Server installiert. Anschlieend wurde die SEP-Sesam-Konfi
guration vom SLES-Server auf den Power
PC-Server bertragen.
Durch diese Vorgehensweise hatten
alle Beteiligten whrend des gesamten
Projekts ein gutes Gefhl, erinnert sich
Rausch. Denn es war trotz des ambitionierten Zeitplans ausreichend Zeit fr einen geordneten Umzug auf das neue
System ohne den Stress, den ein kompletter Wechsel zu einem fixen Zeitpunkt
verursacht.
Natrlich stieen Daten Rausch und SEP
auch immer wieder auf Schwierigkeiten
im Rahmen des Migrationsprojekts. So
machte zunchst die Library der bergangslsung rger, weil die Sicherungsgeschwindigkeit viel zu langsam war und
auch nicht alles funktionierte wie geplant.
Dabei stellte sich heraus, dass eine SCSISchnittstelle der Bandbibliothek defekt
war. Das Problem war nach zwei Tagen
durch den Austausch gegen ein fehlerfreies Interface gelst. Im weiteren Verlauf
gab es dann wiederholt Probleme mit der
Kompatibilitt der TSM-Library und der
etwas lteren Version des PowerPC-Betriebssystems. Da sich der geplante Umstieg auf das Live-System deswegen
mehrfach verzgerte, koordinierte Daten
Rausch das weitere Vorgehen mit dem
SEP-Support und untersttzte das Team
von Pneuhage bei der Umstellung auf die
Paralleleinheit und danach wieder auf das
Livesystem.
Dies lief alles immer sehr geordnet und
ohne grere Probleme ab, so dass das
Klima im Projekt jederzeit gut bis sehr gut
war und nie jemand das Gefhl hatte,
dass es scheitern knnte, gibt Rausch zu
Protokoll. Die technischen Fragen wur-

17

den stets sehr zgig und kompetent


durch den Support und die Entwicklungsabteilung von SEP gelst und man konnte sich immer darauf verlassen, dass SEP
sofort an der Lsung arbeitete und sich
zuverlssig wieder meldete. Die Feineinstellungen an der neuen Backup-Software
konnten die IT-Mitarbeiter von Pneuhage
im Januar 2010 bereits selbststndig nach
der SEP-Sesam-Einweisung durch Daten
Rausch durchfhren. Seitdem arbeitet das
neue System mit dem SEP sesam Advanced Server Linux auf dem IBM PowerPCServer und der bestehenden Tape-Library
strungsfrei. Entsprechend zufrieden
uert sich auch Pneuhage IT-Leiter Brauer: Wir wurden im gesamten Projektverlauf stets kompetent, pragmatisch und
sehr partnerschaftlich untersttzt. Entsprechend hat es allen beteiligten Mitarbeitern Spa gemacht, dieses Projekt
gemeinsam zu bewltigen. Man merkt,
dass man bei Daten Rausch und SEP auch
als nur mittelstndischer Kunde noch einen ganz anderen Stellenwert hat. Dies
ist man leider heutzutage von vielen sehr
groen Partnern nicht mehr gewohnt.

Sicherheit verbessert
Zustzliche Sicherheit bringt fr Pneuhage auch das neue SEP sesam Bare System
Recovery Module (BSR). Damit lassen
sich die Linux-Server und der Microsoft
Exchange-Server im Notfall bei Brand,
Diebstahl oder Hardware-Schaden innerhalb weniger Stunden auf eine beliebige
neue Hardware mit allen Betriebssystem
einstellungen und Benutzerdaten wiederherstellen. Durch die deutlich verbesserte
Sicherungsstrategie wird ein Restore zudem wesentlich schneller, da viel weniger
Bnder bentigt werden als bei der vollautomatischen TSM-Sicherung, bei der
die Daten weit verstreut ber viele Bnder
im System verteilt lagen. Nachdem die
neue Backup-Lsung nun schon einige
Zeit bei uns im produktiven Einsatz ist,
sind wir sicher, mit SEP Sesam und Daten
Rausch als Einfhrungspartner die richtige Entscheidung getroffen zu haben,
resmiert Pneuhage IT-Leiter Brauer. K

Weitere Informationen
SEP AG
Ziegelstrae 1, D-83629 Weyarn
Tel.: + 49 (0) 8020 - 180-0
Fax: + 49 (0) 8020 - 180 666
E-Mail: info@sep.de
www.sep.de
speicherguide.de

Eine Publikation von speicherguide.de

storage-magazin.de

18 Advertorial

Backup fr den Mittelstand

Mehr Backup-Geschwindigkeit und Datenverfgbarkeit in einem System

Datensicherung virtualisierter
IT-Umgebungen von klein- und
mittelstndischen Unternehmen
mit Funktionalitten der Enterprise-Klasse die preislich sehr
attraktive Kombination aus EMC
NetWorker Fast Start und der
Deduplizierungs-Appliance EMC
Data Domain 160 machts mglich.

Herausforderung des Mittelstands

Johannes Bertele, Orchestra


Wer kennt ihn nicht, den Hype-Zyklus von
Gartner. Er drckt aus, welche Phasen
der ffentlichen Aufmerksamkeit eine
neue Technologie bei deren Einfhrung
durchschreitet. Zu Beginn steigt die Aufmerksamkeitskurve stark an, bevor sie
nach erreichtem Hhepunkt genauso
schnell wieder abfllt. Nach dem Tal der
Ernchterung und dem Pfad der Erleuchtung gelangt man auf das Plateau der
Produktivitt. Jetzt erst werden die Vorteile allgemein erkannt und akzeptiert.

Big Data tritt ins Rampenlicht


Die Cloud-Technologie, heute im Tal der
Enttuschung bereits angekommen, folgt
1:1 dieser Darstellung. Und noch bevor
die flchendeckende praktische Umsetzung erfolgt, tritt Big Data ins Rampenlicht. Anders als bei Cloud, handelt es sich
bei Big Data nicht um eine Hype-Erscheinung einer neuen Technologie.
Vielmehr ist es eine Erweiterung bestehender Datenanalysemethoden und -verfahren. Sie kommen zum Einsatz, wenn
klassische Standard-Datenbanken und
-tools versagen, so etwa bei immens groen Datenmengen und unterschiedlichsspeicherguide.de
ten Datenquellen.

storage-magazin.de

IT-Verantwortliche kleinerer bis mittlerer


Unternehmen mssen keine Unmengen
an Daten analysieren. Sie stehen ganz
anderen Herausforderungen gegenber.
Die Produktivdaten des Unternehmens
mssen mit einem vertretbaren Aufwand
verwaltet werden knnen. Eine Disziplin
davon ist die Datensicherung. Hochkomplexe, kostenintensive Konzepte sind fehl
am Platz. Vielmehr geht es um einfache,
flexible, verlssliche Backuplsungen zu
einem bezahlbaren Preis.
Vor wenigen Jahren waren Datensicherungskonzepte schnell entworfen. ClientSoftware, Backup-Server und eine TapeLibrary bildeten das Grundgerst. Ein mit
dem Kunden abgestimmter Sicherungsplan spiegelte die SLAs wider. Mit dem
Einzug der Server-Virtualisierung durch
VMware & Co erlebte das Backup eine
Renaissance.

Autodiscovery
Virtuelle Maschinen schossen wie Pilze
aus dem Boden. Nicht selten wurde spter schmerzlich festgestellt, dass die in
fnf Minuten kreierte VM seit Monaten
nicht mitgesichert wurde. Eine BackupLsung muss selbststndig erkennen und
darauf hinweisen, dass neue Systeme

Eine Publikation von speicherguide.de

Bild: Orchestra

1 und 1 ergibt 3
Vorbei die Zeiten, in
denen neue VM-Clients
versehentlich nicht
mitgesichert wurden

entstanden sind, aber noch nicht gesichert werden.


Die Backup-Software NetWorker von
EMC geht noch einen Schritt weiter. Die
grafische Darstellung der virtuellen Umgebung ist stark an Vmware angelehnt.
Ohne tiefe Kenntnisse ber das BackupProdukt knnen nun Vmware-Adminis
tratoren ganz einfach in wenigen Schritten den neuen VM-Client in die Sicherung
mit aufnehmen.

Auslastung beachten
Mit steigender VM-Dichte erhht sich
Einsparpotenzial und Auslastung der Systeme. Test- und Evaluierungsumgebungen tummeln sich neben geschftskritischen Anwendungen auf ein- und
demselben Server. Ordentlich konzipiert,
sind Serverauslastungen von ber 80 Prozent zu verzeichnen. Herkmmliche Backup-Verfahren sind dafr ungeeignet, da
der zustzliche Workload zu hoch wre.
Gut beraten ist, wer mit Networker die
Mglichkeiten ausschpft, die Hersteller
wie Vmware bieten.
Die Untersttzung der VADP-Schnittstelle (vStorage API for data protection)
und des Change Block Tracking-Features (CBT) erlauben sowohl ressourcenschonende Gast-, als auch Image-Siche-

Backup fr den Mittelstand

rungen. Die native Untersttzung


erfordert dabei keine weitere Software.
Networker ist zudem in der Lage, VADPSicherungen ber SAN oder IP durchzufhren. Dies ist ein wichtiges Kriterium,
ist doch im Mittelstand nicht zwangslufig eine SAN-Infrastruktur vorhanden. Im
Restore-Fall kann der Administrator selbst
aus Image-Sicherungen mhelos einzelne
Dateien zurckspielen.

Lizenzierung in virtuellen
Umgebungen eine Kostenfalle?
Die Virtualisierung erlaubt es Administratoren, flexible Backup-Konzepte zu realisieren. Die Sicherung der virtuellen Maschine auf Dateiebene ist in vielen Fllen
vllig ausreichend. Dazu ist lediglich eine
Backup-Client-Softwarekomponente notwendig. Datenbanken bentigen hingegen zustzliche Backup-Komponenten.
Sie sorgen fr eine konsistente Datenbanksicherung, die fr verlustfreien Restore zwingend erforderlich ist. Technisch
ist das keine Herausforderung mehr, eher
kaufmnnisch.
In den Zeiten vor der Virtualisierung
liefen Datenbanken immer auf einem dedizierten physikalischen Server. Dieses
System war aus Backup-Sicht zu lizenzieren. Heute teilen sich mehrere Anwendungen eine Physik und das nicht statisch,
sondern dank vMotion & Co recht
dynamisch. Aus lizenzrechtlicher Sicht ein
komplexes und fr den Anwender nicht
immer gnstiges Unterfangen. EMC reagierte auf diese Herausforderung bereits
mit der Einfhrung von NetWorker 7.5.
Das Paket lizenziert lediglich den physikalischen Server, also ESX-, Hyper-V- oder
Xen-Server. Dabei ist es unerheblich, welche Ausstattung, sprich Anzahl CPUs oder
hnliches der Server besitzt.
Mit einer solchen Lizenz kann der Kunde unbegrenzt viele virtuelle Maschinen
sichern und natrlich auch restoren. Analog verhlt sich dies mit etwaigen Applikationsmodulen, die zum konsistenten
Sichern von Datenbanken notwendig
sind. Es wird eine einzige Lizenz pro Applikationstyp und physikalischem Server
bentigt. Dieses Modell vereinfacht die
Lizenzierung ganz erheblich und ist fr
den Kunden somit leicht berechenbar und
planbar. Diese Art zu lizenzieren untersttzt die enorme Flexibilitt, die der Networker fr virtuelle Umgebungen zur
Verfgung stellt. Ob Sicherung auf Dateioder auf Image-Levelebene, ob temporres Testsystem oder zeitlich begrenztes

Advertorial

Entwicklungssystem, ob heute auf diesem


ESX oder morgen auf dem anderen die
Networker-Lizenzierung bleibt einfach
und kostengnstig.

Wohin mit den Backup-Daten?


Die Server-Virtualisierung erlaubt dem
Administrator, auf Datei- oder ImageLevelebene zu sichern. In der praktischen
Anwendung werden oft beide Arten verwendet. Aus Backup-Sicht sind Datei- und
Image-Sicherungen vllig unterschiedliche Quelldaten, und deshalb werden sie
auf dem Sicherungsmedium unabhngig
voneinander abgelegt. Die Anzahl Versionen und die Aufbewahrungsdauer bestimmen letztendlich den Platzbedarf auf
dem Backup-Medium.
Je nach Konzept variiert die BackupDatenmenge, die auf Tape oder Disk vorgehalten werden muss, zwischen dem
10- und 30-fachen der Produktivdaten.
Im Vergleich zu einer diskbasierten Backup-Lsung weisen Bandroboter einen
hheren Verwaltungsaufwand und grere Stranflligkeit auf. Dennoch machten aufgrund des wesentlich gnstigeren
Kauf- und Wartungspreises lange Zeit die
Tape-Librarys das Rennen.
Schlagartig gendert hat sich dies mit
dem Einzug der Deduplizierungstechnologie. Vorreiter und unangefochtener
Marktfhrer bei Deduplizierungs-Appliances mit ber 60 Prozent ist EMC mit
ihrer Produktreihe Data Domain. Das Prinzip ist einfach. Daten, die die BackupSoftware sichert, werden vor dem Abspeichern auf Platte auf Redundanzen
untersucht. Erkannte Segmente werden
nicht auf Platte geschrieben, sondern erhalten lediglich einen platzsparenden
Verweis auf das bereits vorhandene Segment. Orchestra vertreibt ber Partner
die Data-Domain-Systeme. Eine Analyse
ihrer ber 400 Data-Domain-Kundenin
stallationen zeigte ein durchschnittliches
Einsparpotenzial zwischen 90 und 95
Prozent. Sehr hohe Deduplizierungsraten
erreichen Kunden in virtuellen Umgebungen beim Einsatz von Image basierenden
Sicherungen.

19

gen an einen weiteren Standort ermglicht einfache und hchst effiziente Disaster-Recovery-Vorsorge.
Networker untersttzt Data Domain im
vollen Funktionsumfang. Unter Verwendung des Data-Domain-Boost-Protokolls
ist Networker in der Lage, Teile des
Deduplizierungsprozesses selbst zu
bernehmen. Dadurch erhht sich die
Backup-Geschwindigkeit, bei gleichzeitiger Entlastung des Data-Domain-Systems.
Die Nutzung des DD-Boost-Protokolls erlaubt Networker zudem die Replikationssteuerung und den direkten Zugriff auf
die Daten im Disaster-Recovery-Standort.

Alternative auch fr
den Mittelstand
Mit der Einfhrung des Einstiegsmodells
DD160 ist Datendeduplizierung nun
auch fr den unteren Mittelstand eine
echte Alternative zu Band oder klassischem Backup-to-Disk geworden. Eine
nutzbare Kapazitt von ca. 3,7 TByte und
eine maximale Geschwindigkeit von 1,1
TByte/Stunde erfllt die Anforderung kleinerer Unternehmen allemal.
Die Vorteile beider Technologien knnen Kunden in dem von EMC geschnrten Bundle aus DD160 und NetWorker
Fast Start nutzen. Das Einstiegsbundle
ist speziell auf kleinere bis mittlere Unternehmen abgestimmt. Volle Funktionalitt
der Enterpriseklasse mit einer uerst
einfachen Handhabung macht das preislich aggressive Paket interessant.
Mit im Lieferumfang befindet sich zudem eine Videoanleitung. Darauf wird
Schritt fr Schritt durch die Konfiguration
gefhrt. IT-Generalisten, die im Unternehmen sehr viele Themen bedienen mssen
und keine Spezialisierung auf Backup
besitzen, knnen in krzester Zeit Datensicherungen dedupliziert ausfhren. Und
dass Datendeduplizierung auf der Gartner-Hype-Kurve bereits das Plateau der
Produktivitt erreicht hat, zeigen unabhngige Studien. Mehr als 40 Prozent der
Unternehmen setzen heute bereits Datendeduplizierung ein, weitere 40 Prozent
K
planen dies mittelfristig.

Aufeinander abgestimmt BackupSoftware und Backup-Device

Weitere Informationen

Die Data-Domain-Deduplizierungs-Appliances integrieren sich nahtlos in jede


Backup-Umgebung. Der Zugriff kann
ber TCP/IP oder Fibre-Channel erfolgen.
Die Replikation deduplizierter Daten ber
gering dimensionierte WAN-Verbindun-

Orchestra Service GmbH


Zeppelinstrae 2
82205 Gilching
Sales Hotline: +49 (0) 8105 - 370 370
Fax: +49 (0) 8105 - 370 100
www.orchestra.de
speicherguide.de

Eine Publikation von speicherguide.de

storage-magazin.de

20 Virtuelle Datensicherung

Backup fr den Mittelstand

Verlust geschftsrelevanter Daten ist existenzgefhrdend

Vorgaben beim Backup von


virtuellen Umgebungen
Einschlgige Backup-Richtlinien sind als gngige Geschftspraktiken juristisch relevant.
Zudem gibt der Datenschutz Regeln vor, fr deren Einhaltung die Geschftsfhrung persnlich
haftet. Dabei ist es unerheblich, ob die IT-Architektur mit virtuellen Umgebungen oder auch
auf der Basis des Cloud Computing betrieben wird.

Bei den technischen Aspekten zum Backup virtueller Systeme konkurrieren verschiedene Anstze um die beste Abdeckung der Anforderungen. Doch wichtig
sind im Umfeld Sicherung, Archivierung
und Wiederherstellung vor allem die
gesetzlichen Vorgaben. Hier stehen speziell die steuerlich relevanten Dokumente
im Mittelpunkt des Interesses. Eine konkrete und explizite, rechtliche Vorschrift
fr das Anfertigen von Sicherungen gibt
es allerdings nicht. Doch darauf sollte kein
verantwortungsbewusster IT-Leiter in einem Unternehmen verzichten.
Doch wer glaubt, dass ein Backup lediglich freiwillig sei und mit ComplianceVorgaben gar nichts zu tun habe, der geht
allerdings zu weit. Denn einschlgige
Untersuchungen von verschiedenen
Marktforschern belegen: Verliert ein Unternehmen geschftskritische Daten,
dann reduzieren sich seine berlebenschancen auf dem Markt sehr stark. Daher
sollte man dieses Risiko nicht eingehen.
EU-weit gltige Paragraphen, wie
etwa das als Basel II bezeichnete Gesetz, definieren den verantwortungsvollen Umgang mit Informationstechnologie
im Unternehmen als ein wichtiges Kriterium fr die Bonitt einer Firma. Zudem
ist die Datensicherung eine Selbstverstndlichkeit das hat das Oberlandesgericht Hamm bereits in einem Urteil
2003 festgestellt. Komplette Prozesse zur
Sicherung und Wiederherstellung von ITspeicherguide.de
Systemen gelten somit nicht mehr als eine

storage-magazin.de

freiwillige Leistung. Im Katastrophenfall


kann ein Datenverlust aufgrund fehlender
Backup-Prozesse unangenehme Folgen
fr ein Unternehmen nach sich ziehen:
Das Spektrum reicht von hheren Zinsen
ber Haftung im Schadensfall bis hin zu
Regressansprchen.

Unterschiede zwischen
Archivierung und Sicherung
Wer nicht nur den rechtlichen Kontext
beachtet, der wird feststellen: Sicherung
und Archivierung verfolgen unterschied-

liche Zwecke. Die eine beugt dem Datenverlust vor und sorgt im Ernstfall fr eine
mglichst schnelle Wiederherstellung und
eines produktiven Zustands von Daten
und Anwendungen zu einem definierten
Zeitpunkt. Damit wird letztendlich die
Anforderung nach Geschftskontinuitt
erfllt. Aktionen und Informationen, die
seit der letzten Sicherung ausgefhrt wurden und somit nicht mehr wiederherstellbar sind, bedeuten allerdings einen Verlust und damit muss man in seiner
Backup-Strategie umgehen knnen.

Grafik: EMC

Rainer Huttenloher

Ganzheitliche Sicht auf die Daten zeigt die Unterteilung


in Archivierungs- und Sicherungsaufgaben.

Eine Publikation von speicherguide.de

Backup fr den Mittelstand

Die Archivierung dagegen dient einer


langfristigen Speicherung von relevanten
Geschftsdokumenten. Sie erfolgt in erster Linie, um dem Zugriffsrecht von Steuerbehrden und anderen staatlichen Stellen zu entsprechen. Hier kommt auerdem
der Begriff GdPDU ins Spiel, und somit
die Anforderung, Daten vollstndig, untersuchbar und manipulationssicher zu
speichern.

Unterschied zwischen Archivierung


und Sicherung
Archivierung deckt aber auch andere Aspekte ab: Beispielsweise wenn es darum
geht, bestimmte Informationen wiederherzustellen, die am ursprnglichen Speicherort bereits gelscht wurden und zum
Beispiel auf ein kostengnstigeres (und
langsameres) Speichermedium ausgelagert wurden.
Daher verwenden viele Unternehmen
fr die Archivierung meist nur ein System
zur E-Mail-Archivierung. Doch mittlerweile lassen sich Backup-Appliances so konfigurieren, dass sie geschftskritische
Daten dauerhaft archivieren, und somit
die fr Jahresabschlsse und andere Dokumente und Daten der Buchfhrung
gesetzlich vorgeschrieben Anforderungen
abdecken. Anders ausgedrckt: Technisch
verschmelzen Backup und Archivierung
dann an bestimmten Punkten erneut.

Persnliche Daten von


Mitarbeitern
Bei der Unterscheidung der gespeicherten
Informationen sind allerdings auch wieder
rechtliche Fallstricke zu beachten. Denn
oftmals wollen die IT-Verantwortlichen
auch lokale Festplatten der Mitarbeiter-

Virtuelle Datensicherung

PCs und die persnlichen Laufwerke in


die Datensicherung einbinden. Denn
wenn dort fr den Arbeitgeber relevante
Geschftsdateien liegen, gehren sie ja
unter Umstnden auch zu den geschftskritischen Informationen.
Mehr noch: Wenn es dabei um steuerlich relevante Dokumente geht, besteht
fr den Arbeitgeber sogar eine Pflicht,
auch die persnlichen Datentrger per
Sicherung zu erfassen. Bereits seit 2002
haben die Finanzbehrden das Recht,
auch auf lokale Festplatten zuzugreifen.
Von diesen Regelungen sind jedoch Ordner ausgenommen, die deutlich als Privat gekennzeichnet sind und in denen
auch keine geschftsrelevanten Daten
liegen. Daher sollten Unternehmen eine
Richtlinie einfhren, die besagt: Persnliche Dateien und Dokumente werden nur
in einem entsprechend deutlich gekennzeichneten Verzeichnis gespeichert. Diese Ordner gilt es dann per Konfiguration
der Sicherungs-Software in den vordefinierten Backup-Prozessen vom BackupVorgang auszuschlieen.
Gesetzlich strengere Regeln gelten allerdings immer dann, wenn Daten, aus
denen sich ein Personenbezug ableiten
lsst, ins Spiel kommen. Das ist in aller
Regel bei vielen Daten der Fall, die im
Bereich der Personalabteilung anfallen.
Deswegen sind weitere Vorschriften des
Bundesdatenschutzgesetzes (BDSG) einzuhalten. Es verpflichtet Unternehmen
dazu, personenbezogene Daten zu lschen, wenn sie fr den weiteren Geschftsbetrieb nicht lnger ntig sind.
Zudem und das ist eine wichtige Anforderung muss der Zugriff von unbefugter Seite unterbunden werden.

21

Werden die Daten als zustzliche Sicherung beispielsweise einem Dienstleister


bergeben, so ist dies aus juristischer
Sicht Datenverarbeitung im Auftrag
selbst wenn mit den Daten nichts passiert
und niemand Zugriff darauf hat. Der Auftraggeber ist daher auch verpflichtet, mit
Hilfe von vertraglichen Regeln und Kontrollen die Einhaltung der Datenschutzregeln sicherzustellen.

Backup-Auslagerung an
Dienstleister
Generell erscheint die Auslagerung der
kompletten Backup-Aufgabenstellung an
einen externen Dienstleister als eine interessante Alternative. Doch aus rechtlicher
Sicht wird ein Unternehmen damit nicht
die Verantwortung los: Nach wie vor haftet die Geschftsfhrung des beauftragenden Unternehmens. Wenn es durch
ein nicht ordnungsgem ausgefhrtes
Backup zu einem Schaden kommt, muss
der geschlossene Vertrag zwischen auftraggebenden Unternehmen und Dienstleister diese Aspekte alle abhandeln.
Denn diese Aufgabe liegt in der gesetzlichen Verantwortung der Geschftsfhrung des Auftraggebers.
Ein dringend ntiger Punkt in dem Vertrag ist die Angabe der Laufzeit. Wie bei
allen Vertrgen im Umfeld der Auftragsdatenverarbeitung knnen die Vertrge
auch auf unbestimmte Zeit geschlossen
werden mit der Mglichkeit zur ordentlichen Kndigung. Eine Rckgabe der
personenbezogenen Daten bei Vertragsbeendigung muss aufgrund der gesetzlichen Vorgabe im BDSG (genauer: in Paragraf 11 Absatz 2) ebenfalls vereinbart
K
werden.

Anzeige

speicherguide.de


Eine Publikation von speicherguide.de

storage-magazin.de

22 Datensicherungs-Software

Backup fr den Mittelstand

Im Vergleich: ARCserve R16 und Backup Exec 2010 R3

Fotos: CA / Symantec

Datensicherung fr
den Mittelstand
Vom Funktionsumfang her
sind ARCserve R16 und
Backup Exec 2010 R3
relativ identisch.

Viele Wege fhren vom produktiven Server zum BackupMedium. Welchen Weg die Daten beschreiten, bestimmt
die Backup-Software. Die Wahl der passenden Lsung fllt
manchem Administrator schwer, da sich die Programme
in ihren Funktionen und Konzepten enorm unterscheiden.
speicherguide.de stellt zwei groe Lsungen gegenber.

Max Lessel
Die Datensicherung ist eines der drei unangenehmen IT-Themen. Jeder IT-Leiter
muss viel Geld fr Klimatisierung, eine
ausfallsichere Stromversorgung und das
Backup in die Hand nehmen, obwohl er
von diesen Lsungen keinen unmittelbaren Nutzen versprt. Klima und Strom
kosten zwar Geld, aber einmal installiert
verrichten diese Systeme ohne weiteres
Zutun und bei regelmiger Wartung ihre
Dienste. Der Administrator hat damit wenig am Hut.
Anders allerdings sieht die Lage beim
Backup aus. Lange vor der Anschaffung
der Hard- und Software muss der IT-Leiter
seine Datensicherung strategisch planen.
Was wird wie oft gesichert und wohin?
Wie viele Daten gilt es zu sichern, welches
Speicher-Volumen ndert sich tglich und
wie lange muss welche Sicherung aufbewahrt werden? Je nach Strategie muss
der Verwalter pro aktives GByte Daten bis
zu fnf GByte Backup-Speicher vorhalten,
auf Disk, auf Band oder auf einer Kombination von beiden.
Die nchste Herausforderung ist eine
Rumliche. Befindet sich der BackupSpeicher im selben Raum wie die ei
gentliche IT-Infrastruktur, steht das Sicherungskonzept auf wackeligen Fen.
Ein Elementarschaden wie Brand oder
Wasser wrde Live- und Sicherungsdaten
speicherguide.de
vernichten.

storage-magazin.de

In der Praxis kommt bei mittelstndischen Unternehmen daher sehr hufig


folgende Architektur zum Einsatz: In einem vom Serverraum abgetrennten
Brandabschnitt steht ein physischer Backup-Server, meist mit lokalen SATA oder
NL-SAS-Laufwerken und einem kleinen
Tape-Autoloader oder einer Bandbibliothek. Hufig nutzen die Unternehmen bei
Neuanschaffungen im primren Rechenzentrum die dabei frei werdenden lteren
Server samt Speichersystemen und lassen
diese das Backup bernehmen.
Wider allen Rufen Tape ist Tot setzt
die Mehrzahl der IT-Leiter in mittelstndischen Unternehmen nach wie vor auf
Bnder als Sicherungsziel. Besonders Firmen ohne Backup-Server im getrennten
Brandabschnitt bevorzugen Tapes, weil
sie die Cartridges problemlos auerhalb
der Gefahrenzone lagern knnen. Auch
die berall Einzug haltende Virtualisierung ndert daran nur wenig. Zwar ndern sich die Backup-Konzepte weg von
agentenbasierten Sicherungen hin zu
VM-Snapshots, doch auch diese lassen
sich gut auf LTO-Cartridges bannen.

Neue Backup-Strategie
erfordert Umdenken
Die Zeiten der klassischen Grovater-Vater-Sohn Bandrotation neigen sich dem
Ende. Auch tgliche Vollsicherungen, wie

Eine Publikation von speicherguide.de

sie einzelne Administratoren immer noch


laufen lassen, haben in einer modernen
Backup-Strategie nichts mehr zu suchen.
Heute setzen IT-Verwalter auf andauernde Disk-to-Disk Zuwachssicherungen (Incrementals). Ein klassisches Voll-Backup
gibt es nur noch beim ersten Sicherungsjob und in sehr groen Intervallen. Aus
dem Disk-Backup-Storage kann eine moderne Backup-Software jederzeit den
Datenbestand eines Tages ermitteln, ohne
dafr eine Vollsicherung machen zu mssen. Dieses so genannte synthetische VollBackup lsst sich dann eigens auf Disk
sichern oder direkt auf Band auslagern.
Der Vorteil der Strategie ist klar ersichtlich:
Da es ausschlielich inkrementelle Sicherungsauftrge gibt, bleiben die BackupZeiten auch in greren Umgebungen
gering. Die synthetischen Vollsicherungen
belasten nur den Backup-Server, whrend
die zu sichernden Clients und Server unbehelligt weiter arbeiten.

Dedup oder nicht Dedup


Ein groes Thema bei der Backup-Strategie ist die Deduplikation. Wie viel Einsparung bringt ein Single-Instance-Storage
tatschlich? Zunchst erfordert diese
Technik einiges an Rechenleistung und
Arbeitsspeicher. Whrend fr einen regulren Backup-Server eine kleine QuadCore-CPU und vier bis acht GByte RAM

Backup fr den Mittelstand

Datensicherungs-Software

Der Auswahldialog von BackupExec offeriert mehrere Quellpfade zu virtuellen Systemen.

gengen, sollte der Administrator fr


einen deduplizierenden Sicherungs-Server gleich zwei Quad- oder HexacoreCPUs und 24 GByte RAM einplanen.
Verschiedene Hersteller versprechen
sagenhafte Einsparungsmglichkeiten
mit deduplizierenden Speicher. Da ist gerne mal die Rede von Dedup-Raten um
1:50. In der Praxis hngt es davon ab, wie
und was man sichert. Wer eine tgliche
Vollsicherung in einen Dedup-Speicher
schreibt, hat gute Chancen, die 1:50 tatschlich zu erreichen.
Eine intelligente Sicherungsstrategie,
die auf inkrementellen Sicherungen und
synthetischen Voll-Backups basiert, hebelt
allerdings die Deduplikation weitgehend
aus. Hier wird bereits bei der Sicherungsauswahl darauf verzichtet, vorhandene
Daten erneut zu bertragen. Dann sinkt
die Dedup-Rate dramatisch. Oft fahren
Administratoren gnstiger, wenn Sie sich
die teure Dedup-Lizenz und die strkere
Serverkonfiguration einsparen und stattdessen ein paar gnstige 2-TByte-Laufwerke mehr in ihren Backup-Server bauen.

ARCserve und Backup Exec

speicherguide.de hat mehrere aktuelle


Backup-Programme getestet, welche sich
laut dem jeweiligen Hersteller gut fr mittelstndische Unternehmen und deren
EDV-Umgebung eignen sollen. In diesem
Beitrag stellen wir die zwei groen modularen Pakete Symantec Backup Exec
und CA ARCserve gegenber. Beide
strotzen vor Funktionen und eigenen sich
auch fr groe Installationen.
Die IT-Verwalter sind gut beraten, wenn
Sie ihre Datenbestnde und Anforderungen an die Sicherung im Vorfeld sehr

genau analysieren, bevor sie ein bestimmtes Programm auswhlen. Wer die Zeit
hat, sollte sich die in Frage kommende
Applikation als Testversion besorgen und
prfen, ob Administratoren, IT-Umgebung und Daten tatschlich damit zurechtkommen.

Backup Exec 2010 R3:


Der alte Mann und die Bnder
Kaum zu glauben, aber Backup Exec (BE)
feiert in diesem Jahr seinen 30. Geburtstag. Zwischen 1982 und heute hat die
Software stolze neun Mal den Besitzer,
aber nur ein Mal den Namen gewechselt.
Vom Maynard MaynStream der 80er
Jahre ist nichts geblieben. Die kleine TapeBackup-Software ist zum modularen Sicherungsriesen mutiert. Alleine die Liste
der kostenpflichtigen Add-On-Module ist
heute lnger als die Funktionsliste der
frhen Backup-Exec-Versionen aus den
90ern.
Die Software ist in den Jahren zu einer
Art Schweizer Taschenmesser der Datensicherung mutiert: Sie kann so ziemlich
alles, auch wenn es nicht fr alle Teilbe
reiche die optimale Lsung darstellt. Eigentlich sollte das Programm eher den
Einsteigerbereich abdecken, da Symantec
als Enterprise-Lsung auch NetBackup
im Programm hat. Allerdings legt BE kontinuierlich an Funktionen zu und bernimmt dabei immer mehr Features von
Netbackup.
Backup Exec sichert die im Netzwerk
vorhandenen Server ber eigene Agenten
(File, SQL, Exchange, Oracle), vSphere
oder auch Hardware-Snapshots der untersttzten SAN-Speichersysteme. Als
Ziele kennt die Software Bandgerte und

23

-Wechsler, sonstige Wechselmedien (z.B.


USB-Platten, RDX), normale und deduplizierende Dateiordner, NDMP-und OSTSpeicher sowie Cloud-Dienste von Symantec. Im Test arbeitet das Programm mit
einem Backup-to-Disk-Ordner auf einem
SAN-Laufwerk, einem Dedup-Ordner, auf
einem zweiten SAN-Laufwerk sowie der
ber iSCSI angebundenen RDX QuickStation im Simulationsmodus fr eine
LTO-3-Library.
Die Installation von BE richtet eine SQLDatenbank fr den Katalog und die diversen Dienste der Software ein. Der
konfigurierte Funktionsumfang hngt
dabei von der angegebenen Lizenz ab.
Das Live-Update-Tool holt aktuelle Updates aus dem Internet und dann ist die
Software einsatzbereit. Ein Device-Configuration-Wizzard richtet die verfgbaren
Zielspeicher wie Tapes, Disk-Backup und
Dedup-Folder ein.
Ein Remote-Installation-Wizard kann
Backup-Agenten via ADS an weitere
Rechner verteilen oder auch zustzliche
Medienserver installieren. Im Test funktioniert die Remote-Softwareverteilung
jedoch nur mit Servern, welche den gleichen OS-Stand haben. Eine Verteilung auf
Windows-7- oder -XP-Clients schlgt
ebenso fehl, wie die Remote-Installation
auf einen 2003er-Server.
Nach der Client-Verteilung kann der
Verwalter die Backup-Jobs konfigurieren.
Ein solcher Auftrag besteht aus vier Komponenten: Die Auswahlliste beschreibt,
was zu sichern ist. Die Richtlinie legt
fest, wie, wann und wo es zu sichern ist
und wie lange es dort bleibt. Eine Richtlinie besteht aus mehreren aufeinanderfolgenden Vorlagen mit Zeitschemata
wie beispielsweise: Full-Backup to Disk
jetzt, Incremental Backup to Disk tglich, Aufbewahrung vier Wochen und
synthetisches Voll-Backup von Disk zu
Tape jeden Sonntag. Aus diesen Richtlinien entstehen dann die eigentlichen
Backup-Auftrge welche BE ausfhrt.
Bereits bei der Auswahl wird die Sache
kompliziert: Je nach Konfiguration stehen
dem Verwalter mehrere Pfade fr eine
einzige Quelle zur Auswahl, beispielsweise: Agent, Vsphere, Hardware-Snapshot,
Windows-Share oder SQL-Server. Das
Gute an BE: Der Quellpfad ist fr eine
sptere Wiederherstellung unerheblich.
Sichert der Verwalter seinen SQL-Server
beispielsweise ber einen VshpereSnapshot anstatt ber den SQL-Agenten,
kann er aus speicherguide.de
dieser Sicherung sowohl ein-

Eine Publikation von speicherguide.de

storage-magazin.de

24 Datensicherungs-Software

zelne Dateien als auch die SQL-Datenbank ber den Agenten wiederherstellen.
Voraussetzung hierfr ist jedoch, dass in
der zu sichernden VM der BE-Agent luft.
VMs ohne Agenten sichert die SymantecSoftware als komplettes VM-Image. Das
Wiederherstellen einzelner Dateien aus
einem Image ist dabei nicht mglich.
Die Benutzeroberflche, welche den
Administrator nach der Installation erwartet, drfte einen BE-Einsteiger erst einmal
berfordern. Das frei konfigurierbare Panel erschlgt in der Vorgabe-Einstellung
den Benutzer mit hunderten Funktionen.
Auch der Tab fr das Auftrags-Setup wei
zu verwirren. Wer einfach irgendwelche
Auftrge zusammenklickt, wird in der
Regel schnell mit Fehlermeldungen und
Auftragsabbrchen belohnt.
Details zu den Fehlern verrt die Software leider nicht. Stattdessen wirft BE
kryptische Fehlercodes mit Hyperlinks auf
Symantecs Support-Website aus. Dort
findet man teils sehr umfangreiche, teils
aber auch gar keine passenden Lsungsvorschlge. Etwas Abhilfe schafft das
Berichte-Modul mit einer Flle von Reports wobei es die Software an manchen Stellen mit der Reportvielfalt ein
wenig bertreibt.

Bedienung: erst Lernen, dann


Sichern
Erst einmal ist Handbuchlesen angesagt.
IT-Verwalter mit wenig BE-Erfahrung und
greren Umgebungen sollten einen
Backup-Consultant ins Boot holen oder
sich vom Service-Partner oder Systemhaus
einen Spezialisten mieten, der beim Setup
der Jobs hilft und das IT-Personal im Umgang mit der Software schult.
Einen Tipp fr Trial-and-Error-Administratoren, die nicht in Service investieren
wollen: Nehmen Sie sich ein paar Tage
Zeit und konfigurieren Sie kunterbunt
Backup- und Restore-Auftrge. Sobald
Sie fnf aufeinanderfolgende Sicherun-

gen aus verschiedenen Quellen ohne


Fehler- und Warnmeldung hinbekommen, lschen Sie alle bis dahin beschriebenen Bnder und Backup-Systeme und
setzen die Konfiguration nochmal neu
auf. Dann haben Sie gute Chancen auf
einen funktionierenden Backup-Server.
Im Test sichert BE 2010R3 alle ihm zugeordneten Windows-Systeme ber
Agent und VMware. Mit Linux hat die
Software leider ihre Probleme: Der Agent
im Ubuntu-Server funktioniert nicht. ber
Vsphere-Snapshot lsst sich dieser Server
dann auch nicht sichern was aber kein
Problem von BE 2010 darstellt. Im VMFSDateisystem des Linux-Fileservers war
zum Testzeitpunkt nicht genug freier Platz
fr einen Snapshot. Eine Suse- und eine
Redhat-Maschine wandern problemlos
auf das Band.
Auch die Restore-Tests funktionieren
ohne Schwierigkeiten. Dabei fllt positiv
ins Gewicht, dass sich aus via Vsphere
gesicherten Maschinen mit Agent jederzeit einzelne Dateien zurckholen lassen.
Fazit: BE ist eine sehr leistungsstarke
Sicherungs-Software die in mittleren und
groen Installationen gute Dienste leisten
kann. Zu den Strken zhlen die vielen
untersttzten Quellwege und gute Agenten fr die Wiederherstellung. Wer sich
in das Konzept der Software einmal eingearbeitet hat, wird nach einigen Wochen
Praxis gut damit zurechtkommen. Allerdings kann BE mit den richtigen Modulen
und der Software-Insurance ganz schn
teuer werden.
Immer wieder berichten verrgerte Anwender jedoch, dass sie bei Support-Calls
nur Ansprechpartner in Indien mit sehr
beschrnkten Englischkenntnissen erreichen. Hier wre ein guter deutschsprachiger Support, wie ihn der Mittbewerb
von CA offeriert, eine feine Sache.
Backup Exec 2010 R3 eignet sich weniger fr sehr kleine Umgebungen mit
fnf oder weniger Maschinen. Hier ge-

So testete speicherguide.de:
Fr den Vergleichstest der Backup-Programme setzte speicherguide.de eine virtualisierte
Umgebung mit Vsphere 4.1 ein. Als Host arbeitete ein Dell Poweredge 805 mit zwei
Opteron Dual-Core-CPUs und 64 GByte RAM. Ein iSCSI-Speichersystem Dell Equallogic
PS6000E mit 16x 1-TByte-Platten diente als Massenspeicher. Ein HP Procurve 5406zl mit
72 Ports sorgte fr die Netzwerkanbindung. Die passende VLAN-Konfiguration trennte das
iSCSI-SAN sauber vom LAN ab.
Fr die Bandsicherung setzten wir eine Tandberg Data RDX QuickStation mit acht RDXCartridges ( 320 GByte) ein. Dank iSCSI-Anbindung und LTO-3-Library-Simulation, adressierten die Backup-Programme die Quickstation wie eine lokal angebundene Bandbibliothek.

speicherguide.de

storage-magazin.de

Backup fr den Mittelstand

Eine Publikation von speicherguide.de

ngen oft simplere Backup-Lsungen.


Groe Umgebungen profitieren von der
Funktionsvielfalt und den sehr detaillierten Einstellungsoptionen fr Quellen und
Ziele.
Wie andere Hersteller nutzt Symantec
den Markennamen brigens auch fr andere Produkte. Hier muss man genauer
hinsehen, da ein Tool wie Backup Exec
System Recovery eine eigenstndige
Anwendung fr Clients ist, die nicht viel
mit Backup Exec 2010 zu tun hat.

Arcserve R16: alles gleich und doch


total anders
Auch Arcserve hat einen langen Entwicklungsweg hinter sich. Wer in den 90ern
einen Novell-Server betrieb, hatte
zwangsweise eine Arcserve-Installation
fr das Backup am Start. Aufgrund der
langen Novell-Geschichte wurde Arcserve
fr Windows anfangs mde belchelt.
Doch im Laufe der Zeit legte die Software
weiter an Funktionen zu und zhlt heute
neben Backup Exec zu den populrsten
Sicherungsprogrammen in WindowsNetzwerken.
Vom nackten Funktionsumfang sind
sich Arcserve und Backup Exec dermaen
hnlich, dass ein simples Dito in diesem
Teil des Artikels weitgehend ausreichen
wrde, um den Funktionsumfang der
Software zu beschreiben. Die Differenzen
finden sich eher im Kleingedruckten. Wie
BE sichert Arcserve in einer lokalen SQLDatenbank erst einmal die Indexe. Als
Ziele verwaltet die Software Disk-Ordner,
Dedup-Ordner, NDMP-Speicher und TapeLibrarys sowie Cloud-Storage. Als einen
der kleinen Unterschiede kann Arcserve
auf einem Medienserver mehrere DedupFolder betreiben, whrend BE nur einen
beherrscht. Ob das von Vorteil ist bleibt
fraglich. Mehrere getrennte Dedup-Folder
liefern vielleicht mehr Performance dank
mehrerer paralleler Streams, dafr ist die
Dedup-Rate schlechter als bei einem zentralen Dedup-Ordner.
Auch Arcserve kennt Agenten, Vmware- und Hardware-Snapshots als Quellen
und wie bei BE muss der Agent in einer
VM laufen, um bei einer Sicherung via
Vsphere die Rcksicherung einzelner Dateien zu ermglichen. Arcserve offeriert
ein Tool, um den Agenten automatisch
zu verteilen. Auch hier scheitert das Tool
an den zuvor genannten Windows-XP- ,
-7- und -2003-Servern.
So weit zu den fast identischen Funktionen. In Sachen Bedienung trennen sich

Backup fr den Mittelstand

Datensicherungs-Software

Mit der Option synthetic Backup liefert der Scheduler


eine komplexe Abfolge von inkrementellen und synthetischen Sicherungen. Ein echtes Voll-Backup gibts dann nur
noch quartalsweise.

die Wege um jeweils 180 Grad. Selten


werden Administratoren zwei Programme
mit gleicher Funktion finden, die sich dermaen in der Bedienung voneinander
unterscheiden. Wer lange Jahre mit der
einen Software gearbeitet hat, wird sich
bei der jeweils anderen zu Anfang erst
einmal berhaupt nicht auskennen. Dabei
geht es gar nicht unbedingt um die Optik
der einzelnen Dialoge. Vielmehr unterscheidet sich die Logik des Backup-JobDesigns.
BE beginnt mit der Dateiauswahl und
dem Ziel, wobei es alle Ziele gleich behandelt. Zudem gibt es Sonderoptionen
wie das Verschieben oder Kopieren eines
Backup-Satzes von einem zum anderen
Medium. Eine D2D2T-Sicherung muss der
Verwalter in mehreren Schritten anlegen:
Erst als Backup-to-Disk und dann als
Copy- oder Move-to-Tape. Das Ganze
kommt dann wiederum ein einer Richtlinie zusammen.
Bei Arcserve geht es als erstes darum
wie der Sicherungsverlauf aussieht. Eine
normale Sicherung geht auf Disk oder
Tape. Dabei stehen Dedup-Ordner nicht
zur Auswahl, denn dafr gibt es einen
eigenen Dedup-Sicherungstyp. Noch
vor der eigentlichen Quellenauswahl
muss der Verwalter entscheiden, ob er
ein Staging-Backup erstellen will. Also
eine Sicherung in mehreren Schritten von
Disk-to-Disk-to-Tape. Dabei legt der Administrator dann gleich fest, welches Sicherungsziel temporr fr das Staging
und welches spter fr die Auslagerung
zum Einsatz kommt. Ebenfalls vor der
eigentlichen Quellauswahl muss der Verwalter entscheiden, ob er synthetische
Voll-Backups erstellen wird. Dann legt die
Software das passende Regelwerk fest.
Erst danach erfolgt die Auswahl der
Quellen. Dort wiederum unterscheidet

sich Arcserve kaum von BE. Auch hier gilt:


Wer VMs ber Vsphere-Snapshots sichert,
muss einen Arcserve-Agent in der VM
sitzen haben, um spter Single-File-Recovery zu ermglichen. Andernfalls bleibt
nur der Restore der kompletten virtuellen
Maschine.
Der Scheduler legt im dritten Schritt
fest, wann und wie gesichert wird. Hier
finden sich die blich verdchtigen Grovater-Vater-Sohn-Rotationen, aber auch
Vorlagen fr synthetische Vollsicherungen
mit dauernden Incrementals. Zuletzt gibt
der Verwalter das Ziel der Sicherung an:
eines bei regulren Jobs und zwei fr Staging und Auslagerung bei Staging-Jobs.
Auch bei der Recovery unterscheiden
sich die Methoden der beiden Programme. BE zeigt eine Auswahlliste aller gesicherten Daten. Dann kann der Verwalter
die Art whlen, beispielsweise VM-ImageRestore oder File-Restore. Erst im dritten
Schritt steht die Wahl des Auftragsdatums
und des Mediums an.
Arcserve hingegen offeriert im RestoreManager gleich die verschiedenen Rcksicherungstypen: beispielsweise Restore
by Tree, by Session, by Backup Media oder Recover VM. Entsprechend
des Typs erscheint eine Auswahl der wiederherstellbaren Daten. Im Test besteht
auch Arcserve die geforderten RestoreTests ohne Probleme. Wie zuvor bei der
Symantec-Software verweigert aber der
Arcserve-Backup-Agent den Dienst im
virtuellen Ubuntu-Server.
Die GUI von Arcserve darf man getrost
als gewhnungsbedrftig bezeichnen.
Ein zentrales Home-Fenster verzweigt
auf die verschiedenen Module und Konfigurationsdialoge, die in sich leider nicht
immer schlssig aufgebaut sind und ein
durchgehend einheitliches Bedienkonzept vermissen lassen.

25

Fazit: Auch fr Arcserve gilt: Es handelt


sich hier um eine komplexe und sehr leistungsfhige Software. Wer sich damit
nicht auskennt sollte professionelle Hilfe
ins Boot holen, um einen Backup-Server
und die dazu passenden Schedules korrekt aufzusetzen. Fr die Trail-and-ErrorFraktion gilt die gleiche Empfehlung, wie
fr BE-Neulinge. Auch bei Arcserve fhrt
ein konzeptloses Backup-Job-Konstrukt
schnell zu einer Flle von Fehlermeldungen. Und wie beim Kontrahenten versteht
auch CA, den Anwender mit einer Flut
von Reports eher zu berfordern als zu
informieren.
Auch Arcserve eignet sich aufgrund der
Komplexitt und der Lizenzkosten in Abhngigkeit der Module kaum fr sehr
kleine Installationen. Ein Plus gibt es bei
der CA-Software: Der telefonische Support sitzt in Deutschland.

Arcserve gegen Backup Exec:


Ein klares Remis
Einen klaren Sieger im Vergleich von Arcserve gegen Backup Exec gibt es nicht.
Der Funktionsumfang beider Anwendungen ist nahezu identisch und fr die blich verdchtigen Installationen in mittelstndischen Unternehmen mehr als
ausreichend. Staging, Dedup, VmwareIntegration sowie leistungsfhige Agenten fr SQL-Server, SharePoint und
Exchange finden sich in beiden Paketen.
ber mgliche Performance-Unterschiede fllt speicherguide.de kein Urteil. Die
Differenzen sind hier viel zu stark vom
jeweiligen IT-Umfeld und den zu sichernden Daten abhngig. Auffllig war im Test
allerdings, dass der Dedup-Ordner von
Arcserve sprbar schneller arbeitet. Das
liegt teilweise an der Architektur, da CA
den Index des D2D-Folders auf einem
getrennten Laufwerk verwaltet. Zudem
scheint CA bei der Inline-Deduplikation
whrend der Sicherung etwas weniger
stark zu komprimieren. Dafr luft in regelmigen Abstnden ein Tool, was den
Dedup-Speicher nachtrglich optimiert.
Das wiederum lastet die CPUs des Backup-Servers zu 100 Prozent aus.
Letzten Endes muss der Verwalter entscheiden, welches der beiden unterschiedlichen Bedienkonzepte ihm besser
gefllt. Interessierte Kunden knnen beide Produkte als Testversion herunterladen
und 30 Tage (Arcserve) oder 60 Tage
(Backup Exec) testen. CA gibt den Kunden
whrend der Testphase auch Zugriff zum
speicherguide.de K
Telefonsupport.

Eine Publikation von speicherguide.de

storage-magazin.de

26 Backup-Hardware

Backup fr den Mittelstand

RDX-Wechselsystem mit acht Slots

Tape-Library ohne Tapes


Nach langem Warten belohnt Tandberg Data die RDX-Anwender endlich mit einem SANfhigen Autoloader fr das RDX-Cartdridge-System. Die Tape-Library-Alternative lsst sich mit
acht Medien bestcken, zeigt im Hands-on-Test aber noch Schwchen.
a
Max Lessel
Das RDX-Cartridge-System gibt es bereits
seit 2004. Die Funktion ist leicht erklrt:
In einem stofesten Plastikgehuse sitzt
eine 2,5-Zoll-SATA-Platte. Das Laufwerk ist nicht viel mehr, als ein SATA-toSATA-Brckeninterface mit einer Motormechanik zum Verriegeln und Auswerfen
der Cartridge. Am System meldet sich ein
RDX-Laufwerk als Wechselfestplatte an.
Im direkten Vergleich zu einem Bandlaufwerk hat das RDX etliche Vorteile. Es
lsst sich direkt als Disk adressieren und
hat dabei gerade beim Restore erhebliche
Geschwindigkeitsvorteile gegenber einem seriell zu lesenden Tape. Das Laufwerk kostet rund 100 Euro, dafr schlgt
eine Cartridge mit 320 GByte mit etwa
130 Euro (500 GByte mit 160 Euro) zu
Buche. Bei LTO-4 kostet das Laufwerk
1.300 Euro, eine Cartridge mit 800 GByte
jedoch nur 25 Euro. IT-Manager mit mehr
als zehn Cartridges im Einsatz, fahren mit
LTO-4 bereits gnstiger als mit RDX.
Jetzt kommt Tandberg Data mit einer
Bibliothek auf den Markt. Die RDX
QuickSstation enthlt acht RDX-Laufwerke. Die Kommunikation zum BackupServer erfolgt ber zwei 1-Gbit/s-Interfaces
und iSCSI. Das Besondere dabei ist, dass
sich die Quickstation mit vielen verschiedenen Typen beim iSCSI-Initiator melden
kann. Nativ liefert die Quickstation acht
iSCSI-Targets, eines zu jedem Laufwerk.
Modi mit nur einem Laufwerk und einer
simulierten Robotik funktionieren ebenso, wie eine vollstndige LTO-3-LibrarySimulation mit acht Slots und einem HPLTO-3-Drive. Wie gut, dass Tandberg auch
LTO-Laufwerke fertigt und somit direkten
Zugriff zur aktuellen Firmware hat. Im
LTO-3-Library-Modus beispielsweise liest
die Quickstation die Serien-Nummer der
Cartridge aus und nutzt diese als simulierten Barcode. Dieser Code erscheint
speicherguide.de
dann auf dem LC-Display.

storage-magazin.de

rg

be

Firmware lsst Platz fr


Verbesserungen
Die Konfiguration der Quickstation arbeitet im Web-Browser. Leider ist die Firmware der aktuelle Schwachpunkt des
Gerts. Die Software hat der Hersteller
ganz offensichtlich mit einer recht heien
Nadel gestrickt. Zu den bersetzungsfehlern der GUI gesellen sich fehlerhafte
Funktionen und etliche, eigentlich recht
simple Features fehlen ganz. Einige Beispiele: Im Test kam es mehrfach vor, dass
die Admin-Verbindung zur GUI durch
einen Timeout beendet wurde. Im Anschluss war es jedoch nicht mglich, sich
wieder anzumelden, da angeblich noch
eine Admin-Verbindung bestand. Das
Entfernen einer iSCSI-Verbindung (remove) heit in der deutschen GUI Auslagern. Viele Einstellungen wie IP-Zuweisungen lassen sich nur anlegen und
lschen, es gibt jedoch keinen Dialog zum
ndern. Es gibt keine Mglichkeit, die in
iSCSI-SANs blichen Jumbo-Frames
(9.000 Bytes) zu aktivieren. Zudem fehlt
ein Multipathing auf iSCSI-Ebene.
Im Test lsst auch die Performance
Wnsche offen. Im Betriebsmodus mit
Einzellaufwerken erreichen wir nur bertragungsraten von um die 25 MByte/s
(zwischen einem Windows-Initiator auf
einer RDX-Cartridge). Das liegt im Bereich
dessen, was auch mit einem per USB angebundenen RDX-Laufwerk mglich ist.
Zum Vergleich: Ein LTO-4-Laufwerk
schafft um die 120 MByte/s sofern die
Backup-Software so viele Daten heranschaffen kann.
Bei parallelen Kopiervorgngen auf
mehrere RDX-Disks in der Quickstation
bleibt die Summe der Bandbreite im Bereich der 30 MByte/s. Hier sollte mehr drin
sein. Bei iSCSI sind bis zu 120 MByte/s pro
NIC mglich, also sollten beim simultanen
Zugriff auf drei bis vier RDX-Slots um die
75 bis 100 MByte/s zu holen sein.

Eine Publikation von speicherguide.de

nd
: Ta

Da

Fot

Lesen Sie die ausfhrliche ProduktReview zur RDX Quickstation mit


Hands-on-Test auf speicherguide.de
http://bit.ly/weNMY2

Fazit: Technik mit begrenztem


Nutzen
Die RDX-Quickstation verfolgt eigentlich
ein interessantes Konzept, auch wenn es
dank miger Firmware noch etwas an
der Umsetzung hapert. Unter dem Strich
fllt die Tape-Alternative jedoch zu teuer
aus. Die Geschwindigkeit beim Sichern
lsst viele Wnschen offen, was das System aber ber schnelle Suchzeiten bei
Restore-Jobs teilweise ausgleichen kann.
Den direkten Vergleich zu einer kleinen
LTO-4-Library verliert die Quickstation
nach folgendem Rechenbeispiel: Eine Firma betreibt eine klassische GrovaterVater-Sohn-Rotation und setzt dafr 15
Cartridges ein. Zwei komplette Wochenstze fnf Tapes, vier Wochenend- und
eine Monatssicherung. Das Volumen einer Vollsicherung betrgt 300 GByte.
Kalkulation RDX: Quickstation 3.600
Euro (8 Slots), 15 Cartridges 500 GByte
160 Euro macht zusammen 6.000 Euro
bei 7,5 TByte Kapazitt. Eine Vollsicherung luft 3,5 Stunden. Einmal wchentlich mssen die fnf Inkremental-Cartridges der Woche gewechselt werden.
Kalkulation LTO-4: Autoloader zirka
5.000 Euro (z.B. Quantum Superloader
3 LTO-4, Dell PowerVault 124 T LTO4, beide 16 Slots), 15 Cartridges 800
GByte 25 Euro macht 5.375 Euro bei
zwlf TByte Kapazitt. Ein Bandwechsel
ist nicht ntig. Das Voll-Backup luft weniger als eine Stunde, sofern die BackupK
Quellen dies schaffen.

Nutzen Sie zwei fhrende Backuptechnologien


NetWorker plus Data Domain und erzielen Sie dadurch echten Mehrwert:
+
+
+
+
+

Optimale Abstimmung auf virtuelle Umgebungen


Flexibilitt
Einfachheit
Skalierbarkeit
Zukunftssicherheit

Informieren Sie sich, ob diese Rechnung


auch fr Sie aufgeht!
Unsere Pre Sales Hotline freut sich auf Ihren
Anruf unter Tel. +49 8105 370-370.
Orchestra Service GmbH Zeppelinstrae 2 82205 Gilching Sales-Hotline Tel. +49 8105 370-370 info@orchestra.de www.orchestra.de