Sie sind auf Seite 1von 22

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

Zettabyte-Barriere geknackt

Big Data - die Datenflut steigt


Datum: Autor(en): URL: 16.11.2011 Martin Bayer http://www.computerwoche.de/2500037

Die explodierenden Datenmengen werden fr immer mehr Unternehmen zu einem ernsthaften Problem. Um die Kontrolle zu behalten und mglichst viel Nutzen aus den Informationen zu ziehen, muss die gesamte IT-Infrastruktur hinterfragt werden.

Die Datenflut steigt. Foto: fotolia.com/ktsdesign Die Information ist das l des 21. Jahrhunderts, und Analytics der Verbrennungsmotor, der damit luft" - Peter Sondergaard, Senior Vice President von Gartner, bemhte eine Metapher, um die Herausforderung deutlich zu machen. Den Rohstoff Information aus gewaltigen Datenmengen zu extrahieren und zu verarbeiten sei eine der knftigen Kernaufgaben fr Unternehmen.

Neue Dimension: Zettabyte

1 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

"Big Data ist ein Katalysator fr verschiedenste Entwicklungen." Rdiger Spies, IDC. Foto: IDC Glaubt man den Marktforschern, wird sich in den kommenden Jahren eine bis dato kaum absehbare Flut an Daten1 und Informationen auf die Unternehmen in aller Welt zuwlzen. Im vergangenen Jahr durchbrach das globale digitale Universum erstmals die Zettabyte2 -Barriere (1 mit 21 Nullen), ergab die von EMC gesponserte IDC-Studie "Extracting value from Chaos". 2011 soll die weltweit produzierte Datenmenge auf ein Volumen von 1,8 Zettabyte ansteigen, das sind 1,8 Billionen Gigabyte. Damit sei die Informationsmenge den IDC-Analysten zufolge in den zurckliegenden fnf Jahren um den Faktor fnf gewachsen. IBM zufolge produzieren wir derzeit weltweit tglich 2,5 Trillionen Byte Daten (1 mit 18 Nullen). 90 Prozent des derzeitigen globalen Datenbestands seien in den beiden zurckliegenden Jahren entstanden.

Experten fassen diesen Trend unter dem Schlagwort Big Data3 zusammen. Der Begriff sei neu, nicht aber das Thema, sagen Andreas Zilch und Holm Landrock, Analysten der Experton Group. Nach ihrer Definition ist Big Data als neue Dimension zu verstehen, die ber bekannte Methoden, Prozesse und Verfahren der Datenanalyse hinausgeht. Vier Entwicklungen bestimmen laut Experton die Vernderungen:

Volumen: Die Menge der anfallenden Informationen wird weiter drastisch wachsen. Grenzen sind keine erkennbar. Quellen: Neben dem Volumen wchst auch die Zahl der Datenquellen. Waren es frher hauptschlich Transaktionssysteme, die strukturierte Daten produzierten, kommen heute vielfltige weitere Quellen hinzu wie beispielsweise Sensoren, Social Networks4 und mobile Endgerte5. Geschwindigkeit: In Zukunft werden Analysen und Auswertungen ad hoc erwartet und gefordert. Wo frher ein monatlicher Report ausreichte, geht heute der Trend in Richtung Echtzeitanalysen. Nutzer: Mit dem steigenden Datenvolumen wchst auch die Zahl der Nutzer von Datenanalysen in den Unternehmen. Die Herausforderung liegt darin, die unterschiedlichen Rollen mit den passenden Auswertungen zu versorgen. Neben diesen vier Entwicklungen gibt es aus Sicht der Analysten zwei Metaebenen, die Unternehmen beim DatenHandling beachten mssen:

Sicherheit: Die vielfltigen Informationsflsse gerade auch hinsichtlich der wachsenden Zahl mobiler Endgerte, die mit Daten versorgt werden wollen, erfordern ausgefeilte Security6 -Mechanismen. Qualitt: Mit den steigenden Datenmengen wird es fr die Unternehmen immer wichtiger, eine hohe Datenqualitt sicherzustellen. Schon heute klagen viele Firmen ber eine mangelhafte oder zumindest zweifelhafte Qualitt ihrer Datenbestnde7 .

2 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

Big Data richtig nutzen


Wer mit Big Data richtig umgeht, kann davon profitieren, wollen die Experten von McKinsey herausgefunden haben:

Der amerikanische Gesundheitssektor knnte seine Effizienz deutlich verbessern. Das Volumen wird auf 300 Milliarden Dollar pro Jahr beziffert. Handelsunternehmen wren in der Lage, ihre operative Marge um bis zu 60 Prozent zu verbessern. Europische Behrden knnten durch effizientere Prozesse jhrlich bis zu 250 Milliarden Euro einsparen. Mit Hilfe von Lokalisierungsdaten lieen sich weltweit jhrlich rund 100 Milliarden Dollar mehr Umsatz erzielen.

Gartners Trends 2012 Die in der Folge aufgelisteten Trends haben strategische Bedeutung fr Unternehmen, weil sie die IT oder das Kerngeschft knftig erheblich beeinflussen. Foto: MASP - Fotolia.com

3 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

Media-Tablets Angesichts der Vielzahl von Formfaktoren, Plattformen, Gerteklassen und Techniken im Mobility-Bereich sollten IT-Abteilungen die Rolle einer zentalen Planungsstelle aufgeben und lernen, die Vielfalt zu verwalten und gewinnbringend zu frdern.

Mobil-zentrische Applikationen und Interfaces Smartphones und Tablets haben die Grundlagen der GUI-Entwicklung verndert: Touch, Sprache und Gesten lsen Icons, Mens und Maus ab. Foto: Mihai Simonia, Fotolia.de

4 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

Kontextuelles und soziales Benutzererlebnis Kontextuelle Lsungen erkennen die Wnsche des Nutzers und bieten Produkte und Dienste vorausschauend an. Anwendung finden sie etwa in Location-Based Services und in der Augmented Reality.

Internet der Dinge Das Internet der Dinge kommt nun doch. Zunehmend werden Gerte, Maschinen und andere Objekte mit Intelligenz und Kommunikationstechnik ausgestattet. Foto: Miele

5 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

App Stores und Marktpltze 70 Milliarden App-Downloads im Jahr 2014 erwartet Gartner. Die Masse macht der Privatkunde, doch OnlineMarktpltze gibt es knftig vermehrt auch im Geschftsumfeld. Foto: Google

Analytics der nchsten Generation Die Analyse von historischen und Echtzeitdaten schafft eine Grundlage fr Prognosen und die Entscheidungsfindung. Erkennbar ist eine Verlagerung in die Cloud. Foto: SAP

6 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

Big Data Datenmenge und Zahl der Formate steigen, gleichzeitig mssen Informationen schneller verarbeitet werden. Logische Data Warehouses lsen traditionelle Installationen ab. Foto: Andrea Danti/Fotolia

In-Memory-Computing Preisverfall und Verfgbarkeit von Flash-Speichern bereiten den Boden fr das In-Memory-Computing. Foto: Samsung

7 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

Extrem energiesparende Server Neue Anbieter bewerben ihre energiesparenden Server. Oft sind sie zu leistungsschwach und zu betreuungsintensiv. Foto: Fotolia / Henry Schmitt

Cloud Computing Der Trend zur IT aus der Wolke wird kaum eine Branche verschonen. Die meisten Verantwortlichen treten nun in die Phase konkreter Projekte ein. Foto: rubysoho & mirpic, Fotolia.de

Die Lage der Anwender

8 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

"Die Big-Data-Superlsung wird es nicht geben." Andreas Zilch, Experton Group. Foto: Experton Viele IT-Anbieter haben das Thema mittlerweile aufgegriffen. Von einem anbieter-getriebenen Hype mag Analyst Zilch nicht sprechen. Auf Anwenderseite gebe es groen Bedarf, die mit wachsenden Datenbestnden zusammenhngenden Probleme zu lsen. Als Beispiel nennt er die Automobilbranche. Hier gingen die Hersteller verstrkt dazu ber, im Rahmen ihrer Modellentwicklung Crash-Tests auf Hochleistungsrechnern zu simulieren. Die dabei anfallenden Datenmengen seien gigantisch, so der Experton-Mann.

Welches Potenzial in einem verbesserten Daten-Handling stecke, lasse sich auch im Einzelhandel beobachten. Die Hndler nhmen zwar viel Geld fr Analysewerkzeuge in die Hand. Wenn man sich jedoch ansehe, welche Warenmengen nach wie vor auf dem Mll landeten, msse man annehmen, dass diese Tools nicht besonders effizient funktionierten, kritisiert Zilch.

Big Data - Chance oder Chaos? Das Beste aus der Datenflut zu machen gelingt nach Meinung von Mark Beyer, Research Vice President bei Gartner, nur mit radikalen Manahmen: "Die Information- Manager in den Unternehmen mssen ihre Datenanstze grundlegend berdenken." Angesichts des groen Drucks biete sich nun die Chance, die Art und Weise der Datennutzung anders zu gestalten. Dazu msse die IT allerdings die Business-Seite ber die damit verbundenen Herausforderungen aufklren sowie die Kontrolle und Koordination im Daten-Handling sicherstellen. "Sonst wird aus der Big-Data8 -Chance schnell ein Big-Data-Chaos."

Die Herausforderung fr die Unternehmen liege darin, mit den anfallenden Daten richtig umzugehen, besttigt Zilch. Das heit, in der Lage zu sein, die richtigen Daten zum richtigen Zeitpunkt an der richtigen Stelle zu analysieren. In der Konsequenz erfordert dieser Anspruch in erster Linie einen intelligenten Umgang mit den Informationen. Es knne nicht nur darum gehen, mglichst viele Daten zu horten in dem Glauben, damit die Hausaufgaben in Sachen Big Data erledigt zu haben.

Big Data - auch eine Frage der richtigen Skills

Neben den technischen Herausforderungen gilt es fr die Unternehmen, sich auch personell auf Big Data vorzubereiten:

McKinsey zufolge fehlen allein in den USA zwischen 140.000 und 190.000 Mitarbeiter mit analytischen Fhigkeiten. Weitere 1,5 Millionen Manager mssten sich darauf vorbereiten, mit Big Data die richtigen Entscheidungen zu treffen.

9 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

In den nchsten zehn Jahren wird die Menge der Informationen in den weltweiten Rechenzentren um den Faktor 50 zunehmen, prognostiziert IDC. Die Zahl der IT-Professionals wird sich dagegen nur um den Faktor 1,5 erhhen. Viele BI-Lsungen blieben hinter den Erwartungen zurck, haben die Analysten von IDC zudem festgestellt. Das liege vor allem an der unzureichenden Fortbildung der Mitarbeiter, die vorhandenen BI-Kapazitten sinnvoll und umfassend zu nutzen.

6 IT-Trends bis 2032 Bis 2032 wird die IT-Infrastruktur zum wesentlichen Standortfaktor fr Stdte. Selbst Mittelstndler vernetzen sich weltweit. Detecon blickt 21 Jahre in die Zukunft. Foto: Diego Cervo, Fotolia.de

1. China und Indien liegen 2032 vorn: Die Mehrheit der Weltbevlkerung und der Groteil der Wirtschaftskraft ballen sich im asiatischen Raum. China und Indien zhlen gemessen am Bruttosozialprodukt zu den grten drei Wirtschaftsnationen, wobei China deutlich vor der dann zweitstrksten Wirtschaft der USA steht. Einen erheblichen Teil seiner volkswirtschaftlichen Wertschpfung erbringt Asien auf dem Gebiet Informations- und

10 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

Kommunikationstechnologie. Foto: Caseman, Wikipedia Commons

2. IT hilft, die Kosten der alternden Gesellschaft zu dmpfen: Wegen der hohen Lebenserwartung steigen die Ausgaben fr Kranke und Alte weltweit drastisch, insbesondere in den westlichen Industrienationen. IT-Anwendungen, die die Qualitt von Diagnostik erhhen sowie Prvention und Therapie verbessern, sollen Kostensteigerungen entgegenwirken und Effizienzsteigerungen im Gesundheitssystem bewirken. Foto: Fotolia, M. Meier

3. Mega-Stdte brauchen Mega-IT-Infrastruktur: 2032 leben 60 Prozent aller Menschen in Stdten. Die Zahl der Mega-Cities - Orte mit mehr als zehn Millionen Einwohnern - steigt. Mitentscheidend fr die Standortattraktivitt einer Stadt ist die IT-Infrastruktur. Schon heute werden weltweit rund 250 sogenannter "Smart Cities" mit einer wegweisenden Informations- und Kommunikationstechnologie-Ausstattung gebaut oder zumindest geplant. Foto: ra2 studio, Fotolia.de

11 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

4. Auch Mittelstndler vernetzen sich und agieren global: 2010 betrgt das Welthandelsvolumen circa 12.500 Milliarden US Dollar - 2032 hat es sich mehr als verdreifacht. Die Arbeitsteilung erhht sich deutlich. Unternehmen flexibilisieren ihre Organisation, ihre Prozesse sowie die Interaktion mit Partnern und Zulieferern. Sie organisieren Forschung, Produktion und Vertrieb noch globaler, um regionale Unterschiede in Kosten, Kompetenzen und Marktpotenzialen bestmglich zu nutzen. Dies gilt nicht nur fr groe multinationale Unternehmen, sondern auch fr den Mittelstand. Foto: Fotolia, L. Janos

5. Unternehmen arbeiten schneller, besser, kommunikativer: Mit Hilfe von IT automatisieren Unternehmen 2032 mglichst viele Ablufe. Das betrifft die Produktion von Gtern und Dienstleistungen in allen Wertschpfungsstufen. Foto: Weim, Fotolia.de

12 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

6. Netzwerke entscheiden ber den Unternehmenserfolg: Mitglieder von eng vernetzten Unternehmen beginnen und beenden Ad-hoc-Geschftsbeziehungen. Die intelligente Vernetzung von Aktivitten und die Fhigkeit, komplex vernetzte Systeme zu steuern, entwickelt sich zu einem entscheidenden Erfolgsfaktor. Unabhngig von diesen sechs groen Trends sehen die Analysten von Detecon bis 2032 "Quantensprnge" in Leistung und Anwenderfreundlichkeit von Computern. Foto: ag visuell/fotolia

Das neue Data Warehouse

"Das Wachstum der Datenmengen ist eines der grten Probleme im Data-Warehouse-Umfeld." Carsten Bange, Barc. Foto: Barc Doch auch wenn die Unternehmen nicht mehr jedes Byte in ihren Datensilos ablegen, drften sich die Herausforderungen in Sachen Big Data9 kaum in Luft auflsen. "Das Wachstum der Datenmengen wird von den Anwendern als eines der grten Probleme im Data-Warehouse10 -Umfeld wahrgenommen", sagt Carsten Bange, Geschftsfhrer des Business Application Research Center (Barc). Das sei allerdings nicht neu. Die Unternehmen beschftigten sich bereits seit lngerem damit. Jetzt habe das Thema mit "Big Data" einen griffigen

13 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

Namen bekommen. Auerdem beeinflusse neben den wachsenden Datenmengen eine Reihe weiterer Faktoren das Data-Warehouse-Umfeld. Dazu zhlt Bange die steigende Komplexitt der Abfragen sowie hhere Ansprche der Nutzer an die Abfrage-Performance. Auerdem wachse die Zahl der Anwender, die auf effizientere Datenanalysen angewiesen seien. "Das alles sind Einflsse, die dafr sorgen, dass die Anforderungen an die Skalierbarkeit eines Data Warehouse steigen", stellt Bange fest.

Zudem mssten die Anwender im Zuge von Big Data auch mit neuen Datenarten zurechtkommen. Das Problem dabei sei jedoch, dass herkmmliche relationale Datenbanksysteme und traditionelle Analysetechniken mit den unterschiedlichen Datentypen nicht klarkmen. Lngst seien es nicht mehr nur strukturierte Daten, die die Verantwortlichen in den Unternehmen verwalten mssen, betont auch Rdiger Spies. Der IDC-Analyst will allerdings nicht von den vielzitierten unstrukturierten Daten11 reden: "Unstrukturiert sind vielleicht kosmische Strahlen, aber nicht Informationen in der IT." Spies spricht vielmehr von semi- beziehungsweise quasistrukturierten Daten. Dazu zhlten Texte und Videos. Die IT-Abteilungen in den Unternehmen seien gefordert, diese Datenstrukturen zu erkennen, auszuwerten und mit den klassischen Datenbank12 -, Data-Warehouse- und Analysesystemen zu verlinken.

Dafr gebe es mittlerweile jedoch Lsungen, sagt Bange, und verweist auf Techniken rund um NoSQL13Datenbanken. Diese Systeme knnten ergnzend zu klassischen Datenbanken zum Einsatz kommen, beispielsweise um Social Networks auf Stimmungen beziehungsweise Nennungen von Produkten oder Firmennamen zu analysieren. Die so gewonnenen Ergebnisse lieen sich wieder in strukturierte Daten berfhren und als Kennzahlen in ein DW einspeisen, beschreibt Bange eine mgliche Vorgehensweise.

Neue BI-Anstze Neben der Organisation der wachsenden Datenberge mssen die Unternehmen auch lernen, aus den Massen an Informationen den grtmglichen Nutzen fr das eigene Business zu ziehen. Eine wichtige Rolle spielt in diesem Zusammenhang das Thema Business Intelligence (BI). Doch dabei ndert sich die Zielrichtung. Stand frher vor allem das Reporting14 auf Basis historischer Daten im Vordergrund, geht es heute verstrkt darum, neue Daten in Echtzeit auszuwerten und knftige Entwicklungen zu simulieren, um eine mglichst valide Grundlage fr Entscheidungen zu erhalten. Entsprechende Lsungen fasst man unter dem Label "Predictive Analytics15" zusammen.

Eine Umfrage von Lnendonk unter BI-Anbietern hat jngst ergeben, dass Themen wie die Integration externer Datenquellen in analytische Infrastrukturen sowie die Konzeption analytischer Lsungen fr die Auswertung komplexer Datenmengen ganz oben auf den To-do-Listen der Softwarehersteller stehen. "Mit neuen Technologien zur Analyse von Big Data knnten bisher nicht lsbare analytische Probleme angegangen werden", verspricht Christoph Morgen, BI-Experte von SAS. Damit lieen sich mehr Aspekte bercksichtigen und die Genauigkeit der analytischenVerfahren erhhen. "Statisches Reporting mit Blick in die Vergangenheit hat endgltig ausgedient."

BI-Visionen mit Watson Die Anbieter arbeiten lngst an den BI-Lsungen von morgen. Fr Aufsehen sorgte zuletzt beispielsweise IBMs Superrechner "Watson",16 der zwei erstklassige menschliche Kontrahenten in der US-amerikanischen Quizsendung "Jeopardy" schlagen konnte17 . Das System analysiert durch massiv-paralleles Data Crunching innerhalb krzester Zeite riesige Datenmengen und kann mit Hilfe knstlicher Intelligenz sogar Nuancen menschlicher Sprache erkennen.

Aber auch kleine Spezialisten haben in dem neuen Feld durchaus ihre Chancen. Das Startup Proximal Labs hat zum Beispiel gemeinsam mit dem US-Verteidigungsministerium eine Lsung entwickelt, um das Know-how von Kollegen anhand von Meinungen von Nutzern im Netz zu analysieren. Damit knnte die Software im Kundenservice jeweils den geeignetsten Mitarbeiter fr bestimmte Anfragen vorschlagen. Das deutsche Unternehmen Blue Yonder kombiniert in seiner Software "NeuroBayes" neuronale Netze mit statistischen Methoden. Das System lernt dabei, nur die wirklich relevanten Informationen aus dem Datenrauschen herauszufiltern, und erhht so die Prognosegenauigkeit.

Nicht zum "Daten-Messie" werden

14 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

Andreas Stein, Managing Director Dell Services. Foto: Dell Andreas Stein, Managing Director Dell Services in Deutschland, rt den Unternehmen, nicht alles zu speichern, was sie technisch speichern knnten. "Die sinkenden Hardwarekosten verfhren dazu, der Datenflut einfach durch die Erweiterung der Storage-Systeme zu begegnen." Das sei jedoch der falsche Weg. Viele Firmen verwahrten und verwalteten Unmengen an Daten, die nie wieder gebraucht wrden. "Tatschlich sind die Unternehmen heute auf dem besten Weg dazu, Daten-Messies zu werden."

Der Dell-Manager pldiert fr eine konsequente Priorisierung von Daten. Genauso konsequent msse dann gelscht werden: "Man muss auch loslassen knnen: Was nicht zwingend gebraucht wird, muss aus den Storage-Systemen verschwinden."

Neue Lsungen der Anbieter Die Auswirkungen von Big Data reichen allerdings weit ber den Softwarebereich hinaus. Spies zufolge mssten die Anwender angesichts der rasant wachsenden Datenmengen auch ihre Netzkapazitten im Auge behalten und gegebenenfalls mit neuer leistungsstrkerer Technik ausbauen. "Das Thema Big Data knnte auch die knftigen Rechnerarchitekturen grundlegend verndern", fhrt der Analyst aus. In klassischen Architekturen wrden die Daten von Plattensystemen zur CPU transportiert, dort verarbeitet und die Ergebnisse wieder zurck auf die Speicher geschrieben. Wachsen die Datenmengen weiter an, drfte dieses Modell bald an seine Grenzen stoen. Mittlerweile gebe es berlegungen, die Rechenleistung zu den Daten zu bringen. Vanessa Alvarez, Analystin von Forrester Research, bezeichnet herkmmliche Speicherarchitekturen als zu statisch und unflexibel fr die Big-Data-Anforderungen. Besser geeignet seien dedizierte Appliances, die Storage, Computing- und Netzressourcen mit Analytics-Funktionen in einem Gert kombinierten. Hersteller wie Oracle haben diesen Ansatz in Produkten wie den "Exadata"-Maschinen bereits aufgegriffen.

Darber hinaus droht Spies zufolge die klassische Festplattentechnik zu einem Flaschenhals zu werden. Mittlerweile versuchen die Storage-Hersteller, die Speicher-Performance mit Flash-basierenden SSDs zu pushen. Darber hinaus forschen sie lngst an noch leistungsfhigeren Storage-Techniken. Nanorhren und holografische Speicher sind die Stichworte.

Beispielsweise hat IBM erst krzlich mit seiner Racktrace-Technik ein neues Speicherkonzept vorgestellt. Dabei werden Informationen in Form von winzigen, gegenstzlich magnetisierten Regionen in einem Nanodraht gespeichert. IBM zufolge lsst sich damit eine extrem hohe Speicherdichte ohne Performance-Einbuen erreichen. Allerdings werde es noch einige Jahre dauern, bis die Technik marktreif sei.

15 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

1. Strategische Ziele defnieren Ausgangspunkt fr erfolgreiche ECM-Projekte sollte immer eine klare Nutzenanalyse sein, die strategische Ziele festlegt und konkrete Mehrwerte fr das Unternehmen definiert. Die Gesamtkosten sollten berechnet sowie mgliche Risiken und Hrden kalkuliert werden. Foto: Fotolia.com/Bettina Pressl

2. Spezifische Anforderungen bercksichtigen Fachliche Anforderungen sowie die Ansprche aller Anwender sollten eingangs differenziert beschrieben werden. Nur ein sorgfltig erstelltes Fachkonzept kann dabei helfen, die Ziele zu erreichen und den Rahmen fr Aufwand und Ressourcen przise zu stecken. Foto: Michael Tieck/Fotolia.com/CW

16 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

3. Einfachheit als Prinzip Gleichzeitig fordert die d.velop AG Einfachheit zum Prinzip der konzeptionellen Planung und der entsprechenden Lsung zu erheben. Eine zu komplexe ECM-Lsung wrde nur schwer von den Benutzern akzeptiert und zu Lasten der Produktivitt gehen. Die geforderte Einfachheit wrde sich aber nicht auf den Funktionsumfang beziehen. Vielmehr sollten Implementierung, Bedienung, Betrieb und Pflege des ECM-Systems leicht von der Hand gehen. Foto: Kristian Peetz/Fotolia.com

4. Lsungen vergleichen Hat ein Unternehmen erstmal die Ziele und Anforderungen definiert, kann es sich auf dem Markt nach einer geeigneten ECM-Lsung umschauen. Hilfreich bei der Marktevaluierung ist laut d.velop AG ein differenziert ausgearbeitetes Fachkonzept. Neben dem Funktionsumfang sollten bei der Auswahl der Lsung vor allem auch die Benutzerfreundlichkeit bercksichtigt werden, aber auch Innovationsfhigkeit, Flexibilitt und partnerschaftliche Kultur des Herstellers. Foto: Fotolia.com/CW

17 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

5. Projekte intelligent planen Zu einem intelligenten Projektmanagement gehrt laut der d.velop AG, dass genaue Vorgaben definiert und przise Controlling-Prozesse implementiert werden sowie Mitarbeiter mit entsprechenden Fhigkeiten bereitgestellt respektive die Schulung von geeigneten Mitarbeitern geplant werden. Foto: CW/Fotolia.com

6. Marketing fr ECM-Projekte Im Rahmen des Projektmanagements empfiehlt die d.velop AG IT-Entscheidern, auch an das ProjektMarketing fr ihre ECM-Projekte zu denken. Da Akzeptanzprobleme zu vielen negativen Effekten fhren knnten, sollten Mitarbeiter zunchst in die Technologie eingewiesen und so dafr gewonnen werden. Foto: 12foto.de/Fotolia.com

18 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

7. Testing nicht vergessen Auch sollten Unternehmen vor dem Rollout des neuen ECM-Systems nicht auf eine Testphase verzichten. Nur unter mglichst realen Verhltnissen knne man ermitteln, ob die fachlichen Anforderungen auch tatschlich przise umgesetzt wurden.

8. Phase der Optimierung Ebenfalls nicht vergessen werden darf die Zeit nach dem Rollout. Denn mit der Implementierung sei das ECM-Vorhaben lngst nicht ausgeschlossen. Vielmehr sollte laut der d.velop AG dann eine Phase fr Optimierungsprozesse unter realen Praxisbedingungen eingelutet werden. Foto: Fotolia, Jens Richter

100 Millionen Dollar fr Big Data

19 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

IBM will weiter in Big Data investieren. Rund 100 Millionen Dollar sollen in der nchsten Zeit in Forschung und Entwicklung fr diesen Bereich flieen. Ziel der Initiative sei es, neue Produkte und Services auf den Markt zu bringen, die Unternehmen dabei untersttzen sollen, die steigenden Datenfluten in den Griff zu bekommen. Neben eigenen Entwicklungen und Zukufen setzt IBM auch auf fremde Techniken wie die NoSQL-Lsung "Hadoop18 ". Diese bietet ein hochskalierbares Filesystem, um unterschiedlich strukturierte Daten zu speichern, sowie ein Entwicklungs-Framework, um Programme fr eine parallelisierte Verarbeitung der Daten zu erstellen. Hadoop basiert auf Googles Map-Reduce-Ansatz und wird von der Apache Foundation als Open-Source19 -Lsung bereitgestellt.

Mittlerweile haben verschiedene namhafte Hersteller Hadoop-basierende Produkte angekndigt. Oracle will beispielsweise eine Big Data Appliance mit NoSQL-Datenbank und Hadoop-Werkzeugen herausbringen. Die EMC-Tochter Greenplum plant, ihre analytische Datenbank mit einer eigenen Hadoop-Distribution zu kombinieren. Und Microsoft bietet fr seinen SQL Server Hadoop-Konnektoren an.

Neben NoSQL-Lsungen gibt es eine Reihe weiterer Techniken, die laut Herstellern den Anwendern im Umgang mit Big Data helfen knnten. Dazu zhlen beispielsweise spaltenorientierte Datenbanken und In-MemoryTechniken, die Abfragen deutlich beschleunigen sollen. Neben den groen Anbietern wie SAP, die mit "HANA20" eine auf In-Memory-Technik21 basierende BI-Appliance anbietet, sehen an dieser Stelle auch kleinere Spezialanbieter ihre Chance. Dazu zhlen beispielsweise Exasol aus Nrnberg und Parstream aus Kln.

Anwenderakzeptanz "Hier gibt es einige interessante Dinge", bilanziert Bange seine Beobachtungen des Markts. In der Adaption dieser Techniken seien allerdings amerikanische Anwenderunternehmen wie so oft ein ganzes Stck weiter, berichtet der Barc-Experte. Hierzulande seien Produkte wie beispielsweise Hadoop noch weitgehend unbekannt. Deutsche Firmen mssten in diesem Fach noch einige Hausaufgaben erledigen. Neben der Organisation, wie mit den anfallenden Daten umzugehen ist, sowie Architekturfragen mssten sich die Verantwortlichen eben auch mit neuen Produkten und Techniken beschftigen.

COMPUTERWOCHE Marktstudie
Datenqualitt (149,90 )

Was tun fr eine bessere Datenqualitt? Wir haben unsere Leser aus dem IT-Management gefragt, ob und mit welchem Erfolg sie fr einen sauberen Datenbestand sorgen.

Jetzt bestellen!22

Das drfte allerdings nicht einfach werden. Infrastrukturen, die das Big-Data-Problem zentral und unkompliziert lsen, sind derzeit nicht in Sicht. Gartner zufolge wird auch in Zukunft kein zentrales Datenreservoir existieren, in das Anwender einfach alle bentigten Informationen hineinkippen knnten. Vielmehr werde es je nach Anforderung unterschiedliche logische Data Warehouses fr Informationen aus verschiedenen Quellen geben.

Nach Einschtzung von Experton-Group-Analyst Zilch stellt es fr die IT-Hersteller eine gewaltige Herausforderung dar, alle vier Dimensionen von Big Data in einer Lsung abzudecken. "Ich halte es fr unwahrscheinlich, dass dies einem Anbieter gelingt", prognostiziert der Experte. Zwar behaupteten IT-Riesen wie IBM und Oracle, das zu knnen, doch ihre Lsungen behben immer nur Teile des Problems. "Es wird nicht die Big-Data-Superlsung geben", ist sich Zilch sicher. Und auch aus Sicht seines IDC-Kollegen Spies ist das Feld an dieser Stelle gerade fr junge innovative Firmen weit offen: "Lngst ist noch nicht alles erfunden, was man an dieser Stelle erfinden knnte".

20 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

Was kostet Big Data? Ein grundstzliches Problem im Big-Data-Umfeld ist fr Anwender eine verlssliche Kosten-Nutzen-Kalkulation. Schlielich mssen die Verantwortlichen Geld in die Hand nehmen, um zustzliche Systeme anzuschaffen - und die sind in aller Regel nicht gerade gnstig. Hadoop als Open-Source-Produkt, das sich auch auf Standardhardware einsetzen lsst, wirkt zwar aus Kostensicht zunchst attraktiv. Allerdings, schrnkt Barc-Chef Bange ein, mssen Unternehmen fr das Framework aus Filesystem und Entwicklungsumgebung zustzliche Entwicklerkapazitten bereitstellen, um das Produkt an die eigenen Anforderungen anzupassen.

"Anwender sollten hier aufpassen", warnt Bange. Manche Hersteller erzeugten rund um Big Data teinen regelrechten Hype und argumentierten oft mit Extrembespielen, die sich keineswegs verallgemeinern lieen. IDC-Analyst Spies mahnt ebenfalls zur Vorsicht: Anwenderunternehmen mssten die Kosten im Blick behalten. Big Data sei ein neuer Markt, in dem Hchstpreise verlangt wrden. Die Anbieter versuchten hier viel Geld abzugreifen.

Trotzdem kann es sich kaum ein Unternehmen leisten, die einschlgigen Themen zu ignorieren. Dafr sind die Probleme rund um explodierende Datenbestnde schon zu konkret. Whrend sich in der Vergangenheit nur einige wenige Unternehmen wie beispielsweise Telekommunikationsanbieter mit Terabyte-groen Data Warehouses herumschlagen mussten, sind Datensammlungen dieser Grenordnung heute keine Seltenheit mehr.

Dafr brauchen die Unternehmen neue Tools, stellt Spies klar: "Big Data katalysiert die verschiedensten Entwicklungen." Dahinter stecke schlielich ein gigantisches Vernderungspotenzial, das auch dringend gebraucht werde: "Die Menge der Daten fliegt uns um die Ohren." (ph)

Links im Artikel:
1 2

http://www.computerwoche.de/hardware/data-center-server/2369444/ http://de.wikipedia.org/wiki/Byte#Bedeutungen_von_Dezimal_und_Bin.C3.A4rpr.C3.A4fixen_f.C3.BCr_gro.C3.9Fe_Anzahlen_von_Bytes 3 http://www.computerwoche.de/schwerpunkt/b/Big-Data.html


4 5 6 7 8 9

http://www.computerwoche.de/schwerpunkt/s/Social-Networks.html http://www.computerwoche.de/schwerpunkt/m/Mobile.html http://www.computerwoche.de/schwerpunkt/s/Security.html http://www.computerwoche.de/schwerpunkt/d/Datenqualitaet.html http://www.computerwoche.de/schwerpunkt/b/Big-Data.html http://www.computerwoche.de/schwerpunkt/b/Big-Data.html http://www.computerwoche.de/schwerpunkt/d/Data-Warehouse.html http://www.computerwoche.de/software/bi-ecm/2354225/index2.html http://www.computerwoche.de/schwerpunkt/d/Datenbank.html http://www.computerwoche.de/schwerpunkt/n/NoSQL.html http://www.computerwoche.de/schwerpunkt/r/Reporting.html http://www.computerwoche.de/software/bi-ecm/2370894/ http://www.computerwoche.de/schwerpunkt/w/Watson.html http://www.computerwoche.de/hardware/data-center-server/2364928/ http://www.computerwoche.de/software/software-infrastruktur/2495763/index5.html http://www.computerwoche.de/schwerpunkt/o/Open-Source.html http://www.computerwoche.de/schwerpunkt/h/HANA.html http://www.computerwoche.de/software/bi-ecm/2494293/ http://www.computerwoche.de/datenqualitaet

10 11 12 13 14 15 16 17 18 19 20 21 22

IDG Business Media GmbH Alle Rechte vorbehalten. Jegliche Vervielfltigung oder Weiterverbreitung in jedem Medium in Teilen oder als Ganzes bedarf der schriftlichen Zustimmung der IDG Business Media GmbH. DPA-Texte und Bilder sind urheberrechtlich geschtzt und drfen weder reproduziert noch wiederverwendet oder fr gewerbliche Zwecke verwendet werden. Fr den Fall, dass in Computerwoche unzutreffende Informationen verffentlicht oder in Programmen oder Datenbanken Fehler enthalten sein sollten, kommt eine Haftung nur bei grober Fahrlssigkeit des Verlages oder seiner Mitarbeiter in Betracht. Die Redaktion bernimmt keine Haftung fr unverlangt eingesandte Manuskripte, Fotos und Illustrationen. Fr Inhalte externer Seiten, auf die von Computerwoche aus gelinkt wird, bernimmt die IDG Business Media GmbH keine Verantwortung.

21 von 22

03.02.2012 12:33

Big Data - die Datenflut steigt (Druckansicht)

http://www.computerwoche.de/_misc/article/articleprintpopup/index.c...

22 von 22

03.02.2012 12:33