Sie sind auf Seite 1von 6

Die meisten Organisationen,

die eine IT-Infrastruktur besitzen und betreiben,


heben sich nicht von anderen ab.
Die Infrastruktur ist oft eine Belastung.
Die Mitarbeiter einer Organisation sind in vielerlei Hinsicht eingeschränkt.
Sie müssen z. B. aufwendige Aufgaben ausführen,
die mit Beschaffung, Bereitstellung und Wartung der Infrastruktur zu tun haben.
Sie nutzen Legacy-Systeme,
die keinen Mehrwert bieten,
nur den Betrieb aufrechterhalten,
und keine Veränderungen unterstützen.
Sie sind nicht einfach skalierbar,
weil sie an die lokalen Systeme gebunden sind
und Überkapazitäten bei Spitzenzeiten bezahlen müssen.
Eine Option zur Reduzierung dieser Belastung besteht darin,
die Infrastruktur so weit wie möglich auszulagern
und in die Cloud zu migrieren.
Um zu demonstrieren,
wie Technologie sich im Laufe der Jahre auf Geschäftsmodelle ausgewirkt hat,
zeige ich Ihnen, wie es vor der Cloud aussah.
Wir verwenden ein vereinfachtes IT-Backbone,
um die verschiedenen Änderungen durchzugehen.
Sehen wir uns zunächst die Mitarbeiter an, die Nutzer der Technologie.
Diese Mitarbeiter nutzen oder erstellen Anwendungen auf Laptops oder Computern
und als Teil ihrer täglichen Arbeit speichern sie Daten oder Dateien
und vernetzen sich untereinander über das Internet.
Wenn ein Unternehmen wächst
und mehr Computer mit mehr Verarbeitungsleistung benötigt werden,
verfügt es vielleicht über ein Rechenzentrum mit Servern.
Viele Organisationen verfügen über eigene Server, Rechenzentren,
Kühlsystemen und physischen Sicherheitsmaßnamen vor Ort
und diese gesamte Infrastruktur ist in einem Gebäude untergebracht.
Darüber hinaus fallen Wartungs- und laufende Sicherheitskosten an.
Stellen Sie sich das vor, als würden Sie ein Haus besitzen.
Sie sind verantwortlich für die gesamte Infrastruktur:
die Bausteine und den Mörtel,
die Schlösser an den Türen,
den Zaum um den Garten
und alle laufenden Kosten
wie z. B. die Nebenkosten.
Der erste Schritt bei der Umstellung von der sogenannten lokalen Infrastruktur
ist Colocation.
Hier richtet ein Unternehmen ein großes Rechenzentrum ein
und andere Organisationen mieten dann einen Teil dieses Rechenzentrums.
Unternehmen müssen also nicht mehr die Kosten bezahlen,
die beim Hosting der Infrastruktur anfallen,
sie müssen aber deren Wartung bezahlen.
Das ist, wie ein Apartment
in einem Wohnblock
oder einer bewachten Wohnanlage zu besitzen.
Sie haben einen Teil der Infrastruktur bezahlt
– das Apartment –,
sind aber für die Instandhaltung verantwortlich,
wenn z. B. die Heizung ausfällt.
Aber einige Dinge wie z. B. die Außensicherung werden ausgelagert.
Sowohl beim lokalen System als auch bei Colocation
beginnt die Wertschaffung
lange nachdem beträchtliche Investitionskosten aufgewendet wurden.
Da Hardware häufig nicht ausgelastet ist,
sogar im Colocation-Modell,
haben Entwickler einen Weg gefunden,
Anwendungen und deren Betriebssysteme
in eine sogenannte virtuelle Maschine zu verpacken.
Virtuelle Maschinen nutzen denselben Pool
aus Computerverarbeitungs-, Speicher- und Netzwerkressourcen.
Sie optimieren die Nutzung der verfügbaren Ressourcen
und ermöglichen es Unternehmen,
mehrere Anwendungen gleichzeitig auf einem Server so auszuführen,
dass sie effizient und verwaltbar sind.
Die meisten Unternehmen nutzen die virtuellen Maschinen,
um ihre Nutzung von Rechenzentren zu optimieren,
egal ob lokale Systeme oder Colocations.
Das Problem ist aber, dass weiterhin eine Beschränkung
für die physische Kapazität der vorhandenen Server besteht.
Unternehmen müssen nach wie vor einen beträchtlichen Betrag
an Kapitalkosten im Voraus aufwenden.
Viele Unternehmen lagern jetzt ihre Infrastruktur komplett aus.
Sie wachsen,
um Kunden ihre Produkte und Dienste regional und global bereitzustellen,
und müssen schnell und sicher skalieren können.
Einrichtung und Wartung von Rechenzentren und Netzwerkverbindungen,
die optimal für ihre Anforderungen sind, sind teuer.
Sie sehen keinen Vorteil darin, eigene Rechenzentren zu besitzen,
wenn sie in eine öffentliche Cloud auslagern können,
die Infrastruktur als Dienst anbietet.
In unserer Analogie ist das wie das Mieten einer Wohnung
in einem Mietshaus.
Wenn jetzt Ihre Heizung ausfällt,
ist Ihr Vermieter dafür verantwortlich, sie zu reparieren.
IT-Kosten sind jetzt nicht mehr Kapitalausgaben,
sondern eher Betriebsausgaben.
"Infrastructure as a Service" ist eines der Google Cloud-Angebote.
Wenn Ihr Unternehmen will,
kann es die Infrastruktur teilweise oder vollständig von physischen Rechenzentren,
entweder lokalen oder gemeinsam genutzten Rechenzentren,
in virtualisierte Rechenzentren in der Cloud verlagern.
Google Cloud stellt Ihnen Computing-, Speicher- und Netzwerkressourcen bereit,
die so organisiert sind,
wie Sie es von physischen und virtualisierten Rechenzentren kennen.
Die Wartungsarbeit wird an Google Cloud ausgelagert.
So kann das unternehmenseigene Fachwissen eher dafür verwendet werden,
Prozesse und Anwendungen zu erstellen,
die das Unternehmen voranbringen.
Durch das Auslagern von IT-Ressourcen
gewinnt das Unternehmen an Flexibilität,
die Teams müssen aber weiterhin
z. B. die Webanwendungssicherheit gewährleisten.
Das ist die Informationssicherheit,
die sich speziell mit Websites, Webanwendungen und Webdiensten befasst.
In diesem Szenario würden Sie die Ressourcen bezahlen,
die Sie zuordnen,
z. B. eine bestimmte Anzahl virtueller Maschinen.
Wenn Sie einen stärker verwalteten Dienst benötigen,
bietet Google Cloud die sogenannte "Platform as a Service".
In diesem Szenario müssen Sie die Infrastruktur nicht verwalten.
Und bei einigen GCP-Diensten zahlen Sie nur für das, was Sie nutzen.
Bei der Entwicklung von Cloud-Computing
hat sich das Momentum noch weiter in Richtung
verwalteter automatisierter Infrastruktur und Dienste verschoben.
Google Cloud bietet globalen Zugriff
auf einen Pool konfigurierbarer Ressourcen
für jede Ebene der IT-Infrastruktur
in Form von bezahlten Diensten.
Google Cloud ist aufgrund seiner globalen Infrastruktur dazu in der Lage.
Vielleicht erinnern Sie sich an James Snow,
der darüber im vorherigen Kurs gesprochen hat.
Das Google-Netzwerk überträgt jeden Tag bis zu 40 % des weltweiten Internettraffics.
Das Google-Netzwerk ist sogar das größte seiner Art auf der Erde.
Google hat im Laufe der Jahre riesige Summen in dessen Aufbau investiert.
Google Cloud-Kunden können ihre Anwendungen und Dienste
auf derselben Infrastruktur ausführen,
mit der Google Milliarden von Nutzern weltweit bedient.
Das Netzwerk ist wirklich global.
Es wird in über 200 Ländern und Gebieten betrieben,
mit 20 Regionen und über 130 Zugriffspunkten.
Kunden profitieren also
von einem privaten, gut ausgestatteten, sehr zuverlässigen globalen Netzwerk.
Letztlich sollten Sie mehrere Faktoren bei Ihrer Entscheidung berücksichtigen,
IT-Ressourcen auszulagern,
z. B. Kosten, Sicherheit, Offenheit
und natürlich den Wert der verfügbaren Produkte und Dienste.
Wie uns bei Google ist Ihnen vielleicht auch die Umwelt wichtig.
Durch die Verlagerung der Rechenleistung
von einem selbst verwalteten Rechenzentrum oder einer Colocations-Einrichtung auf die GCP
sind die direkten Emissionen davon
und von der Datenspeicherung Ihres Unternehmens gleich null.
Warum?
Weil Google seinen gesamten Energieverbrauch
mit erneuerbaren Energien abdeckt
und sich damit für Klimaneutralität engagiert.
Wenn Sie also die Google Cloud Platform nutzen,
um z. B. Ihre Daten zu speichern und Ihre Anwendungen zu entwickeln,
wird Ihr Energieverbrauch für Digitaltechnik mit sauberer Energie ausgeglichen,
was die Auswirkungen auf die Umwelt verringert.
Was aber, wenn Sie noch nicht bereit sind, alles in die Cloud zu verlagern?
Vielleicht soll einiges auf den lokalen Systemen bleiben.
Oder Sie haben bereits einen Cloudanbieter
und wollen einige Funktionen von einem zweiten nutzen.
Im nächsten Video zeige ich Ihnen Hybrid-Cloud- und Multi-Cloud-Szenarios.
(Required)
Deutsch
de

Like
Dislike
Report an issue
Partager
Ctrl+M

Das könnte Ihnen auch gefallen