ArtikelCloud

Cloud-Dienste erfolgreich planen

Autor/Redakteur: Manfred Eierle, Regional Director EMEA Central bei ServiceNow/gg

SN_Manfred Eierle_Regional Director EMEA Central

Obwohl immer mehr Unternehmen Cloud-Dienste nutzen, planen nur wenige ihre Schritte tatsächlich langfristig. Oft werden selbst grundsätzliche Fragen vernachlässigt: Wie wirkt sich der Cloud-Einsatz auf das Geschäft kurz-, mittel- und langfristig aus? Wie kann die IT die Cloud sinnvoll in die bestehende Infrastruktur integrieren und damit ihre Vorteile (noch) besser nutzen?

Die Einführung von Cloud-Diensten bedarf einer gründlichen Vorbereitung, damit die Technologie so in die IT-Infrastruktur eingebunden werden kann, dass sie sich strategisch steuern und verwalten lässt. In der Vergangenheit versäumten viele Firmen, genau dies umzusetzen. Dadurch begannen virtuelle Umgebungen zu wuchern, ein Zustand, der als „Virtual Sprawl“ Bekanntheit erlangte. Eine im Vorfeld klar definierte Strategie hilft hingegen, Irrwege zu vermeiden und die offensichtlichen Vorteile der Cloud für sich zu nutzen. Für die erfolgreiche Implementierung und die Umsetzung der Best Practices sollten Unternehmen jeder Größe deshalb drei Schritte beachten.

Schritt Eins: Die virtuelle Infrastruktur

Aus Hardware wird Software: In der ersten Phase der Cloud-Implementierung ersetzen virtuelle Infrastrukturen die physischen. Eine Softwareschicht erzeugt dabei eine virtuelle Hardwareinstanz. Der Vorteil besteht darin, dass Software leichter ausgetauscht und gesteuert werden kann als Hardware. Meist wird Virtualisierung eingesetzt, um Server zu konsolidieren und die Anzahl an physischen Maschinen zu verkleinern. Virtuelle Umgebungen lassen sich weiter ausbauen, um schließlich Private Clouds zu errichten. Diese geben auf Anfrage virtuelle Kapazitäten und Anwendungen an interne Nutzer frei.

Cloud Computing stellt die Erweiterung der Virtualisierung in ein öffentliches Netzwerk dar. Der Fokus liegt darauf, zügig einen Mehrwert bereitzustellen. Cloud-Kapazitäten bilden die Grundlage, auf der sich Computerberechnungen ausführen sowie die verschiedensten Anwendungen, wie Datenbanken, benutzen und wiederverwerten lassen. Für gewöhnlich wird diese Art der Nutzung als Infrastruktur as a Service (IaaS) bezeichnet. Der größte Vorteil dieser Angebote liegt in der schnellen Bereitstellung an Kapazitäten und Anwendung. Dabei handelt es sich lediglich um Minuten, anstatt um Wochen oder Monate. Außerdem lassen sie sich über Programmierschnittstellen (APIs) automatisch bereitstellen, sie sind flexibel skalierbar und verursachen nur bei tatsächlicher Nutzung Kosten.

Die Möglichkeiten der Cloud haben bereits zwei häufige Einsatzszenarien hervorgebracht: Zum einen erlaubt sie Anwendern, selbst Umgebungen für Tests, Entwicklungen, Trainings oder Demonstrationen zu erzeugen. Zum anderen ermöglicht die Cloud extrem rechenintensive Aufgaben zügig zu verarbeiten sowie Anwendungstests ad hoc erzeugten virtuelle Maschinen zuzuteilen. Jedoch ist diese Einfachheit zugleich eine Herausforderung. Manchmal nutzen Anwender die Cloud, um die eigene IT zu umgehen. Auf den ersten Blick verspricht diese Strategie schneller implementierte Prozesse. Das funktioniert aber nur bis zu dem Zeitpunkt, ab dem die selbst erschaffenen IT Assets ein professionelles Management oder Schnittstellen zu anderen Anwendungen benötigen. Dann können die Kosten aus dem Ruder laufen beziehungsweise Kapazitäten ungenutzt bleiben – leicht geraten Applikationen so aus den virtuellen Fugen. Gegen Ausfälle sind sie oft nicht wirksam geschützt. Auch ihr falscher Einsatz hat Folgen und kann gegebenenfalls sogar zu einem Sicherheitsproblem führen.

Schritt Zwei: Dynamische Anwendungen

In der zweiten Phase überwachen Cloud-Anwendungen automatisch ihre Aufrufe. Bei steigenden Datenmengen nutzen sie APIs, um ihre Inhalte zu duplizieren und Prozesse über eine erweiterte Infrastruktur zu verteilen. Ein häufiger Ansatz dabei ist, die dafür notwendigen Skripte über ein automatisches Runbook zu erzeugen. Sie installieren die benötigte Software und machen sie produktionsbereit. Die Kombination aus interner Überwachung der Anwendung und externer automatischer Skriptausführung erlaubt es, die Rechenkapazität dynamisch zu erhöhen oder zu drosseln.

Diese Herangehensweise entfaltet einen großen wirtschaftlichen Nutzen, denn die Kosten für den Bau großer Rechenzentren, die riesige Datenmengen verarbeiten, sind enorm. Eine dynamische Anwendungsarchitektur macht das jedoch nicht nötig. Steigt der Datenverkehr, so bestellen Unternehmen einfach mehr Rechenleistung hinzu. Kosten fallen nur für die tatsächliche Nutzungsdauer an. Sobald das Datenvolumen wieder abnimmt, lässt sich auch die zusätzliche Rechenleistung wieder abgeben. Dabei ist die Skalierbarkeit flexibel an die Größe der Projekte anpassbar – sie reicht von einigen hundert Servern bis zu vielen tausenden.

Schritt Drei: Das flexible Rechenzentrum

Die dritte Stufe der Cloud-Implementierung kommt insbesondere für Unternehmen in Frage, die höchstmögliche Anforderungen hinsichtlich Skalierbarkeit und Flexibilität an ihre Server-Umgebungen stellen. Ihre Arbeitslasten steigen und fallen sehr kurzfristig und bedürfen zudem einer schnellen Verarbeitung. Nicht nur die Anwendungen müssen in einem solchen Fall über eine hohe Skalierbarkeit verfügen, sondern auch das gesamte Rechenzentrum mit all seinen Komponenten wie Server, Speicher, Datenbanken, Anwendungen und Netzwerk-Infrastruktur.

Der Entwurf eines flexiblen Rechenzentrums stellt eine Herausforderung dar, die durch den Einsatz virtueller Infrastrukturen gelöst werden kann. Schon heute finden sie ihren Einsatz in flexiblen Private Clouds. In der Zukunft jedoch wird auch die Public Cloud immer häufiger für diese Aufgaben eine virtuelle Umgebung bereitstellen. Die darin ausgeführten Funktionen steuern dann Arbeitslasten aus verschiedenen Quellen und skalieren anschließend das Rechenzentrum sowie alle Anwendungen, die an der Prozessverarbeitung beteiligt sind.