ArtikelBackupCloudStorageVirtualisierung

Miniaturisierung der IT: Das Rechenzentrum in der Kiste

Autor/Redakteur: Stefan Hölzl, Atlantis Computing/gg

Jedes moderne Smartphone hat heute mehr Rechen- und Grafikleistung, Speicherkapzität und auch größeren Nutzen als ein PC in den frühen 90er Jahren. Die fortschreitende Miniaturisierung der IT hat für Konsumenten wahrlich Erstaunliches gebracht. Analog ist es nur eine Frage der Zeit, dass auch die Unternehmens-IT geschrumpft und damit einhergehend vereinfacht wird. In nicht mehr allzu ferner Zukunft könnten dank intelligenter Software und hyperkonvergierten Ansätzen ganze Rechenzentren auf die Größe einer Bierkiste verkleinert werden.

In der IT sind Simplizität und Komplexität so etwas wie das Ying und Yang – ständig ringend um Balance. Neue Technologien versprechen den IT-Profis oft, ihre Arbeit zu vereinfachen. Doch Komplexität folgt dann meistens auf dem Fuß. Virtualisierung ist das beste Beispiel: Die Technologie hat die IT fraglos revolutioniert und eine komplette Ebene an Komplexität und Ineffizienz beseitigt. Leider, nicht ohne neue Probleme in anderen Teilen der Infrastruktur zu schaffen.

Virtualisierung und die Cloud verändern die IT-Landschaft zunehmend und verdeutlich immer mehr, dass der traditionelle Ansatz von Storage und Servern seinem Ende entgegentaumelt. SAN, NAS und Server separat anzuschaffen und zu integrieren ist tatsächlich sehr komplex und obendrein teuer. Abhilfe sollen konvergente Systeme schaffen, die damit werben, SAN- oder NAS-Speicher sowie Server in einem einzelnen Rack integrieren zu können. Beim genauen Hinsehen bieten sie jedoch nur einen geringen Mehrwert im Vergleich zu traditionellen Systemen, weil sie im Prinzip doch nur zusammengepackte Storage-, Networking- und Serverkomponenten sind. Sie beseitigen eben nicht Komplexität, bieten oft keine Wahl des Hypervisors und sind obendrein noch nicht einmal billiger als einzelne Appliances. IT-Manager, die damit zu kämpfen haben, auf Dauer mehr aus ihren bestehenden Investitionen herauszuholen, verschwenden mit diesen zu kurz gedachten Ansätzen wichtige Ressourcen.

SDS und Hyperkonvergenz: die Schlüssel zum Software Defined Datacenter

Die Idee, die Komplexität komplett beseitigen würde, wäre das Software Defined Datacenter (software-definiertes Rechenzentrum, SDDC). Dass das Rechenzentrum der Zukunft software-definiert sein muss, ist mittlerweile kein Geheimnis mehr. Um ein software-definiertes Rechenzentrum aber auf eine handliche Größe zu schrumpfen, ist Hyperkonvergenz nötig. Müssen doch die Bestandteile Storage, Netzwerk und Server zu einzelnen Blöcken zusammengefasst werden. Diese lassen sich dann erweitern, indem einfach weitere Blöcke hinzugefügt werden. Zusätzlich wäre das Rechenzentrum in der Kiste mit der Cloud für Backup und andere Dienste verbunden, die sich ökonomischer außerhalb des eigenen Unternehmens betreiben ließen.

Konvergente Systeme sind kaum mehr als zusammengewürfelte Soft- und Hardwarekomponenten. Im Gegensatz dazu sind hyperkonvergente Systeme software-definiert, vollkommen integriert und damit die logische Fortsetzung der Evolution des Rechenzentrums.

Hyperkonvergenz ist ein ziemlich logischer und einfach zu verstehender Ansatz. SDS hingegen ist ein äußerst amorpher Begriff und jeder Hersteller definiert ihn ein wenig anders. Software-Hersteller, die selbst keine Hardware verkaufen, behaupten, SDS sei ausschließlich die Bereitstellung und die Verwaltung von Speicher, unabhängig von der darunterliegenden Hardware. Im Gegensatz dazu sagen die Hardwarehersteller, dass ihre Produkte auch software-definiert seien, weil ihre Software auch auf anderen Systemen laufen könnte. Die Diskussion, was SDS im Detail bedeutet, ist bei solch gegensätzlichen Ansichten zu einem hohen Grad akademisch. Worüber jedoch Einigkeit besteht ist, dass die Herausforderungen von heute nicht mit alten, hardware-definierten Konzepten gelöst werden können und, dass intelligente Software Probleme auf Hardware-Ebene beseitigt. Beispiele für erfolgreiche SDS-Ansätze in der Praxis gibt es einige.

Beispiele für SDS-Ansätze in der Praxis

  1. Speicher-Virtualisierung verlängert Nutzung von Arrays:
    Ein Beispiel für intelligente Nutzung von Software wäre Speicher-Virtualisierung. In der Regel sind IT-Manager nicht in der glücklichen Lage, ihr Rechenzentrum komplett mit neuer Hardware zu bestücken. Man nutzt bestehende Infrastruktur so lange wie möglich und fügt eben neue Bestandteile hinzu, wenn es nötig wird. Bei Storage wären dies beispielsweise über Jahre hinweg angeschaffte Speicherinseln von unterschiedlichen Herstellern, Technologien und Kapazitäten. Speicher-Virtualisierung kann diese Inseln in einen Pool bündeln und sie gemeinsam für Applikationen nutzbar machen. Genauso wie VMware damit erfolgreich war, die Serverebenen zu virtualisieren, sind Hersteller von SDS daran, die Speicherebene zu virtualisieren.
  2. Nutzung von Standard-Hardware spart Kosten:
    SDS bietet signifikante Vorteile, weil Organisationen Standardhardware nutzen und damit proprietäre Upgrade-Prozesse verhindern können. Intelligente SDS-Lösungen bieten die Möglichkeit, günstigeren Speicher auf ihrer bevorzugten Hardware von einem vertrauenswürdigen und auch großen Hersteller zu nutzen.
  3. Doppelte Performance zum halben Preis – Software macht es möglich:
    SAN- oder NAS-Hardware ist aufgrund alter Technologie ineffizient, selbst wenn sie mit schnellem Flash-Speicher teuer aufgehübscht wird. Mehr Performance bieten All-Flash-Systeme, allerdings oft zu einem ebenfalls hohen Preis. Intelligente Software kann aus All-Flash deutlich mehr Performance herausholen als normale Flash-Systeme, indem ein noch schnellerer RAM-Tier genutzt wird. Und fortschrittliche Komprimierung spart dabei sogar noch Kapazität ein.
  4. Verfügbarkeit und Disaster Recovery an mehreren Standorten:
    Ein Stretched Cluster benötigt typischerweise zwei Standorte mit synchron gespiegelten, identischen SANs. Die Spiegelung benötigte bisher, ohne SDS, eine hohe Menge und Bandbreite über eine teure Standleitung. Intelligentes SDS kann Daten zur synchronen Spiegelung deduplizieren, was nicht nur den Bandbreitenbedarf reduziert, sondern auch Wiederherstellung und Hochverfügbarkeit verbessert. Auch die Latenz wird damit deutlich verringert, was die Möglichkeit, auch weit voneinander entfernte Standorte zu verbinden, enorm erweitert. Mit SDS-Lösungen lassen sich Standorte mit bis zu 160 Kilometer Entfernung zusammenfügen, das ist mehr als das Dreifache der möglichen Maximalentfernung bisheriger Lösungen. Mit nur einer Latenz von acht Millisekungen kann man VMs und Daten somit schnell zwischen einzelnen Speicherarrays oder ganzen Rechenzentren verschieben.