ArtikelManagementStorageVirtualisierung

Das Bauklötze-Prinzip macht die Skalierung von virtuellen Umgebungen endlich vorhersagbar

Autor/Redakteur: Peter Mahlmeister, Tintri/gg

SONY DSC

Virtualisierung ist in Rechenzentren von Unternehmen heute an der Tagesordnung, die Vorteile unbestreitbar. Um den nachhaltigen Erfolg der Virtualisierung zu garantieren, gilt es jedoch, einige Klippen zu umschiffen. Um rasantem Wachstum und Bedarfsschwankungen gerecht zu werden, muss die Infrastruktur die Skalierung einzelner virtueller Maschinen (VMs) sowie zusätzlich hinzukommende virtualisierte Workloads problemlos unterstützen. Obwohl softwaredefinierte Architekturen die Netzwerk-Skalierung erst einmal vereinfachen, zählt die Skalierbarkeit der Gesamtinfrastruktur weiterhin zu den größten Herausforderungen, um Virtualisierung im modernen Rechenzentrum noch umfassender einzusetzen.

Virtualisierte Umgebungen sind ihrem Wesen nach komplex. Diese Komplexität können neue, einfach zu skalierende Lösungen jedoch einfach lösen, indem weitere Virtualisierungshosts einfach nach dem Bauklötze-Prinzip hinzugefügt werden. Was nach dem Zusammenstecken von Legosteinen klingt, kann zahlreiche Probleme von Unternehmen lösen, die Mehrzweck-Speicherlösungen im Einsatz haben, also Storage, der nicht speziell für Virtualisierung entwickelt wurde. Wo jedoch liegen genau die Probleme, die zu Engpässen führen? Und wie kann Speicher im Bauklötze-Prinzip diese Probleme lösen?

Skalierung erhöht die Komplexität

Herkömmliche Speicherarchitekturen können durch zusätzliche Datenträger in der Kapazität oder der Leistung skaliert werden. Gerade das macht sie leider ineffizient. IT-Abteilungen, die mit herkömmlichem Speicher arbeiten, stellen für gewöhnlich mehr als den erforderlichen Speicher bereit. Sie überprovisionieren ihn, um die von ihren virtualisierten Umgebungen benötigte Performance zu erzielen. Dies resultiert in überschüssiger, nicht genutzter Kapazität und unnötiger Komplexität.

Zusammenfassende Ansicht mehrerer Bausteine, einschließlich Leistungs- und Kapazitätskennzahlen. Die Möglichkeit zur Überwachung und Steuerung der virtuellen Umgebung ist wichtig bei der Skalierung von Speicher. Bausteine benötigen eine einheitliche, intuitive Steuerungsplattform, die es Administratoren erlaubt, mehrere Bausteine als einen einzigen zu verwalten.
Zusammenfassende Ansicht mehrerer Bausteine, einschließlich Leistungs- und Kapazitätskennzahlen.
Die Möglichkeit zur Überwachung und Steuerung der virtuellen Umgebung ist wichtig bei der Skalierung von Speicher. Bausteine benötigen eine einheitliche, intuitive Steuerungsplattform, die es Administratoren erlaubt, mehrere Bausteine als einen einzigen zu verwalten.

Außerdem: Die Anzahl der von herkömmlichen Storage-Controllern unterstützten Datenträger ist begrenzt. Wurde die maximale Anzahl von Datenträgern erreicht, müssen Unternehmen entweder einen weiteren Controller hinzufügen und den Storage darunter getrennt verwalten oder gleich das kostspielige “Forklift-Update” wählen – also das bisherige Speichersystem durch ein komplett neues ersetzen. In beiden Szenarien ist die Skalierung ein ständiger Kampf, der zwangsläufig die Komplexität noch vergrößert.

Aufwendige Verwaltung verursacht höhere Gemeinkosten

Obwohl sowohl die Speicherleistung als auch die Skalierungskosten für IT-Administratoren von enormer Bedeutung sind, ist der erhöhte Verwaltungsaufwand für die meisten Abteilungen das wohl größte Problem in diesem Zusammenhang. Von komplexen, für die Bereitstellung erforderlichen Vorgängen bis hin zur Zuordnung von Speicher in virtuellen Umgebungen: Administratoren sind gezwungen, ihre Speicherumgebungen weit im Voraus zu planen, um die verschiedenen Gruppen von VMs zu berücksichtigen. Die Zuordnung virtueller Server und virtueller Desktops kann auch erfahrene IT-Administratoren schnell überfordern. Viele Abteilungen verwenden nach wie vor riesige Tabellen für die Zuordnung von Speicher-LUNs oder Laufwerken zu VMs, was eine unglaublich zeitaufwendige, ineffiziente und fehleranfällige Methode der Speicherverwaltung ist.

Trotz dieses Aufwands lässt sich bei herkömmlichen Speichersystemen zudem nur sehr schwer vorhersagen, wie sich die Skalierung auf bestehende virtualisierte Workloads auswirken wird. Bei den meisten Speicherlösungen werden alle VMs in einen großen gemeinsamen Speichertopf geworfen. In diesem “Eintopf” besteht wenig bis keine Transparenz, was die Performance individueller VMs anbelangt. Auch gibt es keine Möglichkeit, die Servicequalität bestimmter VMs zu messen. Das Problem wird weiter verschärft, wenn Umgebungen mit zugehörigen VMs so groß sind, dass sie sich über verschiedene Speichersysteme erstrecken.