ArtikelBackup

Mehr gefragt denn je: Schnelle Wiederherstellung

Autor/Redakteur: Sven Breuner, Field CTO International bei VAST Data/gg

Um negative Auswirkungen auf den Geschäftsbetrieb zu vermeiden, ist die sehr schnelle Wiederherstellung entscheidend. Bei herkömmlichen Backup-Lösungen war diese bislang eher zweitrangig.

Quelle: Sven Breuner

85 Prozent der Unternehmen hatten mindestens einen Ransomware-Angriff im Jahr 2022, so der aktuelle Veeam Data Protection Trends Report. Der daraus resultierende Datenverlust kann für Unternehmen katastrophale Folgen haben. Eine funktionierende Datensicherung ist jedoch nur der erste Schritt. Unternehmen müssten heute nicht nur auf Backup und Wiederherstellung, sondern auch auf sofortigen Zugriff und umgehende Wiederaufnahme des Betriebs vorbereitet sein.

Bei der Datensicherung lag der Schwerpunkt lange Zeit darauf, die Daten schnell über ein Backup zu verschieben, während Wiederherstellungen als sekundäre, aber notwendige Aufgabe angesehen wurden. Instant Recovery ist nichts Neues, die sofortige Wiederherstellung von zehn bis zwanzig virtuellen Maschinen (VMs) wird seit Jahren unterstützt. Angesichts der massiven Zunahme und Ausbreitung von Daten in den vergangenen Jahren stellt sich allerdings die Frage: Wie können Unternehmen Tausende von VMs, unstrukturierten Dateisystemen und Datenbanken mit mehr als 20 Terabyte sofort wiederherstellen?

Viele Einfallstore für versierte Angreifer

Die heute komplexen Unternehmensumgebungen bestehend aus On-Premises-Infrastruktur, Cloud-Ressourcen und SaaS-Anwendungen, was versierten Angreifern viele Einfallstore eröffnet. Damit rückt der tatsächliche Zeitaufwand für eine möglicherweise dringende Wiederherstellung immer mehr ins Interesse. Herkömmliche Speicherziele für Backups kommen bei großen Datenvolumina schnell an ihre Grenzen. Eine erfolgreiche Wiederherstellung gelingt zudem nur mit unveränderlichen Daten oder unzerstörbaren Snapshots.

Nach einem Ransomware-Angriff wird der Wert einer schnellen Wiederherstellungsfähigkeit besonders deutlich. Wenn Unternehmen sich entscheiden, das Lösegeld nicht zu zahlen, wozu Sicherheitsexperten ohnehin raten, müssen sie versuchen, ihre Daten im letzten bekannten, nicht infizierten Zustand wiederherzustellen. Von dieser Fähigkeit – und einer möglichst schnellen Wiederherstellung – hängt es ab, ob Unternehmen diese sich häufenden Angriffe schadlos überstehen. Um hier gerüstet zu sein, benötigen Unternehmen für ihre geschäftskritischen Anwendungen die richtige Dateninfrastruktur und leistungsfähige Wiederherstellungsfunktionen. Nur so gelingt es, im Ernstfall den sofortigen Zugriff auf die Daten zu ermöglichen und den Geschäftsbetrieb rasch wiederaufzunehmen.

Schnelle Wiederherstellung von mehreren Faktoren abhängig

Ob eine schnelle Wiederherstellung möglich ist, hängt von mehreren Faktoren ab, unter anderem der Netzwerktopologie. Diese definiert den Weg der Daten von der Quelle zum Ziel und die dafür erforderliche Zeit. Hierbei ist die Bandbreitenoptimierung etwa durch Datenreduzierung oder Load Balancing ebenfalls relevant. Ein weiterer Faktor ist die Anzahl der physischen oder virtuellen Data Mover, also der auf den Servern laufenden Backup-Agenten. Mehrere Data Mover in einem System ermöglichen Wiederherstellungen mit mehreren Streams. Entscheidend ist auch ein zuverlässiges Netzwerkziel für die Wiederherstellung nach einem Angriff. Das Datensicherungsziel wird in vielen Rechenzentren zum Flaschenhals, da die Lesegeschwindigkeit herkömmlicher Purpose-built Backup-Appliances (PBBAs) nur rund 20 Prozent der Schreibgeschwindigkeit erreicht. Mit den vielerorts eingesetzten PPBAs ist es zwar möglich, Daten schnell auf die Festplatte zu schreiben und sie zu deduplizieren, was jedoch eine schnelle Wiederherstellung großer Datensätze erschwert.

Mit abnehmender Größe der Systemblöcke ist zur Wiederherstellung eine „Rehydrierung“ von mehr einzelnen Blöcke über zufällige I/Os erforderlich. Festplatten mit ihren behäbigen mechanischen Komponenten sind für zufällige I/O-Operationen jedoch nicht so gut geeignet. Bei der Markteinführung der ersten PBBAs vor 20 Jahren, galten 500 GByte bereits als großer Datensatz. Die heute zu sichernden Datenvolumina bringen diese Architektur an ihre Grenzen. Vollständige Systemwiederherstellungen können sich so in die Länge ziehen – von mehreren Tagen sogar bis hin zu einigen Wochen. Die Deduplizierung auf Festplatten ist mit schnellen Restores zudem nicht vereinbar, weshalb die Wiederherstellungsleistung herkömmlicher PBBAs meist nicht unmittelbar ersichtlich ist. Im Ernstfall kommt diese Erkenntnis oft zu spät.

All-Flash – richtiger Ansatz mit der richtigen Technologie

Auf die Backup-Verarbeitungskapazität und die Optimierung der Backup-Jobs für ambitionierte Zeitfenster kommt es nach wie vor an. Unternehmen sichern aber primär, um im Ernstfall überhaupt – und im Idealfall schnell – eine Wiederherstellung durchführen zu können. Hierzu muss das Backup-Speicherziel ein gewisses Performancelevel bieten, um den RTO-Anforderungen (Recovery Time Objective) gerecht zu werden.

Vor diesem Hintergrund läuft alles auf eine zeitgemäße All-Flash-Speicherplattform hinaus. Innerhalb dieser Kategorie kommt es jedoch auch auf eine leistungsfähige Technologie an, die globale Datenalgorithmen nutzt, was der Kosteneffizienz zugutekommt, ohne Auswirkungen auf die Performance. Hier punktet die DASE-Architektur (Disaggregated Shared Everything) von VAST, die Daten 8-mal schneller lesen als schreiben kann. Während herkömmliche PBBAs sich konzeptbedingt früher oder später als Flaschenhals erweisen, wird eine moderne DASE-basierte Datenplattform den Anforderungen an eine sehr schnelle Wiederherstellung problemlos gerecht.

Ein weiteres entscheidendes Kriterium ist, dass „globale“ Snapshots eine sofortige Wiederherstellung eines vorherigen Stands der Daten ermöglicht. Hierzu erfolgt eine regelmäßige Speicherung der Snapshots auf einem zweiten All-Flash-System. Dabei lassen sich flexibel 100.000 Snapshots in jeder Namespace-Tiefe mit einer Granularität von nur 15 Sekunden erstellen. Der Zugriff auf diese Snapshots ist ohne Wartezeit direkt auf dem Primärsystem wieder möglich, bis die Wiederherstellung des Backups fertig ist. Obwohl der Snapshot-Ansatz ein klassisches Backup nicht ersetzt, ist es in den meisten Szenarien unwahrscheinlich, dass Anwender auf die Wiederherstellung eines älteren Backups warten müssen. 

Kein Kompromiss mehr zwischen Kosten und Wiederherstellungszeit

Der Ansatz einer Datenplattform im Exabyte-Maßstab mit einem einzigen globalen Datenreduktionspool, anstatt dieselben Daten in mehreren Pools vorzuhalten, ermöglicht eine zeitgemäße Backup-Lösung. Eine Architektur dieser Art mit speziellen Datenalgorithmen macht das Speichermedium Flash kosteneffizient und langlebig – ohne die komplexe Bereitstellung, Verwaltung und Wartung einer herkömmlichen Backup-Infrastruktur. Somit ist kein Kompromiss mehr zwischen Kosten und Wiederherstellungszeit nötig, während die Kapazität und Skalierung ebenfalls gewährleistet ist.