ArtikelStorage

Reality Check: Was ist ihr RTO?

Autor/Redakteur: Johan van den Boogaart, Regional Sales Manager bei Zerto/gg

Unternehmen müssen sich darauf verlassen können, dass ihre IT und damit wichtige Applikationen stets verfügbar sind. Um konstante Verfügbarkeit zu bieten, ihre Systeme gegen Hardwareausfälle zu wappnen und gesetzeskonform mit geltenden Vorschriften zu sein, haben viele Unternehmen bislang in teure Speichersysteme als das Herzstück ihrer DR-Strategie (Disaster Recovery) investiert. In einer immer stärker virtualisierten IT-Welt erkennen IT-Manager nun, dass ihr RTO, also die Zeit, die verstreicht, bis alle Systeme wieder verfügbar sind, keinesfalls wie erhofft ‘Null’ und in vielen Fällen tatsächlich gänzlich unbekannt ist. Dies liegt unter anderem daran, dass sich das Testen der Notfallwiederherstellung in einem operativen Umfeld auf aktiven Systemen in vielen Fällen unmöglich durchführen lässt. Was genau sind die Schwächen derzeit gängiger DR-Strategien? Und welche neuen Lösungen können endlich einen kalkulierbaren RTO garantieren, DR-Testing vereinfachen und generell Komplexität aus dem System nehmen?

Der derzeitige Standard für DR: Stretched Cluster

Eine der wichtigsten Aufgabe einer jeden IT ist es, die Nutzung unternehmensrelevanter Applikationen ohne Unterbrechung zu garantieren. Gerade in der IT sind ganze Geschäftsmodelle darauf ausgerichtet, ihre Dienste 24/7 anzubieten, weil Kunden keinerlei Unterbrechung ihrer gebuchten Dienste akzeptieren. Viele Branchen haben sogar konkrete Vorgaben des Gesetzgebers, definiert über die RTOs, zu erfüllen. Um diese Ziele zu erreichen, haben viele Firmen in Stretched-Cluster-Technologie investiert, um bei Hardware-Ausfällen sogar für komplette Rechenzentren abgesichert zu sein. Snapshots und regelmäßige Backups auf der Softwareseite sind dazu gedacht, RPOs zu reduzieren und RTOs auf ein Minimum zu verkürzen. Der Stretched Cluster bietet im Idealfall einen transparenten Failover bei einem Ausfall der Hardware. Die Nachteile eines Stretched Clusters hingegen sind die sehr hohen Kosten, die mit der Technologie einhergehende Komplexität und der oft übersehene Fakt, dass der Cluster nicht gegen logische Fehler oder verlorene Daten von Applikationen absichert.

Die Eine-Millionen-Euro-Frage: Was ist ihr RTO?

Worauf es letzten Endes ankommt, bei einer so wichtigen Zielstellung und sehr hohen Investitionen in die entsprechenden Systeme: Was ist der RTO? Ein IT-Manager, dessen Aufgabe es ist den Betrieb – koste es was es wolle – jederzeit zu garantieren, sollte eigentlich in der Lage sein diese einfache Frage zu beantworten.

In der Realität funktioniert es nicht ganz so einfach. Auch mit den fortschrittlichsten und teuersten Speichersystemen, aufbauend auf Stretched-Cluster-Technologie, können die meisten IT-Manager keine Antwort über den RTO des von Ihnen verwalteten Systems geben. Dies wäre exakt natürlich möglich, indem man einen Disaster-Recovery-Test durchführt. Das sollte auch regelmäßig geschehen, um zu bestätigen, dass das System funktioniert und im Notfall, bei einem echten Desaster, bereit wäre.

In der Theorie ist DR-Testing tatsächlich sehr einfach – Man zieht einfach den Stecker und startet die Stoppuhr. In der Praxis scheint das Vertrauen der meisten IT-Manager in ihr System, trotz der enormen Summen die sie gekostet haben, nicht sehr hoch zu sein. Niemand der seine fünf Sinne beisammen hat, würde an einem funktionierenden System einfach den Stecker ziehen – obwohl man sehr viel Geld dafür bezahlt hat, damit man genau das tun kann könnte. Insbesondere bei sehr großen Organisationen mit hohem Datenbestand kann es fast unmöglich sein, einen DR-Test durchzuführen. Allein die Planung kann mehrere Tage Vorbereitung benötigen, weil verschieden IT-Abteilungen involviert sind, die alle zur selben Zeit bereit sein müssen. Und die einzige Zeit im Jahr, zu der große Unternehmen tatsächlich einen DR-Test durchführen können, ist zwischen Weihnachten und Neujahr, damit man das System im Notfall noch richten könnte, falls tatsächlich etwas schiefgeht. Man hat schon von Fällen gehört, dass diese Großunternehmen einen DR-Test sogar innerhalb von acht Tagen nicht erfolgreich abschließen konnten, weil die Menge an zu bewegenden Daten einfach zu groß war um den Test zu einhundert Prozent sicher zu gestalten.

Was jedoch sagt dies über die Compliance dieser Organisationen aus, wenn man in der Realität unfähig ist einen DR-Test durchzuführen? Gesetzliche Vorgaben, wie etwa in Deutschland das Bundesdatenschutzgesetz (BDSG), legen fest, dass “Es sichergestellt werden muss, dass personenbezogene Daten gegen zufällige Zerstörung oder Verlust geschützt werden.” Diese Anforderung wird durch die sogenannten “Acht Gebote der Datensicherheit” spezifiziert. Dort ist unter dem Punkt “Verfügbarkeitskontrolle” geregelt, dass als Maßnahme dafür das Vorhandensein eines Disaster- beziehungsweise Backup-Konzepts vorgesehen ist. Die Realität sieht für die meisten Organisationen ganz anders aus, was im Umkehrschluss bedeutet, dass die meisten Organisationen trotz teurer Stretched-Cluster-Technology die gesetzlichen Vorgaben nicht erfüllen. Zum Kreis dieser Organisationen zählen laut Industrieexperten durchaus auch sehr große und bekannte Unternehmen aus der Medizin, dem Finanz- und Versicherungswesen.