Observability und mehr: Neue Wege für Monitoring und Verwaltung digitaler Dienste

Autor/Redakteur: Michael Rudrich, VP Central Europe bei Dynatrace/gg

Die digitale Transformation ist ein riesiger Markt. Die weltweiten Ausgaben für die entsprechenden Technologien erreichen in den nächsten drei Jahren 2,3 Billionen US-Dollar. Allerdings kann es für Unternehmen eine echte Herausforderung sein, die Transparenz für die dynamischen, hybriden, Cloud-nativen Umgebungen aufrechtzuerhalten, die sich aus dieser Transformation ergeben. Denn diese Umgebungen lassen sich von Natur aus schwer beobachten und sowohl herkömmliche Monitoring-Lösungen als auch die Verantwortlichen sind damit inzwischen häufig überfordert. Da Umfang und Komplexität der heutigen Cloud-Umgebungen in Unternehmen kontinuierlich steigen, müssen Unternehmen neue Wege finden, um die Performance von digitalen Diensten zu überwachen und zu verwalten. Ansonsten sind sie dem wachsenden Risiko ausgesetzt, dass sie von unvorhergesehenen Problemen und den daraus resultierenden Konsequenzen überrumpelt werden.

Bild: Dynatrace

Von der Sichtbarkeit zur Observability

Um sicherzustellen, dass IT-Teams auf Probleme reagieren können, bevor die Nutzer davon beeinträchtigt werden, benötigen sie einen vollständigen und nahtlosen Einblick in jeden Winkel ihrer digitalen Umgebung. Dazu gehören etwa Multi-Cloud-Infrastrukturen, Container-Orchestrierungsplattformen wie Kubernetes, Service-Meshes, Functions-as-a-Service und Container-Workloads. Unternehmen erhalten traditionell Visibilität, indem sie Instrumente für einen vordefinierten Satz von Problemen einsetzen. Diese werden erkannt, wenn die Leistung und Verfügbarkeit von Komponenten innerhalb ihres IT-Ökosystems nachlassen. Das funktionierte zwar mit den relativ statischen Architekturen der Vergangenheit, ist aber für die dynamisch skalierenden und unvorhersehbaren Umgebungen von heute völlig ungeeignet.

Moderne Cloud-Anwendungen erfordern einen vollständig anderen Ansatz zur Observability (Grafik: Dynatrace)

Die Herausforderung für IT-Teams besteht darin, das Unbekannte zu identifizieren und auch diejenigen Störungen vorherzusehen, die nur ein einziges Mal auftreten können. Die Observability bietet hierfür einen neuen und besseren Ansatz. Dabei werden Daten aus allen Systemkomponenten gesammelt, um eine vollständige, nahtlose Transparenz über dynamische Cloud-native Umgebungen hinweg zu gewährleisten. Dies lässt sich erreichen, indem man sich auf die Sammlung von drei Hauptdatentypen konzentriert – Metriken, Logs und Traces – die so genannten drei Säulen der Observability.

Topologie-Mapping in Echtzeit liefert Zusammenhänge über den gesamten Stack (Grafik: Dynatrace)

Auch wenn die allgemeine Einführung noch aussteht, gibt es bereits erste Lösungen, um Cloud-native Software und Infrastruktur von Natur aus besser zu beobachten. Ein Beispiel ist das OpenTelemetry-Projekt, das von der Cloud Native Computing Foundation (CNCF) geleitet wird. Obwohl die Observability viel effektiver ist als herkömmliche Monitoringmethoden, werden die Daten oftmals noch immer in Silos gesammelt und gespeichert. So ist es schwierig, den Kontext hinter den Anomalien zu verstehen. Es reicht nicht aus, Daten einfach nur in Silos zu „beobachten“ – Organisationen müssen sie nutzen, um kontextbezogene Erkenntnisse zu gewinnen und damit bessere Geschäftsergebnisse zu erzielen.