ArtikelDatenverarbeitung/Big Data

Wie die Datenintegration gelingen kann

Autor/Redakteur: Stefan Sigg, CPO der Software AG/gg

Unternehmen möchten immer mehr Daten in Echtzeit nutzen, um fundierte Entscheidungen zu treffen. Doch die Integration von Daten aus verschiedenen Quellen in unterschiedlichen Formaten und Strukturen kann eine große Herausforderung darstellen. Mit geeigneten Datenpipelines lassen sich Probleme schnell identifizieren und beheben.

Bild: Software AG

Daten bilden die Grundlage für die digitale Transformation. Unternehmen benötigen darauf basierende Erkenntnisse, um ihre strategischen und operativen Ziele zu erreichen. Die Datenverarbeitung muss dabei wo möglich in Echtzeit geschehen, damit Unternehmen wettbewerbsfähig bleiben und Innovationen schnell vorantreiben können.

Frustration auf allen Seiten

Doch das ist leichter gesagt als getan. In den meisten Unternehmen sind die Daten auf viele verschiedene Infrastrukturen, Systeme und Anwendungen verteilt. Ständig kommen neue Silos hinzu und die bestehenden verändern sich. So hat die IT-Abteilung immer mehr Schwierigkeiten, den Überblick zu behalten und fundierte Daten für Anfragen aus Geschäftsführung und Fachabteilungen bereitzustellen. Gleichzeitig wollen die Business-Teams die benötigten Daten selbst bearbeiten und analysieren ohne langwierige Prozesse mit IT. Das führt zu Frustration auf allen Seiten.

Dies lässt sich mit Zahlen belegen. Laut einer aktuellen Umfrage von Sapio Research im Auftrag von StreamSets sind 69 Prozent der Datenexperten frustriert, weil Fachabteilungen oder Geschäftsführung erwarten, dass die richtigen Daten auf Knopfdruck erscheinen. Dabei fordern in knapp der Hälfte der Unternehmen die Bereiche Verwaltung und Betrieb sowie Kundenservice mindestens einmal pro Woche Daten an.

Gleichzeitig erschweren die bestehenden Systeme das Erfüllen dieser Anforderungen. 68 Prozent der Verantwortlichen für die Datenverarbeitung werden durch Reibungsverluste daran gehindert, Daten so schnell bereitzustellen, wie sie das Unternehmen benötigt. Die häufigsten Ursachen für die verzögerte Datenbereitstellung sind die Vielfalt der Formate, sowohl bei strukturierten als auch unstrukturierten Daten (38 Prozent), die mangelnde Geschwindigkeit der Datenerstellung (36 Prozent) und das Vorhandensein von Altsystemen (30 Prozent). Entsprechend geben 76 Prozent an, dass ihre Datenpipelines alle paar Monate abstürzen, bei 36 Prozent geschieht dies sogar wöchentlich.

Flexible und robuste Datenintegration

Die Integration von Daten aus verschiedenen Quellen kann chaotisch und zeitaufwendig sein, wenn die Daten in unterschiedlichen Formaten, Strukturen und Qualitäten vorliegen. Zudem benötigen Unternehmen nicht nur robuste, sondern auch flexible Strategien für die Datenintegration, um sich an ständig verändernde Geschäftsanforderungen in beinahe Echtzeit anzupassen.

Die Datenqualität ist dabei entscheidend für den Erfolg von Datenintegrationsprozessen. Sie ist zu überwachen und permanent zu verbessern, damit die Daten sauber, vollständig und korrekt sind. Eine Automatisierung der Datenintegrationsprozesse kann dazu beitragen, die Effizienz zu steigern und menschliche Fehler zu minimieren. Zudem sind Datenverschlüsselung und -sicherheit wichtige Aspekte bei der Entwicklung von Datenintegrationsstrategien. Denn nur damit lässt sich die Vertraulichkeit, Integrität und Verfügbarkeit der Daten gewährleisten.

Entsprechend erfordert der Aufbau von Pipelines, die Daten von der Quelle bis zum Ziel zu verbinden und Regeln zur Integration, Umwandlung und Verarbeitung von Daten in verschiedenen Umgebungen zu erstellen. Dabei kann die Datenlieferkette von Cloud-Anwendungen und -Diensten bis hin zu lokalen Mainframe- und Legacy-Systemen reichen. Dies erschwert natürlich den Aufbau robuster Datenpipelines erheblich. Denn Entwickler müssen über alle Systeme und Infrastrukturen hinweg Fehler identifizieren und beheben, um die Leistung und Zuverlässigkeit der Pipelines von Ende zu Ende sicherzustellen.

Sechs Best Practices

Auf Basis zahlreicher Projekte haben sich folgende Best Practices für den Aufbau robuster und flexibler Datenpipelines bewährt:

  • Zusammenarbeit zwischen Teams: Die Entwicklung von Datenpipelines erfordert eine enge Zusammenarbeit zwischen verschiedenen Teams, einschließlich Data Scientists, Entwicklern, operationalen Teams und Business-Anwendern. Es ist wichtig, klare Kommunikationswege und ein gemeinsames Verständnis der Ziele und Anforderungen zu schaffen.
  • Umfassende Tests: Um die Leistung und Zuverlässigkeit von Pipelines von Ende zu Ende zu gewährleisten, sollten kontinuierlich (automatisierte) Tests durchgeführt werden, einschließlich Integrations-, Regressions- und Lasttests.
  • Echtzeit-Datenintegration: Die Verarbeitung von Daten in Echtzeit wird immer wichtiger, um schnelle Entscheidungen zu treffen. Daher müssen Echtzeit-Daten- und Applikationsintegration und -verarbeitung in die Pipeline-Entwicklung einbezogen werden.
  • Datenqualität: Es ist sicherzustellen, dass die Daten sauber, vollständig, richtig und genau sind. Es sollte auch eine Datenvalidierung in Echtzeit durchgeführt werden, um die Daten korrekt zu verarbeiten.
  • Überwachung und Analyse: Nur mit einer effektiven Überwachung und Analyse von Datenpipelines lassen sich potenzielle Probleme schnell identifizieren und beheben. Dabei sind umfassende Überwachungs- und Analysetools einzusetzen, die eine proaktive Fehlererkennung und -behebung ermöglichen.
  • Sicherheit und Datenschutz: Bei der Entwicklung von Datenpipelines sollten Unternehmen Sicherheitsaspekte und Datenschutzrichtlinien von Anfang an berücksichtigen. Mit Hilfe geeigneter Sicherheitsvorkehrungen sind die Vertraulichkeit, Integrität und Verfügbarkeit der Daten zu gewährleisten.

Fazit

Mit geeigneten Lösungen und Prozessen lassen sich flexible, schnelle und robuste Datenpipelines erstellen, steuern und verwalten. So können Unternehmen die Datenflut nicht nur bewältigen, sondern auch wertvolle Erkenntnisse in Echtzeit daraus ziehen, um Innovationen zu beschleunigen, Anforderungen schneller zu erfüllen und die Wettbewerbsfähigkeit zu erhöhen. Zudem lassen sich die Tools zum Erstellen, Verarbeiten, Speichern, Analysieren und Freigeben von Daten standardisieren. Dies erhöht sowohl die Effizienz als auch die Compliance.