Daten konsolidieren, analysieren, handeln

Benjamin Krebs ist Area Manager Germany – Unstructered Data and Analytics bei Dell EMC

Autor/Redakteur: Benjamin Krebs, Area Manager Germany – Unstructered Data and Analytics bei Dell EMC/gg

Big Data eröffnet Unternehmen neue, handlungsrelevante Einblicke. Durch die konsequente Nutzung von Erkenntnissen aus der Analyse interner und externer Datenquellen können Unternehmen schneller besser fundierte Entscheidungen treffen und damit ihre Wettbewerbsposition verbessern. Die digitale Transformation umfasst daher immer auch Big Data Analytics.

Big-Data-Projekte sind kein Selbstläufer. Oft kämpfen Unternehmen damit, den bestmöglichen Nutzen durch den Einsatz ihrer vorhandenen Datenbestände zu erzielen. Die häufigsten Gründe dafür: Die Anforderungen für Big-Data-Analysen haben sich aus einem konkreten Anlass heraus ergeben. Nachdem das Projekt im Marketing oder im Vertrieb abgeschlossen war, hat niemand die Initiative ergriffen, die Methoden und Verfahren auf weitere Anwendungsszenarien zu übertragen. Ein einzelner Erfolg ist verpufft. Ein zweites, immer wieder anzutreffendes Problem: Es vergeht zu viel Zeit, bis handlungsrelevante Ergebnisse vorliegen. Eine der Ursachen dafür: Datenanalysten verwenden den Großteil ihrer Zeit dafür, Daten zu suchen, zusammenzuführen und bereinigen, bevor sie sich auf die Analyse und Handlungsempfehlungen konzentrieren können.

Funktionalitäten für Datenanalysten und Entwickler

Die Kombination aus Cloud-nativer und Big-Data-Anwendungsentwicklung mit Selfservice-Funktionalitäten für Datenanalysten, wie sie beispielsweise Dell EMC Analytic Insights Module bereitstellt, bietet gute Voraussetzungen, um diese Herausforderungen zu meistern. Eine entscheidende Rolle dabei spielt eine schlüsselfertige Entwickler- und Analytics-Plattform. Gerade die Möglichkeiten, mit Hilfe Cloud-nativer Applikationen rasch umsetzbare Erkenntnisse aus der Datenanalyse zu gewinnen, sind entscheidend für Unternehmen, die sich Wettbewerbsvorteile durch die digitale Transformation sichern wollen.

Die schnelle Bereitstellung von Cloud-nativen Anwendungen für die Datenanalyse steigert die Geschwindigkeit, mit der sich Unternehmen durch den Analysezyklus bewegen (Quelle: Dell EMC)

Eine durchgängige Lösung, die Entwickler und Datenanalysten nach dem DevOps-Modell zusammenbringt, hat darüber hinaus den Vorteil, dass sich damit zentral für alle Benutzer klare Governance-Regeln definieren und deren Einhaltung überwachen lassen. Die IT-Verantwortlichen definieren Vorgaben, die festlegen, wer welche Daten einsehen und weiter aufbereiten darf. Ziel dabei ist es, dass die Datensicherheit und die Corporate Governance für alle Benutzer, Applikationen und Datenquellen zu jeder Zeit gewährleistet sind.

Informationen in einem Data Lake zusammentragen

Damit Analysten aus den Fachabteilungen einen möglichst einfachen und schnellen Zugriff auf die benötigten Daten erhalten, werden diese in einem Data Lake vorgehalten. Hier konsolidieren die IT-Verantwortlichen die Informationen aus den verschiedenen Quellen an einem einzigen Ort. Der Data Lake reduziert die Komplexität von Speichersilos, die mit dem Zugriff auf große Mengen von ansonsten verteilt gespeicherten Daten verbunden ist. Durch die Unterstützung eines Multiprotokollzugriffs via SMB (Server Message Block), NFS (Network File System), FTP, HTTP, NDMP (Network Data Management Protocol), Swift und HDFS (Hadoop Distributed File System) können die Cloud-nativen Applikationen Daten ohne einen weiteren Konvertierungsaufwand in ihrem nativen Format speichern und abrufen.

Analysen nach dem Selfservice-Prinzip fördern

Eine der Zielgruppen von Selfservice-Funktionalitäten sind die nicht-technischen Anwender aus den Fachabteilungen. Damit diese den Data Lake nutzen, eigenständig Analysen vornehmen und besser fundierte Entscheidungen treffen können, müssen sich die gesuchten Daten problemlos im Zugriff befinden. Eine Kuratierungsfunktion im Data Lake stellt eine zentrale Ansicht aller vor Ort vorhandenen, indizierten und aufbereiteten Daten sowie ausgewählter externer Quellen bereit. Der wichtigste Vorteil: Datenanalysten und Anwender aus den Fachabteilungen müssen sich nicht mehr um die oft zeitraubende Aufbereitung der Daten kümmern, sondern können sich darauf konzentrieren, wie sich mit den aufbereiteten Informationen schneller und effizienter bestimmte Ziele erreichen lassen – etwa bei der Analyse des Kundenverhaltens, der Bereitstellung personalisierter Finanzdienste oder der Kundengewinnung und Kundenbindung.