News

tech news

05 Nov 2020

So werden aus Rohdaten Handlungs-Optionen

Bis der Mensch aus seinen Einsichten planvoll handelt, kann es erfahrungsgemäß eine Weile dauern: Etwas zu sehen heißt nicht immer, es auch zu erkennen. Etwas zu erkennen, heißt noch nicht, es tatsächlich zu verstehen – und selbst etwas zu verstehen, bedeutet noch nicht, entsprechend zu handeln. Dazu gehören Erfahrung, ein ganzheitliches Bild von der Welt – und immer auch ein Stück weit Intuition. Der Weg zur datengetriebenen Unternehmenssteuerung funktioniert ganz ähnlich.

Besuchen Sie Qlik auf der Big Data & AI World 2020.

Immer schneller, immer mehr und immer unterschiedlicher: Wer sich mit Daten beschäftigt, hat sich ganz schön etwas vorgenommen. Data Lakes voller strukturierter und unstrukturierter digitaler Informationen, Big-Data-Umgebungen mit Realtime-Anspruch oder komplexe IoT-Szenarien: Das Generieren und Nutzen von Daten treibt die Analytics Economy in neue Höhen – und ermöglicht datenbasierte Wertschöpfung in nahezu allen Geschäftsprozessen, vom Einkauf bis zur After-Sales-Steuerung.

„Data Hoarding“ ist keine Strategie

Doch das ist kein Selbstläufer. Beispiel Big Data: Wer auf skalierbare Cloud-Lösungen setzt – und Cloud-First-Konzepte gehören in immer mehr Organisationen zur Unternehmensstrategie – ist nicht länger von den Kapazitäten der eigenen IT-Infrastruktur abhängig. Wo früher Storage-Limitierungen ehrgeizige Projekte irgendwann von selbst begrenzten, stehen heute Speicherkapazitäten und Rechnerleistung ohne Ende zur Verfügung – was zwar komfortabel ist, aber ohne Strategie auch in ein regelrechtes „Data Hoarding“ führen kann. Dann werden Daten also erst einmal gesammelt – das „Warum?“ überlegt man sich später.

Und damit nicht genug: Während die Cloud-Speicher munter mit immer neuen Informationen geflutet werden, existiert in vielen Unternehmen parallel auch noch eine weit verzweigte, oft stark fragmentierte Daten-Umgebung, die nicht selten aus uneinheitlichen, nicht konsistenten Datensets und isolierten Datensilos besteht.

Der Großteil aller Daten in den Unternehmen bleibt ungenutzt und werden niemals analysiert. Das bestätigt auch eine aktuelle Studie von IDC. Der Grund: Sie befinden sich weit verstreut in Data Lakes, Streaming-Systemen, Datenbanken, Data Warehouses, Mainframe-Systemen oder Cloud-Quellen. Um deren Potenziale erschließen zu können, müssen die Datensilos aufgebrochen und die Rohdaten mit Hilfe von Echtzeit-Datenintegrations-Tools zu verwertbaren, analysefertigen Daten zusammengeführt und aufbereitet werden. Wer diese Infrastrukturhürden überwindet und mit automatisierter Datenverfügbarkeit arbeitet, erhält Daten-Pipelines „ohne Leck“, in die sämtliche Daten in Echtzeit einfließen und den Analyse-Tools zur Verfügung stehen – für verlässliche und aussagekräftigeren Insights, auf deren Basis fundierte Entscheidungen möglich sind. Darum sprechen wir bei Qlik auch von „Data as the new Water“.

End-to-End-Erfahrung aufgrund von Data-Warehouse-Automation

Möglichst intelligentes Daten-Management ist hier gefragt, das ebenso agil wie qualitativ
hochwertig arbeitet. Kurz: ein echter „DataOps“-Ansatz, der bereits Rohdaten als ersten Schritt zur datenbasierten Handlungs-Option versteht. Die Idee dahinter ist, spätere assoziative Analytics-Szenarien bereits mit den vorhergehenden Schritten (Datenmanagement, -aufbereitung und -bereitstellung, …) von Anfang an zu unterstützen. Ein entscheidender Faktor dabei ist Geschwindigkeit. Warum? Menschliche Intuition geht nicht über Umwege – und auch seine Daten sollte man nicht zwingen, das zu tun.

Technologisch bedeutet dies, automatisierte und prozessorientierte Technologien einzusetzen, also On-Demand IT-Ressourcen zu nutzen, Tests zu automatisieren und geeignete, valide Datenquellen (interne wie externe) automatisch bereit zu stellen. Echtzeit-Datenintegration, Change Data Capture (CDC) und Streaming-Data-Pipelines in Echtzeit sind die aktuellsten Methoden dafür und machen aus „Data-Ops“ eine End-to-End-Erfahrung, die eigentlich auf einer konsequenten Data-Warehouse-Automation beruht: von der Rohdatenquelle zur konkreten datenbasierten Handlungs-Option. Organisationen, die ein derartiges „DataOps“-Konzept umsetzen, können etwa vier Fünftel der Geschäftsdaten als relevante Kerndaten an ihre Anwender liefern.

Katalogisierte Metadaten als Brücke zwischen Datensets und Analyse-Applikation

Um Rohdaten in heterogenen und weit verzweigten Datenbeständen zu lokalisieren, sie zusammenzuführen und sie auf Vergleichbarkeits-Merkmale hin zu untersuchen, sind Metadaten-Kataloge ein intelligenter Lösungsansatz. Metadaten-Kataloge, die mit KI-Engines arbeiten, gewährleisten eine rasche und vollständige Datenbereitstellung und ermöglichen agile Daten-Projekte, die sich ohne Infrastruktur-Hürden durchführen und teilen lassen.

Das weitestgehend automatisierte, operative Datenmanagement auf der einen Seite und anwenderfreundliche Analytics-Applikationen am Ort der Geschäftsentscheidung gewährleisten so eine datenbasierte Wertschöpfungskette – unternehmens- und standortübergreifend.

Dabei geht es nicht nur um Fragen technischer, sondern auch menschlicher Natur. Denn neben Datenintegration, Datenqualität und Datenvollständigkeit gibt es eine weitere große Herausforderung: fehlende Datenkompetenz seitens der Mitarbeiter. Die Unternehmen müssen Datenkompetenz und -kultur in ihrer Belegschaft fördern. Dafür brauchen sie einen guten Fahrplan. Allerdings brauchen nicht alle Mitarbeiter zu Data Scientists weiterentwickelt zu werden. Wichtig ist es, dass Mitarbeiter lernen, die richtigen Fragen an die Daten zu stellen, die Ergebnisse zu interpretieren und sachkundig zu handeln.

Fazit: Ein ganzheitlicher Ansatz, der auch die Datenverfügbarkeit und -aufbereitung als erfolgskritisch für Analytics-Projekte begreift, ist der Weg der Zukunft. Denn Fehler, die in der Datenintegration gemacht werden, lassen sich später – in der Analyse – nicht mehr ausbügeln. Wer ein „DataOps“-Konzept umsetzen möchte und den Weg zur datengetriebenen Organisation konsequent von seinen Rohdatenquellen bis hin zu validen Business-Insights denkt (End-to-End), sollte intelligente Daten-Integration als Dreh- und Angelpunkt verstehen. Data-Warehouse-Automation kann die entsprechende Geschwindigkeit forcieren – und zudem das Risiko minimieren, das manuelle Prozesse bedeuten, um Daten wirklich Analytics-ready zu machen.

Über Qlik

Besuchen Sie Qlik auf der Big Data & AI World 2020.

Die cloudbasierte End-to-End-Plattform für Echtzeit-Datenintegration und -analyse von Qlik schließt die Lücke zwischen Daten, Erkenntnissen und Maßnahmen. Durch die Umwandlung von Daten in Active Intelligence sind Unternehmen in der Lage, fundierte Entscheidungen zu treffen, Umsatz und Rentabilität zu steigern und Kundenbeziehungen zu verbessern.

View all News
Loading