Vom Chaos zur Kontrolle: Fünf Leitprinzipien für den Aufbau einer intelligenten DataOps-Kultur

die Datenerfassung

Douglas McDowell, Chief Strategy Officer bei Wache Eins, untersucht, wie Intelligent DataOps Unternehmen dabei helfen kann, ihre Daten zu kontrollieren und vollständig zu nutzen.

Daten gehören wohl zu den kritischsten Vermögenswerten für jedes moderne Unternehmen und sind zweifellos für jede Anwendung von entscheidender Bedeutung. Durch die Maximierung des Werts von Daten und die Verfolgung einer datengesteuerten Unternehmenskultur entwickelt sich „DataOps“ zu einer Methode, die Organisationen in die Lage versetzt, das Datenchaos zu kontrollieren und die Entscheidungsfindung zu steuern.

Oft als „DevOps für Daten“ kategorisiert, haben DataOps und DevOps einige Gemeinsamkeiten – insbesondere die Zusammenarbeit, die zur Verbesserung von Prozessen und Ergebnissen erforderlich ist. Aber während DevOps den breiteren Softwareentwicklungs- und Betriebslebenszyklus anspricht, befähigt eine gut funktionierende DataOps-Kultur Unternehmen, die Kontrolle über ihren Datenbestand zu übernehmen, ihn zu monetarisieren und eine effektive Entscheidungsfindung auf allen Ebenen zu steuern.

Um die Disziplin noch einen Schritt weiter zu bringen, sind intelligente DataOps – der Aufbau von Menschen, Prozessen und Technologien für eine datengesteuerte Kultur – nicht nur von zentraler Bedeutung für diesen Prozess, sondern auch der Schlüssel zur Verbesserung der Lebensqualität von Datenexperten.

Der Aufbau einer DataOps-Praxis kann Unternehmen daher dabei helfen, sicherzustellen, dass sie nicht nur die Kontrolle über ihre Daten übernehmen, sondern auch deren Nutzung optimieren, um ihre Rolle, Wirkung und ihren Wert erheblich zu steigern. Es gibt eine Reihe von Leitprinzipien, die Organisationen helfen können, sicherzustellen, dass sie einen effektiven und nachhaltigen Ansatz entwickeln.

Fünf Schritte zu intelligenten DataOps


Optimierte Beobachtbarkeit

Dies ist ein Prozess, der damit beginnt, die Datenanwendungsleistung standardmäßig so zu gestalten, dass sie über den gesamten Lebenszyklus hinweg optimiert wird. Dabei müssen Entwicklungsteams Datenbankanwendungen während der Entwicklung und beim Testen überwachen und optimieren, bevor sie für die Produktion freigegeben werden. Dies erfordert mehr als die Anwendung einer einseitigen Überwachung der Datenpipeline – es hängt von der effektiven Nutzung der aus der Überwachung gewonnenen Erkenntnisse ab, um Informationen über Leistung und Best Practices zu liefern (bidirektionale Integration).

Darüber hinaus können Datenteams, wenn sie reifen, einen erweiterten Wert aus Intelligent DataOps mit einem informellen „Vertrag“ zur Beobachtbarkeit schaffen, indem sie standardmäßig Analysen auf die Überwachung anwenden.


Effektive Prozesskommunikation

Intelligente DataOps-Praktiken sind ebenfalls beobachtbar: Sie sind intuitiv, standardisiert und transparent, aber die Gewährleistung der Qualität und Konsistenz der Kommunikation während des gesamten Organisationsprozesses erfordert Anstrengung und Engagement. Technologische Ressourcen, beispielsweise in Form von Collaboration-Software, Reporting- und Analysetools, können ebenfalls eingesetzt werden, um beobachtbare Prozesse zu schaffen, die das Engagement zwischen Teams fördern. 


Datentests

Jede Anwendung ist datenzentriert, aber Daten sind auch die volatilste Komponente in jedem App-Entwicklungsprozess. Infolgedessen kann eine Anwendung erst dann als wirklich getestet betrachtet werden, wenn sie den wildesten Datensätzen ausgesetzt wurde. Automatisierte, integrierte Datentests adressieren diese häufige Lücke in vielen Datenpipelines, um eine Form der Datenüberwachung bereitzustellen. Dies ist für Data-Science-Projekte von entscheidender Bedeutung, da es letztendlich nicht möglich ist, ein nützliches Modell auf der Grundlage schlechter Daten zu erstellen und zu trainieren. Infolgedessen sind alle Data-Science-Projekte, die ungetestete Daten verwenden, praktisch nutzlos.


Zuordnung von Datenbeständen

In einer vollständig optimierten DataOps-Umgebung stützen Daten alle wichtigen Geschäftsentscheidungen, wobei Unternehmen gesetzlich verpflichtet sind, Datenschutzbestimmungen einzuhalten. Im Idealfall sind also alle Daten verbucht und haben ein Zuhause, was wiederum eine verlässliche Karte braucht, wo die Daten leben, wo sie herkommen und wo sie landen. Automatisierte Datenbankdokumentation und Datenherkunftsanalyse helfen Datenteams, diese Kästchen anzukreuzen. 


Relationale Daten sind einfacher zu verwalten

Unstrukturierte und NoSQL-Datenbanken erfreuen sich zunehmender Beliebtheit, sind aber nicht für alle Daten geeignet. Relationale Datenbankmanagementsysteme (RDBMS) bieten die Struktur, die für Continuous Integration/Continuous Delivery (CI/CD) erforderlich ist, die für DevOps und DataOps von zentraler Bedeutung sind. Die kontinuierliche Überwachung von RDBMS mit Beobachtbarkeit in der gesamten Datenumgebung verbessert die Datenbereitstellung für Stakeholder, Endbenutzer und Kunden.

Diese Anforderungen bestehen, weil Daten jetzt die primäre Geschäftswährung sind. Aber die Transformation veralteter Ansätze und Prozesse zum Aufbau einer datengesteuerten Kultur erfordert eine ehrliche Bewertung des vorhandenen Datenstatus. Zu den wichtigsten Fragen, die gestellt werden müssen, gehören: Können Benutzer auf die Daten zugreifen, die sie benötigen? Sind diese Daten vertrauenswürdig? Und wird es rechtzeitig geliefert, um eine effektive DataOps-Kultur zu unterstützen? 

Wenn jede Organisation und ihre Teams DataOps einführen und dann zu intelligenten DataOps übergehen, werden sie wahrscheinlich von einer effektiveren Abstimmung zwischen ihren Datenteams und DevOps-Teams profitieren. Dies führt zu einer „neuen Normalität“, in der das Chaos, das die Rolle von Daten in den heutigen datenbesessenen Unternehmen so oft charakterisiert und beeinträchtigt, unter Kontrolle gebracht wird. Indem Sie sich auf die Menschen, Prozesse und Technologien rund um einen Datenbestand konzentrieren, wird es praktisch, ein intelligentes DataOps-Ökosystem aufzubauen. Ein Fokus auf intelligente DataOps bringt den Datenwert in den Vordergrund der Geschäftsentscheidungen, bildet die Grundlage einer datengesteuerten Kultur und fördert die gegenseitige Zusammenarbeit zwischen Daten- und Entwicklungsteams.


Douglas McDowell

Douglas McDowell ist der Chief Strategy Officer von SentryOne. Sein Hauptaugenmerk liegt auf der Beratung des SentryOne-Führungsteams und des Vorstands in Planung, Forschung, Geschäftsstrategie und Analyse, um die Abstimmung mit unseren größten Partnern, einschließlich Microsoft, sicherzustellen.

Erzielen Sie Produktivitäts- und Effizienzsteigerungen durch Datenmanagement

Russ Kennedy • 04. Juli 2023

Unternehmensdaten sind seit vielen Jahren eng mit Hardware verknüpft, doch jetzt ist ein spannender Wandel im Gange, da die Ära der Hardware-Unternehmen vorbei ist. Mit fortschrittlichen Datendiensten, die über die Cloud verfügbar sind, können Unternehmen auf Investitionen in Hardware verzichten und das Infrastrukturmanagement zugunsten des Datenmanagements aufgeben.