Die Datenqualität misst, wie gut ein Datensatz die Kriterien für Genauigkeit, Vollständigkeit, Gültigkeit, Konsistenz, Eindeutigkeit, Aktualität und Eignung für den Zweck erfüllt, und ist für alle Initiativen zur Datenverwaltung innerhalb eines Unternehmens von entscheidender Bedeutung.
Datenqualitätsstandards stellen sicher, dass Unternehmen datengestützte Entscheidungen treffen, um ihre Geschäftsziele zu erreichen. Wenn Datenprobleme wie doppelte Daten, Missing Values oder Sonderfälle nicht richtig angegangen werden, steigt das Risiko negativer Geschäftsergebnisse für Unternehmen. Einem Gartner-Bericht zufolge kostet schlechte Datenqualität Unternehmen durchschnittlich 12,9 Millionen USD pro Jahr.1 Infolgedessen wurden Datenqualitätstools entwickelt, um die negativen Auswirkungen einer schlechten Datenqualität abzumildern.
Wenn die Datenqualität dem Standard für den vorgesehenen Verwendungszweck entspricht, können die Datenkonsumenten den Daten vertrauen und sie zur Verbesserung der Entscheidungsfindung nutzen, was zur Entwicklung neuer Geschäftsstrategien oder zur Optimierung bestehender Strategien führt. Wenn jedoch ein Standard nicht eingehalten wird, bieten Datenqualitätswerkzeuge einen Mehrwert, indem sie Unternehmen bei der Diagnose zugrunde liegender Datenprobleme unterstützen. Eine Ursachenanalyse ermöglicht es Teams, Probleme mit der Datenqualität schnell und effektiv zu beheben.
Die Datenqualität ist nicht nur für den täglichen Geschäftsbetrieb von Bedeutung. Da Unternehmen künstliche Intelligenz (KI) und Automatisierungstechnologien in ihre Workflows integrieren, sind qualitativ hochwertige Daten für die effektive Einführung dieser Tools von entscheidender Bedeutung. Wie das alte Sprichwort sagt: „Wo man Müll hineinsteckt, kommt auch Müll heraus“, und das gilt auch für Algorithmen des maschinellen Lernens. Wenn der Algorithmus anhand schlechter Daten lernt, Vorhersagen zu treffen oder zu klassifizieren, können wir davon ausgehen, dass er ungenaue Ergebnisse liefert.
Branchen-Newsletter
Bleiben Sie mit dem Think-Newsletter über die wichtigsten – und faszinierendsten – Branchentrends in den Bereichen KI, Automatisierung, Daten und mehr auf dem Laufenden. Weitere Informationen finden Sie in der IBM Datenschutzerklärung.
Ihr Abonnement wird auf Englisch geliefert. In jedem Newsletter finden Sie einen Abmeldelink. Hier können Sie Ihre Abonnements verwalten oder sich abmelden. Weitere Informationen finden Sie in unserer IBM Datenschutzerklärung.
Datenqualität, Datenintegrität und Daten-Profiling sind alle miteinander verknüpft. Die Datenqualität ist eine breitere Kategorie von Kriterien, die Unternehmen verwenden, um ihre Daten auf Genauigkeit, Vollständigkeit, Gültigkeit, Konsistenz, Eindeutigkeit, Aktualität und Eignung für den Verwendungszweck zu überprüfen. Die Datenintegrität konzentriert sich nur auf eine Teilmenge dieser Attribute, insbesondere auf Genauigkeit, Konsistenz und Vollständigkeit. Sie konzentriert sich auch mehr auf die Datensicherheit und die Implementierung von Schutzmaßnahmen, um Datenkorruption durch böswillige Akteure zu verhindern.
Beim Daten-Profiling hingegen liegt der Schwerpunkt auf dem Prozess der Überprüfung und Bereinigung von Daten, um die Datenqualitätsstandards innerhalb eines Unternehmens aufrechtzuerhalten. Dies kann auch die Technologie umfassen, die diese Prozesse unterstützt.
Die Datenqualität wird anhand einer Reihe von Dimensionen bewertet, die sich je nach Informationsquelle unterscheiden können. Diese Dimensionen werden zur Kategorisierung von Datenqualitätsmetriken verwendet:
Diese Metriken helfen Teams dabei, unternehmensweit Datenqualitätsbewertungen durchzuführen, um zu beurteilen, wie informativ und nützlich Daten für einen bestimmten Zweck sind.
In den letzten zehn Jahren haben Entwicklungen in den Bereichen Hybrid Cloud, künstliche Intelligenz, Internet der Dinge (IoT) und Edge Computing zu einem exponentiellen Wachstum von Big Data geführt. Infolgedessen ist die Praxis des Stammdatenmanagements (Master Data Management, MDM) komplexer geworden und erfordert mehr Datenverwalter und strenge Sicherheitsvorkehrungen, um eine gute Datenqualität zu gewährleisten.
Unternehmen verlassen sich auf das Datenqualitätsmanagement, um ihre Datenanalyse-Initiativen, wie z. B. Business Intelligence Dashboards, zu unterstützen. Andernfalls kann es je nach Branche verheerende, auch ethische Folgen haben (z. B. Gesundheitswesen). Es gibt Datenqualitätslösungen, die Unternehmen dabei helfen, die Nutzung ihrer Daten zu maximieren, und sie haben entscheidende Vorteile gebracht, wie z. B.:
Erstellen und verwalten Sie intelligente Streaming-Datenpipelines über eine intuitive grafische Benutzeroberfläche, die eine nahtlose Datenintegration in Hybrid- und Multicloud-Umgebungen ermöglicht.
Watsonx.data ermöglicht es Ihnen, Analysen und KI mit all Ihren Daten zu skalieren, unabhängig davon, wo sie sich befinden, und zwar über einen offenen, hybriden und kontrollierten Datenspeicher.
Erschließen Sie den Wert von Unternehmensdaten mit IBM Consulting® und bauen Sie ein erkenntnisgesteuertes Unternehmen auf, das Ihnen geschäftliche Vorteile verschafft.