Die Unternehmen heute zur Verfügung stehenden Datenmengen enthalten potentiell sehr viele wertvolle Informationen, deren Auswertung den Unternehmenserfolg steigern kann. Dies erklärt die momentane Vielzahl an "Big-Data" Projekten in vielen Bereichen der Wirtschaft. Laut Studien wird das Datenvolumen 2020 fast das 5-fache dessen von 2015 sein.
Warum mehr Daten weniger Information bedeuten können
So verlockend und aussichtsreich der Zugriff auf diese Datenmengen auch ist, bereits heute haben viele
Unternehmen im operativen Geschäft Probleme mit der Qualität der Daten und den daraus resultierenden erhöhten
Prozeßkosten. Daten sind keine Information - dies werden sie erst, wenn Sie validiert und verifiziert wurden.
Auch dann veralten Daten, in der Regel sind Daten umso weniger verläßlich, je älter sie werden.
Eine einfache Faustformel rechnet mit 20 Prozent fehlerhaften Datensätzen und 100 EUR Kosten pro fehlerhaftem Datensatz. Laut Studien entgehen den Unternehmen weltweit so Hunderte von Milliarden. Ein guter Artikel dazu findet sich unter Datenchaos. Die einfache Schlußfolgerung lautet: "Eine (sehr) gute Datenqualität ist Pflicht, Big Data ist die Kür". In diesem Zusammenhang steht auch der Bericht Veraltete IT, in welchem auf Mißstände bei der notwendigen Instandhaltung und Modernisierung der Hard- und Software hingewiesen wird.
Falls Sie weitergehende Informationen zu den Themen der Qualität von Daten und Programmen sowie zu Prozessen der (kontinuierlichen) Verbesserung wünschen, auch und gerade um die notwendige Basis für Ihre Big Data Projekte zu schaffen, freuen wir uns über Ihren Kontakt.