Verluste in Milliardenhöhe durch mangelnde Datenqualität
VDI nachrichten, Düsseldorf, 19. 10. 07, pek – Nach wie vor kümmern sich laut Gartner weltweit gut 70 % aller Unternehmen nicht um die Qualität ihrer Daten. Und nur fünf der verbleibenden 30 % haben eine durchgängige Strategie für das Aufstellen und Einhalten von Richtlinien für Datenqualität. Demnach operieren 95 % aller Firmen auf Basis zweifelhafter und teilweise inaktueller Daten und vertrauen auf Erfahrungswerte.
Wie stellen wir sicher, dass die Daten, die wir im Unternehmen nutzen, korrekt sind? Diese bange Frage stellen sich laut Andreas Bitterer, Vice-President Research beim Analystenhaus Gartner, in jüngster Zeit Firmenchefs und IT-Leiter wieder verstärkt. Zwar ist die Verantwortlichkeit für Zustandekommen und Einhaltung von Datenqualität (DQ) nach wie vor ungeklärt und zwischen Fachabteilungen und IT heftig umstritten. Bei zunehmenden Konzentrations- und Konsolidierungsprozessen in Industrie und IT aber wird es immer wichtiger, dafür Sorge zu tragen, dass die richtigen Informationen möglichst immer zum richtigen Zeitpunkt an der richtige Stelle zur Verfügung stehen.
Der Anbieter von Datenqualitätssoftware und -lösungen Human Inference veranstaltete Mitte diesen Monats im niederländischen Maastricht mit rund 250 Teilnehmern den ersten „Data Quality Summit“. „Die Unternehmen spüren immer mehr den enormen Einfluss der Datenqualität auf ihre strategischen Entscheidungen“, sagt Hugo Verwijs, CEO von Human Inference mit Hauptsitz in Arnheim. Zentrale Punkte dabei seien die Einhaltung von Compliance-Regeln, die Forderung nach mehr Transparenz und die Erhöhung der Zuverlässigkeit von Kundendaten. Denn diese bilden die Grundvoraussetzung dafür, gesetzlichen Bestimmungen zu genügen, Prozesskosten im Unternehmen niedrig zu halten und hochwertige Informationen bereitstellen zu können.
Derweil ist das Interesse an Business-Intelligence(BI)-Software, das sind Lösungen für das Auswerten, Modellieren und Optimieren von Unternehmensdaten, gewaltig. Den Marktforschern von IDC zufolge steigt die Nachfrage weit schneller als die nach betriebswirtschaftlicher Standardsoftware. Laut einer Studie von IDC wuchsen die weltweiten Umsätze mit BI-Programmen im Jahr 2006 gegenüber dem Vorjahr um 11,5 % auf 6,25 Mrd. $. SAP-Chef Henning Kagermann, dessen Unternehmen jüngst den französischen BI-Spezialisten Business Objects (BO) für 4,8 Mrd. € übernommen hatte, schätzt das jährliche Wachstum in dem Segment auf 10 %.
Doch BI ist nur der Oberbegriff von Software, in deren Zusammenhang auch Programme für Datenqualität angewendet werden. So hatte BO noch Anfang diesen Jahres den deutschen Spezialisten für Datenqualität Fuzzy Informatik übernommen. Was zeigt, dass DQ zwar wichtig wäre, bei Investitionen in Optimierungslösungen aber nicht unbedingt im Vordergrund steht. Dabei steht für Bitterer fest, dass Sarbanes Qxley, Basel II und andere Compliance-Lösungen nur dann wirklich Sinn machen, wenn DQ gewährleistet ist.
Bitterer: „Wenn die DQ nicht stimmt, werden Entscheidungen blind getroffen, zumindest mit einem blinden Auge. Damit gehen durch Bauchentscheidungen Umsätze verloren, insgesamt Milliardenbeträge.“
Dabei seien die Kosten vergleichsweise gering, sichtbar unter anderem daran, dass der Markt für DQ-Software und Services „nur“ etwa 500 Mio. $ groß sei. Es sei damit eher eine Frage des Drucks, ob ein Management die durch erhöhte DQ erzielbaren Einsparungen und Gewinne mitnehmen wolle – oder ob Ertrags- und Gewinnlagen auch bei niedriger DQ hoch genug sind.
Was passiert, wenn DQ nicht auf der Agenda steht, kann sich laut Bitterer sehen lassen. So müssten im Vertrieb durch falsche Daten ständige Adresswechselanfragen oder fehlendes Vertrauen in Reports hingenommen werden. Die Folge sind Kundenabwanderungen, exzessive Portokosten und ungeplante Kosten durch Umsatzausfälle. In den Finanzabteilungen würden überfrachtete Budgets auftauchen, zu groß und mit hohen Diskrepanzen, mit der Folge von überzogenen Budgets, außer Kontrolle geratenen Kosten und möglicherweise drohenden Gefängnisaufenthalten.
In der Lieferkette würden sich Nichtverfügbarkeitssituationen und schlechte Produktqualität häufen – mit der Folge überhöhter Auslieferungskosten. Nicht zuletzt kämen IT-Projekte zum Scheitern, Applikationen würden schlicht nicht genutzt. Das führe zu faulen Investitionen und dazu, dass die Produktivität niedrig bleibt.
„Das DQ-Management ist derzeit auf zu vielen Schultern verteilt“, sagt Bitterer. Peter Chamoni zufolge, Professor am Fachbereich Betriebswirtschaft an der Uni Duisburg-Essen, lässt sich die permanent dümpelnde Baustelle durchaus lokalisieren: „Nicht in der IT, sondern in den Fachabteilungen läuft es falsch. Hier müssen Positionen geschaffen werden, die DQ definieren, deren Einhaltung kontrollieren und entsprechende Prozesse einziehen. Sonst erleben wir weiter die ¿never ending story¿ wohlfeiler Forderungen, aber keiner folgenden Taten.“
Als Problemlösungsansatz sieht der Forscher den Trend, Datamining, Fuzzy Logic und KI-Methoden einzusetzen.
Ein Beitrag von: