Direkt zum Inhalt

Hochwertige Daten als Basis für den Unternehmenserfolg

Wie Unternehmen ihre Datenqualität verbessern und den Einfluss hochwertiger Daten auf den wirtschaftlichen Erfolg, zeigt Software-Hersteller Proalpha.

Wie Unternehmen ihre Datenqualität verbessern und den Einfluss hochwertiger Daten auf den wirtschaftlichen Erfolg, zeigt Software-Hersteller Proalpha.

Die Qualität von Stamm- und Bewegungsdaten beeinflusst unter anderem, wie effizient Prozesse arbeiten und wie erfolgreich ein Unternehmen am Ende des Tages ist. Doch gerade mit der Digitalisierung nehmen die Herausforderungen in der Datenpflege deutlich zu – die Fehleranfälligkeit steigt. Wie Unternehmen ihre Datenqualität im Zuge der Automatisierung kontinuierlich verbessern, zeigt der Software-Hersteller Proalpha. Eine aktuelle Studie des VDMA belegt: Knapp „84 % der Umfrageteilnehmer schätzen den […] Aufwand zur Eingabe, Suche und Pflege von Daten als hoch ein.“ Im gleichen Atemzug bemängeln 34 % der Befragten fehlende oder qualitativ minderwertige Interessenten- und Kundenstammdaten – vor allem für den Vertrieb eine entscheidende Herausforderung. Damit rücken die Themen Datenqualität und IT-Lösungen für eine optimierte Datengüte immer mehr in den Fokus. Denn mit einer individuellen Strategie lassen sich einerseits kostspielige Fehler vermeiden, andererseits nimmt das Vertrauen in die eigenen Daten zu. Alles zusammen bildet die ideale Grundlage, um bessere Entscheidungen zu treffen. Wie Unternehmen ihren Weg zu mehr Datenqualität gestalten, erklärt Proalpha. 

Erfolgsentscheidende Prozesse herausfiltern

Zunächst sollten Unternehmen verstehen, in welchen Abläufen fehlerhafte oder unvollständige Daten besonders ins Gewicht fallen. Das sind die Bereiche, in denen mit einer höheren Datenqualität der schnellste Mehrwert erzielt werden kann. So können beispielsweise Lieferrisiken durch gepflegte Wiederbeschaffungszeiten, Lieferantenadressen und Konditionen minimiert werden. Auch die korrekte Übernahme von Teiledaten in die einzelnen Arbeitsaufträge kann Kosten und Mehraufwände deutlich reduzieren. Im Zuge einer ersten Analyse ist zudem zu prüfen, ob alle Abteilungen jederzeit und ortsunabhängig schnellen Zugang zu relevanten Informationen haben.

Qualitätskriterien der Daten definieren

Ad

Je nach Unternehmen und Abteilung können die Kriterien für eine hohe Datenqualität sehr unterschiedlich aussehen. Dabei sollte vor allem nach verschiedenen Arten differenziert werden: Bewegungsdaten stellen beispielsweise andere Anforderungen an die notwendigen Informationen als Stammdaten. Zudem ist es wichtig, zwischen Kunden- und Interessentendaten zu unterscheiden. Hier gilt es sich die Frage zu stellen: Brauche ich von einem potenziellen Kunden bereits beim ersten Kontakt einen umfangreichen Datensatz – oder sind Name und Telefonnummer des Ansprechpartners zunächst ausreichend? 

Vorhandene Datenpools prüfen

Zur Kontrolle existierender Datensätze ist es wichtig, verschiedene Prüfkriterien heranzuziehen. Zu den offensichtlichen zählen beispielsweise die Vollständigkeit und Richtigkeit. Doch auch weitere Aspekte können in die Bewertung einfließen: Werden zum Beispiel die jeweiligen Archivierungszeiten für Dokumente eingehalten? Und kommt das Unternehmen den Löschpflichten für nicht mehr benötigte Informationen nach? Eine genaue Analyse und die konsequente Bereinigung der eigenen Datenbanken lässt Unternehmen in erfolgskritischen Prozessen effizienter handeln. Außerdem wird damit die Compliance des Unternehmens gestärkt – nach innen und außen.

Dubletten beseitigen und eindeutige Daten erzeugen

Wenn es um Qualität geht, sind häufig die Daten selbst der entscheidende Schwachpunkt. Denn für automatisierte Prozesse und effiziente Abläufe werden aktuelle, eindeutige und vor allem vollständige Informationen benötigt. Dubletten sind bei der Prüfung ein häufiges Problem. Sie vergrößern unnötig den Datenbestand, verringern die Effizienz und erhöhen das Risiko von Fehlinterpretationen. Deshalb ist es wichtig, sie zu eliminieren und in Zukunft keine neuen mehr anzulegen. Die doppelte Datenhaltung in mehreren voneinander unabhängigen Systemen ist in der Praxis gang und gäbe. Doch das bringt verschiedene Nachteile mit sich: Einerseits bedeutet die manuelle Übertragung in das jeweils andere Programm einen hohen Mehraufwand – andererseits können dadurch Inkonsistenzen und widersprüchliche Datensätze entstehen. Mit modernen Integrationstechniken und professioneller Prüfsoftware (Data Quality Manager) lassen sich solche Fehler gezielt vermeiden. 

Daten kontinuierlich pflegen und prüfen

Für das Projekt Datenqualität gibt es kein Enddatum. Denn Angebots- und Bestellinformationen müssen ebenso wie Serien- und Chargennummern von Teilen fortwährend gepflegt werden. Nur so ist es möglich, die Informationsqualität langfristig zu verbessern. Dafür stehen verschiedene Werkzeuge zur Verfügung: regelmäßige automatisierte Qualitätskontrollen, Plausibilitätsprüfungen, Workflows, Datenbereinigungen und festgelegte Regeln für neu erfasste Daten.

ak

Passend zu diesem Artikel

So schafft HSM nachhaltig Datenqualität
HSM strukturiert seinen Materialstamm-Pflegeprozess neu – mit Unterstützung der Datenspezialisten von Simus Systems und deren Datenmanagement-Software Simus Classmate. Von der verbesserten Datenqualität sollen alle Abteilungen profitieren.