hagos overlay image
Zurück zu Fallstudien

Stammdatenqualität im B2B-Großhandel: Wie die Hagos eG mit einem zentralen Datenmodell die Fehlerquote um 73 % reduzierte

Ausgangssituation

Die Hagos eG ist Deutschlands führende Einkaufsgenossenschaft für das Kachelofen- und Luftheizungsbauer-Handwerk. 1919 in Stuttgart gegründet, betreut das Unternehmen heute rund 1.400 Mitglieder in Deutschland, Österreich, Frankreich und Italien. Mit einem Jahresumsatz von circa 210 Millionen Euro, zehn Niederlassungen und drei Zentrallagern sowie einem Sortiment von 45.000 Artikeln zählt Hagos zu den bedeutendsten Fachgroßhändlern der Branche.


Die Herausforderung:
Über Jahrzehnte gewachsene IT-Strukturen und dezentrale Datenerfassung an allen Standorten führten zu erheblichen Qualitätsproblemen in den Stammdaten. Lieferantendaten, Artikelstammdaten und Kundendaten wurden an unterschiedlichen Standorten erfasst, gepflegt und verändert – ohne einheitliche Standards, ohne zentrale Validierung und ohne workflowgesteuerte Freigabeprozesse.

 



Kernherausforderung

Die Problemanalyse identifizierte drei kritische Dimensionen:

Dimension 1 – Dateninkonsistenz: Identische Artikel wurden mit unterschiedlichen Bezeichnungen, Attributen und Klassifizierungen in verschiedenen Niederlassungen geführt. Dubletten und Widersprüche erschwerten die Supply-Chain-Automatisierung.

Dimension 2 – Prozessrisiko: Das geplante ERP-gestützte Workflow-Management setzte verlässliche Stammdaten voraus. Automatisierte Bestellprozesse, Disposition und Lieferantenmanagement funktionierten nur bei fehlerfreien Grunddaten. Jeder Stammdatenfehler potenzierte sich in nachgelagerten Prozessen.

Dimension 3 – Dezentrale Governance: Mit zehn Niederlassungen, die eigenständig Stammdaten erfassen und ändern konnten, fehlte eine zentrale Instanz zur Qualitätssicherung. Weder Verantwortlichkeiten noch Freigabeprozesse waren verbindlich geregelt.



Methodisches Vorgehen

Das Beratungsprojekt folgte einem strukturierten Vier-Phasen-Ansatz:

Phase 1 – Stammdaten-Audit: Vollständige Erfassung aller stammdatenrelevanten Entitäten: Artikel, Lieferanten, Kunden, Konditionen, Lagerorte. Analyse der bestehenden Datenstrukturen, Identifikation von Dubletten, Inkonsistenzen und Lücken. Bewertung nach den Qualitätskriterien Vollständigkeit, Eindeutigkeit, Aktualität und Konsistenz.

Phase 2 – Datenmodell-Design: Entwicklung eines zentralen Stammdatenmodells nach dem Single-Source-of-Truth-Prinzip. Definition verbindlicher Attribute, Pflichtfelder und Validierungsregeln für jede Stammdatenkategorie. Festlegung von Klassifizierungsstandards für das 45.000-Artikel-Sortiment.

Phase 3 – Workflow-Konzeption: Implementierung workflowgesteuerter Qualitätskontrollen. Jede Stammdatenänderung durchläuft einen definierten Freigabeprozess. Die dezentralen Niederlassungen erfassen Daten, die zentrale Stammdatenstelle validiert und gibt frei. Automatische Dublettenprüfung und Plausibilitätskontrolle vor jeder Freigabe.

Phase 4 – Schulungs- und Umsetzungskonzept: Erstellung eines standortübergreifenden Schulungsprogramms für alle 280 Mitarbeiter mit Stammdatenkontakt. Definition von Rollen und Verantwortlichkeiten gemäß Data-Governance-Prinzipien. Entwicklung von Arbeitsanweisungen und Quick-Reference-Guides für den Tagesbetrieb.

 


 
Implementierte Lösung

Das Konzept etablierte ein dreistufiges Qualitätssicherungssystem:


Stufe 1 – Erfassung: Dezentrale Eingabe mit systemseitiger Pflichtfeldprüfung und Formatvalidierung. Automatische Warnung bei potenziellen Dubletten.

Stufe 2 – Validierung: Zentrale Prüfung durch die Stammdatenstelle. Abgleich gegen definierte Qualitätsregeln und Klassifizierungsstandards.

Stufe 3 – Freigabe: Dokumentierte Freigabe mit Audit-Trail. Erst nach Freigabe sind Stammdaten für ERP-Workflows verfügbar.

 



Quantifizierbare Ergebnisse

Die Umsetzung erzielte messbare Verbesserungen:

Kennzahl
Vor Projekt
Nach Projekt
Verbesserung

Fehlerrate Stammdaten

Baseline

–73%

Aufwand Qualitätsmanagement

Baseline

–15%

Durchlaufzeit Stammdatenanlage

Variabel

Standardisiert

Definiert

Dublettenquote

Hoch

Kontrolliert

Eliminiert

 

Die Ergebnisse schaffen die Voraussetzung für die geplante ERP-Optimierung: Automatisierte Supply-Chain-Workflows, maschinelle Disposition und digitale Bestellprozesse basieren nun auf einer verlässlichen Datenbasis.

 



Lessons Learned

Die zentralen Erfolgsfaktoren des Projekts lassen sich auf vergleichbare Organisationen übertragen:

Erstens: Stammdatenqualität ist kein IT-Thema, sondern ein Organisationsthema. Ohne klare Verantwortlichkeiten und Data Governance scheitert jedes technische Konzept.

Zweitens: Dezentrale Erfassung erfordert zentrale Validierung. Das Prinzip „so dezentral wie nötig, so zentral wie möglich" balanciert Praxisnähe und Qualitätssicherung.

Drittens: Schulung ist keine Einmalmaßnahme. Nachhaltiges Stammdatenmanagement erfordert kontinuierliche Qualifizierung und Auffrischung.

 



FAQ

Wie verbessert man die Stammdatenqualität im Großhandel?
Durch ein zentrales Datenmodell mit verbindlichen Attributen, workflowgesteuerte Freigabeprozesse und klare Data-Governance-Regeln. Entscheidend ist die Trennung von dezentraler Erfassung und zentraler Validierung.

Warum sind saubere Stammdaten Voraussetzung für ERP-Automatisierung?
Automatisierte ERP-Workflows wie maschinelle Disposition, Bestellautomatik oder Supply-Chain-Prozesse potenzieren jeden Stammdatenfehler. Fehlerhafte Artikeldaten führen zu Fehlbestellungen, falsche Lieferantendaten zu Lieferverzögerungen.

Was ist der Unterschied zwischen zentraler und dezentraler Stammdatenpflege?
Bei dezentraler Pflege erfassen Mitarbeiter an verschiedenen Standorten Daten direkt im System. Bei zentraler Pflege werden alle Daten an einer Stelle konsolidiert. Best Practice ist ein hybrides Modell: dezentrale Erfassung mit zentraler Validierung und Freigabe.

Wie reduziert man Dubletten in Stammdaten?
Durch automatische Dublettenprüfung bei der Erfassung, eindeutige Klassifizierungsregeln und regelmäßige Datenbereinigung. Entscheidend ist das First-Time-Right-Prinzip: Qualität bei der Ersterfassung statt nachträglicher Korrektur.

Case Study: Stammdatenmanagement für Einkaufsgenossenschaft mit 10 Niederlassungen. Datenmodell, Workflow-Steuerung und Schulungskonzept – Fehlerrate –73%, QM-Aufwand –15%.

www.hagos.de Mitarbeiteranzahl 400 Kundenausrichtung B2B & B2C

Die Lösung führte einen kontrollierten dreistufigen Qualitätssicherungsprozess ein. Die Daten werden zunächst lokal erfasst, automatisch validiert und auf Duplikate überprüft. Anschließend werden sie zentral anhand festgelegter Qualitäts- und Klassifizierungsregeln überprüft, bevor sie mit einem vollständigen Prüfpfad offiziell freigegeben werden.

Terminvereinbarung für eine Beratung

Kontakt aufnehmen