Matthias Schmitt, der Autor dieses Gastbeitrags für ZDNet, ist Senior Manager und Projektleiter bei der VMS AG (Bild: VMS AG).
„Wir müssen jeden Tag besser werden“, heißt es in vielen Firmen. Die Verantwortlichen stehen daher permanent unter Druck, Leistung und Qualität ihrer Unternehmensorganisation zu steigern. Allerdings stoßen sie immer öfter an ihre Grenzen. Die einfachen Fälle, in denen man nur ein bisschen „angesetzten Speck“ identifizieren musste, sind längst abgearbeitet.
Aber die Arbeit lohnt, denn angesichts der Größenordnung der Prozesskosten haben bereits kleine Verbesserungen im einstelligen Prozentbereich schon eine enorme Hebelwirkung. Aber es mangelt an belastbaren Kennzahlen (KPI – Key Performance Indicators), um Güte und Leistung der Prozesse zu bewerten.
Die traditionell gepflegten Verfahren oder Vorgehensweisen zum Benchmarken der Unternehmensleistung bieten in dieser Hinsicht einfach zu wenig Unterstützung. Die Vergleichswerte werden durch Branchenindex oder manuell mit Fragebögen von Beratern ermittelt. Dieses Vorgehen hat den Nachteil, dass bereits bei der Erfassung der Daten Abweichungen entstehen. Denn zum einen werden die Definitionen einzelner Kennzahlen unterschiedlich interpretiert, berechnet oder in einen anderen Zeitbezug gesetzt. Zum anderen liegen die Informationen meist nur hochverdichtet vor.
Unterm Strich ist das bereitgestellte Zahlenmaterial zu unscharf, um konkrete Handlungsempfehlungen abzuleiten. Selbst der kostspielige Einsatz einer Unternehmensberatung ist kein Erfolgsgarant, da das Analyseergebnis von den bisherigen Projekterfahrungen des Beraters geprägt ist und in der Regel nur eine Momentaufnahme bleibt. Zu einem lebensnahen Prozess-Benchmarking benötigen Unternehmen zwei Dinge:
- Präzise Informationen, welche die Kernprozesse transparent widerspiegeln und damit Einblick in die Leistungsfähigkeit geben.
- Den Vergleich mit anderen Unternehmen, um über die Abweichungen das eigene Potenzial beurteilen zu können.
Insbesondere die zweite Forderung hat es in sich. Sie bedeutet in letzter Konsequenz, dass es Organisationen kaum hilft, wenn sich der Vergleich auf einzelne KPIs oder auf eine Branche beschränkt. So enthalten Kennzahlen wie „die Kosten in der Auslieferungslogistik liegen um 10 Prozent über dem Konzern- oder Industriedurchschnitt“ keine Informationen zur Bewertung und/oder Optimierung. Die Ursache hinter dem vermeintlich schlechten Wert kann beispielsweise einfach sein, dass man eine hundertprozentige Liefertreue innerhalb von 24 Stunden garantiert. Weitaus aussagekräftiger als der simple Vergleich ist daher die Bewertung der eigenen Leistung in Bezug auf Unternehmen mit vergleichbarer „Prozess-DNA“.
Mit anderen Worten: Prozess-Benchmarking muss auf „DNA-Level“ arbeiten. Nur dann lassen sich auch aus den Zusammenhängen von Kennzahlen und Markt- oder Konzernvergleichswerten geeignete Hinweise für Optimierungsmaßnahmen identifizieren. Die gute Nachricht an dieser Stelle ist, dass die Daten für eine Erbgut-Analyse in den SAP-nutzenden Unternehmen weithin vorhanden sind. Ein Anwender muss nur sein SAP-System fragen, da hier alle Geschäftsabläufe detailliert bis auf die Belegebene dokumentiert sind.
Die verwendeten Prozesse können also durch direkte Vermessung erhoben werden und detailliert in den Benchmark eingehen. Entsprechende Extraktoren stellt beispielsweise VMS bereit und wertet diese anschließend mit Hilfe eines mathematisch stochastischen Modellierungsmodells aus. Das Modell verwendet gewichtete Vergleichsgrößen und Kennzahlenzusammenstellungen, um bei aller Individualität der Prozesse eines Unternehmens eine methodisch saubere Gegenüberstellung zu gewährleisten.
Die Vergleichbarkeit auf der inhaltlichen Ebene garantiert ein unabhängiges, einheitliches Kennzahlengerüst. Zur Bewertung der Logistik- und Supply-Chain-Prozesse lassen sich beispielsweise nach dem Vorbild der breit akzeptierten Standardmethode des Supply-Chain-Operations-Reference-Modells (SCOR) Kennzahlen zu den Abläufen im Einkauf, im Lagermanagement, in der Lieferantensteuerung oder der Auslieferung definieren.
Die Vermessung erfolgt detailliert für die unterschiedlichen organisatorischen Ebenen, um die Leistung des Lagerprozesses aus der Perspektive der gesamten Firma, eines bestimmten Werks oder eines ausgewählten Lagers betrachten zu können. Befüllt wird das Prozessmodell mithilfe des Messprogramms. Es sind also keine von Grund auf neuen Erfassungssysteme für prozessbezogene Daten zu implementieren. Im Anschluss werden diese Informationen aus den ERP-Transaktionssystemen in einem Process Dashboard (Grafik) automatisiert zu detaillierten Kennzahlen aufbereitet und in eine Vergleichsdatenbank überführt.
Die wesentliche Stärke eines solchen Aufbaus für das Prozess-Benchmarking ist, dass die Vermessung der Prozesse auf den belastbaren Fakten aus dem ERP-System beruht. Allen Teilnehmern werden die identischen Kennzahlberechnungen zugrunde gelegt. Erst auf diesem Weg wird eine vergleichende Analyse möglich – intern zwischen Einheiten einer Organisation oder extern mit Vertretern der eigenen Branche, aber auch mit branchenfremden Unternehmen. Bisher nicht wahrgenommene Schwachstellen werden so transparent. Das Management erhält – auch durch den Blick über den Zaun auf Unternehmen mit vergleichbaren Managementphilosophien (Kostenführerschaft, Qualitätsführerschaft, usw.) – Anregungen zur Verbesserung der eigenen Prozessexzellenz.
Matthias Schmitt ...
... ist Senior Manager und Projektleiter "VMS Process Dashboard" bei der VMS AG.
Neueste Kommentare
Noch keine Kommentare zu Prozess-Benchmarking: Einblicke auf Basis harter Fakten
Kommentar hinzufügenVielen Dank für Ihren Kommentar.
Ihr Kommentar wurde gespeichert und wartet auf Moderation.