1. Entwicklung einer Methode zur systematischen Erhebung von Faktorpreisen für Kalkulations-modelle zur Kostenstrukturanalyse von Fahrzeugbauteilen. Controlling Innovation Berlin 2011 15. Oktober 2011 Karl Krziwon
2.
3.
4.
5.
6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22. Vielen Dank für Ihre Aufmerksamkeit. Weiterführende Informationen: Reinhart, Gunther; Pause, Jörg; Krziwon, Karl : Managementkonzept für Eingangsgrößen von Kostenmodellen: Wissensmanagement ergebnisorientiert umsetzen. In: Zeitschrift für wirtschaftlichen Fabrikbetrieb, 106 (2011) 6, S. 438-443.
Notas do Editor
Tiefgreifende Veränderungen in der Zulieferindustrie in den letzten Jahren zwangen die Automobilhersteller zu einem Überdenken ihrer Verhandlungsstrategien auf dem Beschaffungsmarkt. Hervorgerufen durch die Weltwirtschaftskrise und strukturelle Veränderungen in der Automobilbranche hat sich die Zahl qualifizierter Zulieferer durch Konsolidierung und zunehmende Insolvenzfälle in den letzten Jahren drastisch reduziert. Die verringerte Konkurrenz und der damit einhergehende nachlassende Wettbewerbsdruck in der Zulieferindustrie haben zur Folge, dass bisherige Beschaffungsstrategien nicht mehr zwangsläufig zu einer optimalen Kostenstruktur für die Hersteller führen. Des Weiteren sind durch den konjunkturbedingten Absatzeinbruch kosteneinsparende Maßnahmen notwendig geworden, um nachhaltig wettbewerbsfähig zu bleiben. Aus diesen Gründen hat man bei der BMW AG die Abteilung Cost Engineering ausgebaut. Diese soll Zielkosten von Zukaufteilen dem Einkäufer und Zulieferer transparent aufschlüsseln. Das im Ressort Einkauf und Lieferantennetzwerk angesiedelte Kompetenzzentrum für Kostenstrukturanalysen erstellt zu diesem Zweck, mit Hilfe von Kalkulationsmodellen, lieferantenunabhängige Kalkulationen von Fahrzeugbauteilen, anhand derer Kostenpotenziale aufgedeckt werden können
Zur Schaffung eines einheitlichen Kostenverständnisses zwischen Lieferant und BMW wird ein grundlegendes Kalkulationsmodell genutzt, mit dem Kostenstrukturen abgebildet und die Vollkosten systematisch kalkuliert werden. Grundlage des Kalkulationsmodells ist eine detaillierte Abbildung der Fertigungsprozesse, die zur Herstellung des Kaufteils durch den Lieferanten erforderlich sind und die monetär bewertet werden. Die Akzeptanz der berechneten Vollkosten bei Verhandlungen mit Lieferanten hängt dabei von der Plausibilität des verwendeten Modells und der Qualität der Eingangsdaten ab. Wie Sie in der Darstellung sehen können, stellen die Eingangsdaten die Wissensbasis für die Kalkulation dar. Diese teilt sich auf in Marktwissen, wie etwa Materialpreise und Lohnkosten, aber auch Prozesswissen über bspw. Fertigungsprozesse und Logistikabläufe. Für die systematische Gestaltung der Wissensbasis und ihre Qualität ist bei der BMW AG das Wissensmanagement verantwortlich. Für dieses wird ein definierter Wissensmanagementprozess benötigt.
Der Wissensmanagementprozess bei BMW teilt sich in vier Phasen auf: In der ersten Phase „Wissensbedarfe identifizieren“ werden die für eine Kalkulation benötigten Eingangsdaten ermittelt und die durch fehlende oder veraltete Datensätze resultierenden Informationsbedarfe festgelegt. Anschließend erfolgt in der zweiten Phase „Wissen generieren“ die Erhebung der benötigten Informationen bzw. Eingangsdaten und die Erhebungsdokumentation. Die Ergebnisse und die zugehörige Dokumentation werden anschließend in der dritten Phase, „Wissen teilen“, in einem für die Anwender nutzbaren Format veröffentlicht. Abschließend wird in der Phase „Wissen nutzen“ die Verfügbarkeit der neuen Datensätze kommuniziert und die Befähigung der Mitarbeiter in der Kostenstrukturanalyse zur Arbeit mit den neuen Daten sichergestellt. Die systematische Schaffung der Wissenselemente erfolgt somit in Phase 1 und 2 des WM-Prozesses. Zur Konkretisierung des Vorgehens muss demnach eine Detaillierung der ersten zwei Phasen, ausgehend von einem bereits identifizierten Erhebungsbedarf, erarbeitet werden.
Im Rahmen der Diplomarbeit sollte demnach eine generische Methode entwickelt werden, anhand derer belastbare Eingangsdaten für die der Kostenstrukturanalyse zugrundeliegenden Kalkulationsmodelle erhoben werden können. Grundlage dieser Methode stellen die ersten zwei Phasen des WM-Prozesses dar, die anhand definierter Subprozesse und -ziele zu detaillieren sind. Das zu modellierende Erhebungskonzept muss zudem die Erfüllung der wesentlichen Anforderungen an Eingangsdaten für die Nutzung in der Kostenstrukturanalyse sicherstellen. Die Qualität der Kalkulationen ist wie bereits angesprochen signifikant von der Qualität der Eingangsdaten abhängig. Aus diesem Grund müssen Instrumente zur Sicherstellung valider Eingangsdaten in das Erhebungskonzept implementiert und entsprechende Kriterien zur Messung einer prozesskonformen Erhebung definiert sein. Die Entwicklung eines entsprechenden Konzepts möchte ich Ihnen im Folgenden näher vorstellen.
Zur Modellierung eines Erhebungsprozesses im Rahmen des Wissensmanagements muss zu Beginn geklärt werden, was „Wissen“ in der Kostenstrukturanalyse überhaut ist. Die Abbildung zeigt einen Ausschnitt aus dem Kalkulationsmodell, das ausgehend von den Vollkosten eines Kaufteils in verschiedene Detaillierungsgrade herunter gebrochen ist. Grad 3 stellen hierbei die einzelnen Eingangsdaten, wie etwa Faktorpreise, dar, die für die Verrechnung im Modell benötigt werden. Anspruch für das Wissensmanagement und zur Plausibilisierung der Kalkulation sind jedoch transparente Eingangsdaten, die zudem die Anforderungen an Datenqualität wie auch Quellenvielfalt erfüllen. Demnach ist zunächst ein formales Modell notwendig, mit dem transparente Eingangsdaten abgebildet werden können. Grundlage dieses formalen Modells stellt die Wissenstreppe nach Klaus North dar.
Wie Sie in der Abbildung sehen können, stellen Zeichen die unterste Stufe der Wissenstreppe dar. Zeichen sind beispielsweise Buchstaben oder Ziffern und werden durch Ordnungsregeln wie eine Syntax zu Daten aufgewertet. Daten besitzen als solche jedoch nur wenig Bedeutung oder Zweck. Sie können als Zeichenfolgen, Symbole oder Bilder codiert sein, die noch nicht interpretiert wurden und dementsprechend keine tragfähige Handlungsbasis darstellen. Erst wenn sie in einem Bedeutungskontext stehen, d.h. ein Bezug hergestellt wurde, werden aus Daten Informationen. Wissen, als letzte Stufe der Wissenstreppe, entsteht erst durch die individuelle Vernetzung verschiedener Informationen. Während die Aufwertung von Zeichen zu Daten bereits durch die gegebene Syntax formalisiert ist, muss ein formales Modell für transparente Eingangsdaten und damit die Wissenselemente in der Kostenstrukturanalyse erst noch erarbeitet werden. Dieses Modell muss den Anwender dabei unterstützen, Daten in einen Kontext zu setzen, um Informationen zu erhalten sowie diese Informationen zu vernetzen, um Wissen zu generieren. Zu diesem Zweck wurde ein Datenmodell entwickelt, das eine Strukturierung und Standardisierung der Datensätze ermöglicht.
Im Rahmen des Datenmodells wird ein Datensatz in Objektdaten und Metadaten aufgegliedert. Objektdaten stellen die eigentlichen im Kostenmodell verrechneten Nutzdaten wie etwa Lohnsätze, Mietpreise oder Anschaffungskosten einer Maschine dar, während Metadaten Attribute zur Beschreibung der Objektdaten beinhalten. Dies könnte etwa die Qualifikation eines Arbeiters, die betrachtete Region oder der Zeitraum sein, für den diese Daten gelten. Metadaten fügen den Objektdaten demnach eine Zweck- oder Bedeutungskomponente hinzu und ermöglichen somit gemäß der vorgestellten Wissenstreppe die Kontextualisierung von Daten zu Informationen. Um jedoch Wissen im Modell abzubilden ist eine weitere Ebene notwendig. Dies geschieht mit Hilfe der sogenannten Organisationsdaten. Die Organisationsdaten bilden im engeren Sinn eine weitere Metadatenebene ab, beinhalten jedoch Daten und Attribute in Bezug auf die Erhebung der Objektdaten. Sie ermöglichen damit die Vernetzung von Informationen und folglich die Generierung von Wissen. Mit Hilfe der Organisationsdaten kann somit die Erfüllung der Anforderungen an Eingangsdaten sichergestellt und dokumentiert werden. Dadurch wird folglich auch die Transparenz und Nachvollziehbarkeit der Eingangsdaten gewährleistet. Zur Operationalisierung des Datenmodells müssen jedoch zunächst Attribute für die Organisationsdaten definiert werden. Darauf möchte ich Rahmen des nachfolgenden Bewertungskonzepts kurz näher eingehen. Zu Veranschaulichung des Datenmodells möchte ich im Folgenden einen Beispieldatensatz für Lohnkosten vorstellen.
Wie Sie sehen können, setzen sich die Objektdaten aus den Attributen „Wert“ und der zugehörigen „Einheit“ zusammen. Für den konkreten Beispieldatensatz könnte hierfür etwa der Wert 1,21 und die Einheit €/h hinterlegt sein. Isoliert betrachtet liefert dieses Datum wie vorab beschrieben keine weiteren Informationen und ist dementsprechend unbrauchbar. Der entsprechende Kontext kann für den Datensatz mittels der Metadatenattribute „Land“, zugehörige „Region“, „Qualifikation“ des Arbeiters sowie dem „Gültigkeitsjahr“ hergestellt werden. In Verbindung mit dem Objektdatum erhält der Kosteningenieur hierdurch beispielsweise die Information: „Ein Hilfsarbeiter in der Region Beijing in China erhält im Jahr 2011 einen Stundenlohn von 1,21 €“ . Aufgrund dieser Information ist der Datensatz für die Kalkulation bereits nutzbar. Der Nutzer hat zu diesem Zeitpunkt jedoch noch keine weiteren Informationen darüber, wie der Wert ermittelt wurde und wie er definiert ist. Erst mit Hilfe der Erhebungsdokumentation in den Organisationsdaten kann er die einzelnen hinterlegten Informationen vernetzen und das Wissen generieren, das er zur Argumentation des Wertes beim Lieferanten benötigt. Dadurch erlangt er unter anderem Wissen darüber, dass es sich beim Lohnstundensatz beispielsweise um einen Direktlohn handelt, der beim chinesischen statistischen Bundesamt erhoben und mittels Clusteranalyse für die benötigte Qualifikation abgeleitet wurde. Der Nutzer kann somit anhand der in der Organisationsdatenebene hinterlegten Daten die vollständige Berechnung Schritt für Schritt nachvollziehen. Durch die Strukturierung der Datensätze mit Hilfe des Datenmodells wurden die Voraussetzungen erfüllt, formale Teilschritte und –ziele im Rahmen eines Erhebungskonzepts zu definieren.
Das konzipierte Vorgehensmodell zur Datenerhebung gliedert sich in sechs sequenzielle Phasen auf, die wiederum teilweise in weitere Teilschritte untergliedert sind. In der ersten Phase, der Zieldefinition, werden die zu erhebenden Eingangsdaten anhand der Aufgabenbeschreibung abgeleitet und mit Hilfe der Metadaten festgelegt. Ebenso erfolgt in diesem Teilschritt die Identifikation der Standardmethoden für die zu erhebenden Eingangsdaten. Ziel der Informationsidentifikation ist die vollständige Erfassung aller zur Aufgabenerfüllung benötigten Informationen und somit des Informationsbedarfs Auf Basis des Informationsbedarfs werden anschließend mögliche Informationsquellen, d.h. das Informationsangebot, identifiziert und hinsichtlich der zu erwartenden Datenqualität bewertet. Abschließend wird das Informationsangebot mit dem Informationsbedarf hinsichtlich der Anforderungen an Granularität und Qualität der Daten verglichen und die Quellen auf Nutzbarkeit überprüft. In der Erhebungsplanung erfolgt die Selektion adäquater Informationsquellen auf Basis der höchsten Effizienz, Konformität mit dem Informationsbedarf und der Quellenbewertung. Auf Basis der gewählten Quellen werden die Erhebungsmethoden festgelegt. Mögliche Methode sind: Befragung (z.B. Experten, Lieferanten), Beobachtung (z.B. messen, analysieren) und die Dokumentenanalyse (z.B. Statistiken, Kostenstellendaten, Angebote). Zur Vorbereitung der Erhebung erfolgt abschließend die Planung und Organisation der Durchführung bzgl. Terminen, erforderlichen Genehmigungen. die Überprüfung von Messinstrumenten u.ä. Anschließend werden die gemäß dem Informationsbedarf benötigten Informationen aus den Quellen extrahiert und ggf. transformiert und elektronisch erfasst. Vor der Datenanalyse müssen die erhobenen Daten hinsichtlich ihrer Granularität, Darstellungsform und Maßeinheit unter Berücksichtigung des Informationsbedarfs vereinheitlicht werden. Die erhobenen Daten werden anschließend auf Fehler untersucht. Sofern mehrere Daten erhoben wurden und eine hohe Abweichung der Werte vorhanden ist oder die Daten eine extreme Auswirkung auf das Kalkulationsergebnis haben, muss ein statistischer Ausreißertest durchgeführt werden. Veraltete, inflationäre Daten müssen ggf. im nächsten Schritt hochgerechnet werden.(z.B. Kostendaten). Sofern mehrere Werte für ein Eingangsdatum erhoben wurden, müssen je nach Aufgabenstellung statistische Analyseverfahren angewendet werden. Im Regelfall beschränkt sich die Analyse auf deskriptive Statistik , wie etwa die Berechnung des Mittelwerts der Daten. Je nach Aufgabenstellung werden inflationäre Daten und veränderliche technische Parameter anschließend für zukünftige Jahre prognostiziert Die ggf. notwendige Verrechnung der einzelnen Daten zu dem zu erhebenden Eingangsdatum erfolgt mit Hilfe des Berechnungsmodells der Standardmethode Bei der den Prozess abschließenden Datenvalidierung erfolgt eine Rückkopplung zur Zieldefinition, um das Erhebungsergebnis mit den ursprünglich festgelegten Zielen abzugleichen. Wie bereits erwähnt ist zum Nachweis einer prozesskonformen Erhebung und der inhaltlichen Qualität der Eingangsdaten die Definition von Attributen für die Organisationsdaten notwendig. Dies erfolgte im Rahmen eines Bewertungskonzepts, das ich Ihnen im Folgenden näher vorstellen möchte.
Die Definition der Attribute erfolgt unter der Vorgabe, dass alle vier Phasen der Wissensspirale umzusetzen sind. Unter Berücksichtigung der Relevanz für die unterschiedlichen Anwendergruppen - Nutzer und Wissensmanager - werden diese anschließend den einzelnen Phasen in der Matrixdarstellung zugeordnet. Attribute, die für den Wissensmanager von Interesse sind, werden in der Abbildung anhand eines „M“ gekennzeichnet. Dieser ist für das Monitoring einer prozesskonformen Erhebung verantwortlich und benötigt dementsprechend eine lückenlose Dokumentation des Erhebungsprozesses. Die Attribute der Organisationsdaten stellen jedoch nicht nur Kriterien zur Qualitätsmessung dar, sondern ermöglichen ebenso die Nachvollziehbarkeit der Eingangsdaten für Kosteningenieure, die die Wissenselemente nutzen und die Objektdaten nachvollziehen müssen. Um die Doppelfunktion hervorzuheben, werden die für den Nutzer und Wissensmanager relevanten Attribute in der Abbildung mit einem „N/M“ markiert.
Die Bewertung der potenziellen Informationsquellen zur Sicherstellung der Anforderung an Datenqualität ist ein essenzieller Teilschritt im Rahmen des Erhebungskonzepts. Unter diesem Gesichtspunkt wurde für die Anwendung in der Informationsangebotsanalyse eine Bewertungsmaske entwickelt, mit dem Ziel, vergleichbare und objektive Bewertungen von Dokumenten als Informationsquelle zu ermöglichen. Um dies zu erreichen, darf dem Nutzer nur wenig subjektiver Ermessensspielraum zugesprochen werden. Unter Berücksichtigung dieser Vorgabe wurde ein binäres Bewertungssystem in Form von Entscheidungsfragen (Ja/Nein) erarbeitet, dass auf 15 definierten Kriterien für Datenqualität basiert, die sich in vier Hauptkategorien unterteilen: Innere Datenqualität, Kontextuelle Datenqualität, Darstellungsqualität und Zugangsqualität. Die Durchführung der Bewertung und Beantwortung der Fragen erfolgt auf einer geschützten Eingabemaske, die automatisch alle Teilergebnisse aufsummiert und das Endergebnis übersichtlich im Netzdiagramm visualisiert. Die Bewertung ist wie bereits erwähnt ebenso zwingend in den Organisationsdaten zu dokumentieren.
Anhand dieser Ergebnisse lassen sich nun Bewertungskonzept und Erhebungskonzept zusammenfassen.
Im Rahmen der Zieldefinition erfolgt somit eine Spezifizierung der Objektdaten durch Definition der Metadaten. Eine Liste potentieller Quellen sowie die entsprechenden Quellenbewertungen werden im Rahmen der Informationsidentifikation in den Organisationsdaten dokumentiert. Die tatsächlich ausgewählten Quellen sowie die verwendeten Erhebungsmethoden sind im Rahmen der Erhebungsplanung zu protokollieren. Die Ergebnisse der Erhebung und Erfassung der Daten sowie alle Berechnungsschritte im Rahmen der Datenaufbereitung und –analyse sind ebenso in den entsprechenden Attributen der Organisationsdaten verbindlich anzugeben bzw. zu verknüpfen. Das Datenmodell ermöglicht damit das Monitoring des Erhebungspozesses und das Erhebungskonzept erfüllt folglich die Voraussetzungen für eine spätere nachvollziehbare und argumentierbare Kalkulation. Wie das Erhebungskonzept in der Praxis umzusetzen ist, möchte ich Ihnen nun anhand eines Beispiels für Büroflächenkosten veranschaulichen.
Meinen Vortrag abschließen möchte ich nun mit einigen Handlungsempfehlungen, die man bei der Anwendung des Erhebungskonzepts berücksichtigen sollte. Zum Einen ist es erforderlich, für alle Eingangsdaten die entsprechenden Standardmethoden und Berechnungsmodelle zu erarbeiten. Besonders wichtig ist es in diesem Zusammenhang zu definieren, was unter Best Practice für bestimmte Eingangsparameter zu verstehen ist. Die Erhebung der Eingangsdaten kann je nach Informationsangebot und Parameter sehr aufwendig sein. Hier kann es sinnvoll sein die Datenerhebung von spezialisierten Unternehmen, wie etwa Cost Data oder Tsetinis+Partner durchführen zu lassen. Jedoch sollten die Erhebungsmethoden und zu dokumentierenden Schritte klar festgelegt sein, um die Nachvollziehbarkeit der Erhebung zu gewährleisten.
Mit diesen Worten möchte ich meinen Vortrag beenden. Sollten von Ihrer Seite noch Fragen offen sein, können Sie mir diese nun gerne stellen. Vielen Dank für Ihre Aufmerksamkeit.