Im Blog am 1. November ging es um Komplexität, Dynamik und die damit verbundenen Realtime-Entscheidungssituationen sowie die immer schwieriger werdenden Prognosen. Wir wollen – beziehungsweise müssen sogar – als Manager die zukünftigen Entwicklungen abschätzen, scheitern aber immer mehr an der damit verbundenen Unsicherheit. Konnten früher beispielsweise Prognosen auf der Grundlage von Konjunkturzyklen gestellt werden, so haben uns die letzten Jahre gelehrt, dass schon die Aussagen über die nächsten Monate kaum möglich sind.

Wenn es also immer schwieriger wird, einzelne Werte in der Zukunft vorherzusagen, dann müssen andere Ansätze bemüht werden, um Entscheidungen abzusichern. Gehen wir bei einer Investition von einer vorgegebenen Zahlungsreihe aus, dann sind wir in der Lage mit Hilfe der Internen-Zinsfuß-Methode die Verzinsung exakt auszurechnen und eine Entscheidung für oder gegen das Investitionsvorhaben zu treffen. Wer sagt uns aber, ob die Annahmen zu den Zahlungsströmen denn wirklich so eintreten? Genauso verhält es sich mit Vertriebs-, Produktions- oder Einkaufsplanungen. Wir aggregieren unterschiedlichste Berechnungen über zahlreiche Stufen und ermitteln dann in einer Gesamtrechnung die finalen Ergebnisse wie zum Beispiel das Kostenbudget oder den Unternehmensgewinn. Und je komplexer die Entscheidungssituationen in unserer „exponentiellen Welt“ werden, desto mehr müssen wir davon ausgehen, dass wir „schwimmen“.

Moderne Prognosealgorithmen und Künstliche Intelligenz dürfen nicht darüber hinweg täuschen, dass wir weiterhin mit Unsicherheiten zu tun haben. Lernende Systeme werden zwar immer besser und sind mittlerweile alleine durch die Rechenleistungen der Computer uns Menschen überlegen. Aber wir wissen auch, dass die Systeme und die Datenwelt und damit die Komplexität exponentiell anwachsen. In diesem Zusammenhang ist es deshalb auch verwunderlich, wenn Manager Business Intelligence (BI) einkaufen und daraus dann „bessere Entscheidungen“ ableiten. Wir müssen aufpassen, dass wir nicht allzu schnell mit ungeprüften Hypothesen rausgehen ohne diese ausreichend getestet zu haben.

Ein guter Ansatz, die Unsicherheit in unseren Prognosen etwas besser abzusichern, ist die Einführung eines Risikomanagements (im übrigen sind große Unternehmen hierzu auch gesetzlich verpflichtet – siehe KonTraG). Ausgehend von einem kleinen Beispiel lässt sich das recht gut veranschaulichen: wenn der Umsatz 100 GE beträgt, der Wareneinsatz über die letzten Jahre ca. 45% des Umsatzes ausmachte und die restlichen Kosten 50 GE betragen, dann ergibt sich ein Gewinn in Höhe von 5 GE. Ändert sich aufgrund von Volatilitäten am Beschaffungsmarkt der Einkaufspreis um minus 5%, dann beträgt das Ergebnis nur noch null. Schlimmer noch, wenn auch der Umsatz um 20 GE sinkt, so dass sich dann ein Ergebnis von -10 GE ergibt.

Wenn wir in einem deterministischen Modell (hier die vereinfachte Erfolgsrechnung) aufgrund unserer Erfahrungen oder auch spielerisch die Eingangsparameter verändern, dann können wir die möglichen Konsequenzen aufzeigen und eventuelle Vorkehrungen zu ihrer Vermeidung treffen. In dem Beispiel haben wir das über eine einfache Sensitivitätsanalyse aufgezeigt. Ähnlich funktioniert die Szenarioanalyse, in der wir verschiedene Situationen – meist sehr gut, mittel und schlecht – darstellen und dann daraus Handlungsalternativen ableiten. In einer Simulationsrechnung (zum Beispiel Monte Carlo Simulation) ließen sich zudem den einzelnen Faktoren noch spezifische statistische Eigenschaften mitgeben und mit Hilfe zahlreicher Versuche wiederum eine statistische Verteilung erzeugen, die Aufschluss über wahrscheinliche Ergebnisse liefert. Auch für eine Risikoaggregation ließe sich dieses Werkzeug nutzen.

Vor dem Hintergrund von Industrie 4.0 und Digitalisierung sowie einer exponentiell wachsenden Systemwelt werden wir uns auch immer mehr mit Risiken und deren Management beschäftigen müssen. Wie wird unsere Wertschöpfung aussehen, von welchen Providern kaufen wir was ein, wie verändern sich Konditionen aufgrund von Zins- und Währungsrisiken, welche Services bieten wir unseren Kunden zukünftig zu welchen Preisen an, welche kritischen Mengen benötigen wir…?

Wir sollten bei all den digitalen Veränderungen bedenken: kein Feuerwehrmann läuft zuerst ins Feuer und überlegt dann. Und je lodernder das Feuer, desto länger wird er über mögliche Maßnahmen nachdenken. Wir müssen deshalb aufpassen, dass wir nicht euphorisch und ungeprüft jedem neuen Trend nachlaufen. Deshalb ist es intelligenter, in unterschiedlichen „Risikorechnungen“ die verschiedensten Ergebnisse der Zukunft zu simulieren. Und wir sollten die Ergebnisse interpretieren und gegebenenfalls mit neuen Erkenntnissen erneut validieren.

Sinnvoll ist es bei großen Komplexitäten die Problemstellung zu zerlegen. Das heißt ausgehend von einem Großen und Ganzen Teilziele zu definieren und diese zu testen. In diesem Zusammenhang kann uns der so genannte Deming-Cycle (PDCA) helfen, die Situation zu managen. Hierzu lesen Sie im nächsten Blog mehr.

Ihr Horst Tisson