...denn zum Lernen sind sie da! - Wie Fehler die Widerstandsfähigkeit von Systemen und Prozessen verbessern können (Teil 1)

Agile Softwareentwicklung, agiles Projektmanagement und der interdisziplinäre Ansatz von DevOps haben etliche Mantras rund um das Thema Fehler aufgebaut. „Welcome failure“, „Fail fast“, „Fail early“ und „Fail often“ sollen eine neue Fehlerkultur schaffen. Zusätzlich bahnen sich Veranstaltungsformate wie „F*ckUp Nights“ den Weg in unsere Kultur, um das „Versagen“ gesellschaftsfähig zu machen und zu entstigmatisieren.

 

Doch realistisch betrachtet sind Fehler einfach das, was sie sind: etwas, worüber wir nicht gerne sprechen – etwas, das niemand wirklich gerne willkommen heißt und ganz bestimmt etwas, das wir nicht feiern wollen!

 

Gleichzeitig ist bestens bekannt, dass wir aus Fehlern lernen können, wenn sie denn offen und angemessen kommuniziert werden. Ziel sollte es sein, eine wertschaffende Fehlerkultur zu entwickeln, die die Widerstandsfähigkeit von Systemen und Prozessen verbessert und somit auch die Anzahl der Fehler minimiert. Doch welche Voraussetzungen müssen Unternehmen schaffen, um das volle positive Potential der Fehler auszuschöpfen?

 

Schuldfrage vs. Root Cause(s)

 

Passiert ein Fehler, ist die Frage „Wer ist dafür verantwortlich?“ meist schnell im Gespräch. Doch ist das „Wer?“ für die Vermeidung des Fehlers in der Zukunft wirklich der entscheidende Faktor oder sollten sich Teams und Unternehmen vielmehr auf das „Warum?“ konzentrieren? Die Antwort auf diese Frage ist abhängig von der jeweiligen Zielsetzung. Soll nur eine „schuldige Person“ gefunden werden, die es in die Verantwortung zu nehmen und abzustrafen gilt, dann ist das „Wer?“ absolut ausreichend und zielführend. Leider ist es genau das, was viele Arbeitnehmer in den letzten Jahren gelernt haben. Wer einen Fehler macht und diesen auch noch offen kommuniziert und zugibt, läuft Gefahr, dafür zum Teil sogar öffentlich bestraft zu werden. Das hat dazu geführt, dass viele Mitarbeiter dazu übergegangen sind, Fehler nicht anzusprechen, sie zu verstecken und zu hoffen, dass es niemand merkt – und wenn, dass es dann schon zu spät ist, um den „Schuldigen“ zu enttarnen. „Ich war das nicht!“, „ich kann nichts dafür!“ oder „Er/Sie hat mir gesagt, ich soll das so machen!“, sind dann immer wieder gehörte Aussagen. Für Vorgesetzte ergibt sich nun die Möglichkeit, zu handeln. Ernste Gespräche, um dem Mitarbeiter ins Gewissen zu reden, Abmahnungen oder gar Entlassungen sowie der Auftrag, sich um das Problem zu kümmern, sind nicht unüblich. Der Vorgesetzte hat damit seine Pflicht getan und es kann wieder zum Business-as-usual übergegangen werden. Doch was passiert dann? Ist damit sichergestellt, dass eine potentielle Fehlerfalle, in die jeder andere auch hineintappen kann, für die Zukunft entschärft worden ist? Und worin genau besteht der Lernerfolg? Ein Lernerfolg- wenn auch ein negativer – ist sicherlich erzielt worden: Angst vor neuen Fehlern und verstärkte Bemühungen, entstandene Fehler unter den Teppich zu kehren. In so einer Arbeitsatmosphäre werden Mitarbeiter sich nur sehr ungern neuen Aufgaben oder Problemstellung widmen, sämtliche Veränderungen werden extrem kritisch betrachtet oder gar abgelehnt, denn alles Neue birgt das Potential auf Fehler! Eine kontinuierliche Verbesserung, ein erfolgreicher Change oder gar Innovationen werden damit eher unwahrscheinlich. Hinzu kommt, dass auch der Root Cause – die „Wurzel allen Übels“ noch nicht identifiziert worden ist und damit zu immer weiteren Fehlern führen kann.

 

Sicherheitskritische Umfelder wie zum Beispiel die Luftfahrt haben gezeigt, dass die Erkundung der Ursache, warum ein Fehler überhaupt entstehen konnte, wichtig ist für die zukünftige Vermeidung eben dieses Fehlers.

 

 

 

 

Einen praktikablen Ansatz hierzu stellt die 5W-Methode dar, die auch im Qualitätsmanagement zur Ursache-Wirkung-Bestimmung eingesetzt wird.

 

Anhand eines Beispiels wird das unterschiedliche Vorgehen dargestellt:

 

Folgende Problemstellung liegt vor:

Der online-Shop war für Kunden nicht erreichbar. (Szenario 1.0)

 

1. Warum war der online-Shop für Kunden nicht erreichbar? Der Server war heruntergefahren. 

2. Warum war der Server heruntergefahren? Ein Mitarbeiter hat einen falschen Befehl eingegeben.

 

Hier würde jetzt zur Klärung der Schuld folgende Frage gestellt werden:

Welcher Mitarbeiter war das? Die Antwort auf diese Frage identifiziert zwar eine Person aber nicht das eigentliche Problem.

 

Alternativ bietet sich folgender Weg an:

 

3. Warum hat der Mitarbeiter den falschen Befehl bestätigt? Es gab keine Warnmeldung.

4. Warum gab es keine Warnmeldung? Sie ist an der Stelle nicht vorgesehen.

5. Warum ist sie an der Stelle nicht vorgesehen? Bei der Konzeptionierung des Systems wurde diese Möglichkeit nicht bedacht.

 

Hier ist der Root Cause, also die Voraussetzung dafür, dass dieser Fehler am Ende überhaupt zustande kommen konnte, identifiziert worden. Es kann eine dauerhafte Abhilfe geschaffen und Systeme können gegen derartige Störungen gehärtet werden. Ein funktionierendes Resilience Engineering kann aufgebaut werden.

 

Menschen machen Fehler, die sogenannten Human Errors.

 

Dies wird sich nie ganz vermeiden lassen. Doch schlechtes Design von Prozessen und Systemen sind häufig die Auslöser für derartige Fehler. Allerdings stehen heute die technischen Möglichkeiten zur Verfügung, Systeme so aufzubauen, dass die Quote der Human Errors deutlich reduziert werden kann. Das funktioniert nur bedingt von Beginn an beim Design eines neuen Systems, da oftmals gar nicht so „um die Ecke gedacht“ werden kann mit allen Eventualitäten, die im Echtbetrieb auftauchen. Daher ist es so wichtig, auftauchende Fehler zu analysieren und aus ihnen zu lernen. Je komplexer Systeme und Prozesse werden, umso intensiver sollten Unternehmen sich mit diesen Fragen auseinandersetzen.

 

In den oben bereits angesprochen sicherheitskritischen Umfeldern hat sich das Prinzip der Just Culture entwickelt. In den nach Just Culture agierenden Unternehmen wird grundsätzlich erst einmal davon ausgegangen, dass jeder Mitarbeiter zur Arbeit kommt, um das Beste zu geben und eine gute Arbeit abzuliefern oder anders gesagt: niemand kommt zur Arbeit, um Fehler zu machen. Des Weiteren wird Fehlverhalten nicht bestraft. Nur dann besteht die Chance, dass offen über Fehler gesprochen wird und Fehler reportet werden. Vielmehr wird das Fehlverhalten in drei Gruppen eingeteilt: Human Error – das „menschliche Versagen“, at-Risk Behaviour - das „riskante Verhalten“ und Reckless Behaviour - das „rücksichtslose Verhalten“. Die nachfolgenden Beispiele verdeutlichen die Unterschiede in den drei Bereichen.

 

 

 

Bitte überlegen Sie einmal für sich, wie oft Sie schon ein Stop-Schild übersehen und überfahren haben oder sich nicht sicher sind, eines überfahren zu haben.

 

Dies ist unbewusst und unbeabsichtigt passiert, vielleicht weil Sie gerade an den bevorstehenden Einkauf oder an ein zurückliegendes Gespräch gedacht haben oder Sie neu in der Gegend waren und sich enorm auf den Weg und den Verkehr konzentrieren mussten. Das wird als Human Error bezeichnet - unbeabsichtigt und unbewusst, dass Sie etwas Falsches getan haben.

 

Nun überlegen Sie für sich, wie oft Sie sich schon entschieden haben, 5-10 km/h schneller zu fahren als erlaubt.

 

Hier liegt eine bewusste Entscheidung vor, die Sie getroffen haben, obwohl Sie wussten, dass diese Entscheidung mit einem Risiko und eventuellen Konsequenzen verbunden ist. Doch die Abwägung Ihres persönlichen Nutzens (z. B. schneller am Ziel zu sein; den Verkehr nicht aufhalten zu wollen) mit dem möglichen Risiko und den dazugehörigen Konsequenzen hat Sie zu der Entscheidung geführt, schneller zu fahren. Solche Entscheidungen werden als at-Risk Behaviour bezeichnet: bewusste Entscheidungen, da das Risiko kalkulierbar tragbar erscheint. Doch häufig wird das Risiko tatsächlich falsch eingeschätzt und ist wesentlich höher als gedacht. In dem oben beschriebenen Beispiel wäre das folgendes Szenario: Sie entscheiden sich, 5-10 km/h schneller zu fahren, befinden sich aber in Dänemark oder der Schweiz und haben sich vor Reiseantritt nicht über die dort gültigen Strafen informiert. So werden aus den kalkulierten 10 € (in Deutschland) plötzlich weit über 100 € (in Dänemark und der Schweiz). Eine Nutzen-Risiko-Bewertung wäre möglicherweise anders ausgefallen, wenn Sie die veränderten Konsequenzen gekannt hätten.

 

Finden Sie sich in den Szenarien wieder? Im zweiten Teil des Beitrags gehe ich auf weitere, mögliche Szenarien ein und komme zu dem Schluss, was Just Culture für uns im Projektleben bedeuten kann... Bleiben Sie also neugierig! Hier geht es weiter!

 

 

Please reload

Kontakt: 0431 - 888 2111 0

E-Mail: marketing@scope-engineering.de

  • YouTube
  • Twitter
  • XING
  • LinkedIn

© 2020 SCOPE Engineering GmbH

Impressum

Datenschutz

Kontakt

SCOPE Engineering Website       I       test!t     I     t(ea)talk     I     Dezentrales Arbeiten