Im letzten Artikel über Zombie-Projekte gingen wir von einem Spiel mit vollständiger Information aus: Auftraggeber und Auftragnehmer wissen beide, dass das Projekt gescheitert ist, aber niemand will der Erste sein, der es zugibt. Das Nash-Gleichgewicht zwingt beide in ein pathologisches “Weiter so”.

In der Realität großer Organisationen ist das Setup jedoch oft noch toxischer. Wir verlassen das Feld der vollständigen Information und betreten die Welt der Informationsasymmetrie. Willkommen beim “Wassermelonen-Projekt”: Außen grün, innen rot.

Die tickende Uhr der Informationsasymmetrie

In diesem Szenario weiß die Basis (die Entwickler), dass das Projekt auf eine Katastrophe zusteuert. Architekturen skalieren nicht, Releases können nicht geliefert werden. Das Management meldet dem Kunden jedoch: “Status Grün”.

Spieltheoretisch ist das ein riskantes Unterfangen, denn das Aufrechterhalten dieser Lüge ist ein stochastischer Prozess. Jeden Tag gibt es eine gewisse Wahrscheinlichkeit $p_i$, dass das Desaster durch ein Audit, einen wütenden Entwickler oder einen Komplettausfall ans Licht kommt. Die Wahrscheinlichkeit, dass die Lüge bis zum Tag $n$ nicht auffliegt, schrumpft exponentiell:

$$P(\text{Nicht-Entdeckung}) = \prod_{i=1}^{n} (1 - p_i)$$

Da $(1 - p_i) < 1$ ist, strebt das Produkt zwangsläufig gegen Null. Im Umkehrschluss bedeutet das: Das Risiko der Entdeckung geht mit zunehmender Zeit unaufhaltsam gegen 1.

Warum lügt das mittlere Management trotzdem weiter? Wegen der Gambler’s Fallacy – der irrationalen Hoffnung, dass das nächste Release wie durch ein Wunder die technischen Schulden von zwei Jahren auflöst. Und weil die Struktur des Projekts sie genau dazu zwingt.

Stack der Ahnungslosigkeit

Wie gelingt es einer Organisation überhaupt, eine derart massive rote Melone vor dem Kunden zu verstecken? Die Antwort liefert die Thermodynamik: Durch Informations-Entropie.

Jeder Knotenpunkt in einem Kommunikationsnetzwerk filtert Rauschen, aber in toxischen Projekten filtern die Knotenpunkte die Realität. Um das zu visualisieren, betrachten wir die Hierarchie eines natürlich rein hypothetischen IT-Projekts. Die Informationskette vom Code bis zum Geldgeber sieht dann so aus:

  1. Entwickler (Weiß: Der Code brennt, nichts baut mehr.)
  2. Scrum Master / Lead Engineer (Versucht, den Brand mit Sprints zu löschen.)
  3. Product Owner / Teamleiter (Priorisiert Features, die auf der brennenden Architektur nicht laufen.)
  4. Release Train Engineer (Plant Zugabfahrten für Züge ohne Räder.)
  5. Requirements Engineer (Schreibt Spezifikationen für eine Idealwelt.)
  6. Project Manager (PM) (Schiebt Jira-Tickets, ohne den Inhalt zu verstehen.)
  7. Projektleiter (PL) (Ignoriert Jira komplett, pflegt stattdessen Checkboxen in MS OneNote.)
  8. Interner Auftraggeber beim Dienstleister (Liest nur die OneNote-Zusammenfassung des PL.)
  9. Kunde (Sieht eine PowerPoint-Folie und zahlt die nächste Tranche.)

Der Rauschfilter-Effekt

Was wir hier sehen, ist keine Projektsteuerung, sondern eine Kaskade von Ghost-Agents. Die meisten Schichten in dieser Kette (besonders PM und PL) treffen keinerlei inhaltliche Entscheidungen. Sie haben nur eine einzige Funktion: Harte, technische Fakten (Costly Signals aus Jira oder der CI/CD-Pipeline) in weiche, gefällige Metadaten (Soft Signals in OneNote oder PowerPoint) zu übersetzen.

Jede Stufe glättet die Kanten der Wahrheit ein bisschen mehr. Der Entwickler schreit: “Die Datenbank-Locks töten das System!” – Der Product Owner macht daraus: “Wir haben technische Schulden im Backend.” – Der PL notiert in OneNote: “[x] Architektur-Review durchgeführt”. Beim Kunden kommt an: “Performance-Optimierungen on track”. Die Thermodynamik hat dafür sogar einen Namen — und die Physik zeigt, wie fundamental das Problem ist.

Fazit: Das Ende der Steuerbarkeit

Wenn ein System so gebaut ist, dass unangenehme Wahrheiten auf dem Weg nach oben systematisch verschwinden, ist das kein Kommunikationsproblem — es ist ein Designproblem. Die Struktur erzeugt genau das Verhalten, das sie bestraft, wenn es zu spät ist.

Es handelt sich um organisierte Ahnungslosigkeit. Die Entscheidungen ganz oben basieren auf Informationen, die an Stufe 7 (dem PL) bereits restlos von der Realität entkoppelt wurden. Wenn der Aufprall kommt (weil das Entdeckungsrisiko die 1 erreicht hat), ist die Überraschung im Penthouse maximal – während im Maschinenraum alle nur müde mit den Schultern zucken.

Der einzige Ausweg ist radikale Informationshygiene: Entscheider müssen direkten Zugang zu Costly Signals haben — Deployment-Frequenz, Fehlerrate, offene Bugs — nicht zu deren OneNote-Zusammenfassung. Alles andere ist Kaffeesatzlesen mit Excel.

Kommentare

Suche starten

Geben Sie Schlüsselwörter ein, um Artikel zu suchen

↑↓
ESC
⌘K Tastenkürzel