Kap. 02 · Die Diagnose
Die Lizenzen sind bezahlt. Copilot, Cursor, Claude Code, irgendwas davon läuft bei Ihnen. Die Erwartung war: Das Team wird produktiver. Was tatsächlich passiert, ist schwerer zu greifen. Laut Stack Overflow Developer Survey 2025 nutzen 84% der Entwickler KI-Tools, aber 66% verbringen mehr Zeit damit, „fast richtigen" Code zu fixen, als sie einsparen.
Zwei Leute im Team schwören auf den Agent und liefern schneller. Andere haben nach drei frustrierenden Versuchen aufgegeben. Der Rest akzeptiert die Autocomplete-Vorschläge und hofft, dass schon nichts schiefgeht.
Wenn der Engineering Lead fragt, warum derselbe Prompt gestern einen sauberen Service produziert hat und heute denselben Service mit drei zirkulären Dependencies, zucken alle mit den Schultern. Niemand kann es erklären.
„Das ist kein Tool-Problem. Es fehlt das mentale Modell dafür, wie diese Maschine Entscheidungen trifft.
Coding Agents sind keine Suchmaschinen und keine Compiler. Sie erraten das wahrscheinlichste nächste Wort, basierend auf allem, was sie gelesen haben. Wer das nicht versteht, kann nicht vorhersagen, wann der Agent hilft und wann er halluziniert. Jede Interaktion bleibt dann Glückssache.
Die Folge: Ihr Team hat AI-Tools, aber kein gemeinsames Vokabular dafür. Keine Patterns für wiederkehrende Aufgaben. Keinen systematischen Weg, die Qualität von Agent-Output zu bewerten.
Der Engineering Lead steckt zwischen Management, das Zahlen sehen will, und einem Team ohne Sprache für das, was es erlebt.
Hintergrund: Leitfaden zu KI-Coding-Agents→