Wenn ein AI-Agent zu lange läuft, ist das Problem meist nicht der Agent

bbcode-image


Manuel Fuß hat auf LinkedIn kürzlich eine einfache, aber sehr treffende Regel beschrieben: AI-Agenten sollten nie länger als 30 Minuten ohne Stopp und Review laufen. Seine Begründung ist klar: Nach etwa 30 Minuten verliert der Agent den Kontext, die Ergebnisse werden zunehmend unbrauchbar und der Agent beginnt, Dinge zu tun, die nicht mehr sauber zum ursprünglichen Ziel passen.

Dem kann ich mich nur anschließen.

Was passiert, wenn ein Agent zu lange läuft?

Wenn ein AI-Agent über längere Zeit „durchläuft“, ist das in der Praxis fast immer ein Warnsignal. Meist bedeutet das, dass der Agent immer wieder versucht, ein Projekt neu aufzusetzen, dabei scheitert, alles löscht und erneut von vorne beginnt. Häufig trifft er dabei Entscheidungen, die nie explizit gefordert waren, oder produziert immer mehr Code, ohne dem eigentlichen Ziel wirklich näherzukommen.

Ich habe das selbst schon erlebt, zum Beispiel mit gemini-cli. Es war zwar spannend, fast zwei Stunden zuzusehen, wie der Agent immer wieder neue Anläufe unternahm und dabei scheiterte, produktiv war das Ganze aber nicht. Zum Vergleich: JetBrains Junie hat dasselbe Setup später in wenigen Minuten sauber aufgesetzt. Der Unterschied lag nicht in der „Intelligenz“ des Modells, sondern in der Klarheit, Struktur und Begrenzung der Aufgabe.

Lange Laufzeit ist ein Zeichen für schlechtes Feature-Design

Auch bei der Entwicklung von Features ist eine lange Laufzeit des Agents ein deutliches Indiz dafür, dass etwas grundsätzlich nicht stimmt. Kein einzelnes Feature benötigt so viele Code-Änderungen oder neue Tests, dass eine Agent-Laufzeit von mehr als 30 Minuten gerechtfertigt wäre. Da ein AI-Agent sehr schnell Code schreibt, ist eine große Menge erzeugten Codes in kurzer Zeit eher ein schlechtes als ein gutes Zeichen.

Besonders problematisch wird es, wenn der Agent beginnt, neue Libraries einzubinden oder verschiedene technische Ansätze auszuprobieren. Das kostet Zeit, erhöht die Komplexität und sollte in der Regel entweder bereits vorab erledigt sein oder zumindest extrem klar definiert werden. Wenn solche Entscheidungen während der Ausführung offen bleiben, ist ein Scheitern fast vorprogrammiert – nicht weil der Agent schlecht ist, sondern weil die Aufgabe zu unklar gestellt wurde.

Das eigentliche Problem sind zu große, unklare Aufgaben

Der wichtigste Punkt liegt jedoch noch tiefer. Ein Feature, das ein AI-Agent realistisch 30 Minuten oder länger zur Umsetzung benötigt, kann man selbst in der Regel gar nicht vollständig durchdacht haben. Solch große Aufgaben lassen sich kaum präzise genug beschreiben, ohne dass der Agent gezwungen ist, Lücken zu füllen, Annahmen zu treffen und eigene Lösungswege zu erfinden. Genau an diesem Punkt beginnt er, sich zu verselbstständigen.

Das widerspricht eigentlich allem, was wir aus guter Softwareentwicklung kennen. Auch wir Menschen arbeiten in kleinen Iterationen, bauen Funktionen Schritt für Schritt, reviewen regelmäßig unseren Code und passen unsere Pläne an, sobald neue Ideen oder Erkenntnisse entstehen. Genau so sollte man auch mit AI-Agenten arbeiten. Man lässt sie kleine, klar abgegrenzte Schritte umsetzen, überprüft das Ergebnis und verfeinert anschließend sowohl den Code als auch die eigenen Anforderungen.

30 Minuten bedeuten: zurück ins Refinement

Läuft ein Agent 30 Minuten, ohne ein brauchbares Ergebnis zu liefern, dann hat entweder der Agent Fehler gemacht – oder, was deutlich häufiger der Fall ist, die Aufgabe wurde von uns selbst falsch, zu groß oder zu ungenau formuliert. Das ist im Grunde nichts Neues. Früher war es genauso: Wenn ein Entwickler nach einer halben Stunde Herumprobieren bei einem angeblichen „1-Stunden-Ticket“ noch kein Ergebnis hatte, war das Ticket schlicht nicht gut genug und musste zurück ins Refinement.

Ein AI-Agent ist letztlich nichts anderes als ein Entwickler, nur sehr viel schneller. Und genau deshalb gelten für ihn dieselben Regeln wie für menschliche Entwickler. Ist eine Aufgabe zu groß, zu unklar oder widersprüchlich formuliert, kann auch der beste Agent kein gutes Ergebnis liefern.

Fazit

Wenn ein AI-Agent zu lange läuft, sollte man den Lauf stoppen, die Anforderungen kritisch hinterfragen und die Aufgabe neu zuschneiden. In den allermeisten Fällen liegt das Problem nicht zuerst beim Agenten, sondern bei der Art und Weise, wie wir die Aufgabe gestellt haben.

Wer das akzeptiert und bereit ist, wieder zurück ins Refinement zu gehen, bekommt am Ende deutlich bessere Ergebnisse – sowohl von AI-Agenten als auch von menschlichen Entwicklern.
User annonyme 2026-02-09 17:40

Not able to write comment
Comments are disabled for this blog-entry.

Möchtest Du AdSense-Werbung erlauben und mir damit helfen die laufenden Kosten des Blogs tragen zu können?