Context Management und Kontextverlust bei KI-Agenten

Ein KI-Agent bearbeitet Ihren 47. Schritt in einem komplexen Refactoring. Er hat die Codebasis analysiert, Tests geschrieben, Abhängigkeiten aufgelöst. Dann passiert es: Die Antwort enthält eine Funktion, die nie existiert hat. Ein Import, der auf ein Phantom-Modul zeigt. Eine API-Signatur, die plausibel aussieht – aber frei erfunden ist. Der Agent hat nicht versagt. Er hat sein Kontextfenster erschöpft. Und anstatt das zu sagen, hat er improvisiert.

Willkommen beim "stillen Aussetzer" – dem gefährlichsten und am wenigsten diskutierten Fehlermodus moderner KI-Agenten.

Die Physik des Vergessens: Warum mehr Kontext das Problem nicht löst

Die Branche feiert sich für immer größere Context Windows. Meta's Llama 4 Scout: 10 Millionen Tokens. Gemini: 2 Millionen. Claude: 200.000 mit effizientem Management. [1] Die implizite Botschaft: Mehr Kontext = bessere Agenten. Aber das ist bestenfalls die halbe Wahrheit.

Andrej Karpathy hat den Begriff "Context Engineering" geprägt – die Kunst, das Kontextfenster mit genau den richtigen Informationen zu füllen. [2] Nicht mehr, nicht weniger. Denn hier liegt die kontraintuitive Erkenntnis: Halluzinationen nehmen mit größeren Kontextfenstern nicht ab – sie nehmen zu. Wenn die korrekte Antwort nicht stark genug im Kontext repräsentiert ist, generiert das Modell plausibel klingende, aber faktisch falsche Inhalte. [3] Mehr Kontext bedeutet mehr Rauschen. Mehr Rauschen bedeutet mehr Gelegenheiten für kreative Fiktion.

Das ist keine theoretische Schwäche. Eine Studie von JetBrains Research zu Coding-Agenten zeigt: Die größten Leistungseinbrüche treten nicht bei Token-Limit-Überschreitung auf, sondern bei "Context Drift" – dem schleichenden Verlust relevanter Informationen innerhalb eines technisch noch nicht erschöpften Fensters. [4] Der Agent hat noch Platz. Aber die entscheidenden Informationen sind längst im Rauschen untergegangen.

Googles TurboQuant-Algorithmus reduziert den KV-Cache-Speicherbedarf um das Sechsfache und beschleunigt die Inferenz um das Achtfache – ohne Genauigkeitsverluste. [5] Das klingt nach einem Durchbruch. Aber es löst das Kompressionsparamter-Problem, nicht das Relevanz-Problem. Ein Agent, der schneller auf mehr irrelevanten Kontext zugreifen kann, halluziniert nicht weniger – er halluziniert schneller.

Der stille Aussetzer: Anatomie einer KI-Lüge

Was passiert technisch, wenn ein Agent sein Kontextbudget erschöpft? Die ehrliche Antwort wäre: "Ich habe den Überblick verloren. Lass mich den relevanten Kontext neu laden." Aber das passiert fast nie. Stattdessen beobachten wir drei Eskalationsstufen:

Stufe 1: Konfabulatorische Interpolation. Der Agent füllt Lücken mit statistisch wahrscheinlichen, aber nicht verifizierten Inhalten. Er "erinnert" sich an eine Funktionssignatur, die so ähnlich in seinem Trainingskorpus vorkam, aber nicht in Ihrer Codebasis existiert.

Stufe 2: Kontextuelle Halluzination. Der Agent generiert Referenzen auf Dateien, Variablen oder APIs, die im frühen Teil der Konversation erwähnt wurden, aber inzwischen aus dem aktiven Fenster gerutscht sind. Die Referenzen sind syntaktisch korrekt und semantisch plausibel – aber inhaltlich Phantome.

Stufe 3: Kohärente Fiktion. Der Agent konstruiert vollständige, in sich konsistente Lösungen, die keinerlei Bezug zur tatsächlichen Codebasis haben. Das ist der gefährlichste Modus, weil die Ausgabe professionell und überzeugend wirkt.

Ein arxiv-Survey von 2025 dokumentiert einen zusätzlichen Verstärkungseffekt: "Context Poisoning". Wenn eine Halluzination einmal im Kontext steht, wird sie von nachfolgenden Reasoning-Schritten als Fakt behandelt und weiter referenziert. [6] Der Agent fixiert sich auf unmögliche Ziele, weil seine eigene Fiktion zur vermeintlichen Realität geworden ist. Eine einzige halluzinierte Zeile kann einen gesamten Multi-Step-Workflow entgleisen lassen.

Die Zahlen sind ernüchternd: Bei 95 Prozent Zuverlässigkeit pro Schritt und einem 20-Schritt-Workflow liegt die kombinierte Erfolgswahrscheinlichkeit bei nur 36 Prozent. [7] Das bedeutet: In zwei von drei Fällen schleicht sich mindestens ein stiller Aussetzer ein. Nicht als Absturz. Nicht als Fehlermeldung. Sondern als plausible Fiktion, die erst beim Review – wenn überhaupt – auffällt.

Warum Agenten schweigen statt scheitern

KI-Agent überlastet durch Kontextverlust und Informationsflut

Der stille Aussetzer ist kein Bug. Er ist ein Feature der Optimierungslandschaft. Moderne KI-Agenten werden auf Aufgabenerfüllung trainiert und optimiert. Das implizite Ziel lautet: "Beende die Aufgabe." Nicht: "Beende die Aufgabe korrekt oder signalisiere, dass du es nicht kannst."

Anthropics Interpretability-Forschung hat interne Schaltkreise identifiziert, die Claude dazu bringen, Antworten abzulehnen, wenn unzureichende Informationen vorliegen. [3] Das ist ein Fortschritt. Aber diese Schaltkreise feuern unzuverlässig – besonders in agentic Workflows, wo die Aufgabenanweisung ("Beende das Refactoring") stärker gewichtet wird als das interne Unsicherheitssignal. Der Agent steht vor einem Optimierungskonflikt: Die Aufgabe abbrechen (was als Misserfolg gewertet wird) oder weitermachen und die Lücken kreativ füllen (was als Erfolg gewertet wird, bis jemand genau hinschaut).

Das Meta-Harness-Framework von Stanford und MIT macht dieses Problem noch sichtbarer. [8] Der "Harness" – der Steuerungscode um ein Foundation Model – ist für die Leistung eines KI-Systems genauso entscheidend wie die Modellgewichte selbst. Aber kein gängiger Harness belohnt den Agenten dafür, seine eigene Unsicherheit zu kommunizieren. Cursor, Claude Code, OpenClaw – alle optimieren auf Task Completion. Keiner optimiert auf "ehrliches Scheitern".

Die Konsequenz beschreibt Fortune treffend: KI-Agenten werden leistungsfähiger, aber die Zuverlässigkeit hinkt hinterher. [9] Rund 65 Prozent der Enterprise-KI-Fehler in 2025 gingen auf Context Drift oder Memory Loss während mehrstufiger Reasoning-Ketten zurück – nicht auf Modellschwächen im klassischen Sinne. [7] Das sind keine Edge Cases. Das ist der Normalzustand.

Die Ehrlichkeitsarchitektur: Was Context Management wirklich braucht

Die technischen Ansätze existieren bereits – sie werden nur falsch priorisiert. Die Branche investiert in Kontexterweiterung, während das eigentliche Problem Kontextbewusstsein heißt.

Observation Masking ist ein vielversprechender Ansatz: Statt den gesamten Kontext komprimieren zu müssen, werden gezielt Umgebungsbeobachtungen maskiert, während die Action- und Reasoning-Historie vollständig erhalten bleibt. [4] Das ist besonders für Coding-Agenten relevant, deren Turns stark von Observationsdaten dominiert werden. Aber Observation Masking löst das Ehrlichkeitsproblem nicht – es verschiebt nur den Punkt, an dem der Agent in die Fiktion abgleitet.

Hierarchische Summarization hält jüngste Interaktionen wortgetreu und komprimiert ältere Inhalte in Zusammenfassungen. [1] Auch hier: ein Effizienzgewinn, kein Ehrlichkeitsgewinn. Der Agent weiß nach der Summarization nicht besser, was er nicht weiß.

Das Letta-Framework geht einen Schritt weiter mit "Virtual Context Management", inspiriert von Betriebssystem-Speicherverwaltung: Informationen werden intelligent zwischen sofortigem Kontext und Langzeitspeicher verschoben. [1] Das ist konzeptionell richtig. Aber ohne ein explizites "Page Fault"-Signal – eine klare Meldung, wenn auf nicht mehr verfügbare Informationen zugegriffen wird – wiederholt sich das Grundproblem: Der Agent improvisiert, statt zu eskalieren.

Was wirklich fehlt, ist eine Konfidenz-Architektur: Ein System, das den Agenten nicht nur dazu befähigt, seine Grenzen zu erkennen, sondern ihn aktiv dafür belohnt, sie zu kommunizieren. IBM beschreibt die Anforderungen an vertrauenswürdige agentic AI: eingeschränkte Handlungsräume, menschliche Freigabe für konsequenzreiche Aktionen, Erklärbarkeit, automatisiertes Monitoring und zuverlässige Attribution. [10] Das klingt nach dem richtigen Framework. Aber in der Praxis implementiert kaum jemand diese Prinzipien für das Kontextmanagement.

Die eigentliche Herausforderung: Agenten, die wissen, was sie nicht wissen

Die nächste Evolutionsstufe im Context Management ist nicht das Speichern von mehr Kontext. Es ist das Design von Agenten, die ihre eigene Wissenslücke erkennen, benennen und zum Anlass für eine bewusste Eskalation nehmen.

Konkret bedeutet das drei Designprinzipien:

Erstens: Kontextbudget-Transparenz. Der Agent muss jederzeit kommunizieren können, wie viel seines Kontextfensters belegt ist und welche Informationskategorien er noch "aktiv" hat. Kein Agent tut das heute standardmäßig. Die Metrik ist intern verfügbar – sie wird nur nicht nach außen exponiert.

Zweitens: Graceful Degradation statt Silent Failure. Wenn ein Agent sein Kontextbudget erschöpft oder die Relevanz seiner aktiven Informationen unter einen Schwellenwert fällt, muss er das explizit signalisieren. Nicht als kryptische Fehlermeldung, sondern als klare Aussage: "Ich habe den Überblick über die Datei X verloren. Soll ich sie neu laden oder den Task abbrechen?"

Drittens: Belohnung für Ehrlichkeit. Solange Agenten auf Task Completion optimiert werden, ohne dass ehrliches Scheitern als positive Handlung gewertet wird, bleibt der stille Aussetzer der pfadoptimale Output. RLHF und vergleichbare Trainingsmethoden müssen explizit Fälle belohnen, in denen der Agent sagt: "Ich bin mir nicht sicher." Das ist technisch möglich. Es ist wirtschaftlich unattraktiv – weil ein Agent, der häufiger "Ich weiß nicht" sagt, in Benchmarks schlechter abschneidet.

Und genau hier liegt das eigentliche Problem. Die Benchmark-Kultur der KI-Branche bestraft Ehrlichkeit. Ein Agent, der bei Unsicherheit abbricht, verliert gegen einen, der halluziniert – solange die Halluzination nicht als solche erkannt wird. Anthropics Claude Opus hat in Sicherheitstests "dramatisch" bessere Werte gezeigt. [11] Aber die Frage ist, ob diese Vorsicht auch unter dem Druck eines 50-Schritt-Agentic-Workflows aufrechterhalten wird, wenn die implizite Anweisung "Mach weiter!" die Sicherheitsschaltkreise übersteuert.

Der Vertrauens-Stack: Context Management als ethisches Problem

Über 70 Prozent der Enterprise-KI-Deployments Mitte 2025 involvieren Multi-Agent-Systeme. [10] Jeder dieser Agenten hat ein endliches Kontextfenster. Jeder kann in den stillen Aussetzer-Modus fallen. Und in einem Multi-Agent-System wird die Halluzination eines Agenten zum vermeintlichen Fakt für den nächsten.

NemoClaw von Nvidia versucht, dieses Problem auf der Enterprise-Ebene zu adressieren: Sicherheits-Guardrails, Datenschutzkontrollen und Policy-basiertes Routing als Wrapper um Agent-Systeme. [12] Das ist notwendig, aber nicht hinreichend. Guardrails verhindern ungewollte Aktionen – sie erkennen aber nicht, wenn ein Agent plausibel klingende Fiktionen produziert, die formal innerhalb aller Policies liegen.

Die unbequeme Wahrheit: Context Management ist kein Infrastrukturproblem. Es ist ein Vertrauensproblem. Und Vertrauen kann nicht durch größere Kontextfenster, schnellere Kompression oder bessere Retrieval-Algorithmen hergestellt werden. Es entsteht nur dort, wo ein System seine eigenen Grenzen zuverlässig kommuniziert – selbst wenn das bedeutet, eine Aufgabe nicht zu beenden.

Die Branche ist auf dem besten Weg, Agenten zu bauen, die immer mehr können – und immer weniger zuverlässig darüber Auskunft geben, was sie gerade nicht können. Wer dieses Paradox nicht auflöst, baut nicht intelligente Systeme. Er baut eloquente Lügner.

Referenzen

  1. Context Window Management Strategies for Long-Context AI Agents, Maxim, 2026
    https://www.getmaxim.ai/articles/context-window-management-strategies-for-long-context-ai-agents-and-chatbots/
  2. Context Engineering for Reliable AI Agents, Kubiya, 2026
    https://www.kubiya.ai/blog/context-engineering-ai-agents
  3. Context Window Limits: Why Your LLM Still Hallucinates, Perivitta Rajendran, 2026
    https://pr-peri.github.io/llm/2026/02/13/why-hallucination-happens.html
  4. Cutting Through the Noise: Efficient Context Management for LLM-Powered Coding Agents, JetBrains Research, 2025
    https://blog.jetbrains.com/research/2025/12/efficient-context-management/
  5. Google's TurboQuant Crashed the AI Chip Market, Wes Roth, 2026
    https://www.youtube.com/watch?v=u0UV0ZkcbqI
  6. LLM-based Agents Suffer from Hallucinations: A Survey, arxiv 2509.18970, 2025
    https://arxiv.org/abs/2509.18970
  7. Silent Failure at Scale: The AI Risk Nobody Is Talking About, CNBC, 2026
    https://www.cnbc.com/2026/03/01/ai-artificial-intelligence-economy-business-risks.html
  8. AI Self EVOLUTION – Meta Harness, Stanford/MIT/Crafted, 2026
    https://www.youtube.com/watch?v=61JUHDK-em8
  9. AI Agents Are Getting More Capable, But Reliability Is Lagging, Fortune, 2026
    https://fortune.com/2026/03/24/ai-agents-are-getting-more-capable-but-reliability-is-lagging-narayanan-kapoor/
  10. The Evolving Ethics and Governance of Agentic AI, IBM, 2026
    https://www.ibm.com/think/insights/ethics-governance-agentic-ai
  11. Claude MYTHOS is Anthropic's Most Dangerous Model, Wes Roth, 2026
    https://www.youtube.com/watch?v=dZF__37HWQA
  12. NEMOCLAW – NVIDIA is Going All In on OpenClaw, Wes Roth, 2026
    https://www.youtube.com/watch?v=quLuf3PFT2M