Prompt Engineering: Strategic Silence – Warum die wichtigste KI-Kompetenz das Nicht-Fragen wird
Die Branche optimiert Prompts wie Rennfahrer ihre Motoren – und übersieht dabei, dass das nächste Rennen auf einem Fluss stattfindet. Während sich 2026 alles um Context Engineering, Harness Engineering und die perfekte Instruktionsdatei dreht, verschiebt sich die eigentliche Machtfrage: nicht wie wir KI befragen, sondern ob wir es überhaupt tun sollten. [1] Die nächste Generation von KI-Systemen wartet nicht mehr auf unsere Prompts. Sie handelt proaktiv, plant autonom und optimiert ihren eigenen Steuerungscode. [2] In dieser Welt wird die Fähigkeit, bewusst nicht zu prompten, zur vielleicht wertvollsten Kompetenz im Umgang mit künstlicher Intelligenz.
Von Prompt Engineering zu Harness Engineering – und darüber hinaus
Die Evolution ist dokumentiert und verläuft schneller als erwartet. Phase eins, Prompt Engineering (2022–2024), drehte sich um die Kunst der richtigen Frage: Chain-of-Thought, Few-Shot-Learning, System-Prompts. Phase zwei, Context Engineering (2025), erkannte, dass ein einzelner Prompt nicht reicht – das gesamte Informationsökosystem um den Prompt herum bestimmt die Qualität der Antwort. [3] Phase drei, Harness Engineering (2026), geht noch weiter: Hier wird nicht mehr der Prompt optimiert, sondern die gesamte operative Umgebung des Agenten – seine Constraints, seine Toolchain, seine Feedback-Loops und sein Lifecycle-Management. [4]
Aber es gibt eine Phase vier, über die kaum jemand spricht. Nennen wir sie Strategic Silence – die bewusste Entscheidung, den Agenten nicht zu instruieren, nicht zu befragen, nicht zu optimieren. Nicht aus Faulheit. Sondern aus der Erkenntnis, dass jeder zusätzliche Prompt in einem proaktiven System Nebenwirkungen erzeugt, die schwerer wiegen als der unmittelbare Nutzen.
Gartner prognostiziert, dass bis Ende 2026 rund 40 Prozent aller Enterprise-Anwendungen KI-Agenten einbetten werden – gegenüber weniger als 5 Prozent in 2025. [5] Das sind keine passiven Chatbots, die auf Input warten. Das sind autonome Prozesse, die planen, delegieren und entscheiden. In dieser Architektur ist jeder menschliche Prompt eine Intervention in ein laufendes System – mit allen Risiken, die Interventionen in komplexe Systeme eben mitbringen.
Das Karpathy-Paradox: Disziplin durch Weglassen
Andrej Karpathy hat das Problem aus einer anderen Richtung formuliert. Sein „Skills"-Repository für KI-Coding-Agenten basiert auf vier Prinzipien: Think before coding, Simplicity first, Surgical changes, Goal-driven execution. [6] Das Entscheidende daran: Drei von vier Prinzipien handeln nicht davon, was der Agent tun soll, sondern davon, was er unterlassen soll. Keine spekulativen Abstraktionen. Keine ungefragten Refaktorierungen. Keine Annahmen ohne Rückfrage.
Das ist die Agenten-Perspektive von Strategic Silence. Aber das Prinzip funktioniert symmetrisch. So wie der Agent lernen muss, weniger zu tun, muss der Mensch lernen, weniger zu fragen. Karpathys Beobachtung auf X, dass eine „wachsende Kluft im Verständnis von KI-Fähigkeiten" existiert, hat auch damit zu tun: Professionelle Nutzer sind von den Fähigkeiten agentischer Modelle „überwältigt" – und reagieren darauf mit mehr Prompts, mehr Iterations-Loops, mehr Mikro-Management. [7] Das Ergebnis ist nicht bessere Arbeit, sondern Agenten, die 500 statt 50 Zeilen Code produzieren.
Der geleakte Claude-Code-Quellcode hat diese Dynamik sichtbar gemacht. Anthropics internes System ist ein „dynamisches Prompt-Sandwich" aus elf Schritten, mit Anti-Distillation Poison Pills und hard-codierten Guardrails. [8] Die Komplexität ist nicht trotz, sondern wegen der endlosen Optimierungsversuche entstanden. Jede Schicht wurde hinzugefügt, weil ein vorheriger Prompt ein Problem erzeugt hat, das ein weiterer Prompt lösen sollte. Es ist Prompt-Schulden-Akkumulation in Reinform.
Die drei Fallen des Über-Promptens
Die Risiken des unreflektierten Promptens in einer Welt proaktiver KI lassen sich in drei Kategorien fassen.
Agency-Überschreitung. Wenn ein Meta-Harness-System den Steuerungscode eines KI-Agenten automatisch optimiert – und dabei menschlich entworfene Strategien in Leistung und Kosteneffizienz übertrifft –, dann stellt sich die Frage: Was passiert, wenn ein menschlicher Prompt diese selbst-optimierte Konfiguration überschreibt? [9] Die Antwort aus der Forschung: Der Agent performt schlechter. Nicht weil der menschliche Prompt schlecht war, sondern weil er in ein System intervenierte, dessen Zusammenhänge er nicht mehr überblickt. Der Prompt wird zum Bug.
Kreative Abhängigkeit. David East demonstriert in seiner Arbeit mit Stitch, wie präzises Prompting zu hochwertigen KI-generierten Designs führt. Empathie statt Stilmittel, konkrete Beschreibungen statt vager Adjektive. [10] Das klingt nach einem Argument für besseres Prompting. Ist es auch – bis zu dem Punkt, an dem der Designer ohne das KI-Feedback nicht mehr weiß, ob „neoklassizistisch" die richtige Richtung ist. Die KI wird vom Werkzeug zum Geschmacks-Orakel, und der Mensch verliert nicht seine Fähigkeit zu prompten, sondern seine Fähigkeit, ohne Prompt zu urteilen. Die Studie, die Karpathy auf X referenziert, bestätigt das: Nutzer beurteilen KI anhand veralteter Erfahrungen, weil sie verlernt haben, unabhängig zu evaluieren. [7]
Endlose Iterationsschleifen. OpenAIs Codex empfiehlt explizit den YOLO-Modus und die Orchestrierung mehrerer Agenten gleichzeitig. [11] In Multi-Agenten-Systemen wie Paperclip delegiert ein CEO-Agent an CTO- und CMO-Agenten, die wiederum Entwickler-Agenten steuern. Jede menschliche Intervention – jeder zusätzliche Prompt – propagiert durch diese Hierarchie. Ein einzelner Korrektur-Prompt kann eine Kaskade von Neuberechnungen auslösen, die mehr Ressourcen verbraucht als die ursprüngliche Aufgabe. Der richtige Move ist oft: den Agenten arbeiten lassen und erst am Ende evaluieren.
Fünf Heuristiken für Strategic Silence
Wenn das Nicht-Prompten eine Kompetenz ist, braucht es Heuristiken. Hier sind fünf, die sich aus der aktuellen Praxis ableiten lassen:
1. Die Harness-Regel. Wenn ein Agent über einen optimierten Harness verfügt – ob durch Meta-Harness, agents.md oder eine CLAUDE.md-Datei –, dann ist die Standardhaltung: nicht prompten. Die Instruktionsebene hat die Arbeit bereits erledigt. Jeder zusätzliche Runtime-Prompt konkurriert mit der statischen Konfiguration und erzeugt Ambiguität. [4]
2. Die Evaluations-Pause. Bevor ein Prompt abgesetzt wird: Kann die Qualität des Ergebnisses erst nach Abschluss der Aufgabe bewertet werden? Dann warten. Mikro-Prompts während laufender Agenten-Arbeit sind wie Rufe ins Cockpit während der Landung – sie stören mehr als sie helfen.
3. Der Symmetrie-Test. Würde der Agent dieselbe Frage von sich aus stellen, wenn er Unklarheit erkennt? Karpathys erstes Prinzip – „Think before coding" – fordert genau das. [6] Wenn der Agent nicht fragt, hat er entweder genug Kontext oder der Mensch unterschätzt den vorhandenen Kontext. Beides spricht gegen einen zusätzlichen Prompt.
4. Die Abstraktions-Schwelle. Je mehr Agenten-Ebenen zwischen dem menschlichen Prompt und der Ausführung liegen, desto vorsichtiger sollte der Prompt sein. In einem Single-Agent-Setup ist ein direkter Prompt effektiv. In einem Multi-Agenten-System mit drei Delegationsstufen ist derselbe Prompt ein Risikofaktor, weil er bei jeder Weitergabe reinterpretiert wird.
5. Die Kompetenz-Frage. Kann ich das Ergebnis des Prompts unabhängig bewerten? Wenn die Antwort nein ist, sollte ich nicht prompten – weil ich nicht in der Lage wäre, ein schlechtes Ergebnis von einem guten zu unterscheiden. Das ist kein Prompt-Engineering-Problem, sondern ein Domain-Expertise-Problem, das kein Prompt der Welt löst.
Schweigen als Strategie, nicht als Kapitulation
Die Verschiebung von Prompt Engineering zu Strategic Silence ist keine Absage an die Interaktion mit KI. Es ist die Erkenntnis, dass Interaktion in einem proaktiven System nicht mehr gleichbedeutend mit Kontrolle ist. Epsilla beschreibt den aktuellen Paradigmenwechsel als Übergang vom „AI as a tool" zum „AI as a workforce". [12] Wer eine Workforce managt, gibt nicht bei jedem Handgriff eine Anweisung. Er definiert Ziele, setzt Rahmenbedingungen – und schweigt dann strategisch.
Die SDG Group formuliert es als Übergang von Prompt Engineering zu Context Design: ein „dynamisches Informationsökosystem", das sich an Nutzerpräferenzen und sich ändernde Kontexte anpasst. [3] In einem solchen System ist der einzelne Prompt ein Relikt – so wie der einzelne Tastendruck ein Relikt in einer Welt ist, die per Sprache und Geste gesteuert wird.
Das bedeutet nicht, dass Prompt-Kompetenz irrelevant wird. Die IBM-Analyse zeigt, dass grundlegende Prompt-Fähigkeiten 2026 zur Basiskompetenz gehören – vergleichbar mit dem Zehn-Finger-System in den 1990ern. [1] Aber so wie niemand das Zehn-Finger-System für eine strategische Fähigkeit hält, wird Prompt Engineering zum Handwerk – notwendig, aber nicht differenzierend.
Was differenziert, ist die Fähigkeit, die richtige Balance zwischen Instruktion und Vertrauen zu finden. Zwischen dem Prompt, der einen autonomen Prozess verbessert, und dem Prompt, der ihn sabotiert. Zwischen der Frage, die Klarheit schafft, und der Frage, die nur die eigene Unsicherheit externalisiert. Strategic Silence ist keine Passivität. Es ist die härteste Form von Prompt Engineering – weil sie verlangt, dass man genug versteht, um zu wissen, wann man nichts sagen muss.
Referenzen
- IBM – The 2026 Guide to Prompt Engineering, 2026
https://www.ibm.com/think/prompt-engineering - AI Self Evolution: Meta-Harness – Automatische Optimierung von Agenten-Harnesses, 2026
https://www.youtube.com/watch?v=61JUHDK-em8 - SDG Group – The Evolution of Prompt Engineering to Context Design in 2026
https://www.sdggroup.com/en/insights/blog/the-evolution-of-prompt-engineering-to-context-design-in-2026 - Epsilla – The Third Evolution: Why Harness Engineering Replaced Prompting in 2026
https://www.epsilla.com/blogs/harness-engineering-evolution-prompt-context-autonomous-agents - CIO – How Agentic AI Will Reshape Engineering Workflows in 2026 (Gartner-Prognose)
https://www.cio.com/article/4134741/how-agentic-ai-will-reshape-engineering-workflows-in-2026.html - Karpathy Skills: Disziplin-Prinzipien für KI-Coding-Agenten, 2026
https://www.youtube.com/watch?v=PzhTLHQfdRE - Andrej Karpathy auf X – KI-Verständniskluft und AI Psychosis, April 2026
https://x.com/karpathy - Anthropics Claude Code Source-Code-Leck: Architektur und Guardrails, 2026
https://www.youtube.com/watch?v=mBHRPeg8zPU - Stanford/MIT – Meta-Harness: Selbst-evolvierende Agenten-Optimierung, 2026
https://www.youtube.com/watch?v=61JUHDK-em8 - David East – One Design Decision to Create Better Results in Stitch, 2026
https://www.youtube.com/watch?v=tnP_Q5mS1I8 - OpenAI – News-Update April 2026: Codex YOLO-Modus und Multi-Agent-Orchestrierung
https://openai.com/news/rss.xml - DEV Community – Prompt Engineering is Dead: The Rise of Autonomous AI Processes, 2026
https://dev.to/manikandan/beyond-the-prompt-why-2026-is-the-year-of-the-autonomous-ai-process-15j5