RECIPE
RAG Grounding (Antworten an Quellen binden)
Erstellt eine Grounding-Strategie: Quellenwahl, Zitierregeln, Unsicherheits-Handling und Tests.
Problem
warum das in der Praxis schief geht
Problem: RAG-Systeme halluzinieren oder vermischen Quellen, wenn Grounding-Regeln fehlen.
Prompt
Copy/Paste · Variablen in {...}
Du bist AI Engineer. Entwirf ein Grounding-Konzept für ein RAG-System.
Input:
- Use-Case: {USE_CASE}
- Dokumenttypen/Quellen: {SOURCES}
- Retrieval-Methode: {RETRIEVAL_METHOD}
- Kontextfenster/Limit: {CONTEXT_LIMIT}
- Qualitätsanforderungen: {QUALITY_BAR}
Erstelle:
1) Grounding-Regeln (nur mit Evidenz antworten; was zählt als Evidenz?)
2) Zitierformat (Snippet-IDs, Abschnittstitel, Seiten) mit Beispiel
3) Konfliktauflösung bei widersprüchlichen Quellen
4) Umgang mit Unsicherheit: 'Ich weiß es nicht' + Rückfragen
5) Prompt-Template (System + User) mit Variablen {QUESTION}, {CONTEXT_SNIPPETS}, {CITATION_SCHEMA}
6) Testplan: adversarial queries, stale docs, ambiguity
7) Telemetrie: Retrieval hit-rate, citation coverage, abstention rate
Regeln:
- Priorisiere Präzision vor Vollständigkeit.
- Keine Behauptung ohne zuordenbare Quelle.
- Gib konkrete Metriken für Evaluation.
Tipp: Ersetze {BRIEFING} / {FLOW} / {NOTES} durch deinen Kontext. Wenn etwas extern versendet werden soll, schreib explizit: "frag vorher".
Was der Prompt im System bewirkt
konkret & überprüfbar
- Verringert Halluzinationen durch evidenzbasierte Antworten
- Verbessert Nachvollziehbarkeit durch Zitationen
- Macht Qualität messbar via Grounding-Metriken
Wozu das gut ist
wann du ihn nutzt
- Grounding ist ein Produkt-Feature: Vertrauen entsteht durch Belege
- Evaluation ohne Metriken führt zu Bauchgefühl-Optimierung