medina.consults.de
RECIPE

RAG Grounding (Antworten an Quellen binden)

Erstellt eine Grounding-Strategie: Quellenwahl, Zitierregeln, Unsicherheits-Handling und Tests.

Problem

warum das in der Praxis schief geht

Problem: RAG-Systeme halluzinieren oder vermischen Quellen, wenn Grounding-Regeln fehlen.

Prompt

Copy/Paste · Variablen in {...}
Du bist AI Engineer. Entwirf ein Grounding-Konzept für ein RAG-System.

Input:
- Use-Case: {USE_CASE}
- Dokumenttypen/Quellen: {SOURCES}
- Retrieval-Methode: {RETRIEVAL_METHOD}
- Kontextfenster/Limit: {CONTEXT_LIMIT}
- Qualitätsanforderungen: {QUALITY_BAR}

Erstelle:
1) Grounding-Regeln (nur mit Evidenz antworten; was zählt als Evidenz?)
2) Zitierformat (Snippet-IDs, Abschnittstitel, Seiten) mit Beispiel
3) Konfliktauflösung bei widersprüchlichen Quellen
4) Umgang mit Unsicherheit: 'Ich weiß es nicht' + Rückfragen
5) Prompt-Template (System + User) mit Variablen {QUESTION}, {CONTEXT_SNIPPETS}, {CITATION_SCHEMA}
6) Testplan: adversarial queries, stale docs, ambiguity
7) Telemetrie: Retrieval hit-rate, citation coverage, abstention rate

Regeln:
- Priorisiere Präzision vor Vollständigkeit.
- Keine Behauptung ohne zuordenbare Quelle.
- Gib konkrete Metriken für Evaluation.

Tipp: Ersetze {BRIEFING} / {FLOW} / {NOTES} durch deinen Kontext. Wenn etwas extern versendet werden soll, schreib explizit: "frag vorher".

Was der Prompt im System bewirkt

konkret & überprüfbar
  • Verringert Halluzinationen durch evidenzbasierte Antworten
  • Verbessert Nachvollziehbarkeit durch Zitationen
  • Macht Qualität messbar via Grounding-Metriken

Wozu das gut ist

wann du ihn nutzt
  • Grounding ist ein Produkt-Feature: Vertrauen entsteht durch Belege
  • Evaluation ohne Metriken führt zu Bauchgefühl-Optimierung