OverSearchGuard

面向 Agentic RAG 的冲突感知证据裁剪层,兼顾鲁棒性与 token 成本。

OverSearchGuard 是一个面向 Agentic RAG 的证据治理层:它位于“检索”和“生成”之间,在调用大模型之前,把大段证据裁剪为少量、高置信、具备冲突处理能力的证据行——无需微调

检索 → OverSearchGuard → LLM

解决什么问题

  • 抵御“错但重复”刷屏:通过 cap-per-source 限制低质量重复证据的主导性。
  • 显式建模可靠度与新鲜度:source weights + half-life 衰减。
  • 成本导向决策:报告 TPC(total tokens per correct),并支持可选的 BEA(预算内逐步加证据)。

结果(可复现)

基准:paper 套件(n=300google/flan-t5-small,CUDA)。

  • 准确率:0.143 → 0.970bea_fallback,最好)
  • 平均总 tokens:491.5 → 117.3

作为库使用

from oversearchguard.api import build_thin_prompt

payload = build_thin_prompt(question, evidence_lines)
prompt = payload["prompt"]       # 直接发给任意 LLM
candidate = payload["candidate"] # CACT 候选值(可用于 guardrail)