所有请求都被同等对待
没有智能路由,所有请求都获得相同的通用处理。简单的重命名与复杂的重构获得同样沉重的上下文。
ctx_intent对任务进行分类,自动选择最优读取模式、预算和管道策略。
11 工具
意图路由
自动任务分类将请求路由到最优处理模式。
模式选择
学习型模式预测器根据任务类型和上下文选择最佳压缩策略。
预算执行
Token、成本和时间预算,支持SLO操作:警告、限制或阻止。
自适应管道
六个管道阶段,按配置文件切换和实时指标。
混合搜索融合
通过Reciprocal Rank Fusion(RRF)结合BM25关键词匹配、语义嵌入和图邻近度评分。
知识增强概览
ctx_overview在架构摘要旁展示相关知识事实和Property Graph热点。
渐进式搜索节流
当重复搜索返回递减结果时,递进式提示引导Agent,减少Token浪费。
简洁模式
可配置的简洁响应模式去除冗长解释,非常适合有经验的开发者和长时间会话。
上下文势(Φ)
每个上下文元素通过六因素势函数评估,结合相关性、结构、时效性、历史、成本和冗余。
上下文编译器
基于Φ排名的贪婪选择在任何令牌预算内构建最小上下文包,具有自动冗余消除功能。
上下文句柄
延迟的稀疏引用(@F1, @K3)推迟内容加载直到需要时 — 零成本的上下文指针实现令牌效率。
认知效率协议(CEP)
一种结构化协议,通过优化上下文交付最大化AI推理质量。
10 MCP 工具
LeanCTX通过图驱动的自适应管道路由每个请求。它对任务意图进行分类,通过Reciprocal Rank Fusion(RRF)融合BM25、语义嵌入和图邻近度进行搜索,执行Token和成本预算,并用知识事实和图热点丰富概览。渐进式节流和简洁模式保持长时间会话的高效性。
ctx_intent Structured intent input (optional) — submit compact JSON or short text; server also infers intents automatically from tool calls.
ctx_overview Task-relevant project map — use at session start.
ctx_preload Proactive context loader — caches task-relevant files, returns L-curve-optimized summary (~50-100 tokens vs ~5000 for individual reads).
ctx_prefetch Predictive prefetch — prewarm cache for blast radius files (graph + task signals) within budgets.
ctx_dedup Cross-file dedup: analyze or apply shared block references.
ctx_response Compress LLM response text (remove filler, apply TDD).
ctx_benchmark Benchmark compression modes for a file or project.
ctx_context Session context overview — cached files, seen files, session state.
ctx_routes List HTTP routes/endpoints extracted from the project. Supports Express, Flask, FastAPI, Actix, Spring, Rails, Next.js.
ctx_feedback Harness feedback for LLM output tokens/latency (local-first). Actions: record|report|json|reset|status.
每个输出都附带证明
LeanCTX为每个会话生成证明构件:读取了哪些文件、压缩了什么、哪些检查通过了、Token如何使用。这使AI工作可审计、可重放、值得信赖。