完全透明

已知
限制

我们相信坦诚的文档。以下是 lean-ctx 擅长的方面--以及它的边界所在。

压缩

压缩 限制

Token 节省因文件类型、内容复杂度和读取模式而异。以下是实际可期待的效果。

各场景预期节省量

场景 节省量
首次读取(代码文件) 60–95%
缓存重读 高达 99%
小文件(<10 行) 极少
二进制文件 跳过
未知 Shell 输出 直接传递

依赖内容的节省

实际节省取决于代码密度、注释比例和重复度。结构清晰、签名明确的代码比密集无注释的单行代码压缩效果更好。

缓存重读

当 lean-ctx 已读过某文件且该文件未改变时,重读只需约 13 个 Token,不论文件大小。这就是 99% 数据的来源。

语言

语言 支持

lean-ctx 使用 tree-sitter 进行 AST 感知压缩。覆盖范围因语言而异--以下是完整图景。

18 支持完整 AST 的 Tree-sitter 语言
95+ 已识别的 Shell 工具模式
10 每种文件类型的读取模式

语言支持层级

层级 语言 压缩方式
完整 AST Rust、TypeScript、Python、Go、Java、C、C++、C#、Ruby、PHP、Swift、Kotlin、Scala、Lua、Zig、Elixir、Haskell、OCaml 签名感知裁剪
基础 所有其他语言 行级压缩

基础层级仍能提供有意义的压缩--只是无法提取函数签名或裁剪 AST 节点。通过去重和熵过滤,大多数文件仍可节省 40–70%。

架构

架构 约束

lean-ctx 在特定的架构权衡下设计。理解这些有助于设定正确的期望。

MCP 要求

lean-ctx 作为 MCP 服务器运行。您的 AI 智能体必须支持 Model Context Protocol。

兼容:Claude Code、Cursor、Codex、Gemini CLI 等。

单项目范围

每个 lean-ctx 实例限定于一个项目根目录。多仓库工作流需要单独的实例。

解决方案:在工作区中为每个仓库运行一个实例。

内存扩展

内存缓存随项目增长。超大型 Monorepo(10 万+ 文件)可能需要调整缓存限制。

可通过 lean-ctx 设置配置。

坦诚的上下文

不是 替代品

lean-ctx 优化上下文传递给 LLM 的方式。它不能替代良好工程实践的基础。

重要须知
  • 良好的提示实践 - 清晰、具体的指令仍然很重要
  • 良好的代码组织 - 结构良好的代码压缩效果更好
  • 版本控制 - lean-ctx 不管理代码变更或历史记录

lean-ctx 优化传递,不替代基础。

完整图景

看看 lean-ctx 能做什么

了解了边界之后,探索 lean-ctx 在这些边界内提供的--安全保障、性能基准和竞品对比。