Context OS

The Context OS for
AI Development

AI与代码之间的智能层六大支柱。一个运行时。完整的上下文生命周期管理。

问题

AI Agent 持续丢失上下文

每个AI编程Agent都面临同样的根本挑战:明明只需要一个函数签名却重新读取整个文件,解析本可压缩95%的原始Shell输出,会话结束的瞬间就忘记一切。结果是Token浪费、响应缓慢和不可靠的输出。

没有LeanCTX
读取整个文件(4,200 Token)
原始Shell输出(1,800 Token)
会话间上下文丢失
未验证的AI输出直接发布
使用LeanCTX
Map模式:180 Token(节省96%)
压缩后:42 Token(节省98%)
会话 + 知识永久保存
每个输出在交付前经过验证
Context OS

什么是Context OS?

Context OS控制AI上下文的整个生命周期:从读取文件和压缩Shell输出,通过智能路由和持久记忆,到验证输出和跨工具、团队和模型的无缝交付。

AI Agent
LeanCTX Context OS
I/O Intelligence Memory Verify
您的代码与工具
Pipeline

工作原理

每个上下文请求都通过LeanCTX的图驱动确定性管道。系统对意图进行分类,通过Multi-Edge BFS和RRF Fusion评估相关性,使用模式特定算法进行压缩,并在交付前验证输出。每个步骤都可复现、可审计。

01

输入

通过MCP或HTTP接收来自任何AI工具的文件读取、Shell命令和搜索查询。

02

意图

对任务类型进行分类,为每个请求选择最优处理策略。

03

相关性

使用AST分析、熵评分以及跨imports、calls、type references和test links的Multi-Edge图遍历,将内容过滤为仅任务相关的信息。

04

压缩

使用模式特定算法、缓存和增量编码进行智能压缩。

05

验证

检查输出中的幻觉路径、损坏的导入、密钥泄露和策略违规。

06

交付

通过MCP、HTTP API或SDK将压缩、验证后的上下文返回给AI工具。

集成模式

一个工具,三种连接方式

lean-ctx 自动为每个代理选择最佳集成模式。CLI-Redirect 完全消除 MCP schema 开销,Hybrid 结合两者优势,Full MCP 提供最大工具访问。

CLI-Redirect
Cursor、Gemini CLI 默认
零 MCP 开销。代理直接通过 shell 调用 lean-ctx — 最快模式,完全压缩。
lean-ctx read src/auth.ts -m map
Hybrid
适用于 Codex、Windsurf、Amp、Antigravity
MCP 用于缓存读取(13 tokens),CLI 用于 shell 命令和搜索 — 两全其美。
MCP cache + CLI shell/search
Full MCP
适用于 JetBrains、Copilot、Cline
通过 MCP 协议使用全部 58 个工具及 lazy tool set — 适合需要 MCP 的代理。
58 tools via MCP + lazy tool set
后台守护进程

常驻上下文运行时

lean-ctx daemon 作为后台服务通过 Unix Domain Socket 运行。提供持久会话状态、即时缓存命中和 setup 时自动启动。更新时,daemon 会自动使用新 binary 重启。过期的 PID/socket 文件会被主动清理,所有连接都有内置 timeout — 无需手动管理。

lean-ctx serve --status
$ lean-ctx serve --status
daemon running (PID 4139)
socket /tmp/lean-ctx.sock
uptime 2h 14m
sessions 3 active
cache 247 entries (hit rate 94.2%)
memory 12.4 MB
代理支持

29+ 代理,自动配置

lean-ctx 检测已安装的代理并为每个配置最佳集成模式。CLI-Redirect 用于有 shell 访问的代理,Hybrid 用于混合环境,Full MCP 用于仅协议代理。

Agent CLI-Redirect Hybrid MCP Setup
Cursor lean-ctx init --agent cursor
Claude Code lean-ctx init --agent claude
Codex lean-ctx init --agent codex
OpenCode lean-ctx init --agent opencode
Gemini CLI lean-ctx init --agent gemini
CRUSH lean-ctx init --agent crush
Hermes lean-ctx init --agent hermes
Pi lean-ctx init --agent pi
Qoder lean-ctx init --agent qoder
Windsurf lean-ctx init --agent windsurf
Copilot lean-ctx init --agent copilot
Amp lean-ctx init --agent amp
Cline lean-ctx init --agent cline
Roo Code lean-ctx init --agent roo
Kiro lean-ctx init --agent kiro
Antigravity lean-ctx init --agent antigravity
Amazon Q lean-ctx init --agent amazonq
Qwen lean-ctx init --agent qwen
Trae lean-ctx init --agent trae
Verdent lean-ctx init --agent verdent
JetBrains lean-ctx init --agent jetbrains
QoderWork lean-ctx init --agent qoderwork
VS Code lean-ctx init --agent vscode
Zed lean-ctx init --agent zed
Neovim lean-ctx init --agent neovim
Emacs lean-ctx init --agent emacs
Sublime Text lean-ctx init --agent sublime
Aider lean-ctx init --agent aider
Continue lean-ctx init --agent continue
上下文场理论

数学基础的上下文选择

每个上下文元素都有可衡量的势值。LeanCTX使用上下文场理论(CFT)来计算哪些文件、函数和知识事实属于您的AI注意力窗口 — 哪些不属于。

上下文势 Φ

Φ(i,t) = w_R · R(i,t) + w_S · S(i) + w_G · G(i,t) + w_H · H(i) − w_C · C(i,v) − w_D · D(i, selected)

Phi函数实时评估每个上下文元素。相关性、时效性、图中心性、历史、成本和冗余被组合成单一的排名分数。

R R — 任务相关性分数
S S — 结构重要性(图中心性)
G G — 时间梯度(时间衰减)
H H — 历史访问频率
C C — 当前模型的令牌成本
D D — 与已选元素的冗余度

上下文句柄

对上下文元素的稀疏、惰性引用。代理不需要加载整个文件,而是使用像@F1或@K3这样的轻量级句柄,按需展开 — 在真正需要内容之前节省令牌。

上下文覆盖层

上下文状态的可逆变更。固定关键文件、抑制噪声、提升优先级或标记元素为过时 — 所有这些都不修改源。覆盖层可堆叠且可撤销。

上下文编译器

给定令牌预算和任务描述,编译器使用基于Φ排名的贪婪选择和冗余惩罚来选择最优的上下文元素子集。结果是一个最小化的、经过验证的上下文包。

上下文策略引擎

控制上下文行为的声明式规则。TDD期间自动固定测试文件、抑制vendor目录、按文件类型强制令牌限制或标记过时元素 — 所有这些都可按项目配置。

完整的CLI和MCP访问

每个CFT操作都可通过CLI命令和MCP工具使用。在终端中使用lean-ctx control、lean-ctx plan、lean-ctx compile,或通过MCP使用ctx_control、ctx_plan、ctx_compile。

Context Packages

打包、共享和复用积累的项目上下文。将知识、图数据、注意事项和会话发现导出为可移植的包。在会话启动时自动加载包以获得即时领域专业知识。

实时演示

查看实际效果

LeanCTX位于AI工具与代码库之间。每次文件读取、Shell命令和搜索查询都流经Context Kernel——在到达模型之前经过压缩、缓存和验证。

ctx_read - map
ctx_read ({ path: "src/lib/auth.ts", mode: "map" })
exports authenticate(), validateToken(), refreshSession()
deps jsonwebtoken, bcrypt, redis
lines 247
original 4,200 tokens
compressed 180 tokens (96% saved)
cached 13 tokens on re-read
58 MCP 工具
95+ Shell 模式
29+ 集成
99% Token 节省
验证

每个输出都附带证明

LeanCTX为每个会话生成证明构件:读取了哪些文件、压缩了什么、哪些检查通过了、Token如何使用。这使AI工作可审计、可重放、值得信赖。

Ready to get started?

Install lean-ctx in 60 seconds, auto-configure your editor, and start saving tokens immediately. No cloud, no config files to write manually.

See how to get started

给你的AI它应得的上下文。

六大支柱。一个运行时。完整的上下文生命周期管理。