Overview
— tokens saved
— 预估节省成本
— active days
— tool calls
— compression
— 日均节省
Token Savings (30 days)
Compression Ratio
Tokemon Buddy
Profile
— 已节省 Token
— 已节省成本
— 工具调用次数
— 节省率
— Cache 命中率
Daily Activity
节省率趋势
Cache 性能
Token 分布
Daily Stats
— 总调用次数
— 已节省 Token
— 已节省成本
— 最高节省者
— 独立命令数
命令明细
MCP vs Hook
最高节省者
最高消耗
— 知识库条目
— 检测到的错误
— 已预防的错误
Knowledge
Bug 记忆
— 最新 CEP Score
— 平均 Score
— 最佳 Score
— 平均 Cache 命中率
— 已跟踪会话数
CEP Score 时间线
Cache 命中率趋势
压缩率趋势
模式多样性趋势
已学习的压缩阈值
这些是 lean-ctx 根据你的使用模式学习到的个性化阈值。效率越高 = 该文件类型的压缩效果越好。
自适应模型为你做了什么
每次 lean-ctx 通过 ctx_read 读取文件时,它会决定如何压缩该文件。没有模型时,使用保守的默认设置。有了模型,它会自动选择最佳压缩模式 - 每个文件节省 40–90% 的 token。
无模型
ctx_read("config.rs") → uses full mode结果:2,400 token
lean-ctx 不知道
signatures 模式对 .rs 配置文件效果很好。 有模型
ctx_read("config.rs") → model picks signatures mode结果:380 token(节省 84%)
该模型从 200 多个社区贡献中学习而来。
模型如何构建
1. 你使用 lean-ctx
每次文件读取都会记录使用了哪种压缩模式以及效果如何。
2. 你运行 sync
lean-ctx sync 匿名贡献:文件扩展名、大小区间、最佳模式、压缩比。3. 服务器聚合
云端根据所有用户的置信度评分找出每个(扩展名,大小)的最佳模式。
4. 模型下载
下次 sync 会下载更新后的模型。你的
ctx_read 调用会立即使用它们。 优先级链: 本地历史(你自己的读取记录)→ 自适应模型(社区)→ 内置默认值。模型仅在你尚未读取过某个文件时激活。
压缩模式
| 模式 | 功能说明 | 最适用于 | 典型节省 |
|---|---|---|---|
| full | 读取整个文件并缓存 | 你将要编辑的文件 | 0%(但缓存以供重复读取) |
| map | 依赖项 + 导出 + 关键签名 | 仅用于上下文的文件 | 60–80% |
| signatures | 仅 API 接口(fn/class/struct 定义) | 大型库、.d.ts 文件 | 80–97% |
| aggressive | 去除语法噪音,保留含义 | 冗长配置(YAML、XML) | 50–70% |
| entropy | Shannon + Jaccard 过滤 | 数据密集型文件、日志 | 40–90% |
Adaptive Models
Profile
API Key
你的 CLI 访问认证密钥。请妥善保管。
Connect Terminal
Link your terminal to sync stats, models, and knowledge with your cloud dashboard.
lean-ctx login your@email.com lean-ctx sync