Overview

tokens saved
预估节省成本
active days
tool calls
compression
日均节省
Token Savings (30 days)
Compression Ratio
Tokemon Buddy
Profile
已节省 Token
已节省成本
工具调用次数
节省率
Cache 命中率
Daily Activity
节省率趋势
Cache 性能
Token 分布
Daily Stats
总调用次数
已节省 Token
已节省成本
最高节省者
独立命令数
命令明细
MCP vs Hook
最高节省者
最高消耗
知识库条目
检测到的错误
已预防的错误
Knowledge
Bug 记忆
最新 CEP Score
平均 Score
最佳 Score
平均 Cache 命中率
已跟踪会话数
CEP Score 时间线
Cache 命中率趋势
压缩率趋势
模式多样性趋势
已学习的压缩阈值

这些是 lean-ctx 根据你的使用模式学习到的个性化阈值。效率越高 = 该文件类型的压缩效果越好。

自适应模型为你做了什么

每次 lean-ctx 通过 ctx_read 读取文件时,它会决定如何压缩该文件。没有模型时,使用保守的默认设置。有了模型,它会自动选择最佳压缩模式 - 每个文件节省 40–90% 的 token。

无模型
ctx_read("config.rs") → uses full mode
结果:2,400 token
lean-ctx 不知道 signatures 模式对 .rs 配置文件效果很好。
有模型
ctx_read("config.rs") → model picks signatures mode
结果:380 token(节省 84%)
该模型从 200 多个社区贡献中学习而来。
模型如何构建
1. 你使用 lean-ctx
每次文件读取都会记录使用了哪种压缩模式以及效果如何。
2. 你运行 sync
lean-ctx sync 匿名贡献:文件扩展名、大小区间、最佳模式、压缩比。
3. 服务器聚合
云端根据所有用户的置信度评分找出每个(扩展名,大小)的最佳模式
4. 模型下载
下次 sync 会下载更新后的模型。你的 ctx_read 调用会立即使用它们。
优先级链: 本地历史(你自己的读取记录)→ 自适应模型(社区)→ 内置默认值。模型仅在你尚未读取过某个文件时激活。
压缩模式
模式功能说明最适用于典型节省
full读取整个文件并缓存你将要编辑的文件0%(但缓存以供重复读取)
map依赖项 + 导出 + 关键签名仅用于上下文的文件60–80%
signatures仅 API 接口(fn/class/struct 定义)大型库、.d.ts 文件80–97%
aggressive去除语法噪音,保留含义冗长配置(YAML、XML)50–70%
entropyShannon + Jaccard 过滤数据密集型文件、日志40–90%
Adaptive Models
Profile
API Key

你的 CLI 访问认证密钥。请妥善保管。

Connect Terminal

Link your terminal to sync stats, models, and knowledge with your cloud dashboard.

lean-ctx login your@email.com lean-ctx sync