エージェントシステムのためのオープンコンテキストランタイム

AIエージェントのためのオープンコンテキストランタイム。

あなたのAIが何を見て、何を覚え、何に集中するかを管理する、ベンダーニュートラルでローカルファーストのインフラストラクチャ層。1つのバイナリ。設定不要。29以上のAIツール。オープンソース。

- インストール数
- GitHub スター数
58 対応 AI ツール
lean-ctx session
$ lean-ctx read src/lib/auth.ts -m map
exports: authenticate(), validateToken(), refreshSession()
4,200 → 180 tokens (96% saved)
cached: 13 tokens on re-read
$ lean-ctx grep "authenticate" src/
3 matches in 0.8ms
auth.ts:14, middleware.ts:8, routes.ts:23
$ lean-ctx -c "cargo build --release"
Compiling lean-ctx v3.5.1 in 3.6s
compressed: 847 → 42 tokens
curl -fsSL https://leanctx.com/install.sh | sh
課題

AI ツールはモデルにノイズを流し込む。

ファイル読み取り、シェルコマンド、検索結果 - AI はフィルタなしで全てをモデルに送ります。その結果、応答は遅く、コストは増え、AI は自分のコンテキスト内で迷子になります。

"ボトルネックはモデルではない。与えるものだ。"

lean-ctx なし
AI が 800 行のファイルを読み取り
→ 数千の token が LLM に送信
コメント、空白、インポートを含む
→ 遅く、高価で、コンテキスト制限に到達
lean-ctx あり
AI が 800 行のファイルを読み取り
→ lean-ctx が AST 解析で圧縮
型、シグネチャ、ロジックを保持
→ 60〜90% 少ない token で同じシグナル
実際の動作を見る

ターミナルでの表示。

lean-ctx はバックグラウンドで静かに動作します。AI がファイルを読み取ると、出力を透過的に圧縮します。実際の ctx_read 呼び出しとメトリクスダッシュボードをご覧ください。

ctx_read - map
AI の呼び出し: ctx_read({ path: "src/lib/mcpManifest.ts", mode: "map" })
schema_version 1
tools.granular 58
tools.unified 5
read_modes 10
modes: auto, full, map, signatures, diff, aggressive
60–99% ファイル読み取りあたりの token 削減率 - cache 再読み込みは 99%、初回読み取りはモードに応じて 60〜95% See methodology
58 組み込みのファイル読み取り、シェルコマンド、コード検索を置き換えるインテリジェントツール
10 Read modes
0 設定不要 - インストール、初期化、完了。主要な AI コーディングツールすべてで動作
互換性

主要な AI コーディングツールすべてで動作。

Cursor、Claude Code、GitHub Copilot、Windsurf、Crush、Codex - lean-ctx はすべてに統合されます。ベンダーロックインなし、ツールごとの設定不要。一度インストールすれば、あらゆるところで恩恵を受けられます。

AiderAmazon QAmpAntigravityAWS KiroClaude CodeClineContinueCursorEmacsGemini CLIGitHub CopilotJetBrainsNeovimOpenAI CodexOpenCodePiQwen CodeRoo CodeSublime TextTraeVerdentWindsurfZed
FAQ

Frequently Asked Questions

What is LeanCTX?

LeanCTXはAI開発のためのContext OSです。AIコーディングツールとコードベースの間に位置し、ファイル読み取りを最大99%圧縮し、セッション間でメモリを永続化し、配信前にすべての出力を検証します。Cursor、Claude Code、GitHub Copilotなど24以上のAIツールに対応しています。

LeanCTXはトークンコストをどれくらい節約できますか?

アクティブな開発者は月額$30-100以上のAI APIコストを節約できます。ファイル読み取りは60-99%、シェル出力は60-95%圧縮され、キャッシュされた再読み取りはわずか13トークンです。lean-ctx gainで個人の節約額を測定できます。

LeanCTXはCursor / Claude Code / Copilotで使えますか?

はい。LeanCTXは24以上のAIコーディングツールにすぐに対応しています。lean-ctx setupを実行すると、インストール済みの全エディタを自動検出・設定します。CLI-Redirect、Hybrid、Full MCPの3つの統合モードをサポートしています。

LeanCTXは無料でオープンソースですか?

はい。LeanCTXはMIT + Apache-2.0デュアルライセンスで完全オープンソースです。テレメトリーゼロ、すべてローカルで動作します。単一のRustバイナリはnpm、cargo、または直接ダウンロードで入手可能です。

What is Context OS?

Context OSはAIコンテキストの完全なライフサイクルを管理するアーキテクチャです。6つの柱があります:Smart I/O(圧縮)、Intelligence(ルーティング)、Memory(永続化)、Governance(制御)、Verification(証明)、Integrations(24以上のツール)。アドホックなプロンプトエンジニアリングを体系的なランタイムに置き換えます。

AIにふさわしいコンテキストを。

AIコーディングのボトルネックはモデルではなく、コンテキストです。lean-ctxはLLMに届く前に情報を整形します。Rustバイナリ1つ。クラウド不要。Apache-2.0。