La couche d'ingénierie de contexte
pour le codage IA.
lean-ctx est un système de compression à trois couches indépendantes. Un serveur de contexte remplace les lectures de fichiers de votre IA par des versions comprimées orientées AST. Un shell hook intercepte plus de 95 modèles de commandes CLI. Et trois protocoles de communication enseignent à l'IA à répondre plus efficacement. Vous l'installez une fois - tout le reste est automatique.
Où se situe lean-ctx ?
lean-ctx intercepte à deux niveaux : la couche de contexte (lectures de fichiers, recherche de code, commandes shell) et la couche shell (sortie CLI brute). Les deux compriment les données avant qu'elles n'atteignent le LLM. L'IA voit la même information avec une fraction des tokens.
Without lean-ctx: You → AI Tool → reads file (full content) → LLM processes everything With lean-ctx: You → AI Tool → lean-ctx compresses → signal only → LLM: 60–99% less noise ├─ PathJail sandbox + size caps ├─ AST-aware compression ├─ Memory Runtime (knowledge + forgetting) ├─ Session cache (re-read ≈ 13 tok) └─ 10 read modes per file type
Vous
Codez normalement. Ne changez rien à votre flux de travail.
Outil IA
Cursor, Claude Code, Copilot, Windsurf, …
lean-ctx
Comprime tout via le serveur de contexte et le shell hook.
LLM
Ne voit que le signal. 60 à 90 % de tokens en moins, même information.
Que VOUS faites concrètement ?
Presque rien. lean-ctx fonctionne de manière invisible après une configuration initiale unique. Vous continuez à coder exactement comme avant.
Installer
Un seul binaire Rust. Aucune dépendance, aucun cloud, aucun compte.
curl -fsSL leanctx.com/install.sh | sh Configurer
Détecte automatiquement votre shell et vos outils IA. Configure tout en quelques secondes.
lean-ctx setup Il n'y a pas d'étape 3
Codez normalement. Votre IA utilise les outils comprimés automatiquement.
Tokens économisés : automatiquementVous vs. La machine
| Ce que VOUS faites (une seule fois) | Ce qui se passe AUTOMATIQUEMENT |
|---|---|
| lean-ctx setup | L'IA utilise ctx_read au lieu de Read - jusqu'à 99 % de tokens en moins (relectures en cache) |
L'IA utilise ctx_shell au lieu de Shell - 60 à 90 % de tokens en moins | |
L'IA utilise ctx_search au lieu de Grep - 50 à 80 % de tokens en moins | |
| Le shell hook comprime la sortie CLI de manière transparente | |
| Le cache de session mémorise les fichiers entre les lectures (~13 tokens pour les relectures) | |
| lean-ctx gain (optionnel) | Consultez votre tableau de bord d'économies cumulées |
Guide d'installation complet → Premiers pas · Toutes les commandes CLI → Référence CLI
Reciprocal Rank Fusion (RRF) Cache Eviction
When the session cache is full, lean-ctx uses Reciprocal Rank Fusion to decide which entries to evict. Each signal (recency, frequency, size) is ranked independently, then fused into a single score - no arbitrary weight tuning required.
Formula: RRF(d) = Σ 1/(K + rank_i(d)) where K=60. This handles signal incomparability (seconds vs counts vs tokens) without needing tuned weights, unlike traditional weighted combinations.
Want to understand the architecture?
Explore the Context OS: the six-step pipeline, integration modes, agent matrix, Context Field Theory, and nine architectural pillars that make lean-ctx work.
Deep dive into Context OSSecurity Layer
lean-ctx enforces a defense-in-depth security model to prevent LLM prompt injection from accessing files outside the project:
- PathJail - All file operations are sandboxed to the project root. Symlink traversal,
../escapes, and absolute paths outside the jail are blocked at theresolve_pathchokepoint. - Bounded Shell Capture - Shell output is capped at 200KB with clear truncation markers. Prevents memory exhaustion from runaway commands.
- TOCTOU Prevention - File edits use same file handle for read-verify-write, eliminating time-of-check-to-time-of-use race conditions.
- Build Integrity - Compile-time integrity seed and hash verification detect tampered binaries. Checked automatically by
lean-ctx doctor.
Prêt à commencer à économiser ?
Un seul binaire. Zéro dépendance cloud. Licence Apache-2.0. Installez en 60 secondes et commencez immédiatement à économiser des tokens.