Runtime de contexte ouvert pour systèmes agentiques

Le runtime de contexte ouvert pour les agents IA.

L'infrastructure neutre, locale d'abord, qui gère ce que votre IA voit, retient et sur quoi elle se concentre. Un binaire. Zéro config. 29+ outils IA. Open source.

- installations
- étoiles GitHub
58 outils IA supportés
lean-ctx session
$ lean-ctx read src/lib/auth.ts -m map
exports: authenticate(), validateToken(), refreshSession()
4,200 → 180 tokens (96% saved)
cached: 13 tokens on re-read
$ lean-ctx grep "authenticate" src/
3 matches in 0.8ms
auth.ts:14, middleware.ts:8, routes.ts:23
$ lean-ctx -c "cargo build --release"
Compiling lean-ctx v3.5.1 in 3.6s
compressed: 847 → 42 tokens
curl -fsSL https://leanctx.com/install.sh | sh
Le problème

Les outils d’IA noient le modèle dans le bruit.

Chaque lecture de fichier, chaque commande shell, chaque résultat de recherche - votre IA envoie tout au modèle sans filtrer. Résultat : réponses plus lentes, coûts plus élevés, et une IA qui perd le fil dans sa propre fenêtre de contexte.

« Le goulot d’étranglement n’est pas le modèle. C’est ce que vous lui donnez. »

Sans lean-ctx
L'IA lit un fichier de 800 lignes
→ Des milliers de tokens envoyés au LLM
Inclut commentaires, espaces blancs, imports
→ Lent, coûteux, atteint les limites de contexte
Avec lean-ctx
L'IA lit un fichier de 800 lignes
→ lean-ctx comprime via l'analyse AST
Conserve les types, signatures, logique
→ 60 à 90 % de tokens en moins, même signal
Voir en action

À quoi ça ressemble dans votre terminal.

lean-ctx fonctionne silencieusement en arrière-plan. Quand votre IA lit un fichier, il comprime la sortie de manière transparente. Voici un véritable appel ctx_read et le tableau de bord des métriques.

ctx_read - map
Appels IA : ctx_read({ path: "src/lib/mcpManifest.ts", mode: "map" })
schema_version 1
tools.granular 58
tools.unified 5
read_modes 10
modes: auto, full, map, signatures, diff, aggressive
60–99% de réduction de tokens par lecture de fichier - les relectures en cache atteignent 99 %, les premières lectures 60 à 95 % selon le mode See methodology
58 outils intelligents qui remplacent les lectures de fichiers, les commandes shell et la recherche de code intégrées
10 Read modes
0 configuration requise - installer, initialiser, terminé. Compatible avec tous les principaux outils de codage IA
Compatibilité

Compatible avec tous les principaux outils de codage IA.

Cursor, Claude Code, GitHub Copilot, Windsurf, Crush, Codex - lean-ctx s'intègre à tous. Aucune dépendance fournisseur, aucune configuration par outil. Installez une fois, profitez partout.

AiderAmazon QAmpAntigravityAWS KiroClaude CodeClineContinueCursorEmacsGemini CLIGitHub CopilotJetBrainsNeovimOpenAI CodexOpenCodePiQwen CodeRoo CodeSublime TextTraeVerdentWindsurfZed
FAQ

Frequently Asked Questions

What is LeanCTX?

LeanCTX est le Context OS pour le développement IA. Il se place entre votre outil de codage IA et votre base de code, compressant les lectures de fichiers jusqu'à 99%, persistant la mémoire entre les sessions et vérifiant toutes les sorties avant livraison. Il fonctionne avec 29+ outils IA, dont Cursor, Claude Code et GitHub Copilot.

Combien LeanCTX économise-t-il en coûts de tokens ?

Les développeurs actifs économisent $30-100+ par mois en coûts d'API IA. Les lectures de fichiers sont compressées de 60-99%, les sorties shell de 60-95%, et les re-lectures en cache ne coûtent que 13 tokens. Utilisez lean-ctx gain pour mesurer vos économies personnelles.

LeanCTX fonctionne-t-il avec Cursor / Claude Code / Copilot ?

Oui. LeanCTX prend en charge 29+ outils de codage IA prêts à l'emploi. Exécutez lean-ctx setup pour auto-détecter et configurer tous les éditeurs installés. Il prend en charge trois modes d'intégration : CLI-Redirect, Hybrid et Full MCP.

LeanCTX est-il gratuit et open source ?

Oui. LeanCTX est entièrement open source sous double licence MIT + Apache-2.0. Zéro télémétrie, tout fonctionne localement. Le binaire Rust unique est disponible via npm, cargo ou téléchargement direct.

What is Context OS?

Context OS est l'architecture qui gère le cycle de vie complet du contexte IA. Elle comporte six piliers : Smart I/O (compression), Intelligence (routage), Memory (persistance), Governance (contrôle), Verification (preuves) et Integrations (29+ outils). Elle remplace l'ingénierie de prompts ad-hoc par un runtime systématique.

Donnez à votre IA le contexte qu'elle mérite.

Le goulot d'étranglement du coding IA n'est pas le modèle - c'est le contexte. lean-ctx façonne l'information avant qu'elle n'atteigne le LLM. Un binaire Rust. Pas de cloud. Apache-2.0.