Le runtime de contexte ouvert pour les agents IA.
L'infrastructure neutre, locale d'abord, qui gère ce que votre IA voit, retient et sur quoi elle se concentre. Un binaire. Zéro config. 29+ outils IA. Open source.
curl -fsSL https://leanctx.com/install.sh | sh Les outils d’IA noient le modèle dans le bruit.
Chaque lecture de fichier, chaque commande shell, chaque résultat de recherche - votre IA envoie tout au modèle sans filtrer. Résultat : réponses plus lentes, coûts plus élevés, et une IA qui perd le fil dans sa propre fenêtre de contexte.
« Le goulot d’étranglement n’est pas le modèle. C’est ce que vous lui donnez. »
Four capabilities. One runtime.
LeanCTX sits between your AI and your codebase. It handles the full context lifecycle — from file read to model delivery.
Compress
10 read modes with Tree-sitter AST parsing for 18 languages. Strips noise, keeps structure. Cached re-reads cost ~13 tokens.
Remember
Cross-session memory, knowledge graphs, and context checkpoints. Your AI remembers decisions, discoveries, and file relationships.
Govern
Profiles, roles, budgets, and SLOs. Control what each agent sees, how much it spends, and when it gets throttled.
Verify
82 théorèmes Lean4 prouvent les invariants de politique et de compression. Vérification basée sur les claims avec Quality Levels 0-4. Aucune perte silencieuse de données.
À quoi ça ressemble dans votre terminal.
lean-ctx fonctionne silencieusement en arrière-plan. Quand votre IA lit un fichier, il comprime la sortie de manière transparente. Voici un véritable appel ctx_read et le tableau de bord des métriques.
Compatible avec tous les principaux outils de codage IA.
Cursor, Claude Code, GitHub Copilot, Windsurf, Crush, Codex - lean-ctx s'intègre à tous. Aucune dépendance fournisseur, aucune configuration par outil. Installez une fois, profitez partout.
Frequently Asked Questions
What is LeanCTX?
LeanCTX est le Context OS pour le développement IA. Il se place entre votre outil de codage IA et votre base de code, compressant les lectures de fichiers jusqu'à 99%, persistant la mémoire entre les sessions et vérifiant toutes les sorties avant livraison. Il fonctionne avec 29+ outils IA, dont Cursor, Claude Code et GitHub Copilot.
Combien LeanCTX économise-t-il en coûts de tokens ?
Les développeurs actifs économisent $30-100+ par mois en coûts d'API IA. Les lectures de fichiers sont compressées de 60-99%, les sorties shell de 60-95%, et les re-lectures en cache ne coûtent que 13 tokens. Utilisez lean-ctx gain pour mesurer vos économies personnelles.
LeanCTX fonctionne-t-il avec Cursor / Claude Code / Copilot ?
Oui. LeanCTX prend en charge 29+ outils de codage IA prêts à l'emploi. Exécutez lean-ctx setup pour auto-détecter et configurer tous les éditeurs installés. Il prend en charge trois modes d'intégration : CLI-Redirect, Hybrid et Full MCP.
LeanCTX est-il gratuit et open source ?
Oui. LeanCTX est entièrement open source sous double licence MIT + Apache-2.0. Zéro télémétrie, tout fonctionne localement. Le binaire Rust unique est disponible via npm, cargo ou téléchargement direct.
What is Context OS?
Context OS est l'architecture qui gère le cycle de vie complet du contexte IA. Elle comporte six piliers : Smart I/O (compression), Intelligence (routage), Memory (persistance), Governance (contrôle), Verification (preuves) et Integrations (29+ outils). Elle remplace l'ingénierie de prompts ad-hoc par un runtime systématique.
Donnez à votre IA le contexte qu'elle mérite.
Le goulot d'étranglement du coding IA n'est pas le modèle - c'est le contexte. lean-ctx façonne l'information avant qu'elle n'atteigne le LLM. Un binaire Rust. Pas de cloud. Apache-2.0.