Offene Kontext-Runtime für agentische Systeme

Die offene Kontext-Runtime für KI-Agenten.

Die herstellerneutrale, lokal-erste Infrastrukturschicht, die steuert, was deine KI sieht, sich merkt und worauf sie sich konzentriert. Ein Binary. Null Konfiguration. 29+ KI-Tools. Open Source.

- Installationen
- GitHub-Stars
58 AI-Tools unterstützt
lean-ctx session
$ lean-ctx read src/lib/auth.ts -m map
exports: authenticate(), validateToken(), refreshSession()
4,200 → 180 tokens (96% saved)
cached: 13 tokens on re-read
$ lean-ctx grep "authenticate" src/
3 matches in 0.8ms
auth.ts:14, middleware.ts:8, routes.ts:23
$ lean-ctx -c "cargo build --release"
Compiling lean-ctx v3.5.1 in 3.6s
compressed: 847 → 42 tokens
curl -fsSL https://leanctx.com/install.sh | sh
Das Problem & Die Lösung

AI-Tools senden Rohdaten ohne Kontextbewusstsein.

Wenn deine AI eine Datei liest, sendet sie den gesamten Inhalt - Kommentare, Whitespace, Boilerplate - ohne zu verstehen, was wichtig ist. lean-ctx filtert, komprimiert und priorisiert basierend auf dem, was deine AI tatsächlich versucht zu tun.

"Der Engpass beim AI-Coding ist nicht mehr der Prompt. Es ist die Context-Pipeline."

Ohne lean-ctx
KI liest 800-Zeilen-Datei
→ Tausende Tokens ans LLM gesendet
Enthält Kommentare, Leerzeichen, Imports
→ Langsam, teuer, erreicht Context-Limits
Mit lean-ctx
KI liest 800-Zeilen-Datei
→ lean-ctx komprimiert via AST-Parsing
Behält Typen, Signaturen, Logik
→ 60–90% weniger Tokens, gleiches Signal
In Aktion sehen

So sieht es in deinem Terminal aus.

lean-ctx arbeitet leise im Hintergrund. Wenn deine KI eine Datei liest, komprimiert es transparent die Ausgabe. Hier ein echter ctx_read-Aufruf und das Metriken-Dashboard.

ctx_read - map
AI ruft auf: ctx_read({ path: "src/lib/mcpManifest.ts", mode: "map" })
schema_version 1
tools.granular 58
tools.unified 5
read_modes 10
modes: auto, full, map, signatures, diff, aggressive
60–99% Token-Reduktion pro Dateizugriff - gecachte Zweitlesungen erreichen 99%, Erstlesungen 60–95% je nach Modus See methodology
58 intelligente Tools ersetzen eingebaute Dateizugriffe, Shell-Befehle und Code-Suche
10 Lesemodi
0 Konfiguration nötig - installieren, initialisieren, fertig. Funktioniert mit jedem grossen AI-Coding-Tool
Kompatibilität

Funktioniert mit jedem grossen AI-Coding-Tool.

Cursor, Claude Code, GitHub Copilot, Windsurf, Pi, Crush, Codex — lean-ctx integriert sich mit allen. Kein Vendor Lock-in, keine Konfiguration pro Tool. Einmal installieren, überall profitieren.

AiderAmazon QAmpAntigravityAWS KiroClaude CodeClineContinueCursorEmacsGemini CLIGitHub CopilotJetBrainsNeovimOpenAI CodexOpenCodePiQwen CodeRoo CodeSublime TextTraeVerdentWindsurfZed
FAQ

Frequently Asked Questions

What is LeanCTX?

LeanCTX ist das Context OS für KI-Entwicklung. Es sitzt zwischen deinem KI-Coding-Tool und deiner Codebasis, komprimiert Datei-Reads um bis zu 99%, persistiert Erinnerungen über Sessions hinweg und verifiziert alle Ausgaben vor der Auslieferung. Es funktioniert mit 29+ KI-Tools, darunter Cursor, Claude Code und GitHub Copilot.

Wie viel spart LeanCTX an Token-Kosten?

Aktive Entwickler sparen $30-100+ pro Monat an KI-API-Kosten. Datei-Reads werden um 60-99% komprimiert, Shell-Output um 60-95%, und gecachte Re-Reads kosten nur 13 Tokens. Nutze lean-ctx gain, um deine persönlichen Einsparungen zu messen.

Funktioniert LeanCTX mit Cursor / Claude Code / Copilot?

Ja. LeanCTX unterstützt 29+ KI-Coding-Tools von Haus aus. Führe lean-ctx setup aus – es erkennt und konfiguriert automatisch alle installierten Editoren. Es unterstützt drei Integrationsmodi: CLI-Redirect, Hybrid und Full MCP.

Ist LeanCTX kostenlos und Open Source?

Ja. LeanCTX ist vollständig Open Source unter MIT + Apache-2.0 Doppellizenz. Keine Telemetrie, alles läuft lokal. Das einzelne Rust-Binary ist über npm, cargo oder Direktdownload verfügbar.

What is Context OS?

Context OS ist die Architektur, die den gesamten Lebenszyklus von AI-Kontext verwaltet. Es hat neun Säulen: Smart I/O (Komprimierung), Intelligence (Routing), Memory (Persistenz), Governance (Kontrolle), Verification (Nachweise), Integrations (29+ Tools), Shared Sessions, Context Bus und SDK. Es ersetzt Ad-hoc Prompt Engineering durch eine systematische Runtime.

Gib deiner AI den Kontext, den sie verdient.

Der Engpass beim AI-Coding ist nicht das Modell - es ist der Kontext. lean-ctx formt Informationen, bevor sie das LLM erreichen. Eine Rust-Binary. Keine Cloud. Kein Account. Apache-2.0-lizenziert.