Открытая среда выполнения контекста для агентных систем

Открытая среда выполнения контекста для ИИ-агентов.

Вендор-нейтральный, локальный прежде всего уровень инфраструктуры, управляющий тем, что ваш ИИ видит, помнит и на чём сосредоточен. Один бинарник. Нулевая конфигурация. 29+ ИИ-инструментов. Открытый исходный код.

- установок
- звёзд на GitHub
58 AI-инструментов поддерживается
lean-ctx session
$ lean-ctx read src/lib/auth.ts -m map
exports: authenticate(), validateToken(), refreshSession()
4,200 → 180 tokens (96% saved)
cached: 13 tokens on re-read
$ lean-ctx grep "authenticate" src/
3 matches in 0.8ms
auth.ts:14, middleware.ts:8, routes.ts:23
$ lean-ctx -c "cargo build --release"
Compiling lean-ctx v3.5.1 in 3.6s
compressed: 847 → 42 tokens
curl -fsSL https://leanctx.com/install.sh | sh
Проблема

AI‑инструменты заливают модель шумом.

Каждое чтение файла, каждая команда shell, каждый результат поиска - ваш ИИ отправляет всё в модель без фильтрации. Результат: медленнее ответы, выше стоимость и ИИ, который теряет фокус в собственном окне контекста.

"Узкое место - не модель. Узкое место - то, чем вы её кормите."

Без lean-ctx
AI читает файл из 800 строк
→ Тысячи token отправляются в LLM
Включая комментарии, пробелы, импорты
→ Медленно, дорого, упирается в лимиты контекста
С lean-ctx
AI читает файл из 800 строк
→ lean-ctx сжимает через AST-парсинг
Сохраняет типы, сигнатуры, логику
→ На 60–90% меньше token, тот же сигнал
Посмотрите в действии

Как это выглядит в терминале.

lean-ctx работает незаметно в фоне. Когда ваш AI читает файл, вывод прозрачно сжимается. Вот реальный вызов ctx_read и дашборд метрик.

ctx_read - map
Вызовы ИИ: ctx_read({ path: "src/lib/mcpManifest.ts", mode: "map" })
schema_version 1
tools.granular 58
tools.unified 5
read_modes 10
modes: auto, full, map, signatures, diff, aggressive
60–99% сокращение token на чтение файла - кэшированные повторные чтения достигают 99%, первое чтение 60–95% в зависимости от режима See methodology
58 интеллектуальных инструментов заменяют встроенное чтение файлов, команды оболочки и поиск по коду
10 Read modes
0 настройки - установить, инициализировать, готово. Работает с каждым крупным AI-инструментом для программирования
Совместимость

Работает с каждым крупным AI-инструментом для программирования.

Cursor, Claude Code, GitHub Copilot, Windsurf, Crush, Codex - lean-ctx интегрируется со всеми. Нулевая привязка к вендору, нулевая настройка для каждого инструмента. Установите один раз - пользуйтесь везде.

AiderAmazon QAmpAntigravityAWS KiroClaude CodeClineContinueCursorEmacsGemini CLIGitHub CopilotJetBrainsNeovimOpenAI CodexOpenCodePiQwen CodeRoo CodeSublime TextTraeVerdentWindsurfZed
FAQ

Frequently Asked Questions

What is LeanCTX?

LeanCTX — это Context OS для разработки с ИИ. Он находится между вашим ИИ-инструментом и кодовой базой, сжимая чтение файлов до 99%, сохраняя память между сессиями и проверяя все выходные данные перед доставкой. Работает с 29+ ИИ-инструментами, включая Cursor, Claude Code и GitHub Copilot.

Сколько экономит LeanCTX на стоимости токенов?

Активные разработчики экономят $30-100+ в месяц на API-затратах ИИ. Чтение файлов сжимается на 60-99%, вывод shell на 60-95%, а кэшированные повторные чтения стоят всего 13 токенов. Используйте lean-ctx gain для измерения личных сбережений.

Работает ли LeanCTX с Cursor / Claude Code / Copilot?

Да. LeanCTX поддерживает 29+ ИИ-инструментов для кодирования «из коробки». Запустите lean-ctx setup — он автоматически обнаружит и настроит все установленные редакторы. Поддерживает три режима интеграции: CLI-Redirect, Hybrid и Full MCP.

LeanCTX бесплатный и с открытым исходным кодом?

Да. LeanCTX полностью открыт под двойной лицензией MIT + Apache-2.0. Нулевая телеметрия, всё работает локально. Единый бинарный файл Rust доступен через npm, cargo или прямую загрузку.

What is Context OS?

Context OS — это архитектура, управляющая полным жизненным циклом контекста ИИ. Она включает шесть столпов: Smart I/O (сжатие), Intelligence (маршрутизация), Memory (сохранение), Governance (контроль), Verification (доказательства) и Integrations (29+ инструментов). Она заменяет стихийную инженерию промптов систематической средой выполнения.

Дайте вашему ИИ контекст, которого он заслуживает.

Узкое место в ИИ-программировании - не модель, а контекст. lean-ctx формирует информацию до её отправки в LLM. Один бинарник на Rust. Без облака. Apache-2.0.