بيئة تشغيل سياق مفتوحة للأنظمة الوكيلة

بيئة تشغيل السياق المفتوحة لوكلاء الذكاء الاصطناعي.

طبقة البنية التحتية المحايدة والمحلية أولاً التي تدير ما يراه ذكاؤك الاصطناعي ويتذكره ويركز عليه. ملف ثنائي واحد. صفر تكوين. 29+ أداة ذكاء اصطناعي. مفتوح المصدر.

- تثبيت
- نجوم GitHub
58 أداة ذكاء اصطناعي مدعومة
lean-ctx session
$ lean-ctx read src/lib/auth.ts -m map
exports: authenticate(), validateToken(), refreshSession()
4,200 → 180 tokens (96% saved)
cached: 13 tokens on re-read
$ lean-ctx grep "authenticate" src/
3 matches in 0.8ms
auth.ts:14, middleware.ts:8, routes.ts:23
$ lean-ctx -c "cargo build --release"
Compiling lean-ctx v3.5.1 in 3.6s
compressed: 847 → 42 tokens
curl -fsSL https://leanctx.com/install.sh | sh
المشكلة

أدوات الذكاء الاصطناعي تُغرق النموذج بالضوضاء.

كل قراءة ملف، كل أمر shell، كل نتيجة بحث - يرسل ذكاؤك الاصطناعي كل شيء إلى النموذج دون فلترة. النتيجة؟ ردود أبطأ، تكاليف أعلى، وذكاء يفقد التركيز داخل نافذة سياقه.

"العنق الزجاجي ليس النموذج. بل ما تطعمه له."

بدون lean-ctx
الذكاء الاصطناعي يقرأ ملفاً من 800 سطر
← آلاف الرموز تُرسل إلى نموذج اللغة
يتضمن تعليقات ومسافات واستيرادات
← بطيء ومكلف ويصل لحدود السياق
مع lean-ctx
الذكاء الاصطناعي يقرأ ملفاً من 800 سطر
← lean-ctx يضغط عبر تحليل AST
يحتفظ بالأنواع والتوقيعات والمنطق
← 60-90% رموز أقل، نفس الإشارة
شاهده أثناء العمل

هكذا يبدو في طرفيتك.

lean-ctx يعمل بصمت في الخلفية. عندما يقرأ ذكاؤك الاصطناعي ملفاً، يضغط المخرجات بشفافية. إليك استدعاء ctx_read حقيقي ولوحة المقاييس.

ctx_read - map
استدعاءات الذكاء الاصطناعي: ctx_read({ path: "src/lib/mcpManifest.ts", mode: "map" })
schema_version 1
tools.granular 58
tools.unified 5
read_modes 10
modes: auto, full, map, signatures, diff, aggressive
60–99% تقليل الرموز لكل قراءة ملف - إعادة القراءة المخزنة تصل إلى 99%، القراءة الأولى 60-95% حسب الوضع See methodology
58 أداة ذكية تحل محل قراءات الملفات وأوامر الشل والبحث في الكود
10 Read modes
0 إعدادات مطلوبة - ثبّت، شغّل، انتهى. يعمل مع كل أداة برمجة ذكاء اصطناعي رئيسية
التوافق

يعمل مع كل أداة برمجة ذكاء اصطناعي رئيسية.

Cursor وClaude Code وGitHub Copilot وWindsurf وCrush وCodex - lean-ctx يتكامل مع جميعها. بدون تقييد بمورد، بدون إعدادات لكل أداة. ثبّت مرة واحدة، استفد في كل مكان.

AiderAmazon QAmpAntigravityAWS KiroClaude CodeClineContinueCursorEmacsGemini CLIGitHub CopilotJetBrainsNeovimOpenAI CodexOpenCodePiQwen CodeRoo CodeSublime TextTraeVerdentWindsurfZed
FAQ

Frequently Asked Questions

What is LeanCTX?

LeanCTX هو نظام Context OS لتطوير الذكاء الاصطناعي. يقع بين أداة البرمجة بالذكاء الاصطناعي وقاعدة الكود الخاصة بك، حيث يضغط قراءات الملفات بنسبة تصل إلى 99%، ويحافظ على الذاكرة عبر الجلسات، ويتحقق من جميع المخرجات قبل التسليم. يعمل مع 29+ أداة ذكاء اصطناعي بما في ذلك Cursor وClaude Code وGitHub Copilot.

كم يوفر LeanCTX من تكاليف التوكن؟

يوفر المطورون النشطون $30-100+ شهرياً في تكاليف API للذكاء الاصطناعي. يتم ضغط قراءات الملفات بنسبة 60-99%، ومخرجات Shell بنسبة 60-95%، وتكلف إعادة القراءة المخزنة مؤقتاً 13 توكن فقط. استخدم lean-ctx gain لقياس توفيراتك الشخصية.

هل يعمل LeanCTX مع Cursor / Claude Code / Copilot؟

نعم. يدعم LeanCTX 29+ أداة برمجة بالذكاء الاصطناعي جاهزة للاستخدام. قم بتشغيل lean-ctx setup وسيكتشف ويهيئ جميع المحررات المثبتة تلقائياً. يدعم ثلاثة أوضاع تكامل: CLI-Redirect وHybrid وFull MCP.

هل LeanCTX مجاني ومفتوح المصدر؟

نعم. LeanCTX مفتوح المصدر بالكامل تحت ترخيص مزدوج MIT + Apache-2.0. بدون قياس عن بُعد، كل شيء يعمل محلياً. الملف الثنائي الوحيد من Rust متاح عبر npm أو cargo أو التنزيل المباشر.

What is Context OS?

Context OS هو البنية التي تدير الدورة الكاملة لسياق الذكاء الاصطناعي. تحتوي على ستة أعمدة: Smart I/O (الضغط)، Intelligence (التوجيه)، Memory (الاستمرارية)، Governance (التحكم)، Verification (الإثبات)، و Integrations (29+ أداة). تستبدل هندسة الموجهات العشوائية بنظام تشغيل منهجي.

امنح ذكاءك الاصطناعي السياق الذي يستحقه.

عنق الزجاجة في البرمجة بالذكاء الاصطناعي ليس النموذج - بل السياق. lean-ctx يشكّل المعلومات قبل وصولها إلى LLM. ملف Rust واحد. بدون سحابة. Apache-2.0.