এজেন্টিক সিস্টেমের জন্য ওপেন কনটেক্সট রানটাইম

AI এজেন্টদের জন্য ওপেন কনটেক্সট রানটাইম।

ভেন্ডর-নিরপেক্ষ, স্থানীয়-প্রথম ইনফ্রাস্ট্রাকচার স্তর যা পরিচালনা করে আপনার AI কী দেখে, মনে রাখে এবং কোথায় মনোযোগ দেয়। একটি বাইনারি। শূন্য কনফিগারেশন। ২৯+ AI টুল। ওপেন সোর্স।

- ইনস্টল
- GitHub স্টার
58 সমর্থিত AI টুল
lean-ctx session
$ lean-ctx read src/lib/auth.ts -m map
exports: authenticate(), validateToken(), refreshSession()
4,200 → 180 tokens (96% saved)
cached: 13 tokens on re-read
$ lean-ctx grep "authenticate" src/
3 matches in 0.8ms
auth.ts:14, middleware.ts:8, routes.ts:23
$ lean-ctx -c "cargo build --release"
Compiling lean-ctx v3.5.1 in 3.6s
compressed: 847 → 42 tokens
curl -fsSL https://leanctx.com/install.sh | sh
সমস্যা

AI টুলগুলো মডেলকে শোরে ভরিয়ে দেয়।

প্রতিটি file read, প্রতিটি shell command, প্রতিটি search result - আপনার AI কোনো ফিল্টার ছাড়াই সবকিছু মডেলে পাঠায়। ফলাফল? ধীর উত্তর, বেশি খরচ, আর একটি AI যা নিজের context window-এ ফোকাস হারায়।

"বটলনেক মডেল নয়। বটলনেক হলো আপনি তাকে কী খাওয়ান।"

lean-ctx ছাড়া
AI ৮০০-লাইনের ফাইল পড়ে
→ হাজার হাজার token LLM-এ পাঠানো হয়
কমেন্ট, হোয়াইটস্পেস, ইম্পোর্ট অন্তর্ভুক্ত
→ ধীর, ব্যয়বহুল, কনটেক্সট সীমায় আঘাত করে
lean-ctx সহ
AI ৮০০-লাইনের ফাইল পড়ে
→ lean-ctx AST পার্সিংয়ের মাধ্যমে কম্প্রেস করে
টাইপ, সিগনেচার, লজিক রাখে
→ ৬০-৯০% কম token, একই সিগন্যাল
এটি চালু অবস্থায় দেখুন

আপনার টার্মিনালে এটি কেমন দেখায়।

lean-ctx নীরবে পর্দার আড়ালে কাজ করে। আপনার AI যখন একটি ফাইল পড়ে, এটি স্বচ্ছভাবে আউটপুট কম্প্রেস করে। এখানে একটি বাস্তব ctx_read কল এবং মেট্রিক্স ড্যাশবোর্ড দেখুন।

ctx_read - map
AI কল: ctx_read({ path: "src/lib/mcpManifest.ts", mode: "map" })
schema_version 1
tools.granular 58
tools.unified 5
read_modes 10
modes: auto, full, map, signatures, diff, aggressive
60–99% প্রতি ফাইল রিডে token হ্রাস - ক্যাশড পুনঃপড়া ৯৯% পৌঁছায়, প্রথম রিড মোডের উপর নির্ভর করে ৬০-৯৫% See methodology
58 বুদ্ধিমান টুল যা বিল্ট-ইন ফাইল রিড, শেল কমান্ড এবং কোড সার্চ প্রতিস্থাপন করে
10 Read modes
0 কনফিগারেশন প্রয়োজন - ইনস্টল, init, সম্পন্ন। প্রতিটি প্রধান AI কোডিং টুলের সাথে কাজ করে
সামঞ্জস্যতা

প্রতিটি প্রধান AI কোডিং টুলের সাথে কাজ করে।

Cursor, Claude Code, GitHub Copilot, Windsurf, Crush, Codex - lean-ctx সবার সাথে ইন্টিগ্রেট করে। শূন্য ভেন্ডর লক-ইন, প্রতি টুলে শূন্য কনফিগারেশন। একবার ইনস্টল করুন, সর্বত্র উপকৃত হন।

AiderAmazon QAmpAntigravityAWS KiroClaude CodeClineContinueCursorEmacsGemini CLIGitHub CopilotJetBrainsNeovimOpenAI CodexOpenCodePiQwen CodeRoo CodeSublime TextTraeVerdentWindsurfZed
FAQ

Frequently Asked Questions

What is LeanCTX?

LeanCTX হলো AI ডেভেলপমেন্টের জন্য Context OS। এটি আপনার AI কোডিং টুল এবং কোডবেসের মধ্যে অবস্থান করে, ফাইল রিড ৯৯% পর্যন্ত কম্প্রেস করে, সেশন জুড়ে মেমোরি সংরক্ষণ করে এবং ডেলিভারির আগে সমস্ত আউটপুট যাচাই করে। এটি Cursor, Claude Code এবং GitHub Copilot সহ ২৪+ AI টুলের সাথে কাজ করে।

LeanCTX টোকেন খরচে কতটা সাশ্রয় করে?

সক্রিয় ডেভেলপাররা প্রতি মাসে AI API খরচে $৩০-১০০+ সাশ্রয় করে। ফাইল রিড ৬০-৯৯% কম্প্রেস হয়, শেল আউটপুট ৬০-৯৫%, এবং ক্যাশড রি-রিডের খরচ মাত্র ১৩ টোকেন। আপনার ব্যক্তিগত সাশ্রয় পরিমাপ করতে lean-ctx gain ব্যবহার করুন।

LeanCTX কি Cursor / Claude Code / Copilot এর সাথে কাজ করে?

হ্যাঁ। LeanCTX বক্সের বাইরেই ২৪+ AI কোডিং টুল সাপোর্ট করে। lean-ctx setup চালান এবং এটি স্বয়ংক্রিয়ভাবে সমস্ত ইনস্টল করা এডিটর সনাক্ত ও কনফিগার করে। তিনটি ইন্টিগ্রেশন মোড সাপোর্ট করে: CLI-Redirect, Hybrid এবং Full MCP।

LeanCTX কি বিনামূল্যে এবং ওপেন সোর্স?

হ্যাঁ। LeanCTX MIT + Apache-2.0 ডুয়াল লাইসেন্সের অধীনে সম্পূর্ণ ওপেন সোর্স। শূন্য টেলিমেট্রি, সবকিছু স্থানীয়ভাবে চলে। একক Rust বাইনারি npm, cargo বা সরাসরি ডাউনলোডের মাধ্যমে উপলব্ধ।

What is Context OS?

Context OS হলো সেই আর্কিটেকচার যা AI প্রসঙ্গের সম্পূর্ণ জীবনচক্র পরিচালনা করে। এতে ছয়টি স্তম্ভ রয়েছে: Smart I/O (কম্প্রেশন), Intelligence (রাউটিং), Memory (স্থায়িত্ব), Governance (নিয়ন্ত্রণ), Verification (প্রমাণ), এবং Integrations (২৪+ টুল)। এটি অ্যাড-হক প্রম্পট ইঞ্জিনিয়ারিংকে একটি পদ্ধতিগত রানটাইম দিয়ে প্রতিস্থাপন করে।

আপনার AI-কে যোগ্য কনটেক্সট দিন।

AI কোডিংয়ের বাধা মডেল নয় - এটি কনটেক্সট। lean-ctx LLM-এ পৌঁছানোর আগে তথ্য গঠন করে। একটি Rust বাইনারি। কোনো ক্লাউড নেই। Apache-2.0।