Token Reduction Lab

LLM 上下文优化的探索笔记

I

LLM Token 原理

缩减 token 的原理基石 —— 上下文窗口、tokenization 机制与优化策略

基础
II

RTK

Rust CLI 代理 —— 在系统输出到达 LLM 之前过滤和精简

探索中
III

OpenCode

Go 终端 AI 助手 — Auto Compact 全量总结与 DCP 动态上下文裁剪

探索中
IV

Headroom

Python 上下文优化中间层 — ContentRouter 智能路由 + SmartCrusher 统计压缩 + CCR 按需检索

探索中
V

LLMLingua

Microsoft Research — 用小模型困惑度评分驱动 prompt 压缩,三级预算分配 + 迭代压缩

探索中