Token Reduction Lab
LLM 上下文优化的探索笔记
I
LLM Token 原理
缩减 token 的原理基石 —— 上下文窗口、tokenization 机制与优化策略
基础II
RTK
Rust CLI 代理 —— 在系统输出到达 LLM 之前过滤和精简
探索中III
OpenCode
Go 终端 AI 助手 — Auto Compact 全量总结与 DCP 动态上下文裁剪
探索中IV
Headroom
Python 上下文优化中间层 — ContentRouter 智能路由 + SmartCrusher 统计压缩 + CCR 按需检索
探索中V
LLMLingua
Microsoft Research — 用小模型困惑度评分驱动 prompt 压缩,三级预算分配 + 迭代压缩
探索中