Knowledge Mirror
OpenClaw 降本提效 checklist
只送這次任務需要的片段 歷史對話先摘要,再送摘要 長 memory 先檢索,別整包塞進去 FAQ / 分類 / 格式化,先用便宜模型或本地模型 長文推理 / 高風險判斷,才升級強模型 能批次處理的就不要一筆一請求 高頻問題直接快取答案 標準流程輸出可快取中間結果 重複查詢先查 cache,再進模型 刪掉重複指令 把長說明改成短規則 用條列,不要堆散文 設每日 / 每月用量上限…
OpenClaw 降本提效 checklist
真的要怎麼套用
1. 先砍上下文
- 只送這次任務需要的片段
- 歷史對話先摘要,再送摘要
- 長 memory 先檢索,別整包塞進去
2. 模型分流
- FAQ / 分類 / 格式化,先用便宜模型或本地模型
- 長文推理 / 高風險判斷,才升級強模型
- 能批次處理的就不要一筆一請求
3. 快取
- 高頻問題直接快取答案
- 標準流程輸出可快取中間結果
- 重複查詢先查 cache,再進模型
4. prompt 壓縮
- 刪掉重複指令
- 把長說明改成短規則
- 用條列,不要堆散文
5. 上限與監控
- 設每日 / 每月用量上限
- 監控哪個任務最燒 token
- 先優化最貴的那條路徑
實際落地順序
- 找出最耗 token 的流程
- 把上下文縮短
- 把低風險任務下放
- 加 cache
- 再收 prompt
- 最後加 budget guardrail
核心原則
少把不必要的 token 丟給 AI。