OpenClaw 部署指南:https://www.azman.cn/

平台永久地址:www.azman.cn/

温馨提示: 本站内容精选自优质公开渠道,仅供分享与交流。我们尊重原创,如涉及版权问题,请权利方及时与我们联系,我们将在核实后第一时间处理。感谢您的理解与支持!

养虾日记🦞:烧了1亿Token后,总结出新手养虾必开的6个设置 + 4条指令

前阵子折腾OpenClaw,配置好了四层记忆架构、工作手册这些进阶之后(养虾日记🦞:OpenClaw配置进阶,让它真正懂你),把新闻获取流程工作流跑通了。

但用了一周发现个问题:Token消耗比预想的快太多了。

我看了一下后台数据,几天下来居然烧掉了几千万Token。照这个速度下去,一个月得烧掉1亿Token,这谁顶得住啊?

我虽然把基本功能跑通了,但没做优化配置,导致Token浪费严重。

就像买了辆车但不会开,油耗高得离谱。后来我做了几轮优化,把Token消耗降到了原来的30%左右。

今天这篇文章,我就把这些新手必做的配置记录下来。装完OpenClaw,先把这些配好,能帮你省不少钱。

一、Token消耗真相

先说个坑。很多人以为Token消耗主要来自你输入的字数。

其实不是。

消耗来源占比
历史对话累积30-40%
工具调用结果(文件内容、命令输出)20-30%
工具 Schema 注入10-15%
Thinking 模式输出10-50%

核心认知:你输入的字数只是冰山一角,真正的Token大户是”历史上下文重复读取”。一次对话可能携带数万Token的历史记录。

比如你跟AI聊了20轮,每次提问都会把前19轮的对话全部带上。这样Token当然消耗得快。

所以,优化配置的核心就是:减少不必要的重复读取。

二、6个必开设置

1. 实时跟踪日志


openclaw logs --follow

作用:实时跟踪日志,显示AI每一步在做什么——思考、调用工具、执行命令、读取文件等完整过程。

我用下来,这个命令特别有用。有时候AI执行任务卡住了,或者不知道在干啥,看一眼日志就明白了。

其他查看执行细节的方式:

命令作用
openclaw logs查看历史日志
openclaw logs –follow实时跟踪日志(最常用)
openclaw logs –jsonJSON 格式输出,信息更详细
openclaw gateway –verbose启动网关时显示详细执行过程

2. 流式回复


openclaw config set channels.feishu.streaming true

作用:开启后,AI回复会像打字一样逐字显示,而不是等全部生成完才一次性输出。

这个我特别推荐。体验流畅多了,不用干等。而且如果发现AI说错方向,还能立即打断。

3. 开启耗时显示


openclaw config set channels.feishu.footer.elapsed true

作用:每次回复末尾显示耗时(如”已完成·耗时 1m 54s”),让你清楚知道AI干了多久,心里有数。

看着时间,你就知道Token大概烧了多少。钱花在哪,一目了然。

4. 开启状态展示


openclaw config set channels.feishu.footer.status true

作用:显示”已读””正在思考””正在执行”等状态提示,交互更透明,不再对着空气干等。

这个挺重要。不然有时候你不知道AI是在思考还是卡死了。

5. 群聊@才回复


openclaw config set channels.feishu.requireMention true--json

作用:机器人加入群聊后,只有被@时才回复,避免群内消息刷屏干扰。

如果你的群很活跃,这个一定要开。不然群里每条消息都触发AI回复,Token烧得飞快。

6. 话题独立上下文


openclaw config set channels.feishu.threadSession true

作用:在飞书群聊的话题模式下,每个话题拥有独立上下文,互不干扰,支持多任务并行。

这个特别适合团队使用。不同话题讨论不同事情,不会串。

三、4条必会快捷指令

这些指令在聊天窗口直接发送即可,无需命令行:

指令作用
/stop中止当前任务,AI立即停止执行
/status快速查看健康状态、上下文用量、Token消耗
/compact压缩上下文,清理历史对话,节省Token
/new新建会话,开始全新对话

我常用的几个场景:

  • AI跑偏了 → /stop 立即打断

  • 聊太长了 → /compact 清理历史,省Token

  • 开始新任务 → /new 避免旧上下文干扰

这些指令记住了,能省不少麻烦。

四、省钱进阶配置

除了上面那些基础设置,下面这些配置能帮你大幅降低Token消耗:

上下文压缩模式


openclaw config set agents.defaults.compaction.mode "default"

作用:将旧对话自动压缩为摘要,而非原样保留。

我测下来,这个能省30-40% Token。对话太长的时候特别有用。

上下文修剪


openclaw config set agents.defaults.contextPruning.mode "cache-ttl"
openclaw config set agents.defaults.contextPruning.ttl "4h"

作用:自动清理过期的工具输出(比如几小时前读取的文件内容),避免无用信息占用上下文。

预计能省20-30% Token。我开了之后,确实感觉消耗慢了。

五、配置生效

所有配置修改后,必须重启Gateway才能生效:


openclaw gateway restart

这个别忘了。不然改了半天配置没生效,还以为是出bug了。

六、使用习惯建议

配置是一方面,使用习惯也很重要。

我的经验是:

  • 每10-15轮对话执行一次 /compact

  • 开始新任务前执行 /new 或 /reset

  • 简单任务用轻量模型,复杂任务再切换高端模型

  • 养成查看 /status 的习惯,监控Token消耗

养成这些习惯,Token消耗能控制在合理范围内。

总结一下

说了这么多,核心就几条:

  1. 6个设置提升体验 – 日志、流式、耗时、状态、@回复、话题独立

  2. 4条指令日常必备 – stop、status、compact、new

  3. 上下文优化配置 – 压缩模式+修剪,能省50-70% Token

新手养虾,先把这些配好。少走弯路,少花冤枉钱。

等用熟了,再像我之前那篇文章说的,去折腾四层记忆架构、工作手册这些进阶玩法。

从”能用”到”好用”,差的就是这些细节。

给TA打赏
共{{data.count}}人
人已打赏
技能技巧

所有人教你安装 OpenClaw,却没人告诉你装完之后会怎样

2026-3-19 0:59:14

技能技巧

我把小红书交给openclaw后,平台没封我,反而流量涨了300%(附完整配置,小白友好)

2026-3-19 1:26:37

版权与安全声明:本站所发布的内容来源于互联网,我们致力于传递有价值的信息,同时也尊重并维护原作者的权益。若文章内容出现版权问题,或文中使用的图片、资料、下载链接等,如涉及侵权,请联系我们删除或调整。联系6065565#qq.com(请替换#为@)

网络信息繁杂,请读者自行甄别内容真实性,谨防受骗。本站目前无任何收费项目,官方福利群https://t.me/

官方福利群: https://t.me/

觉得内容不错?欢迎分享给好友,复制链接使用浏览器打开,让更多朋友看到!

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索