OpenClaw 部署指南:https://www.azman.cn/

平台永久地址:www.azman.cn/

温馨提示: 本站内容精选自优质公开渠道,仅供分享与交流。我们尊重原创,如涉及版权问题,请权利方及时与我们联系,我们将在核实后第一时间处理。感谢您的理解与支持!

最新 | OpenClaw 免费跑通的5个模型 + 详细配置步骤

最新 | OpenClaw 免费跑通的5个模型 + 详细配置步骤

每天驱动 OpenClaw,Token 点数烧得比想象中快太多了! 为什么这么费钱? 因为 OpenClaw 的每一次消息交互,都会把完整的对话历史原封不动地发给模型。随着会话越来越长,上下文 token 消耗呈指数级上涨,一天下来几百上千请求很常见,免费额度根本撑不住,付费也心疼。

痛定思痛,我下定决心:必须找到真正能用的免费替代方案。

于是我疯狂对比各种模型、供应商、配置方式,反复在 OpenClaw 上实测稳定性、tool calling 表现、上下文保持能力和实际任务完成度。

最终,我筛选出了 5 个目前能在 OpenClaw 上稳定跑起来的免费(或接近免费)模型: 有的完全本地跑,零 token 成本; 有的利用官方免费云额度,日常用量绰绰有余; 有的甚至便宜到几乎可以忽略不计。

如果你也正在被Token费用劝退,或者单纯想把 AI agent 的使用成本降到接近 0,这篇很可能帮你省下一笔不小的钱。

这篇文章把我的 5 个常用模型、为什么选它们、以及在 OpenClaw 里的具体配置方法全部拆解给你。

Kimi K2.5(目前最受欢迎的免费云模型)

最新 | OpenClaw 免费跑通的5个模型 + 详细配置步骤

Moonshot AI 的 Kimi K2.5 是 OpenRouter 上当下最火的免费模型。 我本来只是把它当临时备用,结果一用就成了我的主力模型。

优点:

  • 推理质量接近 Claude Sonnet
  • 支持 tool calling
  • 128K 上下文窗口,能轻松 hold 住 OpenClaw 的长对话,不会丢前面内容
  • 特别适合读邮件、管理日历、跑自动化的 agent

Moonshot 官方宣布平台永久免费开放。 在 OpenRouter 上,免费额度大概是每分钟 20 次请求,每天重置。

配置方法:

openclaw config set agents.defaults.model.primary "openrouter/moonshotai/kimi-k2.5"

如果你用 Ollama,还有更快的办法:Kimi K2.5 支持云模型直连,一条命令搞定:

ollama launch openclaw --model kimi-k2.5:cloud

最佳场景:通用 agent 工作、写代码、研究、内容起草。 

强烈推荐新手从这个模型开始,免费云推理最省心。 

局限:免费额度有速率限制,超级重度使用时会限额。

Qwen 通过 OAuth 授权

最新 | OpenClaw 免费跑通的5个模型 + 详细配置步骤

很多人找免费 OpenClaw 模型时会直接跳过 Qwen,但其实它很香。

  • OpenClaw 内置了 Qwen 的 OAuth 插件
  • 一次设备码授权,就能拿到 Qwen Coder 和 Qwen Vision 模型,每天 2000 次免费请求
  • Qwen 3.5 天生带 agent 能力:会思考、搜索、用工具、写代码
  • 网站:https://qwen.ai/qwencode

配置步骤:

openclaw plugins enable qwen-portal-authopenclaw models auth login --provider qwen-portal --set-default

登录后,模型引用方式变成 qwen-portal/coder-model 或 qwen-portal/vision-model。 token 会自动刷新,不用反复登录。

适合个人用,不建议整个团队压上去。但日常写代码、读文件、自动化,2000 次/天完全够。

最佳场景:编程任务、视觉相关工作流,想要稳定免费额度又不想管一堆 API key 的人。 

局限:OAuth token 过期或被收回时,需要重新跑登录命令。

Gemini Flash

最新 | OpenClaw 免费跑通的5个模型 + 详细配置步骤

如果你想要大上下文窗口又不想花钱,Google 的 Gemini Flash 是目前最好的免费云选项。

  • 免费额度:每分钟 15 次请求,最高支持 100 万 token 上下文
  • 对 OpenClaw 这种容易变长的会话,上下文长度是巨大优势
  • 网站:https://deepmind.google/models/gemini/flash/

我把它当备用模型:Kimi K2.5 限额时,Gemini 接力。

配置方式(编辑 config 文件):

{  "models": {    "providers": {      "google": {        "models": [          { "id": "gemini-3-flash", "name": "Gemini 3 Flash" }        ]      }    }  }}

需要去 Google AI Studio 生成一个 GEMINI_API_KEY,免费的,两分钟搞定。

最佳场景:超长对话、文档总结、研究任务,当主力模型撞限额时的可靠后备。 

局限:Google 免费 tier 可能会用你的数据训练模型。个人 side project 和学习没问题,涉及私有代码或客户敏感数据建议用付费版或本地跑。

OpenRouter 的免费模型池

最新 | OpenClaw 免费跑通的5个模型 + 详细配置步骤

OpenRouter 不是单个模型,而是一个模型网关,通过一个 API key 就能访问几十家供应商的模型。

最爽的是加 :free 后缀,就能零成本跑支持的模型。 免费模型池会轮换,但通常都有不错的选择。

网站:https://openrouter.ai/models?q=free

我一般这样配:Kimi K2.5 做主力,Llama 模型做第一个 fallback,Gemini 做最后保底。

基础免费配置示例:

{  "agents": {    "defaults": {      "model": {        "primary": "openrouter/meta-llama/llama-3.2-3b-instruct:free"      }    }  }}

OpenClaw 还内置了扫描工具,能自动检测当前 OpenRouter 上哪些免费模型可用,并测试 tool calling 和图片支持:

openclaw models scan

这个命令会按能力排行,让你交互式选主力 + fallback,省得手动一个个试。

最佳场景:想要最大灵活性、自动切换免费模型的用户;也适合喜欢尝鲜不同模型的人。 

局限:免费模型今天有明天可能没了,要定期检查和更新 fallback。

Qwen 3.5 本地跑(Ollama)

前面四个都依赖别人服务器,这个是彻底本地:通过 Ollama 跑 Qwen 3.5。

  • 阿里专门为 agent 工作流打造的模型
  • tool calling、多步推理、代码生成能力在同级别开源模型里顶尖
  • 9B 版本 16GB 内存的现代笔记本就能跑,27B 需要 32GB+ 但效果更好
  • M 系列 Mac 或有独显的机器体验特别丝滑

Ollama 最近加了一键启动 OpenClaw 的功能:

ollama launch openclaw --model qwen3.5

一条命令拉模型、配置 provider、连 OpenClaw,超级方便。 当然你也可以手动装 Ollama,ollama pull qwen3.5,再自己配 provider。

最佳场景:极致隐私、完全离线、敏感数据不想上云、想把成本压到接近 0 的开发者。 

局限:需要好点的硬件。9B 版 16GB 内存能跑,但复杂多步任务会吃力。

最终配置推荐

折腾几周后,我现在稳定用这个组合:

  • 主力
    Kimi K2.5 —— 日常任务免费搞定
  • Fallback 1
    本地 Qwen 3.5(Ollama)—— 撞限额时接管
  • Fallback 2
    Gemini Flash —— 大上下文,适合重度使用

彻底告别付费模型了,免费方案已经足够强。

如果你也在用这些模型玩 OpenClaw,欢迎留言分享你的配置和体验~

给TA打赏
共{{data.count}}人
人已打赏
技能技巧

干了半个月,测试200+ OpenClaw 技能,这8个才是真正的“刚需”(附安装命令)

2026-3-23 4:20:05

技能技巧

在 openClaw 中安装 300+ skill 会怎样,AI的下半场已经来了

2026-3-23 4:20:14

版权与安全声明:本站所发布的内容来源于互联网,我们致力于传递有价值的信息,同时也尊重并维护原作者的权益。若文章内容出现版权问题,或文中使用的图片、资料、下载链接等,如涉及侵权,请联系我们删除或调整。联系6065565#qq.com(请替换#为@)

网络信息繁杂,请读者自行甄别内容真实性,谨防受骗。本站目前无任何收费项目,官方福利群https://t.me/

官方福利群: https://t.me/

觉得内容不错?欢迎分享给好友,复制链接使用浏览器打开,让更多朋友看到!

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索