OpenClaw 部署指南:https://www.azman.cn/

平台永久地址:www.azman.cn/

温馨提示: 本站内容精选自优质公开渠道,仅供分享与交流。我们尊重原创,如涉及版权问题,请权利方及时与我们联系,我们将在核实后第一时间处理。感谢您的理解与支持!

OpenClaw限流有救了!免费Nvidia API+阿里云百炼接入指南

 

之前买的kimi coding plan 又限流了,先用免费模型顶一顶。

推荐两家,nvidia 和 opencode zen

opencode zen 在openclaw里面原生支持,只需要在模型配置里面输入api key就可以了

nvidia 为了宣传自家的GPU基础设施,提供对当前主流开源模型的支持, 比如千问的 qwen3.5-397b-a17b, 智谱的 glm-5, kimi 的 kimi-k2.5,minimax 的 minimax-m2.1.

OpenClaw限流有救了!免费Nvidia API+阿里云百炼接入指南

nvidia-support-models

官方宣称最高40rpm,实际测试虽然可能没有这么高,但是它免费,模型选择多,并且限速之后等一会就又可以用了,作为免费api可以说是最优选择。比那些groq之流只提供一年前的老旧小模型比要好多了。

Nvidia api 接入

首先要申请api key:

  • • 访问 https://build.nvidia.com/models 注册登录
  • • 右上角头像点击-选择 api keys – 点击 Generate API Key 创建
  • • 拷贝API key 备用

写入openclaw的配置文件

配置文件一般在 ~/.openclaw/openclaw.json, 在该文件里面加入一下models配置,

"models": {
    "mode"
: "merge",
    "providers"
: {
      "nvidia"
: {
        "baseUrl"
: "https://integrate.api.nvidia.com/v1",
        "apiKey"
: "${NVIDIA_API_KEY}",
        "api"
: "openai-completions",
        "models"
: [
          { "id": "moonshotai/kimi-k2.5", "name": "Kimi K2.5" ,
            "reasoning"
: true,
            "input"
: [
              "text"
,
              "image"

            ]
          },
          { "id": "minimaxai/minimax-m2.1", "name": "Minimax M2.1" ,
            "reasoning"
: true,
            "input"
: [
              "text"
,
              "image"

            ]
          }
        ]
      }
    }
  }

同时记得在agents.defaults.model.primary 改为你想使用的模型,比如 “nvidia/moonshotai/kimi-k2.5″,参考下图:

OpenClaw限流有救了!免费Nvidia API+阿里云百炼接入指南

nvidia-model-config

这里多说一下模型配置参数的含义。models 里面主要看providers这个结构,它定义了不同的模型提供者,比如这里我们写的是nvidia。每一个provider下面可以定义很多个模型,通过id来索引。所以如果逆向添加nvidia的其它模型,就可以按照这个格式来加入。同理如果是其它api的提供者,那就在 “nvidia” 这个层级下加一个类似结构。而agents.defaults.model.primary里面写入”nvidia/moonshotai/kimi-k2.5″就代表使用nvidia下的moonshotai/kimi-k2.5模型。

另外 apiKey 这里 你可以直接把上述的key直接贴入。或者更模块化的方式是在 ~/.openclaw 下面新建一个.env文件,以变量形式写入:

# .env 文件内容
NVIDIA_API_KEY=your_api_key_here

以上配置完成重启gateway就可以了,一般情况更改完openclaw.json会自动重启,如果没有就手动重启

openclaw gateway restart

阿里云百炼 Coding Plan 接入

如果你觉得Nvidia的免费API不够用,或者需要更稳定的调用体验,阿里云百炼的Coding Plan是个不错的补充方案。

之前我写过一篇阿里云部署OpenClaw的教程 阿里云部署OpenClaw:79元/年搭24小时AI代理,算是和云部署闭环了。现在阿里云又推出了Coding Plan活动,Lite基础套餐首月仅需7.9元(原价40元/月),包含18000次调用,性价比很高。

Lite版本最多18000次请求,Pro版本90000次。套餐内不仅有千问系列模型,还支持GLM-5、Kimi K2.5等第三方模型。

不过需要注意,这是首月优惠价。模型更新迭代快,建议按月购买,避免被绑定。

链接在这里:https://cn.aliyun.com/benefit/scene/codingplan?from_alibabacloud=&userCode=bu3b1wdt

阿里云的套餐和nvidia的模型接入类似,两个都没有openclaw的官方接入点,只能通过openai兼容接口接入, 可以参考以上nvidia接入的方式,在配置文件内修改models参数如下:

(注意,如果要保留nvidia接口,注意不要删除nvidia的配置参数)

"models": {
  "mode"
: "merge",
  "providers"
: {
    "bailian"
: {
      "baseUrl"
: "https://coding.dashscope.aliyuncs.com/v1",
      "apiKey"
: "YOUR_API_KEY",
      "api"
: "openai-completions",
      "models"
: [
        {
          "id"
: "qwen3.5-plus",
          "name"
: "qwen3.5-plus",
          "reasoning"
: false,
          "contextWindow"
: 1000000,
          "maxTokens"
: 65536
        },
        {
          "id"
: "qwen3-max-2026-01-23",
          "name"
: "qwen3-max-2026-01-23",
          "reasoning"
: false,
          "contextWindow"
: 262144,
          "maxTokens"
: 65536
        },
        {
          "id"
: "qwen3-coder-next",
          "name"
: "qwen3-coder-next",
          "contextWindow"
: 262144,
          "maxTokens"
: 65536
        },
        {
          "id"
: "qwen3-coder-plus",
          "name"
: "qwen3-coder-plus",
          "contextWindow"
: 1000000,
          "maxTokens"
: 65536
        },
        {
          "id"
: "glm-5",
          "name"
: "glm-5",
          "reasoning"
: false,
          "contextWindow"
: 202752,
          "maxTokens"
: 16384
        },
        {
          "id"
: "glm-4.7",
          "name"
: "glm-4.7",
          "reasoning"
: false,
          "contextWindow"
: 202752,
          "maxTokens"
: 16384
        },
        {
          "id"
: "kimi-k2.5",
          "name"
: "kimi-k2.5",
          "reasoning"
: false,
          "contextWindow"
: 262144,
          "maxTokens"
: 32768
        }
      ]
    }
  }
}

apikey 和 修改agents.defaults.model.primary跟nvidia的类似,想用哪个模型就把agents.defaults.model.primary改成 对应{provider}/{id}的形式。

总结

Nvidia API和阿里云百炼Coding Plan该如何选择?

Nvidia免费API的优势:

  • • 完全免费,无需付费
  • • 模型丰富,支持Qwen3.5、GLM-5、Kimi K2.5、MiniMax M2.1等主流模型
  • • 适合轻度使用和临时应急

阿里云百炼Coding Plan的优势:

  • • 稳定可靠,7.9元/月起
  • • 调用次数充足(Lite 18000次/月,Pro 90000次/月)
  • • 首月费用低,性价比突出

推荐策略: 两者可以同时配置,Nvidia作为日常主力,阿里云作为备选方案。在openclaw中可以通过切换primary模型灵活切换,非常方便。这样即使一边限流,另一边也能顶上,再也不用忍受漫长的等待了。

openclaw 部署系列文章:

 


给TA打赏
共{{data.count}}人
人已打赏
教程与学习

6 元/月用上 Codex、Claude Code、OpenClaw:一套低成本 AI 编程方案,小白也能搭

2026-3-18 15:42:50

教程与学习

内部机密泄露!OpenClaw 4大电商 Agent 底层配置文件全公开,照抄直接省下百万工资!

2026-3-18 15:43:28

版权与安全声明:本文内容来源于第三方平台,相关素材的原始链接及标识均与原出处无关。我们致力于传递有价值的信息,若无意中侵犯了您的权益,请联系我们删除或调整。联系6065565#qq.com(请替换#为@)

网络信息繁杂,请读者自行甄别内容真实性,谨防受骗。本站目前无任何收费项目,官方福利群https://t.me/

官方福利群: https://t.me/

觉得内容不错?欢迎分享给好友,复制链接使用浏览器打开,让更多朋友看到!

0 条回复 A文章作者 M管理员
    暂无讨论,说说你的看法吧
个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索