tags: [OpenClaw, AI, LLM, 免费模型, 插件, 开源]

先说结论:如果你用 OpenClaw,这个叫 Free Optimizer 的插件值得装上试试。
在这里插入图片描述
地址:https://github.com/YunzhouLi-hub/openclaw-plugin-free-optimizer

我平时喜欢折腾各种 AI 本地部署和网关工具,OpenClaw 算是我目前在用的消息网关(把各种聊天软件和 AI 模型连起来)。但它有一个痛点——我想用免费的模型,但免费模型分布在十几个平台上,有的快有的慢,有的今天能用到明天就限流了。手动切来切去特别烦。

这周逛 GitHub 的时候发现有人写了一个 OpenClaw 插件,叫 Free Optimizer,专门干这个事。

它是干什么的

一句话:自动发现 9大平台的免费模型,实时测速,每次聊天自动切换到当前最快那个。

装上之后你在 OpenClaw 里设 model: free-opt/auto,剩下的它全自动。不用管哪个平台今天正常、哪个超时——插件每小时跑一次全面测速,把你的模型排名更新一遍,下次聊天自动走排名第一的。

支持哪些平台

目前它支持 9个平台:

平台 典型模型 国内用户
OpenRouter DeepSeek R1, Llama 4, Qwen3 ✅ 直连
NVIDIA NIM Llama 3.3 70B, Kimi K2.5 ✅ 直连
Cloudflare Llama 3.2 1B/3B ✅ 直连
GitHub Models GPT-4o Mini, DeepSeek R1 ✅ 直连
Google Gemini 2.5 Pro/Flash ❌ 需要代理
Groq Llama 3.3 70B ❌ 需要代理
Cerebras Llama 3.3 70B ❌ 需要代理
Mistral Mistral Large, Codestral ❌ 需要代理
HuggingFace 各种开源模型 ❌ 需要代理

国内用户只配前三个就能用得挺好,不需要任何代理工具。

实测效果

我在自己的服务器上跑了一轮测试,这是实际排名:

排名 模型 延迟 质量
🥇 Cloudflare Llama 3.2 32B 444ms ★★★★★
🥈 NVIDIA Llama 3.3 70B 692ms ★★★★★
🥉 GitHub DeepSeek R1 1123ms ★★★★★

Cloudflare 的小模型只有 32B 参数,但胜在延迟极低,简单对话完全够用。如果要推理能力强的,NVIDIA 的 70B 模型也只花了不到 700ms,非常稳。

插件的排行榜长这样:

┌──────┬──────────────────────────────────────────┬────────┬─────────┬──────┬──────────┐
│ Rank │ Model                                    │ TTFT   │ Qual   │ Tag │ Ctx      │
├──────┼──────────────────────────────────────────┼────────┼─────────┼──────┼──────────┤
│    1 │ cloudflare/llama-3.2-32b-instruct         │ 444ms  │ ★★★★★  │      │   128K   │
│    2 │ nvidia/llama-3.3-70b-instruct            │ 692ms  │ ★★★★★  │  ⭐  │    65K   │
└──────┴──────────────────────────────────────────┴────────┴─────────┴──────┴──────────┘

安装真的简单

如果你是 OpenClaw 用户,只需要三步:

# 1. 下载到插件目录
cp -r openclaw-plugin-free-optimizer ~/.openclaw/plugins/free-optimizer
cd ~/.openclaw/plugins/free-optimizer

# 2. 安装编译
npm install
npm run build

# 3. 设为主模型
# 在 OpenClaw 配置文件里把 model 改成 free-opt/auto

然后去你喜欢的平台搞个 API Key 填一下(推荐 NVIDIA 和 Cloudflare,免费额度大还好申请),执行 /free-opt_test 就能看到排行榜了。

几个我特别喜欢的设计

1. 质量评分 — 不只是看谁回得快,还看回答正不正确。插件会问 “法国的首都是什么?用一个词回答”,正确的给 5星,胡说的给低分。排名时质量优先,速度其次。

2. 一键健康检查/free-opt_health 只测当前在用模型,1秒出结果。如果模型挂了,它自动跑全量测速切到下一个。适合写成定时任务,我每半小时跑一次,保证不中断。

3. 过滤系统很灵活 — 可以按平台、模型名、参数量、上下文大小来过滤。比如我只想用 NVIDIA 的 70B 以上模型:

{ "includeProviders": ["nvidia"], "minParamB": 70 }

4. 缓存聪明 — 5分钟内直接用缓存不测速,5-30分钟走旧数据同时后台刷新,超30分钟强制重测。用户请求永远不会因为测速而卡住。

在哪下载

GitHub 仓库:https://github.com/YunzhouLi-hub/openclaw-plugin-free-optimizer

MIT 开源协议,随便用随便改。

总结

如果你是 OpenClaw 用户又不想花钱买模型,这个插件是目前最省心的方案。装上、配 Key、设个 cron 跑健康检查——之后就忘了它存在,每次聊天自动走最快的免费模型。

白嫖到这种程度,挺爽的。🦞


如果你也在用 OpenClaw 或者有什么好用的 AI 插件推荐,评论区聊聊。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐