OpenClaw 选模型,最容易犯的错就是一上来找“全网最强榜单”。官方模型文档其实给了更稳的思路:先按任务选路线,再把最强主模型放在 primary,把更便宜、更稳或更快的模型放进 fallback。 对中国用户来说,这比死盯一次性的排行榜更实用。
先给结论
如果你主要做中文办公和内容生产,先看中国 provider;如果你主要做代码、国际平台和通用强能力,先看国外 provider;如果你更看重隐私和长期成本,再看本地模型。
先按 5 个维度选,不要先按热度选
中文写作和办公
- 看中文理解和长文输出
- 看语气和稳定性
- 更适合先看中国 provider
编码与工具调用
- 看推理和结构化输出
- 看 tool use 稳定性
- 更适合先看国外 provider 或 GLM
多模态、延迟与控制权
- 图片任务要考虑 imageModel
- 延迟和成本要一起判断
- 隐私需求决定是否看本地模型
最实用的路线对比
| 路线 | 适合谁 | 优点 | 要注意什么 |
|---|---|---|---|
| 中国官方 provider | 中文办公、内容生产、中国团队协作 | 中文更顺手,价格和网络环境更友好,首次跑通更容易 | 不同 provider 的认证方式不完全一样,有的走 API Key,有的走 Portal / OAuth 插件 |
| 国外官方 provider | 通用最强能力、代码任务、英文和跨境场景 | 生态成熟,模型更新快,工具调用与推理能力更稳 | 国内网络、成本和账号限制要单独考虑 |
| 聚合 provider / 网关 | 多模型统一出口、快速切换、成本管理 | 一个入口管理多家模型,方便 fallback 和灰度切换 | 要额外关注转发延迟、计费和上游模型真实来源 |
| 本地模型 | 隐私敏感、长期低成本、本地实验和可控部署 | 数据不必出网,长期成本更可控 | 弱模型在工具调用和安全边界上更脆弱,别直接放大权限 |
按主场景来选,通常更靠谱
如果你最看重中文效果
先看 中国主流模型接入。官方模型概念页明确把中国 provider 单独列了出来,这条路线更适合飞书、钉钉、企业微信、中文写作和日常办公。
如果你最看重编码和工具调用
官方文档给了一个很有用的经验判断:GLM 稍微更偏 coding / tool use,MiniMax 稍微更偏 writing / vibes。 这不是绝对排名,但对搭 primary 和 fallback 很有参考价值。
如果你最看重通用最强能力
优先看 国外模型接入。OpenAI、Anthropic、Google Gemini 和 OpenRouter 是当前官方文档覆盖最完整的几条国际路线。
如果你最看重隐私和长期成本
直接看 本地模型。Ollama 更适合个人和轻量实验,vLLM 更适合有 GPU、需要更规范服务化接口的场景。
给中国用户的一张简化判断表
| 你的目标 | 更适合先看哪条路 | 推荐做法 |
|---|---|---|
| 先把中文机器人跑通 | 中国 provider | 先用一条官方支持清晰的 provider 完成 auth,再用 openclaw models set provider/model 选默认模型 |
| 做高质量代码和工具工作流 | 国外 provider 或 GLM 路线 | 主模型选强推理档,fallback 放一条成本更低或中文更友好的模型 |
| 多家模型混用 | 聚合 provider / OpenRouter | 统一出口,再补 fallback 策略 |
| 私有化或本地实验 | Ollama / vLLM | 先在小权限工具集里验证,再逐步放大能力 |
官方推荐的稳定思路
- 把最新一代、最强的模型放在
primary。 - 把更快、更便宜或更稳的模型放进
fallbacks。 - 如果你启用了
agents.defaults.modelsallowlist,记得把 fallback 也放进去。 - 如果你的工作流会调用工具,不要用过弱或过老的模型做高权限入口。
下一步看哪篇最合适
- 想要中国用户最实用的接入路线:看 中国主流模型接入。
- 想走 OpenAI、Claude、Gemini:看 国外模型接入。
- 想配高可用:看 模型 fallback 与混合调用实践。