OpenClaw 配置 Ollama 本地 Qwen 模型完整指南

下面将详细介绍如何将本地 Ollama 中已下载的 Qwen 模型配置到 OpenClaw 中,实现完全本地化的 AI 助手体验。

1. 环境准备与验证

在开始配置前,需要确保 Ollama 和 OpenClaw 的基础环境已正确安装并运行:

验证 Ollama 服务状态

# 检查 Ollama 服务是否运行
ollama list

如果正常显示已下载的模型列表(如 qwen2.5:7b、qwen2.5:14b 等),说明 Ollama 服务正常运行 。

确认 Ollama API 可访问性

# 测试 Ollama API 接口
curl http://localhost:11434/api/tags

应该返回类似以下的 JSON 响应:

{
  "models": [
    {
      "name": "qwen2.5:7b",
      "modified_at": "2024-01-01T10:00:00.000Z",
      "size": 7300000000,
      "digest": "sha256:abc123..."
    }
  ]
}

2. OpenClaw 配置文件修改

OpenClaw 的核心配置主要通过修改其配置文件来实现与 Ollama 的对接:

定位配置文件路径

  • OpenClaw 主配置文件通常位于安装目录下的 config 文件夹中
  • 具体路径可能因安装方式而异,常见位置包括:
    • ~/.openclaw/config.json
    • ./config/gateway.json
    • ./config/model.json

修改模型配置
找到模型配置文件后,需要添加或修改 Ollama 相关的配置项:

{
  "models": [
    {
      "name": "qwen-local",
      "type": "ollama",
      "config": {
        "base_url": "http://localhost:11434",
        "model": "qwen2.5:7b",
        "api_key": "",
        "context_window": 8192,
        "temperature": 0.7,
        "max_tokens": 2048
      }
    }
  ]
}

关键配置参数说明:

参数名称 必需 默认值 说明
base_url http://localhost:11434 Ollama 服务地址
model - Ollama 中下载的模型名称
api_key 空字符串 本地部署通常无需 API Key
context_window 8192 上下文窗口大小
temperature 0.7 生成文本的随机性
max_tokens 2048 单次生成的最大 token 数

3. 网关服务配置

如果使用 OpenClaw 的网关服务,还需要配置网关文件:

网关配置文件示例

# gateway.yaml 或类似配置文件
services:
  ollama-qwen:
    type: llm
    provider: ollama
    config:
      base_url: "http://localhost:11434/v1"
      model: "qwen2.5:7b"
      credentials:
        api_key: ""

重要注意事项:

  • URL 路径:确保使用 /v1 端点,这是 OpenAI 兼容接口的标准路径
  • 模型标识:模型名称必须与 ollama list 显示的名称完全一致
  • 网络可达性:确保 OpenClaw 能够访问 localhost:11434 端口

4. 服务重启与测试

完成配置后,需要重启相关服务使配置生效:

重启 OpenClaw 服务

# 根据安装方式选择相应的重启命令
npm run restart
# 或
./scripts/restart.sh
# 或
systemctl restart openclaw

验证配置是否生效

# 检查服务状态
curl http://127.0.0.1:18789/api/health
# 或通过 OpenClaw Web 界面测试模型连接

5. 常见问题排查

连接失败问题

# 检查端口监听状态
netstat -an | grep 11434
# 或
lsof -i :11434

如果端口未监听,可能需要重启 Ollama 服务:

# Windows
net stop Ollama && net start Ollama
# macOS/Linux
sudo systemctl restart ollama

模型加载问题
如果 OpenClaw 无法识别模型,检查模型是否已正确下载:

# 重新拉取模型(如果需要)
ollama pull qwen2.5:7b
# 验证模型详情
ollama show qwen2.5:7b

性能优化配置
对于资源受限的环境,可以调整配置参数:

{
  "config": {
    "base_url": "http://localhost:11434",
    "model": "qwen2.5:0.5b",
    "temperature": 0.3,
    "max_tokens": 1024,
    "timeout": 30000
  }
}

6. 多模型配置示例

如果需要配置多个 Qwen 模型,可以按以下方式设置:

{
  "models": [
    {
      "name": "qwen-fast",
      "type": "ollama", 
      "config": {
        "base_url": "http://localhost:11434",
        "model": "qwen2.5:0.5b",
        "context_window": 4096
      }
    },
    {
      "name": "qwen-smart",
      "type": "ollama",
      "config": {
        "base_url": "http://localhost:11434", 
        "model": "qwen2.5:7b",
        "context_window": 8192
      }
    }
  ]
}

通过以上步骤,您应该能够成功将本地 Ollama 中的 Qwen 模型配置到 OpenClaw 中,实现完全本地化的 AI 助手功能。配置过程中如遇问题,建议仔细检查每个步骤的日志输出,多数问题都能通过日志信息找到解决方案 。


参考来源

 

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐