点击此处进入Ollama官网进行下载,下载后安装并打开

Ollama模型默认是下载到C盘。由于模型比较大,我们可以更改模型存放的位置。

首先打开Ollama,点击左侧“Settings”,在下图中找到“Model location”可选择模型存放的位置。建议将模型位置放在固态硬盘区,不建议将模型存放位置设置为机械盘

一、选择模型

1.查看可自动识别模型

点击此处查看Ollama可下载的模型。OpenClaw 只会自动发现报告了 tools 能力的模型,不是所有模型都能被发现。所以我们点击Tools,这里面的模型是所有可以被OpenClaw自动发现的模型。依次点击左上角的Models——点击右侧的“Tools”,这里列出的所有模型是可以被OpenClaw自动识别的。我们选择一个进行下载

2.下载模型

选择一个模型,win+R键打开运行框,输入CMD并回车,进入命令行。在命令行输入下列命令进行拉取

#ollama pull +要拉取的模型名称
ollama pull qwen2.5-coder:32b

运行后如下图,会自动拉取所选择的模型

二、环境变量

1.配置环境变量

(1)通过图形化界面设置

点击Windows徽标——输入“编辑账户的环境变量”,打开后如下图

在“系统变量”处点击新建,将下面代码处分别粘贴进去,点击确定

#变量名
OLLAMA_API_KEY
#变量值
ollama-local

(2)通过PowerShell设置

# 1. 永久设置用户环境变量
[Environment]::SetEnvironmentVariable("OLLAMA_API_KEY", "ollama-local", "User")

# 2. 让当前终端立即生效(不用重启)
$env:OLLAMA_API_KEY = "ollama-local"

# 3. 再次确认
echo $env:OLLAMA_API_KEY

2.验证环境变量是否配置成功

首先保证ollama正在运行

(1)在PowerShell中检查环境变量是否生效

echo $env:OLLAMA_API_KEY

若能够输出下图,则环境变量配置成功。否则重新设置环境变量

(2)测试 Ollama API 是否能被 OpenClaw 访问

在 PowerShell/CMD中   运行:

curl http://localhost:11434/api/tags

若能够输出类似下列图片,则OpenClaw能够连接Ollama模型


    若无输出,则需检查 Ollama 服务是否真的在 11434 端口运行。

      (3)验证 3:OpenClaw 的 Ollama 配置是否屏蔽了自动发现

      openclaw config get models.providers.ollama

      正常结果应只返回apiKey: "你设置的值"(只有 apiKey,无其他字段);若返回包含baseUrlmodelsmaxTokens等字段 —— 说明你显式配置了完整条目,自动发现被关闭了。

      我的返回结果如下

      说明我之前设置的apiKey要么没生效,要么设置方式有误,导致 OpenClaw 完全没识别到 Ollama 的基础配置。按以下步骤重新配置(复制粘贴即可)

      # 第一步:设置Ollama的apiKey(任意非空值即可,比如"local-ollama")
      openclaw config set models.providers.ollama.apiKey "local-ollama"
      
      # 第二步:手动指定Ollama的本地地址(确保和Ollama服务端口一致)
      openclaw config set models.providers.ollama.baseUrl "http://localhost:11434"
      
      # 第三步:验证配置是否生效(此时应该能返回配置,而不是"path not found")
      openclaw config get models.providers.ollama

      此时重新执行下列命令

      openclaw config get models.providers.ollama

      三、添加本地Ollama模型

      1.确认API是否正在运行

      curl http://localhost:11434/api/tags

      2.设置openclaw模型

      不建议在OpenClaw的json文件中直接修改,我们通过下列命令进行修改

      openclaw config

      模型路径:如果模型装在和openclaw同一台电脑上,则选择Local;如果不一致,则选择Remote。回车进入下一步

      这里选择Model,回车

      这里有2种选择方法,分别是选择Custom Providers和Ollama。这里建议选择Ollama

      (1)若选择ollama

      选择模型供应商,这里我们选择Ollama,回车

      将下列内容粘贴到Ollama base URL中

      http://127.0.0.1:11434/v1

      这里输入“http://127.0.0.1:11434/v1”

      这里选择模型,我们可以选择选择第1个,也可以选择第2个。若选择第一个则会自动跳转到Ollama的登陆界面,登陆后可以使用Ollama的云端模型,也可使用本地Ollama模型;若选择第二个,则会自动下载“glm-4.7-flash”模型

      glm-4.7-flash下载完后,会出现一大串的模型列表,如下图

      可以在这里选择需要的模型,按空格键选择,按回车键下载;还可以直接输入所需的模型,可以搜索你所需的模型。选择模型进行下载时会跳出一个cmd框,下载完成后在原窗口选择Continue,完成模型安装(如下图)

      然后打开openclaw网页端即可看到我们下载的模型

      然后即可使用本地大模型完成任务

      Logo

      AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

      更多推荐