背景

最近openclaw很火,就来体验一下,有人刚开始部署后可能很多人就直接上场景测试了,会觉得这不就是一个很贵的模型聊天工具吗?是的,刚开始我体验下来也是,后来发现还是有很多东西需要自己去慢慢了解的,去配置的,所以才叫养虾嘛,不要着急慢慢来吧。记录一下历程。

DAY1内容

主要是安装openclaw,配置了一些模型,重点是模型的配置,因为都是白嫖的,所以需要折腾一下。配置了硅基流动和ollama。后面会写具体的配置。
我的电脑环境是Windows11

1.简单介绍下openclaw

是什么

本质是一个AI 智能体框架(执行引擎),不自带大模型,可接入 GPT、Claude、Llama、豆包等任意大模型当 “大脑”。
核心能力有:
本地部署:数据全在你设备,不上传第三方,隐私可控。
系统级执行:直接操作电脑 —— 文件管理、浏览器自动化、代码运行、设备控制。
多渠道交互:通过 Telegram、Discord、飞书等聊天软件发指令。
技能化扩展:像装 App 一样安装 / 卸载 Skill(技能),实现定制化能力。

OpenClaw = 自选大模型 + 本地执行引擎 + 技能生态 + 持久记忆。

为什么叫龙虾

Claw =爪子、螯,是龙虾最标志性的身体部位。
以前叫ClawdBot、Moltbot,都和 “爪 / 螯” 相关,他能干活,有执行力跟这个龙虾也有点关系吧

与普通对话大模型的区别

openClaw:可以动手完成任务。
普通对话大模型:例如豆包等只能回答问题、生成内容。

对比维度 OpenClaw 对话大模型(如豆包)
核心定位 AI 执行框架/智能体(执行者) 对话大模型/问答助手(思考者)
执行能力 直接操作电脑:文件、浏览器、代码、设备 仅输出文字/方案,无法触碰你的设备
运行方式 本地部署,数据自托管,断网可用 云端服务,必须联网,数据上传厂商服务器
交互模式 目标驱动:给目标→自主拆步骤→执行→反馈 被动应答:你问我答,单次对话为主
记忆与状态 持久记忆,记住偏好、历史任务,跨会话可用 短期记忆,关闭会话后历史丢失
扩展方式 安装/卸载 Skill(技能),高度定制 固定能力,由厂商更新,用户无法自定义执行逻辑
数据隐私 全本地存储,隐私完全自主可控 依赖厂商云端存储,隐私由服务商政策决定
适用场景 自动化、批量任务、系统操作、数字助理 问答、写作、翻译、知识查询、创意生成
一句话总结 动口又动手,直接帮你做完整个任务 动口不动手,给你答案和方法,需你手动执行

2.安装nodejs

为什么安装:OpenClaw是用JavaScript这门编程语言写的。但你的电脑原生不认识JavaScript,Node.js就是这个翻译官,它把JavaScript"翻译"成你的电脑听得懂的机器语言,让OpenClaw能在你的电脑上跑起来。

版本要求:Node.js >= 22。

下载地址:https://nodejs.org/en/download
在这里插入图片描述

下载安装后,按 Win + R,输入cmd,再输入命令验证是否安装成功和查看版本号:node -v

2.安装git

为什么安装git: OpenClaw 是开源项目,代码、依赖的技能 / 组件都托管在 Git 代码仓库(如 GitHub/GitLab),Git 是获取更新这些资源的核心工具
下载地址:Git-scm.com/install/windows
验证命令:git –version

在这里插入图片描述

3. 安装openclaw

官网地址:https://openclaw.ai/
这里有写怎么装
在这里插入图片描述

直接Win+R 输入cmd,然后输入下面这个就可以
npm i -g openclaw

正常的就要进入到下一步了,但是我安装的时候会报错。说什么npm error
然后我就换了powershell的方式安装

直接Win+R 输入powershell,然后输入:iwr -useb https://openclaw.ai/install.ps1 | iex
就开始自己下载安装了
如果没权限先执行下这个再执行上面的:Set-ExecutionPolicy -ScopeCurrentUser -ExecutionPolicy RemoteSigned

安装后验证是否安装成功可以输入这个命令查看:openclaw --version

**备注:**如果还是报错的话可以去官网搜一下 Visual Studio Build Tools,下载安装的时候选吧这个安装一下:使用 C++ 的桌面开发"工作负载
安装后再重试一下powershell安装

4. 初始化配置

输入openclaw onboard
开始配置刚开始选接受风险
后面的按照自己需求选择,看不懂的可以翻译。
我这里基本上都是默认配置,模型渠道技能这些都先选择跳过了。后面自己配置。

5.启动openclaw的网关

网关启动后才可以通过浏览器访问
启动命令:openclaw gateway

6.访问OPENCLAW

打开浏览器输入:
http://127.0.0.1:18789/chat?session=main

如果第一次如果没有token需要到配置文件中找到tockn,然后拼接上去:token=XXX
例如:http://127.0.0.1:18789/chat?token=XXX

token如何获取,再启动的时候会显示根目录,在根目录下有个文件:openclaw.json
打开这个文件,然后搜索token就行
在这里插入图片描述
打开后长这样:
在这里插入图片描述

7.配置大模型

在根目录打开上面说的这个文件:openclaw.json
然后把下面这个粘贴进去,如果有model就替换,没有这一段就直接粘贴进去就行

几个重要的参数说明:
硅基流动的sk获取地址是:https://cloud.siliconflow.cn/me/account/ak
如果没有这个平台的账号,可以注册一个,为什么使用这个平台是因为他送了很多的优惠券,对我们体验来说是够用的了。
注册地址:https://cloud.siliconflow.cn/i/pfXZwMML

这里的providers里面可以写很多模型,例如下面的配置文件我写了siliconflow就是硅基流动,写了ollama就支持本地部署的模型,如果你用的是其他平台就写其他平台的配置就行,例如qwen

配置说明
baseUrl=API调用地址
硅基流动的是:https://api.siliconflow.cn/v1
ollama的就写本地地址:http://127.0.0.1:11434/v1
apikey就到对应的平台申请就行,ollama的就写ollama-local
然后是下面的models,里面是一个数组,例如硅基流动平台支持很多个模型,就粘贴很多段{}配置就行,只用替换里面的模型名字和上下文大小就可以。

还有个重要的点是除了在models配置,还要配置下面的agents才能注册成功,让他生效。
参数1:
“defaults”: {
“model”: {
“primary”: “siliconflow/Pro/MiniMaxAI/MiniMax-M2.5”
},
这个是默认模型,后续如果要替换默认模型,修改这个重启就行
因为是硅基流动平台下的minimax所以类似是一个目录,根目录必须写 siliconflow/才行,另外模型名称要和上面的 model数组中每个模型的ID得匹配上。
参数2:agent中的模型,要把上面的模型ID和目录都粘贴下来才行。参考下面配置
“models”: {
“ollama/qwen3.5:9b”: {},
“siliconflow/deepseek-ai/DeepSeek-V3”: {
“alias”: “DeepSeek-V3”
},

,
  "models": {
    "providers": {
      "siliconflow": {
        "baseUrl": "https://api.siliconflow.cn/v1",
        "apiKey": "你的硅基流动平台的sk",
        "api": "openai-completions",
        "models": [
          {
            "id": "deepseek-ai/DeepSeek-V3",
            "name": "DeepSeek-V3",
            "api": "openai-completions",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 131072,
            "maxTokens": 32768
          },
          {
            "id": "Qwen/Qwen2.5-72B-Instruct",
            "name": "Qwen2.5-72B-Instruct",
            "api": "openai-completions",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 32768,
            "maxTokens": 8192
          },
          {
            "id": "meta-llama/Llama-3.3-70B-Instruct",
            "name": "Llama-3.3-70B-Instruct",
            "api": "openai-completions",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 131072,
            "maxTokens": 32768
          },
          {
            "id": "deepseek-ai/DeepSeek-V3.2",
            "name": "DeepSeek-V3.2",
            "api": "openai-completions",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 131072,
            "maxTokens": 32768
          },
          {
            "id": "deepseek-ai/DeepSeek-R1-Distill-Qwen-32B",
            "name": "DeepSeek-R1-Distill-Qwen-32B",
            "api": "openai-completions",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 32768,
            "maxTokens": 8192
          },
          {
            "id": "deepseek-ai/deepseek-vl2",
            "name": "deepseek-vl2",
            "api": "openai-completions",
            "reasoning": false,
            "input": [
              "text",
              "image"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 65536,
            "maxTokens": 16384
          },
          {
            "id": "Qwen/Qwen3.5-122B-A10B",
            "name": "Qwen3.5-122B-A10B",
            "api": "openai-completions",
            "reasoning": false,
            "input": [
              "text",
              "image"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 131072,
            "maxTokens": 16384
          },
          {
            "id": "Pro/MiniMaxAI/MiniMax-M2.5",
            "name": "MiniMax-M2.5",
            "api": "openai-completions",
            "reasoning": false,
            "input": [
              "text",
              "image"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 131072,
            "maxTokens": 16384
          }
        ]
      },
      "ollama": {
        "baseUrl": "http://127.0.0.1:11434/v1",
        "apiKey": "ollama-local",
        "api": "openai-completions",
        "models": [
          {
            "id": "qwen3.5:9b",
            "name": "qwen3.5:9b",
            "reasoning": true,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 32768,
            "maxTokens": 327680
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "siliconflow/Pro/MiniMaxAI/MiniMax-M2.5"
      },
      "models": {
        "ollama/qwen3.5:9b": {},
        "siliconflow/deepseek-ai/DeepSeek-V3": {
          "alias": "DeepSeek-V3"
        },
        "siliconflow/Qwen/Qwen2.5-72B-Instruct": {
          "alias": "Qwen2.5-72B"
        },
        "siliconflow/meta-llama/Llama-3.3-70B-Instruct": {
          "alias": "Llama-3.3-70B"
        },
        "siliconflow/deepseek-ai/DeepSeek-V3.2": {
          "alias": "DeepSeek-V3.2"
        },
        "siliconflow/deepseek-ai/DeepSeek-R1-Distill-Qwen-32B": {
          "alias": "DeepSeek-R1-Distill-Qwen-32B"
        },
        "siliconflow/Qwen/Qwen3.5-122B-A10B": {
          "alias": "Qwen3.5-122B-A10B"
        },
        "siliconflow/Pro/MiniMaxAI/MiniMax-M2.5": {
          "alias": "MiniMax-M2.5"
        }
      },
      "workspace": "C:\\Users\\pc\\.openclaw\\workspace",
      "compaction": {
        "mode": "safeguard"
      },
      "blockStreamingDefault": "on",
      "maxConcurrent": 4,
      "subagents": {
        "maxConcurrent": 8
      }
    },

如上配置好之后,关闭cmd窗口,重新输入openclaw gateway重启就行。

8.修改默认端口

防止被被人一扫描就扫描到,规避一些风险
还是修改上面的这个文件,修改port,修改后重启就行,不过访问的时候连接中的端口就得换一下了。换了端口之后,token也得在中心粘贴下然后访问

“gateway”: {
“port”: 2639,

9.修改默认权限

还是上面说的这个文件:openclaw.json

因为新版本为了安全考虑默认之有消息的权限。如果你是在一台没有什么重要数据上面安装,就修改tools,给openclaw full的工具权限,让他可以操作整个电脑。
如果你的电脑上有重要的东西怕弄坏,就配置下目录白名单之类的。

“tools”: {
“profile”: “full”,
“sessions”:{“visibility”:“all”}
},

同样的,每次配置修改完成之后,都要重启一下网关。就是关闭cmd,然后再打开生效。这里可能有个坑,就是你算然配置了这个但是还是提示没有操作权限,那就新开一个session,或者重启电脑啥的,可能是哪里没有更新成功。

10.验证结果

直接再窗口提问,如果可以正常回答就好了。
在这里插入图片描述

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐