Ubuntu系统配置OpenClaw并使用Ollama全教程
大家好~ 最近一直在折腾Ubuntu下的AI工具组合,OpenClaw的灵活扩展的能力搭配Ollama的本地大模型部署,简直是效率神器!很多新手在配置时会遇到依赖缺失、连接失败、权限不足等问题,今天就整理一篇完整实操博客,从环境准备、OpenClaw配置,到Ollama安装、两者联动使用,每一步都附详细命令和避坑说明,全程实操,新手跟着做就能一次成功。
先简单科普下核心工具:OpenClaw是一款轻量级的AI工具框架,支持对接多种大模型(本地/在线),可通过技能扩展实现各类自动化操作;Ollama则是一款极简的本地大模型部署工具,支持Llama 3、Qwen、Gemini等主流模型,无需复杂配置,一键部署本地大模型,摆脱网络依赖。本文基于Ubuntu 22.04 LTS(最稳定版本,新手优先选择),全程使用终端操作,步骤清晰,无多余冗余。
一、前期准备(必做,避免后续踩坑)
配置前需确保Ubuntu系统正常联网,同时更新系统依赖,避免因依赖版本过低导致配置失败。另外,建议使用普通用户操作(避免root用户带来的权限风险),若需root权限,在命令前加sudo即可。
1.1 系统环境检查与更新
首先打开Ubuntu终端(快捷键Ctrl+Alt+T),执行以下命令,更新系统软件包列表,确保所有依赖都是最新版本:
# 更新软件包列表
sudo apt update
# 升级已安装的软件包(可选,建议执行,避免版本兼容问题)
sudo apt upgrade -y
执行完成后,若出现“0 upgraded, 0 newly installed, 0 to remove and 0 not upgraded”,说明系统已处于最新状态;若有升级,耐心等待升级完成即可。
1.2 安装必备依赖
OpenClaw和Ollama运行需要依赖一些基础工具(git、curl、python等),执行以下命令一键安装,避免后续缺失依赖报错:
# 安装git(用于拉取OpenClaw源码)、curl(用于下载Ollama)
sudo apt install git curl -y
# 安装python3及pip(OpenClaw部分功能依赖python)
sudo apt install python3 python3-pip -y
# 验证安装是否成功
git --version
curl --version
python3 --version
pip3 --version
若所有命令都能正常输出版本号,说明必备依赖安装成功;若提示“command not found”,重新执行安装命令即可。
避坑提醒:Ubuntu 22.04默认自带python3,无需手动安装python2,若强行安装python2,可能导致环境冲突,建议全程使用python3。
二、安装并配置OpenClaw(核心步骤)
OpenClaw目前主要通过源码编译安装(Ubuntu下最稳定的安装方式),步骤分为“拉取源码→安装依赖→配置参数→启动服务”,全程终端操作,无需图形化界面。
2.1 拉取OpenClaw源码
首先创建一个工作目录(建议放在用户目录下,方便管理),然后通过git拉取OpenClaw源码,命令如下:
# 进入用户目录(默认路径,可自行修改)
cd ~
# 创建OpenClaw工作目录
mkdir openclaw-work && cd openclaw-work
# 拉取OpenClaw源码(国内用户建议使用Gitee镜像,速度更快)
git clone https://gitee.com/openclaw/openclaw.git
# 进入源码目录
cd openclaw
拉取过程中,若出现“fatal: unable to access...”,说明网络连接问题,可切换网络,或重新执行git clone命令。拉取完成后,源码目录下会出现相关配置文件和源码文件。
2.2 安装OpenClaw依赖
进入OpenClaw源码目录后,执行以下命令,安装OpenClaw运行所需的Python依赖和系统依赖:
# 安装Python依赖(通过requirements.txt一键安装)
pip3 install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
# 安装系统依赖(用于支持OpenClaw的扩展功能)
sudo apt install libssl-dev libffi-dev -y
说明:添加清华源(-i https://pypi.tuna.tsinghua.edu.cn/simple)是为了加快Python依赖的下载速度,避免因国外源卡顿导致安装失败。若安装过程中提示“permission denied”,在命令前加sudo即可。
2.3 配置OpenClaw(关键步骤)
OpenClaw的核心配置文件是config.yaml,我们需要修改该文件,配置服务端口、模型对接方式等参数,步骤如下:
-
打开配置文件(使用nano编辑器,新手友好,无需复杂操作):
nano config.yaml -
修改核心配置(重点修改以下3项,其他配置保持默认即可): 修改后的核心配置片段如下(可直接复制替换):
# 服务配置server:host: 0.0.0.0 # 允许外部访问,若仅本地使用,可改为127.0.0.1port: 8080 # 服务端口# 模型配置model:model_type: ollama # 对接Ollama模型ollama_url: http://localhost:11434 # Ollama默认地址default_model: llama3 # 默认使用的Ollama模型(后续安装Ollama后可修改)-
端口配置:将port改为8080(避免端口冲突,若8080已被占用,可改为其他端口,如8081);
-
模型对接方式:将model_type改为“ollama”(指定对接Ollama本地模型);
-
Ollama地址:将ollama_url改为“http://localhost:11434”(Ollama默认端口为11434,无需修改)。
-
-
保存并退出nano编辑器:按下Ctrl+O(保存),按下Enter确认,再按下Ctrl+X(退出)。
2.4 启动OpenClaw服务
配置完成后,执行以下命令启动OpenClaw服务,验证配置是否成功:
# 启动OpenClaw服务(前台启动,方便查看日志) python3 main.py
若终端输出“OpenClaw server started on http://0.0.0.0:8080”,说明OpenClaw服务启动成功;若出现报错,按以下方式排查:
-
报错“ModuleNotFoundError: No module named 'xxx'”:说明Python依赖未安装完整,重新执行pip3 install -r requirements.txt命令;
-
报错“Address already in use”:说明端口被占用,修改config.yaml中的port参数,重新启动;
-
报错“PermissionError: [Errno 13] Permission denied”:在命令前加sudo,重新启动。
温馨提示:前台启动服务后,终端不能关闭,若想后台启动(关闭终端后服务仍运行),执行以下命令:
nohup python3 main.py > openclaw.log 2>&1
日志会保存到openclaw.log文件中,后续排查问题可查看该文件。
三、安装并配置Ollama(本地大模型部署)
Ollama的安装非常简单,Ubuntu系统可通过官方脚本一键安装,无需复杂配置,安装完成后即可部署本地大模型,步骤如下。
3.1 一键安装Ollama
在终端中执行以下官方脚本,一键安装Ollama(国内用户可正常访问,无需科学上网):
curl -fsSL https://ollama.com/install.sh | sh
安装过程中,脚本会自动下载Ollama二进制文件,并配置环境变量,耐心等待1-2分钟(取决于网络速度)。若安装成功,终端会输出“Ollama installed successfully”。
验证安装是否成功:执行以下命令,查看Ollama版本:
ollama --version
若输出版本号(如“ollama version 0.1.28”),说明安装成功。
3.2 启动Ollama服务并拉取模型
Ollama安装完成后,默认会自动启动服务(端口11434),无需手动启动,直接拉取所需的大模型即可。这里以拉取Llama 3(轻量、易用,适合新手)为例,命令如下:
# 拉取Llama 3 8B模型(轻量版,占用内存较小,适合普通电脑)
ollama pull llama3:8b
# 若想拉取其他模型,替换模型名称即可,例如:
# 拉取Qwen 7B模型:ollama pull qwen:7b
# 拉取Gemini Pro模型:ollama pull gemini:pro
拉取模型过程中,会下载模型文件(大小约4-8GB,取决于模型版本),耐心等待下载完成。若下载中断,重新执行pull命令即可,Ollama会自动续传。
验证模型是否拉取成功:执行以下命令,查看已拉取的模型:
ollama list
若输出llama3:8b(或其他已拉取的模型),说明模型拉取成功。
避坑提醒:拉取模型时,确保电脑内存≥8GB(8B模型推荐内存8GB以上),否则模型运行会卡顿或崩溃;若内存不足,可拉取更小的模型(如llama3:7b-chat-q4_0)。
3.3 测试Ollama本地模型
模型拉取完成后,可直接在终端中测试模型是否能正常运行,命令如下:
# 启动Ollama交互模式,使用llama3模型 ollama run llama3
启动成功后,会出现“>>>”提示符,输入问题即可与模型交互,例如输入“介绍一下Ubuntu系统”,模型会自动输出回复。测试完成后,输入“/exit”即可退出交互模式。
四、OpenClaw联动Ollama(核心实操)
当OpenClaw和Ollama都启动成功后,即可实现两者联动——通过OpenClaw调用Ollama本地模型,实现自动化问答、技能扩展等功能,步骤如下。
4.1 确认服务状态
首先确认OpenClaw和Ollama服务都处于运行状态,命令如下:
# 查看Ollama服务状态
systemctl status ollama
# 查看OpenClaw服务(若后台启动,执行以下命令)
ps -ef | grep python3 | grep main.py
若Ollama服务显示“active (running)”,且能查到OpenClaw的进程,说明两者都正常运行;若Ollama服务未启动,执行“sudo systemctl start ollama”启动;若OpenClaw未启动,重新执行启动命令。
4.2 通过OpenClaw调用Ollama模型(两种方式)
方式1:网页端调用(简单直观,新手推荐)
-
打开Ubuntu自带的浏览器(或其他浏览器),输入地址:http://localhost:8080(OpenClaw默认端口);
-
进入OpenClaw网页端后,在左侧菜单栏选择“模型交互”,右侧选择“ollama”模型,输入问题(如“如何在Ubuntu中安装git”);
-
点击“发送”,等待1-2秒,即可看到Ollama模型的回复,说明联动成功。
方式2:终端命令调用(适合开发者)
通过curl命令调用OpenClaw的API,间接调用Ollama模型,命令如下:
curl -X POST http://localhost:8080/api/chat \
-H "Content-Type: application/json" \
-d '{"model": "llama3", "message": "如何配置OpenClaw对接Ollama"}'
执行命令后,终端会输出JSON格式的回复,其中“response”字段即为Ollama模型的回答,适合集成到其他脚本或程序中。
4.3 OpenClaw技能扩展(可选,进阶操作)
OpenClaw支持通过技能扩展实现更多功能(如自动生成代码、抓取网页内容等),我们可以安装官方技能,让Ollama模型的能力更强大,步骤如下:
# 进入OpenClaw技能目录
cd ~/openclaw-work/openclaw/skills
# 拉取官方技能库
git clone https://gitee.com/openclaw/openclaw-skills.git
# 重启OpenClaw服务,加载技能
# 若前台启动,先按Ctrl+C停止,再重新启动;若后台启动,执行以下命令:
ps -ef | grep python3 | grep main.py | awk '{print $2}' | xargs kill -9
nohup python3 main.py > openclaw.log 2>&1
重启完成后,打开OpenClaw网页端,在左侧“技能中心”即可看到已安装的技能,选择技能并输入指令,即可实现对应的自动化操作(如“使用代码生成技能,写一个Ubuntu终端快捷键脚本”)。
五、调试优化与常见问题解决
配置和使用过程中,难免会遇到一些问题,这里整理了最常见的问题及解决方案,还有优化建议,帮助大家快速排查问题,提升使用体验。
5.1 常见问题及解决方案
-
问题1:OpenClaw启动后,网页端无法访问? 解决方案:检查OpenClaw服务是否正常运行,若正常,查看config.yaml中host是否为0.0.0.0,同时关闭Ubuntu防火墙(sudo ufw disable),重新访问。
-
问题2:OpenClaw调用Ollama时,提示“连接失败”? 解决方案:检查Ollama服务是否正常运行(sudo systemctl status ollama),若未运行,启动Ollama服务;同时确认config.yaml中的ollama_url是否为http://localhost:11434,无误后重启OpenClaw。
-
问题3:Ollama拉取模型时,下载速度极慢? 解决方案:切换网络(如使用手机热点),或修改Ollama镜像源(国内用户可搜索“Ollama国内镜像”,按教程配置)。
-
问题4:模型运行时,电脑卡顿严重? 解决方案:关闭其他占用内存的程序,或拉取更小的模型(如q4量化版本),减少内存占用。
-
问题5:OpenClaw启动时,提示“python3: command not found”? 解决方案:重新安装python3(sudo apt install python3 -y),并确认python3的环境变量配置正确(执行echo $PATH,查看是否包含/usr/bin/python3)。
5.2 优化建议(提升使用体验)
-
设置服务开机自启:避免每次重启Ubuntu后手动启动OpenClaw和Ollama,执行以下命令设置开机自启:
-
# 设置Ollama开机自启(默认已设置,若未设置,执行以下命令) sudo systemctl enable ollama # 设置OpenClaw开机自启(创建systemd服务) sudo nano /etc/systemd/system/openclaw.service在打开的文件中输入以下内容,保存退出:[Unit] Description=OpenClaw Service After=network.target ollama.service [Service] User=your_username # 替换为你的Ubuntu用户名(如ubuntu) WorkingDirectory=/home/your_username/openclaw-work/openclaw ExecStart=/usr/bin/python3 main.py Restart=always [Install] WantedBy=multi-user.target然后执行以下命令,启用并启动服务:sudo systemctl daemon-reload sudo systemctl enable openclaw sudo systemctl start openclaw -
清理模型缓存:若拉取多个模型,占用大量磁盘空间,可执行“ollama rm 模型名称”删除不需要的模型,释放磁盘空间;
-
更新版本:定期更新OpenClaw和Ollama,获取最新功能和bug修复,命令如下:
# 更新OpenClaw cd ~/openclaw-work/openclaw git pull pip3 install -r requirements.txt --upgrade # 更新Ollama curl -fsSL https://ollama.com/install.sh | sh
六、总结与拓展
到这里,Ubuntu系统下OpenClaw配置与Ollama使用的全流程就结束了,从前期准备、依赖安装,到OpenClaw和Ollama的配置、联动使用,再到调试优化,每一步都详细讲解,新手跟着做,就能顺利完成配置,实现本地大模型的灵活调用。
OpenClaw和Ollama的组合非常灵活,除了基础的问答功能,还可以拓展更多实用场景:比如通过OpenClaw的技能,让Ollama自动生成代码、撰写文档、抓取网页信息;也可以将两者集成到自己的项目中,实现AI自动化功能。
最后,如果你在配置过程中遇到其他问题,欢迎在评论区留言,我会及时回复,帮助大家避坑。祝大家使用愉快,充分发挥AI工具的效率,提升工作和学习效率!
补充说明:本文基于Ubuntu 22.04 LTS版本,若你使用Ubuntu 20.04或其他版本,步骤基本一致,仅部分依赖安装命令略有差异,可根据系统提示调整即可。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)