OpenClaw人人养虾:本地模型
Gateway 支持集成本地运行的 LLM(大语言模型),实现离线推理、数据不出境和低延迟响应。
为什么使用本地模型
| 优势 | 说明 |
|---|---|
| 数据隐私 | 所有数据在本地处理,不经过第三方 |
| 离线可用 | 无需互联网连接 |
| 低延迟 | 无网络往返延迟 |
| 零成本 | 无 API 调用费用(仅硬件成本) |
| 合规 | 满足数据不出境等合规要求 |
混合模式
本地模型可以与云端模型共存。例如日常开发使用本地模型(零成本),复杂任务使用云端模型(高质量)。
Ollama 集成
Ollama 是最简单的本地模型运行方案。
安装 Ollama
macOSLinuxWindows
brew install ollama
下载模型
# 下载模型
ollama pull llama3
ollama pull codellama
ollama pull qwen2
# 查看已下载的模型
ollama list
配置 Gateway
{
"channels": [
{
"name": "local-ollama",
"provider": "ollama",
"baseUrl": "http://localhost:11434",
"models": ["llama3", "codellama", "qwen2"]
}
],
"models": {
"routing": {
"llama3": "local-ollama",
"codellama": "local-ollama"
}
}
}
# 启动 Ollama 服务
ollama serve
# 启动 Gateway
openclaw gateway
vLLM 集成
vLLM 提供高性能推理引擎,适合 GPU 服务器部署。
安装 vLLM
pip install vllm
启动 vLLM 服务
# 启动 OpenAI 兼容 API
python -m vllm.entrypoints.openai.api_server \
--model meta-llama/Meta-Llama-3-8B-Instruct \
--port 8000
配置 Gateway
{
"channels": [
{
"name": "local-vllm",
"provider": "openai", // vLLM 兼容 OpenAI API
"baseUrl": "http://localhost:8000/v1",
"apiKey": "not-needed", // vLLM 本地不需要 API Key
"models": ["meta-llama/Meta-Llama-3-8B-Instruct"]
}
]
}
OpenAI 兼容
vLLM 提供 OpenAI 兼容的 API 接口,因此在 Gateway 中将其配置为 "provider": "openai" 并指定本地 baseUrl 即可。
硬件要求
内存需求估算
| 模型大小 | RAM / VRAM 需求 | 适用硬件 |
|---|---|---|
| 1B-3B | 2-4 GB | 笔记本/轻量服务器 |
| 7B-8B | 4-8 GB | 消费级 GPU / Apple Silicon |
| 13B | 8-16 GB | 中端 GPU |
| 34B | 20-40 GB | 高端 GPU |
| 70B | 40-80 GB | 多 GPU 或 A100 |
推荐配置
入门级性能级服务器级
CPU: Apple M1/M2 或 Intel i7+
RAM: 16 GB+
GPU: 不需要(CPU 推理)
推荐模型: llama3 (8B), qwen2 (7B)
性能优化
Ollama 性能调优
# 设置 GPU 层数(越高越快,但需要更多 VRAM)
OLLAMA_NUM_GPU=999 ollama serve
# 设置并发数
OLLAMA_MAX_LOADED_MODELS=2 ollama serve
Gateway 侧优化
{
"channels": [
{
"name": "local-ollama",
"provider": "ollama",
"baseUrl": "http://localhost:11434",
"maxConcurrency": 2, // 本地模型并发通常受限
"timeout": 300000 // 本地推理可能较慢,增加超时
}
]
}
并发限制
本地模型的并发能力受硬件限制。建议 maxConcurrency 不超过 GPU 数量。过多并发会导致内存溢出(OOM)。
混合路由策略
本地模型 + 云端模型的混合配置:
{
"channels": [
{
"name": "local",
"provider": "ollama",
"baseUrl": "http://localhost:11434",
"models": ["llama3", "codellama"]
},
{
"name": "cloud",
"provider": "openai",
"apiKey": "${OPENAI_API_KEY}",
"models": ["gpt-4o"]
}
],
"models": {
"default": "llama3", // 默认使用本地模型
"fallback": ["gpt-4o"] // 本地不可用时回退到云端
}
}
🇨🇳 本地部署避免数据出境
对于中国大陆用户,使用本地模型可以确保数据不出境,满足数据安全合规要求:
{
"channels": [
{
"name": "local-qwen",
"provider": "ollama",
"baseUrl": "http://localhost:11434",
"models": ["qwen2", "qwen2.5-coder"]
},
{
"name": "local-chatglm",
"provider": "ollama",
"baseUrl": "http://localhost:11434",
"models": ["chatglm4"]
}
],
"models": {
"default": "qwen2"
}
}
国产模型推荐
- Qwen2 — 通义千问,综合能力优秀
- ChatGLM — 智谱 AI,中文对话能力强
- DeepSeek — 深度求索,代码能力突出
故障排查
| 问题 | 排查步骤 |
|---|---|
| 连接失败 | 确认 Ollama/vLLM 服务已启动 |
| 响应很慢 | 检查 GPU 使用率,考虑更小的模型 |
| OOM 崩溃 | 减小模型或增加 VRAM/RAM |
| 模型未找到 | ollama list 确认模型已下载 |
《DeepSeek高效数据分析:从数据清洗到行业案例》聚焦DeepSeek在数据分析领域的高效应用,是系统讲解其从数据处理到可视化全流程的实用指南。作者结合多年职场实战经验,不仅深入拆解DeepSeek数据分析的核心功能——涵盖数据采集、清洗、预处理、探索分析、建模(回归、聚类、时间序列等)及模型评估,更通过金融量化数据分析、电商平台数据分析等真实行业案例,搭配报告撰写技巧,提供独到见解与落地建议。助力职场人在激烈竞争中凭借先进技能突破瓶颈,实现职业进阶,开启发展新篇。

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)