本地免费AI!Ollama部署与WorkBuddy对接全教程
关键词:Ollama教程、本地AI部署、WorkBuddy自定义模型、免费大模型、数据隐私保护
📌 为什么选择Ollama?
还在为AI API收费发愁?Ollama让你在自己的电脑上免费运行Llama 3、Qwen、Gemma等顶级大模型!
💡 核心优势
4保存文件后,完全退出WorkBuddy并重新启动
5在WorkBuddy设置页面的模型列表中,选择刚添加的Ollama模型
6开始聊天,享受免费本地AI!
🔧 第四步:常见问题与排查
Q1:连接失败,提示 "Connection refused"
原因:Ollama服务未启动。
解决:在终端运行 ollama serve 启动服务(Windows会自动后台运行,一般无需手动启动)。
Q2:模型下载慢或失败
原因:默认源在国外,速度慢。
解决:配置国内镜像源。编辑 %USERPROFILE%\.ollama\config.json:
{
"registry": "https://mirror.nju.edu.cn/ollama"
}
Q3:推理速度很慢
Q4:WorkBuddy里模型列表不刷新
WorkBuddy启动后会缓存配置,请完全退出并重新启动WorkBuddy。
📋 快速回顾
🚀 进阶建议
本地AI适合:
但注意:
🎯 总结
Ollama + WorkBuddy = 免费、隐私、可控的本地AI工作流。对于日常办公、文档处理、代码辅助,7B/8B模型已经够用。如果你追求顶级效果,可以保留硅基流动的云端模型作为备选。双管齐下,效果更佳!
- 完全免费:无API调用费用,模型本地运行
- 数据隐私:数据不出本地,适合敏感场景
- 离线可用:下载模型后无需网络
- WorkBuddy集成:通过本地API无缝对接
📦 第一步:安装Ollama
1访问官网下载:ollama.com
2选择对应系统版本:
- Windows:直接下载安装包(.exe)
- macOS:Homebrew 或 dmg 安装
- Linux:curl | sh 一键安装
-
看到版本号即安装成功 ✅
3安装完成后,打开终端验证:
-
ollama --version
📥 第二步:下载并运行模型
Ollama支持多种模型,推荐这几个平衡性能与效果:
-
模型 大小 特点 llama3:8b约 4.7 GB Meta官方,通用性强 qwen:7b约 4.5 GB 阿里通义千问,中文优化 mistral:7b约 4.1 GB 速度快,推理能力强
1拉取模型(以Llama3 8B为例):
ollama pull llama3:8b2运行模型测试:
ollama run llama3:8b输入 "你好" 看到回复即成功 ✅
3按
Ctrl+D退出交互模式 -
⚠️ 注意 - 模型文件较大(4-7GB),首次下载需要较长时间
- 确保硬盘有足够空间(至少10GB)
- 建议使用SSD以获得更好的推理速度
-
🔌 第三步:配置WorkBuddy连接本地Ollama
WorkBuddy支持自定义模型,只需修改配置文件即可。
3.1 打开配置文件
配置文件路径:
%USERPROFILE%\.workbuddy\models.json如果文件不存在,新建一个。
3.2 写入Ollama模型配置
以下是一个完整配置示例(支持Llama3、Qwen两个模型):
{ "models": [ { "id": "llama3:8b", "name": "Llama3 8B(本地免费)", "vendor": "OpenAI", "url": "http://localhost:11434/v1/chat/completions", "apiKey": "ollama", "maxInputTokens": 8192, "maxOutputTokens": 4096 }, { "id": "qwen:7b", "name": "Qwen 7B(阿里通义)", "vendor": "OpenAI", "url": "http://localhost:11434/v1/chat/completions", "apiKey": "ollama", "maxInputTokens": 8192, "maxOutputTokens": 4096 } ], "availableModels": [ "llama3:8b", "qwen:7b" ] }3.3 配置字段说明
id:Ollama模型名称,必须与ollama run使用的名称一致name:WorkBuddy界面显示的名称vendor:固定填"OpenAI"(兼容性需要)url:Ollama本地API地址,固定http://localhost:11434/v1/chat/completionsapiKey:Ollama不需要真实API Key,填"ollama"即可maxInputTokens:上下文长度,建议8192maxOutputTokens:最大输出长度,建议4096- 检查是否使用SSD硬盘
- 关闭其他占用GPU的程序
- 使用更小的模型(如
mistral:7b) - ✅ 安装Ollama并下载模型(如llama3:8b)
- 敏感数据场景(法律文书、内部资料)
- 离线环境(无网络或网络受限)
- 高频使用(无API调用限制)
- 推理速度受硬件限制(建议RTX 3060以上)
- 模型效果可能弱于云端顶级模型(如GPT-4、Claude)
- 运行多个模型会占用大量内存
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐
所有评论(0)