关键词:Ollama教程、本地AI部署、WorkBuddy自定义模型、免费大模型、数据隐私保护

📌 为什么选择Ollama?

还在为AI API收费发愁?Ollama让你在自己的电脑上免费运行Llama 3、Qwen、Gemma等顶级大模型!

💡 核心优势

4保存文件后,完全退出WorkBuddy并重新启动

5在WorkBuddy设置页面的模型列表中,选择刚添加的Ollama模型

6开始聊天,享受免费本地AI!

🔧 第四步:常见问题与排查

Q1:连接失败,提示 "Connection refused"

原因:Ollama服务未启动。

解决:在终端运行 ollama serve 启动服务(Windows会自动后台运行,一般无需手动启动)。

Q2:模型下载慢或失败

原因:默认源在国外,速度慢。

解决:配置国内镜像源。编辑 %USERPROFILE%\.ollama\config.json

{
  "registry": "https://mirror.nju.edu.cn/ollama"
}

Q3:推理速度很慢

Q4:WorkBuddy里模型列表不刷新

WorkBuddy启动后会缓存配置,请完全退出并重新启动WorkBuddy。

📋 快速回顾

🚀 进阶建议

本地AI适合:

但注意:

🎯 总结

Ollama + WorkBuddy = 免费、隐私、可控的本地AI工作流。对于日常办公、文档处理、代码辅助,7B/8B模型已经够用。如果你追求顶级效果,可以保留硅基流动的云端模型作为备选。双管齐下,效果更佳!

  • 完全免费:无API调用费用,模型本地运行
  • 数据隐私:数据不出本地,适合敏感场景
  • 离线可用:下载模型后无需网络
  • WorkBuddy集成:通过本地API无缝对接

    📦 第一步:安装Ollama

    1访问官网下载:ollama.com

    2选择对应系统版本:

  • Windows:直接下载安装包(.exe)
  • macOS:Homebrew 或 dmg 安装
  • Linux:curl | sh 一键安装
  • 看到版本号即安装成功 ✅

    3安装完成后,打开终端验证:

  • ollama --version

    📥 第二步:下载并运行模型

    Ollama支持多种模型,推荐这几个平衡性能与效果:

  • 模型 大小 特点
    llama3:8b 约 4.7 GB Meta官方,通用性强
    qwen:7b 约 4.5 GB 阿里通义千问,中文优化
    mistral:7b 约 4.1 GB 速度快,推理能力强

    1拉取模型(以Llama3 8B为例):

    ollama pull llama3:8b

    2运行模型测试:

    ollama run llama3:8b

    输入 "你好" 看到回复即成功 ✅

    3按 Ctrl+D 退出交互模式


  • ⚠️ 注意
  • 模型文件较大(4-7GB),首次下载需要较长时间
  • 确保硬盘有足够空间(至少10GB)
  • 建议使用SSD以获得更好的推理速度

  • 🔌 第三步:配置WorkBuddy连接本地Ollama

    WorkBuddy支持自定义模型,只需修改配置文件即可。

    3.1 打开配置文件

    配置文件路径:

    %USERPROFILE%\.workbuddy\models.json

    如果文件不存在,新建一个。

    3.2 写入Ollama模型配置

    以下是一个完整配置示例(支持Llama3、Qwen两个模型):

    {
      "models": [
        {
          "id": "llama3:8b",
          "name": "Llama3 8B(本地免费)",
          "vendor": "OpenAI",
          "url": "http://localhost:11434/v1/chat/completions",
          "apiKey": "ollama",
          "maxInputTokens": 8192,
          "maxOutputTokens": 4096
        },
        {
          "id": "qwen:7b",
          "name": "Qwen 7B(阿里通义)",
          "vendor": "OpenAI",
          "url": "http://localhost:11434/v1/chat/completions",
          "apiKey": "ollama",
          "maxInputTokens": 8192,
          "maxOutputTokens": 4096
        }
      ],
      "availableModels": [
        "llama3:8b",
        "qwen:7b"
      ]
    }

    3.3 配置字段说明

  • id:Ollama模型名称,必须与ollama run使用的名称一致
  • name:WorkBuddy界面显示的名称
  • vendor:固定填"OpenAI"(兼容性需要)
  • url:Ollama本地API地址,固定http://localhost:11434/v1/chat/completions
  • apiKey:Ollama不需要真实API Key,填"ollama"即可
  • maxInputTokens:上下文长度,建议8192
  • maxOutputTokens:最大输出长度,建议4096
  • 检查是否使用SSD硬盘
  • 关闭其他占用GPU的程序
  • 使用更小的模型(如mistral:7b
  • ✅ 安装Ollama并下载模型(如llama3:8b)
  • 敏感数据场景(法律文书、内部资料)
  • 离线环境(无网络或网络受限)
  • 高频使用(无API调用限制)
  • 推理速度受硬件限制(建议RTX 3060以上)
  • 模型效果可能弱于云端顶级模型(如GPT-4、Claude)
  • 运行多个模型会占用大量内存
Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐