目录

大家好,这篇是给纯新手的Ollama本地大模型部署教程,全程不用配复杂环境、不用懂代码,跟着点、跟着输命令就能在自己电脑上离线跑AI大模型,隐私安全、速度还快,适合想入门本地AI的朋友~

一、这篇文章能帮你解决什么?

二、Ollama是什么?

三、第一步:安装Ollama

四、第二步:下载并运行模型(核心!)

1. 常用命令先记牢

2. 推荐模型(32G内存Mac闭眼选)

3. 怎么对话?

五、第三步:让AI更听话——参数调整(新手友好版)

六、第四步:用API调用本地AI(简单示例)

七、第五步:在IDE里用本地AI写代码(超实用)

VSCode(插件安装)

JetBrains IDE(IDEA/PyCharm)

八、新手必看:避坑+最佳实践

九、总结


大家好,这篇是给纯新手的Ollama本地大模型部署教程,全程不用配复杂环境、不用懂代码,跟着点、跟着输命令就能在自己电脑上离线跑AI大模型,隐私安全、速度还快,适合想入门本地AI的朋友~

一、这篇文章能帮你解决什么?

  • 零基础在Mac安装Ollama,一条命令跑大模型

  • 不用云端、数据不上传,隐私更安全

  • 学会下载、运行、对话、调参

  • 把本地AI接到VSCode、IDEA里当编程助手

  • 给出32G内存Mac最优配置,不卡机、不闪退

二、Ollama是什么?

Ollama是专门简化本地大模型运行的工具,主打一个极简

  • 不用Python、不用CUDA,一条命令装模型

  • 对Mac M系列芯片深度优化,速度快一倍

  • 完全本地运行,离线可用、隐私安全

  • 自带模型库,通义千问、Llama、DeepSeek一键下载

  • 提供API,能对接各种软件

三、第一步:安装Ollama

  1. 打开官网:ollama.com

  2. 点Download下载Mac版.dmg

  3. 拖进Applications文件夹

  4. 打开软件,按提示安装命令行工具

  5. 终端验证:

ollama --version

显示版本号就成功!

四、第二步:下载并运行模型(核心!)

1. 常用命令先记牢

ollama serve # 手动启动服务(一般自动开)

ollama list # 查看已下模型

ollama ps # 查看正在跑的模型

访问 http://localhost:11434 看到“Ollama is running”就对了。

2. 推荐模型(32G内存Mac)

ollama run mdq100/qwen3.5-flash:35b
  • 自动下载+自动启动

  • 350亿参数MoE架构,每次只激活30亿,省内存、速度快

  • 量化后约20G,32G内存流畅跑

3. 怎么对话?

  • 出现 >>> 就可以直接提问

  • 输 /bye 退出对话

  • 输 /? 看帮助命令

五、第三步:让AI更听话——参数调整(新手友好版)

不想每次都设参数,就做一个自己的专属模型

  1. 导出模板

ollama show --modelfile mdq100/qwen3.5-flash:35b > Modelfile
  1. 编辑文件,加这些常用参数

PARAMETER temperature 0.7 # 0.3更严谨,1.2更脑洞

PARAMETER num_ctx 8192 # 记忆长度

PARAMETER num_predict 2000 # 最长回答

PARAMETER top_p 0.9 SYSTEM "你是专业编程助手,回答简洁、给代码示例"
  1. 创建自定义模型

ollama create my-qwen -f Modelfile
  1. 运行你的专属模型

ollama run my-qwen

六、第四步:用API调用本地AI(简单示例)

Ollama自带API,Python/Java/Shell都能调

# 对话接口示例
curl http://localhost:11434/api/chat -d '{
  "model": "mdq100/qwen3.5-flash:35b",
  "messages": [{"role":"user","content":"你好"}]
}'

也能兼容OpenAI格式,直接替换base_url就行。

七、第五步:在IDE里用本地AI写代码(超实用)

VSCode(插件安装)

  1. 装Continue插件

  2. 改配置文件config.json

models:
  - name: Qwen3.5-Flash-35B
    provider: ollama
    model: mdq100/qwen3.5-flash:35b
    apiBase: http://localhost:11434

  1. 重启VSCode,侧边栏直接对话、改代码、补全

JetBrains IDE(IDEA/PyCharm)

  • 装Devoxx Genie插件,配置Ollama地址和模型名

八、新手必看:避坑+最佳实践

  1. 32G内存最优:跑35B Q4量化版本最稳

  2. 必开优化:

export OLLAMA_FLASH_ATTENTION=1
export OLLAMA_KV_CACHE_TYPE=q8_0
export OLLAMA_KEEP_ALIVE=30m

九、总结

这篇全程小白视角,把Ollama从安装→跑模型→调参→IDE集成讲透了,不用懂复杂原理,照着做就能拥有自己的离线本地大模型,学习、编程、日常问答都能用,还不用担心隐私泄露~

适合人群:Mac用户、AI新手、不想用云端AI的开发者、学生党

建议收藏,跟着一步步操作,一次成功,欢迎互相学习交流!

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐