第2章:Ollama本地部署大模型Qwen3
目录:SpringAI Alibaba
上一节:第1章:玩转阿里云百炼与云模型调试
本节:第2章:Ollama本地部署大模型Qwen3>
下一节:第3章:快速入门SpringAI Alibaba
第2章:Ollama本地部署大模型Qwen3
上一章,我们已经通过阿里云百炼把“大模型调用”这件事跑通了。
那接下来,一个很自然的问题就来了:
如果我不想每次都依赖云端接口,能不能把模型直接放到自己电脑上跑?
答案是,可以。而且现在这件事的门槛,已经比很多人想象中低得多。
对于刚入门大模型开发的人来说,本地部署最大的吸引力通常不是“极致性能”,而是另外几件更实在的事:
- 体验更直接,开箱就能试
- 不依赖外部接口,学习成本更低
- 适合做本地实验、提示词调试和原型验证
- 能更直观地理解“模型运行”到底是怎么回事
如果你想真正拥有一个“随时可用、就在自己机器上”的大模型环境,那么 Ollama 是一个非常好的起点。
这一章,我们就用 Ollama 把 Qwen3 跑起来。
先认识一下 Ollama
Ollama 是一个用于在本地运行、管理和分发大模型的开源工具。
你可以把它理解成“大模型世界里的轻量级运行器”。它把原本比较麻烦的模型下载、启动和调用过程做了很大程度的简化,让我们可以像执行一条普通命令一样,把模型拉下来并直接运行。
它最大的特点就是上手足够简单。
对于初学者来说,这一点非常重要。因为很多人并不是卡在“学不会模型原理”,而是卡在“环境太复杂、安装太折腾、还没开始就被劝退了”。而 Ollama 的价值,恰恰就在于把这些前置门槛尽量压低。
简单来说,Ollama 适合拿来做这些事:
- 在本地快速启动一个可交互的大模型
- 下载并管理不同规格的模型
- 用统一方式体验聊天、调试和后续集成
官方网站:
你可以先进入官网,了解一下它的整体定位和支持方式。

图1:Ollama官网首页
安装完成后,先做一个最小验证
安装完 Ollama 之后,第一件事不是急着下载模型,而是先确认它有没有真正安装成功。
最简单的方法,就是执行下面这条命令:
ollama --version
如果终端能够正常输出版本号,就说明本地运行环境已经准备好了。这个动作虽然简单,但很关键,因为它能帮我们先排除基础安装问题,避免后面把错误都归结到模型本身。
很多时候,调试效率高不高,不取决于你是不是懂很多高级概念,而取决于你会不会先把最基础的链路一步一步确认清楚。
第一个本地模型:Qwen3
环境确认没问题后,就可以开始拉取并运行模型了。
这次我们选择的是 qwen3:1.7b。对于入门体验来说,这类相对轻量的模型通常更友好:
- 下载和启动速度更快
- 对本地机器配置要求相对更低
- 更适合先建立完整的本地运行认知
在 Ollama 中,运行一个模型可以直接使用下面这条命令:
ollama run qwen3:1.7b
这条命令背后,实际上完成了两件事:
- 如果本地没有这个模型,Ollama 会先自动下载
- 下载完成后,会直接进入可交互的对话状态
这就是 Ollama 很适合新手的一点。你不需要先理解一大堆复杂参数,也不需要自己手动拼接繁琐流程,一条命令就能把“下载模型”和“启动模型”串起来。
跑起来之后,你会得到什么
当模型成功启动后,你就可以直接在终端里和它对话了。
这一步的意义,其实远不只是“我能聊天了”。
它更重要的价值在于,你第一次真正拥有了一个运行在本地设备上的大模型。这个模型不再只是网页上的某个黑盒服务,而是一个你可以亲自启动、亲自交互、亲自观察行为的本地能力模块。
这会给学习带来非常大的变化。因为从这一刻开始,你思考问题的方式会慢慢变成:
- 这个模型在我机器上是怎么跑起来的?
- 不同参数规格的模型有什么差异?
- 本地模型和云端模型在体验上有什么不同?
- 后面我能不能把它接到自己的程序里?
这些问题,才是我们真正进入大模型工程实践的开始。

图2:Ollama运行Qwen3的终端示例
为什么本地部署值得你亲手做一次
很多人会觉得,本地部署只是“极客玩法”,真正做应用还是直接调云端接口更方便。
这句话并不算错,但并不完整。
云端模型和本地模型,其实适合的是不同阶段、不同目标:
- 如果你追求更强能力、更稳定的线上服务,云端模型通常更合适
- 如果你想快速理解模型运行方式、做本地实验、降低试错门槛,本地部署非常有价值
尤其在学习阶段,本地部署最大的意义并不是替代云,而是帮你建立更完整的认知。
你会开始明白,大模型不是只有“调用接口”这一种使用方式。除了 API,它也可以作为一个真正运行在本地环境中的组件,被你控制、被你观察、被你整合进自己的工具链中。
写在最后
如果说上一章解决的是“我怎么调用一个大模型”,那么这一章解决的就是“我怎么在自己的电脑上真正跑起一个大模型”。
Ollama 把本地部署这件原本看起来有点门槛的事情,变成了一条相对平滑的上手路径。而 Qwen3,则给了我们一个很适合入门体验的本地模型选择。
当你亲手执行完 ollama run qwen3:1.7b,并在终端里看到模型开始响应时,你会对“大模型就在我本机上运行”这件事有一个非常直观的感受。
接下来,我们就不只是“会调用”,也不只是“会部署”,而是可以继续往更实战的方向推进:把本地模型、云端模型、提示词调试和应用开发真正串起来。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)