ollama v0.18.3 发布:VS Code 原生集成 + Agent 模式,本地 AI 开发体验全面革新



一、版本总览:Ollama v0.18.3,2026年3月26日正式上线
2026年3月26日,开源本地大模型管理工具Ollama正式发布v0.18.3版本,这是Ollama在AI开发工具集成领域的一次里程碑式升级。本次更新核心聚焦VS Code深度原生集成与Agent模式能力开放两大核心功能,同时完成多项底层优化与Bug修复,进一步强化了本地大模型在开发场景中的实用性与稳定性。
从版本更新数据来看,本次v0.18.3版本由8位贡献者共同参与,累计提交22次代码提交,涉及83个文件修改,覆盖从核心功能开发、文档更新到底层引擎优化的全流程,是一次功能与稳定性并重的全面升级。
二、核心功能一:Ollama原生启动VS Code,本地模型无缝融入开发环境
2.1 功能核心:一行命令打通Ollama与VS Code
Ollama v0.18.3最重磅的更新,是实现了Ollama直接启动VS Code的原生能力,开发者无需额外配置复杂的插件或中间件,仅需一行命令即可完成Ollama与VS Code的深度绑定,让本地大模型成为VS Code开发环境的原生组成部分。
启动命令极为简洁,在终端中输入以下任意一条命令即可:
ollama launch vscode
# 或
ollama launch code
执行命令后,Ollama会自动完成与VS Code的连接配置,无需手动修改VS Code设置或安装第三方扩展,即可在VS Code中直接调用本地部署的所有Ollama模型。
2.2 操作流程:三步在VS Code中使用Ollama模型
命令执行完成后,开发者可通过以下三步,在VS Code的Copilot Chat中无缝使用Ollama本地模型,实现AI辅助编码:
- 打开Copilot Chat:在VS Code中打开Copilot Chat界面,macOS系统使用快捷键
Ctrl+Cmd+I,Windows/Linux系统使用快捷键Ctrl+Alt+I; - 选择模型选择器:在Copilot Chat的输入框上方,找到并点击模型选择器(Model Picker);
- 选择Ollama模型:在模型选择器中点击Other models(其他模型)选项,即可在列表中找到所有本地部署的Ollama模型,选择后即可开始使用本地或云端模型进行编码辅助。
这一流程彻底简化了本地大模型与VS Code的集成步骤,此前开发者需手动安装Continue、Copilot Chat等扩展并配置模型地址,而Ollama v0.18.3通过原生集成,将这一过程压缩为一行命令+三步操作,大幅降低了本地AI开发的使用门槛。
2.3 功能价值:本地模型+VS Code,打造私有化AI开发环境
Ollama原生启动VS Code的核心价值,在于为开发者提供了私有化、离线化、可定制的AI开发环境:
- 数据安全:所有代码交互与模型推理均在本地完成,无需将代码上传至云端,彻底解决企业与个人开发者的代码隐私顾虑;
- 离线可用:无需依赖网络连接,即可在无网环境下使用本地模型进行代码生成、调试与优化,适配离线开发场景;
- 模型自由:支持所有Ollama兼容的本地模型(如Llama 3、Qwen、DeepSeek-Coder等),开发者可根据需求选择轻量级或高性能模型,无需受限于云端模型的选择范围;
- 无缝协同:与VS Code原生功能深度融合,支持代码补全、错误修复、文档生成等全场景开发辅助,无需在多个工具间切换。
三、核心功能二:Agent模式上线,Ollama化身VS Code智能开发助手
3.1 Agent模式定义:让Ollama具备自主执行开发任务的能力
Ollama v0.18.3正式开放Agent模式,这一功能让Ollama能够借助VS Code的Agent模式能力,自主执行命令、编辑文件、迭代代码,从单纯的“问答式AI助手”升级为“可行动的开发智能体”,大幅提升AI在开发流程中的自动化能力。
简单来说,Agent模式下的Ollama不再局限于“你问我答”,而是可以根据开发者的指令,直接操作VS Code完成一系列开发任务,例如运行测试、修复Bug、生成文档、修改代码等,实现开发流程的自动化与智能化。
3.2 实用指令:Agent模式下的高频开发指令示例
Agent模式支持开发者通过自然语言指令,让Ollama自主完成复杂开发任务,以下是本次更新中官方推荐的高频实用指令,覆盖测试、文档、代码生成三大核心场景:
- 测试相关指令:
- “Run the tests and fix any failures”(运行测试并修复所有失败用例):Ollama会自动运行项目测试,定位失败原因,直接修改代码修复问题;
- “Generate unit tests for this file”(为当前文件生成单元测试):自动分析当前文件的代码逻辑,生成覆盖核心功能的单元测试代码;
- 文档相关指令:
- “Update the README with the new API changes”(根据新的API变更更新README文档):自动识别项目API的更新内容,同步修改README文档,确保文档与代码一致;
- 代码迭代指令:
- 支持“优化当前函数性能”“重构代码结构”“添加注释”等自定义指令,Ollama会根据指令自主编辑代码文件,完成迭代优化。
3.3 功能优势:Agent模式重构本地AI开发流程
Agent模式的推出,彻底改变了本地大模型在开发中的角色,核心优势体现在三个方面:
- 任务自动化:将开发者从重复、繁琐的开发任务中解放,例如测试修复、文档更新、代码生成等,大幅提升开发效率;
- 上下文感知:基于VS Code的项目上下文,Ollama可精准理解项目结构、代码逻辑与开发需求,执行的操作更贴合实际开发场景;
- 全流程协同:从代码编写、测试到文档维护,Agent模式覆盖开发全流程,实现AI与开发工具的深度协同,打造“一站式”智能开发体验。
四、其他核心更新:底层优化+集成增强,全面提升Ollama稳定性
除了VS Code集成与Agent模式两大核心功能,Ollama v0.18.3还完成了多项底层优化与集成能力增强,覆盖工具调用解析、第三方集成、引擎修复、功能完善等多个维度,进一步夯实了Ollama的稳定性与兼容性。
4.1 工具调用优化:GLM解析器升级,提升工具调用稳定性
本次更新对GLM解析器进行了专项优化,重点提升了模型工具调用(Tool Calls)的解析能力与稳定性。GLM解析器是Ollama处理模型工具调用请求的核心组件,优化后可更精准地解析模型输出的工具调用指令,减少解析错误与格式异常,确保Agent模式下的命令执行、文件操作等功能稳定运行,为Agent模式的落地提供了底层支撑。
4.2 第三方集成增强:OpenClaw集成优化,完善网关检查逻辑
Ollama v0.18.3对OpenClaw集成进行了深度优化,重点改进了网关检查(Gateway Checks)的逻辑与稳定性。OpenClaw是Ollama的重要第三方集成组件,用于实现模型的联网搜索、外部服务调用等能力,本次优化后:
- 网关健康检查逻辑更健壮,可适配不同网络环境与部署场景;
- 修复了无守护进程安装时的网关检查冗余问题,减少不必要的系统资源消耗;
- 提升了OpenClaw与Ollama核心服务的协同效率,确保联网能力稳定可用。
4.3 底层引擎修复:MLX Runner多项修复,优化推理性能
针对MLX Runner(Ollama的核心推理引擎之一),本次更新修复了多项关键问题,同时优化了缓存机制与推理性能:
- 修复Slice(0, 0)返回异常:修复了MLX Runner中
Slice(0, 0)操作返回完整维度而非空维度的Bug,确保张量操作的准确性; - KV缓存共享优化:实现了KV缓存跨会话共享,对于具有公共前缀的对话会话,可复用已缓存的KV数据,大幅降低重复推理的内存消耗与时间成本;
- 缓存管理增强:支持纯Transformer缓存的部分匹配,优化缓存命中率;在缓存转储树中显示“上次使用时间”,方便开发者监控缓存状态;修复了双重取消固定(double unpin)导致的panic问题,提升引擎稳定性;
- 格式支持扩展:新增mxfp4、mxfp8、nvfp4等量化格式的导入支持,适配更多量化模型,提升本地推理的兼容性。
4.4 功能完善与Bug修复:覆盖桌面端、日志、CI等全场景
本次更新还完成了多项功能完善与Bug修复,覆盖桌面应用、日志系统、CI流程、交互界面等多个维度:
- 桌面应用修复:修复了OLLAMA_HOST配置为未指定地址时,桌面应用 stuck加载的问题,提升桌面端兼容性;
- 日志系统优化:新增调试请求日志开关,支持开启详细的请求日志记录,方便开发者排查问题;修复了MLX子进程日志死锁问题,确保日志输出稳定;
- 交互界面优化:TUI(终端交互界面)的模型选择器新增左箭头返回导航功能,提升终端操作的便捷性;
- CI流程修复:修复了Windows平台下CGO编译器错误,确保CI/CD流程在Windows环境下稳定运行;
- 配置优化:launch模块新增“模型未变更时跳过冗余配置写入”逻辑,减少不必要的磁盘IO,提升启动效率;
- API修复:修复了api/show模块中Copilot Chat的basename覆盖问题,确保模型信息展示准确。
4.5 文档更新:完善集成指南,覆盖OpenClaw、Claude Code等场景
为配合新功能上线,Ollama官方同步更新了文档内容,重点完善了第三方集成与使用指南:
- 更新Claude Code相关文档,新增Telegram集成指南,扩展Claude模型的使用场景;
- 新增Nemoclaw集成文档,完善OpenClaw生态的使用说明;
- 更新OpenClaw的Web搜索相关文档,明确联网能力的使用方法与配置细节。
五、版本更新明细:按时间线梳理所有提交内容
Ollama v0.18.3版本的代码提交覆盖2026年3月18日至3月25日,以下按时间线完整梳理所有提交内容,确保无遗漏:
5.1 3月18日提交
- 文档更新:更新Claude代码与OpenClaw的Web搜索相关内容;
- 配置优化:cmd/launch模块新增“模型未变更时跳过冗余配置写入”逻辑;
- MLX Runner修复:修复
Slice(0, 0)返回异常问题; - MLX Runner优化:实现KV缓存跨会话共享(公共前缀复用)。
5.2 3月19日提交
- 桌面应用修复:修复OLLAMA_HOST未指定时桌面应用加载卡住问题;
- 工具解析优化:parsers模块新增健壮的XML工具修复功能,提升工具调用稳定性。
5.3 3月20日提交
- 功能新增:新增调试请求日志开启功能;
- MLX修复:修复子进程日志死锁问题;
- MLX Runner修复:修复done通道值被第一个接收者消费的问题;
- OpenClaw优化:launch模块新增“无守护进程安装时跳过OpenClaw网关健康检查”逻辑;
- 文档更新:新增Nemoclaw集成文档。
5.4 3月23日提交
- MLX更新:同步更新MLX引擎至3月23日版本;
- 文档更新:更新Claude Code文档,新增Telegram集成指南。
5.5 3月24日提交
- MLX Runner优化:支持纯Transformer缓存的部分匹配;
- MLX Runner优化:缓存转储树中显示“上次使用时间”;
- MLX Runner修复:修复双重取消固定导致的panic问题;
- 格式支持:新增mxfp4、mxfp8、nvfp4量化格式导入支持;
- 测试优化:提升单个模型的测试能力;
- CI修复:修复Windows平台CGO编译器错误。
5.6 3月25日提交
- TUI优化:模型选择器新增左箭头返回导航功能;
- 核心功能开发:实现ollama launch vscode核心功能;
- API修复:修复api/show模块中Copilot Chat的basename覆盖问题。
六、总结:Ollama v0.18.3,本地AI开发的“效率革命”
代码地址:bgithub.xyz/ollama/ollama
Ollama v0.18.3版本的发布,标志着本地大模型在开发工具集成领域进入了全新阶段。本次更新通过VS Code原生集成与Agent模式开放两大核心功能,彻底打通了本地大模型与主流开发编辑器的壁垒,让私有化、离线化的AI开发成为现实;同时,底层引擎的全面优化、第三方集成的增强以及多项Bug修复,进一步提升了Ollama的稳定性与实用性。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)