Mac M芯片两行命令安装ComfyUI全记录(含MPS验证+云端迁移)
文章目录
🍃作者介绍:25届双非本科网络工程专业,阿里云专家博主,深耕 AI 原理 / 应用开发 / 产品设计。前几年深耕Java技术体系,现专注把 AI 能力落地到实际产品与业务场景。
🦅个人主页:@逐梦苍穹
🐼GitHub主页:https://github.com/XZL-CODE
✈ 您的一键三连,是我创作的最大动力🌹

1、前言
2025年,AI内容生成进入了"全模态爆发"阶段:Z-Image-Turbo 8步出图、Wan2.1开源视频生成、LTX-2音视频同步生成、Hunyuan3D 2.0……几乎每个月都有颠覆性的新模型发布。
面对这样的速度,很多人会问:学ComfyUI还有必要吗?模型迭代这么快,今天搭的工作流明天会不会就被淘汰了?
我的观点是:ComfyUI不是一个"AI生图工具",而是一个"AI生成管线的编排引擎"。 模型会变,但你搭建流水线的能力不会过时——就像Docker、Kubernetes不会因为微服务框架的更替而被淘汰。
本文记录我在M1 Pro MacBook上用comfy-cli两行命令安装ComfyUI的完整过程,以及对"ComfyUI是否值得学"这个争议话题的深度思考。
2、两行命令安装ComfyUI(Mac M芯片实战)
先让你跑起来,再解释为什么。
2.1 环境准备
硬件:MacBook Pro M1 Pro 32GB(Apple Silicon M系列均适用)
系统:macOS 12.3+
前置依赖:conda(推荐miniforge)
先创建一个干净的conda虚拟环境:
conda create -n comfyui python=3.12
conda activate comfyui
Python 3.12是目前ComfyUI支持最稳定的版本。3.14虽然能跑但部分自定义节点会有兼容性问题。
2.2 安装ComfyUI
只需两行命令:
pip install comfy-cli
comfy install
第一行安装官方CLI工具,第二行执行完整安装——自动克隆仓库、检测硬件(M1 Pro会自动选择MPS加速)、安装PyTorch nightly(含Metal Performance Shaders支持)、安装全部依赖、安装ComfyUI Manager。
安装过程中会依次询问:
1)是否同意tracking? 选N,不影响功能。
2)Mac类型? 选 mac_m_series。
3)安装路径确认? 默认路径为 ~/Documents/comfy/ComfyUI,直接输Y。
等待几分钟,看到 ComfyUI is installed at: /Users/你的用户名/Documents/comfy/ComfyUI 就安装完成了。
2.3 启动ComfyUI
conda activate comfyui
comfy launch
启动后终端会输出大量日志,关键要看到这两行:
Device: mps
Total VRAM 32768 MB, total RAM 32768 MB
这说明ComfyUI已正确识别Apple Silicon并启用MPS加速。然后浏览器打开 http://127.0.0.1:8188 即可看到ComfyUI界面。
2.4 验证MPS是否正常工作
如果你不确定MPS是否真的在用,可以单独验证:
conda activate comfyui
python -c "import torch; print(torch.backends.mps.is_available())"
输出 True 即表示MPS可用。
2.5 安装过程中的关键细节解读
安装日志中有几个值得关注的点:
PyTorch版本:comfy-cli会自动下载 torch-2.12.0.dev-macosx_11_0_arm64.whl,虽然下载URL写着nightly/cpu,但实际包含MPS支持,这是PyTorch官方对Apple Silicon的命名惯例。
ComfyUI Manager:安装过程自动克隆了 ComfyUI-Manager 到 custom_nodes/ 目录,这是管理自定义节点的核心工具。启动时需加 --enable-manager 参数或在ComfyUI Manager最新版中已默认启用。
FETCH ComfyRegistry Data:安装和启动时都会看到这个日志。安装时是首次建立本地节点注册缓存,启动时是检查是否有更新。后者是后台异步执行的,不阻塞界面使用。
comfy-aimdo警告:启动时会看到 comfy-aimdo os not supported Darwin,这是一个仅支持Windows/Linux的可选模块,忽略即可,完全不影响功能。
3、comfy-cli、Desktop、手动安装怎么选?
ComfyUI官方提供三种安装方式,适合不同人群:
comfy-cli(推荐):两行命令搞定,自动处理环境配置。底层和手动安装完全一致,装出来的目录结构一样,迁移到云端零成本。适合有命令行基础的开发者。
Desktop桌面客户端:从 comfy.org/download 下载DMG,拖进Applications即可。零命令行操作,但目前仍为Beta版,自定义节点管理不如CLI灵活。适合纯设计师。
手动git clone + pip install:控制力最强,需要自己处理PyTorch版本选择、虚拟环境配置、依赖安装。适合需要深度定制的场景。
我的建议: 如果你是AI工程师或技术博主,用comfy-cli。如果你不想碰终端,用Desktop。手动安装只在需要特殊PyTorch版本时才考虑。
4、为什么ComfyUI不会被淘汰?一个工程师视角的思考
这是社区争议最大的话题:大模型每月更新,Midjourney越来越强,一站式平台层出不穷——ComfyUI学了到底有没有用?
我认为答案取决于你的身份。
4.1 先理解ComfyUI的本质定位
很多人把ComfyUI理解成"AI生图工具",这是根本性的误解。ComfyUI是一个可视化的AI推理管线编排引擎——它不关心你用什么模型,它关心的是怎么把多个模型、多个处理步骤串成一条自动化流水线。
类比软件工程的概念:Midjourney/即梦 类似 “PaaS平台”——你在别人的平台上点按钮使用;ComfyUI 类似 “基础设施层”——你自己搭建管线、控制每一个环节。
这就引出了一个关键判断:如果你只是"使用者"(拿AI出几张图),一站式平台完全够用;如果你是"生产者"(需要批量、可控、可复现的AI生成管线),ComfyUI是目前唯一成熟的选择。

4.2 三个"不会被替代"的核心理由
第一,ComfyUI的能力边界在持续扩展,而非收窄。
2024年初ComfyUI还只能做图片生成,到2025年底已经原生支持:图像生成(SD/SDXL/Flux/Z-Image)、视频生成(Wan2.1/2.2/LTX-2/HunyuanVideo)、3D生成(Hunyuan3D 2.0)、音频生成(Stable Audio/ACE Step)、图像编辑(Flux Kontext/OmniGen 2)。它不是在被新模型淘汰,而是在吸纳每一个新模型。
NVIDIA在CES 2026上官方宣布与ComfyUI深度合作,通过NVFP4/FP8量化让视频生成性能提升3倍、显存降低60%。这种"芯片厂商亲自站台"的待遇,说明ComfyUI在产业链中的位置已经不可替代。
第二,"节点化工作流思维"是可迁移的底层能力。
学ComfyUI学到的不是"怎么连线",而是"如何把一个复杂的AI生成任务拆解为独立步骤、串联成自动化流程"。这种思维方式等价于软件工程中的"管道与过滤器架构模式"——不管具体技术栈怎么变,这个架构思想永远不过时。
哪怕明天出现一个叫"SuperUI"的新工具取代了ComfyUI,你在ComfyUI上积累的工作流设计能力可以直接迁移。
第三,工作流JSON本身就是可售卖的数字资产。
ComfyUI工作流保存为JSON文件,可以分享、复用、售卖。Civitai、OpenArt、Comfy Market上已经形成了完整的工作流交易生态。对于有技术背景的创作者,这是一条"做一次卖N次"的被动收入路径。
4.3 必须正视的反面观点:模型自身进化正在"杀死"复杂工作流
上面说了ComfyUI的价值,但有一个正在发生的趋势不能回避:很多ComfyUI工作流本质上是在"给模型打补丁",而模型正在让这些补丁变得多余。
什么意思?你用ControlNet,是因为模型不听话、控不好姿势;用FaceDetailer修脸,是因为模型画脸有瑕疵;用IPAdapter锚定角色,是因为模型记不住角色长什么样;用20-30步采样+各种调度器优化,是因为模型不够高效。
当模型自身能力进化到足够强的时候,这些"补丁节点"就会变得多余。而这不是假设,是正在发生的事:Flux Kontext单图输入就能保持角色一致性,不再需要训练LoRA;GPT-4o原生图像生成不需要任何后处理流程;Z-Image-Turbo 8步出图,以前需要20-30步+采样器精调。
模型越强,工作流越短,这是确定性趋势。
所以,如果你辛辛苦苦用十几个节点搭了一套"修脸+控姿势+风格迁移+分步放大"的复杂工作流,结果新模型直出的效果就比你这套管线的终态还好——你的工作流确实白搭了。这种事情在过去两年里反复发生。
但这个观点忽略了一个关键维度:单张图质量 ≠ 生产管线。
模型再强,解决的是"单次生成质量"的问题。但实际生产场景面对的是:45张分镜图要保持同一个角色、同一种画风,按照分镜脚本的具体场景和姿势批量生成,生成完还要送去图生视频,视频片段还要拼接配音……这是一条多步骤、多模型、有依赖关系的生产管线。
即使未来每个单步都被超强模型替代了,"把这些步骤串起来自动化执行"这个需求不会消失。就像Docker Compose不会因为每个微服务变强就没用——编排层和执行层是两个不同的东西。
所以更准确的判断是: ComfyUI工作流中那些"弥补模型缺陷"的节点(修脸、控姿势、风格迁移)会随模型进化逐步消亡;但ComfyUI作为"编排引擎"的角色——批量调度、多模型串联、参数管理、自动化执行——不会消亡。工作流会变短变简单,但不会变成零。 从20个节点缩到5个节点是趋势,但从5个节点缩到"一句Prompt搞定一切",在多步骤生产场景下短期内不会发生。
对学习者的实际建议: 不要把时间花在学习"补丁型"复杂工作流上(比如十几个节点只为修一张脸),而是把精力放在理解编排思维——怎么设计批量生产管线、怎么让多个AI工具自动协作。这个能力不管ComfyUI还是未来什么工具,都用得上。
4.4 什么情况下ComfyUI确实"不值得学"?
公平地说,以下场景不需要ComfyUI:
- 你只是偶尔用AI出几张图发朋友圈——用Midjourney/即梦就够了
- 你的需求完全被某个一站式平台覆盖——比如只做AI漫剧且用有戏AI/巨日禄AI
- 你不愿意花2-4周的学习成本——ComfyUI的学习曲线确实比一站式产品陡峭
但如果你是以下人群,ComfyUI几乎是必修课:AI应用开发者、技术型内容创作者、追求精细控制的AI艺术家、需要批量生产的AI内容团队、想卖工作流/模板的独立开发者。
5、别人的工作流直接拿来用
ComfyUI最大的效率杠杆是社区共享的工作流生态。
5.1 导入方式
导入别人的工作流极其简单:拿到JSON文件,直接拖进浏览器中的ComfyUI界面,整个节点图就原样还原了。甚至更方便——ComfyUI会把工作流信息嵌入到生成的PNG图片元数据里,拖入一张AI生成的图片,工作流自动还原。
但前提是你本地装好了对应的模型文件和自定义节点。如果节点显示红色,说明缺对应的自定义节点。ComfyUI Manager(必装)能自动检测缺失节点并一键安装。
5.2 去哪找高质量工作流
推荐的工作流来源:
- OpenArt(openart.ai/workflows):最大的ComfyUI工作流社区,搜"anime comic"或"manga"有大量漫剧相关工作流
- Civitai:模型页面经常附带工作流JSON
- ComfyUI官方模板:启动ComfyUI后界面内置了多种模板工作流
- Comfy Market(comfymarket.com):付费精品工作流
- GitHub:搜"ComfyUI workflow"可找到大量开源方案
5.3 实战:加载Z-Image-Turbo官方工作流
Z-Image-Turbo是阿里通义实验室发布的6B参数高效生图模型,8步采样即可出高质量图,16GB显存即可运行。ComfyUI v0.18.1已内置模板工作流。
需要下载三个模型文件:
| 文件 | 放到目录 | 大小 |
|---|---|---|
| z_image_turbo_bf16.safetensors | models/diffusion_models/ | ~12GB |
| qwen_3_4b.safetensors | models/text_encoders/ | ~8GB |
| ae.safetensors | models/vae/ | ~335MB |
对于M1 Pro 32GB用户,bf16完整模型内存占用较大,建议使用GGUF量化版(需先在ComfyUI Manager中安装ComfyUI-GGUF节点):
| 文件 | 放到目录 | 大小 |
|---|---|---|
| z_image_turbo-Q5_K_S.gguf | models/diffusion_models/ | ~5.2GB |
| Qwen3-4B.i1-Q5_K_S.gguf | models/text_encoders/ | ~2.8GB |
| ae.safetensors | models/vae/ | ~335MB |
GGUF版总共约8GB,M1 Pro跑起来会轻松很多,效果几乎无损。
6、Mac本地设计、云端批量跑:零成本迁移
ComfyUI的工作流JSON文件跟运行环境完全解耦。你在Mac上搭建的工作流,导出JSON后丢到云服务器,一行都不用改就能跑。
6.1 迁移只需三步
- AutoDL租一台RTX 4090实例(约¥2.08/小时),选社区镜像"ComfyUI"一键部署
- 把Mac上的模型文件上传到云端对应目录(或直接在云端wget从HuggingFace下载)
- 上传工作流JSON,浏览器打开云端ComfyUI界面,导入JSON,点Run
整个过程不超过30分钟。日常节奏就是:Mac上设计和调试工作流 → 确认效果后导出JSON → 云端批量跑图。
6.2 速度对比
| 操作 | M1 Pro本地 | AutoDL RTX 4090 |
|---|---|---|
| SDXL 1024×1024 | 3-5分钟/张 | 3-5秒/张 |
| SD 1.5 512×512 | 40-50秒/张 | 1-2秒/张 |
| Z-Image-Turbo 8步 | 30秒-2分钟/张 | 3-8秒/张 |
本地跑用于学习和调试(参数调对了再上云),云端跑用于批量生产(45张分镜图7.5分钟跑完)。
7、总结
ComfyUI的安装门槛已经降到了两行命令。但它真正的价值不在于"安装简单",而在于它提供了一种可组合、可复现、可分享的AI生成管线构建能力。
在大模型月月迭代的今天,与其追逐每一个新模型的Web界面,不如掌握一套能驾驭所有模型的编排引擎。ComfyUI就是这个引擎——今天跑Z-Image-Turbo,明天换Flux 2,后天接入Wan2.2视频生成,工作流的骨架不变,换的只是节点里的模型。
工具会过时,思维不会过时。 而ComfyUI恰好是把"AI工作流思维"具象化的最佳载体。
🚀 持续探索 AI 与前沿技术 分享大模型应用、软件开发实战与行业洞察。 欢迎关注公众号 【龙哥AI】,加入 7000+ 技术同行的交流圈! 🌟 探索技术边界,让开发更有效率 |
![]() |
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)