用 Superpowers 给你的 AI 编程 Agent 装上纪律,从安装到跑通一个完整项目
你有没有遇到过这种情况:让 Claude Code 帮你写一个功能,前几轮对话还挺好,越往后越跑偏?文件改多了它就忘了之前的设计,测试是补上去的不是先写的,最后 review 代码发现一堆和需求不沾边的东西。
我上周就被坑了一把。一个跨 15 个文件的功能,Claude Code 写到一半开始乱改之前的代码,最后不得不手动回滚 git 重来。
这周试了 Superpowers 框架,同样的任务,它让 Claude Code 自主跑了两个小时没偏离计划。这篇文章把整个过程写出来,你看完直接能用。
Superpowers 是什么
一句话:一组 Markdown 文件,装进 Claude Code 之后,它就按规矩办事了。
作者 Jesse Vincent 干了 30 年软件开发,他把自己认为必须遵守的工程实践——先设计再写码、先测试再实现、每个任务做完必须 review——打包成了一套 "skills"。Agent 碰到对应场景会自动加载这些 skill,不是建议,是强制。
这个项目 2025 年 10 月开源,2026 年 1 月进入 Anthropic 官方插件市场,截至本文发稿(2026 年 3 月 26 日)已经超过 106,000 GitHub stars。
安装:一条命令
在 Claude Code 里直接装:
/plugin install superpowers@claude-plugins-official
装完了。不用改配置文件,不用设环境变量。
如果你用的是其他 Agent 工具:
Cursor:
/add-plugin superpowers
或者在插件市场搜 "superpowers"。
Codex: 在对话里告诉它:
Fetch and follow instructions from https://raw.githubusercontent.com/obra/superpowers/refs/heads/main/.codex/INSTALL.md
Gemini CLI:
gemini extensions install https://github.com/obra/superpowers
OpenCode: 和 Codex 类似,让它 fetch .opencode/INSTALL.md 的内容。
v5.0.5(3 月 17 日发布)对 OpenCode 做了不少适配,如果你之前试过装不上,可以重试。
它到底改变了什么
装了 Superpowers 之后,你让 Claude Code 写功能时的流程会变成这样:
第一步:问清楚再动手。 Agent 不会直接写代码。它会先问你几个问题——你的需求具体是什么?边界情况考虑了吗?技术选型有偏好吗?问完之后出一份设计文档,分段让你确认。
第二步:拉分支,建隔离环境。 Agent 用 git worktree 创建一个独立分支,不碰你的 main。跑完项目初始化,确认测试基线干净。
第三步:拆任务。 把设计文档拆成一个个 2-5 分钟能完成的小任务。每个任务写清楚改哪些文件、代码怎么写、怎么验证通过。用 Jesse Vincent 的原话说,这个计划要 "清晰到一个热情但没品味、没判断力、不喜欢写测试的初级工程师也能照着做"。
第四步:子 Agent 并行干活。 每个任务分配一个独立的子 Agent,拿到全新的上下文去执行。这样就不会出现 "Agent 记忆越来越乱" 的问题。多个任务可以同时跑。
第五步:TDD 不是可选项。 Agent 必须先写测试,看着测试失败,再写代码让它通过。文档里有一句话:如果发现代码写在测试前面,框架会删掉那段代码。
第六步:两轮 review。 每个任务做完,先检查是否符合需求规格,再检查代码质量。两轮都过了才往下走。
第七步:收尾。 所有任务完成后,跑全量测试,更新文档,然后问你是合并、发 PR、保留还是丢弃这个分支。
实操:我用它重构了一个 API 模块
给你看看实际效果。我有一个 Node.js 项目,里面的用户认证模块写得很烂——路由、业务逻辑、数据库操作全堆在一个文件里,1200 多行,没测试。
装好 Superpowers 后,我在 Claude Code 里说:
帮我重构 src/auth.js,把路由、业务逻辑、数据库操作拆分到独立模块,加上单元测试
以前 Claude Code 会直接开始改文件。这次不一样了。
Brainstorming 阶段(约 5 分钟):
它先问我: - 用什么测试框架?(我说 Vitest) - 数据库用的是什么 ORM?(Prisma) - 有没有现成的认证中间件要保留?(有,JWT 验证) - 错误处理是返回 HTTP 状态码还是抛异常?(状态码)
问完出了一份设计文档,大意是拆成四个文件:auth.routes.js、auth.service.js、auth.repository.js、auth.middleware.js。我确认之后它才继续。
Planning 阶段(约 3 分钟):
它出了 8 个任务,我贴两个示例:
任务 1:创建 auth.repository.js
- 文件:src/repositories/auth.repository.js
- 从 auth.js 提取所有 Prisma 调用
- 导出函数:findUserByEmail, createUser, updateToken
- 验证:运行 vitest src/repositories/auth.repository.test.js,全部通过
任务 3:创建 auth.service.js
- 文件:src/services/auth.service.js
- 依赖 auth.repository.js
- 包含:login, register, refreshToken, logout
- 验证:运行 vitest src/services/auth.service.test.js,全部通过
每个任务都有明确的文件路径、依赖关系和验证方式。
执行阶段(约 40 分钟):
8 个任务按依赖关系分批执行。底层的 repository 先做,service 等 repository 做完了再开始。每个任务都是先写测试文件,再写实现。
中间出了个小插曲——任务 5 的测试用例里漏了一个边界情况(token 过期时 refresh 的逻辑),review 阶段被拦住了。Agent 自己修了测试,补了代码,重新提交才通过。
最终结果:
- 1 个 1200 行的文件拆成 4 个模块,每个 100-300 行
- 32 个测试用例,全部通过
- 测试覆盖率 91%
- 整个过程我只在设计阶段回答了几个问题,其余全自动
踩坑记录
用了一周,我碰到几个坑:
1. 第一次用别急,让它问完。
Brainstorming 阶段它会反复追问,有的人嫌烦直接说 "别问了开始做吧"。别这样。这个阶段问得越清楚,后面执行越不容易跑偏。我试过跳过 brainstorming 直接让它写计划,结果计划里有两个任务描述模糊,执行到那里就卡住了。
2. 任务太大会出问题。
Superpowers 把任务拆成 2-5 分钟的粒度。如果你的需求本身很笼统(比如 "重写整个后端"),拆出来的任务可能有几十个。我建议把大需求手动拆成几个独立的功能模块,一个一个走 Superpowers 流程。
3. token 消耗比不装高。
Brainstorming、planning、review 都要消耗 token。一个完整项目跑下来大概用 10 万 token。但 Simon Willison 说的对——和反复重做相比,这点 token 是值得的。那次我回滚重来花了更多。
4. 和 CLAUDE.md 配合使用。
项目根目录的 CLAUDE.md 里写好你的代码风格、项目结构、命名规范。Superpowers 管流程,CLAUDE.md 管风格偏好,分工刚好。
几个数据
来自公开报道和社区反馈:
- TDD 强制开启后,测试覆盖率一般在 85%-95% 之间
- 并行子 Agent 在多文件任务上比单 Agent 顺序执行快 3-4 倍
- Anthropic 2026 年的 Agentic Coding 报告里提到,Claude Code 在一个 1250 万行的代码库里自主工作了 7 小时,数值精度达到 99.9%——前提是有清晰的工作流和监督机制
- TELUS 团队用 agentic workflow 之后,工程代码交付速度提升了 30%,累计节省 50 万小时
这些数据不全是 Superpowers 的功劳,但方向一致:给 Agent 加约束比放任自流效果好。
还有个反直觉的事
2025 年 7 月 METR 做过一个随机对照实验:经验丰富的开源开发者用 AI 工具写自己项目的代码,结果比不用 AI 慢 19%。开发者自己预测 AI 能帮他们省 24% 时间,实际上反了。
问题不在 AI 能力不行,在于缺乏结构。没有规矩的情况下,开发者花大量时间和 AI 来回沟通、修正 AI 犯的错、检查 AI 改了不该改的地方。
Superpowers 直接堵住了这个口子。你不用花时间盯着 Agent 有没有跑偏——流程强制它先设计、先测试、做完了 review。省下来的精力用在决策上,而不是看管上。
更新命令
已经装过的,定期更新就行:
/plugin update superpowers
Skill 文件会跟着插件一起更新。
以上就是 Superpowers 的完整上手记录。选题、设计、安装、使用、踩坑、数据都在这了。如果你正在用 Claude Code 或者其他 AI 编程 Agent,试试装一个,体感区别挺大的。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)