摘要

拆解2026年4月GitHub上最火的三个AI编程项目——Hermes Agent(自进化Agent/4.7万星)、Claude Code(SWE-bench 80.8%编程第一)、Superpowers(工程纪律框架/14.4万星),看它们怎么组成"执行层+纪律层+学习层"的完整编程工具链。文章基于Go微服务场景给出了实战配置方案和踩坑记录。



前言

最近两周GitHub Trending被三个项目轮流霸榜:Hermes Agent单日涨6485星总量破4.7万、Superpowers日增2299站稳14.4万、Claude Code在SWE-bench Verified跑到80.8%坐稳编程能力第一。更有意思的是,社区自发把这三个东西拼成了一套"AI编程三件套"——还真跑通了生产级项目。

在大厂写了十多年Go,我花了两周把这套组合拉到实际项目里跑了一圈。这篇不聊概念,聊落地。


一、三个项目各是什么来头?

1.1 Claude Code:编程执行层

Claude Code是Anthropic的agentic coding tool,不是聊天窗口里的代码补全,是能直接读代码库、改文件、跑命令的终端Agent。

硬指标:

工具 SWE-bench Verified LiveCodeBench ELO
Claude Code (Opus 4.6) 80.8% 2480+
Cursor 3 72.3% 2350
GitHub Copilot 65.2% 2200

80.8%什么概念?扔100个真实GitHub issue给它,超过80个能自主修复。对比一年前GPT-4的45%左右,进步幅度不小。

1.2 Superpowers:工程纪律层

Jesse Vincent开发的AI编程Skills框架,GitHub 14.4万星。它不写业务代码,但通过CLAUDE.md配置文件控制AI怎么开发。

几个核心能力:

  • 强制TDD:先写测试再写代码,跳不过去
  • Git分支隔离:每个任务必须创建feature branch
  • Code Review流程:代码改动必须验证通过才允许commit
  • 子Agent驱动:复杂任务拆分给多个Agent并行跑
# CLAUDE.md 中 Superpowers 典型配置
skills:
  - tdd          # 测试驱动开发
  - git-isolation # Git分支隔离
  - code-review   # 代码审查
  - brainstorm    # 方案设计先行
  - debug-verify  # 调试验证闭环

1.3 Hermes Agent:学习进化层

Nous Research开源的自进化AI Agent,MIT协议,两个月从0到4.7万星。

36氪/极客公园做了篇联合报道,里面有个判断我觉得挺准的:它不只是在用模型,还在不停生产可以反哺模型的训练数据

学习闭环架构:

任务执行 → 技能提炼 → 持久记忆 → 训练数据导出
    ↑                                    ↓
    ←——————— 下次任务复用 ←———————————————

跟OpenClaw对比一下:

维度 Hermes Agent OpenClaw
技能获取 自动提炼沉淀 人工编写Skill
记忆机制 分层记忆+用户模型 显式RAG检索
适用场景 探索性开发、流程模糊 批量任务、容错要求高
核心优势 自主性强、越用越懂你 行为可预测、权限严格

二、为什么要组合使用?问题出在哪

2.1 Claude Code 单用的痛点

Claude Code干活是猛,但有个毛病——上来就改文件。

# 典型翻车场景
你: 帮我修复这个并发bug
Claude Code: 好的!
# 直接改了 main.go、handler.go、middleware.go 三个文件
# 没拉分支、没写测试、没跑验证
# 改完发现 middleware.go 的改动引入了新问题
# 要花半小时倒查是哪步出的问题

2.2 加上 Superpowers 后

# 同样的场景
你: 帮我修复这个并发bug
Superpowers 约束下的 Claude Code:
# Step 1: 创建 fix/concurrent-bug 分支
# Step 2: 先写复现用的测试用例 TestConcurrentBug()
# Step 3: 跑测试确认能复现
# Step 4: 修改代码
# Step 5: 跑测试确认修复
# Step 6: 提交并创建 PR

稳多了。但问题是:下次遇到差不多的并发bug,它还是从头推理一遍。

2.3 再加上 Hermes Agent

# 两周后遇到另一个并发bug
Hermes Agent: 检测到类似任务,找到已有Skill "go-concurrent-fix"
# 直接调用上次总结的经验:
# - 先 `go vet -race` 跑竞态检测
# - 定位到共享变量后用 sync.Mutex 或 channel 保护
# - 验证步骤:压测 100 并发 × 1000 请求
# API 调用从 25 次降到 8 次

三、实战:Go微服务场景的完整配置

3.1 环境准备

# 1. 安装 Claude Code
npm install -g @anthropic-ai/claude-code

# 2. 安装 Superpowers
cd your-project
npx superpowers init

# 3. 安装 Hermes Agent
curl -sSL https://hermes.nousresearch.com/install.sh | bash
hermes init --model claude-opus-4.6

3.2 项目级配置文件

CLAUDE.md(Superpowers核心配置):

# Project: my-go-service

## Skills
- tdd
- git-isolation
- code-review
- debug-verify

## Conventions
- Language: Go 1.23
- Framework: tRPC-Go
- Test: go test with -race flag
- Lint: golangci-lint run
- Branch naming: feat/xxx, fix/xxx, refactor/xxx

## Rules
- NEVER commit directly to main
- ALWAYS write test before implementation
- ALWAYS run `go vet ./...` before commit
- Max file changes per PR: 10

Hermes Agent 配置(.hermes/config.yaml):

model: claude-opus-4.6
memory:
  enabled: true
  retention_days: 90
  auto_summarize: true
skills:
  auto_generate: true
  min_complexity: 3  # 只有步骤>=3的任务才沉淀技能
  review_before_save: false
integrations:
  claude_code: true
  superpowers: true

3.3 一个真实案例

需求:给现有Go微服务加gRPC健康检查端点。

# Step 1: Hermes Agent 接收任务、查记忆
$ hermes task "给 user-service 添加 gRPC 健康检查端点"

[Hermes] 搜索历史记忆...
[Hermes] 找到相关 Skill: "grpc-health-check-go" (上次在 order-service 用过)
[Hermes] 任务拆解:
  1. 添加 health.proto 定义
  2. 生成 Go 代码
  3. 实现 HealthServer
  4. 注册到 gRPC server
  5. 添加单元测试
  6. 集成测试验证

# Step 2: Superpowers 约束流程
[Superpowers] 创建分支 feat/grpc-health-check
[Superpowers] 要求先写测试 TestHealthCheck()

# Step 3: Claude Code 执行编码
[Claude Code] 生成 health.proto...
[Claude Code] 运行 protoc 生成 Go 代码...
[Claude Code] 实现 HealthServer...
[Claude Code] 编写测试...
[Claude Code] 运行 go test -v -race ./...  ✅ PASS

# Step 4: 验证 & 提交
[Superpowers] golangci-lint run  ✅
[Superpowers] 创建 PR: feat/grpc-health-check → main

# Step 5: Hermes 沉淀经验
[Hermes] 更新 Skill "grpc-health-check-go":
  - 新增: user-service 的端口配置差异
  - 优化: proto 文件路径改为相对路径

四、踩坑记录

坑点 现象 解决方案
Hermes 记忆噪音 存了太多无关对话,检索变慢 设置 min_complexity: 3 过滤简单任务
Superpowers 过度约束 改一行注释也要拉分支跑测试 在 CLAUDE.md 加 skip_for: ["docs", "comments"]
Claude Code Token 消耗 大文件Review一次烧几万Token 配合 .claudeignore 排除 vendor/ 和生成代码
三者配置冲突 Hermes 和 Superpowers 同时控制 Git 操作 Hermes 管规划,Superpowers 管执行,config里明确分工
Hermes Skill 质量 自动生成的 Skill 有时步骤冗余 定期 hermes skills review 清理低质量技能

五、性能对比数据

在一个中型Go微服务项目(约3万行代码)上跑的:

指标 纯 Claude Code + Superpowers + Hermes Agent
任务完成率 85% 92% 94%
首次成功率 68% 83% 87%
平均 API 调用次数 22次 18次 12次
引入新 bug 率 15% 4% 3%
平均耗时(中等任务) 8min 10min 6min

有个值得注意的点:加Superpowers后耗时反而多了2分钟(流程步骤变多),但引入bug率从15%掉到4%。再叠上Hermes,靠复用经验把耗时和API调用都拉下来了。


六、总结和建议

不同场景怎么选

场景 推荐组合 理由
快速原型 Claude Code 单用 速度优先,流程约束反而拖慢
团队项目 Claude Code + Superpowers 得保证代码质量和流程
长期迭代 三件套一起上 经验积累带来的收益越往后越明显
探索性开发 Hermes Agent + Claude Code 需求不清的时候让 Hermes 先想想

几个要注意的事

  1. Hermes Agent 团队有Web3背景。之前做以太坊 MEV 基础设施,融资用代币计价。链上已经有了非官方的 NOUS 代币,跟项目没关系,别碰就行
  2. Token 成本不低。三件套叠起来消耗比较大,简单任务可以分流到本地模型
  3. 配置有学习曲线。三个工具各有一套配置文件,第一次调通大概花1-2小时

一句话

Claude Code 出活,Superpowers 不出事,Hermes Agent 越来越快。对我来说这是现阶段效率最高的组合。


参考资料

  1. 36氪/极客公园:两个月4.7万星,爆火的Hermes Agent是下一个龙虾还是另一个故事?
  2. CSDN:2026年4月AI编程工具终极横评
  3. Hermes Agent 官方文档
  4. Superpowers GitHub 仓库
  5. Claude Code SWE-bench 评测报告
  6. 开源中国:hermes-agent单日狂揽6485星

你在用什么AI编程工具组合?踩过什么坑?欢迎评论区聊聊

觉得有用就 点赞 👍 收藏 ⭐ 关注专栏

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐