Goose实战:0元跑起来的AI编程Agent,我用它替代了Claude Code一周
Goose实战:0元跑起来的AI编程Agent,我用它替代了Claude Code一周
Claude Code每月200美元,还有用量限制。用着用着弹窗"rate limit exceeded",正写到关键逻辑被打断,这种体验谁受过谁知道。
上个月我开始试Block公司开源的Goose。用了一周,记录下真实感受和完整配置过程。先说结论:日常80%的编程任务,Goose够用了。剩下20%复杂场景,确实还差点意思。
Goose是什么
Goose是Block(就是做Square和Cash App那家公司)开源的AI编程Agent。GitHub 26000+星,362个贡献者,已经发了102个版本。
和Claude Code最大的区别:Goose跑在你自己机器上,不依赖云端。你可以接Anthropic的API,也可以接OpenAI、Gemini,甚至用Ollama跑本地模型——完全离线,飞机上也能写代码。
不要把它和Copilot这种补全工具搞混。Goose是Agent,能自己读文件、跑命令、调API、写测试。你说"帮我建一个Express项目,配好TypeScript和ESLint",它会自己创建目录、写配置文件、安装依赖、跑一遍确认没报错。
安装:10分钟搞定
macOS
brew install block/tap/goose
或者下载桌面版,从 github.com/block/goose/releases 找最新的 .dmg 文件。
Linux
curl -fsSL https://github.com/block/goose/releases/latest/download/goose-linux-amd64 -o goose
chmod +x goose
sudo mv goose /usr/local/bin/
Windows
去GitHub Release页面下载 .exe 安装包,双击安装。
装完验证一下:
goose --version
# goose 1.20.1
配置模型:三种方案
装好Goose之后第一件事是配模型。跑 goose configure 进入配置向导。
方案一:接Claude API(推荐,效果最好)
goose configure
# 选择 Configure Provider → Anthropic
# 输入你的 API Key
# 模型选 claude-sonnet-4-20250514
这种方案效果和Claude Code几乎一样,但是按量计费——你用多少付多少,没有"每5小时40次提示"的限制。我测了一下,日常使用每天大概0.5到2美元,比200美元月费便宜太多。
方案二:接OpenAI或其他API
goose configure
# 选择 Configure Provider → OpenAI
# 输入 API Key
# 模型选 gpt-4o 或 o3-mini
也支持OpenRouter,一个Key可以切换几十个模型:
goose configure
# 选择 Configure Provider → OpenRouter
# 输入 OpenRouter API Key
# 模型选你想用的,比如 deepseek/deepseek-r1
方案三:Ollama本地模型(完全免费)
这是0元方案。先装Ollama:
# macOS
brew install ollama
# Linux
curl -fsSL https://ollama.com/install.sh | sh
拉一个编程模型:
ollama pull qwen3-coder
# 或者
ollama pull codellama:34b
# 内存16GB的机器建议用小一点的模型
ollama pull qwen2.5-coder:14b
然后配Goose连Ollama:
goose configure
# 选择 Configure Provider → Ollama
# API Host: http://localhost:11434
# 模型名: qwen3-coder
内存需求参考: - 8GB内存:能跑7B参数的模型,勉强能用 - 16GB内存:能跑14B参数的模型,日常够用 - 32GB内存:能跑34B以上的模型,体验接近云端
我的M2 MacBook Pro 32GB跑 qwen3-coder 没问题,响应速度大概是Claude API的1/3到1/2,但不花钱。
配MCP:给Goose装外挂
Goose支持MCP(Model Context Protocol),这意味着你可以给它接数据库、文件系统、GitHub等各种外部工具。
配置文件在 ~/.config/goose/config.yaml,手动编辑:
mcpServers:
filesystem:
command: npx
args:
- -y
- "@modelcontextprotocol/server-filesystem"
- "/Users/yourname/projects"
github:
command: npx
args:
- -y
- "@modelcontextprotocol/server-github"
env:
GITHUB_PERSONAL_ACCESS_TOKEN: "ghp_xxxxxxxxxxxx"
sqlite:
command: npx
args:
- -y
- "@modelcontextprotocol/server-sqlite"
- "/path/to/your/database.db"
配好之后重启Goose,它就能直接操作你的文件系统、查GitHub仓库、读写数据库了。
实测一个场景:我让Goose帮我查GitHub上某个仓库最近的Issue,分析哪些是Bug哪些是Feature Request,然后生成一份markdown报告。整个过程Goose自己调MCP读取Issue列表,自己分类,自己写文件。大概3分钟跑完,人工做至少半小时。
实际使用:一周踩坑记录
第1天:初始化项目
让Goose从零建一个Next.js项目。命令:
goose session start
> 帮我创建一个Next.js 15项目,用TypeScript,配好Tailwind CSS和ESLint,建好基础目录结构
Goose依次执行了 npx create-next-app、修改 tailwind.config.ts、调整 tsconfig.json、创建 src/components 和 src/lib 目录。全程没出错。这种标准化任务,Goose处理得很干净。
第3天:调试一个诡异的Bug
一个API路由偶发返回500,日志里只有一行 "TypeError: Cannot read properties of undefined"。我把报错贴给Goose,它自己去读了相关的源文件,定位到是一个异步函数缺少 await,加了 await 之后还帮我补了个 try-catch。
这种"给一段报错让它自己定位"的场景,Goose表现不错——前提是你用的模型够强。我用Claude API时修复率很高,换成本地14B模型就开始瞎猜了。
第5天:碰到了上限
让Goose重构一个2000行的文件,把单体拆成模块。用Claude API时它能理解整个文件的逻辑关系,拆得合理。换Ollama本地模型,它读到一半就开始丢上下文,拆出来的模块之间互相引用不对。
这是本地模型的硬伤:上下文窗口小(默认4096到8192 token),处理大文件力不从心。Claude API的上下文窗口有200K token,差距确实大。
踩坑汇总
-
Ollama模型首次加载慢。第一次启动要把模型加载到内存,qwen3-coder大概需要30秒。后续对话就快了。
-
config.yaml格式敏感。多一个空格少一个缩进都会报错,报错信息也不友好。建议用
goose configure命令,别手动编辑。 -
MCP Server需要Node.js。配MCP之前确保装了Node.js 18+,不然
npx跑不起来。 -
桌面版和CLI版共享配置。改了CLI的配置,桌面版也会变,反过来也一样。别两边同时改,会冲突。
和Claude Code对比:什么时候用Goose
| 场景 | Goose + Claude API | Goose + 本地模型 | Claude Code |
|---|---|---|---|
| 新建项目 | 好用 | 好用 | 好用 |
| 改Bug | 好用 | 简单Bug可以 | 好用 |
| 重构大文件 | 好用 | 不行 | 好用 |
| 离线使用 | 不行 | 可以 | 不行 |
| 月费用 | 按量,约30-60元 | 0元 | 200美元 |
| 速率限制 | 无 | 无 | 有 |
我的用法:日常开发用 Goose + Claude API,出差飞机上用 Goose + Ollama,偶尔需要处理特别复杂的代码库时开一下Claude Code。
总结
Goose不是Claude Code杀手,但它给了开发者一个真实可用的选择。开源、免费、跑在本机、支持任意模型——这些特性放在一起,比"更强的模型"对很多人更有吸引力。
装一下试试,10分钟就能跑起来。反正不要钱。
GitHub地址:github.com/block/goose Ollama地址:ollama.com
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)