Goose实战:0元跑起来的AI编程Agent,我用它替代了Claude Code一周

Claude Code每月200美元,还有用量限制。用着用着弹窗"rate limit exceeded",正写到关键逻辑被打断,这种体验谁受过谁知道。

上个月我开始试Block公司开源的Goose。用了一周,记录下真实感受和完整配置过程。先说结论:日常80%的编程任务,Goose够用了。剩下20%复杂场景,确实还差点意思。

Goose是什么

Goose是Block(就是做Square和Cash App那家公司)开源的AI编程Agent。GitHub 26000+星,362个贡献者,已经发了102个版本。

和Claude Code最大的区别:Goose跑在你自己机器上,不依赖云端。你可以接Anthropic的API,也可以接OpenAI、Gemini,甚至用Ollama跑本地模型——完全离线,飞机上也能写代码。

不要把它和Copilot这种补全工具搞混。Goose是Agent,能自己读文件、跑命令、调API、写测试。你说"帮我建一个Express项目,配好TypeScript和ESLint",它会自己创建目录、写配置文件、安装依赖、跑一遍确认没报错。

安装:10分钟搞定

macOS

brew install block/tap/goose

或者下载桌面版,从 github.com/block/goose/releases 找最新的 .dmg 文件。

Linux

curl -fsSL https://github.com/block/goose/releases/latest/download/goose-linux-amd64 -o goose
chmod +x goose
sudo mv goose /usr/local/bin/

Windows

去GitHub Release页面下载 .exe 安装包,双击安装。

装完验证一下:

goose --version
# goose 1.20.1

配置模型:三种方案

装好Goose之后第一件事是配模型。跑 goose configure 进入配置向导。

方案一:接Claude API(推荐,效果最好)

goose configure
# 选择 Configure Provider → Anthropic
# 输入你的 API Key
# 模型选 claude-sonnet-4-20250514

这种方案效果和Claude Code几乎一样,但是按量计费——你用多少付多少,没有"每5小时40次提示"的限制。我测了一下,日常使用每天大概0.5到2美元,比200美元月费便宜太多。

方案二:接OpenAI或其他API

goose configure
# 选择 Configure Provider → OpenAI
# 输入 API Key
# 模型选 gpt-4o 或 o3-mini

也支持OpenRouter,一个Key可以切换几十个模型:

goose configure
# 选择 Configure Provider → OpenRouter
# 输入 OpenRouter API Key
# 模型选你想用的,比如 deepseek/deepseek-r1

方案三:Ollama本地模型(完全免费)

这是0元方案。先装Ollama:

# macOS
brew install ollama

# Linux
curl -fsSL https://ollama.com/install.sh | sh

拉一个编程模型:

ollama pull qwen3-coder
# 或者
ollama pull codellama:34b
# 内存16GB的机器建议用小一点的模型
ollama pull qwen2.5-coder:14b

然后配Goose连Ollama:

goose configure
# 选择 Configure Provider → Ollama
# API Host: http://localhost:11434
# 模型名: qwen3-coder

内存需求参考: - 8GB内存:能跑7B参数的模型,勉强能用 - 16GB内存:能跑14B参数的模型,日常够用 - 32GB内存:能跑34B以上的模型,体验接近云端

我的M2 MacBook Pro 32GB跑 qwen3-coder 没问题,响应速度大概是Claude API的1/3到1/2,但不花钱。

配MCP:给Goose装外挂

Goose支持MCP(Model Context Protocol),这意味着你可以给它接数据库、文件系统、GitHub等各种外部工具。

配置文件在 ~/.config/goose/config.yaml,手动编辑:

mcpServers:
  filesystem:
    command: npx
    args:
      - -y
      - "@modelcontextprotocol/server-filesystem"
      - "/Users/yourname/projects"

  github:
    command: npx
    args:
      - -y
      - "@modelcontextprotocol/server-github"
    env:
      GITHUB_PERSONAL_ACCESS_TOKEN: "ghp_xxxxxxxxxxxx"

  sqlite:
    command: npx
    args:
      - -y
      - "@modelcontextprotocol/server-sqlite"
      - "/path/to/your/database.db"

配好之后重启Goose,它就能直接操作你的文件系统、查GitHub仓库、读写数据库了。

实测一个场景:我让Goose帮我查GitHub上某个仓库最近的Issue,分析哪些是Bug哪些是Feature Request,然后生成一份markdown报告。整个过程Goose自己调MCP读取Issue列表,自己分类,自己写文件。大概3分钟跑完,人工做至少半小时。

实际使用:一周踩坑记录

第1天:初始化项目

让Goose从零建一个Next.js项目。命令:

goose session start
> 帮我创建一个Next.js 15项目,用TypeScript,配好Tailwind CSS和ESLint,建好基础目录结构

Goose依次执行了 npx create-next-app、修改 tailwind.config.ts、调整 tsconfig.json、创建 src/componentssrc/lib 目录。全程没出错。这种标准化任务,Goose处理得很干净。

第3天:调试一个诡异的Bug

一个API路由偶发返回500,日志里只有一行 "TypeError: Cannot read properties of undefined"。我把报错贴给Goose,它自己去读了相关的源文件,定位到是一个异步函数缺少 await,加了 await 之后还帮我补了个 try-catch。

这种"给一段报错让它自己定位"的场景,Goose表现不错——前提是你用的模型够强。我用Claude API时修复率很高,换成本地14B模型就开始瞎猜了。

第5天:碰到了上限

让Goose重构一个2000行的文件,把单体拆成模块。用Claude API时它能理解整个文件的逻辑关系,拆得合理。换Ollama本地模型,它读到一半就开始丢上下文,拆出来的模块之间互相引用不对。

这是本地模型的硬伤:上下文窗口小(默认4096到8192 token),处理大文件力不从心。Claude API的上下文窗口有200K token,差距确实大。

踩坑汇总

  1. Ollama模型首次加载慢。第一次启动要把模型加载到内存,qwen3-coder大概需要30秒。后续对话就快了。

  2. config.yaml格式敏感。多一个空格少一个缩进都会报错,报错信息也不友好。建议用 goose configure 命令,别手动编辑。

  3. MCP Server需要Node.js。配MCP之前确保装了Node.js 18+,不然 npx 跑不起来。

  4. 桌面版和CLI版共享配置。改了CLI的配置,桌面版也会变,反过来也一样。别两边同时改,会冲突。

和Claude Code对比:什么时候用Goose

场景 Goose + Claude API Goose + 本地模型 Claude Code
新建项目 好用 好用 好用
改Bug 好用 简单Bug可以 好用
重构大文件 好用 不行 好用
离线使用 不行 可以 不行
月费用 按量,约30-60元 0元 200美元
速率限制

我的用法:日常开发用 Goose + Claude API,出差飞机上用 Goose + Ollama,偶尔需要处理特别复杂的代码库时开一下Claude Code。

总结

Goose不是Claude Code杀手,但它给了开发者一个真实可用的选择。开源、免费、跑在本机、支持任意模型——这些特性放在一起,比"更强的模型"对很多人更有吸引力。

装一下试试,10分钟就能跑起来。反正不要钱。

GitHub地址:github.com/block/goose Ollama地址:ollama.com

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐