DeerFlow 2.0:字节跳动开源的超级 Agent 框架,46000+ Star 登顶 GitHub Trending

从深度研究到超级 Agent 运行时,一个能做"几乎任何事"的开源框架。

DeerFlow 封面

写在前面

2026 年 2 月 28 日,DeerFlow 2.0 发布当天就登顶 GitHub Trending 第一名,46000+ stars。

这不是一个普通的 AI Agent 框架。

大多数 Agent 框架只是把 LLM 包装一下,加几个工具调用接口,就说自己是"Agent"。但 DeerFlow 不一样——它是一个完整的超级 Agent 运行时(Super Agent Harness)。

什么意思?

想象一下:你给 Agent 分配一个复杂任务,比如"研究某个技术领域,生成一份深度报告,配上数据可视化图表,最后做成 PPT"。

普通 Agent 会卡在第一步,或者给你一堆半成品。

DeerFlow 会:

  1. 自动拆解任务,生成执行计划
  2. 并行启动多个子 Agent,各自负责不同部分
  3. 在隔离的沙箱环境里执行代码、生成图表
  4. 把所有结果汇总,生成最终交付物
  5. 记住整个过程,下次做类似任务更快

这才是真正的"Agent"——不是聊天机器人,是能干活的数字员工。

核心亮点

1. 完整的执行环境:不只是聊天,是真的能干活

大多数 Agent 只能"说",DeerFlow 能"做"。

每个任务运行在独立的 Docker 沙箱里,有完整的文件系统:

/mnt/user-data/
├── uploads/          # 你上传的文件
├── workspace/        # Agent 的工作目录
└── outputs/          # 最终交付物

Agent 可以:

  • 读写文件
  • 执行 bash 命令
  • 运行 Python 代码
  • 查看图片
  • 生成可视化图表

所有操作都在沙箱里,互相隔离,不会污染宿主机。

这就是 DeerFlow 和聊天机器人的本质区别:它有自己的电脑

DeerFlow 核心架构

2. 子 Agent 编排:复杂任务自动拆解并行执行

复杂任务很少能一次完成。DeerFlow 的解决方案是:自动拆解 + 并行执行

主 Agent 可以动态生成子 Agent,每个子 Agent:

  • 有独立的上下文和工具
  • 并行执行(能并行的就并行)
  • 完成后返回结构化结果
  • 主 Agent 汇总所有结果

举个例子:

任务:“研究 AI Agent 领域的最新进展,生成深度报告”

DeerFlow 的执行流程

  1. 主 Agent 制定计划:需要调研学术论文、开源项目、行业动态
  2. 并行启动 3 个子 Agent:
    • 子 Agent A:搜索 arXiv 最新论文
    • 子 Agent B:爬取 GitHub Trending
    • 子 Agent C:分析行业报告
  3. 每个子 Agent 独立工作,互不干扰
  4. 主 Agent 收集所有结果,生成最终报告

这种架构让 DeerFlow 能处理"需要几分钟到几小时"的长时任务。

3. 技能系统(Skills):可扩展的能力模块

DeerFlow 的"技能"不是简单的函数调用,而是结构化的能力模块

每个技能是一个 Markdown 文件,定义了:

  • 工作流程
  • 最佳实践
  • 相关资源引用

内置技能

  • 深度研究(research)
  • 报告生成(report-generation)
  • PPT 制作(slide-creation)
  • 网页生成(web-page)
  • 图片生成(image-generation)
  • 视频生成(video-generation)

技能是按需加载的——只有任务需要时才加载,不会一次性塞满上下文窗口。

更重要的是,你可以:

  • 添加自定义技能
  • 替换内置技能
  • 组合多个技能形成复合工作流
/mnt/skills/public/
├── research/SKILL.md
├── report-generation/SKILL.md
└── slide-creation/SKILL.md

/mnt/skills/custom/
└── your-custom-skill/SKILL.md  ← 你的技能

4. 长期记忆:跨会话的持久化知识

大多数 Agent 每次对话结束就失忆了。DeerFlow 会记住。

它会持久化存储:

  • 你的个人资料和偏好
  • 技术栈和工作流程
  • 写作风格和表达习惯
  • 历史任务的经验

用得越多,它越懂你。

而且,记忆存储在本地,完全由你控制。

5. 多渠道接入:Telegram、Slack、飞书

DeerFlow 不只是个 Web 应用,还支持通过消息应用直接使用:

  • Telegram:Bot API 长轮询,配置最简单
  • Slack:Socket Mode,无需公网 IP
  • 飞书/Lark:WebSocket 连接

在聊天软件里直接发任务,DeerFlow 自动创建线程并执行。

支持的命令:

  • /new - 开始新对话
  • /status - 查看当前线程状态
  • /models - 列出可用模型
  • /memory - 查看记忆
  • /help - 帮助信息

技术架构

基于 LangGraph + LangChain

DeerFlow 2.0 是完全重写的版本,基于:

  • LangGraph:多 Agent 编排
  • LangChain:LLM 交互和工具链

这意味着:

  • 成熟稳定的底层框架
  • 丰富的生态系统
  • 易于扩展和定制

沙箱执行模式

支持三种沙箱模式:

  1. 本地执行:直接在宿主机运行(开发测试用)
  2. Docker 执行:隔离的 Docker 容器(推荐)
  3. Kubernetes 执行:通过 provisioner 服务在 K8s Pod 中运行(生产环境)

MCP 服务器支持

DeerFlow 支持 MCP(Model Context Protocol)服务器扩展能力。

对于 HTTP/SSE 类型的 MCP 服务器,还支持 OAuth token 流程(client_credentialsrefresh_token)。

快速开始

1. 克隆仓库

git clone https://github.com/bytedance/deer-flow.git
cd deer-flow

2. 生成配置文件

make config

3. 配置模型

编辑 config.yaml,至少配置一个模型:

models:
  - name: gpt-4
    display_name: GPT-4
    use: langchain_openai:ChatOpenAI
    model: gpt-4
    api_key: $OPENAI_API_KEY
    max_tokens: 4096
    temperature: 0.7

支持的模型:

  • OpenAI(GPT-4、GPT-5)
  • Anthropic Claude(通过 Claude Code OAuth)
  • OpenRouter(Gemini、Claude 等)
  • 字节豆包(Doubao-Seed-2.0-Code)
  • DeepSeek v3.2
  • Kimi 2.5

4. 设置 API Key

编辑 .env 文件:

OPENAI_API_KEY=your-openai-api-key
TAVILY_API_KEY=your-tavily-api-key

5. 启动服务

Docker 方式(推荐)

make docker-init    # 拉取沙箱镜像(首次运行)
make docker-start   # 启动服务

本地开发方式

make check    # 检查依赖(Node.js 22+, pnpm, uv, nginx)
make install  # 安装依赖
make dev      # 启动服务

访问:http://localhost:2026

嵌入式 Python 客户端

DeerFlow 还提供了嵌入式 Python 客户端,不需要启动 HTTP 服务也能使用:

from deerflow.client import DeerFlowClient

client = DeerFlowClient()

# 聊天
response = client.chat("帮我分析这篇论文", thread_id="my-thread")

# 流式输出
for event in client.stream("你好"):
    if event.type == "messages-tuple" and event.data.get("type") == "ai":
        print(event.data["content"])

# 管理
models = client.list_models()
skills = client.list_skills()
client.upload_files("thread-1", ["./report.pdf"])

非常适合集成到现有的 Python 应用中。

从 v1 到 v2:不是升级,是重写

DeerFlow 2.0 与 v1 没有任何共享代码,是完全从零重写的版本。

v1 是一个深度研究框架(Deep Research),社区把它用到了远超预期的场景——数据管道、PPT 生成、Dashboard 搭建、内容自动化工作流。

这让团队意识到:DeerFlow 不只是一个研究工具,它是一个运行时——一个让 Agent 真正做事的基础设施。

于是有了 v2:从研究框架到超级 Agent 运行时的蜕变。

Claude Code 集成

DeerFlow 还提供了 claude-to-deerflow 技能,可以在 Claude Code 中直接使用 DeerFlow:

npx skills add https://github.com/bytedance/deer-flow --skill claude-to-deerflow

在 Claude Code 里你可以:

  • 发送任务给 DeerFlow 并获取流式响应
  • 选择执行模式:flash(快速)、standard、pro(规划)、ultra(子 Agent)
  • 检查健康状态、列出模型/技能/Agent
  • 管理线程和历史
  • 上传文件进行分析

写在最后

DeerFlow 代表了 AI Agent 框架的下一个阶段。

第一代 Agent 框架是工具调用——给 LLM 挂几个 API,就叫 Agent。

第二代是编排——多 Agent 协作,任务分解。

DeerFlow 是第三代:完整的执行运行时。它有文件系统,有沙箱,有记忆,有技能系统,有子 Agent 编排,有多渠道接入。

它不只是让 AI"思考",还让 AI"行动"。

对于正在构建 AI 应用的开发者来说,DeerFlow 解决了一个核心问题:从 Demo 到生产的最后一公里。你不需要自己搭建沙箱、自己实现记忆系统、自己编写任务编排逻辑。DeerFlow 全部帮你做好了。


项目地址:https://github.com/bytedance/deer-flow
官方网站:https://deerflow.tech
Star 数量:46000+
开源协议:MIT

快速开始

git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
make config && make docker-init && make docker-start

你觉得 DeerFlow 最有价值的特性是什么?是沙箱执行、子 Agent 编排,还是技能系统?欢迎在评论区分享你的想法。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐