陌陌开源了 LinkWork(灵工),一个企业级 AI Agent 平台。本文从技术架构(一岗位一镜像、三层能力边界、MCP 工具总线)、部署方式(Docker Compose / K8s)、与 Dify 和 DeerFlow 的对比、适用场景等角度做深度解读。适合正在调研企业 AI Agent 方案的技术团队。


前言

上周刷 GitHub 的时候看到陌陌科技(momotech)开源了个新项目叫 LinkWork,中文名叫灵工。一开始以为是什么灵活用工的SaaS,点进去一看是个企业级 AI Agent 平台。Apache 2.0 协议,6个核心组件全部开源。看了半天文档和代码,发现它跟目前市面上的Dify、DeerFlow这些走了条完全不同的路。


一、灵工到底做了什么

1.1 定位

用官方的话说:“让 AI 像员工一样工作”

不是让 AI 回答问题,而是让 AI 交付成果。你在系统里定义岗位、分配技能、设定权限,AI 就按岗位职责干活。干完的东西直接推到 Git 仓库或者对象存储里,跟真实员工的产出管理是同一套逻辑。

1.2 核心特性

特性 说明
岗位模板化管理 统一定义职责、人设、Skills 与工具权限
容器级隔离运行 每个 AI 员工在独立 K8s 容器中运行
Skills 版本锁定 声明式能力模块,构建时注入岗位镜像
MCP 工具总线 兼容 MCP 协议,统一代理、鉴权、计量
Git/OSS 双通道交付 结果直接进入研发流程或归档
全链路审计 LLM 调用、命令执行、工具请求统一留痕
定时排班 基于 cron 的无人值守执行

二、技术架构拆解

2.1 整体架构

用户 / API
    │
    ▼
linkwork-web(React 前端)
    │  REST / WebSocket
    ▼
linkwork-server(核心调度引擎)
    ├──→ Skills Engine(声明式 · 版本锁定 · 构建时内嵌)
    ├──→ linkwork-mcp-gateway → MCP 工具生态
    ├──→ K8s 集群
    │        ├── linkwork-agent-sdk(Agent 运行时)→ LLM
    │        └── linkwork-executor(安全执行器)
    └──→ 任务分发 → 容器内执行 → 结果交付(Git/OSS)

2.2 六大组件

// 组件清单
type LinkWorkComponents struct {
    Server     string // 核心后端: 任务调度、岗位管理、审批
    Executor   string // 安全执行器: 容器内命令执行、策略引擎
    AgentSDK   string // Agent运行时: LLM引擎、Skills编排、MCP集成
    MCPGateway string // MCP工具网关: 发现、鉴权、用量统计
    Backend    string // 后端应用: Spring Boot, 镜像构建、任务编排
    Web        string // 前端: React, 任务面板、岗位配置、Skills市场
}

2.3 一岗位一镜像

这是灵工最核心的设计。跟大部分 Agent 平台"运行时动态加载"不同,灵工的做法是:

# 岗位构建流程(伪代码)
build_workstation:
  step_1: 注入 Skills 包          # 版本锁定
  step_2: 生成 MCP 工具描述       # 静态化
  step_3: 打包安全策略             # 不可运行时修改
  step_4: 版本快照                 # 可回溯
  step_5: 构建 Docker 镜像        # 固化

# 运行时
runtime:
  mode: read-only               # 镜像只读
  fail_fast: true               # 任一步骤失败则中断

这意味着:

  • Skills 在构建时就锁死版本,运行时不能临时装新的
  • 安全策略也是构建时打包,不能绕过
  • 每个岗位的运行环境完全隔离、完全可复现

2.4 三层能力边界

岗位 (Workstation)
  └── Skills (声明式技能模块)
        └── 工具 (MCP Tools)

灵工不是管"AI能不能调工具",而是管"这个岗位的AI有没有资格用这个工具"。三层嵌套的权限模型让你可以精确控制每个 AI 员工的能力边界。

2.5 安全机制

# 灵工的安全架构(简化示意)
class SecurityArchitecture:
    # 1. 默认网络关闭 - 要用得开白名单
    network_default = "deny_all"
    
    # 2. 执行与安全进程分离
    executor_process = "sandboxed"
    security_proxy   = "independent"  # AI对此无感知
    
    # 3. 高风险操作审批
    dangerous_commands = ["rm -rf", "DROP TABLE", ...]
    approval_required = True
    
    # 4. 深度命令解析
    # 不是简单的字符串匹配,而是解析命令树
    command_parser = "ast_based"

AI 员工对安全代理完全无感知——从架构层面压缩了"骗AI绕过安全检查"的空间。这个设计比大部分开源方案都硬核。


三、部署指南

3.1 Docker Compose(开发环境)

# 克隆仓库
git clone https://github.com/momotech/LinkWork.git
cd LinkWork/deploy/docker

# 配置环境变量
cp .env.example .env
# 编辑 .env: 设置数据库密码、JWT 密钥等

# 启动
docker compose up -d

访问 http://localhost:3003 打开管理界面。

3.2 Kubernetes(生产环境)

# 开发集群(Kind)
kubectl apply -k deploy/k8s/overlays/dev

# 生产集群
kubectl apply -k deploy/k8s/overlays/prod

生产环境要求:

依赖 版本 用途
Kubernetes v1.33+ 容器编排
Volcano - GPU 调度
Harbor - 镜像仓库
NFS - 共享存储

3.3 踩坑记录

描述 解决
K8s 版本 v1.33 以下某些 API 不支持 确认版本,必要时升级
Volcano 安装 Helm chart 依赖关系复杂 按官方文档顺序来,别跳步
镜像构建慢 第一次构建岗位镜像很慢 Harbor 做好缓存,base image 提前拉
MCP 工具超时 外部工具响应慢导致任务失败 gateway 层设置合理的 timeout

四、跟 Dify 和 DeerFlow 对比

维度 Dify DeerFlow 2.0 LinkWork
定位 AI 工作流平台 超级 Agent 框架 AI 员工管理平台
隔离方式 进程级 Docker 沙箱 K8s 容器 + 镜像锁定
能力管理 运行时动态加载 技能动态注册 构建时固化 + 版本锁定
审计 基础日志 执行记录 全链路审计留痕
交付方式 API 返回 文件输出 Git/OSS 工程化交付
定时任务 cron 排班 + 无人值守
部署难度 低(Docker) 中(Docker+Python) 高(K8s+Volcano+Harbor)
适合 快速搭原型 复杂长任务 企业规模化管控

它们不是互相替代的关系。如果你只是想快速搭个 AI 工作流原型,Dify 更合适。如果你要做复杂的多步骤任务编排,DeerFlow 更对口。如果你的需求是在企业里大规模部署AI、需要严格的权限管控和审计追溯,灵工是目前开源方案里做得最完整的。


五、适用场景

场景 适合度 原因
金融/政务 AI 落地 很适合 全链路审计、构建时锁定、安全架构硬核
大型企业 AI 中台 很适合 多团队多岗位并行、统一管控
研发团队 AI 辅助 适合 Git 交付、代码审查集成
中小团队快速试水 不太适合 部署门坎高,K8s 运维成本大
个人开发者 不适合 杀鸡用牛刀了

六、总结

灵工做对了几件事:把 AI 的使用方式从"工具"拉到了"人力资源管理"维度、用"一岗位一镜像"解决了运行时安全的根本问题、用 Git/OSS 双通道让 AI 产出真正进入工程流程。

不足也很明显:部署门坎高、社区早期、陌陌自身的业务状况让长期维护成了个问号。

如果你的团队已经有 K8s 基础设施,并且正在调研企业级 AI Agent 方案,灵工值得花半天时间跑一遍 Docker Compose 版试试。


七、参考资料


你们公司在用什么 Agent 平台?Dify、DeerFlow 还是自建的?评论区聊聊踩过什么坑

觉得有用 点赞 收藏 关注,后面会出灵工的实际部署踩坑报告

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐