RAG + WorkFlow + 多智能体:一套开源的政企 AI 应用中枢是怎么设计的
最近一段时间一直在搞代码审计相关的工作,顺带接触了不少 AI 辅助安全分析的方向。
偶然看到一个叫云图智脑的开源项目,是专门面向政企场景的 AI 应用管理
平台,研究了一圈觉得架构设计上有些地方挺值得聊的,记录一下。
开源地址:[GitHub: https://github.com/tianqi-era-ai/yuntu-zhinao]
先说为什么关注这个方向
做安全的人其实比别人更早意识到一件事:大模型用在企业内部,数据安全是第一道坎。
前段时间几个项目里都有客户问过类似的需求——能不能用 AI 帮我们做内部知识检索、
审计报告生成、合规条文比对之类的事。但一聊到数据要上云,直接就卡死了。政务单
位和金融机构对这块基本零容忍,数据出域这件事连讨论的余地都没有。
所以私有化部署、本地知识库、离线推理这几个关键词,才是政企场景 AI 落地真正的
技术要求。云图智脑整个设计绕着这条线走,这是我觉得它值得细看的原因。
整体架构
先上一个架构分层,帮助整体理解:
┌────────────────────────────────────────────┐
│ 应用层(前端 UI) │
│ 应用广场 / 工作流编排界面 / 数据看板 │
├────────────────────────────────────────────┤
│ 智能体层(Agent) │
│ 多 Agent 管理 / 长短期记忆 / Prompt 配置 │
├────────────────────────────────────────────┤
│ 知识与工作流层(Core) │
│ RAG 知识库管理 / WorkFlow 编排引擎 │
├────────────────────────────────────────────┤
│ 模型基础设施层 │
│ LLM 网关(GPT / LLaMA / DeepSeek 等) │
│ 向量数据库 / Embedding 服务 │
└────────────────────────────────────────────┘
四层,每层职责独立,底层模型可替换。这个设计在实际部署时比较友好——换模型不用
动上层逻辑,接入私有化的 vLLM 或 Ollama 也是一样的调用方式。
知识库模块:RAG 工程的几个关键决策
为什么是 RAG 而不是微调
这个问题我之前也纠结过。微调(Fine-tuning)适合让模型学风格,但不适合让它记住动态更新的知识——企业内部文档今天一个版本,明天又改了,微调的更新成本根本跟不上。
RAG 的思路更务实:文档切片 → 向量化 → 存向量库 → 查询时检索相关片段 → 拼进 Prompt 送给 LLM。知识更新只需要重新入库,不碰模型本身。
云图智脑 在 RAG 工程上几个有意思的地方
多格式摄入:Word/PDF/Markdown/Excel/网页爬取/图片(OCR)都支持,这对企业场景很实际,现实中文档格式就是乱的。
可视化标记 + 双路召回:系统自动给每个文本块打索引标签,同时支持人工二次标记。本质上是在向量检索之上叠了一层关键词过滤——两种召回互补,能显著提升精确率,特别是在专业术语密集的场景(比如安全合规条文)里效果很明显。
热更新:文档变更做增量索引,不用全量重建,这个在生产环境里很重要。
分级授权:不同知识库对应不同权限组,部门隔离。这块对安全合规场景非常关键,做过等保项目的人应该懂——"数据只给应该看到的人"不是需求,是红线。
Agent 模块:从单个问答到"数字员工"
每个 Agent 核心配置三件事:绑定哪些知识库、用哪个底层模型、写什么系统 Prompt。
模型层做了统一网关,GPT-4、DeepSeek-R1、LLaMA 3 切换不用改代码,对于想在内网跑开源模型的场景很实用。
记忆机制是 Agent 里比较值得关注的设计:
- 短期记忆:当前会话上下文,维持对话连贯性,这个基本标配
- 长期记忆:跨会话保留用户偏好和历史,适合需要"记住用户"的场景
做过智能客服或内部知识助手类项目的应该知道,没有长期记忆的 Agent 每次对话都从零开始,体验很割裂。这块能力让 Agent 有了积累上下文的基础。
WorkFlow 编排:流程型任务的正确打开方式
纯对话 Agent 适合非结构化问答,但很多企业场景是有明确步骤的流程型任务。举几个安全方向比较贴近的例子:
- 漏洞报告生成:采集资产扫描结果 → 漏洞分类 → 风险评级 → 生成报告 → 推送
- 合规条文比对:上传文件 → 提取关键条款 → 与标准库比对 → 输出差距分析
- 日志异常分析:拉取日志 → 结构化处理 → 异常识别 → 告警汇总
这类任务用 WorkFlow 编排比纯对话 Agent 可靠得多,每个节点输入输出清晰,容易测试,出问题也好定位。
节点插件支持 LLM 调用、RAG 检索、条件分支、外部 API 对接、自定义代码执行(Python/JS),组合起来基本能覆盖大多数流程场景。
编排完的 WorkFlow 可以直接发布成在线应用,也可以对外暴露 API,集成到已有系统里——这点对想把 AI 能力嵌入已有安全运营平台的场景挺友好。
私有化部署与数据安全
这块是整个方案的基础前提,简单过一下:
- 整套平台支持部署在客户自有服务器或私有云,数据完全不出域
- 底层模型可接入本地化推理框架(Ollama/vLLM),离线运行
- 知识库分级授权,细粒度权限控制
- 通过了 ISO27001、DSMM(数据安全能力成熟度)、CCRC 软件安全开发等认证
对于要对接政务或金融客户的场景,这些资质背书还是有用的,至少过合规评审时少很多麻烦。
数据看板
这个模块单独提一下,因为实际运营中容易被忽视但挺重要:智能体上线后,用户活跃情况、知识库命中率、模型响应延迟这些数据可以直接在看板里看,支持按时间筛选和下钻。
有了这些数据才能做有依据的迭代——哪些知识库被频繁命中、哪些 Agent 的回答质量差、响应延迟在哪个节点卡——而不是靠感觉优化。
小结
| 模块 | 核心价值 |
|---|---|
| RAG 知识库 | 私有知识高效利用,增量更新,无需微调 |
| 多 Agent | 多场景隔离,模型随时切换,长短期记忆 |
| WorkFlow | 流程型任务自动化,节点可测可调 |
| LLM 网关 | 模型无关,私有模型同等接入 |
| 数据安全 | 本地部署,数据不出域,合规可审计 |
企业 AI 落地不缺大模型,缺的是一套能把模型能力对接到真实业务流程、同时满足数据安全要求的工程体系。
云图智脑是个不错的参考起点,特别是对于在政企方向做 AI 落地的团队。代码都在,感兴趣可以拉下来研究一下。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)