最近一段时间一直在搞代码审计相关的工作,顺带接触了不少 AI 辅助安全分析的方向。
偶然看到一个叫云图智脑的开源项目,是专门面向政企场景的 AI 应用管理
平台,研究了一圈觉得架构设计上有些地方挺值得聊的,记录一下。

开源地址:[GitHub: https://github.com/tianqi-era-ai/yuntu-zhinao]


先说为什么关注这个方向

做安全的人其实比别人更早意识到一件事:大模型用在企业内部,数据安全是第一道坎。

前段时间几个项目里都有客户问过类似的需求——能不能用 AI 帮我们做内部知识检索、
审计报告生成、合规条文比对之类的事。但一聊到数据要上云,直接就卡死了。政务单
位和金融机构对这块基本零容忍,数据出域这件事连讨论的余地都没有。

所以私有化部署、本地知识库、离线推理这几个关键词,才是政企场景 AI 落地真正的
技术要求。云图智脑整个设计绕着这条线走,这是我觉得它值得细看的原因。


整体架构

先上一个架构分层,帮助整体理解:

┌────────────────────────────────────────────┐
│              应用层(前端 UI)               │
│   应用广场 / 工作流编排界面 / 数据看板        │
├────────────────────────────────────────────┤
│              智能体层(Agent)               │
│   多 Agent 管理 / 长短期记忆 / Prompt 配置   │
├────────────────────────────────────────────┤
│           知识与工作流层(Core)             │
│   RAG 知识库管理 / WorkFlow 编排引擎         │
├────────────────────────────────────────────┤
│              模型基础设施层                  │
│   LLM 网关(GPT / LLaMA / DeepSeek 等)     │
│   向量数据库 / Embedding 服务                │
└────────────────────────────────────────────┘

四层,每层职责独立,底层模型可替换。这个设计在实际部署时比较友好——换模型不用
动上层逻辑,接入私有化的 vLLM 或 Ollama 也是一样的调用方式。


知识库模块:RAG 工程的几个关键决策

为什么是 RAG 而不是微调

这个问题我之前也纠结过。微调(Fine-tuning)适合让模型学风格,但不适合让它记住动态更新的知识——企业内部文档今天一个版本,明天又改了,微调的更新成本根本跟不上。

RAG 的思路更务实:文档切片 → 向量化 → 存向量库 → 查询时检索相关片段 → 拼进 Prompt 送给 LLM。知识更新只需要重新入库,不碰模型本身。

云图智脑 在 RAG 工程上几个有意思的地方

多格式摄入:Word/PDF/Markdown/Excel/网页爬取/图片(OCR)都支持,这对企业场景很实际,现实中文档格式就是乱的。

可视化标记 + 双路召回:系统自动给每个文本块打索引标签,同时支持人工二次标记。本质上是在向量检索之上叠了一层关键词过滤——两种召回互补,能显著提升精确率,特别是在专业术语密集的场景(比如安全合规条文)里效果很明显。

热更新:文档变更做增量索引,不用全量重建,这个在生产环境里很重要。

分级授权:不同知识库对应不同权限组,部门隔离。这块对安全合规场景非常关键,做过等保项目的人应该懂——"数据只给应该看到的人"不是需求,是红线。


Agent 模块:从单个问答到"数字员工"

每个 Agent 核心配置三件事:绑定哪些知识库、用哪个底层模型、写什么系统 Prompt。
模型层做了统一网关,GPT-4、DeepSeek-R1、LLaMA 3 切换不用改代码,对于想在内网跑开源模型的场景很实用。

记忆机制是 Agent 里比较值得关注的设计:

  • 短期记忆:当前会话上下文,维持对话连贯性,这个基本标配
  • 长期记忆:跨会话保留用户偏好和历史,适合需要"记住用户"的场景

做过智能客服或内部知识助手类项目的应该知道,没有长期记忆的 Agent 每次对话都从零开始,体验很割裂。这块能力让 Agent 有了积累上下文的基础。


WorkFlow 编排:流程型任务的正确打开方式

纯对话 Agent 适合非结构化问答,但很多企业场景是有明确步骤的流程型任务。举几个安全方向比较贴近的例子:

  • 漏洞报告生成:采集资产扫描结果 → 漏洞分类 → 风险评级 → 生成报告 → 推送
  • 合规条文比对:上传文件 → 提取关键条款 → 与标准库比对 → 输出差距分析
  • 日志异常分析:拉取日志 → 结构化处理 → 异常识别 → 告警汇总

这类任务用 WorkFlow 编排比纯对话 Agent 可靠得多,每个节点输入输出清晰,容易测试,出问题也好定位。

节点插件支持 LLM 调用、RAG 检索、条件分支、外部 API 对接、自定义代码执行(Python/JS),组合起来基本能覆盖大多数流程场景。

编排完的 WorkFlow 可以直接发布成在线应用,也可以对外暴露 API,集成到已有系统里——这点对想把 AI 能力嵌入已有安全运营平台的场景挺友好。


私有化部署与数据安全

这块是整个方案的基础前提,简单过一下:

  • 整套平台支持部署在客户自有服务器或私有云,数据完全不出域
  • 底层模型可接入本地化推理框架(Ollama/vLLM),离线运行
  • 知识库分级授权,细粒度权限控制
  • 通过了 ISO27001、DSMM(数据安全能力成熟度)、CCRC 软件安全开发等认证

对于要对接政务或金融客户的场景,这些资质背书还是有用的,至少过合规评审时少很多麻烦。


数据看板

这个模块单独提一下,因为实际运营中容易被忽视但挺重要:智能体上线后,用户活跃情况、知识库命中率、模型响应延迟这些数据可以直接在看板里看,支持按时间筛选和下钻。

有了这些数据才能做有依据的迭代——哪些知识库被频繁命中、哪些 Agent 的回答质量差、响应延迟在哪个节点卡——而不是靠感觉优化。


小结

模块 核心价值
RAG 知识库 私有知识高效利用,增量更新,无需微调
多 Agent 多场景隔离,模型随时切换,长短期记忆
WorkFlow 流程型任务自动化,节点可测可调
LLM 网关 模型无关,私有模型同等接入
数据安全 本地部署,数据不出域,合规可审计

企业 AI 落地不缺大模型,缺的是一套能把模型能力对接到真实业务流程、同时满足数据安全要求的工程体系。

云图智脑是个不错的参考起点,特别是对于在政企方向做 AI 落地的团队。代码都在,感兴趣可以拉下来研究一下。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐