教学数据分析并不是把成绩交给模型,再等它生成一段结论那么简单。真正落到业务场景里,往往同时涉及班级统计、学生画像、分数分布、学科相关性、成绩趋势和知识点表现等多个维度。只要分析边界不够清楚,输出就很容易从数据解读变成泛化发挥,最终看起来完整,实际上难以落地。

尤其在教育场景中,数据解释对口径一致性和输出稳定性要求很高。班级统计、学生画像、趋势分析和单次表现不能混在一起写,统计现象和原因推断也必须严格区分。因此,教学分析类智能体不能只追求“能回答”,更要做到“边界清楚、路由准确、输出稳定”。

智能体介绍

这套工作流的定位非常明确,它不是一个自由发挥的开放式聊天助手,而是一个围绕“系统使用帮助”场景构建的知识库问答型工作流。用户输入问题后,流程不会直接让模型生成答案,而是先进入知识检索节点,从知识库中召回与问题相关的内容,再交给大模型基于检索结果进行回答,最后通过统一回复节点输出结果。也就是说,这套工作流处理的重点不是“让模型尽可能多说”,而是“让模型尽可能基于已知资料来回答”。

从整体能力来看,这个工作流虽然结构简单,但目标很聚焦,核心就是解决“用户提问如何基于知识库稳定作答”的问题。它适合承接系统说明、产品使用方法、功能介绍、常见问题解答等帮助类场景。相较于自由问答,这种方式能更好地控制输出来源,降低模型编造内容的概率,也更适合做企业内部知识问答、平台使用指南和业务操作帮助这类正式场景。

在这里插入图片描述

工作流在代码层的入口并没有额外设计复杂的业务参数,而是直接以用户问题作为核心输入贯穿整个链路。开始节点接收请求后,知识检索节点会基于 SYS.UserQuery 进行召回,查询模板为“请帮我检索 {{input}} 相关内容”,这样既保留了用户原始问题语义,也让知识库检索有了统一口径。后续大模型节点再结合问题内容和召回结果生成最终答案,保证整个过程都围绕同一个问题展开。这里属于常规问答没有参数的提交所以不需要设置API节点信息。

在这里插入图片描述

核心模型

在模型配置层面,这套工作流采用的是非常典型的“知识检索 + 大模型生成”组合方式。整个链路只使用一个大模型节点承担回答任务,但这个节点并不是孤立运行的,而是严格建立在前置知识检索结果之上。也就是说,大模型不直接面对一个没有边界的开放问题,而是先拿到用户问题和检索出的知识内容,再在这些内容的约束下生成回答。这样的设计本质上是在用知识库限制模型的回答范围,从而提升结果可信度。更关键的是,这个模型节点在系统提示词里做了非常明确的约束:回答必须严格来自知识库,不要编造不存在的信息;如果知识库中没有相关内容,就直接说明未在知识库中找到答案。这样的提示词虽然简单,但对于帮助类场景非常重要。因为系统帮助问答最怕的不是“回答得少”,而是“回答得像真的,但实际上知识库里没有依据”。一旦模型脱离知识来源自由生成,就会影响用户对整套系统的信任。

结合模型配置表来看,这套工作流的模型设计并不复杂,但职责非常清楚。知识检索节点负责“找内容”,大模型节点负责“组织表达”,两者配合之后,才能形成一条稳定的帮助问答链路。

模型名称 使用位置 主要职责 配置价值
Deepseek/deepseek-v3-250324 大模型节点 基于用户问题与知识库检索结果生成帮助回答 保证回答建立在知识检索结果之上,减少编造风险

从表格可以看到,这套工作流并没有追求复杂的模型编排,而是把重点放在“回答必须有知识依据”上。对于系统帮助、产品说明、操作文档这类场景来说,这种设计比开放式聊天更实用,因为它更强调回答边界和来源一致性。

Node 节点

如果从节点编排角度来看,这套工作流采用的是一种非常轻量的线性结构,也就是“开始 → 知识检索 → 大模型生成 → 回复 → 结束”的单链路执行方式。它没有复杂的多分支判断,也没有多智能体协同,而是围绕“用户提问如何被知识库支持回答”这一件事展开。这样的结构虽然简单,但对帮助型场景来说反而很合适,因为目标非常单一,没必要引入过多流程复杂度。

这种节点设计的优势主要体现在两个方面。第一,链路短,执行清晰,任何问题都可以快速定位到是检索环节还是生成环节出了问题。第二,维护成本低,后续如果要替换知识库、调整检索策略或优化提示词,都可以在单个节点层面完成,不需要大范围重构流程。对于系统帮助、FAQ、操作说明这类高频问答场景来说,这种结构更有利于快速上线和持续迭代。

从节点职责汇总表可以更直观地看出,整条链路中每个节点都只承担一种功能。开始节点负责承接请求,知识检索节点负责召回资料,大模型节点负责组织答案,回复节点负责回传结果,结束节点负责收口。正是这种线性、低耦合的设计,保证了整个工作流的稳定性和易用性。

节点类型 节点名称 节点职责 结构作用
开始节点 开始 接收工作流入口请求并启动链路 统一输入入口
知识检索节点 知识检索1 基于用户问题检索知识库相关内容 为回答提供知识依据
LLM 节点 大模型1 结合用户问题与知识库结果生成回答 统一答案生成
回复节点 回复1 输出模型生成结果 对外返回答案
结束节点 结束 结束流程并完成最终回传 统一终点

从这张节点汇总表可以发现,这套工作流虽然只有少量节点,但链路逻辑是完整闭环的。对于帮助类问答来说,重要的不是节点数量,而是每一步是否真正服务于“基于知识回答问题”这个目标。

在这里插入图片描述

这里需要先完成管理系统的知识库文档的创建,否则知识库在工作流中无法使用。

在这里插入图片描述

工作流程

从工作流层面看,这套系统的核心不是“让模型理解一切问题”,而是“先检索到可用知识,再让模型回答”。因此,它的重点不在复杂意图分流,而在知识召回和回答约束能力。工作流由开始节点承接用户问题后,首先进入知识检索节点,系统使用“请帮我检索 {{input}} 相关内容”作为统一查询模板,在知识库中执行混合检索;随后把召回到的知识内容连同原始问题一起传给大模型节点,大模型根据系统提示词生成结果;最后通过回复节点输出并在结束节点收口。整条链路虽然不复杂,但执行目标非常清晰,就是确保回答建立在检索结果之上。

流程序号 流程阶段 工作描述 使用节点
1 请求接入 接收用户输入的问题并启动工作流 开始
2 知识召回 根据用户问题检索知识库相关内容,统一查询模板为“请帮我检索 {{input}} 相关内容” 知识检索1
3 内容生成 将用户问题与知识库召回内容一起交给大模型生成回答 大模型1
4 结果回传 将生成内容作为最终答案返回给用户 回复1
5 流程收口 结束执行并完成输出闭环 结束

知识检索节点在这条链路里承担的是整个流程的前置基础。只有先召回与用户问题相关的知识,后续模型回答才有依据。当前检索策略采用的是文档与 QA 的混合检索方式,其中文档召回数为 3、文档置信度阈值为 0.2,QA 召回数为 2、QA 置信度阈值为 0.9。这种配置说明,流程既希望覆盖更多可能相关的文档内容,又希望对问答类知识保持相对较高的准确性门槛,从而兼顾召回范围与回答质量。

开始
接收用户输入的问题并启动工作流

知识检索1
根据用户问题检索知识库相关内容

大模型1
结合用户问题与知识库召回内容生成回答

回复1
将生成内容作为最终答案返回给用户

结束
完成输出闭环

从链路关系来看,这套流程本质上是一条标准的 RAG 问答闭环。它没有把知识检索和模型回答混成一步,而是明确区分“先找资料”和“再写答案”两件事。这样的拆分方式非常关键,因为它让工作流具备了更好的可控性。后续如果回答质量不稳定,可以单独优化检索策略;如果表达风格不理想,也可以只调整模型提示词,而不影响整条链路的其他部分。

在这里插入图片描述

工作流启用与发布属于整条链路上线前的最后一步。这里的重点并不只是完成发布操作,而是确保你已经把知识库内容、检索配置、模型提示词和输出方式全部固定下来。只有这样,外部调用时才能持续得到边界一致、来源明确的帮助回答,避免出现“同样的问题每次回答都不一样”或者“回答超出知识库范围”的情况。

在这里插入图片描述

应用场景

这个工作流最适合的场景,是需要“答案来源清楚、输出口径统一、便于快速接入”的系统帮助与知识问答产品形态。由于它采用的是知识检索与模型回答串联的方式,因此既可以接入产品帮助中心,也可以嵌入后台管理系统、企业内部平台、业务操作台或 SaaS 产品说明页中。对于同一套知识库,系统既可以面向普通用户回答基础使用问题,也可以面向内部员工承接流程说明、操作规范和功能解释类问题。这样做的价值在于,不同场景下调用的虽然是同一套工作流,但回答逻辑始终保持一致,都会先基于知识库找依据,再由模型生成答案,不会出现完全脱离资料的自由发挥。结合后续知识库补充和使用记录回溯,还可以持续优化问答覆盖范围和回答准确性。

应用场景 使用目标 典型用户 展示内容 实现效果
系统使用帮助 回答用户对平台功能和操作流程的常见问题 普通用户、产品使用者 功能说明、操作步骤、问题解释 让用户快速获得基于知识库的标准答案
帮助中心问答 为产品帮助中心提供自动化问答能力 网站访客、注册用户 常见问题、使用规则、功能说明 降低人工客服重复答疑成本
企业内部知识问答 为内部员工提供制度、流程、规范查询入口 员工、运营、实施人员 流程说明、制度内容、业务规范 提升内部知识检索与答疑效率
产品后台辅助问答 嵌入后台系统协助用户理解模块功能 管理员、运营人员、业务人员 页面说明、字段解释、配置帮助 适合做后台系统内嵌帮助助手
FAQ 自动回复 将常见问答转化为可自动回答的统一出口 客服团队、产品团队 FAQ 内容、统一回复话术 提升高频问题处理效率与口径一致性

总结

该工作流通过“知识检索 + 模型生成 + 统一回复”的方式,将原本容易失控的开放式问答任务收束为一条基于知识库的标准回答链路。整个流程虽然简单,但边界非常清楚:知识检索负责提供依据,大模型负责组织表达,回复节点负责统一回传,系统提示词则进一步约束模型不得编造不存在的信息。这样一来,输出结果就具备了更清晰的来源边界、更稳定的回答口径和更高的正式场景可用性。

从工程实现角度看,这套工作流真正解决的,不只是“模型能不能回答系统问题”,而是“如何让帮助类回答建立在知识依据之上,并且长期稳定地提供服务”。在现有结构基础上,后续还可以通过补充知识库、优化检索模板、细化提示词约束或扩展多轮上下文能力,进一步增强整套系统的可用性。对于系统帮助、产品说明和企业知识问答这类场景来说,这种“先检索、再生成、后收口”的工作流模式,会比单纯依赖大模型自由问答更适合长期落地。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐