当 AI 不再只是"一个人在战斗",而是让多个智能体各司其职、协作甚至对抗——评审的质量将发生质变。

一、为什么需要智能评审?

在软件研发流程中,需求评审和代码评审是保障质量的关键环节。然而现实是:

  • 人力有限:评审会议耗时耗力,参与者往往难以覆盖所有视角
  • 视角单一:个人经验局限导致盲区,安全、性能、体验等问题容易遗漏
  • 标准不一:不同评审者的关注点和严格程度差异巨大
  • 反馈滞后:评审意见往往在流程后期才被发现,修复成本高

RevuAI 的核心理念是:让多个 AI 智能体扮演不同角色,从不同视角对需求和代码进行深度评审,从而弥补人工评审的不足,提升评审的全面性和效率。

二、平台架构概览

RevuAI 采用前后端分离架构,由三个子系统组成:

子系统 技术栈 职责
用户前端 Vue 3 + Element Plus + Tailwind CSS + ECharts 面向评审用户的操作界面
管理后台 Vue 3 + TypeScript + Vite + Element Plus 面向管理员的运营管理界面
后端服务 FastAPI + SQLAlchemy + MySQL + ChromaDB API 服务、智能体编排、知识库管理

AI 能力层集成 DeepSeek、Moonshot 等大语言模型,通过 LangChain/LangGraph 进行智能体编排,使用 Ollama + bge-m3 模型实现知识库语义检索。

三、核心功能

3.1 产品空间

RevuAI 以产品为核心组织所有资源。每个产品拥有独立的知识库、代码仓库、需求基线和评审助手,形成完整的评审上下文。

  • 产品管理:创建产品、归档、成员邀请
  • 成员权限:产品管理员(admin)和普通成员(member)两种角色
  • 资源隔离:不同产品的知识库、助手、评审记录完全隔离

在这里插入图片描述

在这里插入图片描述

3.2 知识库管理

知识库是智能评审的"记忆",为评审提供上下文支撑。

  • 多类型知识库:支持产品文档、需求文档、技术资料、业务知识四种类型
  • 文档处理:上传文档后自动分块、向量化(bge-m3 嵌入模型),存入 ChromaDB
  • 语义检索:评审时自动从知识库检索相关内容,注入智能体提示词
  • 查询优化:支持 LLM 改写查询策略,提升检索精度
  • 处理监控:实时查看文档处理状态


在这里插入图片描述

3.3 评审助手

评审助手是连接产品与评审能力的桥梁,定义了评审的类型、模式和智能体配置。

  • 评审类型:需求评审、代码评审
  • 评审模式:快速模式、协作模式、辩论模式(详见下一章)
  • 知识库绑定:助手可绑定特定类型的知识库,评审时自动检索
  • 智能体配置:可自定义各角色的提示词、模型和参数


3.4 评审报告

评审完成后自动生成结构化报告,包含:

  • 综合评分:整体质量打分
  • 关键指标摘要:一目了然的核心发现
  • 维度分组:按完整性、可行性、安全性、性能、用户体验等维度分类展示
  • 优先级排序:问题按 P0 → P3 优先级排列
  • 改进建议:具体的优化方向
  • 导出功能:支持 JSON 和 Markdown 格式导出

在这里插入图片描述

四、三种评审模式——平台的核心创新

RevuAI 最大的特色在于三种评审模式,覆盖从"快速扫描"到"深度对抗"的不同场景需求。

4.1 快速模式

适用场景:时间紧迫,需要快速获得评审反馈

工作流程:审查专家结构化扫描 → 主持人总结

  • 单轮评审,速度最快
  • 由一个审查专家(Reviewer)全面扫描质量维度
  • 主持人(Host)汇总形成结论

4.2 协作模式

适用场景:需要多视角分析,但不需要对抗式深度

工作流程:多分析师并行独立分析 → 主持人汇总 → 矛盾讨论 → 共识评估

  • 五位分析师从不同视角并行分析:
分析师 视角
业务分析师 业务价值与市场契合度
技术分析师 技术可行性与架构影响
用户体验分析师 用户体验与交互设计
安全合规分析师 安全风险与合规要求
质量保障分析师 测试覆盖与质量标准
  • 主持人汇总各分析师发现,识别矛盾并讨论
  • 最终形成共识性评审结论

在这里插入图片描述

4.3 辩论模式

适用场景:高风险需求/代码,需要深度暴露缺陷

工作流程:主持人分析 → 多轮攻防辩论 → 仲裁者裁决

  • 主持人(Moderator):引导辩论方向,判断是否继续
  • 辩护方(Defender):从正面角度维护需求/代码的合理性
  • 质疑方(Challenger):从反面角度质疑需求/代码的缺陷
  • 仲裁者(Arbitrator):综合辩论结果,生成最终裁决

辩论模式支持最多 5 轮攻防,当双方达成共识或达到最大轮次时结束。这种对抗机制能够深度暴露隐藏问题,是传统单智能体评审无法实现的。

在这里插入图片描述

五、评审对话体验

评审过程以对话形式呈现,支持实时流式交互:

  • SSE 实时推送:智能体输出 Token 级流式展示,打字机效果
  • 角色着色:不同智能体角色使用不同颜色气泡,一目了然
  • 阶段分隔:辩论模式展示轮次分隔,协作模式展示分析师进度
  • 状态栏:实时显示评审进行状态
  • 用户交互:评审过程中可随时追问,与智能体对话

在这里插入图片描述

六、工作台

工作台是用户进入平台后的首页,提供一站式的评审工作入口:

  • 欢迎区:个性化问候 + 快速发起评审入口
  • 统计卡片:评审数量、通过率等关键指标及趋势
  • 评审趋势图:近期评审活动可视化
  • 质量分布图:评审质量评分分布

七、技术亮点

7.1 多智能体编排

基于 LangChain/LangGraph 实现分层智能体架构,由编排器(Orchestrator)统一调度不同角色的智能体,支持快速/协作/辩论三种模式的灵活切换。

7.2 知识库增强检索

评审启动时自动从产品知识库检索相关内容注入智能体提示词,让评审基于真实的项目上下文,而非泛泛而谈。支持 LLM 查询改写、相似度去重、按类型过滤等优化策略。

7.3 实时流式通信

基于 SSE(Server-Sent Events)实现评审过程的实时推送,用户可以像聊天一样观察智能体的思考过程,体验流畅自然。

7.4 Token 消耗追踪

每次 LLM API 调用均持久化记录 Token 消耗,管理后台提供趋势图和智能体分布分析,帮助运营者掌控成本。

八、适用场景

场景 推荐模式 说明
日常需求评审 快速模式 快速获得结构化反馈
重要需求评审 协作模式 多视角全面分析
高风险需求/代码 辩论模式 深度对抗暴露隐患
代码提交前自审 快速模式 提交前快速扫描
代码合并评审 协作/辩论模式 多角度审查代码质量

九、总结

RevuAI 通过多智能体协作机制,让 AI 评审从"单点判断"进化为"多角色协作"甚至"对抗式辩论"。这种设计不仅提升了评审的全面性和深度,更模拟了真实世界中高质量评审会议的运作方式——不同角色各司其职,在碰撞中逼近真相。

如果你有更好的建议,欢迎在评论区讨论交流。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐