本文深入探讨了RAG技术从检索增强生成到构建认知系统的演变。文章分析了幻觉、对齐、进化等关键问题,并介绍了Agentic RAG、GraphRAG、MSA等前沿方向。对于想要了解RAG技术最新进展的小白和程序员来说,本文提供了宝贵的收藏和学习资源。

这两年看 RAG,有种很明显的感觉:这个方向还在热,但讨论的重心已经变了。

前一阶段,大家更关心的是怎么把检索接进大模型:向量库怎么选,chunk 怎么切,embedding 用哪家,rerank 要不要上。那时候的共识很简单——模型不知道的,就去外面查。

真把系统做上线之后,问题很快就变了。

你会发现,很多时候不是"没查到",而是"查到了也没用上"。不是"回答错了",而是"回答不对味"。也不是"知识不能更新",而是"系统上线之后几乎不会变聪明"。

所以最近一年,RAG 领域真正有意思的变化,不是又多了几个检索技巧,而是越来越多工作开始碰更深一层的问题:模型为什么会忽略证据?系统为什么总沿着错误路径越走越远?检索、记忆、推理,到底该不该继续拆开?

把 2025 到 2026 年初这一批论文和项目放在一起看,会发现一条挺清晰的线:RAG 正在从"外挂检索"走向"动态决策",再往"长期记忆"和"端到端记忆模型"演化。

这篇文章想聊的,不是"最近有哪些论文",而是:RAG 到底正在往哪里去。



一、幻觉:问题不只是"没检索到",而是"没信检索"

以前谈 RAG 幻觉,主流思路基本都在系统层打补丁。多检索一次,多搜一个源,加一个重排,再做一次校验,让模型自己反思一遍。这些都不是没用。问题是,它们大多默认了一件事:只要把正确文档拿给模型,模型就会老老实实用。

但这件事其实未必成立。

ICLR 2025 的一篇 Spotlight 工作 ReDeEP,第一次把这个问题讲得比较透。它的结论很有意思:RAG 模型内部其实存在两类机制的竞争。一类更偏向于从外部文档里提取信息,可以理解为"照着证据说"。另一类更偏向调用模型参数里已经记住的知识,可以理解为"按自己的经验说"。当后者太强时,前者就会被压制。

于是你看到的现象就是:文档明明在上下文里,模型却像没看见一样,继续按自己原来的知识分布往下生成。

这件事的重要性,不只是"又找到了一种解释",而是它让 RAG 幻觉第一次更像一个可解释、可干预的问题,而不是一个只能靠经验修修补补的黑箱。

相比之下,工程界更常用的还是 CRAG 这类路线。它的逻辑很朴素:先判断检索结果够不够靠谱,不靠谱就补更多来源,比如 Web 搜索,把噪声过滤掉,再交给模型生成。它不解决模型内部为什么不信文档,但它胜在现实:不需要改底层模型,能插进现有系统里,对大多数业务场景来说已经足够有价值。

如果再往前看,像 RAGLens 这样的方向也开始出现了。它试图让"模型是在哪一层、哪个 token 上偏离证据"的过程变得可观测。这个方向现在还很早,但如果未来真走通,RAG 处理幻觉的方式可能会变成一种更实时的干预,而不只是输出后的补救。

我现在越来越倾向于一个判断:RAG 幻觉的真正难点,不在检索策略本身,而在模型有没有把证据当回事。这也是为什么单纯继续卷检索参数,边际收益开始越来越小。


二、对齐:比幻觉更常见,也更难处理

如果说幻觉至少还算"错",那对齐问题更麻烦。它常见的形态不是明显错误,而是:回答没有问题,但就是不对味。

比如用户问的是 A 和 B 的关系是什么,这家公司为什么这么做,如果要落地最应该先改哪一层。系统回的却是 A 的定义、B 的定义、一堆相关背景资料的拼盘。这些内容可能都是真的,也都来自正确文档,但就是没有正面回答问题。

这种问题,在企业知识库、研究助手、分析型问答里尤其常见。它比幻觉更难,因为你很难用"对/错"去简单评估它。

2025 年的 AlignRAG 给出了一种挺像样的思路:不要把所有压力都压在生成模型身上,而是单独训练一个 Critic,专门看这段推理有没有忠实于证据,这次回答到底有没有真正回应问题。这个思路我个人是认同的。现实里,一个系统既要查、又要写、还要自己当审稿人,往往不如把"挑毛病"交给一个专门角色。这其实也是后来很多 Agentic RAG 系统在做的事:生成不再是一锤子买卖,而是被验证、被回退、被纠偏。

另一条更重要的线是 GraphRAG。它的意义不在于它"比向量检索高级",而在于它明确指出了一件事:有些问题的答案,不藏在某一个 chunk 里,而藏在关系结构里。

比如哪几个概念在整批文档里反复共同出现,A 和 C 之间通过什么路径关联,某个组织在不同文档里扮演了怎样的角色。这类问题,向量检索经常会失灵。它擅长找"像",不擅长找"关系"和"全局"。

GraphRAG 的核心价值,是把文档先组织成图——实体、关系、社区、层级摘要——然后再去做检索和生成。它不是所有场景都值得上。图构建和维护的成本不低,很多业务压根没必要。但如果你做的是研究分析、企业知识网络、竞品关系梳理、多跳问答,这种结构化方法的价值确实比标准 RAG 高出不止一个量级。

所以这些工作的共同方向,其实不是"再加一个模块",而是:检索这件事,不能再只靠"语义相近"来理解问题了。


三、Naive RAG 已经走到头了,接下来是 Agentic RAG

最近流传很广的一条内容,把行业趋势说得很清楚:Naive RAG vs. Agentic RAG。

它的核心判断,我觉得基本是对的。所谓 Naive RAG,本质上就是检索一次、生成一次、结束。这种流程有几个天然缺陷:第一次查错了就没有补救机会,简单问题和复杂问题走同一条流程,没有验证机制,系统默认检索到的就是对的。

真正有意思的变化,不是"多检索几轮",而是 Agentic RAG 开始让系统在每一步做判断。一个更成熟的 Agentic RAG 往往会做这些事:先改写问题再决定怎么搜,先判断要不要检索而不是默认检索,决定去哪个源搜而不是凡事都进向量库,回答之后做 groundedness 和 completeness 检查,如果不通过就回退重试而不是硬着头皮交答案。

这件事表面上是"多了几个 agent",本质上其实是 RAG 的范式在变:从静态的 retrieve-then-generate,转向动态的 decision-and-correction。

这也是为什么最近一堆概念会开始收敛到一起:Corrective RAG、Adaptive RAG、Self-RAG、Query Rewriting、Routing、Validation Agent、Hybrid Search。它们看起来名字不一样,实际上都在指向同一个趋势:一个好的 RAG 系统,不应该只是会查资料,而应该会判断、会回退、会重试、会承认不知道。

这一点其实很关键。因为很多人嘴上在讲"Agentic RAG",做出来的东西还是"多加两层 prompt 的 Naive RAG"。真正的差别不在名词,而在系统是否真的拥有决策回路。


四、进化:RAG 最难的问题,其实发生在上线之后

如果说幻觉和对齐解决的是"这一轮答得好不好",那进化解决的就是另一个更难的问题:系统上线之后怎么办?

知识会变,用户会变,问题分布也会变。可很多 RAG 系统一旦部署完,能力几乎就冻结了。你可以更新文档,但系统不会因为使用得更多,就自然变得更聪明。

这一块最近出现了两条很不一样、但都值得看重的路线。

一条是工程化记忆路线,比如 Mem0、Zep。它们更像是把"长期记忆"单独从对话系统里抽出来,做成基础设施。解决的问题很现实:用户偏好怎么沉淀,哪些历史事实需要保留,会话结束之后什么该记什么不该记,记忆怎么更新怎么检索怎么遗忘。

这类系统的价值,不在于学术 benchmark,而在于它们终于把"系统不该每次从零开始"这件事落到了工程上。如果你的目标是做长期陪伴型助手、个性化 Copilot、有连续性的研究助手、企业场景里的知识协作系统,那这类东西的现实意义,往往比很多"更聪明的单轮问答"论文还大。

另一条是强化学习开始真正进入检索系统。像 Search-R1、Graph-R1、TreePS-RAG 这些工作,做的事情其实很直白:不再把检索策略写死,而是让系统在反馈里学会怎么检索。什么时候搜?搜什么?要不要继续搜?证据够不够?要不要换源?哪些中间步骤其实是错的?这些原来都是规则,现在开始被当成可学习的决策。

我个人对这条线的判断是:它短期未必是最好落地的,但它可能是未来一两年最值得盯的方向之一。因为它击中的,是一个非常真实的问题:一个系统如果不会在使用中学会更好地查,那它就永远停留在部署那一刻的水平。


五、MSA:也许不只是 RAG 优化,而是在试图改写问题本身

2026 年 3 月,EverMind-AI 团队发布了 MSA(Memory Sparse Attention),全称是"记忆稀疏注意力"。这个名字听起来有点绕,但它想做的事情其实很直接:

不要把检索和生成分成两个系统了,把长期记忆访问直接做进模型本身。

MSA 是什么?

先说它想解决什么问题。

传统 RAG 的架构是:模型 + 外挂检索系统。模型需要查资料时,就去调用外部的向量库或搜索引擎,把结果拿回来拼进上下文。这个架构的好处是灵活——知识可以独立更新,模型不用重训。坏处是,检索和生成是两张皮:检索器不知道生成器需要什么,生成器也没办法告诉检索器"刚才查的不对,帮我换个方式再查"。

MSA 的思路是:既然检索本质上是一种"记忆访问",那为什么不把它变成注意力机制的一部分?

具体来说,MSA 做了三件事:

1. 稀疏记忆注意力

传统注意力机制是对所有 token 做全量计算,计算量随上下文长度平方级增长。MSA 不这么做。它先把文档压缩成"记忆块"(类似于把一本书压缩成章节摘要),然后在推理时只选择最相关的几个记忆块参与注意力计算。

这有点像人类回忆的方式:你不会把读过的每一页都从头过一遍,而是先想起"大概是哪几个章节相关",再去翻那几章。

2. 文档级 RoPE

位置编码一直是长上下文模型的难点。MSA 引入了"文档级"的位置编码方式:每个文档内部的位置从 0 开始重新计数,而不是在整个语料里连续编号。这样可以避免超长上下文下的位置漂移问题,让模型在 64k token 上训练,也能外推到 1 亿 token。

3. 记忆交织(Memory Interleave)

这是 MSA 最有意思的设计。它不是一次性检索完就结束,而是支持多轮"检索→扩展→生成"的循环。模型可以先召回第一批相关记忆,生成一段推理,发现不够就再召回第二批,继续推理。这和 Agentic RAG 的思想很像,但 MSA 把这个循环做进了模型架构本身。

MSA 的数据怎么样?

论文报告的结果很亮眼:

  • • 在 16K 到 1 亿 token 的范围内,性能下降不到 9%
  • • 4B 参数的模型,在长上下文基准上超过了体量大 60 倍的系统
  • • 在多跳问答(如 2WikiMultiHopQA、HotpotQA)上表现尤其突出

如果这些结果能被独立复现,MSA 可能代表了一条"从外挂检索走向原生记忆模型"的新路线。

但现在的问题也很明显

第一,MSA 目前还是论文阶段,代码和模型都还没有真正开放。GitHub 仓库现在更像是一个发布页,最近的提交主要是文档更新。

第二,亿级 token 上下文在大多数实际场景里并不是瓶颈。企业真正头疼的问题通常是:检索准不准、成本高不高、系统会不会越来越复杂。

第三,把记忆和推理绑在一起,会不会只是把复杂性从系统层转移到了模型训练层?RAG 的一个重要价值是知识和模型解耦,MSA 如果把两者绑在一起,这个灵活性就会打折扣。

所以我的判断是:MSA 值得高度关注,但现在还不值得直接下注。

它更像一个信号:告诉大家,RAG 这套外挂式范式未必是终局。但它还不是一个今天就能进生产的答案。


六、如果把这些方向放到一张图里,RAG 正在从"查资料"变成"构建认知系统"

过去我们说 RAG,默认是在说一件事:让模型多拿一点外部信息。但现在这件事其实已经变了。

新的 RAG 讨论,已经不再只是"怎么查",而是同时在问四个问题:模型为什么不信证据?系统为什么总答不到点上?系统怎么在使用中逐渐变聪明?检索和生成还有必要分开吗?

如果把它们串起来看,会发现变化的方向其实很明确:RAG 正在从"检索增强生成",走向"记忆、判断、反思、演化"的统一系统。这也是为什么我现在越来越少把 RAG 只当成一个检索技术栈来看。它已经开始变成一种更广义的系统设计问题。


七、对今天做产品的人来说,哪些值得现在就做,哪些适合继续看

如果你现在做的是业务,而不是纯研究,我的判断很简单。

现在最值得直接用的:GraphRAG、Agentic/Corrective RAG、Mem0/Zep。因为它们解决的是今天就会遇到的真问题:复杂关系型问题答不出来,单轮流程太死,系统没有长期记忆。

现在最值得持续跟踪的:RL 驱动检索,以及 MSA 这类记忆模型。前者关乎系统能不能越来越会查,后者关乎未来底层架构会不会被改写。

现在最不值得继续沉迷的:还是那种老式优化思路——endless chunk tuning,endless embedding benchmark,endless retriever swap。这些事不是没价值,但它们越来越像局部优化,而不是方向性的变化。


八、结语

这两年看下来,我越来越觉得,RAG 这个词本身已经有点不够用了。因为它最初描述的是一件很简单的事:在生成前,多检索一点资料。

但今天真正发生的变化是:系统开始学会区分问题难度,开始学会判断要不要检索,开始学会验证答案,开始拥有长期记忆,开始尝试在反馈里优化自己的检索策略。有些工作甚至开始怀疑,检索和生成是否还有必要继续解耦。

如果说第一代 RAG 解决的是"让模型看到更多信息",那下一代 RAG 更像是在解决:一个系统如何回忆、如何判断、如何成长。

这件事,显然比"接个向量库"复杂得多。但也正因为如此,RAG 这个方向现在才真正开始变得有意思。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套 AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2026 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要 《AI大模型入门+进阶学习资源包》下方扫码获取~
在这里插入图片描述

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
在这里插入图片描述

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
在这里插入图片描述

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
在这里插入图片描述

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
在这里插入图片描述

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
在这里插入图片描述

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

图片

以上资料如何领取?

在这里插入图片描述

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

图片

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
在这里插入图片描述
在这里插入图片描述

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
在这里插入图片描述
在这里插入图片描述

以上全套大模型资料如何领取?

在这里插入图片描述

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐