本文探讨了智能教育场景中学习路径推荐的核心问题,即如何根据知识点和练习题的推荐顺序,让学生学得更快、更稳、更有效。作者提出了一个名为KnowLP的新框架,该框架引入了“先修关系+相似关系”的双知识结构图,并结合强化学习生成个性化学习路径。通过EDU-GraphRAG自动生成知识结构图,并设计了DLRL模块,系统能够动态判断学习顺序,当学生遇到学习障碍时,系统会通过相似概念帮助学生辨析和解卡。实验证明,KnowLP在多个公开教育数据集上取得了最优表现,验证了该方法的有效性和实用性。

一、这篇论文在研究什么?

在智能教育场景中,一个非常核心的问题是:系统应该按照什么顺序,把知识点和练习题推荐给学生,才能让学生学得更快、更稳、更有效?

这正是“学习路径推荐”要解决的问题。

作者在这篇论文中关注的,不是简单地“推荐下一道题”,而是希望构建一条面向目标、符合认知规律、又能适应个体差异的学习路径。换句话说,系统不仅要知道学生“现在会什么”,还要判断学生“下一步最适合学什么”。过去的很多方法,往往依赖“先修关系”来组织学习顺序。比如,学生通常要先理解基础概念,再学习更高层的概念,这种依赖关系本身是合理的,也符合教学直觉。但作者指出,仅仅依赖先修关系,实际会遇到两个非常关键的问题:

1. 先修关系很难获得

很多教育数据集并没有现成的知识图谱,更缺少高质量、完整的先修关系标注。
而如果完全依赖教育专家人工构建,成本非常高,扩展性也差。

2. 只靠单一路径,容易出现“卡住学习”

学生在学习某个知识概念时,真正卡住的原因,往往不只是“前面的还没学”,还可能是和它相似的概念混淆了
一旦某个关键概念没有掌握,后续基于它展开的学习就会被连锁阻断。作者把这种现象称为blocked learning(阻塞式学习)

也就是说,传统路径推荐更像是一条单轨铁路:
只要某一站出了问题,后面的车就全堵住了。

二、作者提出了什么核心方法?

为了解决上面的两个问题,作者提出了一个新框架:

作者不再只使用“先修关系”一种知识结构,而是同时引入“先修关系 + 相似关系”两类结构,构建“双知识结构图”,再结合强化学习生成更合理的个性化学习路径。

这篇论文最大的亮点,不只是“多加了一种关系”,而是把这件事做成了一个完整的系统:

  • 一方面,作者用 EDU-GraphRAG 自动生成知识结构图;
  • 另一方面,作者设计了 DLRL 模块,让系统在生成学习路径时,能够动态判断:
    当前应该继续按先修顺序推进,还是应该切换到相似概念帮助学生“辨析”和“解卡”。

换句话说,作者做的不是“多一张图”,而是让系统真正具备一种更接近真实教学的策略能力:

当学生顺着知识链条走不动时,系统不会死板地继续往后推,而是会绕到相似概念上,通过“辨析学习”帮助学生重新理解当前卡住的知识点。

这正是论文的核心价值所在。

三、这篇论文为什么重要?

这篇论文之所以值得认真读,不只是因为它在实验上效果更好,更因为它在问题设定上抓住了当前学习路径推荐中的一个深层矛盾:

传统方法默认:学生学不会,是因为“前置知识没补够”。作者进一步指出:学生学不会,还可能是因为“相似知识点之间没有辨清楚”。这个观察非常关键。因为在真实学习中,很多错误并不是不会,而是混淆。 例如,学生对两个概念都“好像懂了”,但一做题就混。此时,如果系统继续按原来的先修链条往下推,学习效果往往并不会变好。作者借用了教育心理学中的“辨别学习”思想,认为学生可以通过学习若干相似知识概念,更清楚地识别当前概念的边界,从而提升掌握效果。

这使得这篇论文不再只是一个推荐算法,而更像是一次把教育理论、图结构构建、知识追踪与强化学习整合起来的系统设计。

四、KnowLP 的整体框架:作者到底是怎么做的?

从整体上看,KnowLP可以分为两大模块:

① 知识结构图生成模块

② 学习路径生成模块

五、第一部分:知识结构图是怎么自动生成出来的?

这是整篇论文的第一大创新。很多现有方法之所以难推广,本质上是因为它们默认:
知识概念之间的结构关系已经存在。但现实往往不是这样。很多数据集要么关系不全,要么噪声很大,要么干脆没有关系图。

于是作者决定反过来做:

先让大模型帮忙理解每个知识概念,再通过 GraphRAG 生成知识概念之间的结构关系。

这一部分具体分成两个步骤。

5.1 Knowledge Concept Explanation Generator:先让模型“解释知识点”

作者首先使用 TextGrad 思想,对每个知识概念生成文本解释。

这里不是简单让大模型输出一句定义,而是采用一种迭代式生成—评估—重写的流程:

  • 先由一个大模型生成某个知识概念的解释;
  • 再由另一个模型对这段解释进行评价;
  • 然后根据评价反馈继续重写;
  • 反复迭代,直到解释更准确、更清晰、更有区分性。

作者这样做的原因很明确:
如果概念解释本身含糊不清,后续生成出来的知识结构图就会不可靠。

尤其在教育场景里,很多知识点名称本身很短,字面信息并不充分。例如某些概念在不同学科语境中可能含义不同,或者两个概念表面相似、实际上边界不同。此时,高质量的概念解释就成了后续建图的前提。作者在论文中给出的提示词目标也很清楚:
不仅要解释某个知识概念“是什么”,还要分析它和其他知识概念之间的关系,尽量做到更准确、更具体、更有辨别性,而不是模糊表述。

5.2 EDU-GraphRAG:再把解释文本变成结构图

当每个知识概念都有了相对可靠的解释文本后,作者把这些文本拼接起来,交给 EDU-GraphRAG 处理。这一步的关键逻辑是:

  1. 把知识概念解释文本切分成多个文本块;
  2. 从每个文本块中抽取实体与关系;
  3. 形成局部知识图;
  4. 再把这些局部图整合成全局图;
  5. 最终让模型回答一个核心问题:
    这些知识概念之间,哪些是先修关系?哪些是相似关系?

最终输出的是一个双知识结构图,包含三部分:

  • 知识概念集合 C
  • 先修关系 P
  • 相似关系 S

这个过程的意义非常大。

因为作者实际上解决了一个长期存在的难题:

当教育数据集中没有现成知识结构图时,系统仍然可以借助大模型与GraphRAG自动构建可用的知识结构。

这让很多原本依赖专家标注的方法,具备了更强的可迁移性和可落地性。

六、第二部分:学习路径是怎么一步步生成的?

如果说前半部分解决的是“图从哪里来”,那么后半部分解决的就是:

有了双知识结构图之后,系统怎样根据学生状态动态生成学习路径?

作者在这里提出了一个核心模块:

DLRL:Discrimination Learning-driven Reinforcement Learning

翻译过来,可以理解为:辨别学习驱动的强化学习模块。

这个名字已经透露了作者的思路:系统不是机械地“选下一个知识点”,而是模拟一种更接近真实教学的判断逻辑——什么时候应该按先修链条走,什么时候应该通过相似知识点帮助学生辨析。

6.1 先用知识追踪,判断学生当前状态

在推荐路径之前,系统必须先知道学生“学到了什么程度”。

为此,作者引入了 DIMKT 进行知识追踪。它会根据学生过去的做题记录,估计学生当前对不同知识概念的掌握水平。与一般知识追踪不同,DIMKT还会考虑题目难度对学生认知变化的影响。这很重要,因为现实中并不是所有练习题都一样:
过难会打击信心,过易又缺少提升。因此,作者后续设计“题目推荐”时,不只是看知识点,还看题目的难度是否和学生当前水平匹配。

6.2 三个智能体:分别负责三件事

为了模拟“辨别学习”过程,作者设计了三个智能体(agent):

(1)Prerequisite Agent:先修智能体

它负责按照先修关系,判断学习路径是否应当沿着知识依赖顺序推进。

可以把它理解为“主路线规划师”。
在大多数时候,路径仍然是按先修逻辑展开的,因为这符合教学上的循序渐进原则。

(2)Similarity Agent:相似智能体

它负责处理“卡住学习”的场景。

当系统发现学生在某个知识概念上的掌握提升非常有限,也就是继续沿先修链条推进已经不理想时,相似智能体就会启动。
它会寻找和当前知识点相似、容易混淆的概念,构造一个辅助性的子路径,让学生通过比较、辨析、对照来重新理解当前内容。

这一步正是整篇论文最有特色的地方。作者并不是简单地“多推荐几个相似题”,而是把相似关系当作一种后备学习关系,在先修路径失效时接管学习过程。

(3)Difficulty Agent:难度智能体

它负责从与某个知识点相关的练习题中,挑选最适合学生当前掌握程度的题目。作者使用的是“难度尽量贴近学生当前掌握水平”的匹配思路。
也就是说,系统会避免把过难或过易的练习硬塞给学生,而是尽量推荐最有学习价值的那一题。

七、作者如何判断“什么时候切换到相似关系”?

这是论文设计中非常精巧的一点。

作者并没有让相似智能体始终参与,而是设定了一套动态切换机制:

  • 如果学生在当前知识点上的掌握程度持续提升,
    那么系统继续由先修智能体主导;
  • 如果学生的掌握提升低于一个阈值 τ,
    系统就判断当前学习可能进入了“阻塞状态”;
  • 这时,相似智能体开始介入,帮助学生学习相关相似概念;
  • 待辨别学习完成后,再切回先修路径继续向目标推进。

这意味着相似关系并不是“主路径替代品”,而是“在关键时刻解卡的辅助结构”。

这样的设计非常贴近真实教学:
老师通常也不会一开始就横向扩展很多相似概念,而是在学生出现混淆时,才会专门安排对比和辨析。

八、作者还做了一个很重要的优化:如何选学习起点?

学习路径推荐中还有一个经常被忽略的问题:

从哪里开始学?

如果起点选错,后面的路径再聪明,也可能建立在错误前提上。

作者提出了一种初始节点识别方法:
从目标知识点出发,沿着先修关系向前回溯,一直找到“学生尚未真正掌握、但又最适合作为起点”的位置。

这样做的好处是:

  • 可以缩小搜索空间;
  • 可以避免从不合适的节点开始;
  • 可以让路径既不过短,也不过偏;
  • 可以提升整体推荐效率。

这一步虽然不像相似智能体那样显眼,但实际上对整条路径是否合理非常关键。

九、实验一:整体效果是否真的更好?

作者在三个公开教育数据集上进行了实验:

  • Junyi
  • MOOCCubeX(MCX)
  • ASSISTments2009(ASS09)

这三个数据集的特点不同:

  • Junyi本身有较完整的先修关系图;
  • MCX的知识结构图不完整;
  • ASS09甚至没有现成知识结构图。

这正好可以检验作者方法在不同结构条件下的适应能力。

作者把 KnowLP 和多个基线方法进行了比较,包括 KNN、GRU4Rec、Actor-Critic、RL-Tutor、CSEAL、SRC、GEHRL、DLPR 等。

结果非常明确:

KnowLP 在三个数据集上都取得了最优表现。

更值得注意的是,当推荐步数增加到 20步 时,许多基线方法的性能已经下降,或者无法保持最佳表现;而 KnowLP 仍然能够在三个数据集上稳定取得最好结果。

这说明作者的方法不只是“短路径推荐得准”,而且在更长学习路径场景下,仍然有较强的稳定性。
换句话说,KnowLP 更擅长处理长程学习规划,而不是只优化眼前一步。

十、实验二:相似智能体到底有没有用?

作者专门做了消融实验,把“相似智能体”去掉,只保留其余部分。

结果显示:
一旦移除相似智能体,模型在三个数据集上的表现都会明显下降。

这说明,相似关系并不是可有可无的补充,而是 KnowLP 整个框架真正发挥效果的关键组成部分。

尤其是在较长学习路径下,相似关系的价值更突出。
这也从实验层面印证了作者提出的那个重要判断:

学生的学习障碍,很多时候并不是简单的“没学前置知识”,而是“相似知识混淆没有被处理”。

十一、实验三:自动生成的知识结构图靠谱吗?

这是很多读者会最关心的问题。因为作者的方法很大程度上依赖自动生成图结构。那么,这些图真的足够可靠吗?作者从两个角度回答了这个问题。

第一,图结构可视化结果显示:

生成图比原始图覆盖更全、关系更丰富。

在 Junyi 数据集上,作者生成的先修关系图比原始图包含更多关系;
在 MCX 数据集上,原始图只覆盖很少一部分知识概念,而作者生成的图则能够覆盖全部知识概念,并保持更有意义的结构连接。

这说明,KnowLP 不只是“补图”,而是在构建一个更完整、更可用的知识结构基础。

第二,性能对比结果显示:

使用作者自动生成的图,模型表现已经接近使用原始人工构建图的效果。这点非常重要。因为这意味着自动生成的知识结构图,并不只是“看起来像图”,而是真正能够支撑学习路径推荐

十三、实验四:TextGrad 为什么重要?

作者还展示了一个很有说服力的案例:
在解释“logical address”和“virtual address”这两个容易混淆的概念时,普通大模型会把两者解释得过于相近,甚至直接混淆。但在经过 TextGrad 式的迭代优化后,模型能够更清楚地区分这两个概念的含义与边界。这说明:

概念解释质量,会直接影响后续知识图构建质量。

也就是说,作者不是简单把大模型拿来建图,而是先花力气让大模型“把概念讲清楚”,再基于这些解释去抽取关系。
这是一种非常扎实的设计思路。

结语

这篇论文最值得肯定的地方,在于作者没有把学习路径推荐看成一个简单的“下一步排序问题”,而是把它放回到了一个更真实的教育过程中去理解:

  • 学生会卡住;
  • 卡住不一定因为前置没学;
  • 很多卡住,来自相似概念之间的混淆;
  • 好的教学路径,不只是线性推进,还要会“绕一小步,帮学生看清楚”。

最后

对于正在迷茫择业、想转行提升,或是刚入门的程序员、编程小白来说,有一个问题几乎人人都在问:未来10年,什么领域的职业发展潜力最大?

答案只有一个:人工智能(尤其是大模型方向)

当下,人工智能行业正处于爆发式增长期,其中大模型相关岗位更是供不应求,薪资待遇直接拉满——字节跳动作为AI领域的头部玩家,给硕士毕业的优质AI人才(含大模型相关方向)开出的月基础工资高达5万—6万元;即便是非“人才计划”的普通应聘者,月基础工资也能稳定在4万元左右

再看阿里、腾讯两大互联网大厂,非“人才计划”的AI相关岗位应聘者,月基础工资也约有3万元,远超其他行业同资历岗位的薪资水平,对于程序员、小白来说,无疑是绝佳的转型和提升赛道。
图片
图片
对于想入局大模型、抢占未来10年行业红利的程序员和小白来说,现在正是最好的学习时机:行业缺口大、大厂需求旺、薪资天花板高,只要找准学习方向,稳步提升技能,就能轻松摆脱“低薪困境”,抓住AI时代的职业机遇。

如果你还不知道从何开始,我自己整理一套全网最全最细的大模型零基础教程,我也是一路自学走过来的,很清楚小白前期学习的痛楚,你要是没有方向还没有好的资源,根本学不到东西!

下面是我整理的大模型学习资源,希望能帮到你。

请添加图片描述

👇👇扫码免费领取全部内容👇👇

在这里插入图片描述

1、大模型学习路线

img

2、从0到进阶大模型学习视频教程

从入门到进阶这里都有,跟着老师学习事半功倍。

在这里插入图片描述

3、 入门必看大模型学习书籍&文档.pdf(书面上的技术书籍确实太多了,这些是我精选出来的,还有很多不在图里)

在这里插入图片描述

4、 AI大模型最新行业报告

2026最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

img

5、面试试题/经验

img

【大厂 AI 岗位面经分享(107 道)】

img

【AI 大模型面试真题(102 道)】

img

【LLMs 面试真题(97 道)】

img

6、大模型项目实战&配套源码

img

适用人群

在这里插入图片描述

四阶段学习规划(共90天,可落地执行)
第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型

  • 带你了解全球大模型

  • 使用国产大模型服务

  • 搭建 OpenAI 代理

  • 热身:基于阿里云 PAI 部署 Stable Diffusion

  • 在本地计算机运行大模型

  • 大模型的私有化部署

  • 基于 vLLM 部署大模型

  • 案例:如何优雅地在阿里云私有部署开源大模型

  • 部署一套开源 LLM 项目

  • 内容安全

  • 互联网信息服务算法备案

  • 👇👇扫码免费领取全部内容👇👇

    在这里插入图片描述

3、这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
在这里插入图片描述
在这里插入图片描述

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐