llm wiki
rag系列文章目录
前言
近两年,大模型(LLM)最重要的应用之一,就是“知识库”。
企业希望让 AI 理解内部文档,研究者希望 AI 管理论文,开发者希望 Agent 能拥有长期记忆,于是:RAG(Retrieval-Augmented Generation)成为了当前最主流的知识库方案。
但随着 Agent、多轮推理、长期记忆等需求出现,传统 RAG 的问题也越来越明显。
2026 年,Andrej Karpathy 提出了一个新的模式:LLM Wiki
其核心思想是:
不要让 AI 每次都重新检索和理解文档,
而是先把知识“编译”为一个长期维护的 Wiki。
一、简介
LLM Wiki 的核心思想非常简单:不要在 query 时临时理解知识,而是在 ingest 时提前“编译”知识。
Karpathy 用了一个经典比喻:
传统程序:
Source Code
↓
Compiler
↓
Binary
程序不会每次运行:都重新解释源码。而是:提前编译。
LLM Wiki:
Raw Documents
↓
LLM Compiler
↓
Compiled Wiki
即让 LLM:
- 阅读原始资料
- 提取知识
- 总结概念
- 建立关联
维护结构化 Wiki,之后,查询直接读取 Wiki。而不是重新扫描 PDF。
LLM Wiki 通常采用三层结构。
第一层:Raw Sources(原始资料层)
第二层:Wiki(知识层),由 LLM 自动维护
第三层:Schema(规则层),是LLM 的行为规范
二、如何实现
1 INGEST:知识摄入
Step1:读取 Source
系统读取:
- URL
- markdown
- transcript
统一转换为文本。
Step2:Concept Routing
LLM 先判断:这个资料和哪些 Wiki 页面相关,然后只更新相关页面,而不是全量重建。
Step3:Knowledge Synthesis
LLM 会读取,旧 Wiki 页面+新 Source。然后重新生成页面。重点是:保留旧知识,增强新知识,而不是简单覆盖。
Step4:建立 Cross Links
页面之间自动建立依赖关系
Step5:更新 Embedding
为 Wiki 页面建立 embedding。注意:这里 embedding 的不是原始 chunk。而是:已经理解过的知识页面
2 QUERY:知识查询
查询流程
Question
↓
Search Wiki
↓
LLM Synthesis
3 SAVE:知识回写
这是非常重要的一步。
如果某次 Query 产生了高质量答案。系统可以:–save将答案重新写回 Wiki。
4 LINT:知识体检
LLM Wiki 会定期扫描整个 Wiki:
检查:
- Broken Links
- 孤立页面
- 缺失概念
- 过时内容
- 知识冲突
例如:两个页面结论矛盾,系统会自动发现。
三、与rag对比
两者的区别如下
| 维度 | RAG | LLM Wiki |
|---|---|---|
| 核心思想 | Query 时检索 | Ingest 时编译 |
| 知识状态 | 无状态 | 持久化 |
| 数据单位 | Chunk | Wiki Page |
| 是否长期积累 | 否 | 是 |
| 是否支持知识演化 | 弱 | 强 |
| 是否支持知识图谱 | 弱 | 强 |
| Token 消耗 | 每次重复理解 | 一次编译长期复用 |
| 擅长 | 实时检索 | 长期知识沉淀 |
rag更适合场景:高实时性场景、海量文档场景、强事实精确场景
LLM Wiki 适合什么场景:长期研究、Agent Memory、个人知识库、复杂概念关联
总结
传统 RAG 的核心问题是:AI 不会真正“学会”知识,它只是:不断重新阅读。
而 LLM Wiki 的核心思想是:让知识先沉淀,再查询,它把LLM从问答工具变成知识编译器。
从长期来看:未来 AI 系统真正的竞争力,可能不只是:模型能力。而是:它积累了多久的知识。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)