传统 Wiki 死于维护成本,LLM Wiki 生于自动化。当 AI 开始为你"记账",知识积累第一次变得可持续。

为了方便大家快速用起来,我创建了一个 llm-wiki skill 已上传到了 clawhub,可以自然语言直接下达指令管理你的 LLM Wiki,文章中有介绍。

图片

(本文基于 Andrej Karpathy 的 LLM Wiki 概念撰写,核心思想归原作者所有)

一个让所有知识管理者共鸣的痛点

你有没有过这样的经历?

兴冲冲地开始搭建个人知识库,语雀、Notion、Obsidian、Roam Research 试了个遍。刚开始几周热情满满,每条笔记都精心分类、打标签、做双向链接。

然后……生活来了。

项目要赶工,孩子要照顾,周末想休息。等终于有空回到知识库时,发现上次整理的内容已经有些陌生,想补充新想法却要先花半小时回忆之前的结构。

更别提那些繁琐的维护工作:更新交叉引用、检查一致性、修复断链、合并重复内容……

这就是传统 Wiki 的宿命——维护成本的增长速度,永远超过它创造价值的速度。

大多数人最终回到了最原始的状态:收藏夹里躺着几百篇"稍后阅读"的文章,笔记软件里散落着零散的片段,知识依旧是大脑里的模糊印象。

直到 Andrej Karpathy 提出了一个完全不同的思路。

图片

(当然,我用 LLM Wiki 主要是用来深度理解我的代码结构,辅助编程,后文也有ji)


Karpathy 的洞见:让 LLM 当图书管理员

2026 年初,前 OpenAI 研究副总裁、特斯拉 AI 总监 Andrej Karpathy 在一篇博客中提出了 LLM Wiki 的概念。

这个想法简单到让人拍大腿:

为什么不让 LLM 来维护 Wiki 呢?

传统 Wiki 需要人类做的那些繁琐工作——总结摘要、交叉引用、一致性检查、内容更新——恰恰是 LLM 最擅长且不会感到厌倦的事情。

而人类真正擅长的——筛选资料、提出好问题、判断价值、思考意义——LLM 反而做不了。

⛳️ 角色互换,各司其职

在 Karpathy 的架构里,LLM 是那个不知疲倦的图书管理员(他称之为"MLS"——Master of Library Science),负责所有"记账"工作。而你,是知识的策展人,负责决定什么值得进入知识库。

这个看似简单的角色转换,解决了一个困扰知识管理领域几十年的根本问题。


三层架构:原始资料、知识层、配置层

Karpathy 的 LLM Wiki 采用清晰的三层架构:

图片

📁 第一层:原始资料(Raw Sources)

这是你的"事实来源",包括:

  • 论文、文章、博客

  • 书籍摘录

  • 视频、播客笔记

  • 会议记录、对话

关键规则:只读,不可变。

LLM 可以读取它们,但绝不修改。这保证了知识体系有一个可靠的事实基础,不会因为 LLM 的"幻觉"而污染原始信息。

📄 第二层:知识层(Wiki Pages)

这是 LLM 生成和维护的结构化知识库,包含:

  • 来源摘要页:每个资料的要点总结

  • 实体页:人物、项目、书籍等

  • 概念页:方法、理论、模型等

  • 比较分析页:不同观点的对比

  • 总览页:主题综述和综合

关键规则:LLM 全权负责。

你几乎不亲手写 Wiki 内容。LLM 创建页面、更新交叉引用、维护一致性。你只负责阅读、提问、指导方向。

⚙️ 第三层:配置层(Schema)

这是一个元文件(如 TheSchema.md),告诉 LLM:

  • Wiki 的结构和命名规范

  • 导入新资料的工作流程

  • 回答问题的检索策略

  • 定期健康检查的规则

关键规则:人机共同进化。

你和 LLM 在实践中不断优化这个配置文件,让它越来越适合你的领域和习惯。


三个核心操作:Ingest、Query、Lint

使用 LLM Wiki 的日常操作极其简单:

图片

1️⃣ Ingest(导入)

你把新资料放进 raw/ 目录,然后告诉 LLM:"请处理这个。"

LLM 会:

  • 阅读并总结核心要点

  • 创建来源摘要页

  • 更新相关的实体和概念页

  • 建立交叉引用

  • 记录到操作日志

一个来源可能影响 10-15 个 Wiki 页面。 这些工作如果让人类做,可能需要几小时;LLM 几分钟完成,而且不会抱怨。

2️⃣ Query(查询)

你在 Wiki 中提问,LLM 会:

  • 搜索相关页面

  • 综合整理答案

  • 附上来源引用

  • 可选:将有价值的问答写回为新页面

关键洞察:优秀的问答本身就是知识资产。

你提出的对比分析、发现的关联、总结的模式——这些不应该消失在聊天记录里,而应该成为 Wiki 的一部分,像导入的资料一样持续积累。

3️⃣ Lint(健康检查)

定期请 LLM 对 Wiki 做体检:

  • 发现页面之间的矛盾

  • 识别被新资料取代的过时内容

  • 找出没有外部链接的"孤立页面"

  • 建议补充缺失的交叉引用

  • 提出可以进一步研究的问题

这就像代码仓库的 linter,防止知识库在扩张过程中腐化。


为什么这次不一样:复利效应的关键

RAG 系统和 NotebookLM 这类工具,每次查询都是从原始文档重新检索、重新拼凑。知识没有积累,每次都是零启动。

LLM Wiki 的核心差异在于:

The wiki is a persistent, compounding artifact.(Wiki 是持久的、可复利的产物。)

知识只需要"编译"一次,之后保持更新。你添加的每一个来源、提出的每一个问题,都让 Wiki 更丰富。交叉引用已经存在,矛盾已经被标记,综合信息已经反映了你读过的所有内容。

这就是复利。

想象一下,如果你坚持使用这个方法一年:

  • 你有几百个来源的摘要

  • 数百个相互链接的概念和实体页面

  • 完整的知识演化日志

  • 一个可以随时提问的"第二大脑"

而且,维护成本几乎为零——因为 LLM 在做那些繁琐的工作。


从理论到实践:一个中国开发者的技能实现

Karpathy 的博客虽然提出了完整的概念框架,但具体的实现细节需要每个用户自己去摸索。

这正是技术大佬展现价值的地方。

国内 AI 全栈知识博主 AGI 舰长 在深入研究 Karpathy 的博客后,不仅搭建了自己的 LLM Wiki,还将其封装成一个可复用的 Skill,发布到了 Clawhub 平台上,无论你在 claude code 编程领域、还是 openclaw 日常办公领域都可以使用。

这个名为 llm-wiki 的技能,让任何使用 OpenClaw 或类似 AI 代理系统的用户,都能快速部署自己的 LLM Wiki。

🔗 Clawhub 链接:

https://clawhub.ai/javastarboy/llm-wiki-obsidian

🔗 AGI 舰长的其他开源 Skill 仓库(含 llm wiki 示例)

https://github.com/javastarboy/open-skills

图片

(图:clawhub 上的 skill 介绍)

在你的工程目录下,给 claude code 发送消息,让它基于 llm-wiki 技能生成代码仓库的 wiki 👇

图片

(图:skill 生成的 wiki 目录结构)

图片

(图:llm-wiki skill 生成的文件示例)

⛳️ 技术亮点

  • Obsidian 原生集成

    • 充分利用双向链接、标签、图谱视图

    • 本地 Markdown 文件,版本控制友好

    • 丰富的插件生态(Marp 幻灯片、Dataview 查询等)

  • 结构化页面示例

├── raw/                    # 原始资料(只读)
│   ├── sources/            # 来源摘要
├── wiki/
│   ├── entities/     # 人物、项目等实体
│   ├── concepts/     # 方法、理论等概念
│   ├── comparisons/  # 对比分析
│   ├── overview/     # 主题综述
│   ├── index.md      # 内容索引
│   └── log.md        # 操作日志
│   └── schema.md        # 元文件,Wiki 的结构和命名规范
  • 自动化工作流

    • 导入时自动创建/更新相关页面

    • 查询时自动检索索引并附引用

    • 定期 Lint 保持健康度

  • 可追溯性设计

    • log.md 记录所有操作的时间序列

    • 每个 Wiki 页面都有来源引用

    • Git 版本历史免费获得

图片

使用示例

# 导入新资料
"请基于 raw/xxx.pdf 进行 Ingest"

# 查询知识
"XXX 和 YYY 有什么区别?"

# 健康检查
 "请对 wiki 做一次 Lint"

这个技能的价值在于:把 Karpathy 的抽象概念,变成了可执行的具体工具。

任何人都可以:

  1. 从 Clawhub 安装 llm-wiki 技能

  2. 在自己的项目目录下运行

  3. 几分钟内获得一个完整的 LLM Wiki 系统

无需自己摸索目录结构、页面格式、工作流程——所有最佳实践都已经封装好了。

图片


适用场景:远不止个人知识管理

Karpathy 在博客中列举了多个应用场景:

🎯 个人成长

跟踪自己的目标、健康、心理状态。记录日记、文章、播客笔记,构建一个结构化的自我认知体系。

📚 深度学习

对某个主题进行数周或数月的深入研究。阅读论文、文章、报告,逐步构建一个包含不断演进论点的综合 Wiki。

📖 读书笔记

边读边整理章节,创建人物、主题、情节线索的页面。读完一本书,你拥有一个配套的粉丝 Wiki。

🏢 团队知识库

由 LLM 维护的内部 Wiki,内容来源于 Slack 讨论、会议记录、项目文档。Wiki 之所以能保持最新,是因为 LLM 在做团队中其他人都不愿意做的维护工作。

📊 竞争分析、尽职调查、旅行计划、课程笔记……

任何需要你随时间积累知识,并且希望将其整理成册而非散乱无章的场景,都适用。


工具与技巧:让体验更流畅

Karpathy 和实践者们总结了一些实用技巧:

图片


思想渊源:从 Memex 到 LLM Wiki

Karpathy 在博客结尾提到了一个有趣的历史脉络:

这个想法在精神上与范内瓦·布什的 Memex(1945) 一脉相承。

1945 年,布什在《大西洋月刊》发表《诚如所思》(As We May Think),描述了一个名为 Memex 的设备:一个个人化的、精心维护的知识库,文档之间存在关联。

布什的设想比后来的互联网更接近 LLM Wiki:

  • 私密的,而非公开的

  • 主动维护的,而非被动浏览的

  • 文档之间的关联与文档本身同样重要

但布什没能解决的问题是:谁来维护?

手动维护一个庞大的关联知识库,对人类来说负担太重。这正是维基百科(Wikipedia)需要成千上万志愿者、而个人 Wiki 往往半途而废的原因。

LLM 解决了这个维护成本问题。

75 年后,技术终于让布什的愿景成为普通人可及的现实。


结语:开始构建你的复利知识库

LLM Wiki 不是一个产品,而是一个模式

你不需要等待某个完美的工具。你可以:

  1. 创建一个文件夹

  2. 定义你的三层结构

  3. 写一个 Schema 文件告诉 LLM 规则

  4. 开始导入第一个资料

或者,直接用 AGI 舰长已经封装好的 llm-wiki 技能,几分钟内启动。

重要的是开始。

知识复利的奇迹,只发生在那些持续积累的人身上。而这一次,你不再孤单——你有一个不知疲倦的图书管理员,帮你处理所有繁琐的维护工作。

你只需要做人类最擅长的事:

  • 寻找有价值的资料

  • 提出深刻的问题

  • 思考这一切的意义

剩下的,交给 LLM。


📌 延伸阅读与资源

🎯 往期推荐👇

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐