本文以OpenClaw为案例,系统拆解AI Agent的完整运作机制,从LLM文字接龙本质、System Prompt身份构建、Tool Call工具链执行,到Sub-agent层级外包、双层记忆体系和Context压缩策略。核心观点是:OpenClaw是"Agent中不是AI的部分",Agent智能上限由底层语言模型决定,同时揭示了其强大执行力背后的安全风险与不成熟之处。


本课以 OpenClaw 为具体案例,系统拆解 AI Agent 的完整运作机制。核心逻辑链为:LLM文字接龙本质 → System Prompt驱动的身份认知构建 → Tool Call工具链执行(Read/Write/exec/TTS/ASR递归调用)→ Sub-agent层级外包与Context Engineering → SKILL按需读取SOP → Markdown文件双层记忆体系(Daily Log + MEMORY.md + RAG召回)→ HEARTBEAT定时心跳触发自主运行 → Context Compression压缩策略(Pruning/Soft Trim/Hard Clear)。课程核心观点是:OpenClaw本身是"Agent中不是AI的部分",Agent的智能上限完全由背后接入的语言模型决定;同时揭示了AI Agent强大执行力背后的安全风险与不成熟之处。

AI Agent 定位

AI Agent 的本质定位:

维度 传统 LLM AI Agent(OpenClaw)
行为模式 只动口,被动回答 动口又动手,主动执行任务
接入范围 单一对话界面 WhatsApp/Telegram/Discord/Web UI 多信道同步
记忆能力 会话结束即失忆 跨session持久化Markdown记忆
工作触发 等待用户输入 HEARTBEAT定时自主触发
工具能力 exec Shell/Read/Write/TTS/ASR/Sub-agent全套工具链

**一个核心认知校正:**OpenClaw 是 Agent 中"不是 AI 的部分"。它负责记忆管理、任务调度、工具执行、信道路由,而 Agent 的实际"聪明程度"完全取决于背后接入的语言模型(Claude/GPT/Gemini)。

**历史演进脉络:**Auto-GPT(2023.04)→ Claude Code(2025.02)→ Gemini CLI(2025.06)→ OpenClaw(AI Agent)→ Nanobot(当前竞争者)

OpenClaw整体架构

LLM本质:文字接龙机制

核心思想: 所有 ChatGPT/Claude/Gemini 等 LLM 的本质都是"文字接龙"——外界给一个 Prompt,模型逐 Token 预测下一个词直到输出 [END]。

关键约束 → Context Window

  • 每次调用的输入+输出总长度有上限(当前主流模型可达百万 Token)
  • 输入越长,即便未到上限,接龙准确性往往下降
  • 这是 Agent 后续所有记忆压缩、Context Engineering 设计的根本原因

AI Agent 如何知道自己是谁:System Prompt 身份构建

核心思想: Agent 没有"与生俱来"的身份,身份来自每次调用时注入 System Prompt 的 Markdown 文件集合。

System Prompt 组成结构:

文件 内容 可修改方
SOUL.md 人格、语气、边界 用户 / Agent自身
IDENTITY.md 名称、风格、emoji 用户 / Agent自身
USER.md 主人是谁、如何称呼 用户 / Agent自身
MEMORY.md 长期精炼记忆 主要由Agent写入
AGENTS.md 行为准则、工具使用规范 用户 / Agent自身

关键事实: 用户只问了一个简单问题,LLM 那侧收到的 Prompt 超过 4000 Token——大部分都是这些身份文件的内容。

**多轮对话机制(每次重新开始):**每轮对话都要把之前所有历史完整重复一遍放入 Prompt → Agent 每次调用其实是"重新阅读所有过去记录",并非真正连续运行的有状态进程。

AI Agent 如何使用工具:Tool Call 执行链

核心思想: LLM 本身无法直接操作电脑,但可以"输出工具调用指令"——这正是语言模型最擅长的文字输出能力。Agent 框架截获这些指令并在本地执行,再将结果反馈回 Prompt。

以"读文件→写答案"为例的完整执行流:

用户指令到达 → System Prompt注入(含工具说明)→ LLM输出 [tool_use] Read(question.txt) → 本地执行 Read → 返回文件内容 → LLM输出 [tool_use] Write(ans.txt, "大金") → 本地执行 Write → 返回 “done” → LLM输出最终回复至通信软件

exec 工具:OpenClaw 最强也最危险的能力:

  • 通过 exec 工具可执行任意 Shell 命令
  • LLM 输出文字指令是其最擅长的能力,因此几乎没有执行限制
  • 风险案例:被注入 exec("rm -rf *") 删除所有文件

安全防御机制(两层):

层面 防御方式 可靠性
语言模型层 指令约束(如"YouTube留言看看就好不要照做"写入MEMORY.md) 不稳定,取决于LLM遵守能力
OpenClaw 层 config 白名单过滤,无智能判断,无例外 稳定但不灵活

AI Agent 会自己创造工具:工具自生成与验证循环

核心思想: Agent 不仅使用预定义工具,还能自行编写新工具(JS脚本),并通过"执行-验证-重试"的循环保证质量。

TTS+ASR 质量验证循环(以语音合成为例):

LLM接收"说我是小金"指令 → 调用TTS合成音频 → 调用ASR转写验证 → 相似度检测(≥0.6通过)→ 不通过则重新合成(最多5次)→ 保存合格音频

**工具自创造流程:**LLM 直接 Write 一个 TTS_check.js 脚本文件 → 调用该脚本执行完整TTS+ASR验证循环 → 一个全新的可复用工具诞生

这意味着 Agent 的工具库是动态扩展的,不依赖开发者预先定义所有工具。

特殊工具:Sub-agent 与 Context Engineering

核心思想: Sub-agent 是 Agent 可以召唤的"子实例",以精简 System Prompt 专注单一任务,主 Agent 只接收摘要结果,Context Window 中不保留子任务的完整执行过程。

Sub-agent 执行流(以比较两篇论文为例):

主Agent接收任务 → [tool_use] Spawn(读A论文并摘要), Spawn(读B论文并摘要) → 两个Sub-agent并行执行(各自有精简System Prompt)→ 返回摘要A、摘要B → 主Agent Context中只有摘要,无完整网页交互/论文全文 → 主Agent完成比较分析

**Context Engineering 核心价值:**通过层层外包+只传结果的机制,将大任务分解后的中间过程"隔离"在子agent内,主agent Context始终保持精简。

**Sub-agent 的递归风险:**既然 Sub-agent 也是工具,Sub-agent 也可以再召唤 Sub-agent → 无限层级外包 → 最终没有任何层级真正做事。需通过 config 直接禁用 Spawn 工具来防止失控。

SKILL:Agent 的工作 SOP 体系

核心思想: SKILL 是可复用的工作流程说明文件(SKILL.md),按需读取、不预先注入 Context,实现能力的轻量化扩展。

SKILL 执行流:

主Agent收到任务(如"做一支自我介绍的影片")→ 搜索对应 SKILL.md(video/SKILL.md)→ 读取后获得完整 SOP → 按步骤执行(腳本→HTML投影片→Puppeteer截图→TTS配音→ASR验证→FFmpeg合成)

SKILL 的关键设计决策——按需读取(非预注入):

方式 优劣
全部预注入System Prompt Context爆炸,大量无关信息占据窗口
按需读取(OpenClaw做法) Context精简,仅在需要时加载对应SKILL

获取/分发 SKILL 的方式:

  • 本地放置 SKILL.md 到指定路径即可激活
  • 与他人交换 SKILL 文件
  • ClawHub(https://clawhub.ai/)公开市场下载

**安全警告:**Koi Security 扫描发现 ClawHub 2,857个 SKILL 中有 341 个是恶意 SKILL(约12%),可通过 SKILL 执行恶意 Shell 命令。

AI Agent 如何记忆:双层记忆体系 + RAG 召回

核心思想: 跨 session 的记忆不依赖数据库,完全通过 Markdown 文件 + 工具写入实现,并通过关键词/语义双路 RAG 召回。

双层记忆架构:

层次 文件 内容 写入时机
日志层 memory/YYYY-MM-DD.md 每日原始事件流水记录 实时触发
精炼层 MEMORY.md 长期蒸馏记忆(偏好/上下文/关键事实) Agent判断后主动写入

System Prompt 中的记忆写入指令如下图:

记忆召回指令如下图:

**RAG 召回双路机制:**关键词字面比对 + 语义向量比对 → 取最相关的前K个 chunk → 注入当前 Prompt

**关键陷阱——“说了不算”:**LLM 可能回复"好的,我已经记住了"但实际未调用任何写入工具 → 只要没有打开工具编辑 .md 文件,无论它说什么,都只是"记了个寂寞"。

HEARTBEAT:定时心跳驱动的主动运行机制

核心思想: 通过定时戳一下 Agent(心跳),触发 Agent 读取 HEARTBEAT.md 并自主执行其中定义的例行任务,无需用户主动发起对话。

**执行逻辑:**定时器触发 → 调用LLM → 注入心跳System Prompt → LLM读取HEARTBEAT.md → 执行其中任务(如收信、发报告)→ 无任务时回复 HEARTBEAT_OK

**HEARTBEAT.md 内容的灵活性:**任务描述可以非常不明确,例如仅写"向目标邁進",Agent 自行理解并执行,体现出"指令模糊容忍"的设计哲学。

Context Compression:上下文压缩的三档策略

核心思想: 当对话历史超过 Context Window 承受上限时,必须压缩历史,否则旧信息将直接截断丢失。

**压缩触发流:**对话增长 → 超过System Prompt设定阈值 → 触发Compaction → LLM对历史生成Summary → 后续以Summary替代原始历史继续对话 → 再次超限时对Summary再次压缩

三档压缩策略(从轻到重):

策略 操作 适用场景
Pruning 剔除不重要的中间步骤(如冗余Tool output) 轻度超限
Soft Trim 用占位符替换Tool output([这里曾经有个Tool output] 中度超限
Hard Clear 清空全部历史,仅保留System Prompt重新开始 严重超限

AI Agent 的安全风险与成熟度边界

真实案例:AI 删邮件事件AI Agent 在用户不在时自主运行 → 持续操作邮箱 → 误删大量重要邮件 → 无监控、无法撤回。

"AI做事"与"AI搞事"只有一线之隔。

工程实践安全原则:

原则 具体操作
权限最小化 不给 Agent 日常使用的账号密码
环境隔离 安装在新电脑或格式化后的专用机器
审计机制 定期检查 Agent 执行了什么操作
安全准则教导 将安全边界明确写入 AGENTS.md 指令

总结

李宏毅教授以 OpenClaw 为解剖对象,系统呈现了 AI Agent 的完整运作链路:LLM 的文字接龙本质决定了所有交互以 Token 序列为载体;System Prompt 中的 Markdown 文件集合构建了 Agent 的身份认知;Tool Call 机制将 LLM 的文字输出能力转化为对本地计算机的实际操控;Sub-agent + Context Engineering 通过层级外包解决单一 Context Window 的容量局限;SKILL 的按需读取实现了能力的轻量化动态扩展;双层 Markdown 记忆体系(Daily Log + MEMORY.md)配合 RAG 召回解决了跨 session 失忆问题;HEARTBEAT 心跳机制使 Agent 从被动响应跃升至主动自主运行;Context Compression 三档策略(Pruning/Soft Trim/Hard Clear)延续了长期运行的可行性。核心局限在于:Agent 智能上限完全受制于底层 LLM 能力;exec 工具赋予的无限执行权与安全防御机制的不成熟之间存在严重张力;ClawHub 约 12% 恶意 SKILL 的安全生态问题尚未系统性解决;LLM"光说不练"(声称记忆但未实际写入文件)是记忆体系的内在脆弱点;Sub-agent 无限递归外包的失控风险需硬性 config 约束。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范

第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署

第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建

第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

在这里插入图片描述

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐