文章探讨了在AI智能体架构中,如何通过技能系统高效管理大量专业化工作流程。针对一次性加载所有指令导致上下文窗口填满和成本攀升的问题,文章提出了三层加载系统:通告层仅加载技能基本信息,加载层根据用户请求加载完整指令,深入层按需加载外部文件或脚本。文章还介绍了技能选择的原理、技能与工具的本质区别、文件格式与组织结构、技能的发现与加载路径,以及技能与MCP(Model Context Protocol)的协同关系。技能系统作为开放标准,正在推动AI工具生态的互操作性和可复用性,为开发者提供了构建高效智能体系统的关键。

为什么需要技能系统

在现代 AI 智能体架构中,如何高效管理大量专业化工作流程是一个核心挑战。想象这样一个场景:你的智能体需要处理代码审查、部署流水线、文档格式化、安全扫描、测试生成等多种任务。如果采用传统的「一次性加载」策略,将所有指令都塞进系统提示词中,那么上下文窗口很快就会被填满,成本也会急剧攀升。

具体来说,一个安装了 30 个专业化工作流的智能体,如果把所有内容一次性加载,系统提示词大约需要约 150,000 个 token。这不仅意味着高昂的费用,更会导致模型在处理简单任务时也要「记住」那些完全无关的复杂规则,推理效率大打折扣。

图片

而使用智能体技能后,情况发生了根本性转变。启动时只需要约 3,000 个 token,智能体就能知道有哪些技能可用,但只会在当前任务真正需要时才加载完整指令。这种按需加载的机制,就像一位经验丰富的专家,知道自己工具箱里有什么,但只在需要时才拿出特定的工具。

开放标准的诞生

2025 年 12 月,Anthropic 做出了一个具有里程碑意义的决定:将 SKILL.md 规范作为开放标准发布。这一决定的影响远超预期。短短几个月内,OpenAI Codex、Google Gemini CLI、GitHub Copilot、Cursor、VS Code、JetBrains Junie,以及其他 30 多个智能体产品都迅速采纳了这一标准。

这背后的逻辑很简单却深刻:当所有主流智能体产品都支持同一套技能格式时,开发者就可以「一次编写,到处使用」。你为 Claude Code 编写的一个代码审查技能,无需修改就能在 Cursor 或 GitHub Copilot 中发挥作用。这种互操作性正是当前 AI 工具生态所急需的。

今天,让我们深入了解这个架构实际上是如何工作的。

图片

渐进式披露:三层加载系统详解

技能采用三层加载系统,这是整个设计的精髓所在。这套系统的核心理念是:让上下文成本与智能体实际使用的技能成正比,而非与安装的技能数量挂钩。

图片

第一层:通告层

在启动阶段,智能体只需要知道「有哪些技能存在」就够了。因此,第一层只加载每个 SKILL.md 文件的 YAML 前置信息,大约每个技能 100 个 token。这些前置信息包含技能的名称和简短描述,是智能体进行技能选择的基础数据。

举个具体的例子,当你在项目中安装了五个技能——代码审查、部署流水线、API 文档生成、安全扫描、测试生成——智能体启动时只会看到这五个技能的名称和一句话描述。它现在知道了「我有哪些工具可用」,但还不知道这些工具具体怎么用。

第二层:加载层

当用户发起请求,智能体需要使用某个特定技能时,就进入了第二层。大语言模型通过分析用户请求的语义,与技能描述进行匹配。一旦匹配成功,智能体就会读取完整的 SKILL.md 正文,包括详细的工作流程、最佳实践、边界情况处理等。

这一层的加载量通常不超过 5,000 个 token。SKILL.md 规范建议将正文内容保持在 500 行以内,确保加载速度和控制成本。在这个阶段,智能体不仅知道有这个技能,还真正「学会」了如何使用它。

第三层:深入层

对于更复杂的任务,技能可能还需要引用外部文件或脚本。引用文件(如 references/style-guide.mdreferences/api-schema.md)和脚本(如 scripts/validate.py)会在执行过程中按需加载。

这里有一个精妙的设计:脚本通过 bash 执行,只有输出结果进入上下文,而非脚本代码本身。这意味着智能体可以利用强大的脚本能力,但不会被脚本的具体实现细节所困扰。比如,一个测试生成技能可能调用脚本来验证生成的测试代码是否能通过编译,只有「编译成功」或「编译失败,错误信息如下」这样的结果会进入智能体的上下文。

智能路由:技能选择的工作原理

技能选择是完全通过模型前向传播期间的大语言模型推理来实现的。值得注意的是,这里没有任何嵌入向量(embeddings)、分类器(classifiers)或算法路由机制。系统设计上刻意避免了这些看似「智能」但实际上缺乏灵活性的方案。

大语言模型会读取系统提示词中的技能描述列表,凭借其强大的语义理解能力,选择最匹配当前任务的那个。这种设计的好处是显而易见的:它能捕捉到细微的语义差异,理解模糊的、甚至略有偏差的请求描述,并且能够处理完全未曾见过的任务类型。

这也解释了为什么技能描述字段是任何技能中最重要的部分。一个好的描述不仅要说清楚技能「是什么」,更要传达它在什么场景下应该被使用。与其写「这个技能用于代码审查」,不如写「当用户要求检查代码质量、发现潜在 bug、或需要评审 pull request 时使用此技能」。

技能与工具:本质区别

这里需要澄清一个常见的误解:技能不是工具。两者虽然都在智能体系统中发挥作用,但有着本质的区别。

工具(Tools)执行的是离散操作并返回结果,比如读取文件、执行 bash 命令、调用外部 API。工具是原子性的、可观测的:调用「读取文件」工具,你就得到文件内容;调用「执行命令」工具,你就得到命令输出。工具的执行是确定性的、可预测的。

技能(Skills)则完全不同。技能将专业化指令注入智能体的上下文,并从根本上重塑它处理任务的方式。技能是指导性的、启发式的。一个代码审查技能不会自己去读取文件——它告诉智能体「当你审查代码时,应该关注哪些方面、按什么顺序检查、如何组织审查意见」。

换句话说,技能是让智能体准备好解决问题,而非直接解决问题。就像一位经验丰富的导师,能指导你如何解决一类问题,但不会替你动手做。这种设计让技能具有了更强的泛化能力和适应性。

文件格式与组织结构

SKILL.md 文件遵循清晰的结构规范。文件以 YAML 前置信息开头,其中 namedescription 是必填字段,分别定义技能的标识和用途。可选字段包括 license(许可证信息)、compatibility(兼容性说明)、metadata(元数据)和 allowed-tools(允许使用的工具列表)。

YAML 前置信息之后,是包含具体指令的 Markdown 正文。在这一部分,你可以编写工作流程描述、最佳实践指南、边界情况处理方案等丰富内容。

技能所在的文件夹具有完整的组织结构。除了核心的 SKILL.md 文件,还可以包含 scripts/ 目录存放辅助脚本、references/ 目录存放参考资料、assets/ 目录存放相关资源文件。这种目录结构让技能可以携带丰富的配套资源,同时保持良好的可维护性。

技能的发现与加载路径

智能体如何找到并加载技能?SKILL.md 规范定义了清晰的发现路径:

项目级目录是最常用的技能来源。项目可以将其专属的技能放在 .claude/skills/.agents/skills/ 目录中。这样,与项目紧密相关的技能就能跟随代码库一起版本化管理,团队成员clone项目后立即拥有相同的技能配置。

个人目录存放用户的个人偏好设置和常用技能。通常位于 ~/.claude/skills/。你可以在个人目录中添加那些与特定工作流程相关、但不适合放入项目代码库的技能。

平台捆绑技能是智能体产品自带的标准技能库,比如代码生成、文档格式化等通用能力。这些技能开箱即用,为智能体提供了基础能力保障。

插件与市场是新兴的技能分发渠道。用户可以从社区获取其他人贡献的技能,也可以将自己的技能发布到市场中共享。规范中定义的 .agents/skills/ 路径是跨平台约定,任何遵循该标准的智能体都会自动扫描这个目录。

社区的采用速度令人印象深刻。目前已有仓库收录了超过 1,300 个由社区贡献的技能,覆盖从 Web 开发到数据科学的各个领域。Google 的 Agent Development Kit (ADK) 更是直接内置了 SkillToolset 类,实现了完整的三层渐进式披露机制,提供 list_skillsload_skillload_skill_resource 三个核心工具,让开发者可以灵活地管理和调用技能。

技能与 MCP 的协同关系

图片

最后,让我们谈谈技能与 MCP(Model Context Protocol)的协同关系。这两者经常被一起提及,但它们解决的问题完全不同,是互补而非竞争的关系。

MCP 提供的是连接能力:它让智能体能调用外部工具、访问数据源、对接第三方 API。MCP 是智能体与外部世界沟通的桥梁。有了 MCP,智能体可以操作数据库、发送邮件、控制自动化系统——但这些能力是「能做什么」。

技能提供的是程序性知识:它包含工作流程、最佳实践、领域专业知识。技能告诉智能体「应该怎么做」以及「在什么情况下应该做什么」。一个有 MCP 但没有技能的智能体,就像一把万能钥匙,却不知道该开哪扇门。

在实际应用中,技能和 MCP 可以无缝配合。一个数据迁移技能可能包含这样的指令:「第一步,使用 MCP 连接到源数据库并导出数据;第二步,对数据执行清洗和转换;第三步,使用另一个 MCP 连接到目标数据库并导入数据;第四步,在执行删除操作前,强制进行二次确认。」

这种配合带来了极大的灵活性。你可以切换底层的 MCP 服务器配置而不必重写技能逻辑,也可以更新技能指令而不需要触及 MCP 配置。两层完全独立,却又协同工作。

总结

智能体技能代表了现代 AI 智能体架构的一个重要突破。通过渐进式披露的三层加载系统,它让智能体能以极低的初始成本「了解」大量技能的存在,同时在需要时快速加载完整指令。技能作为开放标准的确立,正在推动整个 AI 工具生态走向更高的互操作性和可复用性。

理解技能与工具的区别、掌握三层加载机制、学会技能与 MCP 的协同配合,是构建高效智能体系统的关键。随着这一标准的广泛采用,我们可以期待看到更多专业化、可复用、跨平台的智能体技能涌现。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

在这里插入图片描述

为什么要学习大模型?

我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。

在这里插入图片描述

在这里插入图片描述

大模型入门到实战全套学习大礼包

1、大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

img


2、大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

在这里插入图片描述

3、AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

img

4、大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

img

5、大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

img

适用人群

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐