Agent Skills作为继Model Context Protocol后的重要LLM系统标准,由Anthropic发布并得到微软、OpenAI等大厂支持。文章分析了当前LLM系统开发的痛点,如prompt过长、能力复用重载、业务逻辑workflow外置标准不一等,并详细介绍了Agent Skills如何通过分层管理、文件式管理、程序性知识封装等方式解决这些问题。此外,文章还探讨了Agent Skills成为标准的原因,以及其局限性和未来演进方向,最后分析了其适用场景,为开发者提供了一种更高效、更易用的LLM系统开发方案。

1、当前LLM系统开发的痛点

1.1 Prompt过长,且随着版本优化越来越长

笔者在实际开发迭代中曾面临这个问题。业界优秀的prompt都是结构化/半结构化的文本,比如之前较火的co-star冠军prompt。随着实际生产需要和版本演进,一般会添加补充的结构,比如workflow、good case、bad case等等,企图事无巨细的指导LLM如何获取知识、分析、避坑等等。

但带来的问题是:随着版本迭代,经验指导和bad case越来越多,LLM被补充的知识也越来越多,prompt越来越长,这还不包括业务分析逻辑workflow的更新变化。如果业务场景也开始越来越复杂,根据生产上bad case的深入分析后,之前的一个if -else判断,可能需要裂变成if -elseif-elseif-….等多个颗粒度更细的判断,prompt会会随之越来越长,带来的后果是:

1.超过LLM最大支持token长度,系统报错;

2.文本过长,大模型注意力分散,效果下降。原本对的任务概率性出错。

1.2 能力复用重载,版本不易管理

能力复用重载的意思:一个能力项,要实现复用,通常需要抽象成一个公共服务,而这个过程需要拉通多方业务人员去识别业务需求中公共需求和个性化领域需求,从而把公共需求抽象成一个能力api,维护一个统一的版本。如果领域希望公共能力做一些优化改造等,需要等版本节奏,比如一个月一个版本。

举例:针对大模型输出安全的检测,可能税务、法务、客服等多方业务都需要进行领域处理,都会判断大模型输出结果,是否有敏感信息泄露、政治反动、涉黄涉暴等等。为了实现能力复用,常见做法是抽象一个公共的安全检测api,供各个领域使用。但每个领域的需求或多或少会有差异,比如在税务、法务和其他领域如智能问答/客服来说,对安全的定义不同。对安全检测的api服务开发者来说,就众口难调。同时,公共api的处理逻辑一般对领域不可见,领域对公共api进行二次改造是个黑盒。

而且,api服务一般只会维护一个版本,有可能前期适配好的一个api版本,因为公共api版本统一升级,所有调用方不得不被迫升级,导致被动的测试工作量大,效果不稳定性增加。

倒不是说抽象公共api的方式一定不好,只是比较重载,如果确定性强、复用性高、不须要太多领域适配的服务,抽象成api也是适合的,比如文字识别OCR服务。而一些可能需要定制化改造的需求,api的方式有些缓慢、笨重,二次改造成本较大。

1.3 业务逻辑workflow需要额外开发配套程序,标准不一

信息碎片化:对于一个复杂任务的workflow,业务的分析逻辑,有些步骤和逻辑是确定的,有些是不确定需要大模型推理判断。常见的开发方式是:确定性的指令,通过开发特定的程序,比如查询一个商品的编号、基本信息等;需要推理的部分,通常写在prompt中让大模型进行推理判断。这样就带来业务逻辑碎片化的分散在程序和prompt中,遇到工作交接时,同事需要查阅多个源头才能明白处理逻辑。

技术业务信息传递误差:业务同事无法实质性复核开发人员的逻辑是否符合业务预期。业务同事梳理业务处理步骤和逻辑,开发同事用代码将业务逻辑变成workflow程序,因为两者技能悬殊,对业务来说,IT实现就是个黑盒,无法进行实质上的复核和确认。信息传递和代码实现有畸变风险。

标准/风格不一:还有一个弊端,实际垂域任务都是相对复杂的逻辑处理,几乎都需要一个workflow指导大模型完成分步骤分析,现有模式下,一个任务就需要配套开发一套workflow的代码,重复开发问题凸显。同时缺乏一个通用规范指导workflow的具体实现,会导致不同的项目,不同的开发人员实现的workflow代码风格差异巨大,增加管理成本。

2、Agent Skills针对以上痛点的优化处理方式

2.1 Agent skills是什么?

通俗理解:一个 Skill 就是一个文件夹,里面放一个叫 SKILL.md 的文件。

SKILL.md文件中两样重要东西:

1.元数据(name 和 description)—— 告诉 LLM系统这个 Skill 有什么功能、什么时候该用。

举个简单的例子:制作一个“客户建议搜集器”的skill。

name: " Customer Suggestion Extractor"

description: “从客户的评论或描述中,提取出客户对产品的建议;当用户在提交产品评价、发布产品测评、使用心得分享或产品论坛留言时使用”

  1. 具体指令 —— 清晰地展示skills是按什么规则、怎么分步骤干活的。

客户建议搜集器skill的具体指令实例如下:

# 客户建议搜集器

## 任务

根据用户所在的网页,从用户提供的产品评论或描述中,提炼出结构化的建议优化内容。

## 输出格式

JSON对象

### 规则描述

- 第一:若用户评论中明确提到某个产品,则建议针对该产品。如没有提及,则按用户所在的网页页面或论坛主题对应的产品。

- 第二:输出格式为{商品名称:XXXX;建议内容:XXXX}

- 第三:建议内容需进行总结,控制长度不超过1000字。

- 第四:若有多个产品的建议内容,请采用list结构,每条建议对应一个产品。

## 注意事项

- 避免[垃圾、脑残、智商税…]这类言之无物又带恶意贬低的建议提取。

Skill可以很简单,仅仅包含SKILL.md即可,也可以按业务复杂度进行拆分,形成多个文件。Agent skills除了上诉两项重要的且必须的文件外,可以集成数据、可执行的代码、数据的schema等。形成如下的文件组织形式。

其中workflow的配置、引用的程序代码如下实例所示:

2.2 Agent skills针对当前LLM开发痛点的改进

2.1.1 渐进式披露加载——针对Prompt过长问题

本质上,Skills是将用户的长prompt,进行了分层管理,通过分层之后,就能实现按需加载,从而降低了一次性加载过长prompt的问题。

传统的tools、MCP服务api,在进行工具调用时,需要将工具的全量描述加载进prompt中,存在超长的上下文占用。Agent Skills的高效性源于其精妙的“渐进式披露”架构,该架构通过三层设计优雅地管理了能力负载和上下文效率。思想类似于:人在处理一个任务时,需要查阅一本技术指导书:先通过速览书目录进行章节锁定,然后再翻阅对应章节详细内容,如果有附录和插图,在详细查看对应附录和插图,不必整本指导书全部理解完才能动工。

Agent Skills的设计共有3层结构:

第一层:Metadata(元数据),类似tool的功能描述,启动时加载,只包含所有Skill的name和description;用来锁定要用什么工具。小于100个token。

第二层:SKILL.md主体,当Agent 觉得某个skill相关时才加载,包含核心指令、workflow等;小于5K个token。

第三层:关联的附加文件,根据SKILL.md按需引用其他文件,可以是代码、数据库的schema等,如forms.md、reference.md、python脚本等;代码部分不加载到prompt中,因此长度不限制。

如果业务逻辑过于复杂,还可以在第三层中,通过引用的方式,进行更深层次的引用,按需加载对应说明,实现每层token长度的合理分配。当然当前LLM不建议嵌套过深。

2.2.2 以文件的方式管理能力——能力复用变的容易,允许多版本和私人订制

Agent skills复用了被广泛使用的文件管理方式,实现了能力的组织级管理。将各种技能以一种模块化的能力包,给AI安装的 “专业工具包”。物理形态为:以文件的方式管理,复用系统级、组织级文件系统的管理方式,实现高效的组织级管理。

类似技能管理方式有杀毒软件的病毒库:当公司购买了某项杀毒软件服务后,对应的病毒库会通过文件的方式,推送给整个公司的电脑,只要用户接收到更新的文件后,用户电脑就拥有了该项病毒防护功能。同理skill也一样,只要用户将skill文件放在指定的目录下,程序就能自动识别到该skill并拥有了使用该skill的能力。同时,该skill一旦形成规范和协议,还具备了跨多平台使用的能力,就容易构成生态。

因此skill的核心特征包括:

  • 可复用与可移植:一次创建,即可在兼容agent skill的平台中使用。
  • 可堆叠与组合:多个Skills可以像乐高积木一样可叠加使用,实现复杂工作流。
  • 组织级可用:Skills可在组织级别生效,而非局限于单个项目,实现了真正的能力沉淀。

便捷的私人订制:skill允许私人订制。Skill文件中,包含了skill详细的能力处理过程,用户可以点击查询其详细实现的细节,针对个性化的需求部分,可以基于该文件进行二次修改和封装。比如公共的安全检测skill,仅仅提供了最基础的安全检测,领域想进一步加强领域的安全性,可以基于这个skill,直接封装/修改skill的处理过程:增加特殊想要的检查项。仅仅细微的修改,即可实现个性化的skill,实现能力的继承和定制化。

版本管理灵活度高:因为skill是本地文件,用户拥有是否进行版本更新的决定权,组织允许不同版本的skill同时存在,就像手机app一样,用户可以按需选择更新,而不像之前api那样只能一刀切全部更新。比起api公共服务具有更灵活的版本管理方式和用户灵活度。当然api也可以支持不同版本的调用,但是多版本维护成本在api服务端,当版本过多时,将会是灾难。而skill多版本维护是用户端自己维护,分散了能力统一维护的压力。当某个skill在某个领域使用效果俱佳时,其没有强制升级的需求和必要,领域维护一个满足生产效果的skill版本即可。

2.2.3 程序性知识封装——workflow获得底层支持,无需单独开发配套程序

标准化承载workflow,不需要额外手工开发workflow的主控调用程序,支持确定性和不确定性的2种处理逻辑。底层代码框架支持程序调用的自动识别,以及推理部分的prompt拼接,只要符合对应的规范,底层框架就可以自动化的实现已有程序调用和大模型推理。

Workflow逻辑的实现,像是写程序的readme说明一样,偏向于人人都能读懂的自然语言描述,而非IT程序描述。当要调用对应程序时,仅需要按格式要求,调用对应程序即可,而程序处理的细节,不用在workflow中体现。

这样workflow变得非常易读,没有程序基础的业务人员也能看懂workflow的处理逻辑,辅助进行系统处理逻辑的复核,与IT人员共建,减小了业务、IT人的鸿沟。

以下是一个商品发布时亮点信息提取的skill示例:

对于开发人员来说,业务逻辑全部集中在一起,无论是分析逻辑,还是确定性的指令代码,prompt中的结构性知识,不必分散在系统各个地方,非常直白就能理解处理逻辑。

3、Agent Skills继MCP获得标准认可的

原因分析

3.1 MCP成为标准化协议的原因分析

MCP(Model Context Protocol)作为Anthropic推出的标准化协议,其诞生源于人工智能生态发展的核心矛盾——模型能力与外部系统集成的割裂性。

随着大模型智能水平的提升,LLM通过调用tools、数据服务api等,能极大程度扩展大模型的能力,使其能更广泛应用在各个复杂的生产系统。然而面临的问题是不同LLM定义的工具调用格式不一,甚至同一个模型不同版本下,对LLM支持的api格式都不一样,开发者苦统一固定的规范久矣,在此情况下,MCP以其简单合理的设计,迅速获得广泛的认可,其核心价值在于通过标准化协议解决集成碎片化问题,释放智能体的工具调用潜力,推动AI “开放协作者”,避免了定制化适配问题。同时,这套协议设计使用的技术也是之前成熟技术的组合,大家均能想得到,开源且没有商业捆绑。技术的确定性强,也能实际解决“书同文,车同轨”的开发问题。因此迅速被采纳为标准。

3.2 Agent Skills成为标准化协议的原因分析

MCP标准解决的是LLM如何识别外部工具,但没强调如何有效组织这些工具,去完成一个复杂的任务。犹如五金店里有各种符合国标(MCP)的工具,装修工人都可以使用,但如何装修好一个房子,还差一个精心设计的图纸/施工步骤说明图。Skills就可以理解为是一个精心设计的图纸/施工步骤说明图,详细讲解了每种情况下,应该如何实施的步骤,实施步骤中既有根据实际情况的判断决策,也有调用确定性的工具或者程序,也就是所谓的处理任务更加专业化(specialized)。

传统常见的做法是将图纸/施工步骤都塞进prompt,实际带来的就是第1章prompt的各种开发痛点。自然大家想到prompt应该也需要结构化分层管理。同时,Agent Skills又复用了成熟又被广泛使用的OS文件管理的方式,其技术细节和实施过程都非常明确和清晰,解决了prompt过长、workflow外置标准不一、能力复用差、版本管理麻烦的问题。

还有一个原因是LLM基座能力的持续增强,LLM除了具有较好的指令遵从性和较好的通识理解能力,也开始具有对中等复杂程度的步骤组合指令的理解能力,特别是经过专门数据训练后的如代码能力,当用户把任务拆分成函数、模块等粒度时,大模型生成的代码完成度较高,自然而然,我们要考虑更上层的代码架构设计、思维链设计、workflow设计等,以及任务分工:哪部分给大模型完成,哪部分用确定的程序完成,大模型是个概率模型,而程序是个确定性无歧义的语言,skill将两者进行了粘合,允许用户自己设计子步骤的分配,实现api、脚本、推理步骤的灵活组装。

3.3 Claude Agent/Sub-agents 为何没成为标准化协议的原因分析

人们总是倾向于接受越容易、越成熟的标准,同时也是LLM逐步发展和应用过程中,实际面临的迫在眉睫的开发指导。比如:

  • 简单文本类任务:纯LLM形态,处理聊天+文本处理任务,OpenAI的对话接口成为事实标准。没人强迫,但约定俗成,目的是可以无缝替换chatGPT,让其他LLM成为第二选择而无需修改代码。
  • 简单任务:LLM+MCP形态, 调用专业工具处理专业问题, LLM选择一个/少量工具执行。MCP成为标准,让api改造后实现跨LLM系统复用,给专业工具服务化提供指导。
  • 中等复杂任务:LLM+Skills形态,, LLM可以按照专家的分析逻辑进行垂域任务处理,按照既定的workflow、思维链prompt、多轮工具调用和推理分析任务得到更准确、确定的结果。Skills成为标准,实现组织级别的能力复用。
  • 复杂任务:LLM+agent形态,LLM系统需要管理从任务规划、记忆能力、工具调用、执行状态跟踪等多个环节,每个环节都具有极强的不确定性和探索性,未知程度高。
  • 比如记忆环节,传统处理记忆的方式,要么是按时间窗堆砌上下文,要么通过归纳总结压缩丢掉细节,要么通过RAG的方式召回相关记录,这些记忆方式都和人类的记忆方式相差巨大,也很非常占用token资源。Deepseek2025年曾尝试利用图形压缩技术模拟记忆遗忘过程,但也和人类重要时刻的记忆深刻,非重要时刻迅速遗忘的特性不完全相符。如何优雅高效的处理历史记忆,仍需要探索。2026年仍在研究。
  • 再如任务规划环节,好的任务规划一定是在本领域有深度的理解和经验积累能力,才能做到既掌握全局,又能根据实际反馈进行动态调整,所谓“专业的事情交给专业人做”,对基座模型的领域智能水平要求较高,而目前LLM还不能达到此水平,因此现在还不到制定任务规划标准的时候。

总之,现阶段对于大模型处理领域复杂任务的不确定太强,仍具有深度探索的必要,大模型也尚未达到预期的智能水平,因此制定标准的时机过早。

4、Agent Skills的局限和未来演进分析

4.1 Agent Skills的局限

4.1.1 Agent Skills没有异步状态跟踪设计,不适合进行高并发、多子任务场景

从skills的描述文件可以看出,skills是偏向于顺序执行的,无法一次性提交多个异步子任务并进行任务状态跟踪。因此不适合处理并发多子任务处理,主控进行状态跟踪和汇总的高并发汇总场景容易丢失任务状态。

比例对商业合同进行多个关键信息提取,为了加快处理效率,会利用多个子任务分别提取对应的字段信息,甚至会用到多个专有模型或微调模型,比如抽取任务用微调后的UIE模型,分类任务用微调分类模型,最后汇总各个字段的结果从而达到并发处理的效果。而skills当前偏向于能按照文本阅读的方式顺序进行,没有异步子任务的状态跟踪和结果等待设计。

4.1.2 Agent Skills无法处理过于灵活、判断分支过多的复杂任务

Agent Skills初衷是针对具有相对标准的SOP(Standard Operating Procedure)任务,即一套详细的、统一的步骤指南,指导大模型完成中等复杂任务的分析。如果某些任务天生灵活度高,需要走一步看一步,要写成SOP则会出现大量的if-else分支,或者要枚举大部分可能性的难度大,这种复杂场景也会导致skill文件配置超长系统报错或判断分支过多而精度下降。

4.2 Agent Skills的未来演进

4.2.1 Agent Skills组织级管理设计

Agent Skills解决了技能复用的问题,但没强调组织级管理,这可以结合现有的git代码管理的方式,让组织级技能发布员、审核员、权限管控、版本管理与智能推送等各司其职。

4.2.2 Agent Skills稳定性和安全性增强

Skills文件中的文本描述,最终本质上也会转换成prompt让大模型进行判断和决策,这种prompt拼接是一种新的数据格式,如果基座模型在预训练/后训练阶段经过此类数据的训练后,其指令遵从性和预期结果,也将会大大增加,目前市面上的LLM还需要一定时间学习和模型迭代。否则,skills的稳定性无法得到保障。现象是用其他非claude模型,偶发性出现未按要求调用指定skill/script的现象。

其次是agent Skills 包含可执行脚本,存在代码注入风险,以及有毒或者不可控的风险,如何确保skill可信、无害、不越权等一些列安全机制的设置,将是skills重要的优化方向。

4.2.3 Agent Skills和其他增强范式的结合

如Deep research范式结合Skills完成更高质量、更深入分析的研报输出,多个skills组合完成场景更完整的任务。

Skills技能如果堆砌过多之后,skill的管理也会演进为分层管理,实现专业领域专业技能的检索与调用,比如律师的技能,可以有书写起诉状、起草答辩状、证据有效性校验、历史判例分析、地方规定实践分析、线索搜集、协助现场分析等技能,而律师本身对应的是一个更上层的skill还是一个领域agent,还有待探索与实践。

5、Agent Skills适用场景分析

5.1 适合具有SOP型的任务

通过skill文件配置化SOP中的workflow,可以快速高效的实现LLM按照SOP逐步实现中等复杂的任务。当需要遵循特定程序、使用领域知识或重复执行脚本时,选择skill将可以快速实现功能。简单易用,特别适合在做算法领域应用时,结合专家梳理的分析过程和领域知识,快速验证其有效性,通过试算快速迭代和优化,找到满足要求的SOP(workflow)配置。

Skills通过自然语言配置化的方式,降低了对使用者的代码能力要求,Skills通过描述性文本,仅需要写清楚使用场景、输入输出参数,即可实现LLM系统对API的调用,系统也严格遵循此逻辑执行,无需额外的转化,确保信息流转过程中的不失真。降低了开发者的门槛,能让业务同事逐步深度参与到LLM系统的开发建设中。Skill相对于prompt的进步在于,原来业务人员可以自己写prompt,利用大模型完成一些特定文本分析任务,现在skill扩展到了更强的能力,让业务人员可以写skill描述,实现专业领域工具调用、数据查询与获取、workflow过程分析。Skills以高可读性的文字描述,缩小了开发者与业务人员之间的沟通鸿沟,能以一种中间态语言让开发者、业务人员、操作系统均能看懂读懂并执行的格式化语言,减少了三者沟通理解和执行上的障碍。

5.2 适合高度可复用的能力

通过将能高度复用的skill,抽象成组织级能力,能将企业隐性知识,封装成标准化的、可移植的 Agent Skills实现能力的快速应用和版本管理。同时通过轻量化、松耦合的开发设计,能够实现组织技能和私人技能的快速组合。实现现有技能的继承,个性化技能的快速封装改造。skills容易形成自己的生态,让技能发布者发布的技能能快速被其他平台和用户使用。

对于开发者和企业而言,Skills范式意味着:

  • 对开发者:工作重心从编写复杂提示词,转向设计可复用、可靠、和专家作业逻辑对齐的专业技能模块,侧重于业务人员共建一致认知的程序。
  • 对企业:能够将内部最佳实践、合规流程、专业知识固化为AI技能,实现知识的标准化组织管理与规模化应用。
5.3 适合多人协作需要统一标准的场景

同一个组织下有统一的组织标准场景,非常适合skill进行封装和协作。比如一个组织下,利用同一个代码规范检查skill确保员工提交的代码符合相同规范。又如员工周报/邮件等撰写需要符合组织格式规范,可以用skill辅助生成符合固定格式的要式文档。又如小组内经常被大家使用的prompt,可以打包成skill实现快速的局部共享给其他成员,同时通过版本管理确保大家能利用团队的优化成果,通过简单的接收来自组织级别优化更新文件即可。再如对领域的大模型的安全检测、输出结果质量控制等应用,通过skills能快速实现局部标准拉通、组织能力复用的效果。

6、Agent Skills实战

6.1 实战任务描述—领域数据合成skills

编写skill文件:实现税务场景描述的合成数据生成,模拟用户的问询,测试系统功能。以下是合成数据的模板和一个示例。

(测试数据为模拟虚构数据,不代表实际业务)

6.2 合成数据的SOP描述

1.设计prompt,清晰的描述数据合成任务,按照规定的模板格式【必填】生成。

2.合成数据中的采购主题,需要是华为及其子公司,名单在附件excel华为子公司名单.xlsx中

3.合成的数据按照生成数据模板进行保存为excel。

6.3 开发过程和结果

1.安装好claude环境,配置支持skills的基础大模型,比如当前业界支持的有doubao-seed-code-preview-251028;安装后以下步骤全部进行对话式编程。

2.根据任务描述让LLM生成prompt,并自我迭代优化后,保存为prompt.txt,然后人工审核和修改prompt,对齐任务要求。最终优化后的prompt见附件assets中的prompt.txt。

3.生成随机从’华为子公司名单.xlsx’获取子公的python代码,并测试。(生产环境可考虑替换为MCP接口获取数据)

4.开发调用生成式模型的api调用程序(skills调度对应的是code模型,合成数据要用生成式模型,如doubao-seed-1-8-251228)。

5.调用/skill-creator开发一个数据合成的skills,告诉模型主要步骤、调用的代码、使用的prompt文件、xlsx等。

6.自动化测试并修复bug。

中途不用写一行代码,通过在claude code/Openclaw中和大模型对话,即可完成skill的开发。生成的skill结果文件为:

然后将该文件夹,复制到根目录下的.claude文件夹中,启动claude,输入/skills,即可识别到。并且可以看到,skills的描述占用71个token。

要使用该skill,直接在命令行窗口中,输入“请使用tax-scenedata-generator的skill,生成5条数据” 即可调用该skill技能并生成数据。实际可以看到,系统提交了一条python scripts/generate_data.py --num-samples 5的命令,实际是调用了该skill中scripts中的代码,并进行了任务拆分,形成了2个子任务和状态跟踪:

[ ] 使用tax-scenedata-generator生成5条税务场景数据

[ ] 检查生成的税务场景数据文件

6.4 Agent Skill的能力要求和发现的问题

6.4.1 Agent Skills能力要求

当前LLM负责整个大任务的全部拆解的能力仍达不到预期,和业务逻辑和系统已有能力、数据等存在较大的理解偏差,在做步骤/子任务拆分时,需要skills开发人员有一定的代码设计能力,比如什么功能应该封装成一个python文件中,从系统哪里获取数据、文件等,主控步骤应该调用几个脚本的设计等。经过实测,业务人员基本能看懂skill文件中的逻辑,但直接让业务人员动手开发稍复杂的skill,还需要一定的软件设计能力,虽不用写具体代码,但仍需要有一定的代码设计sense、代码测试重构的概念。

另外,测试过程中发现的程序bug、软件缺陷、软件包依赖等,因为权限限制的原因,claude无法直接帮忙安装所有的依赖包等,有时候需要开发人员手工帮忙解决一些环境问题、依赖包问题。无法全自动化完成代码开发和测试。

因此,skill的开发,目标人员依然不是业务人员,仍是面向开发/设计人员,虽然可能不需要编写具体的代码,但仍需要有一些软件开发、设计、测试重构的概念。比如第一次skill生成时,没有按照skill规范分类输出资产、代码脚本等文件夹,而是全放在了一个文件夹中。

需要继续优化重构,让其按照skill规范输出,并修复一些识别到的bug问题。

6.4.2 识别到的Agent Skills当前存在的问题

1.skill的版本稳定性和权限管控有待提升

当开发完一个skill,如果移植到其他环境/同事电脑上运行时,环境变化导致skill报错时,cluade倾向于直接修改skill内部代码,而不是优先尝试解决环境问题。这样会导致非常误修改skill开发者调好的skill,什么时候该修改skill代码,什么时候该去解决部署环境的问题,这里没有很好的控制策略。

**改进建议:**建议区分skill状态:开发状态/使用状态。如果是使用状态,优先排查环境、配置、数据问题,其次才审慎考虑是否需要修改skill内部代码。

2.skill的版本管理和依赖关系没有变更记录

当基于公有skill开发私人的skill时,claude修改好以后,没有版本记录和依赖关系及变更记录,容易引起使用端版本混乱,依赖错误等问题。

比如上述tax-scenedata-generator skill我们在使用时,想加快速度并发去调用,最终会汇总各个并发结果。也就是变成批处理的方式。

Claude会直接在这个skills中生成3个batch批处理的代码,但是并未提醒和记录,此时的skill已经和原始skill不一样了,如果用户也没有记录此变化,很容易就忽略了本次修改内容。下次再用这个skill时,容易生成非预期的内容。

**改进建议:**skill的权限控制,可以参照git代码变更的管理方式,记录变更明细,形成版本依赖树,当公有skills发生变更时,能识别到变更依赖关系。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套 AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2026 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要 《AI大模型入门+进阶学习资源包》下方扫码获取~
在这里插入图片描述

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
在这里插入图片描述

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
在这里插入图片描述

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
在这里插入图片描述

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
在这里插入图片描述

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
在这里插入图片描述

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

图片

以上资料如何领取?

在这里插入图片描述

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

图片

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
在这里插入图片描述
在这里插入图片描述

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
在这里插入图片描述
在这里插入图片描述

以上全套大模型资料如何领取?

在这里插入图片描述

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐