收藏必备!小白程序员必看:LLM大模型工具进化史,从MCP到Skills的全面解析
本文回顾了LLM(大型语言模型)工具的发展历程,重点探讨了MCP和Skills两种工具机制的联系与区别。MCP作为早期AI智能体连接外部工具的标准协议,存在跨厂商标准化缺失、执行安全隔离不足、上下文同步复杂等问题。而Skills机制通过文件系统组织专业知识和工作流,以代码动态调用外部工具,解决了MCP的扩展性难题。Skills更适合单机、简单环境,而MCP仍是商业环境中交换服务的必要协议。两者并非替代关系,而是互补。文章建议读者关注技术发展进程,而非纠结于概念本身。
1、MCP的不足之处

MCP的作用与优势自然不必多说,上图是Anthropic公司给我们描述的以及网络上人们讨论MCP的美好画面。然而对于自己设计过MCP Sever或使用过MCP Tools的人来说,这画面并非故事的全部,MCP的安全风险、用户体验以及技术设计都存在一些问题(早在2025年3月,Mnaus首席科学家Peak就说出了“Actually, Manus doesn’t use MCP”,可见其团队AI认知的市场领先性)
下图是社交媒体上一个关于MCP的梗图,它非常形象地反应了当前MCP的尴尬现状

总结起来,MCP作为AI智能体连接外部工具的标准协议,虽在标准化集成方面具有优势,但仍存在多方面的不足之处:
- 协议层面:缺乏垮厂商标准化
- 虽然Anthropic公司开源了MCP协议
- 执行安全和隔离机制不足
- 这一点已得到改进,在2025年6月18日的更新中,协议增强了安全性(如明确MCP服务器作为OAuth资源服务器的角色
-
上下文同步与状态管理复杂,一次性加载全部Tools,大量消耗Token
(假设服务数为M,每个服务包含的Tools数量为N,则总Tools数量为M*N),这挤占了本来就很宝贵的智能体Agent上下文空间 - 即所谓“上下文爆炸”,这就决定了MCP + Tools组合形式的不可扩展性(No Scaling)。
- 这点严重阻碍了MCP的发展,在这个背景下,Skills机制的思路被探讨提出,即让大模型通过编写代码来动态调用外界工具,而不是一次性获得所有工具定义,这有助于管理复杂的工具集和大量数据返回,提升上下文空间的利用率。
注:虽然Claude Code MCP团队近期也提出了动态加载工具的思路以减少上下文Token数量(Tool Search now in Claude Code: https://x.com/trq212/status/2011523109871108570),但Skills概念已深入人心。
2、从Claude.md/AGENTS.md到Skills
Claude.md 是Anthropic公司提出的一种项目上下文注入机制——当在 Claude 桌面应用中与某个项目文件交互时,Claude 会自动读取项目根目录下的 Claude.md 文件,并将其内容作为持久化指令注入到对话上下文中,主要是为了提高提示词的使用效率。
AGNET.md则是OpenAI和Google一起提出的对Claude.md/GEMINI.md/CODEBUDDY.md等机制的一个厂商标准化设计(所有Agent厂商都可以实现支持,这样开发者就不需要每个厂商写一个全局md文件)。它的核心思想为
- 统一标准:一个文件服务所有 AI 编程工具
- 开放格式:由 OpenAI、Google 等共同制定,非专有
- 智能就近:支持嵌套,离文件最近的 AGENTS.md 优先

AGENTS.md: One File for All Agents - by Aravind Putrevu
如果把LLM比喻为计算机的CPU,Context是内存,AGENTS.md则是这台智能机的外接硬盘(以文件系统组织形式)。

既然文件组织形式这么好用,为什么不推而广之?同时,在创建Agent应用实践过程中工程师们逐渐认识到这样一个现象:AI所有使用的工具类型当中,使用代码工具(写代码+执行代码)执行任务最擅长,完成任务的效率最高(UIUC的王星尧博士的《Executable Code Actions Elicit Better LLM Agents》论文专门研究了这个主题,读者可自行搜索阅读之)。Anthropic公司也认识到:Claude固然强大,但实际工作不仅需要流程性知识,还需要组织背景信息。于是在2025年10月Anthropic推出了Agent Skills:一种基于文件和文件夹构建专业智能体的新方式,其核心理念是让用户可以将专业知识和工作流程打包成"技能包",使 Claude 从通用 AI 助手变身为特定领域的专家。
注:2025年7月,Manus工程博客发表《AI Agent的上下文工程:构建Manus的经验教训》,其中一条即为:使用文件系统作为上下文,再一次感叹Manus团队的超前认知。
也就是说:当文件系统遇上代码工具,计算机的生产力就彻底被解放了。这种设计思想最终可以追溯到:Unix/Linux “一切皆文件”的设计哲学。
一句话解释Skills:以文件系统的形式组织专业知识与工作流的技能包/工具箱。
下图是Anthropic官方收录的skills集合,基本上涵盖了职场人士的高频技能任务,如office套件、前端设计、画图等

https://skillsmp.com/zh 是民间收录的skills集合,当前技能数已达6w+。也就是说一旦定义为skills,这些技能就可以通过智能体Agent为所有人共享。如果说软件世界里的代码/库是操作行为上的复用,Skills则是方法论上的复用,而且是自然语言维度上的复用。这也意味着数字世界skills能力的边际成本已趋近为0。昨日,社交媒体上阿里千问App上的“一句话点奶茶外卖”的能力便是这些工具应用的冰山一角。
3、MCP与Skills的联系与区别
既然Skills这款Agent工具如此好用,是不是可以不需要MCP了?并不是。在单机里、在简单环境、在初级任务里,Skills机制确实可以很出色的完成使命。但现实世界尤其是商业环境,各个平台提供的服务都不尽相同,同一个平台的各业务方向执行环境也并非完全共享。这一切都需要一种可以交换商业服务的标准化协议,而且需要透明、安全、高效,这便是MCP存在的必要性。

Anthropic《Equipping agents for the real world with Agent Skills》
上图是Claude Code使用Skills与MCP的真实场景,二者的主要职责可以表述如下:
- Skills:use computer模式下(单机环境),skills使用bash/python/node.js等程序工具完成任务。
- MCP:如果需要其他Agent服务或者第三方服务,则需要通过MCP工具获取
所以:Skills不是MCP的替代,而是MCP的补充。
4、写在后面的话
1)不必纠结于MCP 和 Skills的概念本身,不妨站在技术的历史发展进程视角看看,可能一切都会变得清晰起来。
2)虽然表面上看智能体Agent技术一直在被Authropic公司引领,但其实Manus团队才是工程实践先驱,这个话题可以单独开一篇专门介绍。
3)标题有点标题党之嫌,如果看完仍有疑惑,不妨在评论区吐槽,一起继续讨论
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】


为什么要学习大模型?
我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。


大模型入门到实战全套学习大礼包
1、大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

2、大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

3、AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

4、大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

5、大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

适用人群

第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐

所有评论(0)