从 LLM 到 Agent Skill,龙虾的技术基础
从 LLM 到 Agent Skill:AI 应用进化路线
最近我系统梳理了一次 AI 应用开发的底层逻辑,越看越觉得,很多人讨论 AI 时容易陷入“模型哪个好”这种点状问题,但真正决定项目上限的,其实是整条能力链路是否打通。
这篇文章我想用尽量直白的方式,把这条链路讲清楚:
LLM -> Token -> Context -> Prompt -> Tool -> MCP -> Agent -> Agent Skill
如果你也在做 AI 相关项目,希望这篇能帮你少走一些弯路。
1)LLM:它到底在“智能”什么
先说结论:LLM 的核心能力是基于上下文预测下一个 token。
所以它不是数据库,也不是搜索引擎。你问它问题时,它不是去某个“知识表”里精确查找,而是在当前上下文里做概率推断,连续生成 token,最后形成答案。
这也解释了两个现象:
- 它经常“看起来很懂”,因为语言生成能力确实很强;
- 它也会“自信地胡说”,因为概率最优不等于事实最优。
工程上要用好 LLM,第一步就是承认它的边界,而不是神化它。
2)Token:成本、速度、质量的共同变量
很多人刚做 AI 应用时,不太重视 token,后面很快会在成本和延迟上吃亏。
Token 可以理解成模型处理文本的基本单位。输入、输出、上下文历史,最后都会折算到 token 上。
token 增长会同时影响:
- 费用;
- 响应时间;
- 上下文窗口占用。
我自己的经验是:把 token 当预算管理。
- 输入信息尽量结构化、去冗余;
- 输出格式提前约束,减少模型“发挥”;
- 历史对话做摘要,不要无限堆叠原文。
3)Context:模型的“可见世界”决定回答上限
模型只能基于它看到的内容回答。也就是说,上下文质量基本决定结果质量。
典型上下文一般包括:
- 系统规则;
- 用户问题;
- 历史对话;
- 外部检索资料(RAG);
- 工具调用结果。
常见问题也很典型:
- 关键信息被挤出窗口;
- 无关信息太多,导致指令被稀释;
- 历史冲突造成回答风格和结论漂移。
所以我通常会做三件事:
- 上下文分层(规则层、任务层、临时数据层);
- 历史摘要压缩;
- 只保留“当前任务强相关”的信息。
4)Prompt:不是文案写作,而是任务编排
Prompt 的价值不在“措辞华丽”,而在“约束清晰”。
一个可落地的 Prompt,至少要回答这几个问题:
- 你是谁(角色)?
- 你要完成什么(目标)?
- 你依据什么输入(数据)?
- 你按什么规则处理(流程/边界)?
- 你输出成什么格式(结构)?
- 怎么算合格(质量标准)?
如果任务稍复杂,我非常建议拆成多步:先分析、再生成、最后自检。
这样比“一条大而全指令”稳定很多。
5)Tool:让模型从“会说”变成“会做”
没有 Tool 时,LLM 本质是文本生成器。接入 Tool 后,能力会发生质变。
比如模型可以:
- 搜实时信息;
- 调数据库;
- 读写文件;
- 调业务 API 完成真实操作。
这里最关键的一点是职责分离:
- LLM 负责理解与决策
- Tool 负责确定性执行
这么做的好处很直接:幻觉风险降低,结果可验证,系统能接上真实业务流程。
6)MCP:工具接入标准化后,系统才有规模化可能
当工具数量一多,工程复杂度会迅速上升。
MCP(Model Context Protocol)这类协议层的价值就在这里:把“模型如何发现和调用工具”变成统一规则。
它解决的不是某个单点能力,而是系统协作问题:
- 工具怎么注册和发现;
- 参数和返回如何统一;
- 权限边界怎么管;
- 不同环境如何复用同一套接入方式。
从团队协作角度看,这一步非常关键:上层逻辑更稳定,下层工具可替换,迭代成本会低很多。
7)Agent:不是“大 Prompt”,而是闭环系统
我现在更愿意把 Agent 看作一个任务闭环:
- 理解目标;
- 制定计划;
- 调用工具执行;
- 观察结果;
- 反思并迭代。
所以 Agent 不是某个“神奇模型”,而是“模型 + 记忆 + 工具 + 控制流”的组合系统。
做 Agent 时,建议重点盯住三件事:
- 任务分解是否合理;
- 是否有失败重试与回退;
- 是否有可观测性(日志、轨迹、评估)。
8)Agent Skill:把经验沉淀成可复用能力
如果说 Agent 解决“能不能完成任务”,那 Agent Skill 解决的是“能不能持续稳定完成同类任务”。
一个成熟 Skill 通常会包含:
- 适用场景与触发条件;
- 输入输出规范;
- 执行步骤模板;
- 依赖工具清单;
- 质量检查与异常处理。
这一步做得好,团队会明显感受到收益:
- 不再每次从零写流程;
- 新人更快上手;
- 线上表现更稳定;
- 能力资产可以持续累积。
9)一条我认为可执行的落地路线
如果你准备从 0 到 1 做 AI 应用,我建议按这个顺序推进:
- 单模型阶段:先把 Prompt 和输出标准打磨稳定;
- 工具化阶段:把关键环节接到 Tool,结果可验证;
- 协议化阶段:用 MCP 思路统一工具接入;
- Agent 化阶段:增加规划、反思和控制流;
- Skill 化阶段:沉淀高频任务模板,形成团队能力库。
这条路线的核心不是“追新名词”,而是每一步都在解决真实工程问题。
10)最后
我现在越来越认同一件事:
AI 项目的竞争力,最终不在于“你用了哪个模型”,而在于你是否把模型能力组织成了一套可运行、可维护、可扩展的系统。
如果把今天这篇浓缩成一句话,就是:
会用 LLM 是起点,能把它工程化成 Agent 和 Skill,才是分水岭。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐


所有评论(0)