AI圈子里的各种名词,一次讲清楚

适合刚进 AI 圈、经常被新名词劝退的人。

导语

最近一年,AI 圈最常见的状态不是“技术太难”,而是“名词太多”。

LLM、Token、Context、RAG、Tool、MCP、Agent、Skill……每个词都听过,但连起来就懵。

这篇文章不讲玄学,只做一件事:把这些词放回同一条工程链路里,你看完就知道它们各自负责什么。


先记一条主线

先把全局装进脑子:

LLM(会生成) → Token(处理单位) → Context(临时工作区) → Prompt(任务说明) → Tool(外部执行) → MCP(统一接入) → Agent(自主执行系统) → Skill(可复用任务手册)

只要这条线不丢,后面新增名词也不容易乱。


1. LLM:大模型到底在干什么

LLM(Large Language Model)最核心的能力是:根据上下文,预测下一个 token。

听起来朴素,但规模足够大、数据足够多之后,这个“下一个 token 预测器”就能表现出写作、总结、翻译、推理等复杂能力。

今天你熟悉的 GPT、Claude、Gemini,本质都属于这一类模型体系。


2. Token:模型真正处理的“最小单位”

很多人以为模型按“字”或“词”处理文本,其实不是。模型处理的是 token。

你可以把 token 理解成“模型自己的切分块”:

  • 可能是一个字
  • 可能是半个词
  • 也可能是一个完整词

所以 token != 词,它们不是一一对应关系。

为什么这个词这么重要?

  • 计费看 token
  • 上下文上限看 token
  • 输出长度也看 token

3. Context 与 Context Window:为什么模型像“记得你”

很多人问:为什么我和模型聊着聊着,它好像记住了前面说的话?

答案是:因为前文被放进了它的 context(上下文)。

再加一个概念:Context Window(上下文窗口),就是这块临时工作区的容量上限。

容量够,就能带更多历史信息;容量不够,旧信息就可能被截断,表现出来就是“失忆”。

注意:

  • 这不等于模型天然拥有长期记忆。
  • 很多“它记得我”的体验,来自产品层的历史管理与检索机制。

4. Prompt:提示词不是咒语,是任务说明书

Prompt 本质是你给模型的任务描述。

好 Prompt 一般满足三件事:

  • 任务目标明确
  • 背景信息完整
  • 输出格式清楚

常见误区是执着“某个神奇句式”。

比如“不能说请、谢谢,不然效果差”,这不是普适规律。真正影响质量的,通常是任务定义不清和信息不全。


5. RAG:让模型“边查边答”

RAG(Retrieval-Augmented Generation)可以理解成:
先检索外部资料,再基于资料生成答案。

它解决两个现实问题:

  • 模型训练数据有时间边界
  • 你的私有知识(公司文档、个人资料)不在模型参数里

简单说:RAG 不是让模型更会“背”,而是让它更会“查”。


6. Tool:模型只负责“建议调用”,平台负责“真正执行”

这是高频误解点。

模型不会直接去访问你的数据库,也不会自己跑脚本。它能做的是:

  • 判断该调什么工具
  • 组织调用参数
  • 把执行结果整合成自然语言

真正的执行动作发生在你自己的应用/平台侧。

一句话:模型是“决策与表达层”,平台是“执行层”。


7. MCP:为什么它越来越常被提起

MCP(Model Context Protocol)是一个开放标准,用来统一 AI 应用和外部系统的连接方式。

如果把 AI 当成一台设备,MCP 有点像统一接口规范:

  • 工具方按标准提供能力
  • 客户端按标准接入能力

好处是减少重复对接,提高复用效率。


8. Agent:从“会聊天”到“会干活”

Agent 不是某个单独模型,而是一套系统组合。

一般包含:

  • 模型(理解与生成)
  • 规划(拆步骤)
  • 工具(执行动作)
  • 记忆(维护状态)
  • 循环(直到任务完成)

所以 Agent 的价值不在“说得好听”,而在“能把事情办完”。


9. Skill:把经验沉淀成可复用流程

Skill 可以理解为 Agent 的任务手册。

通常包含两部分:

  • 元数据(name、description)
  • 指令层(目标、步骤、边界、输出要求)

写 Skill 的意义是:
把“临场发挥”变成“可复用流程”。


10. 读完后最该做的三件事

  • 先把“词汇记忆”升级为“流程理解”:谁理解、谁执行、谁存储。
  • 先做一个最小闭环:一个任务 + 一个工具,跑通再扩展。
  • 及时文档化:把有效做法沉淀成模板,而不是每次重写 prompt。

结语

AI 圈名词会持续新增,但底层逻辑变化没那么快。

你只要抓住那条主链路,再遇到新词,大概率都能快速归位:
它是“生成层”的词,还是“执行层”的词,还是“连接标准”的词。

看清这一点,学习效率会明显上来。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐