文章来源:马克的技术工作坊

前言

OpenAI,于2022年11月发布了,真正达到可用级别的大模型:GPT-3.5;
其后又在2023年3月发布了GPT-4;


本质

大模型的本质是:一个复杂的数学函数,通过预测下一个词,来与人进行交互;
比如:提问:今天天气怎样?大模型可能会先吐出:阳光,然后预测下一个词是:明;在“阳光明”后面接着预测下一个词,“媚”,最后组成答案:阳光明媚;

训练大模型时,给大模型足够多的数据时,它就能总结出一定的规律,从而实现一定的智能,大力出奇迹


一、LLM

LLM,全称:Large Language Model,大语言模型,简称大模型;目前绝大多数的大模型,都是基于Transformer架构训练出来的;


二、Token

大模型处理文本的最基本单位
大模型本身并不认识人类语言,大模型只认数字,那么就需要Tokenizer这个中间人来做一下翻译,Tokenizer分为以下两个部分:

编码
将文字转换成数字,分为两步:

第一步:切分,将用户的问题,拆分成一个一个最小的片段,比如说:今天的天气如何,拆分为:今天|的|天气|如何,每个片段就是一个Token;

第二步:映射:今天->24,的->32,天气->48,如何->8,每个数字就是一个Token ID;

解码
将数字转换成文字,只有一步,那就是解码,将数字映射成文字;

OpenAI提供了Token的分析网站:Tokenizer;值得注意的是,有时一个汉字并不表示一个Token;比如,今天的天气如何,会被分成4个Token;但是对于常见的英文字符,一个单词即是一个Token;


三、Context

Context,上下文,即大模型每次处理任务时,所接收到的信息总和;当你与大模型开启一段对话时,你每次发送消息时,并不只是发送了当前的消息,还发送了历史消息;

当然如果为了节省Token,或者不想使上下文有所关联时,可以选择:
a、清除上下文(如果聊天界面有这个功能的话);
b、 开启新的一轮会话;


四、Context Window

Context Window,上下文窗口,Context能容纳的最大Token数量,Context 并不是无限大的,每个模型都有一定的限制;


五、Prompt

Prompt,提示词,大模型接收的具体问题或指令;比如向大模型发出:帮我写一首诗,这就是一个Prompt;

Prompt分为两类,一类是
User Prompt:用户自己输入的(具体任务);
System Prompt:后台配置的(人设和做事规则);

下面举个例子说明:
System Prompt
你是一位耐心的数学老师。当学生问你数学问题时,不要直接给出答案,而是要一步一步引导学生思考,帮助他们理解解题思路。

User Prompt
3+5等于几?

大模型Answer
我们可以这样想,你手里有3个苹果,然后又拿了5个,现在一共有多少个呢?你可以数一数看。

如果没有System Prompt,那么大模型可能直接回答:8


六、Tool

Tool,工具(也可以理解为函数);大模型的弱点:无法感知外界环境;Tool的本质是:给大模型提供一套,它可以调用外部的能力,让大模型能够感知和影响外部环境;

需要注意的是:大模型本身并不能调用工具,需要借助第三方平台,模型可以选择哪个工具,然后告诉平台,平台将工具调用结果返回给大模型,然后大模型将最终结果整理,并输出给用户;


七、MCP

MCP,全称Model Context Protocol,模型上下文协议,统一的工具接入标准
OpenAI、Anthropic、Google各平台的工具接入规范,各不相同;同一个工具,需要写三遍;而此时,MCP就运应而生,开发者只需要按照MCP的规范,写一次代码,就可以在所有平台上使用;


八、Agent

Agent,能自主规划和调用工具,直至解决用户问题的程序;

目前Agent产品有:Claude Code、Codex、Gemini CLI等;


九、Agent Skill

Agent Skill,给Agent看的说明文档,本质是一个SKILL.md的markdown文档;其实是按照什么样的格式输出内容;

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐