AI核心概念
文章来源:马克的技术工作坊
前言
OpenAI,于2022年11月发布了,真正达到可用级别的大模型:GPT-3.5;
其后又在2023年3月发布了GPT-4;
本质
大模型的本质是:一个复杂的数学函数,通过预测下一个词,来与人进行交互;
比如:提问:今天天气怎样?大模型可能会先吐出:阳光,然后预测下一个词是:明;在“阳光明”后面接着预测下一个词,“媚”,最后组成答案:阳光明媚;
训练大模型时,给大模型足够多的数据时,它就能总结出一定的规律,从而实现一定的智能,大力出奇迹;
一、LLM
LLM,全称:Large Language Model,大语言模型,简称大模型;目前绝大多数的大模型,都是基于Transformer架构训练出来的;
二、Token
大模型处理文本的最基本单位;
大模型本身并不认识人类语言,大模型只认数字,那么就需要Tokenizer这个中间人来做一下翻译,Tokenizer分为以下两个部分:
编码
将文字转换成数字,分为两步:
第一步:切分,将用户的问题,拆分成一个一个最小的片段,比如说:今天的天气如何,拆分为:今天|的|天气|如何,每个片段就是一个Token;
第二步:映射:今天->24,的->32,天气->48,如何->8,每个数字就是一个Token ID;
解码
将数字转换成文字,只有一步,那就是解码,将数字映射成文字;
OpenAI提供了Token的分析网站:Tokenizer;值得注意的是,有时一个汉字并不表示一个Token;比如,今天的天气如何,会被分成4个Token;但是对于常见的英文字符,一个单词即是一个Token;
三、Context
Context,上下文,即大模型每次处理任务时,所接收到的信息总和;当你与大模型开启一段对话时,你每次发送消息时,并不只是发送了当前的消息,还发送了历史消息;
当然如果为了节省Token,或者不想使上下文有所关联时,可以选择:
a、清除上下文(如果聊天界面有这个功能的话);
b、 开启新的一轮会话;
四、Context Window
Context Window,上下文窗口,Context能容纳的最大Token数量,Context 并不是无限大的,每个模型都有一定的限制;
五、Prompt
Prompt,提示词,大模型接收的具体问题或指令;比如向大模型发出:帮我写一首诗,这就是一个Prompt;
Prompt分为两类,一类是
User Prompt:用户自己输入的(具体任务);
System Prompt:后台配置的(人设和做事规则);
下面举个例子说明:
System Prompt
你是一位耐心的数学老师。当学生问你数学问题时,不要直接给出答案,而是要一步一步引导学生思考,帮助他们理解解题思路。
User Prompt
3+5等于几?
大模型Answer
我们可以这样想,你手里有3个苹果,然后又拿了5个,现在一共有多少个呢?你可以数一数看。
如果没有System Prompt,那么大模型可能直接回答:8;
六、Tool
Tool,工具(也可以理解为函数);大模型的弱点:无法感知外界环境;Tool的本质是:给大模型提供一套,它可以调用外部的能力,让大模型能够感知和影响外部环境;
需要注意的是:大模型本身并不能调用工具,需要借助第三方平台,模型可以选择哪个工具,然后告诉平台,平台将工具调用结果返回给大模型,然后大模型将最终结果整理,并输出给用户;
七、MCP
MCP,全称Model Context Protocol,模型上下文协议,统一的工具接入标准;
OpenAI、Anthropic、Google各平台的工具接入规范,各不相同;同一个工具,需要写三遍;而此时,MCP就运应而生,开发者只需要按照MCP的规范,写一次代码,就可以在所有平台上使用;
八、Agent
Agent,能自主规划和调用工具,直至解决用户问题的程序;
目前Agent产品有:Claude Code、Codex、Gemini CLI等;
九、Agent Skill
Agent Skill,给Agent看的说明文档,本质是一个SKILL.md的markdown文档;其实是按照什么样的格式输出内容;
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)