什么是词元?AI的Token的中文名是什么?
什么是词元?AI的Token的中文名是什么?
🐯 猫头虎 | 人工智能领域优质创作者
📅 2026年3月24日 | ⏱️ 阅读时长:15分钟 | 🔥 热度:⭐⭐⭐⭐⭐
🎯 开篇暴击:为什么你必须搞懂"词元"?
兄弟们,姐妹们!如果你还在用 “字符数” 来衡量大模型的输入限制,那你真的OUT了!🚨
当你看到 GPT-4o 的上下文窗口是 128K tokens,或者 Claude 3.5 支持 200K tokens 时,你是不是一脸懵逼——这TM到底是多少个汉字?能写多少篇作文?
今天,猫头虎就用最接地气的方式,带你彻底搞懂这个AI领域的核心概念:Token(词元)!
💡 一句话总结:Token是AI理解世界的"最小意义单元",中文正式译名为 “词元”。
📚 目录导航
| 章节 | 核心内容 | 难度 |
|---|---|---|
| 一、Token的本质:AI的"原子" | 什么是Token?为什么要用它? | ⭐⭐ |
| 二、中文译名之争:为什么是"词元"? | Token vs 词元 vs 令牌 | ⭐⭐⭐ |
| 三、Tokenization:文本如何变成Token? | BPE、WordPiece、Unigram算法详解 | ⭐⭐⭐⭐ |
| 四、中英文Token对比:为什么中文更"贵"? | 同样的意思,中文token数是英文的2-3倍 | ⭐⭐⭐ |
| 五、实战:如何计算你的Prompt用了多少Token? | Tiktoken、Tokenizer工具使用 | ⭐⭐⭐ |
| 六、Token的经济学:为什么它决定了AI的成本? | API定价、上下文窗口、推理成本 | ⭐⭐⭐⭐ |
| 七、未来趋势:无Token架构会取代它吗? | Mamba、RWKV、连续token新范式 | ⭐⭐⭐⭐⭐ |

一、Token的本质:AI的"原子" 🔬
1.1 从人类阅读到AI"阅读"
咱们人类看书,是一个字一个字读,对吧?但AI不一样!
AI处理文本的基本单位不是"字",也不是"词",而是Token(词元)。
人类视角:今天天气真好,适合出门散步!
AI视角:[今天] [天气] [真好] [,] [适合] [出门] [散步] [!]
↑ ↑ ↑ ↑ ↑ ↑ ↑ ↑
Token Token Token Token Token Token Token Token
1.2 为什么不用字符(Character)?
你可能会问:直接用字符不行吗?一个汉字一个字符,多简单!
答案:效率太低!
| 方案 | 问题 | 示例 |
|---|---|---|
| 字符级 | 序列太长,"中华人民共和国"要7个token | 模型处理慢,记忆负担重 |
| 词级 | 中文没有空格分词,“研究生命"是"研究/生命"还是"研究生/命”? | 歧义爆炸,词表巨大 |
| 子词级(Token) | 平衡方案:常用词整体编码,生僻词拆成片段 | 兼顾效率与泛化性 ✅ |
1.3 Token的正式定义
词元(Token) 是神经网络语言模型处理自然语言时的最小语义单元。它可能是一个完整的单词、一个汉字、一个子词片段,甚至是一个标点符号或数字序列。
关键特性:
- 语义完整性:单个token通常携带可解释的语义信息
- 固定维度:每个token被映射为固定长度的向量(如768维、4096维)
- 有限词表:GPT-4的词表大小约100,256,所有文本都被编码为这些ID的组合
二、中文译名之争:为什么是"词元"? 🏷️
2.1 Token的翻译乱象
在中文技术社区,Token的翻译一直是个混乱的战场:
| 译名 | 使用场景 | 问题 |
|---|---|---|
| 令牌 | 网络安全、区块链、早期NLP | 容易与"Token认证"混淆,无法体现语言单位特性 |
| 标记 | 学术界部分论文 | 过于宽泛,"标签(Label)"也叫标记 |
| 词片/子词 | 技术博客 | 描述的是BPE结果,不是Token本身 |
| 词元 | 国家标准、主流教材、大厂文档 | ✅ 最准确、最规范 |
2.2 "词元"的胜出逻辑
"词元"这个译名好在哪?
词 = 语言单位(对应Word)
元 = 基本单元(对应Element/Unit)
词元 = 语言的基本单元 = Token
权威背书:
- 📘 《人工智能术语》国家标准(GB/T 41867-2022)明确采用**“词元”**
- 🏢 百度文心、阿里通义、讯飞星火等国产大模型官方文档统一使用**“词元”**
- 🎓 清华、北大、中科院自动化所等高校NLP课程标准译名
2.3 猫头虎的建议
🐯 虎哥忠告:写技术博客、做PPT汇报、跟同事吹水,统一用**“词元”**!显得专业!
看到"令牌"别笑,看到"Token"别装,看到"词元"给点赞!👍
三、Tokenization:文本如何变成Token? 🔄
这是全文最硬核的部分! buckle up!🚀
3.1 分词算法进化史
[字符级] → [词级] → [子词级] → [字节级]
1950s 1980s 2016(BERT) 2020(GPT-2)
3.2 BPE(Byte Pair Encoding):GPT系列的标配
核心思想:从最基础的字符开始,合并频率最高的相邻字符对,直到词表大小达标。
实战演示:用"low lower lowest"训练词表
初始词表:{l, o, w, e, r, s, t}
第1轮:统计相邻对
"lo"出现3次 → 合并为"lo"
词表:{l, o, w, e, r, s, t, lo}
第2轮:统计相邻对
"low"出现3次 → 合并为"low"
词表:{l, o, w, e, r, s, t, lo, low}
第3轮:统计相邻对
"er"出现2次 → 合并为"er"
词表:{..., er}
第4轮:统计相邻对
"est"出现1次 → 合并为"est"
词表:{..., est}
最终结果:
"low" → [low]
"lower" → [low, er]
"lowest" → [low, est]
代码实战(Python):
import tiktoken
# 获取GPT-4的编码器
encoder = tiktoken.encoding_for_model("gpt-4")
# 编码文本
text = "你好,世界!Hello World!"
tokens = encoder.encode(text)
print(f"Token IDs: {tokens}")
# 输出: [57668, 53901, 39210, 23794, 99487, 11310, 2691, 527, 499, 2763, 0]
# 解码查看
for i, token_id in enumerate(tokens):
token_bytes = encoder.decode_single_token_bytes(token_id)
print(f"Token {i}: ID={token_id}, Bytes={token_bytes}, Text={token_bytes.decode('utf-8', errors='replace')}")
3.3 WordPiece:BERT的选择
与BPE类似,但使用语言模型概率而非频率来决定合并:
BPE:选频率最高的对("er"出现100次就合并)
WordPiece:选合并后使训练数据似然概率增加最多的对
3.4 SentencePiece:中日韩救星
革命性设计:不依赖空格分词!
import sentencepiece as spm
# 训练(中日韩混合语料)
spm.SentencePieceTrainer.train(
input='corpus.txt',
model_prefix='mymodel',
vocab_size=32000,
character_coverage=0.9995, # 覆盖99.95%的字符
model_type='bpe'
)
# 加载
sp = spm.SentencePieceProcessor()
sp.load('mymodel.model')
# 编码中文
print(sp.encode_as_pieces("自然语言处理"))
# 输出: ['▁自然', '语言', '处理']
注意那个"▁"符号:表示这是一个词的开头(类似BERT的##标记)。
四、中英文Token对比:为什么中文更"贵"? 💰
这是每个中国AI开发者必须知道的真相!
4.1 残酷的数据对比
| 文本内容 | 英文Token数 | 中文Token数 | 中文/英文比例 |
|---|---|---|---|
| “Hello world” | 2 | - | - |
| “你好世界” | - | 4-6 | - |
| 相同意思的100字文章 | ~75 tokens | ~150-200 tokens | 2-2.7倍 |
4.2 为什么中文更耗Token?
原因1:字符集爆炸
英文:26个字母 + 标点 → 基础字符集小
中文:50,000+ Unicode字符 → 基础字符集巨大
原因2:BPE合并效率差异
# 英文:常见词快速合并为单token
"artificial" → [artificial] # 1个token(训练充分时)
# 中文:常用字被合并,但新词/专有名词被拆分
"人工智能" → [人工, 智能] # 2个token(运气好)
"深度学习" → [深度, 学习] # 2个token
"Transformer" → [Trans, former] # 2个token(英文外来词)
原因3:OpenAI的Tokenizer对中文优化不足
🐯 虎哥吐槽:OpenAI的cl100k_base词表对中文的覆盖确实不如英文。同样的API调用,中文Prompt成本翻倍!这算语言歧视吗?😤
4.3 省钱技巧:中英混合Prompt
错误示范(纯中文,贵):
请帮我写一个Python函数,实现快速排序算法,要求时间复杂度为O(n log n)。
# Token数:约35个
正确示范(中英混合,省):
Write a Python function for quicksort, 要求时间复杂度O(n log n)。
# Token数:约20个(省43%!)
五、实战:如何计算你的Prompt用了多少Token? 🛠️
5.1 OpenAI官方工具:Tiktoken
import tiktoken
def count_tokens(text: str, model: str = "gpt-4") -> int:
"""计算文本的token数量"""
try:
encoding = tiktoken.encoding_for_model(model)
except KeyError:
encoding = tiktoken.get_encoding("cl100k_base")
num_tokens = len(encoding.encode(text))
return num_tokens
# 测试
text = "什么是词元(Token)?这是AI理解文本的基本单位。"
print(f"Token数: {count_tokens(text)}") # 输出: 约18个token
5.2 在线可视化工具
Tokenzier可视化(强烈推荐!):
- 🔗 https://platform.openai.com/tokenizer - OpenAI官方
- 🔗 https://tokens.dev/ - 支持多模型对比
可视化效果:
输入:猫|头|虎|是|CSDN|博|主
颜色:蓝|红|绿|黄|紫|橙|灰
↑不同颜色代表不同token
5.3 各模型Tokenizer对照表(2026年3月更新)
| 模型 | Tokenizer | 词表大小 | 特点 |
|---|---|---|---|
| GPT-4o | cl100k_base | 100,256 | 多语言支持好,OpenAI主流模型 |
| GPT-5.2 | 自研(Tiktoken) | ~200,000 | 词表扩充,支持400K上下文 |
| Claude 4系列 | 自研(Byte-level BPE) | ~100,000 | 多语言能力强,100万上下文无溢价 |
| LLaMA 3 | Tiktoken兼容 | 128,000 | 多语言大幅改进,开源首选 |
| LLaMA 4 Maverick | Tiktoken兼容 | 200,000+ | 支持1M上下文,性价比突出 |
| Qwen 3.5 | 自研(Qwen tokenizer) | 250,000 | 词表最大,支持201种语言 |
| DeepSeek V3.2 | Byte-level BPE | 129,000 | 164K上下文,输出:输入比仅1.6× |
| Gemini 3.1 Flash-Lite | SentencePiece | 未公开 | 速度最快、性价比最高,支持思维层级调节 |
| Gemini 3.1 Pro | SentencePiece | 未公开 | 2M上下文,支持多模态理解 |
| Grok 4 / 4.1 | 自研(Grok tokenizer) | 未公开 | 256K-2M上下文,支持并行工具调用 |
| 小米 MiMo-V2-Pro | 自研 | 未公开 | 256K-1M上下文,定价有竞争力 |
| 文心一言 4.0 | 自研 | ~80,000 | 中文优化 |
| 通义千问 | 自研 | ~152,000 | 中日韩优化 |
关键更新说明:
- Gemini 3.1 Flash-Lite:2026年3月最新发布,首Token响应速度较2.5 Flash提升2.5倍,输出速度提升45%,GPQA Diamond达86.9%
- Grok 4.1 Fast:xAI最新高效模型,输入仅$0.20/百万token,2M超大上下文
- Qwen 3.5:以 250,000 的词表大小领先行业
六、Token的经济学:为什么它决定了AI的成本? 💸
6.1 API定价模型(2026年3月更新)
主流模型价格对比
| 模型 | 输入价格 (per 1M) | 输出价格 (per 1M) | 上下文窗口 | 输出:输入比 |
|---|---|---|---|---|
| GPT-5.2 | $1.75 | $14.00 | 400K | 8.0× |
| GPT-5.2 Pro | $21.00 | $168.00 | 400K | 8.0× |
| GPT-4o | $2.50 | $10.00 | 128K | 4.0× |
| GPT-4o-mini | $0.15 | $0.60 | 128K | 4.0× |
| Claude Opus 4.6 | $5.00 | $25.00 | 1,000K | 5.0× |
| Claude Sonnet 4.6 | $3.00 | $15.00 | 1,000K | 5.0× |
| DeepSeek V3.2 | $0.27 | $0.42 | 164K | 1.6× |
| LLaMA 4 Maverick | $0.27 | $0.85 | 1,049K | 3.1× |
| Gemini 3.1 Flash-Lite | $0.25 | $1.50 | 1,048K | 6.0× |
| Gemini 2.5 Pro | $1.25 | $5.00 | 2,097K | 4.0× |
| Grok 4 | $3.00 | $15.00 | 256K | 5.0× |
| Grok 4.1 Fast | $0.20 | $0.50 | 2,000K | 2.5× |
| Grok 4.20 Beta | $2.00 | $6.00 | 2,000K | 3.0× |
| 小米 MiMo-V2-Pro | $1.00 | $3.00 | 256K | 3.0× |
| Qwen 3.5 | 待公布 | 待公布 | 262K(原生)/1M(扩展) | — |
价格换算(按7.25汇率)
| 模型 | 输入价格 (元/千token) | 输出价格 (元/千token) | 2000字中文文章成本* |
|---|---|---|---|
| Grok 4.1 Fast | 0.00145元 | 0.00363元 | ≈0.7元 |
| Gemini 3.1 Flash-Lite | 0.00181元 | 0.0109元 | ≈1.2元 |
| GPT-4o-mini | 0.0011元 | 0.0044元 | ≈0.5元 |
| DeepSeek V3.2 | 0.0020元 | 0.0030元 | ≈1.2元 |
| GPT-4o | 0.0181元 | 0.0725元 | ≈5.4元 |
*注:按1个中文字符≈0.6-0.8 token估算,2000字≈1400 tokens
6.2 成本优化关键洞察(2026年)
-
输出价格远高于输入:主流模型输出价格是输入的 4-8倍,原因是输出必须逐token串行生成,而输入可并行处理。Grok 4.1 Fast将这一比例降至2.5×,极具竞争力。
-
性价比之王:
- Grok 4.1 Fast:$0.20/百万输入token,2M超大上下文,目前市面上性价比最高的长文本方案
- Gemini 3.1 Flash-Lite:$0.25/百万输入token,输出速度389 tokens/秒,业界最快之一
- DeepSeek V3.2:输出:输入比仅1.6×,适合输出密集型任务
-
长文本成本陷阱:
- Grok 4.1 Fast:2M上下文,输入仅$0.20/百万token,业界标杆
- Gemini 3系列:Pro版支持2M上下文,Flash版支持1M上下文
- Claude 4.6系列已取消长文本溢价,100万token统一计费
-
Gemini 3.1 思维层级功能:
- 开发者可灵活控制模型的"思考深度",简单任务用低思维模式节省成本,复杂任务用高思维模式
- 支持
thoughts_token_count单独统计思考token消耗
-
Grok 工具调用成本:
- 需额外支付工具调用费:Web搜索、代码执行 $5/千次调用
- 缓存token优惠:输入价格的75%折扣(Grok 4缓存token $0.75/百万)
6.3 2026年新趋势:推理Token与分层定价
- 推理Token(Reasoning Tokens):GPT-5.2、Claude 4、Gemini 3.1、Grok 4等新模型引入内部"思考"token,Gemini API提供
thoughts_token_count单独统计 - 速度分层:Claude Opus 4.6提供"快速模式"(2.5倍速度,6倍价格)
- 缓存优惠:OpenAI、xAI等提供提示词缓存,重复内容可享高达75%折扣
- 思维层级调节:Gemini 3.1 Flash-Lite标配思维层级功能,开发者可动态控制推理深度
6.4 长上下文的"记忆税"
场景:你要让AI读一本10万字的小说并分析
10万字中文 ≈ 150,000 tokens
GPT-4o输入成本:150,000 × $2.50/1M = $0.375 ≈ 2.7元
但!如果超出上下文窗口(128K),你需要:
1. 分块处理(Chunking)
2. 向量检索(RAG)
3. 多轮对话压缩
6.5 省钱Prompt工程技巧
技巧1:删除无用废话
# 浪费token(❌)
"请你作为一个专业的人工智能助手,帮我分析一下这个问题。问题是:..."
# Token数:约25个前缀废话
# 精简版(✅)
"分析:..."
# Token数:3个
技巧2:使用System Message预设角色
# 每次对话都重复角色设定(❌)
User: "你是Python专家,写个排序算法..."
User: "你是Python专家,再写个查找算法..."
# 用System Message一次性设定(✅)
System: "你是Python专家"
User: "写个排序算法..."
User: "再写个查找算法..."
技巧3:Few-shot示例Token优化
# 完整示例(贵)
示例1:输入"你好",输出"Hello"
示例2:输入"谢谢",输出"Thanks"
示例3:输入"再见",输出"Goodbye"
# 压缩示例(省50%)
1. 你好→Hello
2. 谢谢→Thanks
3. 再见→Goodbye
七、未来趋势:无Token架构会取代它吗? 🔮
7.1 Token的局限性
- 信息瓶颈:"词元"是离散符号,丢失细粒度语义
- 长度限制:即使128K上下文,对整本书仍不够用
- 多模态割裂:文本、图像、音频各自编码,融合困难
7.2 挑战者1:Mamba(选择性状态空间)
# Transformer:O(n²)复杂度,受限于token序列长度
# Mamba:O(n)线性复杂度,理论上无限上下文
from mamba_ssm import Mamba
batch, length, dim = 2, 10000, 64 # 可以处理超长序列
x = torch.randn(batch, length, dim).to("cuda")
model = Mamba(d_model=dim, d_state=16, d_conv=4, expand=2).to("cuda")
y = model(x) # 没有token长度限制!
优势:处理100万token的长文档,速度是Transformer的5倍!
7.3 挑战者2:RWKV(线性Transformer)
结合RNN的O(1)内存和Transformer的并行训练能力,无需位置编码,天然支持无限长度。
7.4 挑战者3:连续Token(Soft Token)
最新研究方向:不离散化,直接在连续向量空间操作!
传统:文本 → Token ID → Embedding向量
未来:文本 → 神经网络编码器 → 连续语义向量(无Token边界)
代表工作:Google的Neural Codec Language Models、OpenAI的Continuous Tokens研究。
7.5 猫头虎的预判
🐯 虎哥预测:未来5年内,"词元"概念不会消失,但会演进:
- 多粒度Token:字符级+词级+短语级混合编码
- 动态词表:根据输入自适应调整token划分
- 神经Tokenizer:端到端学习最优切分策略,不再依赖BPE等启发式算法
🎁 福利:Token速查手册
常用模型Token上限(2026年3月更新)
| 模型 | 上下文窗口 | 相当于多少汉字* | 说明 |
|---|---|---|---|
| GPT-5.2系列 | 400K | ~30万字 | 支持400K上下文,输出:输入价格比8.0× |
| GPT-4o系列 | 128K | ~9.6万字 | OpenAI主流模型,128K上下文 |
| Claude 4.6系列 | 1,000K (1M) | ~75万字 | 100万上下文,取消长文本溢价,直塞600张图 |
| Gemini 3.1 Flash-Lite | 1,048K (1M) | ~78万字 | 最新发布,速度提升2.5倍,支持思维层级调节 |
| Gemini 3.1 Pro | 2,097K (2M) | ~157万字 | 全系列最长上下文,支持多模态理解 |
| Grok 4.1 Fast | 2,000K (2M) | ~150万字 | xAI最新高效模型,输入仅$0.20/百万token |
| Grok 4.20 Beta | 2,000K (2M) | ~150万字 | 幻觉率行业最低(非幻觉率78%) |
| Qwen 3.5 | 262K (原生)/1,010K (扩展) | 19.6万/75.8万字 | 397B参数MoE架构,词表25万行业最大 |
| DeepSeek V3.2 | 1,000K (1M) | ~75万字 | 实测可推至153.6万tokens,输出:输入比仅1.6× |
| LLaMA 4 Maverick | 512K | ~38万字 | 开源模型,MoE架构,17B激活参数 |
| MiMo-V2-Pro | 1,000K (1M) | ~75万字 | 小米最新Agent专用模型,价格不到Claude 10% |
| GLM-4系列 | 128K | ~9.6万字 | 智谱AI主力模型,Plus版本逼近GPT-4o水平 |
| MiniMax M2.7 | 205K | ~15.4万字 | 2026年3月发布,对标Claude Sonnet 4.6 |
| 文心一言 4.0 | 128K | ~9.6万字 | 中文优化 |
| 通义千问 | 128K | ~9.6万字 | 中日韩优化 |
*注:按1个中文字符≈0.6-0.75 token估算,实际因分词器差异略有浮动
上下文窗口对比图(可视化参考)
模型 上下文大小(tokens)
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
GPT-5.2 / GPT-4o ████████████ 128K / 400K
Claude 4.6 ██████████████████████████████████████████████████ 1M
Gemini 3.1 Pro ██████████████████████████████████████████████████████████████████████████████████ 2M
Grok 4.1 Fast ██████████████████████████████████████████████████████████████████████████████████ 2M
DeepSeek V3.2 ██████████████████████████████████████████████████ 1M
LLaMA 4 Maverick ████████████████████████████████████████████ 512K
MiMo-V2-Pro ██████████████████████████████████████████████████ 1M
Qwen 3.5 (扩展) ██████████████████████████████████████████████████ 1M
GLM-4 ████████████ 128K
MiniMax M2.7 ████████████████████ 205K
━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━
注:比例仅供参考,以2M为满格基准
2026年长文本趋势洞察
1. 百万上下文已成旗舰标配
- Gemini 3.1 Pro、Grok 4.1 Fast、DeepSeek V3.2、MiMo-V2-Pro、Qwen 3.5、Claude 4.6均已支持百万级上下文
- 2M上下文成为新标杆(Gemini 3.1 Pro、Grok 4.1 Fast)
2. 长文本溢价取消
- Claude 4.6系列率先取消长文本溢价,100万窗口统一标准计费
- OpenAI GPT-4.1同样取消长文本溢价
3. 开源模型追赶闭源
- LLaMA 4 Maverick:512K上下文,开源免费商用
- Qwen 3.5:Apache 2.0协议,1M扩展上下文
- DeepSeek V3.2:1M上下文,实测可推至153.6万
4. 多模态与Agent能力升级
- Claude 4.6:单次支持600张图像输入
- Grok 4.20:2M上下文+幻觉率创行业新低(78%非幻觉率)
- MiMo-V2-Pro:专为Agent场景优化,1M上下文+强工具调用能力
长文本选型建议
| 场景 | 推荐模型 | 理由 |
|---|---|---|
| 超长文档分析 | Gemini 3.1 Pro / Grok 4.1 Fast | 2M上下文,可处理整本书籍 |
| 企业知识库 | MiMo-V2-Pro / DeepSeek V3.2 | 1M上下文+性价比高 |
| Agent自动化 | Claude 4.6 / MiMo-V2-Pro | 强工具调用+长上下文 |
| 代码开发 | Gemini 3.1 Pro / LLaMA 4 Maverick | 编码能力领先+开源可选 |
| 中文场景 | Qwen 3.5 / GLM-4 | 中文优化+词表大 |
| 成本敏感 | Grok 4.1 Fast / DeepSeek V3.2 | 输入仅$0.20-0.27/百万token |
Token计算口诀
🐯 猫头虎口诀:
英文1词约1.3,中文1字约1.5
标点符号也算钱,空格回车别小看
代码注释要精简,变量命名用短词
📝 总结
今天我们彻底搞懂了:
- ✅ Token(词元)是AI处理文本的最小语义单元,中文正式译名为**“词元”**
- ✅ 分词算法从BPE到SentencePiece,核心都是子词切分平衡效率与泛化
- ✅ 中文更"贵":同样内容,中文token数是英文的2-3倍,Prompt工程要省钱
- ✅ Token经济学:API按token计费,掌握计算工具和省token技巧=省钱
- ✅ 未来趋势:Mamba、RWKV等架构挑战Transformer,但"词元"概念将长期存在
💬 评论区互动
猫头虎灵魂三问:
- 你平时写Prompt会注意控制token数吗?有没有被API账单震惊过?😱
- 你觉得"词元"这个翻译怎么样?有没有更好的译名建议?
- 如果未来真的不用token了,AI会怎么理解文本?脑洞大开一下!
🐯 关于猫头虎:CSDN人工智能领域优质创作者,专注大模型技术解析与实战。关注我,带你用最接地气的方式搞懂最前沿的AI技术!
📮 公众号:猫头虎技术团队 | 📧 技术交流:公众号后台回复"加AI群"
#人工智能 #大模型 #NLP #Token #词元 #Prompt工程 #OpenAI #LLM
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐



所有评论(0)