2026 国内 七大 AI 大模型定价全对比

主要是最近两月AI coding 和 openClaw 的爆火,导致各大厂商的模型使用需求和使用量持续暴涨,出现了抢购、限购潮,各家纷纷涨价(含变相涨价)、限制购买、限频、限场景。

本文数据截至 2026 年 4 月,来源于各厂商官方定价页面及公开信息,价格可能随时变动,请以官网最新数据为准。

大模型 API 的价格战从 2024 年打到 2026 年,已经从"分钱"时代进入了"厘钱"时代。对于开发者和企业来说,选模型不再只是看能力——每百万 Token 省几块钱,年成本可能差出几十万

本文覆盖七家主流国产大模型厂商:智谱 AI(GLM)、稀宇科技(MiniMax)、小米(Mimo)、月之暗面(Kimi)、阿里云(Qwen)、腾讯(混元)、字节跳动(豆包),从 API 按量计费、Coding Plan 订阅套餐、免费额度、资源包方案四个维度做全面拆解。


一、七家厂商主力模型一览

1. 智谱 AI(GLM)

厂商背景:清华 KEG 实验室孵化,国内最早一批大模型创业公司,GLM 系列模型在 SuperBench 评测中安全与智能体维度排名全球第一。目前主要模型 GLM-5.1,GLM-5,GLM-4.7

模型矩阵

模型 定位 上下文窗口 特色
GLM-4-Plus 旗舰模型 128K 综合能力最强,与 GPT-4o、Llama3.1-405B 同级
GLM-4-Long 超长文本 1M 百万级上下文,适合长文档处理
GLM-4-Flash / FlashX 免费/极速 128K 完全免费,支持微调,入门首选
GLM-4-Air 轻量版 128K 成本极低,适合高频低精度场景
GLM-4V-Plus 视觉理解 8K 图像/视频理解
GLM-Z1-Air / Z1-AirX 推理模型 128K 深度推理能力
GLM-5 旗舰助理 2025 年发布,第一梯队
GLM-5.1 最新旗舰 2026 年3月发布,SWE-bench 第一梯队

API 按量定价(元/百万 Tokens)

模型 输入 输出 备注
GLM-4-Plus 5 5 2025 年 4 月直降 90%(原价 50 元/百万 Tokens)
GLM-4-Long 1 1 超长文本专用
GLM-4-FlashX 0.1 0.1 每亿 Tokens 仅 10 元
GLM-4-Flash 免费 免费 完全免费使用
GLM-4-Air 0.6 0.6
GLM-Z1-Air 0.5 0.5 每亿 Tokens 50 元
GLM-Z1-AirX 5 5 每亿 Tokens 500 元

注:智谱部分模型不区分输入/输出价格,统一按 Token 总量计费。

Coding Plan 订阅套餐

GLM Coding Plan 是专为 AI 编程场景打造的订阅套餐,支持 Claude Code、Cline、Cursor 等 20+ 编程工具。

套餐 月费 季费(9 折) 年费(7 折) 5 小时限额 周限额 可用模型
Lite ¥49 ¥132 ¥411 ~80 prompts ~400 prompts GLM-4.7/4.6
Pro ¥149 ¥402 ¥1,251 ~400 prompts ~2,000 prompts GLM-5/4.7/4.6 全部
Max ¥469 ¥1,266 ¥3,939 ~1,600 prompts ~8,000 prompts GLM-5/4.7/4.6 全部
  • 每次 prompt 约触发 15-20 次模型调用
  • 调用 GLM-5 消耗 3 倍额度(仅 Pro/Max 可用)
  • MCP 工具:Lite 100 次/月,Pro 1,000 次/月,Max 4,000 次/月
  • 2026 年 2 月涨价 30%,取消首购优惠;每日 10:00 限量补货

免费额度:GLM-4-Flash 完全免费,新用户注册即享体验额度。


2. 稀宇科技(MiniMax)

厂商背景:国内 AI 独角兽,以多模态能力著称,旗下产品"海螺 AI"广受欢迎。MiniMax 是国内最早投入 MoE 架构的厂商之一,语音合成和视频生成能力业界领先。

模型矩阵

模型 定位 上下文窗口 特色
MiniMax-M2.7 最新旗舰 197K+ 深度思考 + 高速双版本
MiniMax-M2.5 高性能通用 197K+ 支持深度思考
MiniMax-M2.1 高性能 197K+
MiniMax-M2 经典文本 197K+
MiniMax-01 多模态 1M 图像分析
MiniMax-M1 旗舰推理 1M 复杂推理、数学
海螺视频(Hailuo) 视频生成 Hailuo-2.3 系列
语音合成 TTS speech-2.8-hd/turbo

API 按量定价(元/百万 Tokens)

模型 输入 输出 缓存读取 缓存写入
MiniMax-M2.7 2.1 8.4 0.42 2.625
MiniMax-M2.7-highspeed 4.2 16.8 0.42 2.625
MiniMax-M2.5 2.1 8.4 0.21 2.625
MiniMax-M2.5-highspeed 4.2 16.8 0.21 2.625
M2-her 2.1 8.4
MiniMax-M2.1(历史) 2.1 8.4 0.21 2.625
MiniMax-M2(历史) 2.1 8.4 0.21 2.625

注:highspeed 版本为高速模式,输出更快但价格翻倍。

多模态定价

服务 价格
语音合成 HD 3.5 元/万字符
语音合成 Turbo 2 元/万字符
音色设计/快速复刻 9.9 元/音色(首次使用时收取)
视频生成(Hailuo-2.3 768P 6s) 2 元/视频
视频生成(Hailuo-2.3 1080P 6s) 3.5 元/视频
音乐生成 1 元/首
图像生成 0.025 元/张

免费额度:阿里云百炼渠道提供 100 万 Tokens 免费额度(180 天有效)。


3. 小米(Mimo)

厂商背景:小米 2025 年底推出自研 MiMo 大模型,2026 年 1 月正式开放 API 付费。MiMo-V2-Pro 在 OpenRouter 平台连续霸榜,支持 1M 超长上下文,是国产模型中的新锐力量。

模型矩阵

模型 定位 上下文窗口 最大输出 特色
MiMo-V2-Pro 旗舰推理 1M 128K 深度思考、函数调用、联网搜索
MiMo-V2-Omni 多模态理解 256K 128K 视觉+文本输入、深度思考
MiMo-V2-Flash 轻量高效 256K 64K 高吞吐、格式提取、高并发
MiMo-V2-TTS 语音合成 8K 8K 限时免费

API 按量定价

国内价格(元/百万 Tokens)

模型 输入 输入(缓存命中) 输出
MiMo-V2-Pro(≤256K) 7 1.47 21
MiMo-V2-Pro(256K-1M) 14 2.94 42
MiMo-V2-Omni 2.94 0.56 14.70
MiMo-V2-Flash 0.7 0.07 2.1

国际价格(美元/百万 Tokens)

模型 输入 输入(缓存命中) 输出
MiMo-V2-Pro(≤256K) $1.05 $0.21 $3.15
MiMo-V2-Pro(256K-1M) $2.10 $0.42 $6.30
MiMo-V2-Omni $0.42 $0.08 $2.10
MiMo-V2-Flash $0.11 $0.01 $0.32

Token Plan 订阅套餐(2026 年 4 月推出)

小米采用统一 Credit 点数体系,不同模型消耗 Credit 比例不同。

套餐 月费 Credits 面向
Lite ¥39 0.6 亿 轻度开发者
Standard ¥99 2 亿 中度开发者
Pro ¥329 7 亿 重度开发者
Max ¥659 16 亿 企业/团队
  • MiMo-V2-Omni 256K 上下文消耗 1x Credit
  • MiMo-V2-Pro 256K 消耗 2x Credit,更长上下文消耗 4x Credit
  • MiMo-V2-TTS 限时免费
  • 购买套餐用户可获得新模型优先内测体验权

免费额度:早期注册用户已收到约 20 元赠送余额。


4. 月之暗面(Kimi)

厂商背景:由清华大学校友创立,Kimi 是国内最早以长上下文为卖点的大模型产品。K2 系列 MoE 模型总参数 1T、激活参数 32B,在代码和 Agent 能力上表现突出。最新 K2.6 模型已上线。

模型矩阵

模型 定位 上下文窗口 特色
kimi-k2.6 最新旗舰 256K 多模态(视觉+文本),深度思考,指令遵循与自我纠错
kimi-k2-0905-preview K2 旗舰 256K 超强 Agentic Coding
kimi-k2-turbo-preview K2 高速版 256K 输出速度 60-100 tok/s
kimi-k2-thinking K2 推理版 256K 深度推理
kimi-k2-thinking-turbo K2 推理高速版 256K 深度推理+极速
moonshot-v1-8k 经典轻量 8K 低成本入门
moonshot-v1-32k 经典中量 32K 中等上下文
moonshot-v1-128k 经典长文本 128K 超长上下文

注:kimi-k2 系列将于 2026 年 5 月 25 日下线,建议迁移至 kimi-k2.6。

API 按量定价(元/百万 Tokens)

Kimi K2.6

模型 输入(缓存命中) 输入(缓存未命中) 输出 上下文
kimi-k2.6 ¥1.10 ¥6.50 ¥27.00 256K

Kimi K2

模型 输入(缓存命中) 输入(缓存未命中) 输出 上下文
kimi-k2-0905-preview ¥1.00 ¥4.00 ¥16.00 256K
kimi-k2-0711-preview ¥1.00 ¥4.00 ¥16.00 128K
kimi-k2-turbo-preview ¥1.00 ¥8.00 ¥58.00 256K
kimi-k2-thinking ¥1.00 ¥4.00 ¥16.00 256K
kimi-k2-thinking-turbo ¥1.00 ¥8.00 ¥58.00 256K

Moonshot V1

模型 输入 输出 上下文
moonshot-v1-8k ¥2.00 ¥10.00 8K
moonshot-v1-32k ¥5.00 ¥20.00 32K
moonshot-v1-128k ¥10.00 ¥30.00 128K
moonshot-v1-8k-vision-preview ¥2.00 ¥10.00 8K
moonshot-v1-32k-vision-preview ¥5.00 ¥20.00 32K
moonshot-v1-128k-vision-preview ¥10.00 ¥30.00 128K

Code Plan 订阅套餐(Kimi Code)

套餐 月费 年费 5 小时配额 特色
Andante ¥49 ¥468(月均¥39) ~300-1,200 次调用 Kimi K2.5 旗舰模型,AI 建站/文档/PPT 权益
Moderato ¥99 ¥948(月均¥79) 更大配额 多设备登录共享,支持 Kimi CLI/Claude Code/Roo Code
Allegretto ¥199 更高配额
Allegro ¥699 最高配额
  • 额度每 7 天刷新,未用完不累积
  • 最大并发 30
  • 限时活动:所有套餐额度扩容 3 倍
  • 年付 Andante 省 ¥120,Moderato 省 ¥240

阶梯权益:基于累计充值金额动态提升限速等级。


5. 阿里云(Qwen/千问)

厂商背景:阿里云百炼平台是国内最大的 MaaS 平台之一,千问系列模型已迭代至 Qwen3.6,开源生态极为活跃。百炼不仅提供自研模型,还集成了 MiniMax、智谱等第三方模型。

模型矩阵(中国内地)

模型 定位 上下文窗口 特色
qwen3.6-max-preview 旗舰预览 256K 最新最强
qwen3-max 旗舰 128K-252K 阶梯定价,按上下文长度分段
qwen3.5-plus 高性能通用 1M 思考模式与非思考模式
qwen3.5-omni-plus 多模态旗舰 支持视觉、语音
qwen3.5-omni-flash 多模态轻量 低成本多模态
qwen3-omni-flash 多模态快速 实时语音
qwen-long 超长文本 1M 长文档专用
qwen3-32b 开源中量 开源自部署
qwen3-8b 开源轻量 开源自部署

API 按量定价(元/百万 Tokens,中国内地)

千问 Max(旗舰)

模型 输入长度 输入 输出
qwen3-max 0-32K 2.5 10
qwen3-max 32K-128K 4 16
qwen3-max 128K-252K 7 28

千问 Plus(通用主力)

模型 输入长度 输入 输出
qwen3.5-plus 0-128K 0.8 4.8
qwen3.5-plus 128K-256K 2 12
qwen3.5-plus 256K-1M 4 24

思考模式输出价格与非思考模式相同;Batch 调用享 50% 折扣。

千问 Flash / 轻量系列

模型 输入 输出
qwen3.6-flash 0.367 2.936
qwen-turbo 0.3 0.6
qwen-long 0.5 2

开源模型部署定价

模型 价格
qwen3-32b 0.04 元/千Token
qwen3-8b 0.006 元/千Token
qwen3-1.7b 0.0045 元/千Token

多模态定价

模型 文本输入 音频输入 图片/视频输入 文本输出
qwen3-omni-flash 1.8 元/M 15.8 元/M 3.3 元/M 6.9 元/M

免费额度:新用户开通百炼可领取超 7000 万免费 Tokens,多数模型开通后 90 天内各 100 万 Token 免费额度。

资源包方案:阿里云百炼提供 Token 资源包/抵扣包,支持预付费模式,价格优于按量后付费。


6. 腾讯(混元 Hunyuan)

厂商背景:腾讯混元大模型依托腾讯云基础设施,具备强大的中文创作和逻辑推理能力。2026 年 3-4 月,腾讯云经历两轮调价:模型 API 价格大幅上调(如 HY 2.0 Instruct 输入价涨幅 463%),AI 算力刊例价上调 5%。

模型矩阵

模型 定位 上下文窗口 特色
Tencent HY 2.0 Think 深度推理旗舰 128K 分段定价(32K/128K)
Tencent HY 2.0 Instruct 指令遵循旗舰 128K 分段定价
Hunyuan-T1 通用主力 256K 性价比首选
Hunyuan-TurboS 高速版 128K 极速响应
Hunyuan-a13b 轻量版 低成本
Hunyuan-large-role 长角色扮演 角色扮演专用
Hunyuan-translation 翻译模型 专业翻译
Tencent HY Vision 1.5 视觉理解 图像理解
Hunyuan-lite 免费版 完全免费使用

API 按量定价(元/百万 Tokens)

模型 输入 输出 备注
HY 2.0 Think(0,32K] 3.975 15.9 高端推理
HY 2.0 Think(32K,128K] 5.3 21.2 超长上下文加价
HY 2.0 Instruct(0,32K] 3.18 7.95
HY 2.0 Instruct(32K,128K] 4.505 11.13
Hunyuan-T1 1 4
Hunyuan-TurboS 0.8 2 性价比高
Hunyuan-a13b 0.5 2 入门之选
Hunyuan-large-role 2.4 9.6
Hunyuan-translation 1.2 3.6
Hunyuan-translation-lite 1 3
HY Vision 1.5 3 9 视觉
Hunyuan-turbos-vision 3 9 视觉
Hunyuan-t1-vision 3 9 视觉
Hunyuan-embedding 0.7 0.7 向量模型
Hunyuan-lite 免费 免费

预付费资源包

规格 价格
1 万点 ¥100
10 万点 ¥950
100 万点 ¥9,000
1000 万点 ¥85,000
1 亿点 ¥800,000
  • 抵扣系数:如 Hunyuan-TurboS 输入 0.08 点/千Tokens,输出 0.2 点/千Tokens
  • 并发增购:¥800/并发/月,默认 5 个并发

免费额度:首次开通即享 100 万 Tokens 免费资源包(1 年有效),Hunyuan-lite 完全免费。

⚠️ 重要提示:2026 年 3 月起,腾讯云结束了 GLM 5、MiniMax 2.5、Kimi 2.5 等第三方模型的限时免费公测,并大幅上调混元自有模型价格。使用前务必确认最新价格。


7. 字节跳动(豆包 Doubao)

厂商背景:字节跳动通过火山引擎(Volcengine)对外提供豆包大模型服务。豆包前身"云雀",是国内首批通过算法备案的大模型之一。Seed 2.0 系列覆盖通用、代码、轻量、极小四档,定价极具攻击性。

模型矩阵

模型 定位 上下文窗口 特色
Doubao-Seed-2.0-Pro 通用旗舰 128K/256K 复杂推理、Agent 任务(全球第三,仅次于 Claude Sonnet 4.6 和 GPT-5.4)
Doubao-Seed-2.0-Code 代码专精 128K Python/JS 生成接近 Claude Sonnet 4.6 水平,价格仅 1/5
Doubao-Seed-2.0-Lite 轻量版 64K 分类/提取等高吞吐场景
Doubao-Seed-2.0-Mini 极小版 32K 边缘/移动端部署
Doubao-Seed-1.8 上一代旗舰 较低价
Doubao-Seed-1.6 性价比版 入门
Doubao-Seed-1.6-Lite 极轻量 超低成本
Doubao-Seed-1.6-Flash 极速版 输入极低
Doubao-Seed-Vision 视觉理解 图像理解

API 按量定价(元/百万 Tokens)

Seed 2.0 系列(最新)

模型 输入 输出 缓存 Batch 折扣 上下文
Doubao-Seed-2.0-Pro 3.2 16 0.8 45% 128K
Doubao-Seed-2.0-Code 3.2 16 0.8 45% 128K
Doubao-Seed-2.0-Lite 0.6 3.66 0.15 50% 64K
Doubao-Seed-2.0-Mini 0.2 2 0.05 50% 32K

美元价:Pro 输入 $0.43/M,输出 $2.15/M;Lite 输入 $0.14/M,输出 $0.71/M。

Seed 1.x 系列(过渡)

模型 输入 输出
Doubao-Seed-1.8 0.8 2.0
Doubao-Seed-1.6 0.3 0.6
Doubao-Seed-1.6-Lite 0.15 0.3
Doubao-Seed-1.6-Flash 0.075 0.75
Doubao-Seed-Vision 0.4 4.0

资源包方案

规格 价格 折算单价
1000 万 Token 包 ¥19.9 新客专享,约标准价 4 折
1 亿 Token 包 ¥301
5 亿 Token 包 ¥1,339

语音模型另计:播客输入 120 元/M Tokens,音频输出 300 元/M Tokens。

免费额度:新客首购 1000 万 Token 包仅 ¥19.9(约标准价 4 折)。


二、旗舰模型定价横评

以下为各厂商最强/最贵模型的输入/输出价格对比(元/百万 Tokens):

厂商 旗舰模型 输入 输出 上下文 价格特点
智谱 GLM-4-Plus 5 5 128K 不区分输入输出,统一 5 元
MiniMax MiniMax-M2.7 2.1 8.4 197K+ 缓存读取仅 0.42
小米 MiMo-V2-Pro 7 21 1M 1M 上下文加价至 14/42
Kimi kimi-k2.6 6.5 27 256K 输出最贵,缓存命中 1.1
阿里 qwen3-max 2.5 10 252K 阶梯定价,低区间极便宜
腾讯 HY 2.0 Think 3.975 15.9 128K 分段加价,高端最贵
字节 Seed-2.0-Pro 3.2 16 128K 有缓存和 Batch 折扣

关键发现

  • 最便宜旗舰:阿里 qwen3-max(0-32K 档)输入 2.5 元,输出 10 元,综合最低
  • 最贵旗舰:Kimi K2.6 输出 27 元/百万 Tokens,但缓存命中仅 1.1 元
  • 1M 超长上下文:小米 MiMo-V2-Pro 和阿里 qwen3.5-plus 都支持百万级上下文,但小米加价幅度更大(2-3 倍)
  • 缓存机制:Kimi 和 MiniMax 缓存命中价格极低(1.1 元和 0.42 元),适合重复上下文场景

三、轻量/免费模型定价横评

对于预算有限或调用量大的场景,轻量模型是核心选择:

厂商 轻量模型 输入 输出 上下文 是否免费
智谱 GLM-4-Flash 0 0 128K ✅ 完全免费
智谱 GLM-4-FlashX 0.1 0.1 128K ❌ 但极便宜
智谱 GLM-4-Air 0.6 0.6 128K
MiniMax MiniMax-M2.5 2.1 8.4 197K+
小米 MiMo-V2-Flash 0.7 2.1 256K ❌ 但缓存命中仅 0.07
阿里 qwen-turbo 0.3 0.6 ❌ 但极低
阿里 qwen-long 0.5 2 1M ❌ 长文本专用
腾讯 Hunyuan-lite 0 0 ✅ 完全免费
腾讯 Hunyuan-TurboS 0.8 2 128K
腾讯 Hunyuan-a13b 0.5 2
字节 Seed-2.0-Mini 0.2 2 32K
字节 Seed-2.0-Lite 0.6 3.66 64K
字节 Seed-1.6-Flash 0.075 0.75 ❌ 全场最低输入价

关键发现

  • 完全免费模型:智谱 GLM-4-Flash 和腾讯 Hunyuan-lite,零成本起步
  • 最低输入价:字节 Seed-1.6-Flash 输入仅 0.075 元/百万 Tokens
  • 最佳免费起步路径:智谱 GLM-4-Flash(128K 上下文、支持微调、免费)> 腾讯 Hunyuan-lite
  • 长文本性价比王:阿里 qwen-long(0.5 元输入、1M 上下文)

四、Coding Plan 订阅套餐横评

对于 AI 编程场景,各厂商推出的订阅套餐比按量计费更划算:

厂商 套餐名 月费 核心模型 用量/5h 用量/周 特色
智谱 Lite ¥49 GLM-4.7/4.6 ~80 prompts ~400 prompts MCP 100 次/月
智谱 Pro ¥149 GLM-5/4.7/4.6 ~400 prompts ~2,000 prompts MCP 1,000 次/月,视觉理解
智谱 Max ¥469 GLM-5/4.7/4.6 ~1,600 prompts ~8,000 prompts MCP 4,000 次/月,优先保障
Kimi Andante ¥49 K2.5 ~300-1,200 调用 7 天周期刷新 AI 建站/文档/PPT 权益
Kimi Moderato ¥99 K2.5 更大配额 7 天周期刷新 多设备共享,支持 Claude Code
Kimi Allegretto ¥199 K2.5 更高配额
Kimi Allegro ¥699 K2.5 最高配额
小米 Lite ¥39 MiMo-V2 全系列 0.6 亿 Credits
小米 Standard ¥99 MiMo-V2 全系列 2 亿 Credits
小米 Pro ¥329 MiMo-V2 全系列 7 亿 Credits
小米 Max ¥659 MiMo-V2 全系列 16 亿 Credits

腾讯混元、阿里 Qwen、字节豆包、MiniMax 目前未推出 Coding Plan 订阅套餐。

选型建议

  • 轻度编程(偶尔写脚本):智谱 Lite ¥49 或 Kimi Andante ¥49 或小米 Lite ¥39
  • 日常编码 + Agent 工具:智谱 Pro ¥149 或 Kimi Moderato ¥99
  • 重度编程 + 多项目并发:智谱 Max ¥469 或 Kimi Allegro ¥699
  • 预算极致压缩:小米 Standard ¥99(2 亿 Credits 灵活度高)

五、免费额度与新人福利汇总

厂商 免费额度 有效期 获取方式
智谱 GLM-4-Flash 完全免费 + 体验额度 永久/长期 注册即用
MiniMax 100 万 Tokens(百炼渠道) 180 天 申请通过后发放
小米 约 20 元赠送余额 早期注册用户
Kimi 文件抽取/存储接口限时免费 限时 自动享受
阿里 超 7000 万免费 Tokens 90 天 开通百炼自动领取
腾讯 100 万 Tokens 免费资源包 + Hunyuan-lite 免费 1 年 首次开通自动发放
字节 新客 1000 万 Token 包 ¥19.9 3 个月 首次购买

免费模型一览

  • 智谱 GLM-4-Flash:完全免费,128K 上下文,支持微调
  • 腾讯 Hunyuan-lite:完全免费
  • 小米 MiMo-V2-TTS:语音合成限时免费
  • MiniMax abab6.5s(百炼渠道):限时免费
  • 阿里千问部分开源模型:限时免费体验

六、行业趋势与选型策略

价格趋势

  1. 价格战从"分"打到"厘":2024 年各厂商还在"元/百万 Tokens"量级竞争,2025-2026 年已进入"0.1 元/百万 Tokens"量级,豆包 Seed-1.6-Flash 输入价仅 0.075 元
  2. 涨价信号出现:腾讯 2026 年 3-4 月两轮涨价(模型 API 涨幅高达 463%,算力涨 5%),结束了持续两年的单边降价
  3. 缓存机制成标配:Kimi、MiniMax、小米、阿里均推出上下文缓存,缓存命中价格可低至 0.07-1.1 元/百万 Tokens
  4. 阶梯定价普及:阿里 qwen3-max、腾讯 HY 2.0、小米 MiMo-V2-Pro 均按上下文长度分段计价,短上下文更便宜

选型策略

场景 推荐方案 理由
零成本试水 智谱 GLM-4-Flash / 腾讯 Hunyuan-lite 完全免费,无门槛
大规模高并发 字节 Seed-1.6-Flash / 阿里 qwen-turbo 输入价 0.075-0.3 元,支持高 TPM
超长文本处理 智谱 GLM-4-Long / 阿里 qwen-long / 小米 MiMo-V2-Pro 1M 上下文,价格 0.5-7 元
代码生成/编程 字节 Seed-2.0-Code / 智谱 Coding Plan Pro 代码专精模型 + 订阅套餐
多模态应用 阿里 qwen3-omni-flash / 小米 MiMo-V2-Omni 全模态覆盖,价格合理
语音/视频生成 MiniMax 语音+视频 行业最强多模态,语音 2 元/万字符,视频 2 元/个起
深度推理 Kimi K2.6 / 智谱 GLM-Z1-AirX / 腾讯 HY 2.0 Think 旗舰推理模型
企业合规 阿里百炼 / 腾讯混元 / 智谱 GLM 大厂合规保障 + 私有化部署

七、总结

2026 年的国内大模型市场,呈现出"旗舰降价、轻量免费、订阅兴起"三大趋势:

  • 旗舰模型:阿里 qwen3-max 综合性价比最高(2.5/10 元),智谱 GLM-4-Plus 降价 90% 后(5/5 元)竞争力大增
  • 免费模型:智谱 GLM-4-Flash 和腾讯 Hunyuan-lite 零成本可用,是开发者的"起跑线"
  • Coding Plan:智谱和 Kimi 的订阅套餐最适合编程场景,小米的 Credit 体系更灵活
  • 涨价预警:腾讯已率先涨价,其他厂商可能跟进。如果你正在犹豫,现在上车比等降价更明智

数据来源:各厂商官方定价页面,截至 2026 年 4 月。价格可能随时变动,请以官网最新数据为准。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐