在 2026 年的 Intel Pro Day 2026 上,Intel 正式发布了代号为“Big Battlemage”的新一代专业级 GPU——Arc Pro B70 与 Arc Pro B65。这也是 Battlemage 架构首次以“大核心”形态进入 AI 推理与专业工作站市场。
在这里插入图片描述

与此前基于 BMG-G21 核心的 Arc Pro B50 / B60 不同,此次发布的两款新品均基于全新、更大规模的 BMG-G31 GPU,仍采用 TSMC N5 工艺,但在核心规模、AI算力和显存配置上均有明显提升,定位也更加明确:本地 AI 推理 + 专业内容生产 + 多卡扩展部署
在这里插入图片描述

从整体市场判断来看,Intel 依然在做一个“中间层”的产品策略:既不是极致训练向(对标高端数据中心 GPU),也不是消费级游戏卡,而是面向工程师、开发者以及企业本地部署场景的“可规模化 AI 计算节点”。这一定位与当前本地大模型推理市场的快速增长趋势是高度契合的。

Arc Pro B70:32GB 显存 + 367 TOPS,面向高负载本地推理

Arc Pro B70 是本次发布的旗舰型号,搭载完整的 BMG-G31 核心,核心规格如下:
●32 个 Xe2-HPG 核心
●256 个 XMX(Xe Matrix Extensions)AI 引擎
●32 个光追单元
●INT8 算力最高 367 TOPS
●核心频率 2800 MHz
在显存配置上,B70 直接给到 32GB GDDR6,256-bit 位宽,19 Gbps 速率,对应带宽约 608 GB/s。这一规格在当前**“本地部署 7B / 13B / 70B 模型切分推理”的场景中,具备较强的适配能力,尤其是在需要更高精度(FP16 / INT8 混合)推理时,显存容量的优势会更加明显**。
在这里插入图片描述

功耗方面,公版为 230W,AIC 版本可根据设计扩展至 160W–290W 区间,同时支持 16-pin 供电。值得注意的是,上一代 B60 已经出现过双 GPU 拼接卡(最高 48GB 显存),B70 理论上也具备向 64GB(双芯片)形态扩展的可能,这对于多卡推理集群是一个重要信号。

在软件与生态上,B70 支持:
●多 GPU LLM 推理(Linux 环境)
●OpenVINO / oneAPI
●Vulkan 1.3 / OpenCL 3.0 / OpenGL 4.6
●AV1 / HEVC / H.264 / VP9 编解码
●ISV 认证驱动(面向专业软件)
接口方面提供 4 个 DP 2.1,兼顾多屏与高分辨率输出需求。
整体来看,B70 更像是一张“轻量化 AI 推理卡 + 内容生产卡”的融合体,适合用于本地 AI 工作站、边缘节点以及中小规模推理集群。
在这里插入图片描述

Arc Pro B65:同样 32GB 显存,更偏性价比推理节点

相比之下,Arc Pro B65 采用的是精简版 BMG-G31 核心,更偏向成本优化
●20 个 Xe2-HPG 核心
●160 个 XMX AI 引擎
●20 个光追单元
●INT8 算力最高 197 TOPS
●核心频率 2400 MHz
比较有意思的是,B65 同样配备了 32GB GDDR6 显存,但位宽缩减为 192-bit,整体带宽依然维持在 608 GB/s,这意味着它在“显存容量优先”的场景下,依然具备不错的竞争力。
功耗为约 200W(依厂商不同略有变化),在功耗与性能之间取得了一个相对平衡的位置。
如果从实际部署角度来看,B65 更适合作为:
●多卡横向扩展节点(scale-out)
●中小模型推理(如 7B / 13B)
●成本敏感型 AI 工作站
在这里插入图片描述

产品定位与市场判断

从 B70 与 B65 的组合可以看出,Intel 在这一代产品中强调的是三个关键词:
1.本地 AI 推理(Local Inference)
2.多卡扩展能力(Scalability)
3.专业软件生态兼容(ISV + oneAPI)

相比云端训练市场(预计到 2030 年规模达 2500 亿美元),工作站与专业 GPU 市场体量虽然较小(约 170 亿美元),但在企业本地部署、安全合规、私有数据处理等场景中,需求正在快速增长,这也是 Arc Pro B 系列切入的核心逻辑。

尤其是在当前“企业自建大模型 + 本地推理”逐渐成为趋势的背景下,类似 32GB 显存 + 中高算力的 GPU,正好卡在一个非常关键的“可用区间”。
在这里插入图片描述

价格与上市节奏

●Arc Pro B70:已于 2026 年 3 月 25 日上市,起售价 949 美元
●Arc Pro B65:预计 2026 年 4 月中旬推出,价格低于 B70

从这次发布来看,Battlemage 大核心的落地并没有优先进入游戏市场,而是直接切入 AI 推理与专业计算,这一策略本身已经说明了当前 GPU 竞争的重心正在发生变化。对于企业用户来说,真正需要关注的不是单卡参数本身,而是能否围绕具体业务场景(如大模型推理、数据分析、内容生产)构建稳定、可扩展的算力体系,这也是我们在实际项目中持续在做的事情。

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐