A100 A800 40GB显存 80GB显存 PCIE 版和 SXM 版

H100 H800 80GB显存 PCIE 版、 SXM 版 NVL

DGX HGX 到底是怎么一回事?

这些是不是让人分不清楚?今天通过一下参数对比,带大一文看懂英伟达A100、A800、H100、H800各个版本

A800 NVLink 8卡模组 A100 超微NV服务器 A100 PCIE 单卡

H800超微NV服务器 H100 超微NV服务器 H100 PCIE 单卡

GH200 超级服务器

NVIDIA DGX 与 NVIDIA HGX 有什么区别 - 知乎 (zhihu.com)

去年10月7日,美国出台了对华半导体出口限制新规,其中就包括了对于高性能计算芯片对中国大陆的出口限制。并且以NVIDIA的A100芯片的性能指标作为限制标准。即同时满足以下两个条件的即为受管制的高性能计算芯片:

(1)芯片的I/O带宽传输速率大于或等于600 Gbyte/s;

(2)“数字处理单元 原始计算单元”每次操作的比特长度乘以TOPS 计算出的的算力之和大于或等于4800TOPS。这也使得NVIDIA A100/H100系列、AMD MI200/300系列AI芯片无法对华出口。

随后NVIDIA为了在遵守美国限制规则的前提下,同时满足中国客户的需求,在11月8日宣布将推出符合美国新规的A100的替代产品A800,并且将会在今年三季度投产。从官方公布的参数来看,A800主要是将NVLink的传输速率由A100的600GB/s降至了400GB/s,其他参数与A100基本一致。

今年3月,英伟达发布了新一代基于4nm工艺,拥有800亿个晶体管、18432个核心的H100 GPU。同样,NVIDIA也推出了针对中国市场的特供版H800。NVIDIA 在给路透社的一份声明中表示:“我们的 800 系列产品符合出口管制法规。”路透社报道称,H800 的芯片间数据传输速度是 H100 的一半。据称800系列产品已被阿里巴巴、百度和腾讯的云部门采用。

由于自去年底以来,随着以ChatGPT为代表的生成式AI的持续火爆,使得生成式AI市场对于基于高性能GPU的AI芯片需求暴涨。其中,性能强大的NVIDIA AI芯片更是备受市场追捧,在市场上居于垄断地位,相比之下AMD的AI芯片市场份额较小。

据统计NVIDIA当前在售的AI加速卡至少有9款型号,其中高性能的有4款,分别是V100、A800、A100及H100。价格方面,V100加速卡至少10000美元,按当前的汇率,约合6.9万元人民币;A800售价12000美元,约合人民币8.7万元,市场一度炒高到10万元人民币;A100售价在1.5万美元,约合人民币10.8万元;H100加速卡是NVIDIA当前最强的,售价3.65万美元,约合26.4万元人民币。

消息显示,由于市场需求暴涨,导致英伟达面向中国市场推出的替代版本A800和H800的市场价格比原始厂商建议零售价高出了40%,并且新订单交期可能延长到了12月份。

此前的爆料也显示,互联网大厂字节跳动累计已经订购价值约 10 亿美元的NVIDIA GPU,大约为 10 万片的 A100 和 H800,其中A100 应为 2022 年 8 月美国政府下令前所订购。

但是,据《华尔街日报》的最新报道称,美国商务部正在考虑的新限制措施可能将禁止对华销售没有美国特殊出口许可证的NVIDIA A800芯片。那么这也就意味着H800系列也将会被限制。

目前中国国内虽然有不少国产GPU加速芯片及AI芯片厂商,比如壁仞科技、沐熙集成电路、摩尔线程、海光信息、寒武纪等,但是在整体的性能上与NVIDIA和AMD仍有较大差距,无法替代这部分的市场需求。

虽然对于这些国产AI芯片厂商来说,美国的新的AI芯片限制政策是一个利好消息,但是对于国内依赖于高性能AI芯片提供AI硬件的厂商、以及提供AI服务的互联网厂商及一些AI技术厂商来说则是一个利空,毕竟如果缺少了强大的AI芯片的支撑,那么其AI技术的发展及所能够提供的AI服务也将受到负面影响。

英伟达GPU目前处于供方市场,供需失衡严重,且市面同类可以替代产品不强,这也让英伟达称为“AI世界的中心”

A800显卡已经从一周前的9万多元涨到了13万元,涨幅大约30%,而服务器现货更是从120万涨到了140万元左右。

据报道称,百度、字节跳动、腾讯和阿里巴巴四家公司合计向英伟达订购了价值50亿美元的AI芯片。其中,今年英伟达将合计发货约10万块A800芯片,价值10亿美元,另外价值40亿美元的芯片都将明年交付。

关于选购GPU

中国大陆市场GPU通常分为国行和OEM不同类型:国行每家价格差距不会太大;OEM每个类型各家价格会有一定差距;市场通常会用OEM的产品和国行的竞争,这两者产品都可以选择,建议选择国行。

除此之外,以A100 40GB为例,不仅分为 PCIE 版和 SXM 版,由于断供受阻,市面上也存在拆旧卡和改组卡的情况,价格差异也很大。

拆旧的产品主要看成色、使用时间、生产时间、出力等综合来确定价格,价格差距比较大,同时对比国行价格也低很多。

笔者就遇到用户前期调研到拆旧卡,来跟笔者国行卡比较的情况,用户会觉得笔者的价格非常高,没有诚意。实际笔者从事科研服务器细分领域,自主科研服务器品牌,生产采用全新第一品牌部件,这样对比是很不公平。

如用户就是追求价格,指定要求拆旧和改组,也可以为用户提供。

A100\H100在中国大陆基本上越来越少,A800目前也在位H800让路,如果确实需要A100\A800\H100\H800GPU,建议就不用挑剔了,HGX 和 PCIE 版对大部分使用者来说区别不是很大,有货就可以下手了。

无论如何,选择正规品牌厂商合作,在目前供需失衡不正常的市场情况下,市面大部分商家是无法供应的,甚至提供不属实的信息,如果是科研服务器的话首选风虎云龙科研服务器,入围政采,品质和售后服务都有保障。

欢迎交流 陈经理【173-1639-1579】


台湾突发7.4级强震!全球GPU、存储、芯片或将大震荡? - 知乎 (zhihu.com)

大模型训练推理如何选择GPU?一篇文章带你走出困惑(附模型大小GPU推荐图) - 知乎 (zhihu.com)


一文看懂英伟达A100、A800、H100、H800各个版本有什么区别? - 知乎 (zhihu.com)

AI核弹B200发布:超级GPU新架构30倍H100单机可训15个GPT-4模型,AI进入新摩尔时代 - 知乎 (zhihu.com)

紧跟“智算中心”这波大行情!人工智能引领算力基建革命! - 知乎 (zhihu.com)

先进计算技术路线图(2023) - 知乎 (zhihu.com)

建议收藏!大模型100篇必读论文 - 知乎 (zhihu.com)

马斯克起诉 OpenAI:精彩程度堪比电视剧,马斯克与奥特曼、OpenAI的「爱恨纠缠史」 - 知乎 (zhihu.com)

生物信息学必备网站大全 - 知乎 (zhihu.com)

生物信息学简史 - 知乎 (zhihu.com

2023第一性原理科研服务器、量化计算平台推荐 - 知乎 (zhihu.com)

Llama-2 LLM各个版本GPU服务器的配置要求是什么? - 知乎 (zhihu.com)

人工智能训练与推理工作站、服务器、集群硬件配置推荐

整理了一些深度学习,人工智能方面的资料,可以看看

机器学习、深度学习和强化学习的关系和区别是什么? - 知乎 (zhihu.com)

人工智能 (Artificial Intelligence, AI)主要应用领域和三种形态:弱人工智能、强人工智能和超级人工智能。

买硬件服务器划算还是租云服务器划算? - 知乎 (zhihu.com)

深度学习机器学习知识点全面总结 - 知乎 (zhihu.com)

自学机器学习、深度学习、人工智能的网站看这里 - 知乎 (zhihu.com)

2023年深度学习GPU服务器配置推荐参考(3) - 知乎 (zhihu.com)

多年来一直专注于科学计算服务器,入围政采平台,H100、A100、H800、A800、L40、L40S、RTX6000 AdaRTX A6000单台双路256核心服务器等。

Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐