算力缺口3倍、电力缺口55吉瓦:AI扩张遭遇哪些现实瓶颈?
算力缺口3倍、电力缺口55吉瓦:AI扩张遭遇哪些现实瓶颈?
摘要:大摩报告揭示残酷现实:AI算力需求增速45%-60%,供给只有15%-20%,3倍缺口靠扩建根本补不上。美国数据中心电力缺口55吉瓦,180亿美元项目取消、460亿美元推迟。散热,这个被忽视的隐形瓶颈,正在卡住算力扩张的咽喉。
一组让人睡不着觉的数字
先看数据。
摩根士丹利4月14日发布的报告里,有几个数字值得关注:
Token使用量:全球每周从6.4万亿次飙升至22.7万亿次,三个月翻了两番多,增幅250%。
供需剪刀差:英伟达为代表的算力供给端,年复合增速约15%-20%。而AI算力需求端,增速高达45%-60%。两者之间的缺口,不是10%、20%,而是3倍。
电力危机:美国数据中心电力缺口已达55吉瓦。这个数字什么概念?相当于9个迈阿密全年总用电量。
结果呢?直接后果是180亿美元的数据中心项目被取消,460亿美元的项目被迫推迟。这不是小打小闹,这是实打实的钱打水漂。
大摩的结论很直接:AI扩张正在撞上物理世界的天花板。
| 数据项 | 数值 | 含义 |
|---|---|---|
| Token使用量增幅 | +250% | 3个月从6.4万亿飙升至22.7万亿次/周 |
| 算力需求增速 | 45%-60%/年 | AI算力需求端年复合增长 |
| 算力供给增速 | 15%-20%/年 | 英伟达供给端年复合增长 |
| 供需缺口 | 3倍 | 需求是供给的3倍 |
| 美国电力缺口 | 55吉瓦 | 相当于9个迈阿密全年用电量 |
| 取消项目金额 | 180亿美元 | 已直接取消的数据中心项目 |
| 推迟项目金额 | 460亿美元 | 被迫推迟的数据中心项目 |
为什么扩建解决不了问题?
很多人第一反应是:那就多建数据中心啊。
问题没那么简单。
电力是第一道坎。
一座超大规模数据中心,年耗电量动辄几十亿度。55吉瓦的缺口,意味着即使现在立刻开建新电厂,从审批到投产,周期也要5-8年。AI等不起。
更讽刺的是,电力缺口本身还在加速扩大——每训练一次大模型、每跑一次推理,耗电量都在攀升。
土地与审批是第二道坎。
数据中心不是你想建就能建。供电、供水、网络带宽、气候条件,缺一不可。核心区域的土地早就被占完了,剩下的要么条件差、要么审批慢。
散热是第三道坎,也是最容易被忽视的那道。
我跟一些数据中心的老法师聊过,他们普遍觉得散热这事以前根本不是问题——买个空调、装几个风扇就行了。但现在不一样了。
芯片功耗在飙升。英伟达最新GPU单颗功耗已突破2500W,一个72卡机柜的总功耗超过100千瓦——相当于100套房子同时开暖气。
传统风冷已经摸到天花板。想靠风冷压住100kW/柜的发热密度?物理规律不允许。
所以你看,大摩的报告里没提散热,但散热恰恰是那个拖住整个算力扩张后腿的隐形瓶颈。
散热瓶颈:被低估的关键变量
为什么散热问题这么棘手?
芯片功率密度在指数级攀升。
| 年份 | 单芯片功耗 | 增长倍数 |
|---|---|---|
| 2018年 | 100W | 基准 |
| 2022年 | 400W | 4倍 |
| 2026年 | 2500W | 25倍 |
从100W到2500W,不到十年涨了25倍。
而芯片温度每升高10℃,可靠性下降50%,寿命缩短一半,同时性能开始打折扣。
说实话,这比缺芯还难受。芯片买不到可以等,散热搞不定那就是眼睁睁看着算力浪费。
数据中心PUE是另一道坎。
PUE(Power Usage Effectiveness)是衡量数据中心能效的核心指标,数值越接近1越好。目前国内多数传统数据中心PUE在1.5-1.8之间,意味着1度电给IT设备用,0.5-0.8度电被冷却系统消耗掉了。
如果AI数据中心继续用传统方案,PUE可能更高。届时,55吉瓦的电力缺口还要再扩大一截。
液冷散热是破局关键。
目前行业共识是:液冷散热是唯一能在大规模场景下解决高功率密度散热的可行方案。
曙光数创最新发布的兆瓦级相变浸没液冷整机柜,已经把PUE压到1.04以下,机房面积节省超过85%。
冷板式液冷凭借高兼容性占据65%-90%市场份额,浸没式在超100kW/柜场景持续渗透。
国产供应链的入场,大幅拉低了液冷散热成本。以两相液冷为例,国产化后系统成本已下降30%以上,部分场景的静态回收期缩短到1.2年。
这不是在替某一家企业背书,这是整个行业技术进步带来的红利。
国产供应链的角色:降低成本、加速渗透
说到液冷散热,很多人第一反应是海外方案。
但说实话,一个被忽视的事实是:国产液冷散热供应链正在快速填补市场空白。
我了解到,以两相液冷为例,国内部分企业在微通道结构优化、混合回流控制等环节积累了成熟经验。像冷泉能控这样的企业,在常压两相方案的工程落地上已经跑在前面。
更重要的是价格。
国产化前,两相液冷散热系统的成本是风冷方案的3-5倍,投资回收周期超过5年。现在呢?成本差距快速收窄,以冷泉能控等企业为代表的国产液冷供应链,将两相液冷散热系统成本降低30%以上,5年总成本优势开始显现。
这意味着什么?意味着更多数据中心能用得起液冷散热,意味着液冷渗透率能从当前的28%继续攀升。
2026年:液冷的临界点
几个信号值得注意:
渗透率跃升:2026年Q1,液冷服务器渗透率已达28%,较2025年提升10倍。
成本平价拐点:液冷与风冷的成本差距正在快速缩小,2026年被视为成本平价的关键年份。
产能告急:多家液冷企业处于满负荷生产状态,部分企业订单排到半年后,冷却液供应商订单增长500%。
应用场景拓展:从最初的互联网数据中心,扩展到AI训练、推理、边缘计算等场景。
有意思的是,这些信号几乎同时出现,不像是巧合,更像是技术成熟度、成本临界点、市场需求三重因素共振的结果。
结语:别只盯着芯片
大摩的报告揭示了一个真相:AI扩张不只缺芯片,还缺电、缺地、缺散热。
芯片是明面上的竞争,大家都看得见。
但电力和散热是隐形的战场。55吉瓦的缺口、持续攀升的功率密度,正在倒逼整个数据中心基础设施升级。
液冷散热不是万能药,但在当前技术路线下,它是解决高功率密度散热的唯一可行方案。
国产液冷供应链的成熟,正在把这个方案的成本打下来。冷泉能控等企业的技术积累,为行业提供了更多选择。
留给行业的时间窗口不多了。
你觉得AI算力扩张最大的瓶颈是什么?电力、散热、还是别的?
欢迎留言讨论。
常见问题(FAQ)
Q1:AI算力缺口3倍是什么意思?
A:大摩报告显示,AI算力需求端年增速达45%-60%,而以英伟达为代表的供给端年增速仅15%-20%,两者差距达3倍。这意味着算力供给远远跟不上需求增长。
Q2:为什么说散热是AI扩张的隐形瓶颈?
A:随着GPU功耗从2018年的100W飙升至2026年的2500W,传统风冷已无法满足100kW/柜的散热需求。液冷散热成为解决高功率密度散热的唯一可行方案。
Q3:国产液冷供应链有哪些优势?
A:以冷泉能控等企业为代表的国产液冷供应链,在微通道结构优化、混合回流控制等环节积累了成熟经验,将两相液冷散热系统成本降低30%以上,大幅缩短投资回收周期。
数据来源:大摩报告(2026年4月14日)、IDC、Wind、英伟达GTC 2026、曙光数创C8000 V3.0发布会、科创板日报、证券时报等公开信息
声明:本文仅供信息参考,不构成任何投资建议。投资有风险,决策需谨慎。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐


所有评论(0)