全球AI用电更贵了!GPT-5日耗电等于150万户家庭,科技巨头杀红眼抢电,向量引擎成“省电侠”

你每次问ChatGPT一个问题,背后有多少度电在燃烧?
以前没人想过这个问题。直到最近,一个数字让整个硅谷后背发凉:GPT-5生成一次中等长度的回答,平均耗电约18.35瓦时,最高可达40瓦时。作为对比,GPT-4只有2.12瓦时,增幅约为8.6倍。
但更恐怖的还不是单次查询,是累计。
据测算,GPT-5单日耗电量可达45吉瓦时(GWh) 。45吉瓦时是什么概念?相当于150万美国家庭的每日用电需求,或者2到3座核反应堆的全天输出量。
一座核反应堆24小时不休息发出来的电,还不够一个模型一天“吃”的。
而这只是一个模型。全球正在同时训练和运行的大模型,数以千计。当马斯克在2025年11月的美沙投资论坛上一针见血地说出“AI瓶颈根本不是钱和算法,缺的是能喂饱AI的电”时,台下没有一个人笑。
AI的尽头,不是AGI,是电厂。
今天,我们就来聊聊这场正在全球上演的“AI抢电大戏”——科技巨头们有多缺电?电费涨了多少?电网为什么跟不上?以及,作为一个普通开发者,面对越来越贵的API调用成本,有什么办法能“省电费”。
一、“吞电黑洞”到底有多恐怖?

1.1 一组让你失眠的数字
国际能源署(IEA)的最新数据显示,2024年全球数据中心的耗电量已经达到415太瓦时(TWh) ——相当于英国一整年的用电量。到2030年,这个数字将接近日本全国的用电总量。过去五年,数据中心用电增速是全球平均的4倍以上。
从用电结构来看,数据中心负荷占全美总用电比重已由2022年的2%升至当前的4%5%,预计2030年将攀升至9%。
别觉得9%不多。要知道,美国一年的总用电量约4000TWh,9%就是360TWh——相当于整个德国的年度用电量,全部喂给数据中心的服务器。
摩根士丹利预测,到2028年,由于AI数据中心消耗大量电力,美国可能面临高达20%的电力缺口。
1.2 从GPT-3到GPT-5:能耗的指数级飙升
回到2020年,GPT-3训练耗电约300兆瓦时,已经引发了一波环保担忧。到了2023年,GPT-4的能耗据学术估算已是GPT-3的数倍。再到2025年的GPT-5,参数规模达到10万亿级,训练需5万张H100 GPU,单次训练耗电约38.2吉瓦时——相当于4万家庭的年用电量。
如果把GPT-5单次训练消耗的电拿来烧水,能煮沸1000个奥运标准游泳池的水量。
更令人头疼的是推理端。训练就几个月,推理却要持续跑好几年,长期下来耗电比训练还多。OpenAI每天在全球处理数以亿计的请求,总耗电量可想而知。
1.3 为什么AI这么“能吃”?
数据中心的“吃电能力”,首先来自硬件本身。普通服务器机架的功率一般在14千瓦左右,而AI服务器机架直接飙到40-60千瓦——相当于把整栋楼的电塞进一个铁皮柜里。
四个核心因素让AI成为“吞电黑洞”:高密度高功耗硬件、数级算力需求、数据搬运与散热的双重损耗、推理持续放量。
散热是个隐藏的大头。一个典型的数据中心里,大约有50%的耗电用于散热和冷却。再加上淡水消耗——微软训练GPT-3时用了约70万升水来冷却。
二、电网跟不上:为什么电不够用?

2.1 欧美电网的“老龄化”危机
算力在指数级增长,电网却在加速老化。
美国的变压器平均使用年限已经达到30到40年,远超25年的设计寿命。欧盟有40%的配电网已经服役超过40年。
更糟的是供应链。高功率变压器是当前最突出的卡点——此前交货周期普遍为24至30个月,如今已延长至五年之久。而典型AI数据中心从立项到投运通常只需18个月,漫长的设备等待期直接挤压部署窗口。
美国在功率半导体及部分关键电气组件上高度依赖进口,其中来自中国的零部件占比超过四成;特定型号的变压器与开关设备,中国供应份额亦接近三成。
2.2 建设周期的“时间鸿沟”
最扎心的是建设节奏的脱节:建一个数据中心大约需要2年,建一个发电站要3-5年,而一条长距离高容量输电线路居然要8-10年。
AI按年迭代,电网按十年建设。这条“时间鸿沟”,让欧美科技巨头陷入了无解的死循环。
CBRE数据显示,自2025年初以来,已有约半数原定建设的数据中心项目被推迟或终止,主要原因就是电力接入能力不足与核心设备供给失衡。
2.3 电费涨了:居民和企业都在买单
卡内基梅隆大学的研究人员警告,数据中心扎堆的地方,居民电费可能被推高25%。彭博社的数据更刺眼:某些地区的批发电价五年涨了267%。
美国最大区域电网PJM的容量拍卖价格,从**$28.92/MW-day暴涨至$269.92/MW-day**——近9倍的跳涨,标志着市场定价已从“风险溢价”转向“生存恐慌”。
三、科技巨头“抢电”的疯狂现场

3.1 微软:重启三哩岛核电站
2025年11月,美国能源部批准向Constellation Energy提供10亿美元联邦贷款,用于重启宾夕法尼亚州的三哩岛核电站1号机组。
这个名字你一定不陌生。1979年,三哩岛发生了美国历史上最严重的核事故。时隔40多年,这座反应堆因AI而重获新生。
微软签下了一份为期20年、价值高达160亿美元的电力采购协议,将100%买下该机组重启后的全部电力,专门用于AI数据中心。该机组发电能力为835兆瓦,足以满足约80万户家庭的用电需求,计划在2027年至2028年间重新并网。
3.2 谷歌:花48亿美元买下发电公司
谷歌的策略更简单粗暴——直接“买电厂”。
谷歌以48亿美元收购了发电公司Intersect Power,成为第一家拥有发电业务的科技巨头。同时,谷歌还承诺与Kairos Power合作开发500MW的小型模块化核反应堆项目,目标是在2030年前建成首座SMR。
在可再生能源方面,谷歌与法国道达尔能源签署了为期15年的电力购买协议,从俄亥俄州蒙彼利埃太阳能电站获取总计1.5太瓦时的可再生能源电力。
3.3 亚马逊:投5亿美元押注小型核反应堆
亚马逊是SMR领域的最大赌注者。亚马逊领投了X-energy的5亿美元融资轮,计划到2039年在美国部署超过5吉瓦的小型模块化反应堆。
此外,亚马逊还与Energy Northwest签署了960MW的协议,与Dominion Energy签署了300MW以上的协议,为弗吉尼亚数据中心供电。2025年6月,亚马逊还与Talen Energy签署了1.92MW的核能购电协议,有效期至2042年。
3.4 Meta:连签三个核电大单
Meta在2026年初一口气签了三个核电大单:资助TerraPower开发两个核反应堆项目(总发电能力690MW),与Oklo签署协议在俄亥俄州开发1.2吉瓦的核能技术园区,以及另一项未披露规模的核电合作。
3.5 马斯克:从海外买下整座发电厂
马斯克的路子最野。xAI曾用122天建成一座20万颗GPU的数据中心,搭配自有的35台大型燃气轮机现场发电,配上特斯拉的巨型电池,自成一个小电网。
为了下一代能容纳100万颗GPU的数据中心,马斯克需要至少大约2吉瓦的电力。最新消息显示,xAI直接从海外买下一整座发电厂的设备,拆成零件后运回美国。
四、中国如何应对AI用电荒?

4.1 “算电协同”上升为国家战略
当欧美科技巨头在“抢电”中焦头烂额时,中国早已提前布局。
2026年,“算电协同”首次被写入政府工作报告,上升为国家新基建的战略层面。什么是算电协同?就是算力跟着电力走,电力反过来配合算力调度,不再是各管各的。
国家电网计划投入4万亿元,南方电网投入2万亿元,重点投向特高压、智能配网、新型储能和算电协同配套设施。
4.2 “东数西算”:把算力搬到电力富集区
中国的“东数西算”国家战略将78%的智算算力迁移至西部风光储富集区,绿电利用率达90%。青海三江源绿电智算园年供1000万度零碳电,特高压输电损耗仅1.5%,电价约为美国五分之一。
4.3 “词元出海”:把电力优势转化成数字服务出口
中国还有一个欧美没有的独特优势——全产业链布局。从上游的硅钢、变压器,到中游的电网建设,到下游的数据中心运营,都能自己搞定。而欧美地区,变压器80%都需要依赖进口。
在这个背景下,一个很有意思的概念最近很火,叫“词元出海”。词元就是Token,AI处理的最小单元。中国的大模型企业,正在把自己的算力和电力优势,转化成高性价比的“词元服务”,通过API接口卖给全球。你每调用一次,就相当于中国自己“出口”了一点点算力和电力。欧美在那儿抢电抢得焦头烂额,我们这边电力供给充沛,还能把算力打包卖给他们——本质上是在把电力优势转化为数字服务出口。
五、向量引擎
讲完了全球“抢电”大战,再回到一个更现实的问题:AI用电越来越贵,普通开发者和中小企业怎么办?
如果有一款工具,可以帮你用更便宜的方式调用模型呢?
在全球电费越来越贵的今天,少调用一次高价API,等于少烧一度电。向量引擎,就是AI时代的“省电侠”。
官方地址:https://178.nz/dn
保姆级教程:https://www.yuque.com/nailao-zvxvm/pwqwxv
六、核电复兴:AI的“最后一张牌”

面对AI的“吞电黑洞”,硅谷巨头们正在用脚投票——核电,成了他们共同的答案。
SMR(小型模块化反应堆)相比传统核电站,体积更小、技术更先进、具备可扩展性,每兆瓦资本成本可降低50%,建设周期从10年缩短至3年。SMR的容量系数高达95%,无论天气、季节或时间段,都能稳定供电。
但SMR距离大规模商业化还有很长的路要走。首批SMR预计在2029年才投入运营,而首个商用SMR供电的数据中心预计在2030年才能上线。在此之前,科技巨头们只能继续“抢电”。
七、AI的下一场战争:从芯片战到电力战

AI竞赛的胜负手,正在从芯片转移到发电厂。
黄仁勋已经定论:“电力的可用性而非GPU,将决定AI的扩展规模和速度。”微软CEO纳德拉更是直言:“供电能力是当前最大的瓶颈,甚至超过芯片。”
如今,英伟达H100和B200的出货量,决定着大模型的训练速度。但再多的GPU,没有电也只是废铁。
高盛预测,到2027年,AI服务器单个机架的功率密度将是五年前普通云服务器的50倍。
AI竞赛的终局,不是谁能造出最强的模型,而是谁能解决“电从哪儿来”这个最原始的问题。未来决定AI格局的,可能不是OpenAI,不是Anthropic,不是Google DeepMind——而是电力公司。
而在这个电力越来越贵的时代,谁能用更少的电跑出更强的模型,谁就是真正的赢家。
AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。
更多推荐
所有评论(0)