关于这轮 AI 热潮到底是不是泡沫这个问题,过去两年争论不休。但在反复讨论“这些钱花得值不值”之前,我们似乎都默认了一个前提:这笔钱是一个大致确定的数字。但高盛近期发布的一份报告认为,这个前提可能并不成立。

近期,高盛全球研究院发布了一份名为《Tracking Trillions》的报告,他们以英伟达(NVIDIA)的前瞻数据中心收入作为锚点,推算出 2026 至 2031 年全球 AI 基础设施累计资本开支的基线:约 7.6 万亿美元。其中,计算芯片约 5.1 万亿,数据中心约 2.15 万亿,电力约 3,580 亿。2026 年单年约 7,650 亿美元,到 2031 年增至 1.64 万亿。

图丨基准 AI 资本支出总额预测(十亿美元)(来源:Goldman Sachs)

但报告真正想说的不是 7.6 万亿这个数字高或低,而是这个数字本身极其脆弱。市场习惯把 AI CapEx资本支出)作需求侧问题来讨论:AI的商业化能不能撑起这些投入?但高盛认为,供给侧的不确定性同样巨大,而且被严重低估。建这些东西到底要花多少钱,取决于一小组很少被摊开讨论的假设。

改变其中任何一个,万亿美元级别的数字就会跟着偏移。

一块芯片该折旧几年

报告列出了四个最能撬动总量的假设。排在第一位的是 AI 芯片的经济使用寿命。

这是一个正在华尔街引发激烈争论的变量。目前超大规模厂商普遍按 4 到 6 年的周期对 GPU 服务器计提折旧。但英伟达已转向年度产品发布节奏:Hopper(2022)、Blackwell(2024)、Rubin(2026)、Rubin Ultra(2027)每一代在能效和性能上都是数量级的跃升,而非渐进式改良。这使得 5 到 6 年的折旧周期在经济意义上越来越难以自洽。

高盛的敏感性分析显示,将芯片使用寿命从 5 年缩短到 3 年,2026-2031 年间的隐含年度折旧总额从约 3 万亿美元跳升至近 4 万亿美元;反过来延长到 7 年,则降至 2.2 万亿美元。仅这一个参数的调整,就可以让生态系统承受的折旧成本偏移上千亿美元。

图丨芯片使用寿命的敏感性分析(来源:Goldman Sachs)图丨芯片使用寿命的敏感性分析(来源:Goldman Sachs)

知名投资人 Michael Burry 在 2025 年下半年公开做空英伟达和 Palantir 时,正是以此为核心论据。他估计 2026 至 2028 年间,超大规模厂商因高估芯片使用寿命将累计少计约 1,760 亿美元折旧,从而使利润虚高超过 20%。他的判断是:芯片的真实经济寿命接近 2 到 3 年,当前的会计处理不过是一种盈余管理。

各家厂商的实际动作也呈现出有意思的分歧。亚马逊在 2025 年初将部分服务器的折旧年限从 6 年缩短至 5 年,为此承受了约 7 亿美元的营业利润冲击,并在 2024 年四季度对一批提前退役的设备计提了 9.2 亿美元加速折旧。

微软 CEO Nadella 则公开表示,公司正有意拉开不同代际芯片的采购节奏,避免在单一代产品上背负四五年的折旧包袱。而 Meta 在三年内三次延长服务器使用寿命,最近一次在 2025 年 1 月,将折旧减少转化为单季度 29 亿美元的利润增量,恰好发生在亚马逊缩短折旧周期的同一时间。

CoreWeave CEO 则给出了相反的证据:该公司 2020 年购入的 A100 芯片目前仍然满负荷运转,一批合同到期的 H100 被立刻以原价 95% 的价格重新租出。高盛报告也承认,旧芯片在推理、边缘计算和合成数据生成等低敏感度场景中仍有经济价值,这种分层部署模式可能支撑更长的使用寿命。

争论的本质不是技术问题,而是利润表问题。折旧年限决定了每年需要摊销多少成本,进而决定了这场万亿美元豪赌的账面回报率。

数据中心正在变成另一种东西

第二个关键假设是数据中心的建设成本。高盛的基线假设是每兆瓦 1,500 万美元。但报告指出,这个数字正面临上行压力。

传统云数据中心的建设成本大约是每兆瓦 1,000 万美元。AI 时代的数据中心完全不同:机架功率密度从过去的 5-15 千瓦飙升到 Blackwell 时代的 130-200 千瓦,再到 Rubin 时代的 500 千瓦以上;冷却方式从风冷转向全液冷;计算、内存、网络和供电必须协同设计而非独立堆叠。

图丨数据中心规格的演进(来源:Goldman Sachs)图丨数据中心规格的演进(来源:Goldman Sachs)

NVIDIA 在 2026 年 GTC 上发布的 Vera Rubin 平台将这种压力推向了新的极端。NVL72 机架将 72 块 Rubin GPU 和 36 块 Vera CPU 封装进标准 42U 机柜,功耗相当于 40 户美国家庭,要求 45°C 进水温度的直接液冷和 800V 直流供电,大多数现有设施完全无法承载。未来的 NVL576 配置更是指向每机架 600 千瓦。

高盛的敏感性分析显示,将数据中心成本从每兆瓦 1,500 万美元调整到 1,900 万美元,六年累计数据中心 CapEx 从 2.15 万亿美元上升到 2.72 万亿美元,增量超过 5,700 亿美元。而且建筑和电力设施的设计寿命通常是 20 到 25 年,但当设施的技术需求可能在投产两年内就发生根本性变化时,长寿命资产的“耐久性”反而成了风险。

图丨数据中心成本敏感性分析(来源:Goldman Sachs)图丨数据中心成本敏感性分析(来源:Goldman Sachs)

报告还点出一个尴尬的现实:不到两年前建成的“过渡型 AI 数据中心”可能已经无法满足下一代芯片的功率和散热需求。当一座数据中心的设计寿命是 20 年,但技术需求可能在投产两年内发生根本变化时,长寿命本身就变成了风险。

省下来的钱,会不会直接花掉

第三个假设涉及芯片架构选择。

GPU 之外,越来越多算力会通过 ASIC(Application-Specific Integrated Circuit,专用集成电路)交付:Google TPU(Tensor Processing Unit)、AWS Trainium、Meta MTIA、OpenAI 与 Broadcom 合作的定制芯片。这些芯片在特定任务上的每单位有效算力成本和功耗都比通用 GPU 低。

仅就近期合同看:Anthropic 在 2025 年 10 月宣布从 Google 采购至多 100 万颗 TPU,规模“几百亿美元”,2026 年 4 月这个合作扩展到 5 GW 的 TPU 容量与 400 亿美元的 Google 投资。Broadcom 2025 财年的 AI ASIC 营收约 200 亿美元,订单积压 730 亿。Morgan Stanley 把 2027 年 TPU 出货量估计上调到 500 万颗,2028 年到 700 万颗。

但 Lee 和 Greenbaum 更想问的问题是:这些更便宜的算力,最终会让总建设规模变小,还是会被新一轮使用吸收掉?

他们把问题归结为一个变量:算力需求的弹性。

一种情景是需求相对固定。机构知道自己要训练多大的模型、服务多少用户,更便宜的芯片直接缩小资本盘子,架构选择实实在在地改变总数。另一种情景是需求跟着价格走。算力变便宜了,团队就会训更大的模型、跑更长的上下文、把 AI 塞进更多原本不值得用的场景,省下来的钱又花回去了。总的基础设施规模没变,变的是谁赚走了中间的利润。

报告提到,NVIDIA 数据中心 GPU 的毛利率约 75%,远高于其他芯片供应商。万亿美元乘以 75%,这个利润池将成为超大规模厂商转向自研芯片的最强动机。问题是,这个动机驱动的结果是“少花钱”还是“多用量”,答案完全不同。

目前报告的基线倾向于后者。在算力需求远未饱和的阶段,便宜的计算催生的是更多使用,而不是更少投入,架构变化改变的是价值分配而非总盘子。作者也承认这个判断有时效性:当推理负载占比上升、利润率压力增大、边际算力的回报开始递减,更便宜的芯片确实可能开始压缩总支出。但那个阶段还没到。

瓶颈不改变成本,但可能改变信心

第四个假设是建设周期拉长。电力接入排队、审批流程、专业劳动力短缺、变压器和冷却设备的交货周期(目前 GPU 交货期已延长至 36 到 52 周),都在拉大资本投入与产能上线之间的时间差。

延长本身不改变单位成本。电力的价格、数据中心的每兆瓦造价、芯片的效率都不动。它通过另一种方式作用:拉长时间线、增加协调复杂度,最终让 take-or-pay 合同的承约方、信贷供给方、依赖二级市场融资的运营方都暴露在更长久的不确定性下。

高盛认为,在基准情景下,瓶颈只是拖慢了部署节奏而非减少了总量。项目延期、资本重复投入(最典型的是自建发电设施绕开电网排队),结果是一个效率更低但总规模不变的建设过程。

但当瓶颈足够严重、足够持久,故事会从供给侧滑向需求侧。当大量项目同时卡住,市场的关注会从“我们怎么把它建出来”转向“我们到底是不是该建这么多”。报告把这种状态称为反馈回路:供给侧的摩擦倒灌进需求侧的怀疑。

报告判断当前环境更接近基准情景,但缓冲不大。五大超大规模厂商 2026 年的 CapEx 指引已合计攀升至约 7,000 亿美元(综合多家分析师估算),较 2024 年的 2,000 多亿美元翻了两倍多。资本密集度已达到营收的 45%-57%,更像公用事业公司而非科技公司。

仅 2025 年一年,这些公司就通过债券市场融资超过 1,080 亿美元,未来几年的预计发债规模达 1.5 万亿美元。在这个杠杆水平上,执行层面的延迟很容易传导为需求层面的质疑。

不改变总量的因素,和一个循环悖论

高盛还列出了几个看上去很重要、但对总量影响有限的因素。

训练与推理的比例变化影响的是回本速度,不是基础设施总量。内存价格的剧烈波动本质上是供需失衡在极端采购量下的反映,高盛预计类似的短期冲击还会在光互连、封装等其他环节反复出现。

自建电力确实抬高了单项目成本,但电力在六年累计投入中只占约 3,580 亿美元,不到总量的 5%,即使大规模铺开也撼动不了 7.6 万亿的整体数字。这些变量决定的是谁赚钱、什么时候赚钱,而不是总共要花多少钱。

报告坦言,其分析建立在一种循环的逻辑上:如果建设真的成功,基础设施铺开、瓶颈疏通、算力价格继续下降,那么结果结果未必是过剩,而很可能是新一轮需求和新一轮场景在更低的价格点上被激活。今天足以满足 AI 野心的那一笔建设,恰恰是它对明天的技术机会不够用的原因。

参考资料:

1.https://www.goldmansachs.com/insights/articles/tracking-trillions-the-assumptions-shaping-scale-of-the-ai-build-out

运营/排版:何晨龙

注:封面/首图由 AI 辅助生成

rb88官网,吉祥体育well,

走地皇rb88相关资讯:吉祥体育原生app,