深度解析2026 GTC:英伟达万亿订单背后的AI大爆发、Token经济学与失衡供应链

日期:2026-03-26 15:15:10 / 人气:1



1万亿美元,这是英伟达未来21个月内GPU订单的预期收入规模。刚刚落幕的GTC大会上,黄仁勋彻底跳出了“芯片叙事”,将目光投向了更宏大、更具长期价值的市场——Token经济学。

本篇文章将全面拆解英伟达的“五层蛋糕”生态体系,解答核心疑问:一万亿美元的收入预期如何测算?基于Groq的LPU将为英伟达开辟怎样的新赛道?黄仁勋在光通信领域的提前布局,又将如何支撑未来跨区域扩展(Scale-across)的AI工厂?此外,在OpenClaw迎来里程碑之后,英伟达押注的Token经济学将走向何方,又会给算力市场带来哪些全新挑战?



01 推理拐点已至:多模态+OpenClaw引爆算力需求

2026年英伟达GTC大会的核心叙事,建立在两大关键背景之上:一是AI应用加速落地,二是OpenClaw的爆火带动全球Agent生态崛起。这也让黄仁勋在演讲中明确高呼:推理拐点已然到来。

新云厂商GMI Cloud创始人Alex Yeh在对话中透露,北美市场的算力需求暴增主要来自多模态应用与编程场景,而OpenClaw引发的Token需求,核心驱动力则来自中国。

Alex Yeh(GMI Cloud创始人):Token(词元)的推理使用量正以倍数级爆发式增长,我们的客户群体也从大型训练客户,转向了大量有推理需求的边缘端节点。美国市场这边,一方面是以代码生成为核心的推理需求激增,另一方面是多模态视频、图片生成的快速发展,这两个领域的增速都远超预期。我认为,美国市场尚未真正意识到OpenClaw带来的深远影响。

Alex的观察,与我们近期在硅谷与业内人士的交流结论高度一致。北美用户,尤其是具备技术背景的开发者,早已习惯使用Claude Cowork处理各类Agent任务,因此尽管OpenClaw起源于硅谷,其市场热度却远不及国内“内卷”。

Alex Yeh(GMI Cloud创始人):我认为OpenClaw是从国内火到硅谷的,国内已经率先掀起了一波应用热潮,目前很多人在Mac mini或DGX Spark上部署使用,但这绝非常态。未来,OpenClaw必然走向云端部署,毕竟个人PC部署的成本过高。而且我注意到,不少硅谷公司正在研发零代码、高易用性的OpenClaw产品,随着开源与闭源模型的持续迭代优化,其调用量还将大幅提升。目前我们所处的阶段,甚至还不到其潜在规模的1%或5%,但仅仅是起步阶段,全球算力就已告急,未来Token调用规模的增长潜力将极为惊人。

正是基于推理需求飙升与OpenClaw爆火这两大趋势,黄仁勋本次GTC演讲的叙事逻辑,与去年截然不同:过去,英伟达是向云厂商和AI公司售卖芯片;如今,黄仁勋要向全球每一家企业售卖Token。

黄仁勋(英伟达创始人&CEO):全球每一家企业、每一家软件公司,都需要一套智能体系统、一套智能体策略,更需要一套属于自己的OpenClaw策略。

这也是本次参加黄仁勋主题演讲的最大感受——从PPT中的细节就能看出,他的姿态是“拥抱所有人”(we love everybody)。因此,2026年GTC的核心主题,早已从“芯片”转向了“生态”。

早在GTC召开前几天,英伟达就发布了一篇题为《AI五层蛋糕》的文章为大会预热,预示着黄仁勋本次将重点强调垂直整合能力与生态布局,而非单一芯片的性能优势。简单来说,黄仁勋为外界描绘了一幅更宏大的商业蓝图,而我们首先要拆解的,就是他在演讲中提到的“一万亿美元”这个关键数字。

02 一万亿美元:保守预估还是乐观展望?

去年GTC大会上,黄仁勋曾表示,当前及下一代GPU架构Blackwell与Vera Rubin的订单收入,从当时到2026年底将达到5000亿美元。而本次大会,他将这一预期直接翻倍——截至目前,到2027年底,仅Blackwell与Vera Rubin两大GPU架构的订单收入,预计将达到1万亿美元。

需要特别注意的是,这1万亿美元仅包含GPU架构的订单收入,并不涵盖英伟达新发布的CPU、基于Groq的LPU等其他产品线。黄仁勋在媒体闭门会上专门澄清了这一点,核心原因是为了让外界能更直观地感受到英伟达GPU业务的增长态势。

黄仁勋(英伟达创始人&CEO):如果我将这1万亿美元的业务范围扩大,纳入CPU、Groq及存储等业务,就会混淆两件不同的事情,不利于外界直观对比。但外界可能会有疑问:既然英伟达如今能提供更多元的产品,难道意味着Blackwell与Vera Rubin的规模还不到1万亿美元?答案恰恰相反。

任扬(济容投资联合创始人):首先,我认为这个1万亿美元的目标完全可实现(achievable)。其次,这个数字是截至目前英伟达已收到的实实在在的订单,预计几个月后再回顾,随着新订单的持续增加,这个数字还会进一步攀升。从财务分析角度来看,这一预期为2027年的营收和利润划定了底线,将这一万亿美元纳入模型测算,就能得出2027年每股收益(EPS)约13-14美元的底线。

对于全球企业在算力领域的资本支出(CapEx),嘉宾们普遍认为将持续上涨——一方面,推理需求的爆发式增长将持续拉动算力投入;另一方面,前沿大模型的竞争日趋白热化,训练端的需求也不会出现下滑。

图片来源:Business Insider

任扬(济容投资联合创始人):我认为,算力资本支出的增速可能会放缓,但依然会保持快速增长,而且每年增长的绝对额未必会减少。第一,推理(Inference)用量的拐点已经非常明显,大家对Agent的使用量和Token的消耗量大幅提升;第二,从模型厂商的角度来看,各大前沿实验室目前处于交替领先的状态,没有任何一家能形成绝对优势,就连开源大模型与闭源专有(proprietary)模型之间,也没有明显的差距。

我认为,未来模型厂商只有两条出路:要么向上突破,布局应用层,通过打造用户粘性实现商业变现;要么加大投入,凭借资产负债表或现金流优势,在算力、人才上持续加码,力争在模型技术上实现突破。OpenAI此前曾一度倾向于后者,比如去年Sam Altman曾提出1.4万亿美元的算力投入计划。这两条路线未来仍会并行,因此企业在算力领域的资本支出,必然不会减少。

为什么黄仁勋今年不再强调单一芯片,甚至连Rubin的下一代计算架构Feynman也只是一笔带过?除了要将英伟达的企业叙事提升至“AI工厂”,以及向全球企业售卖Token的宏大目标外,核心原因在于——产能跟不上,全球市场仍在疯狂缺卡。目前,市场上根本买不到最先进的GPU,就连两三年前发布的H100、H200等旧卡,使用多年后甚至能以高于原价的价格转售;同时,软件生态与各类配置的迭代速度,也跟不上黄仁勋的布局节奏。因此,此时再强调单卡的性能提升,对市场而言毫无实际意义。

钱宇靖(GMI工程主管):目前市场上最成熟的平台依然是Hopper架构,Blackwell架构在最近几个月才开始进入大规模应用阶段,软件层也取得了不错的进步。但回顾来看,Blackwell早在两年前就已发布,如今的产能,依然未能达到黄仁勋当时的预期。

由此可见,仅GPU售卖就能支撑起一万亿美元的收入规模,并非过度乐观,而是市场真实需求的体现。但显然,黄仁勋并不满足于这一万亿美元——他布局的是全生态。当Token成为大宗商品,“算力即收入”的时代来临,黄仁勋接下来的核心动作,就是打通他所定义的“AI五层蛋糕”,让英伟达持续成为AI产业链中最赚钱的核心玩家。

03 拆解五层蛋糕:同质化博弈与生态护城河

Chapter 3.1:五层蛋糕与“同质化”逻辑

黄仁勋所定义的AI五层蛋糕,自下而上依次为:能源层(以电力为核心的基础供应)、芯片层(英伟达的核心业务——GPU等芯片)、基建层(包括云厂商及其数据中心,细分来看还涵盖土地、供电、冷却系统、建筑工程、网络通信等),这三层共同构成了“AI工厂”(AI factories)。

再往上,是模型层——既有OpenAI、谷歌Gemini、Anthropic等顶尖闭源模型,也包含英伟达自研的一系列开源模型;最顶层是应用层,英伟达针对机器人、自动驾驶、工业制造、编程、企业级AI Agent等不同赛道,布局了相应的技术与产品。

很多人会疑惑:黄仁勋的布局究竟是什么逻辑?这五层蛋糕,英伟达真的能全部吃透吗?

任扬(济容投资联合创始人):核心逻辑是,将其他层级“同质化”(commoditize),压低其利润空间,让行业利润集中到自己占据绝对优势的层级。关键在于,每一层中,瓶颈在哪里,稀缺价值就集中在哪里。过去几年,稀缺价值完全集中在芯片层,因此英伟达吃到了AI行业的绝大部分利润;但其他层级的玩家,同样具备很强的实力。

任扬认为,在任何一层蛋糕中,如果所有玩家的实力相差不大,没有绝对领先者或垄断者,那么这一层的利润就会被摊薄,也就是所谓的“同质化”(being commoditized)。最终,行业议价权会重新回到具备绝对领先优势和垄断地位的层级——也就是英伟达主导的芯片层。

这意味着,黄仁勋的核心目标依然是卖芯片,但在其他层级,英伟达要通过扶持自身软件生态、制定行业规则,巩固自身优势。就像当年打造CUDA生态一样,一旦在新市场中定义了行业范式,当市场爆发时,大家会发现最易用、最高效的依然是英伟达的平台,最终还是会选择英伟达的算力和芯片。

比如,在基建层,看到谷歌云、AWS等传统云厂商拥有较强议价权后,英伟达便扶持了CoreWeave、Nebius等新云平台(Neocloud),通过引入竞争,削弱传统云厂商的话语权;在模型层,英伟达开源了大量大小模型,本次GTC大会上,黄仁勋还专门组织了全球核心开源模型论坛,试图长期削弱顶尖闭源模型(SOTA,State of the Art)的议价权;在应用层,英伟达提前布局自动驾驶、机器人等领域,等待行业大规模爆发,抢占生态先机。

任扬(济容投资联合创始人):如果英伟达能够鼓励并带领开源社区快速迭代,压低Token价格,即便Anthropic、OpenAI通过售卖API、推理服务、Token盈利,一旦开源模型能以10%的价格,实现当前前沿实验室顶尖模型90%的性能,那么Token价格必然会被拉低,进而让模型、推理、Token售卖这一层实现同质化。到那时,整个AI生态的利润,又会重新集中到英伟达手中。

因此,黄仁勋始终在关注其他层级的动态,但最核心、最赚钱的,依然是芯片层——这也是他最关注的领域。而本次GTC大会,英伟达在芯片层释放出了两个关键信号。

Chapter 3.2:基于Groq的ASIC反击战

第一个信号,是英伟达发布了基于Groq研发的LPU(推理专用芯片)。要知道,英伟达与Groq的非独家技术授权交易,是去年12月圣诞节前后才宣布的,英伟达投入了200亿美元现金,这也是其有史以来最大规模的一笔交易。

Groq创始人Jonathan Ross在近期《福布斯》杂志的采访中透露,与英伟达的这笔交易,黄仁勋仅用了三周就做出了最终决定。而从交易宣布到本次GTC发布相关产品,仅过去3个月——这足以看出,当英伟达全力冲刺时,行业内几乎没有对手能与之抗衡。那么,英伟达为何要“收编”Groq?

核心原因在于,GPU架构(即便强大如Vera Rubin)的优势的是高吞吐并行计算,在上下文预处理(prefill)和注意力计算(attention)方面表现突出,但在超高速Token生成(decode)任务上,却存在明显短板。因为Token生成的核心特点是串行链式生成,每一步的延迟都至关重要,这与GPU的“高吞吐”优势形成了天然矛盾,难以兼顾。

而Groq的技术,恰好解决了这一矛盾。

Graham Steele(英伟达工作人员):LPX(基于Groq的LPU产品)的核心应用场景,是那些高交互率的场景。单独的Vera Rubin架构,适合处理绝大多数推理工作负载;而当涉及超大模型、超长上下文以及极高交互性需求时,就需要LPX发挥作用——它能为Vera Rubin提供额外的性能提升。

Groq通过SRAM(静态随机存取存储器)设计,天生就适合推理和Token生成。正如Groq创始人Ross打动黄仁勋的那个类比:强大的GPU就像“18轮大卡车”,适合大批量货物运输;而推理任务中的Token生成,就像“最后一公里配送”,更适合灵活高效的“面包车”。Ross对黄仁勋说:如果要为美国建立一套完整的物流网络,最优解是同时拥有18轮大卡车和面包车。

在OpenClaw引领的Agent时代,黄仁勋通过与Groq的深度技术、人才合作,解决了Token生成的核心痛点,这无疑是关键一步。而Groq的新芯片融入英伟达体系后,英伟达宣称,这将解锁3000亿美元的增量市场——从这个角度来看,200亿美元的投入无疑是物超所值。但SRAM也存在明显短板:成本高、占用面积大、容量难以提升。

单颗Groq 3 LPU仅拥有500MB SRAM,而Vera Rubin GPU的HBM4内存高达288GB,两者差距超过500倍,这意味着单颗LPU根本无法存储万亿参数的大模型。对此,英伟达的解决方案是,通过Dynamo软件将推理过程拆分为两部分:Vera Rubin GPU负责上下文预处理(prefill)和注意力计算(attention),而Groq LPU则负责后续的Token生成(decode)。

最终,我们看到的解决方案是:1颗Vera Rubin GPU搭配8颗Groq 3 LPU,组成一个完整的推理单元;而Groq 3 LPX整机则将256颗LPU集成在一个机架中,可提供128GB SRAM、40PB/s带宽、315 PFLOPS推理算力以及640TB/s互连带宽。

目前,英伟达与Groq的交易仍面临潜在的反垄断调查,外界认为此举涉嫌“变相收购”(尽管这种操作在AI时代的硅谷巨头中已较为常见)。但LPU已与三星达成合作并进入量产阶段,预计今年第三季度正式出货,而Vera Rubin机架也已在微软Azure云上投入运行。

除此之外,英伟达联手Groq还有一个核心战略意义——打响ASIC芯片反击战。正如我们此前文章所提到的,ASIC是专用芯片,虽然通用性不如GPU,但如今已成为各大科技巨头自研的重点,各大云厂商也在扶持ASIC芯片研发,试图蚕食英伟达GPU的利润率和议价权(比如谷歌的TPU,本质上也是ASIC芯片,Groq本身同样属于ASIC芯片)。而英伟达通过本次合作向外界传递出明确信号:我不仅能做通用GPU,也能做专用ASIC芯片,而且能与自身GPU完美协同,实现更强的性能。

黄仁勋(英伟达创始人&CEO):借助这种架构协同,我们将Token生成速度从200万提升至7亿,实现了350倍的增长。这就是极致协同设计(extreme co-design)——我们在垂直方向上实现整合与优化,再在水平方向上开放,让所有人都能享受到这种技术红利。

Chapter 3.3:枯木逢春的CPU与备受期待的CPX

芯片层的第二个关键信号,是CPU的“枯木逢春”。AI Agent时代Token经济的崛起,不仅拯救了Groq,也让曾经被视为“老古董”的CPU,重新成为算力市场的香饽饽。

尽管GPU在AI模型的训练和运行中占据核心地位,但随着Agent工作负载的持续增长,系统需要传输海量数据,并协调多个智能体的工作流程——这使得CPU在现代AI基础设施中的重要性,丝毫不亚于GPU。

因此,英伟达在本次GTC大会上发布了Vera CPU,号称“全球首款专为Agent式AI与强化学习时代打造的处理器”,其效率是传统机架级CPU的2倍,速度提升50%。AI编程明星公司Cursor也为Vera CPU站台,表示其显著提升了公司的整体吞吐量和效率,为客户带来了更快速、更灵敏的编程Agent体验。

Praveen Menon(英伟达工作人员):这些CPU是专为AI工厂量身打造的。当GPU进行推理或强化学习训练时,会生成大量软件代码,这些代码需要被评估对错,评估结果再反馈给GPU。而CPU的核心作用,就是承担这些代码的评估任务——因此,我们需要一款速度极快的CPU,及时向GPU提供评估反馈,避免GPU陷入等待。这也是我们打造Vera CPU的核心原因:它具备极高的单核性能和极大的内存带宽,能实现数据的无缝传输,所有环节都能达到出色的机架级性能效率。将这些优势结合,就成就了一款最适合智能体任务和AI工厂的CPU。

在芯片层,英伟达还有一款“秘密武器”——CPX。这款芯片是黄仁勋在去年9月的AI基础设施峰会上推出的,专门针对长语境推理进行优化,被视为GPU设计的一个全新品类。CPX能够处理百万级Token的软件编程和生成式视频,在速度和效率上实现了突破性提升,外界普遍认为,它将进一步巩固英伟达在推理领域的优势。

有意思的是,黄仁勋在本次GTC演讲中,完全没有提及CPX,这也引发了业界的广泛猜测:英伟达目前在芯片层布局的GPU、CPU、LPU、CPX这套组合拳,是否会进一步拉开与竞争对手的差距?

任扬(济容投资联合创始人):我的理解是,针对不同类型的工作负载,英伟达都能拿出适配性极强的产品,整合到其机架系统中。英伟达的核心目标,是提供最完整、最全面的算力服务——让客户觉得,无论需要什么类型的算力,英伟达都能提供,一站式采购最便捷。

总结来看,这五层蛋糕既相互支撑,又相互牵制。黄仁勋正在做的,就是整合这五层生态,确保英伟达在每一层都拥有足够的话语权:无论是扶持竞争对手的对手,还是自研开源模型,亦或是在不同领域保持开放合作,核心都是为了定义行业入口和范式。

如今,英伟达的叙事早已超越“芯片”本身——黄仁勋手握单芯片的经典名场面,已然成为过去。未来,英伟达的核心定位是完整的AI工厂,是更宏大的Token经济学。这也让英伟达的护城河,早已超越了CUDA生态,变得更加坚固,让竞争对手难以撼动其在AI领域的统治地位。

04 前沿技术布道:CPO、太空数据中心与Scale-across布局

黄仁勋始终在布局下一个即将爆发的产业,对前沿技术有着极高的敏感度。本次GTC大会上,他虽然没有过多提及共封装光学(CPO),以及数据中心的纵向扩容(Scale-up)与横向扩容(Scale-out),但英伟达的相关布局,早已悄然展开。

今年3月初,英伟达分别向光子技术巨头Lumentum和Coherent各注资20亿美元,并锁定了数十亿美元的采购承诺及未来产能权益。这两家公司都是CPO领域的核心供应链企业,业内人士认为,黄仁勋的这一动作,是在为下一代“吉瓦级AI工厂”铺垫光互联底座。

Cathy Jiang(光学工程师):Lumentum是目前唯一能提供高功率(400毫瓦)DFB激光器的供应商,在近期的OFC会议上,他们还发布了参数更高的1瓦强功率激光器;而Coherent则是由多家在硅光光子学领域拥有深厚技术积累的公司合并而成。这两家企业有三个核心优势:一是均为美国企业;二是拥有多年的技术积累和专利储备;三是在产业链中占据关键位置,英伟达的投资,能够帮助它们在下一代技术研发中实现更多突破。

目前,这两家公司的技术革新主要集中在封装领域,比如从2.5D封装向3D封装升级。但未来,它们还将推进更多新技术研发,比如利用多光波长进行通信,进一步提升带宽密度;探索更先进的激光器放置方式,甚至尝试不同波段、不同光纤参数等更前沿的技术突破。

当前行业内仍在讨论数据中心的纵向扩容(Scale-up)与横向扩容(Scale-out),但业内人士透露,黄仁勋已经在思考下一步——跨域扩展(Scale-across),也就是如何解决不同数据中心之间的互联问题。

Cathy Jiang(光学工程师):不同的扩容场景,对应不同的距离量级:纵向扩容(Scale-up)针对的是毫米级距离,横向扩容(Scale-out)针对的是米级距离,而跨域扩展(Scale-across)则针对千米级甚至更远的距离。在不同的距离量级下,最优的技术路线是什么?我们是否继续使用当前的光波长,还是需要更换其他波长?是否需要使用新型光纤(比如中空光纤)?会不会有某种新技术突然出现,颠覆现有格局,引领行业走向新的方向?这些都是目前行业内非常值得探讨的问题。

当然,英伟达还有更长远的布局,比如黄仁勋在演讲中提到的太空数据中心等,我们此前也专门撰写文章进行过介绍。

在本文的最后,我们还想聊聊当前芯片和数据中心供应链的现状。回顾英伟达的“五层蛋糕”,能源和数据中心供应链作为基础层,不仅决定了芯片的产能,也决定了整个AI模型和应用能否获得足够的算力支撑,更影响着AI产业的发展进程。

05 供应链全面吃紧:内存与能源的超级周期

我们在GTC大会期间与供应链人士交流后发现,当前的供应链现状可以用四个字概括:全面短缺。

Alex Yeh(GMI Cloud创始人):我们非常清楚当前所有硬件的缺货情况,从各类元器件到内存相关硬件(比如CX7等子元器件),每一个元器件都开始“亮红灯”——也就是严重缺货、价格暴涨。DDR4的DRAM价格,已经涨到了一年前的10倍;CX7、电源供应、CPU也开始出现缺货,整个供应链都处于供不应求的状态。我认为,OpenClaw的崛起、Agent的爆发、多模态应用的普及,这三个因素叠加在一起,形成了一场“完美风暴”,导致供应链完全跟不上市场需求的节奏。

Alex还表示,近期全球地缘政治波动(尤其是中东局势)导致能源价格异常波动,给全球AI数据中心的能源供应带来了更高的不确定性。能源成本大约占Token定价的10%左右,而导致Token价格居高不下的核心原因,依然是供应链短缺带来的价格飙升,其中内存领域的短缺尤为突出。

Alex Yeh(GMI Cloud创始人):我认为,影响Token价格最核心的因素,是服务器系统内存的涨价。

我们在大会现场也采访到了内存市场的核心赢家——三星,他们表示,当前内存紧缺的状态,至少将持续到2027年底。

Candice Hu(Samsung Memory产品营销经理):这是我们从未见过的“超级周期”(supercycle)。过去几年也出现过内存需求高峰,但当时的需求主要来自手机、电脑、互联网领域;而今年,需求完全来自AI行业。我们看到,2026年的内存产能已经完全售罄,2027年我们预计依然会处于紧缺状态。我们已经在持续投入产线建设,但大概率要到2028年,产能才能实现实质性提升。

在这个超级周期中,核心采购方是云端企业和数据中心,它们对成本的敏感度较低,也更愿意为内存支付高价。因此,我们认为,未来两年,内存的短缺态势和高需求,依然会保持强劲。

以上就是我们本次GTC大会的参会体验。总的来说,随着Agent时代的来临,AI行业的诸多范式都将发生深刻变化,机遇与挑战并存。而GTC大会,依然是AI行业的“指路标”,我们也将持续关注文中提到的产业方向与发展动态。不知道一年后的GTC大会,AI将给这个世界带来怎样的加速变革?

作者:杏鑫娱乐




现在致电 8888910 OR 查看更多联系方式 →

COPYRIGHT 杏鑫娱乐 版权所有