
黄仁勋认为,过去一年全世界大多数人对Scaling Law的理解都错了,这是真的吗?
“过去一年,全世界大多数人对Scaling Law(规模定律)的理解都错了。”3月19日,英伟达创始人黄仁勋在GTC(Nvidia GPU Technology Conference)2025大会提到,Scaling Law正变得更有韧性,算力消耗实际在加速。目前AI推理算力需求量可能是2024年的100倍。Scaling Law即规模化法则,指大模型性能由算力、模型、数据规模决定。它在2020年被AI创业公司OpenAI前联合创始人伊利亚·苏茨克维尔(Ilya·Sutskever)提出。这是过去三年大模型训练的奠基理论。2022年之后,中美科技公司大模型的发展都基于这一理论:买更多的算力芯片,是提升模型性能的最直接手段。Scaling Law是英伟达2022年之后高增长的叙事基础。但过去一年,Scaling Law放缓动摇了这一基础——堆算力看起来变得不经济,这让市场质疑,是否还有必要购买更多英伟达的芯片?今年1月,质疑达到顶峰。因为中国大模型创业公司DeepSeek发布论文称,“用2048张英伟达H800芯片和558万美元训练成本”训练出DeepSeek-V3,这款模型和OpenAI旗下主力模型GPT-4o性能接近。DeepSeek优化了算法结构,而不是堆砌芯片数量。投资者担忧,英伟达芯片销量会受影响。1月27日,英伟达股价一度单日下跌17%,市值蒸发近6000亿美元(报道详见《英伟达大跌,AI算力“暴力美学”模式被挑战?》)。随后一个月,英伟达股价逐渐反弹。不过,投资者对英伟达的信心并不坚定。英伟达2月26日公布2025财年(英伟达2025财年是2024年1月末至2024年1月末)财报,当年营收1304.9亿美元,同比增长114.2%;净利润728.8亿美元,同比增长148.5%。这是一份亮眼的业绩报告。但财报公布后,英伟达股价仍在下跌。2025年1月至今(截至3月20日),英伟达股价下跌约14.3%。英特尔曾用摩尔定律(半导体芯片晶体管密度每18个月翻一番,性能也随之倍增)说服客户定期采购芯片。摩尔定律因此也被称为“钟摆定律”。黄仁勋重新解释了Scaling Law,将其称为“终极摩尔定律”——提升推理效率,用单位时间、能源产生更多Token(词元,大模型推理算力计量单位,每个字符、标点都是一个Token)。其中有两个重点:黄仁勋披露了未来的芯片演进路线图,称这会“每年像时钟一样准时更新一次”——每两年一次架构演进,每一年都有新的产品,每次都会有成倍的效率提升。也就是说,“买的越多,就省得越多。买的越多,就赚得越多。”
Scaling Law原本是OpenAI前联合创始人伊利亚2020年在论文中提出的理论。这一理论影响了大模型产业此后三年的发展路径——大型科技公司(如亚马逊、微软、谷歌、阿里、字节跳动、腾讯等)因此都选择大力出奇迹,用万卡、十万卡训练更大的模型。但在2024年11月,伊利亚公开反思,过去堆砌算力的暴力手段岌岌可危,需要寻找更高效的替代方案。最直接的案例是,马斯克旗下创业公司xAI用20万枚英伟达H100/H200系列芯片训练模型,算力规模是上一代模型的10倍,模型性能却只提升了不到20%。与此同时,得益于芯片、模型、算法优化,推理算力成本正以每年10倍的速度下降(微软CEO萨提亚·纳德拉、OpenAI创始人萨姆·奥尔特曼观点)。2024年9月来,OpenAI o1和DeepSeek-R1这两款推理模型的出现意味着市场技术的方向有所转变——大模型竞争焦点从训练走向推理。国际市场调研机构IDC 2025年报告预测,2027年“训练+推理”的算力大盘中,73%将是推理算力,26%是训练算力。这和过去训练算力占比超过70%,推理算力不足30%的格局截然相反。英伟达的叙事逻辑也要重写——2025年之前是堆砌芯片数量提升模型性能,2025年之后是提升推理效率、降低推理成本。这也是黄仁勋在GTC 2025重新解释Scaling Law的核心原因。黄仁勋认为,过去一年全世界大多数人对Scaling Law的理解都错了。目前的推理效率并不高,用户需要花太长时间等待模型响应。未来需要提升推理效率。10倍的Token数量和10倍的计算速度,意味着计算量还将增加100倍。
为推销Blackwell系列芯片,黄仁勋说甚至说,“一旦Blackwell开始规模化出货,Hopper即使免费提供也将无人问津”。黄仁勋还披露了接下来的芯片演进路线图,称这会“每年像时钟一样准时更新一次”——每两年一次架构演进,每一年都有新的产品线,每次都会有成倍的效率提升。2024年英伟达实现量产的是Hopper(H100、H200)系列芯片,2025年英伟达正在全力量产Blackwell(B100、B200、B300)系列芯片,2026年英伟达将推出Rubin系列芯片。这个芯片演进路线图还披露了每一代芯片单位算力TCO(拥有成本)。Blackwell相较于上一代Hopper架构,总成本降低了87%。下一代Rubin架构性能预计将比Hopper成本降低99.97%。

在英伟达的新故事中,未来AI推理算力需求量将增长100倍,未来将诞生10万枚、100万枚芯片的数据中心。这是否意味着英伟达还将维持过去三年70%-270%的营收增速?一位芯片技术人士对《财经》表示,单位芯片的推理算力取得百倍增长,并不意味着芯片销量总额也会百倍增长。英伟达的芯片出货量受制于代工生产、市场需求等因素,只会线性增长。至少在未来1年-2年,英伟达将回归温和增长。3月初,美国金融服务机构摩根士丹利的科技、媒体和电信的主题会议曾邀请英伟达CFO(首席财务官)科莱特·克雷斯(Colette Kress)进行对话。科莱特·克雷斯透露,要保持我们之前的收入增长非常困难。我们对此非常谨慎。我们可能会在2025年看到35%左右的增长速度。这比2024年略低,但增长仍然相当强劲。过去五个季度,英伟达营收增速从265%降至78%。它的绝对增速依旧很快,却不断下滑。考虑到英伟达的营收规模基数已经很大,它的营收增速还将继续下滑。英伟达管理层在2025财年报告发布后的投资者电话会预测称,2026财年一季度(即2025年一季度)营收约为430亿美元。英伟达未来一个季度营收增速将继续下滑至65%。美国市场,大型科技公司算力采购增速在放缓。美国四大科技公司(亚马逊、微软、谷歌、Meta)2024年资本支出总额2431亿美元,总增速是63%。2025年资本支出总额预计将是3200亿美元,增速将下降到30%(报道详见《DeepSeek拉低算力需求?美国科技四巨头今年算力投资不减》)。随着大型科技公司高强度资本支出逐步回落到正常水平,英伟达的营收增速也会随之回落。今年3月,野村中国科技及电讯行业分析师段冰对《财经》表示,科技公司资本支出不可能长期维持在100%、50%以上。过去三年科技公司高强度资本支出,目的还是实现商业化落地。新的转换周期正在到来。未来两年,美国科技公司高强度资本支出还会继续放缓,行业正在进入良性发展阶段。事实上,狂飙三年的英伟达需要适度降速。这可能对短期增长不利,但更利于它的长期健康发展。黄仁勋在GTC 2025直言,Blackwell系列芯片推理效率相比Hopper系列芯片效率大幅提升后,公司销售团队对他说,“你正在减少客户的芯片购买量”。但他说,“这是更好的方案”。英伟达此举被认为更符合客户长期利益。英伟达2024年毛利率高达73%。一家硬件厂商能取得如此高的利润率,这极为罕见。这带来的诟病是,英伟达被认为过去三年吃掉了AI产业链的利润大头。一位国际云厂商人士对《财经》对此评价,产业链上下游的利益需要平衡。英伟达作为“卖铲子的人”,赚到了AI的第一轮红利。然而,AI应用尚未爆发,下游的厂商、应用厂商还没有赚到足够的钱。芯片厂商作为上游厂商,不能涸泽而渔赚光客户每一分钱。当下阶段,更应该让利下游。
责编 | 王 宁
