全文

北京时间2月27日,英伟达公布2025财年第四财季及全年财报:第四财季营收为393.31亿美元,同比增长78%,环比增长12%;净利润为220.91亿美元,同比增长80%,环比增长14%;不计入某些一次性项目(不按照美国通用会计准则),英伟达第四财季调整后净利润为220.66亿美元,同比增长72%,环比增长10%(注:英伟达财年与自然年不同步,2024年1月底至2025年1月底为2025财年)。

英伟达2025财年第四财季营收和调整后每股收益均超出华尔街分析师此前预期,整个2025财年的业绩同样超出预期;对2026财年第一财季营收作出的展望也超出预期,从而推动其盘后股价上涨逾2%。

详见:英伟达第四财季营收393.31亿美元 净利润同比大增80%

财报发布后,英伟达创始人、总裁兼首席执行官黄仁勋和执行副总裁兼首席财务官科莱特·克雷斯等高管出席随后召开的财报电话会议,解读财报要点并回答分析师提问。

以下是分析是问答环节主要内容:

Cantor Fitzgerald分析师C.J. Muse:我们看到计算强化学习领域的前景非常广阔,也明显能看到训练和推理之间的界限日益模糊。这对未来专门用于推理的集群有何潜在影响?管理层如何看待其对客户的整体影响,尤其是在视频领域?

黄仁勋:目前有多种扩展模式,首先,预训练扩展模式会持续发展,其涉及多模态领域,并且推理技术已经被用于新的预训练中,这是推理领域的新突破。第二种是利用强化学习进行的训练后扩展,比如通过人类反馈、人工智能反馈进行强化学习,还可以设定强化学习的具体奖励机制。

实际上,训练后扩展阶段所使用的计算量比预训练阶段还要高,这是合理的。因为在使用强化学习时,可以生成大量合成数据或合成标记,人工智能模型从本质上说就是通过生成标记来训练其他模型。第三部分是你提到的测试时计算,或者说是推理扩展,围绕基本相同的理念进行不同的扩展。

目前,推理所需的计算量已经是大语言模型最初单次示例和单次学习能力所需计算量的100倍,而这仅仅是个开始,我们预计下一代模型可能会基于模拟和搜索技术,计算量需求将是现在的数千倍,甚至有望达到数十万倍、数百万倍。有些模型是自回归模型,有些是基于扩散模型,各不相同。有时我们希望看到数据中心具备强大的综合推理能力,有时又需要其具备紧凑的特性,因此很难确定数据中心的最佳配置。

这也就是为什么英伟达的架构如此受市场欢迎,因为我们能运行各种模型。如今,我们大部分计算资源其实都用于推理,而Blackwell架构更是将这一切提升到了新高度。我们在设计Blackwell时就考虑到了推理模型的需求,虽然训练能带来更高的性能提升,但真正惊人的是在长时间推理测试时的扩展能力,人工智能推理模型的性能提升可达10到25倍。

所以,Blackwell在各方面都表现卓越。如果数据中心能让你根据当前的任务需求——无论是进行更多预训练、训练后扩展,还是扩展推理能力——来配置和使用,那么这种架构就是灵活且易于使用的。实际上,我们看到统一架构的集中度比以往任何时候都要高得多。

摩根大通分析师Joseph Moore:我想问一个关于GB200芯片的问题,之前管理层提到过机架级系统的复杂性以及其面临的挑战。正如在前面发言中提到的,该产品已经有了广泛的可用性,我想知道其在产品推广方面进展如何?在系统层面是否还有其他瓶颈需要考虑?另外,管理层对于GB200平台的热情是否依旧?

黄仁勋:我现在对GB200的热情比在消费电子展期间(CES)更高,原因是我们在GB200上投入了更多精力。每个Blackwell机架包含150万个组件,其制造由大约350工厂完成,技术极其复杂,上一季度,我们成功推出Grace Blackwell(GB)产品,带来了110亿美元的收入。由于需求旺盛,客户急切地希望获得Blackwell系统,我们还需要继续扩大生产规模。

你可能在网上看到过很多关于GB系统上线的庆祝消息,我们自己的工程部门也安装了大量该系统。Open人工智能公司也开始使用,并且越来越多的系统正在上线。所以,针对你提出的问题,我认为我们所做的事情并不容易,但我们做得很好,所有合作伙伴也都表现出色。

美银美林分析师Vivek Arya:我想知道第一季度的利润率是否为全年的最低点?另外,管理层是依据什么来判断强劲的需求能持续到明年?新出现的创新成果是否会改变这一预期?

科莱特·克雷斯:目前,在Blackwell系统的增产过程中,利润率处于70%多一点的水平。我们正专注于加快生产速度,确保能尽快为客户提供产品。一旦Blackwell的增产目标完全实现,我们就能降低成本,提高利润率,预计今年晚些时候,利润率可能会达到75%左右的水平。你也听到了黄仁勋对当前系统复杂性的介绍,这些系统在某些情况下可以供客户定制,有多种网络选项,还具备液冷和水冷功能。所以未来有机会进一步提高利润率,但目前我们的重点是尽快将产品交付给客户。

黄仁勋:关于第二个问题,我们对于一些情况有比较清晰的了解,比如我们大致了解数据中心的资本投资规模,也知道未来绝大多数软件将基于机器学习开发。因此,加速计算和通用人工智能推理将成为数据中心理想的架构类型,此外,我们还掌握主要合作伙伴的业绩预测和计划。

并且,我们知道有许多创新型初创公司不断涌现,其推出的令人振奋的技术成果也为人工智能领域的下一个突破提供了新机遇,无论其产品和技术属于智能体人工智能、推理人工智能,还是用于实体经济领域的人工智能。初创公司的数量依然很多,它们都需要大量的计算基础设施。

所以,我认为从近期来看,有各种预测和计划作为信号;从中期来看,基础设施的规模和资本支出与往年相比是一个重要信号;从长期来看,我们深知软件已经从在中央处理器(CPU)上运行的手工编码,转变为在图形处理器(GPU)和加速计算系统上运行的基于机器学习和人工智能的软件。我们很清楚这就是软件的未来走向。

也许人工智能在搜索,部分消费级通用产品,以及广告推荐等领域的应用目前还只是软件发展的初期阶段,但接下来,企业级智能体人工智能、机器人领域的实体人工智能,以及不同地区构建的主权人工智能,还有用于各种操作系统的人工智能都将兴起。这些领域才刚刚起步,我们能够预见到它们的发展,英伟达显然处于这一发展的核心位置,能观察到各个领域的蓬勃发展,无论是近期、中期还是长期来看,这些发展必然会到来。

摩根大通分析师Harlan Sur:你们的下一代产品Blackwell Ultra预计今年下半年推出,与团队的年度规划一致。考虑到你们目前仍在扩大当前一代Blackwell解决方案的生产规模,客户和供应链将如何同时应对这两款产品的推广?团队是否仍按计划在今年下半年推出Blackwell Ultra?

黄仁勋:是的,Blackwell Ultra将于今年下半年推出。大家知道,第一代Blackwell在推出时遇到了一些小问题,导致推迟了几个月,但我们当然已经完全恢复,团队以及所有供应链合作伙伴都付出了巨大努力,很多人都帮助我们渡过了难关。现在我们已经成功扩大了Blackwell的生产规模,但产品研发的脚步不会停止,新产品的推出会遵循产品发布的年度节奏。

Blackwell Ultra将配备新的网络、内存和处理器,目前我们已经与所有合作伙伴和客户沟通协调,他们掌握了必要信息,这次我们会和大家一起做好Blackwell到Blackwell Ultra的平稳过渡。两款产品的系统架构完全相同,而从Hopper架构过渡到Blackwell架构要困难得多,因为需要从基于NVlink 8的系统升级到了基于NVlink 72的系统,机箱、系统架构、硬件、电源供应等都需要改变,那是一次极具挑战性的过渡,但下一次过渡会很顺利,Grace Blackwell也能顺利接入。我们已经和所有合作伙伴进行了评估,并紧密合作推进后续工作,我们后续还会推出名为Rubin的下一代芯片。所有合作伙伴都在加快脚步,为这次过渡做准备。Blackwell Ultra将带来巨大的性能提升,在即将到来的英伟达人工智能技术大会(GTC)上,我们会详细介绍Blackwell Ultra、Rubin及其他新的计算、网络、推理人工智能和实体人工智能产品。

瑞银分析师Timothy Arcuri:我们经常听到关于专用集成电路(ASIC)方面的消息,能否请管理层谈谈ASIC和通用GPU之间的平衡?我们听说一些前沿的超级集群同时使用GPU和ASIC,这是客户的规划方向吗?还是说这些基础设施会保持明显的区分?

黄仁勋:在某些方面,我们的产品和ASIC有很大不同,甚至在一些领域完全不同。我们的架构有以下几个不同之处:其一,英伟达的架构是通用架构,针对自回归模型、扩散模型、视觉模型、多模态模型和文本模型等都进行了优化,在各个领域都表现出色。因为我们拥有丰富的软件堆栈和生态系统,这使我们成为大多数优秀创新和算法产品的首选目标。所以从定义上来说,我们的架构比ASIC更通用,应用范围更广。其二,从数据处理、训练数据整理、数据训练,到训练后使用强化学习,再到推理测试时扩展,我们的整个流程都表现出色。我们的架构通用且服务于端到端方面的需求,应用非常广泛,而且我们的产品不局限于某一个云平台,而是适用于各种云平台,既可以用于云端服务器,也可以用于机器人。对于任何一家初创公司来说,我们的架构更容易获取和使用,可以说是他们的理想选择。其三,我们产品的性能提升速度极快。要知道,数据中心的规模和功率通常是固定的,如果我们产品的性能每瓦特能提升2倍、4倍甚至8倍,而这并不罕见,就直接意味着成本的降低。比如有一个100兆瓦的数据中心,如果该数据中心的性能或产量量提高4倍或8倍,那么其收入也会相应提高。与过去的数据中心不同,如今的人工智能工厂可以基于标记生成量直接实现产生收入,所以英伟达架构在快速生成标记方面的优异表现,对于所有为了盈利而构建这些数据中心的公司来说都极具价值。

另外,人工智能发展非常迅速,要在多个芯片上构建完整的生态系统并非易事。最后我想说,芯片设计出来并不意味着就能投入使用,这种情况屡见不鲜。到了实际应用阶段,需要做出商业决策,决定是否将新的引擎或处理器应用到规模、时间和产品线都有限的人工智能工厂中。我们的技术不仅越来越先进、性能越来越高,软件功能也更强大,更重要的是,我们的部署速度极快。大家都清楚这些优势,这就是我们表现出色、能够脱颖而出的原因。

Melius Research分析师Ben Reitzes:想请教黄仁勋一个关于公司在不同地区拓展的问题。你之前非常明了地解释了一些支撑需求增长的因素,的确,美国市场的收入环比增长了约50亿美元,但市场担心如果其他地区出台相关监管政策,美国市场能否弥补可能出现的需求缺口。想请问,在接下来的一年里,如果美国市场的这种增长态势持续,是否足以支撑公司的整体增长?

黄仁勋:关键在于,人工智能是一种现代软件,而且已经成为主流技术。人工智能在配送服务、购物服务等各个领域都有应用,比如你购买牛奶并享受配送服务,这其中就有人工智能的参与。几乎所有的消费服务都以人工智能为核心,每个学生都可能使用人工智能作为学习辅导工具,医疗保健服务、金融服务也都在使用人工智能,如今没有一家金融科技公司不使用人工智能,气候科技公司也在使用人工智能,矿产勘探现在也用到了人工智能,每所大学都在应用人工智能。所以可以说,人工智能已经融入到各个应用领域,成为主流技术。

我们希望技术能够持续安全地发展,为社会带来积极影响。我相信我们正处于这一新技术变革的开端。回顾过去,几十年来我们构建了大量的数据中心和计算机,它们都是为手工编码和通用计算以及CPU计算时代设计的。而展望未来,可以说世界将几乎完全被人工智能所改变,所有软件和服务最终都将基于机器学习。数据飞轮效应(指数据驱动业务增长的循环效应)将发挥巨大作用,这是前所未有的,人工智能将比以往任何时候都更广泛地影响全球GDP。我们在考虑公司增长以及市场规模大小时,需要从这个大背景出发,而从这个角度来看,我们其实才刚刚起步。

Evercore ISI分析师Mark Lipacis:有几个问题我想同管理层确认一下,首先,你们是否提到数据中心业务板块中的企业业务在1月份这一季度同比增长了2倍?这是否意味着企业业务的增长速度比超大规模数据中心提供商更快?另外,超大规模数据中心提供商是你们产品的最大采购方,但随着新的人工智能工作负载和应用不断涌现,管理层认为企业业务在采购结构中的占比会增加吗?这会对你们的服务和生态系统产生什么影响?

科莱特·克雷斯:关于企业业务的问题,我们的确实现了同比2倍的增长,这和我们在大型云服务提供商业务上看到的增长情况类似,这两个领域都很重要。与云服务提供商合作,既可以参与大语言模型的开发,也可以进行自有业务的推理计算。同时要注意的是,企业也在参与这些工作,企业既与云服务提供商合作,也在自主构建相关业务。

黄仁勋:云服务提供商业务约占我们总业务的一半,云服务提供商有内部业务和外部业务。我们当然会参与他们的内部业务建设,并且与他们紧密合作,优化其内部工作负载。其拥有大量英伟达设备,我们的产品既可以用于人工智能计算,也可以用于视频处理,以及包括Spark大数据处理框架在内的数据处理等。我们的基础设施使用寿命更长,因此总体拥有成本(TCO)也就越低。

展望企业业务未来的增长情况,我认为从长期来看,企业业务规模会比现在大得多,原因是如今人工智能尚未充分服务的主要是工业领域。以汽车公司为例,汽车公司既生产软件产品,也生产硬件产品。对汽车公司来说,公司员工使用的业务系统属于企业业务范畴,智能体人工智能、软件规划系统和工具可以提高员工的工作效率,帮助他们进行设计、营销、规划和运营公司。另一方面,汽车制造也需要人工智能 ,需要一个人工智能系统来训练汽车,如今全球道路上行驶着数亿辆汽车,未来某一天可能会达到10亿辆,而且每一辆汽车都将是自动驾驶汽车。汽车公司有汽车工厂和人工智能工厂,汽车本身也是一个机器人系统。

由此可见,这里涉及到三种计算:一种是帮助员工工作的计算,一种是为机器,无论是汽车、拖拉机、割草机,也可能是正在研发的人形机器人或其他设备,还可能是建筑物、仓库等实体系统等构建人工智能的计算。这些实体系统需要一种新型人工智能,我们称之为实体人工智能,实体人工智能不仅要理解语言的含义,还必须理解现实世界中的摩擦力、惯性、物体恒存性和因果关系等常识,对人工智能来说,这些都需要学习。利用智能体人工智能来彻底改变公司内部的工作方式的发展才刚刚起步,我们现在正处于智能体人工智能时代的开端,但已经出现了一些出色的成果。再就是第二种,我们所提到的实体人工智能也会迎来大发展,再之后就是机器人体系。所以这三种计算需求都是全新的,我认为从长期来看,这将是规模最大的市场,这也很合理,毕竟全球GDP主要由各个行业和企业贡献,而这些行业和企业都需要这些计算支持。

富国银行分析师Aaron Rakers:请教黄仁勋,距离2023年公司Hopper架构推出已经快两年了,其带来了人工智能,特别是生成式人工智能领域的变革。展望未来的发展路线图,从设备更换周期的角度来看,你如何看待已部署的基础设施,比如GB300系列产品或者Rubin芯片,市场是否会迎来更新换代方面的可能性?

黄仁勋:目前,人们仍在使用Volta、Pascal和Ampere架构的产品,原因是这些架构具有很强的可编程性,在很多场景下都能发挥作用。其中一个主要的应用场景是数据处理和数据采集,以汽车为例,如果用户将某个场景输入视觉语言模型,视觉语言模型在分析该情况后会给出反馈,表明自身处理效果欠佳,那么用户可以将这个反馈作为提示,让人工智能在庞大的数据池中搜索类似情况,再进行域随机化处理,生成大量其他示例,之后再对所有数据进行训练。你可以利用Ampere架构的设备进行数据处理、数据整理以及基于机器学习的搜索,然后创建训练数据集,再将其输入到Hopper系统中进行训练。这些架构完全都是相互兼容的,所有数据都能在各种架构上运行。如果你已经搭建好了基础设施,就可以把负载较低的任务交给旧有设备处理。

花旗证券分析师Atif Malik:我有一个关于利润率的后续问题。我知道Blackwell产品涉及很多复杂因素,利润率会受到产品组合等因素的影响。你之前提到4月这个财季可能是利润率的底部,为了在本财年末达到75%左右的利润率水平,下半年每个季度利润率需要提升约200个基点。管理层对于这一目标走势和今年下半年的情况仍然抱有信心的原因有哪些?

科莱特·克雷斯:我们的毛利率情况,受到原材料,以及Blackwell系统整合情况的影响,相当复杂,但随着时间推移,我们有众多机会可以更好地改善毛利率水平。首先,Blackwell系统有多种不同配置,能帮助我们实现毛利率改善的目标,在为客户完成一些大规模产能提升工作之后,我们就能共同开展很多相关工作,只要条件允许,我们可能会尽快开始,如果能在短期内提升毛利率,我们也会去做。

黄仁勋财报会结语:市场对Blackwell产品的需求极其旺盛,人工智能正从感知和生成式人工智能向推理式人工智能发展。在推理式人工智能领域,我们看到了另一种缩放定律,即推理时间或测试时间缩放定律:计算量越大,模型思考得越多,答案也就越智能,像OpenAI、Grok-3、DeepSeek R1,就是应用推理时间缩放的推理模型。推理模型的计算量可能是普通模型的百倍之多,未来的推理模型计算量会更大。DeepSeek R1点燃了全球的热情,这是一项卓越的创新,但更重要的是,它开源了一个世界级的推理人工智能模型。几乎每位人工智能开发者都在应用R1或思维链,以及类似R1的强化学习技术来提升他们模型的性能。

正如我之前提到的,如今有三条缩放定律推动着人工智能计算的需求。传统的人工智能缩放定律依然存在,基础模型正通过多模态技术得到增强,预训练也在持续发展,但这已不足以满足需求。我们还有两个额外的缩放维度:一是训练后缩放,其中强化学习、微调、模型蒸馏所需的计算量比单独预训练要高出几个数量级;二是推理时间缩放和推理,单个查询的计算需求可能是原来的百倍。我们专为当下需求设计了Blackwell平台,这是一个能够轻松在预训练、训练后和测试时间缩放之间切换的单一平台。Blackwell的FP4变压器(Transformer)引擎、NVlink 72扩展架构和新软件技术,使其处理推理人工智能模型的速度比Hopper快25倍,Blackwell的所有配置都已全面投入生产。每台GB NV link 72机架都堪称工程奇迹,因其由近10万家工厂的操作人员在350个制造地点生产出150万个组件所构成。人工智能正经历极速发展,多模态人工智能、企业人工智能、主权人工智能和实体人工智能即将到来。

展望未来,我们在2025年将迎来强劲增长,数据中心将把大部分资本支出用于加速计算,人工智能数据中心将越来越多地转变为人工智能工厂。 无论是通过租赁,还是自行运营,每一家公司都将拥有自己的人工智能数据中心。感谢大家今天参加我们的财报会,几周后的英伟达GTC大会上我们还会相聚,届时我们将探讨Blackwell Ultra、Rubin,以及其他新的计算、网络、推理人工智能、实体人工智能产品等诸多内容。谢谢。(完)


新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

 
举报 收藏 打赏
24小时热闻
今日推荐
浙ICP备2021030705号-2