全文|英伟达Q3业绩会实录:全力推进Blackwell生产 本季度交付量将超此前预估
英伟达今日公布了该公司的2025财年第三财季财报。报告显示,英伟达第三财季营收为350.82亿美元,同比增长94%,环比增长17%;不按照美国通用会计准则的调整后净利润为200.10亿美元,同比增长100%,环比增长18%(注:英伟达财年与自然年不同步,2024年1月底至2025年1月底为2025财年)。
英伟达预计2025财年第四财季营收将达375亿美元左右,超出分析师平均预期,但与最高预期的410亿美元相比存在差距。
财报发布后,英伟达创始人、总裁兼首席执行官黄仁勋和执行副总裁兼首席财务官科莱特·克雷斯等高管出席随后召开的财报电话会议,解读财报要点并回答分析师提问。
以下是分析是问答环节主要内容:
CantorFitzgerald分析师C.J.Muse:在大型语言模型扩展规模方面,显然我们现在还处于非常早期的阶段,想知道公司是如何帮助客户处理模型扩展方面出现的问题的?当然,有些服务器集群尚未采用Blackwell架构,这是否会引发对该产品更大的需求?
黄仁勋:基础模型方面,预训练的扩展规模仍在进行且进展良好。这是我从观察中看到的,而非物理定律角度得出的判断,有证据表明它仍在不断扩展。然而我们认为仅仅这样是不够的,我们已经发现了另外两种扩展的方式。
一种是训练后扩展,当然,第一代训练后扩展是强化人类反馈,但现在我们有了强化学习人工智能反馈。而且所有形式的合成数据都已生成,这些数据有助于训练后扩展。其中,最重大、最令人振奋的进展之一就是ChatGPTo1(Strawberry)模型,它实现了推断时间扩展,也就是之前所讲的测试时间扩展。它思考的时间越长,给出的答案质量就越高,而且它会考虑使用像思维链、多路径规划以及各种各样思考所需的方法,有点像我们人类在回答问题之前先在头脑中进行思考的过程。所以我们现在已经有了三种扩展方式,也正因为如此,我们看到对公司基础设施的需求真的很大。
在上一代基础模型的末期,大概是十万个Hopper的规模,下一代则从十万个Blackwell开始,这样大家大概就能了解到这个行业在预训练扩展、训练后扩展,以及现在非常重要的推理时间扩展方面的发展趋势了,需求真的很大。
与此同时,对于我们公司来说,推理方面的扩展真的已经开始了,英伟达是当今世界上最大的推理平台,已安装的设备数量非常庞大,所有在Ampere架构和Hopper架构上训练的内容,其推理也令人难以置信地在Ampere架构和Hopper架构上进行。随着我们将Blackwell用于训练基础模型,未来同样会为推理留下了庞大的设备基数。
所以,我们看到推理需求在上升,推理时间扩展在上升,原生人工智能公司的数量在持续增长,当然,我们也开始看到企业对代理式人工智能(AgenticAI)的采用,这确实是当下最新的潮流,我们看到来自很多不同地方的大量需求。
高盛分析师ToshiyaHari:黄仁勋在今年早些时候进行了大规模变革,然后上周末有一些报道提到公司芯片产品出现的散热问题。另外,已经有投资者询问你如何执行今年在游戏开发者大会(GDC)上所展示的路线图,包括明年上市的Ultra芯片和2026年向Rubin平台的过渡等。能否请你讲讲这方面的情况?一些投资者对于公司能否按时执行计划存在疑问。另外一个问题关于供应短缺,我想知道是多种零部件导致了这种情况,还是具体是因为某种特定芯片或组件,比如CoWoS封装或者HBM芯片方面的问题?短缺的情况是在好转还是在恶化?
黄仁勋:关于最后一个问题,Blackwell的生产正在全力推进,正如科莱特之前提到的,我们本季度的交付量将会超过之前的预估。供应链团队在与供应伙伴合作以增加Blackwell的产量方面做得非常出色,而且我们会在明年继续努力提高其产量。目前的情况是市场需求超过了我们的供应,我们正身处在这场生成式人工智能变革初期,所以这是预料之中的。新一代能够进行推理、能够长时间思考的基础模型刚刚推出,其中一个非常令人振奋的领域便是实体人工智能,即能够理解真实世界结构的人工智能,所以Blackwell的需求非常强劲,我们的执行情况也很顺利,团队在全球范围内正在开展大量的工程工作。包括大家看到的戴尔和CoreWeave正在搭建相关系统,甲骨文公司搭建的系统,微软也有相关系统,即将采用GraceBlackwell系统,谷歌(Google)也有相关系统,所有这些云服务提供商都在争抢先机。
英伟达和这些公司一道开展相当复杂的工程工作,原因在于虽然我们构建了全栈和完整的基础设施,但我们需将这些人工智能超级计算机进行拆分,并集成到世界各地的定制数据中心和架构中。这个集成过程我们已经经历了好几代,现在已经很擅长了,但仍然有大量的工程工作要做,从所有正在搭建的系统来看,Blackwell的情况非常好,而且正如我们之前提到的,本季度我们计划发货的数量超过了之前的预估。
关于供应链,我们建造了七种不同的定制配置,以便交付Blackwell系统,这些系统可以采用风冷或液冷方式,有NVLink8或NVLink72,或者NVLink8、NVLink36、NVLink72等不同组合,还有X86或Grace架构,将所有这些系统集成到世界各地的数据中心上,简直可以说就是一个奇迹。
要实现这样规模的产能提升,对应的所需零部件的供应链情况,你得回头看看我们上季度的Blackwell发货量是零,而本季度Blackwell系统的总发货量是以十亿为单位来衡量的,产能提升的速度令人难以置信,似乎世界上几乎每家公司都参与到了英伟达的供应链中,我们有很棒的合作伙伴,从台积电到安费诺(Amphenol)、Vertiv、SK海力士、美光、Spil、安普科(Ampcore)、京瓷(Kyec),还有富士康(FOXconn)及其建造的众多工厂、广达(Quanta)、纬颖(Wiwynn)、戴尔、惠普(HP)、超微(Supermicro)、联想(Lenovo)等等。参与Blackwell产能提升的公司数量真的相当惊人,我非常感激这些合作伙伴。
最后,关于我们执行路线图的问题,公司有年度路线图,并且预计会继续按照年度路线图执行,这样做,我们当然能够提高平台的性能。同样非常重要的是,当我们以数倍的幅度提高性能时,我们就在降低训练成本、降低推理成本、降低人工智能的成本,使其能够更容易被大众所使用。另一个需要注意的重要因素是,一个固定规模的数据中心——数据中心总是有一定的固定规模,过去可能是几十兆瓦,现在大多数数据中心是一百兆瓦到几百兆瓦,我们还在规划千兆瓦级的数据中心——不管数据中心规模多大,电力都是有限的,而当你处于电力有限的数据中心时,每瓦特的最高性能会直接转化为我们合作伙伴的最高收益。
所以一方面,我们的年度路线图降低了成本,另一方面,因为我们每瓦特电力所创造的性能比其他任何产品都要好,我们为客户创造了尽可能高的收益,所以这个年度节奏对我们来说非常重要,据我所知,一切都在按计划进行。
瑞银分析师TimothyArcuri:我想请管理层展望一下Blackwell芯片今年产能提升的情况。黄仁勋刚刚谈到Blackwell的情况比预期要好,我记得你提到发货量价值有几十亿美元,而且听起来1月份的发货量还会更多。我也记得几个月前你还说过,Blackwell在4月这个季度会超过Hopper,这一预测是否仍然有效?另外一个问题给科莱特,你提到随着Blackwell产能的提升,毛利率会下降到70%多一点,那么如果4月是产量的交叉点,是不是公司毛利率承受压力最大的时候?是不是从4月开始公司的毛利率就会处于70%多一点的低位?
科莱特·克雷斯:我们之前讨论过,在刚开始提升Blackwell的产能时,鉴于我们推向市场的多种不同配置、多种不同芯片,我们会着重确保客户在搭建相关系统时能拥有最佳体验。一开始我们的毛利率会有所下降,在这一轮供给的初期阶段,毛利率会处于70%多一点的低位。在此之后的几个季度里,我们会开始提高毛利率,并且希望能在这一轮产能爬坡的过程中非常快地恢复到75%左右的水平。
黄仁勋:Hopper的需求还将持续到明年,明年的前几个季度都会有需求。与此同时,Blackwell下一季度的发货量会比本季度多,再下一季度的发货量又会比(2026财年)第一季度多,通过这样的对比,大家应该能更清楚地了解情况。我们确实正处于计算机领域两项根本性转变的开端,意义相当重大。
首先,是从在CPU上运行编码转向在GPU上运行能创建神经网络的机器学习,这种从编码到机器学习的根本性转变目前已经非常普遍了,没有哪家公司不打算开展机器学习的,而机器学习也是催生生成式人工智能等技术的基础,全球价值万亿美元的计算机系统和数据中心如今正在为适应机器学习而进行现代化改造。
另一方面,利用这些系统,我们将要创造一种新型的能力,也就是我们熟知的人工智能。当我们谈到生成式人工智能时,本质上是说这些数据中心实际上就是人工智能工厂,就像电厂发电一样,我们开始生成人工智能了。如果人工智能的客户数量众多,就像用电的消费者数量众多一样,这些生成器,也就是数据中心,将会全天候运行,如今很多人工智能服务确实就像人工智能工厂一样在全天候运行,这种新型系统的上线确实和过去的数据中心不太一样。所以以上谈到的这两项根本性的趋势才刚刚开始,我们预计这种增长、这种现代化改造以及新产业的创建将会持续数年。
美银美林分析师VivekArya:科莱特,我想明确一下,公司有可能在2025年下半年恢复到75%左右的毛利率吗?另外一个问题问给黄仁勋,从历史经验来看,当出现硬件部署周期时,这个过程中不可避免地会包含一些市场消化的阶段,你认为我们什么时候会开始进入这个阶段?还是说因为Blackwell才刚刚起步,所以现在讨论这个问题还为时过早?需要经过多少个季度,发货量才能满足第一波的市场需求?你觉得这种增长能持续到2026年吗?我们应该如何应对长期硬件部署过程中出现的市场消化?
科莱特·克雷斯:没错,我们能在明年下半年达到75%左右的毛利率水平,这对我们来说是一个合理的假设或者说目标,但我们还得看看产能提升的具体情况进展如何。不过,确实是有这种可能性的。
黄仁勋:我认为在我们完成对价值万亿美元的数据中心进行现代化改造之前,都不会出现你所提到的消化阶段。全世界数据中心的建造,绝大多数发生于人们还在手动编写应用程序,并在CPU上运行的时期,而现在再这么做就已经不合时宜了。当今各家公司在数据中心方面的资本支出,应该为机器学习和生成式人工智能的未来而建。接下来的若干年里会发生的情况是,全球的数据中心完成现代化改造。如你所知,信息技术产业每年大约会有20%到30%左右的增长,到2030年,全球用于计算的数据中心价值有望达到数万亿美元。我们必须朝着这个方向发展,必须将数据中心从编码应用转向机器学习应用,这是第一点。
第二,生成式人工智能是一种世界前所未有的新型能力,一个全新的细分市场。比如OpenAI,它并没有取代任何东西,完全是全新的事物,在很多方面,就像iPhone问世时一样,它完全是全新的,并没有取代什么东西。我们会看到越来越多这样的公司,通过自己的服务创造并生成出智能,有些是像Runway那样的数字艺术智能,有些是像OpenAI那样的基础智能,有些是像Harvey那样的法律智能,还有像路透社那样的数字营销智能等等。
这些公司的数量,也就是所谓的原生人工智能公司,有数百个之多,而且几乎每一次平台变革时,都有互联网公司的兴起,有云优先的公司,有移动优先的公司,现在则是原生人工智能公司。这些公司之所以会不断涌现,是因为人们看到了平台变革带来了全新的机会,可以去做一些全新的事情。所以我的感觉是,我们首先要继续推进信息技术的现代化改造,实现计算领域的现代化;其次,要创建这些人工智能工厂,为生产人工智能的新产业服务。
伯恩斯坦研究分析师StacyRasgon:科莱特,你提到了毛利率处于70%多一点,73.5%在这个范围内吗?还是有其他的界定范围?另外,公司给出了下一季度的总收入展望,包括下一季度数据中心的总收入会大幅增长几十亿美元,但前面听起来似乎Blackwell业务的增长应该会超过这个数。管理层也提到Hopper的需求依然强劲,请问下一季度Hopper业务的营收会出现环比下降吗?如果是这样,原因是什么?是因为供应受限吗?中国市场一直表现得相当强劲,请问中国市场在进入四季度时是否会有所回落?能否就第四季度Blackwell的产能提升情况以及Blackwell和Hopper的表现对比给我们提供一些具体信息。
科莱特·克雷斯:关于第一个问题,70%多一点可能是71%,也许是72%、72.5%这样的范围,我们会在这个区间内,当然也有可能比这个范围更高一些,这得看实际情况发展如何。我们确实希望确保在今年接下来的时间里,我们能够不断提升产能,并持续在成品率方面以及产品本身方面有所改进,到那个时候我们会达到75%左右的水平。
关于Hopper的问题,我们看到H200销量的大幅增长,不仅是订单数量方面,而且在客户搭建相关系统的速度方面也是如此,这是一款非常棒的产品,也是我们所见过的增长和产能提升速度最快的产品。我们在第四季度肯定还会继续销售Hopper产品,涵盖我们所有不同的配置,而且这些配置也包括在中国市场的相关安排。与此同时,用户也在着手搭建他们的Blackwell架构,所以在第四季度这两种情况都会有贡献。Hopper在第三季度和第四季度有没有可能实现增长呢?是有可能的,但还得看实际情况。
摩根士丹利分析师JosephMoore:管理层能否谈一下公司在推理市场所看到的情况。管理层谈到了Strawberry,以及一些周期较长的推理拓展项目的影响,也提到了随着一些Hopper服务器集群逐渐老化,有可能会将一些Hopper闲置芯片用于推理。我想问,在接下来大概12个月的时间框架内,管理层预计推理方面的发展会超过训练方面吗?公司在这方面的大致想法是怎样的?
黄仁勋:我们的希望和梦想是,有朝一日,全世界都能进行大量的推理运算,届时,人工智能才算是真正取得了成功,希望每家公司都在内部,在营销部门、预测部门、供应链团队、法务部门以及工程部门,当然还有编程等部门内推行推理运算,我们希望每家公司都能全天候进行推理运算。未来会涌现出一大批原生人工智能初创企业,数以千计的这类企业不断生成标记(tokens)并生成人工智能。
从使用Outlook到制作PowerPoint或者Excel时,用户都在不断地生成标记,每次打开和阅读PDF文件时,也都会生成大量的标记。我最喜欢的应用程序之一就是NotebookLM(个性化的人工智能协作工具),这是谷歌推出的一款应用,我经常使用,非常有趣的一款应用,我会把每一个PDF文件、每一篇存档论文都放进去,既能听它朗读,也能浏览内容。所以我认为目标就是训练这些模型,以便用户能够便捷地使用它们。
我们已经迎来了一个全新的人工智能时代,一种我们称之为实体人工智能的全新类型人工智能,大型语言模型能理解人类语言以及我们的思维过程,而实体人工智能则理解真实世界,理解其结构的含义,明白什么是合理的、什么是不合理的,什么可能发生、什么不会发生,而且它不仅能理解,还能预测并勾勒出一个短期的未来,这种能力对工业人工智能和机器人技术来说价值非凡。
正是这一点激发了众多原生人工智能公司、机器人公司和实体人工智能公司的兴起,你们可能也有所耳闻,这也正是我们打造Omniverse平台的原因。Omniverse可以让用户能够创建这些人工智能,在Omniverse中学,从合成数据生成中学习,强化学习实体反馈而非人类反馈。目标就是生成tokens和进行推理,我们的这种能力在不断增长,大家也对此感到非常振奋。
需要补充的一点是,推理本身是非常困难的过程,一方面是因为需要高精度和高产量,以便尽可能降低成本,但同时也需要低延迟,要打造同时能满足这几个方面的要求的计算机是极其困难的。为满足理解意涵的需求,这些应用程序就必须处理上下文长度很长的内容,并在此基础上进行推理,所以上下文长度也在不断增长。另一方面,模型越来越大,它们具有多模态性。推理所涉及的创新维度数量多得令人难以置信,而这种创新速度正是英伟达架构如此出色的原因,因为我们在生态系统方面做得非常棒。
大家都知道,客户通过在英伟达架构之上基于CUDA(英伟达提供给开发人员的编程工具)进行创新,他们的创新速度就会更快,而且他们也知道一切都能正常运行的几率很高。如果出现了什么问题,很可能是他们的代码问题,而不是我们的。我们的庞大用户基础能够确保客户在各个方向上进行创新,无论客户创造出什么都能在拥有英伟达架构的计算机上落地,并能在全球各个数据中心、一直到边缘设备乃至机器人系统中进行广泛部署,这些真的是相当了不起的能力。
富国银行分析师AaronRakers:当我们聚焦于Blackwell产品周期并思考数据中心业务时,我想问科莱特,上季度的业绩情况是,你提到网络业务营收环比下降了约15%,但同时你又表示看到了非常强劲的需求。你还提到在这些大规模服务器集群方面,你们获得了多个云服务提供商(CSP)的设计订单。所以能否详细说明一下网络业务目前的状况,在哪些方面可能遇到了一些限制,以及你对Spectrum-X网络平台达到之前所提及数十亿美元规模的进展速度有多大信心?
科莱特·克雷斯:关于网络业务,其年对年的同比增长是非常可观的,自我们收购以色列芯片厂商Mellanox之初,公司的重点就一直放在共同打造我们在数据中心方面所开展的工作上,而网络业务在其中是极为关键的一部分。在将网络业务与数据中心系统合并销售方面,我们的能力一直在持续提升,而且表现相当不错。本季度只是略有下滑,预计我们很快就会恢复上升态势。各相关方正在为Blackwell做准备,会有越来越多的系统不仅会使用我们现有的网络业务,还会使用整合了英伟达架构的,众多大型系统中的网络业务。
花旗证券分析师AtifMalik:科莱特,在上一次财报电话会议上,你提到主权需求位于10-30亿区间,能否提供一下这方面的最新情况吗?另外,能解释一下游戏业务相关产品供应受限情况吗?是因为你们把供应转向了数据中心吗?
科莱特·克雷斯:首先,主权人工智能是公司业务增长的一个重要部分,随着生成式人工智能的兴起,以及世界各国构建模型的需求出现,这一点愈发凸显出来。我们看到了很多这样的情况,在今天的电话会议中也谈到了很多相关内容以及正在开展的工作。我们的相关业务以及未来的项目储备情况仍然非常理想,因为这些国家正在努力用本国语言、本国文化构建基础模型,并服务于本国企业。大家应该会继续看到这方面的增长机会,比如我们正在筹备的区域云业务,以及专注于为主权人工智能诸多方面打造人工智能工厂的业务。这方面的增长不仅出现在欧洲,在亚太地区也能看到增长态势。
关于游戏业务的问题,我们目前的工作重点是确保能够提升所有不同产品的产量。之前的销售速度很快,而现在我们面临的挑战是,本季度我们能多快将供应准备好推向市场。大家不用过度担心,我觉得随着我们进入新的一年,随着更多供应商到位,我们就能重回正轨,只是本季度供应会比较紧张。
Melius分析师BenReitzes:我有个关于公司环比增长的问题。本季度环比增长非常强劲,而且你们给出的展望是大约7%。管理层关于Blackwell的相关表述是否意味着随着供应增加,未来会再次加速增长?
科莱特·克雷斯:我们目前正在全力投入当下这个季度的工作,努力提升Blackwell相关产品的发货,全球供应商都在与我们无缝协作来达成这一目标。下一季度,我们会帮助大家了解产能提升情况,包括下一个季度以及之后的情况。
NewStreet研究分析师PierreFerragu:黄仁勋在之前的发言中提到过预训练、实际语言模型,还提到强化学习在训练以及推理过程中也变得越来越重要,然后还有推理本身。我想知道,就整个人工智能生态系统而言,比如从你的某个客户或者现有的某个大型模型的角度来看,这些方面——预训练、强化学习、推理——分别会占用多少计算资源?你对它们的分配情况以及哪里的增长最为重要有没有什么看法?
黄仁勋:在预训练基础模型方面占用的计算资源是最多的,因为如你所知,训练后相关的新技术才刚刚上线,而且无论在预训练还是训练后能做的事情,公司都会尽量去做,这样就能让所有客户的推理成本尽可能降低。在基础模型领域,现在我们有了多模态基础模型,训练的视频数据量已经达到PB级别,量级非常惊人。我的预期是,在可预见的未来,我们还将会不断扩展预训练、训练后以及推理时间的规模,我们所需要的计算资源也会越来越多,我们必须全力以赴,每次以数倍的幅度持续提高性能,继续降低成本,增加收益,推动人工智能变革不断发展。(完)