英伟达电话会:黄仁勋强调“推理”的计算需求爆棚,可能比目前多数百万倍

华尔街见闻02-27

周三美股盘后,英伟达CEO黄仁勋在2025财年第四季度财报电话会议上表示,公司对AI推理带来的潜在需求感到兴奋,这类计算需求预计将远超当前的大语言模型(LLM),可能需要比现有计算能力高出数百万倍。

黄仁勋称,我们所做的事情并不容易,但英伟达在提升供应能力方面表现良好。AI软件将是一切数据中心的一部分,无论是短期、中期还是长期迹象都持续向好。他进一步确认,Blackwell系列芯片的供应链问题已完全解决,供应问题不曾妨碍到下一次训练和后续产品的研发。此外,Blackwell Ultra计划于2025年下半年发布

黄仁勋还指出,任何人都处在新科技转型的起点,所有软件和服务都将和AI相关。

英伟达CFO Colette Kress指出,感恩节和圣诞节期间的游戏硬件需求依然强劲,但整体营收仍受到供应限制的影响。不过,他预计供应问题将得到缓解,使得增速在当前季度迎来 “喷发”。

针对盈利能力,CFO指出,一旦Blackwell增产,利润将有所改善,并预计到2025年年底,利润率将在70%-80%区间的中部。然而,他强调,目前的首要任务是向客户交付尽可能多的产品。大客户和企业客户的增速大致相同。

中国市场方面,黄仁勋表示,四季度营收季环比大体上持平。

以下为问答全文:

Q1:随着测试时计算和强化学习展现出巨大潜力,我们明显看到训练与推理之间的界限正在变得越来越模糊。那么,这对未来专门用于推理的计算集群可能意味着什么?您如何看待这一趋势对英伟达及其客户的整体影响?

CEO:现在存在多种计算扩展规律。第一种是预训练扩展规律,这个趋势仍会持续增长,因为我们正在进入多模态时代,并且现在的推理生成数据也可以用于预训练。

第二种是后训练扩展规律,它涉及强化学习,包括人类反馈强化学习、AI反馈强化学习,以及可验证奖励强化学习。在后训练阶段,所需的计算量实际上比预训练更大。这也合乎逻辑,因为在使用强化学习时,AI可以生成大量合成数据或合成Token,并利用这些数据进一步训练AI模型,这就是后训练。

第三种,也就是你提到的部分,测试时计算或推理、长思维推理扩展。

它们本质上都是相同的概念。在推理过程中,我们有链式思维和搜索,所生成的Token量以及所需的推理计算量已经比最初的大语言模型(LLM)中的单步推理高出100倍,而这仅仅是个开始。

未来,我们可能会看到计算需求增长至当前的数千倍甚至数百万倍,AI 模型将变得更加智能,具备更强的思考能力,并依赖更复杂的模拟和搜索推理。因此,关键问题是:如何设计适应这种演进的计算架构?

当前,不同AI模型有不同的架构需求——有些是自回归模型,有些是基于扩散的模型。有时,数据中心需要采用分布式推理,有时则需要紧凑式架构。因此,很难确定 最优的数据中心架构。

这正是英伟达架构如此受欢迎的原因——我们的平台能够支持所有类型的 AI 模型。我们不仅擅长训练,事实上,目前大部分计算资源都用于推理,而Blackwell进一步提升了推理能力。我们在设计Blackwell时,就考虑到了面向推理的需求,让AI能够处理更加复杂的任务。

在训练方面,Blackwell的性能已经提升了数倍。但真正令人惊叹的是,在长思维推理、测试时扩展、推理AI方面,性能提升更为显著——推理吞吐量提高了25倍,计算速度提升数十倍。因此,Blackwell在各个方面都将带来卓越表现。

当企业在构建数据中心时,他们需要根据不同阶段的需求进行调整,比如当前是否侧重预训练,是否专注于后训练,或者是否需要大规模扩展推理计算。英伟达的架构具有高度灵活性,可以轻松适应这些不同的计算模式。

因此,我们观察到,越来越多的企业正在集中采用统一架构,比以往任何时候都更加明显。这证明了英伟达的架构在各个AI计算环节都具备极高的适用性和领先优势。

Q2:请谈一谈GB200在CES(国际消费电子展)上的情况。您之前提到过机架级系统的复杂性以及所面临的挑战。此外,正如您在准备好的发言中所提到的,我们已经看到许多产品进入全面供应阶段。请问GB200的量产进展如何?在系统层面,除了芯片层面的问题之外,是否仍然存在瓶颈需要考虑?另外,您是否依然对NGL72平台充满信心?

A2:实际上,我现在比在CES(国际消费电子展)时更为兴奋,因为我们在CES之后出货量大幅增长。

目前,我们有约350家工厂在生产每台Blackwell机架(Grace Blackwell机架)所需的150万个组件。是的,这确实极其复杂,但我们已经成功地加速量产Grace Blackwell,并在 上个季度实现了约110亿美元的营收。

由于市场需求极其旺盛,客户们都急切且迫不及待地想要获得他们的Blackwell系统,因此,我们必须持续扩大产能。

你可能已经在网络上看到许多关于Grace Blackwell系统上线的庆祝消息。目前,我们自己也部署了大量Grace Blackwell设备,供内部工程团队、设计团队和软件团队使用。此外,CoreWeave已公开宣布他们成功上线该系统,微软也已部署,OpenAI当然也在使用,此外还有许多客户的系统正在陆续投入运行。

所以,我的答案是:我们所做的一切都极具挑战,但进展顺利,我们和所有合作伙伴都做得非常出色!

Q3:我想请您确认一下,第一季度是否会成为毛利率的最低点?您如何判断当前强劲的市场需求能够持续到明年? 在您的观察中,哪些关键因素让您对市场前景保持信心?此外,DeepSeek及其最新创新是否对您的这一判断产生了影响?

CFO:关于毛利率,在Blackwell推广初期,我们的毛利率将处于70%初段。

目前,我们的首要任务是加快制造进度,确保尽快将产品交付给客户。一旦Blackwell完全量产,我们将能够进一步优化成本,从而提升毛利率。预计今年晚些时候,毛利率可能会提升至70%中段水平。

正如您刚才听到黄仁勋所提到的,系统架构本身相当复杂,在某些情况下需要高度定制化,并且提供多种网络连接选项,包括液冷和水冷方案。

因此,我们确实有机会在未来进一步提升毛利率。但目前,我们的首要任务仍然是尽快完成生产,并尽快将Blackwell交付至客户手中。

CEO:我们掌握了几个重要的信息。首先,我们对 数据中心的资本投资规模 有相当清晰的了解。未来,绝大多数软件都将基于机器学习,因此加速计算、生成式AI以及推理AI将成为数据中心所需的核心架构。

其次,我们拥有来自顶级合作伙伴的预测和规划,同时,我们也看到许多充满创新精神、令人振奋的初创公司仍在不断涌现。这些公司正致力于AI领域的下一个突破,无论是自主智能体 AI、推理AI还是物理AI,每一家公司都需要大量的计算基础设施来支撑其研发。

从市场信号来看,我们可以分为短期、中期和长期三个维度:

短期信号主要包括 采购订单和合作伙伴的预测数据,这些数据能够直接反映市场需求。

中期信号关注基础设施和资本开支的扩展速度,相较于前几年,我们看到整体规模正在迅速扩大。

长期信号——从根本上来说,软件开发范式已经发生变化,从过去基于CPU的手工编码,转向基于GPU和加速计算的机器学习与AI驱动软件。这表明AI计算架构将成为未来主流。

从整体趋势来看,我们目前才刚刚进入消费级AI时代,包括 搜索、生成式 AI、广告、推荐系统 等应用仍处于早期阶段。下一波浪潮将涉及企业级自主智能体AI、机器人AI,以及各国构建的主权AI,用于打造本地化AI生态系统。

这些领域才刚刚起步,但我们可以清晰地观察到它们的发展势头。由于英伟达处于这些创新浪潮的核心,我们能够看到各个方向上都在发生大量创新,并且这些变革必然会实现。因此,从短期到长期,我们对市场前景充满信心。

Q4:英伟达下一代Blackwell Ultra计划在今年下半年推出,保持了团队年度产品发布节奏。黄仁勋,您能否帮助我们理解Ultra的市场需求情况? 目前,你们仍 加速推进现有Blackwell产品的量产,那么在这种情况下,客户和供应链如何同时管理这两代产品的并行推进?此外,Blackwell Ultra是否仍然按计划将在今年下半年推出?

CEO:是的,Blackwell Ultra仍计划在今年下半年推出。

关于第一代Blackwell,我们确实遇到了一些小插曲,可能导致了 几个月的延迟,但我们已经 完全恢复。团队在解决问题方面做得非常出色,我们的 供应链合作伙伴 也提供了极大的支持,帮助我们 以极快的速度完成恢复。现在,Blackwell已经成功量产,但这不会影响我们下一代产品的推进。

我们的产品开发遵循年度节奏,Blackwell Ultra将搭载全新网络架构、新型内存以及升级版处理器,所有技术都将在今年下半年全面上线。

我们一直在与合作伙伴和客户紧密合作,并为他们提供了所有必要的信息,确保大家能够 顺利完成产品过渡。这次的Blackwell到Blackwell Ultra过渡将会更加顺畅,因为它们的 系统架构完全相同。

相比之下,从Hopper过渡到Blackwell难度更大,因为我们从NVLink 8直接升级到了NVLink 72,导致 机箱设计、系统架构、硬件、电源供应等方面都需要调整,这一转变的挑战相当巨大。但Blackwell Ultra的升级不会有这些问题,它能够无缝衔接到现有系统。

此外,我们已经 提前向合作伙伴披露并展开了下一代产品的合作,下一步将是Vera Rubin,目前所有合作伙伴都在为这次升级做准备。我们也在全力推进下一阶段的产品迭代,届时会带来巨大性能提升。

欢迎大家来GTC大会! 届时我会详细介绍Blackwell Ultra、Vera Rubin及其后续产品,这些都是 极具突破性的创新技术,非常值得期待。请大家一定要来GTC了解最新动态!

Q5:我们最近听到了很多关于定制ASIC的讨论。您能否谈一谈定制ASIC与标准GPU之间的平衡?此外,我们还了解到某些异构超级计算集群计划同时使用GPU和ASIC。请问客户是否真的在构建这种混合架构?还是说,这些计算基础设施仍将保持相对独立?

CEO:我们与ASIC的构建方式完全不同。在某些方面,我们的技术路线完全不同,而在某些领域,我们确实会有所交集。但总体而言,我们与ASIC存在几个关键差异。

首先,英伟达的架构是通用的。无论是自回归模型、基于扩散的模型、计算机视觉模型、多模态模型还是文本模型,我们都能提供卓越的计算能力。

之所以能做到这一点,核心原因在于 我们的软件生态极其丰富,架构具有 高度灵活性。这使得英伟达成为了几乎所有前沿创新和新算法的首选平台。本质上,我们的架构远比专用ASIC 更具普适性。

其次,英伟达提供端到端解决方案。从数据处理,到训练数据的整理,再到模型训练,以及强化学习在后训练阶段的应用,最终再到推理和测试时扩展,我们覆盖整个AI计算流程。因此,我们不仅通用,而且覆盖完整的计算链条。

此外,我们的架构无处不在。英伟达不是只服务于某一个云计算平台,而是适用于所有云计算,并且可以部署在本地数据中心,甚至可以应用于机器人。这意味着,英伟达的架构相比ASIC更加开放、灵活,且更容易被新兴企业采用。对于任何一家正在创业或开发新技术的公司,英伟达都是一个极具吸引力的首选平台。

最后,我想说的是,我们的技术迭代速度快得令人难以置信。

请记住,数据中心的规模始终是固定的,无论是 物理空间还是功耗,它们都有明确的上限。如果我们的性能功耗比提升2倍、4倍甚至8倍,那么这将直接转化为更高的收入。

举个例子,如果一个数据中心的功率上限是100兆瓦,而在相同功耗下,我们的计算性能或吞吐量提高4倍或8倍,那么这个数据中心的收入也将相应提高8倍。这与传统数据中心的模式截然不同,因为AI工厂具有直接变现能力,它们的收入来源于生成的Token。我们的架构推理吞吐量极高,这对所有致力于AI商业化的企业来说都极具价值,因为他们希望快速获得投资回报。

因此,我认为第三个关键因素是性能。

第四个因素是软件生态的复杂性。

开发一个ASIC(专用芯片) 与我们所做的工作本质上并无不同,但英伟达架构之上的软件生态系统现在比两年前复杂10倍。这很容易理解,因为全球正在英伟达生态上开发的软件量呈指数级增长,AI技术的发展速度也越来越快。因此,要在多种芯片架构上构建完整的软件生态,难度极高。

最后,我想强调一点:设计一颗芯片≠实际部署。

我们见过太多失败的芯片案例,设计出来并不意味着它能真正落地。最终,企业必须做出商业决策,选择是否 将新的计算引擎或处理器部署到 有限的AI工厂之中,而这些工厂受制于规模、功耗和时间。

我们的技术不仅更加先进、性能更强,在软件生态方面更具优势,同时部署速度极快。这些都不是轻而易举的事情,正如大家现在所看到的。

综上所述,正是这些因素,使得英伟达在竞争中持续获胜。

Q6:黄仁勋,这个问题与地理市场相关。您刚才已经很清楚地解释了当前强劲需求背后的驱动因素。但是,我们注意到,美国市场环比增长了约50亿美元,与此同时,一些人担忧如果其他地区受到监管限制,美国市场是否能弥补这一缺口。因此,我想请问,如果美国市场的增长势头持续到今年全年,这是否足以支撑英伟达的增长?此外,您的高速增长是否依赖于市场结构向美国的倾斜?另外,您的指引显示中国市场环比可能有所增长,您能否详细讲解全球市场的动态?也许Colette也可以补充一下?

CEO:中国市场的占比与第四季度及之前几个季度基本持平,大约是出口管制前的一半,但其整体比例仍保持稳定。

关于不同地区的市场情况,我想强调一个核心观点:AI本质上是一种软件,它是现代软件,非常先进,但归根结底,它仍然是软件。而如今,AI已经成为主流技术。

AI无处不在,它被广泛应用于配送服务和购物服务。无论你购买一盒牛奶,还是享受其他消费服务,AI都会在其中发挥作用。

AI已经深入到各个行业,成为不可或缺的一部分:每一位学生都会使用AI作为学习助手;医疗服务依赖AI进行诊断和数据分析;金融科技公司无一例外都在使用AI;气候科技和矿产勘探也都借助AI进行分析和优化;高等教育机构和大学也已将AI深度融入教学和研究。

因此,我认为可以相当肯定地说,AI已经全面进入主流应用,并且已经被集成到几乎所有软件和服务之中。

我们的希望是,AI技术能够继续安全发展,并且能够为社会带来积极影响。从这个角度来看,我相信我们正处于这一全新时代的起点,AI的大规模应用才刚刚开始。

我所说的“我们正处于这个新时代的起点”,是指在我们身后,已经有数十年积累的数据中心和计算机基础设施。这些系统是为手工编码和通用计算而构建的,它们主要依赖CPU等传统架构。

然而,展望未来,几乎所有软件都将被AI深度融合,最终,所有的软件和服务都将基于机器学习。数据飞轮效应也将成为持续优化软件和服务的重要推动力。

未来的计算架构将会是加速计算,而AI将成为计算的核心。我们现在才刚刚走过几年的发展历程,而现代计算机的演进已经经历了数十年的建设。因此,我可以相当确定,我们正站在这一全新时代的起点。

最后,AI是历史上第一个能够覆盖全球GDP绝大部分领域的技术。过去,从未有任何软件工具能够像AI这样,影响如此广泛的经济领域。而AI作为一个全新的软件工具,其市场规模比以往任何时候都更大,能够影响并渗透全球经济的各个角落。

因此,我们在思考增长时,不能再用传统的眼光来看待市场规模的大小。如果从更宏观的角度审视,我们现在所经历的,仍然只是AI时代的初期阶段。

Q7:Colette,我想先确认一个数据,您是否提到数据中心中的企业业务在1月季度同比增长了2倍?如果是这样的话,这一增长速度是否已经超过了超大规模云计算公司?黄仁勋,我有关于超大规模云计算公司的采购问题:超大规模云计算公司是英伟达解决方案的最大买家,但他们的采购主要用于两种工作负载——内部工作负载,即他们自己运行的AI计算任务;外部工作负载,即向企业客户提供的云计算服务。请问,超大规模云计算公司在这两种工作负载上的支出比例如何?随着新AI工作负载和应用的增长,您是否预计企业客户将在AI计算消耗中占比提升?这是否会影响英伟达未来的服务和生态系统开发方向?

CFO:当然,感谢你的提问,关于我们的企业业务。是的,企业业务同比增长了2倍,其增长速度与我们的超大规模云计算合作伙伴基本一致。需要注意的是,这两个领域都非常重要,值得深入理解。

我们与云服务提供商的合作可能涉及大语言模型训练,也可能是推理任务,这些都是他们自身的AI计算需求。但同时,企业客户也在云服务提供商的平台上运行他们的AI业务。

因此,企业客户的计算需求既可以由云服务提供商提供的云服务实现,也可以自行构建基础设施。从整体来看,这两个领域都在高速增长,并且都对英伟达业务至关重要。

CEO:目前,云服务提供商占我们业务的大约一半。

正如你所说,云服务提供商的计算需求分为内部消费和外部消费。在内部消费方面,我们与所有主要云服务提供商紧密合作,帮助他们优化内部工作负载,因为他们拥有庞大的英伟达基础设施,可以充分利用我们的计算能力。

英伟达的架构具有高度灵活性,可以同时用于AI计算、视频处理、数据处理(如Spark)等多个场景。这意味着基础设施的使用寿命更长,从而降低了总体拥有成本。

关于企业客户(即非云服务提供商)未来的增长,我的观点是从长远来看,这一市场将远远超过云服务提供商。

原因是什么?如果你观察当前的计算机产业,你会发现尚未被计算产业充分覆盖的主要领域是工业。

举个例子,以汽车公司为例——它们同时制造软件和硬件。

从企业内部来看,员工需要使用智能AI系统来提升生产力,比如设计、营销、规划和运营管理等。在GTC大会上,我们将分享一些令人兴奋的新技术,展示如何用智能AI帮助企业员工提高效率。

从产品角度来看,汽车本身也需要AI。每辆汽车都需要AI系统进行训练,并与整个车队协同工作。

未来,全球道路上仍然会有10亿辆汽车,但不同的是,这些车都将是智能机器人汽车,它们会持续收集数据,并通过AI工厂进行优化和升级。

换句话说,未来的汽车公司不仅需要汽车工厂,还需要AI工厂,以不断改进和优化整个车队的AI能力。

此外,在汽车内部,本质上就是一个机器人系统。所以你可以看到,未来涉及三种计算机:

帮助人类的计算机——主要用于企业内部,提高生产力,比如自主智能体AI帮助员工进行设计、规划、营销和运营等工作。

构建AI以控制机器的计算机——这些AI可能用于马匹、拖拉机、割草机、人类、机器人,甚至是建筑物和仓库等物理系统。这些系统需要一种全新的AI,我们称之为“物理AI”。

机器人的计算机——这些AI将直接驱动智能机器人,让它们能够自主执行任务。

物理AI是超越语言理解的AI。

传统AI主要理解文本和语言的意义,但物理AI需要理解现实世界的物理规律,比如:摩擦力与惯性、物体恒常性、因果关系。这些物理概念对于我们人类来说是常识,但AI必须通过学习才能掌握。因此,物理AI是一种全新的AI类型,它能够理解并适应现实世界的物理环境。

目前,企业内部正在开始利用自主智能体AI彻底变革工作方式,但这仍处于早期阶段。现在,自主智能体AI时代刚刚开启,市场对此充满期待。接下来,我们将看到物理AI的崛起,随后是智能机器人系统的广泛应用。

这三种计算机(人类智能、机器智能、机器人智能)都是全新的计算架构,从长期来看,我认为它们的市场规模将远超传统计算市场。

这也符合逻辑,因为全球GDP的主要组成部分是重工业和工业企业,这些领域对于AI和自动化的需求将极为庞大。

Q8:黄仁勋,现在我们正接近Hopper转折点两周年(自2023年以来),同时,生成式AI也经历了快速发展。在您目前的产品路线图规划下,您如何看待已部署基础设施的更新换代周期?具体来说,GB300或Rubin这一代产品是否可能成为数据中心硬件更新的契机?我想请您分享一下,您如何看待未来的升级节奏和市场趋势?

CEO:首先,目前Volta、Pascal和Ampere架构的GPU仍然在被广泛使用。

原因在于,CUDA具有极高的可编程性,因此这些旧架构仍然可以胜任许多工作。例如,当前AI计算的一个主要应用是数据处理和数据整理。

举个例子,假设AI模型在某个特定情况下表现不佳,比如自动驾驶场景中的视觉语言模型。你可以让视觉语言模型分析这个场景,然后它会得出结论:“在这种情况下,我的表现不够好。”

接下来,你可以利用AI模型搜索整个数据湖,找出类似的场景,并通过AI进行领域随机化,生成大量额外的训练数据集。随后,你可以利用这些新数据来进一步训练AI模型。

在这个过程中,Ampere GPU可用于数据处理、数据整理和基于机器学习的搜索,而整理好的训练数据集则会交给Hopper体系进行训练。

所有英伟达GPU都基于CUDA生态,完全兼容,可以在不同架构上运行不同任务。因此,已部署的旧基础设施仍然可以用于处理计算需求较低的工作负载,而新一代GPU主要承担计算密集型任务。

换句话说,我们的所有GPU都在被充分利用,每一代架构都有其价值和应用场景。

Q9:我想针对Colette再问一个关于毛利率的跟进问题。Colette,我理解Blackwell的良率、NVLink 72以及以太网产品组合等因素都会对毛利率产生影响。而在之前的问题中,您似乎没有明确回答4月季度是否会成为毛利率的最低点。但按照你们的预期,要在今年财年的下半年将毛利率提升至70%中段水平,那么每个季度的毛利率增幅可能需要提高200个基点。此外,我们仍然不清楚关税对整个半导体行业的影响。那么,是什么让你们有信心认为下半年能够按照这个预期轨迹实现毛利率的提升?

A9:我们的毛利率计算相当复杂,因为Blackwell系统的材料和组件构成非常精密,我们在多个方面都存在提升毛利率的潜在机会。

需要注意的是,Blackwell拥有多种不同配置,这些配置的灵活性可以帮助我们在未来逐步优化毛利率。

一旦我们完成现阶段的大规模产品量产,并满足客户需求,我们就能开始着手优化毛利率。事实上,我们会尽早开始这项工作,如果短期内可以找到改善毛利率的方法,我们也会立即采取行动。

关于关税,目前仍然是一个不确定因素。我们尚不清楚美国政府的具体计划,包括关税实施的时间、适用范围及税率。因此,现阶段我们仍在等待更多政策细节。

当然,无论如何,我们始终会遵守出口管制及关税政策,并根据法规要求进行调整。

本次问答环节到此结束,现在,我们将把时间交给黄仁勋:

黄仁勋:首先,我想对大家表示感谢,也感谢Colette。

Blackwell的市场需求异常强劲。当前,AI正在从感知智能和生成式AI向推理AI演进。

在推理AI领域,我们观察到新的扩展规律——推理时间扩展。计算量越大,模型思考的时间越长,答案就越智能。

例如,OpenAI的ROT3、DeepSeek-R1等模型正是推理AI,它们都采用推理时间扩展。这些模型的计算需求可能是传统AI模型的100倍,未来的推理AI可能需要远超当下的计算量。

其中,DeepSeek-R1已在全球范围内引发巨大热潮,这是一项出色的创新。更重要的是,DeepSeek团队开源了这一世界级的推理AI模型。现在,几乎所有AI开发者都在应用DeepSeek-R1的推理方法,或者借鉴其链式思维和强化学习技术,以扩展模型性能。

目前,AI的三大扩展规律依然有效:

基础模型扩展——多模态技术正在增强AI能力,预训练仍在增长,但已经不再是AI发展的唯一方向。

后训练扩展——强化学习、微调、模型蒸馏等技术的计算需求远超单纯的预训练。

推理时间扩展——单次查询的计算需求可能是传统AI任务的100倍。

我们正是为这个新时代设计了Blackwell,它是一款单一架构平台,可以轻松应对预训练、后训练和推理时间扩展。

Blackwell为推理AI而生。

FP4 Transformer Engine与NVLink 72互连架构,使Blackwell处理推理AI模型的速度比Hopper提升25倍。

Blackwell及其所有配置现已全面量产。

每台Grace Blackwell NVLink 72机架都是一项工程奇迹,其中包含150万个组件,分布在350个制造基地生产,由近10万名工厂操作员共同制造完成。

Blackwell的诞生,标志着AI计算进入推理时代,我们正站在AI发展的新起点。

AI正在以光速前进,我们正处于推理AI和推理时间扩展的开端。但这仅仅是AI时代的起点。

多模态AI、企业AI、主权AI以及物理AI即将到来。我们将在2025年实现强劲增长。

未来,数据中心将把大部分资本支出投入加速计算和AI计算。数据中心将逐步演变为AI工厂,每家公司都将拥有自己的AI基础设施,或选择租用AI计算能力。

感谢大家今天的参与!

欢迎大家在几周后的GTC大会上加入我们。届时,我们将重点介绍Blackwell Ultra、Rubin及其他全新计算架构、网络技术、推理AI和物理AI产品,还有更多令人兴奋的创新内容。

免责声明:本文观点仅代表作者个人观点,不构成本平台的投资建议,本平台不对文章信息准确性、完整性和及时性做出任何保证,亦不对因使用或信赖文章信息引发的任何损失承担责任。

精彩评论

发表看法
2
3