博通公司(AVGO)2025财年企业会议

声明:以下内容由机器翻译生成,仅供参考,不构成投资建议。

企业参会人员:

身份不明的发言人

Hock E. Tan(总裁兼首席执行官)

分析师:

身份不明的参会者

James Schneider(高盛)

发言人:James Schneider

好的。各位下午好。欢迎来到高盛通信技术会议。我是Jim Schneider,高盛的半联邦分析师。今天非常荣幸欢迎博通公司及其首席执行官Hawk Tan来到台上。欢迎Hawk。

发言人:Hock E. Tan

谢谢。

发言人:James Schneider

感谢您的到来。您知道,我认为公平地说,在过去几年中,您的业务组合确实发生了根本性的演变。如今公司规模大了很多,部分原因是由于VMware,软件业务规模大幅扩大,但也确实因为人工智能,半导体业务现在也大了很多。如果您回顾一下,思考博通未来几年的首要两三个优先事项是什么?然后如果五年后我们再次坐在这里,您认为什么会最让投资者感到惊讶?

发言人:Hock E. Tan

嗯,我不确定什么会最让你们惊讶,但我现在先回答第一部分。在我们看来,最核心的是人工智能领域的巨大机遇。准确地说,是人工智能计算。我的意思是,我们看到对人工智能计算的需求非常、非常有趣且非常、非常强劲。我们正在推动业务模式,调动公司资源来满足这些特定需求,说实话,是来自一小部分客户的需求。

发言人:James Schneider

如果您从哲学角度思考一下人工智能,或许能帮助我们理解您个人对人工智能作为一项技术发展方向的愿景。为什么世界需要人工智能?您认为它会有多有用?它会辜负投资界今天投入的资金量吗?

发言人:Hock E. Tan

我讨厌这个问题,你知道的,因为我不是那样的人。我不是啦啦队长。好吧,无论如何我尽量不做。很难不听到。不,我认为人工智能至少会存在一段时间,因为我认为我们已经发现人工智能可以做的是这种巨大的复杂算法,它使我们能够基于历史来非常令人印象深刻地预测接下来会发生什么。我认为人工智能甚至是生成式人工智能。现在你们很多人可能会说它不止于此,但它确实非常好。正因为如此,它是一个很棒的工具,基本上可以让我们感觉更聪明。

而且它可能确实做到了。但回到您关于博通的第一个问题,关键在于。很多这一切的重点是我们不会编写创建大型语言模型(LLMs)的算法。我们不会假装自己能做到这一点。我们正在做的是提供支持,因为你可以编写和创建世界上最好的算法,它们今天已经存在,并且还在不断改进。但如果你没有能力创建计算能力,将其转化为计算机,那么所有这一切都只是白板上的漂亮方程和算法。这并不实用。

因此,其体现就是计算能力,这正是我们在半导体领域的专业知识所在,特别是能够创建非常有效的计算工具、计算引擎的能力,这才是关键所在,这也是我们的立足点。我们看到未来三年,我们关注的这一小部分客户对计算能力的需求正在加速增长,Jim,这些客户就是那些试图创建大型语言模型的人。在很多方面,大型语言模型对这些人来说是另一个术语,这些参与者试图创造超级智能,并通过这样做随着时间的推移创建新的平台,明天的新平台。

发言人:James Schneider

是的。在实用性、货币化或其他方面,有没有任何人工智能用例让您个人最兴奋?

发言人:Hock E. Tan

对我来说,能够为我的妻子创作一首好诗,这很棒。我相信对你来说也是如此。这是一个让我兴奋的用例。

发言人:James Schneider

太好了。或许我们可以回到博通的业务上,但可能有一个...

发言人:Hock E. Tan

看,我告诉过你我讨厌这种问题。

发言人:James Schneider

让我们谈谈您的业务。您刚刚指引了2026财年的人工智能收入增长,您知道,上周的 earnings 电话会议上,您之前提到过60%左右的增长,您宣布由于现在已经转化了另一个专注于推理的客户,预计这种增长将大幅加速。或许能帮助我们理解您在这里看到的客户更广泛趋势。目前对推理还是训练的需求强度更高?

发言人:Hock E. Tan

嗯,我认为在任何时候都很难断言。我认为我们在我们拥有的七个参与者中看到的情况是,我们既将一些视为客户,也将其他一些视为潜在客户。我看到的一个共同点是,他们是那些投资创建最好的大型语言模型的人。这对他们来说是一个持续的路线图,一个持续的旅程。而这种智能改进的创建只能来自创建更好的大型语言模型,这来自训练方面的研究。训练创造智能,推理将智能货币化。所以你告诉我哪个发生得更多。我认为这取决于那些与我们合作的参与者何时决定,嘿,是时候创建规模来实现货币化了,所以他们进入推理阶段。

否则,如果你只是追求超级智能,那就专注于研究。那就是训练。我认为这两种情况都在发生,并且在这一点上都有非常高的投资使用率。

发言人:James Schneider

我的意思是,给我们一个2026年的感觉。在您已经呼吁的60%以上,加速会有多大?更重要的是,您认为2027年的增长率会比这更快吗?

发言人:Hock E. Tan

我宁愿不谈论2026年、2027年,因为我不提供那样的指引。只是给你一个感觉。是的,我们确实指出了2026年人工智能收入的增长率在60%左右,上周的 earnings 电话会议上,您宣布由于现在已经转化了另一个专注于推理的客户,预计这种增长将大幅加速。我们设定了一个里程碑。你知道,我们到处给你一些小线索只是为了迷惑你。但实际上,大约一年前的 earnings 电话会议上,我们给出了一个里程碑,我们看到一个自我可用的市场。可用市场。不是600到900亿美元的预测。记住这一点。

发言人:James Schneider

是的,

发言人:Hock E. Tan

对。所以现在你问我这个问题。让我给你一些可能让你思考的东西。如你所知,我签署了将合同延长至2030年的协议。随着这次延期,我当然得到了一些激励。其中一项激励与博通的人工智能收入挂钩。非常简单。为了在从现在起20年、35年后获得最大激励,我需要实现人工智能收入超过1200亿美元。好吧。如今是25年。我们的人工智能收入是20,但这让你了解我们对这场人工智能、生成式人工智能、超级智能竞赛中计算需求强度的信念。

发言人:James Schneider

这是个不错的 kegger talk。

发言人:Hock E. Tan

嗯,问题是你是否能理解。

发言人:James Schneider

非常好。很高兴听到这些细节。谢谢。关于这个人工智能收入部分,最后一个问题。您之前谈到过三个现有客户,您又增加了第四个,并且谈到了渠道中的三个潜在客户。或许只是给我们一个感觉。除了这四个加三个潜在客户之外,您是否看到潜在客户的 universe,或者您认为这七个就是潜在机会?

发言人:Hock E. Tan

对于博通来说。我们的业务模式就是针对那些人。这些是正在创建那些大型语言模型的人。谁知道这些人能存活多久,他们是否会完成整个竞赛。但我们现在看到大约有七个人在做这件事。除此之外,我们根本不将那些视为我们的市场。

发言人:James Schneider

很公平。或许再深入谈谈客户方面的一些情况。我认为过去您说过,您认为拥有自己的大型语言模型(LLM)能力的公司是最有效、最重要的客户前景。另外,我认为您也说过,您希望追求市场上可用的最大规模机会。所以或许给我们投资者一个感觉,您如何审查这些不同的客户前景?您能区分有前景的客户和那些对您来说不太有趣的客户吗?您如何做出这种决定?

发言人:Hock E. Tan

我认为我们做得很简单。如今那些真正在做大型语言模型的客户,那就是我们的客户,就这样。我们不再看他们是大是小。

发言人:James Schneider

好的。我认为相对于竞争格局来说这很容易。我认为投资界的传统观点可能是,定制ASICs 适用于内部工作负载,而商用GPU 更具广泛基础,它们适用于更多的外部工作负载以及内部工作负载。我认为我们已经看到不少关于您最大的客户之一在定制ASIC方面的优势以及那里发生的事情的头条新闻。所以我有点好奇,您是否看到这种传统观点有任何转变,或者您看到它在变化吗?您是否看到企业将拥有更多软件能力并实际上能够像一些主要的云服务提供商(CSPs)那样使用ASICs的时刻?

发言人:Hock E. Tan

我认为我们不那样看待它。为了回答你的问题,我认为企业,至少在可预见的未来,永远不会想要考虑开发核心技术来启用人工智能计算。相反,我们一直看待这个市场的方式是,我们今天看到的生成式人工智能实际上分为两个广泛而简单的部分。你知道,正如我提到的,有一部分是这些少数参与者,其中一些是超大规模企业,一些不是。为了更好地描述,它们只是人工智能领域的超级初创公司。我知道你们中的一些人称它们为实验室。

或许正是这些人真正在大型语言模型上进行投资,这需要大量的研发,特别是在训练方面,这不仅仅是创建算法来创建那些大型语言模型并使其工作,还包括创建能力和投入能力来训练大量数据,以在他们通往超级智能的旅程中不断改进。我们姑且称之为一个类别。然后我们有第二类客户,几乎就像我们其他人一样。我称之为企业。他们可能包括主权国家、公共云公司。

但归根结底,他们回到了企业领域。有数以千计的公司将人工智能视为一个非常有趣的工具,可以改善他们的业务运营方式,基本上实现主要的生产力提升,这是真的。并试图找到用例空白,并涉足,他们中的大多数现在都在人工智能工具上进行概念验证(POCs),并尝试运行人工智能。无论他们是通过租用GPU还是购买一些并在本地运行来获得这种能力,这些都属于那个类别,而那个类别的市场主要是推理,真正的推理。

他们谈论训练,那是有限的后期训练,或许是测试时扩展,但都是推理。正在寻找用例并试图获得投资回报,主要是在生产力方面。这类市场在很大程度上是推理,真正的推理。他们谈论训练,那是有限的后期训练,或许是测试时扩展,但都是推理。他们正在寻找用例,并试图获得投资回报,主要是在生产力方面。这类市场的客户大多会使用商用硅片,商用GPU,因为他们不会创建XPUs,不会编写软件栈来使其工作并弄清楚所有这些事情,谁在乎呢?他们想要的只是让他们的模型运行并获得投资回报。我认为这类客户至少在短期内不会超越商用GPU。今天可能有10,000家这样的公司,每家每年花费1000万美元,也许更多,这是一个千亿美元的市场。

相比之下,我们看到这些少数创建大型语言模型的公司,非常少。但他们今天能够在人工智能计算上花费约300亿美元每年。所以你这里有1000亿,那里可能有1000到2000亿。我们专注于一个市场,并且它们与另一个市场非常不同,

发言人:James Schneider

非常公平,然后在服务定制计算领域。您能谈谈您如何在那里增加价值以及您地位的可防御性吗?换句话说,谈谈您添加的一些核心知识产权,或者您通过制造过程为客户设计增加的价值。但当投资者问您的地位有多可防御,以及您是否面临最大客户直接向代工厂提供他们解决方案的风险时,您如何回答?

发言人:Hock E. Tan

这与多年来我们在半导体业务中的地位相同。这是工程,是深入的工程,先进的工程知识产权,特别是在半导体领域,部分在软件领域。你知道,归根结底,在创建芯片方面拥有更多的知识产权,但远不止于此。感谢这个问题。人们认为人工智能计算就是GPU或XPU,也就是所谓的引擎,用于进行矩阵乘法和回归的实际乘法引擎。但远不止于此,因为如你所知,每个GPU或XPU,无论我们把它做得多么强大,我们都可以通过在这个800平方毫米的硅片上塞入越来越多的乘法器,Monica乘法器,使它们变得非常强大。

你通过使用越来越深的亚微米工艺技术来做到这一点,这样你可以塞入更多,甚至更进一步。然后,不是在一个封装或芯片中制作一个裸片,而是制作多个裸片。我们已经达到了我们正在做的最新产品实际上在一个封装中有三个裸片的地步。我们塞入了这么多。所以你可以使这个GPU或XPU在我们的案例中非常、非常擅长做这种乘法和矩阵回归。但这还不够。你无法用一个GPU或XPU来创建训练。你无法用一个GPU或XPU来对这个庞大的数据库进行生成式人工智能训练,以创建这个数十亿亿参数的模型。

无论你多么努力,你都需要创建一个集群。你的大型语言模型越复杂,你的集群就必须越大。然后你面临一个完全不同的问题。你如何在100,000个GPU上同时创建所有这些矩阵乘法,然后扩展到100万个。这是一个更大的难题。这实际上是我认为生成式人工智能计算中的最大技术挑战。当你的模型变得更高时,另一个方面,网络,就出现了。你如何连接它们?你如何有带宽来连接它们?你如何调度工作负载,编排它们,使它们能够并行运行。这更多的是软件和网络方面,也就是硬件。

我认为这是进展中的最大挑战之一。在创建超级智能方面取得巨大进展。你如何获得这些巨大的工作负载,这些你应该在这些巨大的模型上运行的工作负载,并能够在一百万个GPU或XPU上同时训练大量数据,并收敛到一个解决方案。这部分正慢慢浮出水面。那就是网络。这可能是最大的问题。因为在生成式人工智能中,我之前说过,我会再说一遍,网络成为计算机,而不是任何单个GPU或XPU。我们都倾向于关注那个。

远不止于此。开发XPU、GPU并试图实现是困难的,需要大量的知识产权。但实际上,这比做网络更容易。这就是挑战开始的地方。是的,这就是我们如何差异化自己。我们提出了更好的捕鼠器,更好的技术,并超越竞争对手。与我们在半导体的所有其他领域所做的没有什么不同,我们在那里非常成功。

发言人:James Schneider

是的,这完美地过渡到我接下来要问的关于网络的问题,因为显然这是公司历史上的一个支柱业务。谈谈,我认为您之前谈到过在这些人工智能网络中,我认为您说过横向扩展机会在内容上大约是横向扩展的五到十倍。您如何看待以太网和横向扩展的采用曲线,以及您的整体产品组合如何实现这一点。

发言人:Hock E. Tan

以太网将不可避免地发生,因为你不想创建新的协议,这些封闭的协议来取代坦率地说已经存在、经过测试、证明了二三十年的东西,而且大多数运营商、超大规模企业的设计师,他们是开发的领导者,非常熟悉它,这涉及到一个更大的图景,你说的是,你指的是分解。还有更多。对于XPUs,博通在某种程度上正在将XPU或GPU与网络方面分解。这是一种选择。

你可以选择你喜欢的任何GPU XPU,你可以选择你喜欢的任何网络交换机,这种分解最终将通过选择每个领域的最佳品种来优化。你进行生成式人工智能计算的能力,并最终导致在实现你想要的大型语言模型结果方面的最佳性能。这不是一个平台,而是关于分解,这正是超大规模企业在创建云计算、公共云计算时所做的,朝着这个方向发展。他们分解硬件、软件、CPU和网络。我认为你会在生成式人工智能中看到这就是现在的发展道路,在我谈到的那些平台大型语言模型公司中。

然而,当涉及到企业时,我认为它仍然非常基于原始设备制造商(OEM),因为企业没有兴趣或能力创建分解的需求,优化的足迹不够大。但那些做大型语言模型的公司,我谈到的那少数几家,我们正在与七家打交道,他们会分解,他们会优化。

发言人:James Schneider

然后,如果您考虑网络业务的前景,显然无论人工智能增长多少,您如何看待网络业务?跟踪那个信封更快、更慢还是相同?

发言人:Hock E. Tan

我倾向于认为它会。很多这将再次回到那个狭窄的客户群体。我们谈论大型超大规模企业和超级初创公司,增长将增长的原因无非是向以太网的迁移,这是一件事。但更重要的是,当你进入越来越大的集群时,机架内的横向扩展机会变得超级重要。当你在机架内为人工智能、生成式人工智能计算进行那种级别的横向扩展时,这就是矩阵乘法真正在你的模型中发生的地方,你谈论的是巨大的带宽。

你谈论的带宽很快将达到。这不仅仅是GPU到GPU、XPU到XPU的连接,他们谈论的是跨GPU的内存共享,你知道这些GPU有多少内存。所以你真的想要达到100太字节每秒的带宽,而不是停留在我们今天在铜缆机架中看到的28太字节每秒,也就是说你想要走向光学,你想要能够连接不仅仅72个GPU,你想要连接512甚至1024个XPUs到XPUs。

这就是你想要推动的规模,你想要推动的带宽,这将创造非常快的收敛到解决方案,你正在寻找的训练解决方案结果。这就是我们正在推动的路线图。我们不是在谈论几年后,我们谈论的是在未来一两年内,26年、27年开始发生。产品已经存在,技术已经可用。现在是部署的问题。

发言人:James Schneider

非常好。一个关于共封装光学(CPO)及其在行业中未来作用的问题,我经常被问到,也许您认为这项技术准备好进行主流部署或大型客户部署的程度如何?以及您认为CPO的采用曲线会如何发展?

发言人:Hock E. Tan

我喜欢向你们大肆宣传一些事情。最新的是共封装光学。它只是光学而已。好吧。我不知道为什么你需要称之为共封装光学,除了现在它是硅光子学。世界仍在为硅光子学做准备。很大一部分原因是我之前说过的。当你进行越来越大的扩展时,因为集群变得越来越大,而你是一个大型语言模型公司,所以你会这样做。如果你不是大型语言模型公司,你是一个小型企业,只运行一个机架,可能不超过36个GPU。

你不需要任何这些。运行直接连接的铜缆,你就完成了。所以这些大型语言模型公司试图运行100、200、500,000个XPU或GPU,那么你想要,正如我之前所说,在机架内横向扩展,你想要使其光学化。因为通过光学化,你可以更好地将512个计算节点、XPU或GPU直接相互连接,比你能做的任何其他事情都好。并且有可能进一步提高带宽。添加你的直接顶部或交换机,你可以达到1024个。但这是光学从我们今天看到的铜缆转向。

现在铜缆在2026年仍将存在,主要到2027年。它将全部走向光学。然后人们谈论你需要什么样的光学解决方案。所以人们谈论,嘿,一个想法是称为硅光子学,其中一种表现形式称为共封装光学。你将光纤互连中的有源组件集成到硅中。无论是GPU硅还是交换机硅。你两者都做。这就是所谓的共封装光学。这是一个梦想。这真的是一个好梦想,因为你可以减少40%的功耗。你做到了所有这一切。那很棒。

我们博通,三年前就已经完成了这项技术。问题是这样的。光学,通常光学互连,因为它有很多机械部件,故障率在5%到8%之间。所以当你有你们听说过的可插拔光学器件时,当它出现故障时,你只需拔掉它,换上一个新的,可插拔的。当你进行共封装光学或硅光子学时,你将昂贵的40,000美元GPU集成到故障率为5-8%的光学器件中。你就有麻烦了。所以问题是,我们一直在研究的是,当你创建硅光子学时,集成解决方案的故障特性是硅的特性(几乎0.1%),还是光学的特性(5-8%)。

我们过去两三年一直在收集这些数据。我愿意相信它将具有硅的特性而不是光学的特性。但同样,当我们通过测试时,我们会弄清楚。所以。对不起,对你的短问题给出了很长的回答。

发言人:James Schneider

不,没关系。没关系。然后,您知道,最后我认为您谈到过竞争性地,您相信以太网最终会获胜。也许谈谈您认为这会在多长时间内发生,以及任何可能减缓这一进程的因素。

发言人:Hock E. Tan

最简单的答案是,在我们打交道的少数超大规模企业中,那些从事大型语言模型的企业,他们也认为创建自己的定制加速器、XPUs是生存需求,随着他们开始以稳定、渐进的方式部署XPU,就像未来五年内的所有事情一样,你会看到以太网发挥作用。所以这与分解直接相关。从集成平台机架分解为一个更分解的平台,其中包含XPUs和以太网交换互连,一个更优化的平台。

发言人:James Schneider

是的,如果我不稍微谈谈您的软件组合,我就是失职了。

发言人:Hock E. Tan

我就知道我们会谈到这个。

发言人:James Schneider

或许只是广泛地谈谈。我的意思是,您显然在企业领域收购公司方面做得非常出色,这些公司拥有非常粘性的客户群,随着时间推移为该业务带来非常高的利润率。或许谈谈您所看到的软件业务的持久性,无论是VMware还是您现有业务中到目前为止拥有的所有产品。然后或许谈谈您在软件领域的并购意愿?或者您现在100%专注于人工智能机会?

发言人:Hock E. Tan

你知道,我喜欢我们收购的软件业务,因为我们非常小心我们购买的东西,整个游戏。软件的全部意义在于你正确地谈到了持久性、可持续性。关键在于你必须投资。与你可能认为的不同,我们实际上在我们拥有的软件上投入了大量资金,如果没有别的,只是为了让它对使用它的客户更好。不仅如此,投资技术使其更好。你投资支持。企业总是会破坏软件。当他们这样做时,你希望它非常有弹性,以便他们可以快速恢复。

所以支持很重要,这就是为什么我们进行大量投资。以及服务、支持并保持其持久性。如果你这样做,我们接受这样一个事实,我们不需要我们的软件业务大幅增长,只需维持并实现个位数增长。只需这样做,而不是试图推动增长。你就能获得非常好的利润率。你已经在我们宣布的方式中看到了这一点。非常好的利润率。你知道,但这是稳定的业务。有趣的是。回答第一部分。非人工智能和软件业务,是我们收入和收益的重要组成部分。

但在几年内,我的人工智能收入将超过两者的总和。如果还没有的话,一两年内就会超过。所以从我们的角度来看,有了这个巨大的机会和我已经指出的急剧增长,我们 kind of 看着它说,你不需要再买任何东西,你不需要再投资任何东西来增加你的收入或收益。只需继续投资人工智能,在我们看来,未来几年就是这样。

发言人:James Schneider

这是一个很好的结束点。非常感谢您,Hawk,来到这里。我们非常感激。

发言人:Hock E. Tan

谢谢。