Ji Yoo(投资者关系负责人)
Hock Tan(首席执行官)
Kirsten Spears(首席财务官)
Charlie Kawwas(半导体解决方案总裁)
Blayne Curtis(杰富瑞)
Harlan Sur(摩根大通)
Ross Seymore(德意志银行)
Christopher Muse(Cantor Fitzgerald)
Timothy Arcuri(瑞银投资银行)
Stacy Rasgon(Bernstein Institutional Services)
Benjamin Reitzes(Melius Research)
Vivek Arya(美国银行)
Thomas O'Malley(巴克莱)
James Schneider(高盛)
Joshua Buchalter(TD Cowen)
欢迎参加博通公司2026财年第一季度财务业绩电话会议。
现在,为了开场致辞和介绍,我想将电话转交给博通公司投资者关系负责人Ji Yoo。
谢谢主持人,各位下午好。今天参加电话会议的有总裁兼首席执行官Hock Tan、首席财务官Kirsten Spears、半导体解决方案集团总裁Charlie Kawwas以及基础设施软件集团总裁Ram Velaga。
博通在市场收盘后发布了新闻稿和财务表格,描述了我们2026财年第一季度的财务表现。如果您没有收到副本,可以从博通网站的投资者部分(broadcom.com)获取相关信息。本次电话会议正在进行网络直播,会议的音频回放可通过博通网站的投资者部分访问,为期一年。
在准备好的发言中,Hock和Kirsten将详细介绍我们2026财年第一季度的业绩、2026财年第二季度的指引以及对业务环境的评论。在准备好的发言结束后,我们将接受提问。有关可能导致我们的实际结果与本次电话会议上的前瞻性陈述存在重大差异的具体风险因素,请参考我们今天的新闻稿和最近向美国证券交易委员会提交的文件。除了美国公认会计原则(GAAP)报告外,博通还以非公认会计原则(non-GAAP)为基础报告某些财务指标。GAAP与非GAAP指标之间的调节表包含在今天新闻稿所附的表格中。今天电话会议上的评论将主要参考我们的非公认会计原则财务业绩。
现在我将电话转交给Hock。
谢谢Ji。也谢谢各位今天参加我们的会议。在2026财年第一季度,总收入达到创纪录的193亿美元,同比增长29%,并且由于人工智能(AI)和半导体业务超出预期的增长,超过了我们的指引。这一强劲的营收转化为卓越的盈利能力,第一季度合并调整后息税折旧摊销前利润(EBITDA)达到创纪录的131亿美元,占营收的68%。这些数据表明,我们的规模继续推动显著的运营杠杆。
现在,我们预计随着我们的定制AI加速处理器(XPU)在我们的五个客户中进入下一阶段的部署,这种增长势头将加速。展望下一季度,即2026财年第二季度,我们预计合并营收约为220亿美元,同比增长47%。
现在让我详细介绍一下我们的半导体业务。第一季度,半导体收入达到创纪录的125亿美元,同比增长加速至52%。这一强劲增长由AI和半导体收入推动,同比增长106%至84亿美元,远高于我们的预期。第二季度,这一势头将加速,我们预计半导体收入将达到148亿美元,同比增长76%。推动这一增长的是AI收入增长,将同比大幅加速140%至107亿美元。
我们的定制加速器业务在第一季度同比增长140%。这一势头将在第二季度继续。我们所有五个客户的定制AI加速器的 ramp-up 进展非常顺利。对于谷歌,我们在2026年继续保持增长轨迹,第七代Ironwood张量处理器(TPU)需求强劲。在2027年及以后,我们预计下一代TPU的需求将更加强劲。
对于Anthropic,我们在2026年开局非常良好,TPU计算能力达到1吉瓦。到2027年,这一需求预计将激增超过3吉瓦的计算能力。我应该补充的是,我们的XPU业务范围不仅限于图形处理器(GPU)。与最近的分析师报告相反,Meta的定制加速器MTIA路线图仍然有效且进展顺利。我们现在正在出货。事实上,对于下一代XPU,我们将在2027年及以后扩展到数吉瓦的规模。至于第四和第五位客户,我们预计今年出货量强劲,并预计2027年将翻一番以上。我们现在还有第六位客户。我们预计OpenAI将在2027年批量部署其第一代XPU,计算能力超过1吉瓦。
请允许我再次强调,我们与这6位客户在开发AI XPU方面的合作是深入、战略性的且为期多年的。我们为合作伙伴带来了在服务、硅设计、工艺、先进封装和网络方面无与伦比的技术,使每位客户能够为其差异化的大型语言模型(LLM)工作负载实现最佳性能。我们有在高产量和加速上市时间内交付这些XPU的良好记录,并且良率非常高。
除了技术之外,随着客户扩大其计算基础设施的部署,我们提供多年供应协议。在领先晶圆、高带宽内存和基板产能受限的时期,我们确保供应的能力确保了我们合作伙伴关系的持久性。我们已经为2026年至2028年充分保障了这些组件的产能。
与XPU的强劲前景一致,AI网络需求正在加速。第一季度AI网络收入同比增长60%,占AI总收入的1/3。第二季度,我们预计AI网络将进一步加速增长,占AI总收入的40%。我们在网络领域显然正在获得市场份额。
让我解释一下。在横向扩展方面,我们率先推出的100太比特/秒的Tomahawk 6交换机以及我们的200G串并转换器(SerDes)正在吸引超大规模数据中心的需求,无论他们使用XPU还是GPU。到2027年,凭借下一代Tomahawk 7(性能翻倍),这一领先优势将进一步扩大。同时,在纵向扩展方面,随着客户集群规模的扩大,我们处于独特地位,通过我们的200G SerDes使这些客户能够继续使用直接连接铜缆。当我们在2028年升级到400G SerDes时,我们的XPU客户可能会继续使用直接连接铜缆。这是一个巨大的优势,因为转向光模块的替代方案更昂贵且需要显著更多的电力。考虑到上述因素,我们对2027年的可见性显著提高。
事实上,今天我们已经可以看到,2027年仅芯片的AI收入将超过1000亿美元。我们也已经确保了实现这一目标所需的供应链。现在转向非AI半导体。第一季度非AI半导体收入为41亿美元,同比持平,符合指引。企业网络、宽带服务器存储收入同比增长,抵消了无线业务的季节性下滑。第二季度,我们预计非AI半导体收入约为41亿美元,同比增长4%。
现在让我谈谈我们的基础设施软件部门。第一季度基础设施软件收入为68亿美元,符合我们的指引,同比增长1%。第二季度,我们预计基础设施软件收入约为72亿美元,同比增长9%。VMware收入同比增长13%。预订量继续保持强劲,第一季度预订的总合同价值超过92亿美元,维持年度经常性收入(ARR)同比增长19%。我要强调的是,我们基础设施软件业务的这种增长反映了我们对基础基础设施的专注和投资。我们的基础设施软件不会受到AI的干扰。事实上,VMware云基础架构(VCF)是数据中心的基本软件层,将CPU、GPU、存储和网络集成到一个通用的高性能私有云环境中,作为AI软件和物理芯片之间的永久抽象层。
VCF不能被中介化或取代。事实上,它允许企业有效地扩展复杂的生成式AI工作负载,具有硬件 alone 无法提供的敏捷性。我们相信,生成式和智能体AI的增长将需要更多的VMware,而不是更少。因此,总而言之,2026财年第二季度,我们预计合并收入同比加速增长47%,达到约220亿美元,调整后EBITDA预计约占收入的68%。
因此,现在我将电话转交给Kirsten。
谢谢Hock。现在让我详细介绍我们第一季度的财务表现。本季度合并收入为创纪录的193亿美元,同比增长29%。本季度毛利率为收入的77%。合并运营费用为20亿美元,其中15亿美元为研发(R&D)费用。第一季度运营收入为创纪录的128亿美元,同比增长31%。运营利润率同比提高50个基点,达到66.4%,得益于有利的运营杠杆。调整后EBITDA为131亿美元,占收入的68%,高于我们67%的指引。
现在让我们详细了解我们的两个部门。首先是半导体部门。我们半导体解决方案部门的收入为创纪录的125亿美元,在AI的推动下,同比增长加速至52%。半导体收入占本季度总收入的65%。我们半导体解决方案部门的毛利率同比提高30个基点,约为68%。11亿美元的运营费用反映了对领先AI半导体研发的增加投资,占收入的8%。半导体运营利润率为60%,同比提高260个基点,反映出强劲的运营杠杆。
现在转向基础设施软件部门。基础设施软件收入为68亿美元,同比增长1%,占收入的35%。本季度基础设施软件的毛利率为93%,运营费用为9.79亿美元。第一季度软件运营利润率同比提高190个基点,达到78%。
转向现金流。本季度自由现金流为80亿美元,占收入的41%。我们在资本支出上花费了2.5亿美元。第一季度末,我们的库存为30亿美元,因为我们继续确保组件供应以支持强劲的AI需求。第一季度库存周转天数为68天,而第四季度为58天,这是由于预期AI半导体增长加速。
转向资本配置。第一季度,我们基于每股0.65美元的季度普通股现金股息,向股东支付了31亿美元的现金股息。本季度,我们回购了78亿美元的普通股,约2300万股。总体而言,第一季度我们通过股息和股票回购向股东返还了109亿美元。
第二季度,我们预计非公认会计原则稀释后股数约为49.4亿股,不包括潜在股票回购的影响。第一季度末,我们拥有142亿美元现金。今天,我们宣布董事会已授权额外100亿美元用于我们的股票回购计划,有效期至2026日历年年底。
现在转向指引。我们对第二季度的指引是合并收入220亿美元,同比增长47%。我们预计半导体收入约为148亿美元,同比增长76%。其中,我们预计第二季度AI半导体收入为107亿美元,同比增长约140%。我们预计基础设施软件收入约为72亿美元,同比增长9%。出于建模目的,我们预计合并毛利率将环比持平,为77%。我们预计第二季度调整后EBITDA约为68%。我们预计第二季度和2026财年的非公认会计原则税率约为16.5%,这是由于全球最低税的影响以及收入的地理分布与2025财年相比发生了变化。
我的准备发言到此结束。主持人,请开放电话进行提问。
谢谢。[主持人说明]
第一个问题来自杰富瑞的Blayne Curtis。您的线路已接通。
嘿,下午好,感谢您回答我的问题。只是一个澄清问题。Hock,关于超过1000亿美元的那个数字。我想您说是AI芯片。我只是想确认您是否在澄清ASIC和网络之间的区别,以及机架收入如何计入其中。然后,我认为该板块最大的悬而未决的问题是,您本季度AI增长了大约一倍。我认为这与今年云资本支出的增长情况类似。我只是好奇您的看法。考虑到您对2027年的展望,您应该是市场份额的获得者。我只是好奇,投资者认为超大规模数据中心需要在今年、明年或后年获得投资回报,否则就会悲观,您如何看待这种观点?我只是好奇,您如何将其纳入您的展望?
嗯,我们在过去几个月看到的,并且现在看得更清楚的是——这其实与其说是谈论超大规模数据中心,不如说是我们的客户,Blayne,仅限于少数几家公司,其中一些是超大规模数据中心,一些不是,但他们都有一个共同点,那就是创建大型语言模型(LLM)、将其产品化并生成平台,无论是供企业使用、代码辅助、智能体AI,还是我们所知道的消费者订阅服务,无论是什么,这些少数前景广阔的公司,其中许多现在是我们的客户,他们正在创建——无论是生成式AI还是智能体AI,但都在创建一个平台。这就是我们的客户。对于这些客户中的每一个,我们都看到对训练计算能力的需求越来越强劲,这是他们不断需要的。但非常有趣且令我们惊讶的是,为了将LLM、他们最新的LLM产品化,他们创建并将其货币化,推理需求非常非常大。这种推理正在推动大量的计算能力,这对我们来说非常好,因为这些客户,我们的五六个客户,正在走向创建自己的定制加速器的道路。除此之外,他们自己设计这些客户加速器的网络集群架构。因此,我认为随着过去六个月的公告,我们将看到需求增加。
现在澄清您的第一部分问题,Blayne。当我说我们预测2027年的收入将显著超过1000亿美元时,我重点强调的是,这些几乎都基于芯片,无论是XPU、交换芯片还是DSP,我们谈论的是硅内容。
非常感谢。
请稍等,下一个问题。来自摩根大通的Harlan Sur。您的线路已接通。
是的,下午好。感谢您回答我的问题,并祝贺团队取得强劲业绩。Hock,关于云服务提供商(CSP)和超大规模数据中心着手自己内部XPU/TPU设计工作的噪音很多,对吧?我们称之为客户自有工具(COT)。这对于ASIC来说并不是新动态,对吧?我认为博通团队在过去30年中经历过COT竞争动态,对吧,您在ASIC行业一直是领导者,而这些COT计划中很少有成功的。
现在在AI领域,一些COT计划正在推向市场,但看起来——它们的性能比您当前一代解决方案低2倍,芯片设计复杂度、封装复杂度、IP方面也低2倍。所以也许是一个简短的两部分问题。Hock,第一,鉴于您对明年的可见性,您是否认为这些COT“科学项目”会从博通手中夺取任何有意义的TPU/XPU市场份额?然后第二个简短问题,无论是您还是Charlie,鉴于博通的TPU/XPU项目在性能、复杂度、IP方面比任何这些COT项目领先12到18个月,博通团队如何进一步扩大这一差距?
这是个很好的问题。这符合我在开场发言中特意花时间提到的一点,即任何——我想,超大规模数据中心或LLM开发商试图完全自主创建您所说的客户自有工具或COT模式时,他们面临巨大挑战。一是技术,涉及创建硅芯片,特别是他们需要用于计算的XPU,以及优化和运行其LLM工作负载的推理所需的技术。
我们谈论的技术从不同维度发挥作用。你需要周围最好的硅设计团队。你需要最前沿的、真正最前沿的种子研究、非常先进的封装,同样重要的是,你需要了解如何将它们的集群联网在一起。我们在硅领域已经做了20多年,超过20年。在当今的生成式AI领域,如果你作为LLM玩家试图自己做芯片,你不能满足于“足够好”的芯片。你需要周围最好的芯片,因为你在与其他LLM玩家竞争,最重要的是,你还在与NVIDIA竞争,NVIDIA绝不会放松警惕。他们每一代都在生产越来越好的芯片。因此,作为试图在世界上建立自己平台的LLM,你必须创建至少与NVIDIA以及你竞争的所有其他平台玩家相当甚至更好的芯片。为此,我们相信,并且我们亲眼看到,你确实需要一个在硅技术、IP和执行方面拥有最佳技术的合作伙伴。
非常谦虚地说,我们在这方面遥遥领先。而且我们在未来很多年内不会看到COT的竞争。竞争最终会到来,但我们还有很长的路要走,因为我们看到的竞争仍在继续。我还要补充一点,我们特别独特的一点是:当你创建硅芯片时,你真的必须快速地在高产量生产中启动并运行,也就是上市时间。我们在这方面非常有经验。任何人都可以在实验室设计出运行良好的芯片。你能快速生产10万片这样的芯片并达到你能承受的良率吗?我们认为世界上没有太多玩家能做到这一点。
我认为您已经说得很清楚了,Hock。
谢谢,Hock。谢谢,Charlie。
请稍等,下一个问题。来自德意志银行的Ross Seymore。您的线路已接通。
嗨,感谢让我提问。Hock,在您的发言中,您比过去更多地强调了网络差异化。所以我想问一个短期和长期的问题。短期来看,是什么推动AI收入占比达到40%?长期来看,在超过1000亿美元的收入中,这个比例是否会变化?您期望在该业务中保持什么样的领导地位,无论是横向扩展还是纵向扩展?您在网络方面的领导地位是否有助于您的XPU业务,因为您可以在计算和网络方面进行优化?
嗯,Ross,让我们先回答这个相当复杂问题的第一部分。是的,在网络方面,特别是随着新一代GPU、XPU的推出。我们的串并转换器(SerDes)带宽达到200G。我们在大约六个月前——接近九个月前推出的Tomahawk 6。我们是唯一一家提供这种产品的公司。我们的客户和超大规模数据中心希望为他们的集群使用最好的网络和最大的带宽。因此,我们看到对这种唯一的100太比特/秒交换机的巨大需求。这推动了大量需求。再加上我们在横向扩展光收发器方面的带宽达到1.6太比特。我们再次是唯一一家在1.6太比特进行DSP的公司。这种组合正在推动我们网络组件的增长,甚至比我们XPU的增长还要快,这已经非常显著了。这就是你所看到的情况。
但在某些时候,我认为这些情况会稳定下来。不过,我们不会放慢步伐,因为正如我所说,明年2027年,我们将推出下一代Tomahawk 7,性能翻倍,而且可能会是迄今为止第一个推出的,然后我们将继续保持这种势头。但是,归根结底,回答你的问题,是的,我预计在任何季度,我们AI总收入中AI网络组件的占比可能在33%到40%之间。
谢谢,Hock。谢谢。
请稍等,下一个问题。来自Cantor Fitzgerald的CJ Muse。您的线路已接通。
是的,下午好。感谢您回答问题。我很好奇,您如何看待将预填充解码从GPU生态系统中分离出来对定制硅需求的影响?您是否看到GPU和客户硅之间相对混合的任何潜在变化?
我不确定我完全理解你的问题,CJ。你能澄清一下“分离”是什么意思吗?
当然。将工作负载推到CPX进行预填充,并使用Grok进行解码,形成一种分离的世界。这是否会对定制硅与完整GPU堆栈的需求产生任何压力?
好的,我明白你的意思了。“分离”这个词让我有点困惑。在某种程度上,你真正想说的是,随着工作负载开始演变,AI加速器(无论是GPU还是XPU)的架构如何演变?这正是我们特别看到的情况。通用GPU的“一刀切”只能让你走这么远。它仍然可以继续,因为你可以运行不同的工作负载。比如你运行专家混合模型,即使你——你想用稀疏核心来高效运行专家混合模型。你听到过这个术语,但在GPU中,它是为密集矩阵乘法设计的。所以你用软件内核来实现,但不如在硅中硬编码并使那些XPU专门设计用于更高效地处理专家混合工作负载那么有效。
推理也是如此。这导致的结果是,你开始看到XPU的设计变得更加针对我们特定LLM客户的特定工作负载进行定制。设计开始偏离传统的标准GPU设计,这就是为什么,正如我们之前一直指出的,XPU最终将成为更多人的选择,因为它允许灵活设计适合特定工作负载的芯片。一种用于训练,一种用于推理。正如你所说,一种可能更擅长预填充,一种更擅长训练后或强化学习或测试时扩展。你可以调整你的TPU(抱歉,XPU)以适应你想要的特定LLM工作负载。我们正在看到这种情况。我们在所有五个客户中都看到了这种路线图。
请稍等,下一个问题。来自瑞银的Timothy Arcuri。您的线路已接通。
非常感谢。我有一个关于毛利率的问题,当您开始出货这些机架时,这会带来哪些影响。显然,这会拉低综合毛利率,但我想知道您能否给我们一些指导。似乎机架的毛利率可能在45%到50%左右。所以我想,随着这些机架开始出货,毛利率是否会下降约500个基点?Hock,部分原因是,是否有一个毛利率底线,低于这个底线您就不愿意做更多的机架业务?谢谢。
我不想告诉你,你可能有点幻觉。我们的毛利率正如Kirsten报告的数字一样稳固。我们的毛利率不会受到越来越多AI产品出货的影响。我们已经将良率和成本控制到这样的程度,我们在AI业务中的模式将与我们在其他半导体业务中的模式相当一致。
Kirsten?
我同意这一点。我认为相对于我上个季度的评论,经过进一步研究,整体组合的影响实际上根本不会很大。所以你不用担心。
好的。非常感谢。
请稍等,下一个问题。来自Bernstein的Stacy Rasgon。您的线路已接通。
嗨,各位。感谢您回答我的问题。我不知道这是问Hock还是Kirsten,但我想更深入地了解明年“远超过1000亿美元”这个数字。我试着计算一下吉瓦数。我数了一下,大概八九个。Anthropic有3个,OpenAI有1个,这就是4个。您说Meta是多个,所以至少2个。这样就到6个。谷歌,我想应该比Meta大,所以至少3个。你知道,这就是9个。还有其他一些。我以为您每吉瓦的内容量大约在200亿美元左右?我想问的是,我对您2027年计划出货的吉瓦数的计算是否正确?以及随着出货,我该如何看待每吉瓦的内容量?也许会“远超过1000亿美元”。
Stacy,你的视角很有趣,我很佩服你。但你是对的,你可以从吉瓦的角度来看,这比从美元的角度更合适,因为这是我们销售芯片的方式。你必须意识到,根据我们的LLM客户,我们现在有六个客户,抱歉,不是五个,是六个,每吉瓦的芯片美元数有所不同,有时差异很大。确实会有所不同,但你说得对。与你所说的美元数相差不远,如果你从2027年的吉瓦数来看,我们看到接近10吉瓦。
明白了。非常有帮助。谢谢。
不客气。
下一个问题来自Melius Research的Ben Reitzes。您的线路已接通。
嘿,谢谢。Hock,很高兴和您交流。想问问您关于到2028年这四个主要组件供应可见性的评论。第一,您是怎么做到的?这可能是——您是第一个提到到2028年时间框架的公司。第二,在2027年AI业务实现惊人增长之后,基于您看到的供应情况,您是否有足够的可见性在2028年实现相当大的增长?非常感谢。
最好的答案是,是的,你是对的。我们预计这种急剧加速的增长。现在,没有人能预料到增长的速度,但我们在某种程度上预料到了很大一部分,或者我想,或者从长远来看——超过六个月。我们很早就能够锁定你们都听说过的著名的T-glass。我们非常早。我们锁定了基板。我们与我们的好合作伙伴合作处理我们谈到的其他所有事情。所以,对你问题的回答是,这在某种程度上是早期预期,而且我们在这些关键组件方面有非常好的合作伙伴。
我还能说什么呢,是的。Charlie,你想补充什么吗?
是的,也许快速补充几点。我认为您已经很好地涵盖了这部分内容。Ben,我认为另一个非常重要的点,正如Hock所说,我们为六个客户构建定制硅。我们与他们有非常深入的战略性多年合作。由于这种定制能力,他们与我们分享至少未来两到三年,有时四年的预期。正因为如此,这正是我们去确保Hock谈到的所有元素的原因。当我们确保这些时,需要与这些合作伙伴进行投资,有时不仅是开发更多产能,还要开发正确的技术和产能。所以我们必须确保多年的供应,你说得对,我们可能是第一个确保到2028年或更晚供应的公司。
根据您看到的供应情况,您能在2028年实现增长吗?抱歉,偷偷问一下。
是的。
谢谢。
谢谢。下一个问题来自美国银行证券的Vivek Arya。您的线路已接通。
感谢您回答我的问题。Hock,我想首先澄清您正在进行的Anthropic项目,今年1吉瓦约200亿美元。其中多少是芯片,多少是机架?我只是想了解当您说1000亿美元芯片时,是否区分芯片和机架规模项目?因为那个项目明年应该会翻三倍。
然后我的问题是,您的AI业务正从一个您拥有独家合作关系的大客户,过渡到现在多个使用多个供应商的客户。那么您如何获得这些多个客户份额进展的可见性和信心,因为他们与众多云服务提供商等有非常分散的合作。您正在做什么来确保在这些使用多个供应商的分散客户群体中拥有坚实的可见性和正确的市场份额?
Vivek,你必须理解一件事——首先,正如Charlie正确指出的,我们只有很少的客户。准确地说,六个,对于我们正在推动的 volume 和收入,我们只有六个。在此之前,最近甚至更少。第二,还必须理解,他们每个人的支出金额以及他们所从事业务的关键性质,这就是为什么我提出这个术语。Meta有MTIA,这是他们的客户加速器计划。对他们来说,就像我在这个领域的每个客户一样,这是一个战略举措。不是可选项。对他们来说,长期、短期、中期都是战略性的,极其战略性的。他们不会停止,而且他们每个人都非常清楚,他们希望在其LLM发展轨迹以及如何为这些LLM产品化开发推理的轨迹中定位这种定制硅。
这部分我们有非常清晰的可见性。任何关于GPU、使用NeoCloud、使用云业务的其他事情,都是交易性的和可选项。所以你必须正确地指出,这似乎非常混乱。相信我,对我们来说不是,对我们的客户来说也不是。他们非常有战略性,非常有针对性,并且确切地知道他们每年想要建立多少容量。他们唯一考虑的是能否更快地做到这一点。
否则,这是非常战略性的,并且针对预计的路线图。你在组合中看到的其他任何东西都是纯粹的,我称之为,这些人的机会主义,可选项。所以这非常清楚。
关于澄清,Hock,Anthropic的机架与芯片,谢谢。
我宁愿不回答这个问题,但我们没问题。正如Kirsten所说,我们的美元和利润率都很好。
谢谢。谢谢。
谢谢。下一个问题来自巴克莱的Tom O'Malley。您的线路已接通。
嘿,各位,感谢您回答我的问题。我有一个问题问Hock,一个问Charlie。Hock,我知道您在开场白中非常具体,您提到客户通过400G串并转换器(SerDes)继续使用直接连接铜缆。您特别指出这一点有什么原因吗,尤其是作为CPO的领先先驱?然后Charlie,随着您增加更多客户,我想与您一起设计ASIC的客户将使用纵向扩展以太网。也许谈谈纵向扩展协议以及您如何看待以太网在这方面的发展。
好的。不,除非——我只是强调在网络方面,我们的技术确实非常独特地定位我们来帮助我们的客户。而且不仅仅是我们的客户,甚至使用通用GPU的客户,不仅仅是XPU,也就是说,如果你正在运行并试图创建LLM并运行、创建自己的AI数据中心并设计它、架构它,你确实想要更大更大的域或集群——并且你真的希望在可能的情况下将XPU直接连接到XPU。最好的方法是使用直接连接铜缆。这是延迟最低、功耗最低、成本最低的方式。所以你想尽可能长时间地这样做,特别是在纵向扩展方面。在横向扩展方面,我们已经过去了。我们使用光模块。没关系。但我说的是在机架、集群域中的纵向扩展。
你真的想尽可能长时间地使用直接连接铜缆。基于博通在——特别是在XPU到XPU或甚至GPU到GPU连接方面的技术,我们可以用铜缆做到这一点,并且我们可以将信封从100G推到200G甚至400G。我们现在有运行400G的SerDes,可以在机架上驱动铜缆的距离。好吧,我想说的是,你不需要去追求一些叫做CPO的闪亮新事物,即使我们是CPO的领导者。CPO会在适当的时候出现。不是今年,也许不是明年,但会在适当的时候。
Charlie?
是的,没有。Hock说得很好。关于以太网的问题,随着云的出现,以太网在过去二十年成为每个云的事实上的标准。如果你看看后端网络的出现,正如Hock所阐述的,两年前关于应该使用什么协议来实现延迟、横向扩展所需的规模有一场大争论。当时,24个月前,行业还不清楚。我们很清楚。我们实际上非常清楚答案应该是什么。再次,由于与我们合作伙伴的深入合作,他们向我们和整个行业非常清楚地表明,无论是GPU还是XPU,以太网都是横向扩展的选择。检查。今天每个人都在谈论用以太网横向扩展。
现在,当谈到纵向扩展时,是的,就像三四年前纵向扩展发生的情况一样,现在,正确的答案是什么?我们一直听到并看到的正确答案是以太网。如你所知,去年我们与多个超大规模数据中心和半导体行业的许多同行宣布,以太网纵向扩展是正确的选择。我们相信这将会发生。时间会证明,但我们正在做的许多XPU设计,我们被要求通过以太网进行纵向扩展,我们很乐意支持这一点。
谢谢你们两位。
谢谢。下一个问题来自高盛的Jim Schneider。您的线路已接通。
下午好,感谢您回答我的问题。Hock,听到您讨论TPU之外的其他全定制XPU项目的进展很有帮助。展望明年,是否可以假设这些项目主要针对推理应用?然后您能否从质量上谈谈相对于GPU的性能或成本优势,这些优势使客户能够预测如此大规模的需求?谢谢。
谢谢。大多数客户从推理开始,这仅仅是因为——这往往是最容易开始的路径,这并非出于其他原因,而是因为当你进行推理时,计算量较少,但同时问题是,当你可以用更高效、更有效的定制推理硅XPU更好地或同样好地完成工作时,你是否需要这种通用的、大规模密集矩阵乘法GPU,成本更低,功耗更低。这就是我们发现这些客户开始的地方。但他们现在正在进入训练,我们的许多XPU既用于训练也用于推理。顺便说一下,它们是可互换的。就像GPU不仅可以用于训练(它们可能更适合训练),还可以用于推理。我们看到我们的XPU两者都用,并且我们正在看到这种情况。
但我们也非常迅速地看到,对于那些在我谈到的向完整XPU发展的过程中更加成熟的客户,他们将开始每年同时开发两款芯片,一款用于训练,一款用于推理,以实现专门化。为什么?因为我们非常清楚地看到,对于这个LLM玩家来说,你进行训练是为了让你的LLM达到更高的智能水平。所以很好,你得到了一个很棒的LLM,最先进的或更先进的。现在你必须将其产品化,这意味着推理。好吧,你可以在那时决定你有了LLM,你的模型达到了最佳状态,因为如果你决定那时进行推理产品化,你至少需要一年的时间来产品化,到那时其他人将创建比你的更好的LLM。因此,这里有一种信念的飞跃,当你进行训练以创建LLM的下一级超级智能时,你必须同时投资于推理,无论是芯片还是容量方面。因此,随着我们发现这六个客户在向更好更好的LLM发展的过程中变得更加成熟,我们的可见性确实越来越好。
所以是的,这是我们看到的趋势。并非我们所有的六个客户都已经发生这种情况,但我们看到大多数客户现在正朝着这个方向发展。
谢谢。请稍等,下一个问题。来自TD Cowen的Joshua Buchalter。您的线路已接通。
嘿,各位,感谢您回答我的问题,并祝贺取得的业绩。感谢您提供关于特定客户部署预期的所有细节。我希望您能反思一下过去一两个季度可见性的变化,这让您有信心给我们更多细节。然后具体到一个问题,您提到OpenAI在2027年超过1吉瓦。由于该交易到2029年为10吉瓦,这意味着2028年将有相当大的增长。这样想对吗?这一直是计划吗?谢谢。
是的。嗯,是的,正如你们都看到的,你们都知道,在我们现在所处的生成式AI竞赛中,我不应该用“竞赛”这个词,让我们称之为少数玩家之间的进展。我的意思是,这是一种竞争。每个人都试图创建比对方更好的LLM,并为特定目的(无论是企业、消费者还是搜索)进行更定制化的设计。每个人都在越来越多地创建它。所有这些不仅需要训练(这对于不断改进LLM模型很重要),还需要推理来实现LLM的产品化和货币化。我们正在获得——可能称之为我们与其中一些客户合作已经超过几年了。随着他们越来越有信心与我们合作的XPU正在实现他们的目标,我们的可见性越来越好。当他们感觉到他们正在使用的XPU硅与他们需要的软件、算法一起工作时,他们更有信心这种XPU硅是他们所需要的。情况越来越好。情况越好,我们的可见性就越好,正如Charlie完美指出的那样。因为归根结底,我们只需要与六个人合作。而且正如我所说,这六个人都以非常战略的方式看待XPU和AI。他们不会一次只考虑一代。他们考虑多代、多年。尽管外面有很多关于可用内容的傲慢和噪音,但他们从长远角度考虑如何部署与我们一起开发的XPU,如何部署以实现他们想要创建的更好更好的LLM。不仅如此,他们如何部署以实现货币化。
因此,我们是他们战略路线图的一部分。我们不仅仅是“我应该使用GPU吗?我应该在云中使用它,因为我需要训练六个月吗?”的可选项。不,这远不止于此。这些人的投资是长期的,能成为这种长期路线图的一部分而不是交易路线图的一部分,真是太好了。正如我在回答 earlier 问题时所说的噪音,有很多噪音将短期交易与我们业务和产品的长期战略定位混为一谈。总而言之,我认为我们在XPU业务中对我们今天拥有的六个客户来说是一个战略性的、可持续的业务。
谢谢。
谢谢。今天的问答时间到此结束。我现在想将电话转回给Ji Yoo作任何结束语。
谢谢Sheri。博通目前计划于2026年6月3日星期三市场收盘后公布2026财年第二季度的收益。博通收益电话会议的公开网络直播将随后于太平洋时间下午2:00进行。今天的收益电话会议到此结束。感谢大家的参与。Sheri,你可以结束通话了。
[主持人结束语]