Rudolph Araujo(投资者关系主管)
Jayshree Ullal(首席执行官兼董事长)
Chantelle Breithaupt(高级副总裁兼首席财务官)
Kenneth Duda(联合创始人、总裁、首席技术官兼董事)
Meta Marshall(摩根士丹利)
Samik Chatterjee(摩根大通公司)
David Vogt(瑞银投资银行)
Aaron Rakers(富国银行证券)
Amit Daryanani(Evercore ISI机构股票)
George Notter(Wolfe Research)
Benjamin Reitzes(Melius Research LLC)
Timothy Long(巴克莱银行)
Kari Ackerman(法国巴黎银行)
Simon Leopold(Raymond James & Associates, Inc)
James Fish(Piper Sandler & Co)
Tal Liani(美国银行证券)
Adrienne Colby(花旗集团)
Michael Ng(高盛集团)
Ryan Koontz(Needham & Company, LLC)
欢迎参加2025年第四季度ERISA Network财务业绩财报电话会议。在会议期间,所有参会者将处于仅收听模式。演示结束后,我们将进行问答环节。届时将提供相关说明。如果您在会议期间需要联系操作员,请按星号键后再按零。提醒一下,本次会议正在录制,并将在Arista网站的投资者关系部分提供回放。此次通话后,Arista投资者关系副总裁Rudolph Araujo先生。您可以开始了。
谢谢,Regina。大家下午好,感谢大家参加我们的会议。今天与我一起参加电话会议的有Arista Network的董事长兼首席执行官Jayshree Ulal,以及Arista的首席财务官Chantelle Breithaupt。今天下午,Arista Networks发布了一份新闻稿,公布了截至2025年12月31日的第四财季业绩。如果您需要新闻稿的副本,可以在我们的网站上在线获取。在本次电话会议过程中,Arista Networks管理层将发表前瞻性陈述,包括与我们2026年第一季度的财务展望、财年、长期业务模式和2026年及以后的财务展望、我们的总可寻址市场以及应对这些市场机会(包括人工智能)的战略、客户需求趋势、关税和贸易限制、供应链限制、组件成本、制造产出、库存管理以及我们业务的通胀压力、交货时间、产品创新、营运资本优化以及收购带来的好处相关的陈述,这些陈述受我们在提交给美国证券交易委员会的文件中详细讨论的风险和不确定性的影响,特别是在我们最近的Form 10Q和Form 10K中,这些风险和不确定性可能导致实际结果与这些陈述所预期的结果存在重大差异。
这些前瞻性陈述截至今天适用,您不应依赖它们来代表我们未来的观点。我们没有义务在本次通话后更新这些陈述。我们对第四季度业绩的分析以及对2026年第一季度的指导基于非公认会计原则,不包括所有非现金股票薪酬影响、某些收购所需费用和其他非经常性项目。我们选定的公认会计原则与非公认会计原则结果的完整调节在我们的收益报告中提供。有鉴于此,我将把电话交给Jai Sree。
谢谢Rudy,也感谢大家今天下午参加我们2025年第四季度和全年的收益电话会议。嗯,2025年对Arista来说又是具有决定性意义的一年,生成式人工智能以及云和企业领域的发展势头强劲,我们实现了28.6%的增长,远超我们的目标,推动收入达到创纪录的90亿美元,同时全年非公认会计原则毛利率为64.6%,非公认会计原则营业利润率为48.2%。Arista 2.0的发展势头十分明显,我们在2025年第四季度的累计端口出货量超过了1.5亿个。亚洲和欧洲的国际增长都取得了良好的里程碑,年增长率超过40%。
正如预期的那样,我们已经超过了校园和分支机构扩张8亿美元以及人工智能中心网络15亿美元的战略目标。转向2025年的年度客户部门收入,云和人工智能巨头贡献显著,占48%,企业和金融业占32%,而人工智能和专业提供商(现在包括苹果、甲骨文及其计划以及新兴的NEO云)表现强劲,占20%。2025年,我们有两个客户的集中度超过10%。客户A和B分别占我们整体业务的16%和26%。我们珍视我们长达10到15年的合作工程特权伙伴关系。
随着我们人工智能势头的不断增强,我们预计2026年客户群将更加多元化,包括在2025年产品线年度方面,可能会增加一个甚至两个额外的10%客户。我们的核心云、人工智能和数据中心产品建立在我们高度差异化的Arista EOS堆栈之上,成功部署了从10千兆到800千兆比特以太网的速度,1.6太比特的迁移即将到来。这包括我们的EtherLink AI产品组合和7000系列平台,它们在性能、能效、高可用性、自动化、敏捷性方面处于同类最佳水平,适用于前端和后端计算存储以及所有互连区域。当然,我们与英伟达(全球公认的GPU市场领导者)进行互操作,但我们也意识到有责任扩大OpenAI生态系统,包括AMD、Anthropic、ARM、博通、OpenAI、Pure Storage和Vast Data等领先公司,仅举几例,它们共同构建了21世纪的现代人工智能堆栈。
Arista显然正在成为运行这些密集训练和推理模型的黄金标准太比特网络。以万亿次浮点运算处理令牌。Arista的核心部门收入占收入的65%。根据大多数主要行业分析师的说法,我们有信心在高性能交换市场份额中占据第一的位置。我们推出了Blue Box计划,提供对我们硬件平台的增强诊断,称为NetDI,可在我们的旗舰EOS和开放NAS平台上运行。2025年,我们看到800千兆的采用率显著上升,我们的Etherlink产品累计获得了超过100个客户,并且我们正在共同设计几个配备1.60交换功能的人工智能机架系统,将于今年推出。
随着我们可见性的提高,我们现在从2025年到2026年将人工智能网络收入翻一番,达到32.5亿美元。我们的网络邻接市场包括路由(替换路由器)和我们的认知人工智能驱动的AVA校园。我们在认知有线和无线、零接触操作、网络身份扩展和分段方面的投资在行业中获得了多项赞誉。我们的开放式现代堆叠技术(SWAG交换聚合组)以及最近用于第二层和第三层有线和无线扩展的Vespa是引人注目的校园差异化因素。结合我们在2025年7月最近收购的VeloCloud,我们正在推动从客户端到分支机构再到校园的同质安全解决方案,并实现统一管理域。
展望未来,我们致力于实现2026年认知校园和分支机构12.5亿美元的激进目标。我们还成功部署了许多路由边缘核心 spine 和对等使用案例。在2025年第四季度,Arista推出了我们的旗舰7800 R4 Spine,适用于许多路由使用案例,包括DCI AI Spine。它拥有460太字节的巨大容量,以满足多服务路由人工智能工作负载和交换用例的苛刻需求。校园和路由邻接业务合计贡献了约18%的收入。我们的第三个也是最后一个类别是基于订阅模式的网络软件和服务,如Acare、Cloud Vision、Observability、Advanced Security,甚至一些分支机构边缘服务。
我们每天新增约350个Cloud Vision客户,近十年来累计部署了3000个Cloud Vision客户。Arista基于订阅的网络服务和软件收入约占17%,请注意,这不包括包含在核心或相邻市场中的永久软件许可。Arista 2.0的势头显而易见。我们发现自己处于关键任务网络交易的中心。我们正在成为从客户端到云和人工智能网络的首选网络创新者。凭借高度差异化的软件堆栈和统一的云视觉软件基础,我们自豪地为华纳兄弟发行网络提供支持,为泛欧冬季奥运会的47个市场、21种语言提供流媒体服务。
正如我所说,这正在发生。我们现在累计客户超过10,000家,我对2025年我们在500万至1000万客户类别以及100万客户类别的增长尤其印象深刻。Arista 2.0愿景引起了客户的共鸣,他们重视我们引领从不一致的孤岛向可靠数据中心的转型。数据可以驻留在校园中心、数据中心、广域网中心或人工智能中心,无论其位置如何。2025年,基于全以太网的Arista人工智能中心实现了人工智能网络的生产规模。我们是基于以太网标准的创始成员,无论是ESUN的横向扩展,还是完成超以太网联盟1.0规范的横向扩展人工智能网络。
这些人工智能中心将后端人工智能加速器与前端计算存储、广域网和经典云网络无缝连接。我们的人工智能加速网络产品组合包括三个系列的EtherLink spine-leaf架构,成功部署在横向扩展、横向扩展和跨网络扩展中。网络架构必须处理训练和推理前沿模型,以缓解拥塞。对于训练,关键指标显然是作业完成时间,即从将作业训练作业提交到人工智能加速器集群到训练运行结束所花费的时间。对于推理,关键指标略有不同。
这是生成第一个令牌所花费的时间,基本上是用户提交查询到收到第一个响应所花费的延迟时间。Arista显然开发了一套完整的人工智能功能,以独特地处理人工智能和云工作负载在流量流的多样性、持续时间、大小以及所有相关模式方面的保真度。我们基于AVA自主虚拟助手的网络人工智能战略为更高层次的功能整理数据。结合我们在EOS NETDL(网络数据湖)中发布的订阅状态基础,我们为客户网络提供工具,以提供主动、预测和规范的功能,以增强安全性、可观测性和智能人工智能操作。
结合Arista经过验证的网络模拟、数字孪生和验证功能设计,Arista平台经过完美优化,适合网络即服务。我们与客户和渠道的全球相关性正在增强。仅在2025年,我们就在亚洲、欧洲和美国三大洲举办了三场大型客户活动,以及许多其他小型活动。当然,我们接触了企业中的4000到5000名战略客户和合作伙伴。虽然许多客户正在与他们的传统供应商作斗争,但Arista因重新定义网络的未来而深受赞赏。客户长期以来一直赞赏我们的网络创新和质量,这体现在我们93%的最高净推荐值和行业中最低的安全漏洞上,我们现在看到企业客户群的接受和采用速度正在加快。
我们的领导团队,包括我们新任命的联合总裁Ken Duda和Todd Nightingale,推动了战略和凝聚力的执行。Tyson Lamoreaux是我们最新的高级副总裁,他带着丰富的云运营商经验加入我们,点燃了我们在人工智能和云巨头客户中的超高速增长。2025年底,我们现在约有5200名员工,其中也包括最近收购的VeloCloud。我为整个Arista团队感到无比自豪,并感谢所有员工的奉献和辛勤工作。当然,我们顶尖的工程和领导团队始终坚定地优先考虑我们Arista Way的核心原则:创新、文化和客户亲密关系。
嗯,我想你会同意,2035年确实是难忘的一年,我们预计2026年也将是精彩的一年。我们正处于前所未有的网络需求之中,总可寻址市场(TAM)超过1000亿美元且不断增长,因此,尽管有关于供应链分配紧张、内存和硅结构成本上升的所有消息,我们仍将2026年的指导增长率提高到25%。年增长率现在加速至112.5亿美元,带着这个好消息,我将话筒交给我们的首席财务官Chantel。
谢谢Jaisree,并祝贺你和我们的员工度过了出色的2025年。正如你所概述的,这对公司来说是出色的一年,这种强劲的表现清楚地反映在我们的财务业绩中。让我详细介绍一下。首先,第四季度的总收入为24.9亿美元,同比增长28.9%,高于我们23亿至24亿美元指导区间的上限。很高兴看到本季度所有地区都实现了强劲增长。服务和订阅软件在第四季度贡献了约17.1%的收入,低于第三季度的18.7%,这反映了上一季度VeloCloud服务非经常性续约后的正常化。
本季度国际收入为5.283亿美元,占总收入的21.2%,高于上一季度的20.2%。季度环比增长是由我们国际市场的大型全球客户的更强贡献推动的。第四季度的整体毛利率为63.4%,略高于62%至63%的指导值,低于去年同期的64.2%。同比下降是由于本季度对云和人工智能巨头客户的销售组合较高。本季度的运营费用为3.971亿美元,占收入的16%,高于上一季度的3.833亿美元。
研发支出为2.726亿美元,占收入的11%,高于上一季度的10.9%。Arista继续展示其对网络创新的承诺和关注,2025财年的研发支出约占收入的11%。销售和营销费用为9830万美元,占收入的4%,低于上一季度的1.095亿美元。2025财年销售和营销费用占4.5%,代表了Arista高效的市场推广模式。我们的一般和行政成本为2630万美元,占收入的1.1%,高于上一季度的2240万美元,反映了对系统和流程的持续投资。
为了扩展,Arista 2.0在2025财年的一般和行政费用保持在收入的1%。我们本季度的营业收入为12亿美元,占收入的47.5%。第四季度的强劲表现使2025财年的营业收入达到43亿美元,占收入的48.2%。本季度的其他收入和支出为有利的1.02亿美元,我们的有效税率为18.4%。这一低于正常水平的季度税率反映了由于诉讼时效到期而释放的税收储备。总体而言,这导致本季度净收入为10.5亿美元,占收入的42%。
令人兴奋的是,Arista首次实现了超过10亿美元的净收入。祝贺Arista团队取得这一令人印象深刻的成就。我们的稀释后股数为12.76亿股,导致本季度稀释后每股收益为0.82美元,同比增长24.2%。2025财年,我们很高兴实现了2.98美元的稀释后每股收益,同比增长28.4%。现在,转向资产负债表,现金、现金等价物和有价证券在本季度末约为107.4亿美元。在本季度,我们以每股127.84美元的平均价格回购了6.201亿美元的普通股。
在2025财年,我们以每股100.63美元的平均价格回购了16亿美元的普通股,在2025年5月批准的15亿美元回购计划中,未来几个季度将回购8.179亿美元。未来回购的实际时间和金额将取决于市场和业务状况、股票价格和其他因素。现在转向第四季度的经营现金表现,我们在此期间产生了约12.6亿美元的经营现金。这一结果是强劲的盈利表现的结果,递延收入增加,但由于更高的出货量和季度末服务续约,应收账款增加部分抵消了这一增长。
DSO(应收账款周转天数)为70天,高于第三季度的59天,这是由于本季度的续约和出货时间安排。库存周转率为1.5次,高于上一季度的1.4次。库存略微增加至22.5亿美元,反映了对原材料和成品的谨慎库存管理。本季度末我们的采购承诺为68亿美元,高于第三季度末的48亿美元。正如前几个季度所提到的,这一预期活动主要代表与新产品和人工智能部署相关的芯片采购。由于对我们新产品的需求、组件定价(如DDR4内存的供应限制)以及主要供应商的交货时间等因素的综合影响,未来几个季度我们将继续存在一些可变性。
我们的递延收入总额为54亿美元,高于上一季度的47亿美元。在第四季度,递延收入余额的大部分与产品相关。我们的产品递延收入较上一季度增加了约4.69亿美元。我们仍处于推出新产品、赢得新客户和扩展包括人工智能在内的新用例的阶段。这些趋势导致客户特定的验收条款增加,产品递延收入余额的波动性增加。正如前几个季度所提到的,递延余额可能在季度基础上显著变动,与潜在业务驱动因素无关。应付账款天数为66天,高于第三季度的55天,反映了库存接收和付款的时间安排。
本季度的资本支出为3700万美元。2024年10月,我们开始了在圣克拉拉建设扩建设施的初步建设工作,并在2025财年为此项目发生了约1亿美元的资本支出。随着我们进入2025年,我们对2026财年有了更清晰的认识和信心。正如Jaisree所提到的,我们现在很高兴将2026财年的收入增长展望提高到25%,交付约112.5亿美元。我们维持2026年校园收入12.5亿美元的目标,并将人工智能中心的目标从27.5亿美元提高到32.5亿美元。对于毛利率,我们重申本财年的范围为62%至64%,包括内存和硅的组合以及预期的供应链成本增加。
在支出方面,我们预计将继续投资于创新、销售和业务扩展,以确保我们作为领先的纯网络公司的地位。随着收入指导的提高,我们现在有信心将2026年的营业利润率展望提高到约46%。在现金方面,我们将继续努力优化营运资本投资,由于组件接收时间的原因,库存预计会有一些可变性。关于采购承诺,我们的结构性税率预计为21.5%,回到通常的历史税率,高于上一季度(2025年第四季度)18.4%的季节性较低税率。
在所有这些背景下,我们对第一季度的指导如下。收入约为26亿美元,毛利率在62%至63%之间,营业利润率约为46%。我们的有效税率预计约为21.5%,稀释后股数约为12.75亿股。在我们9月份的分析师日结束时,我们的主题是建立势头,我们正在这样做。在校园广域网数据和人工智能中心,我们处于独特的位置,可以提供客户需要的东西。我们将继续提供世界级的客户体验和创新。我对我们未来的财年充满热情。
现在回到你Rudy进行问答环节。
谢谢Chantelle。我们现在将进入Arista收益电话会议的问答部分,以便更多人参与。我想请大家每人只提一个问题。感谢您的理解。Regina。请开始吧。
我们现在开始Arista收益电话会议的问答部分。在此期间要提问,只需按星号键,然后按电话键盘上的数字1。如果您想撤回问题,请按星号键和数字1。再次,请在提问前拿起听筒,以确保最佳音质。我们的第一个问题来自摩根士丹利的Meta Marshall。请讲。
太好了。祝贺本季度的业绩。我想就Jay cherie提到的一两个额外的10%客户的评论深入了解一下。我想深入了解一下。你知道,是什么因素可能促成或阻碍这些客户成为另外两个10%的客户?是他们建设方面的瓶颈吗?还是什么因素?谢谢。
谢谢Mita的祝福。所以显然,如果我没有信心,我就不敢这么说了,对吧?但总有变数。其中一些可能处于递延状态,所以我们必须满足验收标准,而且满足验收标准也有时间安排。有些需求仍在进行中,你知道,在这个供应链分配紧张和通货膨胀的时代,我们必须确保能够发货。
所以我们不知道确切是10%,还是高个位数,或者低两位数,但很多变量将决定最终数字。但需求肯定是存在的。
太好了,谢谢。谢谢。
我们的下一个问题来自摩根大通的Samik Chatterjee。请讲。
嗨,感谢你回答我的问题。Jessie,祝贺本季度和展望。我不想说25%的增长不令人印象深刻,但既然你对第一季度的指导是30%左右,也许我想了解一下,是什么导致对今年剩余时间的能见度有些谨慎,是你提到的一到两个新客户及其增长,还是某些组件或内存的供应可用性,导致你对今年剩余时间的能见度有些谨慎?如果你能理解其中的驱动因素。
是的。谢谢。谢谢。谢谢。Sameet。首先,我不认为我在谨慎。我认为我已经全力以赴给了你大量的现实情况,但我理解你对谨慎的看法。考虑到你从客户那里看到的所有资本支出数字,重要的是要理解我们不跟踪资本支出。资本支出中首先发生的是他们必须建造数据中心,获得电力,获得所有的GPU和加速器,而网络会滞后一点。所以需求将会非常好。但出货量究竟是在26年还是27年,Todd,你可以澄清它们真正的时间,但这里有很多变数。
这是一个问题。第二,正如我所说,其中很大一部分是新产品、新用例,与人工智能高度相关,客户仍处于第一阶段。所以再次,我在年初就给了你我能给出的最大能见度,基于我们可以发货的现实,而不是需求可能是什么。这可能是一个跨多年的需求,跨多年发货。所以希望这种情况能继续下去。但当然你必须理解,我们也面临大数定律。所以在现在90亿美元的基础上增长25%,而我们去年开始时是82.5亿美元,这确实是一个非常非常早和良好的开端。
谢谢。
我们的下一个问题来自瑞银的David Vogt。请讲。
太好了。谢谢你们回答我的问题。也许Chantal和Jerry,你能帮助量化你的指导中嵌入的内存动态和限制对收入的影响以及潜在的毛利率影响吗?我知道上个季度,你在本季度也提到了,你知道,显然供应链在你考虑的时候确实存在一些限制,我想Casey,你刚刚说了你看到的真实前景,也许你能帮助说明,你认为什么可能会阻碍你,如果你这么说的话,给我们一个在理想情况下可能的上行空间的感觉。
如果你能分享一下,我会很感激。
为了给出一些一般性的评论,Shanta,如果你不介意补充的话,你知道,我们行业的同行可能比我们更早面临这个问题,因为我认为服务器行业可能首先看到了这一点,因为它们对内存的需求更大。此外,我们预计硅制造的成本将会增加,如你所知,所有芯片基本上都是由一家公司——台积电制造的。因此,Arista自2025年以来就意识到了这一点,并采取了非常深思熟虑的方法,坦率地说,我们在2025年吸收了我们正在承担的许多成本。然而,2026年情况显著恶化。
我们不得不微笑着接受几乎任何我们能得到的价格,而且价格高得可怕,呈指数级增长。因此,显然随着情况的恶化,并且预计将持续多年,我们正经历内存短缺,值得庆幸的是,正如你从我们的采购中看到的,我们正在为此做计划。我知道内存现在是人工智能和汽车行业的新黄金,但显然这并不容易。但这将有利于那些有计划并且能够为此花钱的人。
是的,我认为,David,对你的问题我唯一要补充的是,谢谢你的问题,我们对指导感到满意,这就是为什么我们有这个指导,为什么我们提高了我们给出的数字。所以我们很满意,我们在提供的62%到64%的范围内有一条实现的路径,我认为尽管面临这种压力,我们还是很高兴能保持这个范围。你知道,这是我们自9月份分析师日以来的指导。所以我们很高兴能保持这个指导,并找到方法来缓解这个过程。
现在,最终是在指导范围内的62.5%还是63.5%,这是我们将继续向你更新的,但是我们对这个范围感到满意。
明白了。谢谢你们。
谢谢你,David。
我们的下一个问题来自富国银行的Aaron Rakers。请讲。
是的,感谢你回答问题,也祝贺本季度和指导。我想,当我们考虑今年32.5亿美元的人工智能贡献指导时,JSARI,你在多大程度上考虑了横向扩展网络机会?你认为这更多还是27年的事情,你能分解一下人工智能和校园贡献吗?看起来你对非人工智能的增长指导仍然相当温和,低个位数增长。我很好奇你如何看待非人工智能的校园增长。
好的,是的,你知道,水涨船高,但有些船涨得更高,有些更低。但为了回答你的具体问题,关于横向扩展。我们一直描述今天的配置主要是横向扩展和横向扩展的组合。我们主要基于800千兆和更小的Radix,现在ESUN规范正在顺利进行中,Kenduda,我认为规范肯定会在一年或今年内完成。所以Ken和Hugh Holbrooke积极参与其中。我们需要一个良好可靠的规范,否则我们将像世界上一些人今天那样发货专有产品。因此,我们将把横向扩展的承诺在很大程度上与新产品的可用性和新的ESUN规范联系起来,我们预计最早在今年第四季度,因此大部分将在一些试验中,Andy Vectorshein和团队正在做很多积极的人工智能机架,考虑横向扩展。
但真正的生产水平将在2027年,主要围绕不仅800千兆,还有1.6太比特。
我认为。
谢谢你,Erin。
我们的下一个问题来自Evercore ISI的Amit Daryanani。请讲。
是的,非常感谢,也从我这边祝贺一些非常好的数字。Jashi,我想像Anthropic这样的模型构建者,我想你们已经谈论过。他们开始自己构建这些数十亿美元的集群。现在。你能谈谈你参与这些建设的能力吗,无论是在DCI方面还是甚至超出这个范围。顺便说一下,随着时间的推移,当这些模型构建者与一些大型云公司合作构建TP或Trainium集群时,这是否给你提供了一个机会来扩大与这些云公司的合作?我很想了解这种业务对你来说如何扩展。
谢谢。
是的,不,Amit,这是一个非常有思想的问题,我认为你是绝对正确的。网络基础设施在多个方面对这些模型构建者起着关键作用。如果你看看我们最初,我们主要与一两个模型构建者和一两个加速器合作。英伟达和AMD,OpenAI是主要的主导者。但今天我们看到,蛋糕有多个层次,你有GPU加速器,当然你有最难获得的电力。但Arista需要处理多个领域和模型构建者,无论是Gemini、XAI、Anthropic Claude、OpenAI,还是更多即将出现的,我们必须确保为这些模型以及这些模型的多协议算法或性质正确构建网络。
这是其一。然后关于你的第二点,你完全正确。我认为最大的问题不仅是模型构建者,而且他们不再局限于一个数据中心,你会看到他们分布在多个托管数据中心、多个地点以及与我们历史上没有合作过的云巨头客户建立多个合作伙伴关系。所以我认为你会看到更多的副驾驶版本,如果你愿意的话,与我们的许多云巨头合作。因此,我们期望作为人工智能专业提供商与他们合作,也期望与我们的云巨头合作,将云和人工智能结合起来。
谢谢。
谢谢你,Amit。
我们的下一个问题来自Wolf Research的George Nader。请讲。
嗨,伙计们,非常感谢。我只是对产品递延收入以及你如何看待它最终从资产负债表中释放感到好奇。显然,它一个季度又一个季度地累积起来。所以这里有几个问题。它会以大块的形式在未来的不同季度释放吗?还是会更逐步地释放?它会继续累积吗?产品递延收入从资产负债表释放并进入损益表的情况如何?还有,我很好奇在全年收入指导(25%)中有多少产品递延收入。
非常感谢。
是的。嘿,George,谢谢你的问题。在我们进行这次对话的意义上,没有太多变化。递延收入中包含的是新产品、新客户、新用例。最大的新用例是人工智能。对于较大的部署,验收标准是12到18个月。有些可能短至6个月。所以有各种各样的情况。递延收入余额每个季度都有进出。我们不提供递延收入指导,也不具体说明产品。关于你的问题,我能告诉你的是,有时会有更大规模的部署,在我们进行过程中会感觉有点不稳定。
但同样,这是余额的净释放。所以这取决于同一季度的收入情况。时间问题。
明白了。好吧。那么全年指导中有多少呢?我假设不多。这么说公平吗?
这非常困难,George。这取决于验收标准何时满足,你知道,如果在12月32日满足,情况就不同了。如果都在第二季度、第三季度、第四季度满足,情况又不同。所以这是我们必须与客户合作的事情。所以很抱歉我们不能未卜先知。
有道理。谢谢。
谢谢。
谢谢。
我们的下一个问题来自Melius Research的Ben Reitzes。请讲。
嘿,非常感谢,我也向你们表示祝贺。你们的执行力和指导真的很了不起。所以我想感谢你,Ben。不客气。我想问两件事,我只是想知道你能否多谈谈你们的NEO云发展势头,以及它在重要性方面的情况。然后如果你不介意谈谈AMD的发布,我们听说你们在450型产品或他们的新芯片上获得了很多网络订单。想知道这是否会成为你全年的催化剂。
非常感谢。
是的。所以Ben,正如你可以想象的,专业云提供商历史上有很多类型的提供商。我们肯定看到人工智能是其中一个明确的驱动力。过去是内容提供商、二级云提供商,但人工智能显然正在推动这一领域,这是一系列客户,其中一些拥有真正的财务实力,现在正寻求投资、增长并转向人工智能。所以他们转向人工智能的速度将极大地决定我们在这方面的表现。你知道,他们还不是巨头,但他们想成为或可能成为巨头,你可以这样看。
所以我们将与他们一起投资,这些都是健康的客户。这与.com时代完全不同。我们对此感觉良好。有一组NEO云我们会更仔细地关注,因为其中一些是,你知道,石油资金转化为人工智能或加密货币资金转化为人工智能。在那里,我们会更加谨慎,因为一些NEO云,你知道,将Arista视为首选合作伙伴,但我们也会关注客户的健康状况,或者他们可能只是一次性的,我们不知道他们业务的确切性质,这些规模会更小,不会贡献大量资金。
但即使它们在数量上还不多,在数量上也变得越来越多。所以我认为你在这个类别中看到了两种或三种类型的二分法,经典的CDN和安全专业提供商,二级云,人工智能专业提供商将倾向于投资,然后是不同地区的NEO云。
AMD的问题。
哦,是的,AMD的问题。你知道,一年前我想我跟你说过,但我会重复一遍。一年前,我认为几乎99%是英伟达。对吧。今天当我们看我们的部署时,我们看到大约20%,20%,也许更多一点,20%到25%的情况下,AMD正在成为首选的加速器。在这些情况下,ARISCA显然是首选,因为他们正在为网卡、网络、IO构建同类最佳的构建块,他们希望开放标准,而不是来自一个供应商的完整垂直堆栈。所以你正确地指出了AMD,特别是与Lisa和Forrest以及整个团队合作是一种乐趣,在多供应商开放考虑中,我们做得非常好。
我们的下一个问题来自巴克莱的Tim Long。请讲。
谢谢。是的,感谢所有的内容J3。也许我们可以稍微谈谈横向扩展。显然它在行业中得到了很多关注,特别是在光学层方面。显然你们在DCI方面有经验,这是一种类似的技术。但好奇你认为Arista在这些下一代横向扩展网络中的参与度如何。这对蓝盒类型的产品有好处吗,还是更多在横向扩展方面?如果你能提供一些这方面的内容,那就太好了。
对吗?好的。所以我们今天的大部分参与我们原以为会是横向扩展,但我们发现,由于电力的分布性质以及双向带宽增长,本质上吞吐量横向扩展或横向扩展都是关于你可以移动多少数据。对吧。随着工作负载变得越来越复杂,你必须使它们越来越分布式,因为你不能把它们放在一个数据中心,无论是从电力带宽吞吐量容量来看。此外,这些GPU正试图最小化集体性能下降。
因此,当你横向扩展或向外扩展时,通信模式成为非常非常大的瓶颈。解决这个问题的一种方法是通过光纤扩展到数据中心,正如你正确指出的,非常高的注入带宽DCI路由。然后你需要在所有这些中保持实际的世界利用率。出于所有这些原因,我们对相干长距离光学器件的作用感到惊喜,我们不生产这种器件。但我们过去与生产这种器件的公司有很大的合作,他们看到了增长,7800 spine机箱作为我们的工程团队多年来为这种强大配置设计的旗舰平台和首选选择。
所以那里蓝盒的成分较少,更多的是完整的Arista旗舰产品,以及我们所有的虚拟输出排队和缓冲,以极高的路由和高可用性水平互连区域数据中心。所以这真的融入了Arista所代表的一切,共同构成了一个通用的人工智能spine。
好的,太好了。谢谢。J Sri。
谢谢。
我们的下一个问题来自法国巴黎银行的Kari Ackerman。请讲。
是的,谢谢。Agentech AI应该支持传统服务器CPU的使用增加,你们的交换机在数据中心内占有很高的份额。因此,考虑到你上调了今年25%的增长展望,你能谈谈你看到的针对agentic AI产品的前端高速交换产品的需求前景吗?谢谢。
是的,正是,Carl。我想在开始,让我们回顾一下历史,这并不遥远,三年前,我们没有人工智能。我们盯着InfiniBand在后端到处部署,我们几乎将我们的人工智能描述为唯一的后端,只是为了纯粹。对吧。三年后,我实际上告诉你,我们今年可能会超过30亿美元,并且还在增长。对吧。这个数字肯定包括前端,因为它与后端GPU集群相关,并且是用于agentic AI应用的全以太网全AI系统。
现在,很多代理人工智能应用主要在我们最大的云AI和专业提供商中运行。但我不排除你可能在我们的数字中看到这一点,有超过800个千兆客户,其中许多将进入企业以及代理人工智能应用,用于基因组测序科学,你知道,软件自动化。我不知道,我不认为我们任何人能相信人工智能正在吞噬软件,但人工智能肯定在启用更好的软件。对吧。我们在Ken的团队以及我们的理论中肯定看到了这一点。
因此,代理人工智能的兴起不仅会增加GPU,还会增加后端和前端中使用的所有XPU等级。
谢谢。
谢谢。Kaal。
我们的下一个问题来自Raymond James的Simon Leopold。请讲。
非常感谢你回答这个问题。我想回到内存市场的问题上。有两个方面。第一,我想知道价格上涨在多大程度上是一个工具。你向客户提高价格,或者在你大量的采购承诺中,是否有很大一部分是内存。所以你实际上是以比今天现货市场低得多的价格预先购买了内存。谢谢。
谢谢。好吧,我希望我能告诉你我们购买了所有我们需要的内存。不,我们没有。但是当我们行业的同行已经进行了多次价格上涨时,特别是那些服务器市场或内存密集型交换机的同行,我们显然一直在吸收它,内存是我们的采购承诺之一,但其他所有东西也是。由于一些供应链反应,整个硅产品组合都在我们的采购承诺中。Todd和我一直在审查这一点,我们确实认为将对选定的特别是内存密集型SKU进行一次性提价来应对,并且如果价格在1月和2月继续上涨,我们无法吸收。
我会告诉你,我目前和Chantelle目前的承诺中的所有采购承诺都不够。我们需要更多的内存。
谢谢。
我们的下一个问题来自Piper Sandler的James Fish。请讲。
嘿,女士们,很棒的季度。很棒的年终,J Street,我们的超大规模企业现在是否感到紧张并提前订购。你对需求拉动的感觉如何,包括你们自己的蓝盒计划?Chantal,对你来说,回到George的问题,你是否预期产品递延收入会在全年继续增长,或者太难预测,你有客户可能会说,你知道,我们接受,现在全部发货。所以我们最终会有一个大季度,但递延收入下降。
我会让Chantelle一遍又一遍地回答这个困难的问题。
乐意。谢谢你,James。我很感激。所以我认为对于递延收入,一般来说,我们不提供递延收入指导。但为了给你更多的见解,会有。回到George的问题。会有某些部署被接受并释放。但困难的部分是资产负债表上的收入情况。对吧,James?所以我不能指导。那将是一个关于收入情况的疯狂猜测,我认为从我的角度来看是不谨慎的。所以我们会继续提到其中的内容。我们会继续通过余额向你展示。
我们会在脚本中谈论它的变动。但这可能是我能给你的最负责任的回答。展望未来。
James,这是其中一次。无论你以几种不同的方式问我们这个问题多少次,答案都不会改变。好的。
我的意思是我们都是。疯狂就是一遍又一遍地做同样的事情。
是的。所以关于超大规模企业,他们是否感到紧张?我不认为他们感到紧张。你知道,你已经看到他们的业务有多强劲,他们投入了多少现金,他们有多成功。但我确实认为他们与我们的合作更加紧密。通常我们有三到六个月的能见度。我们得到的能见度大于。
我们的下一个问题来自美国银行的Tal Leiani。请讲。
嗨,伙计们。我几乎问了你上个季度问过的同样的问题,因为你的增长。你提高了指导。是的,不,我会解释。你提高了指导,但指导的整个增长基本上是云。如果我看一下,很容易剖析你的数字。如果我去掉校园和云,你提供了25年和26年的这两个数字,业务的其余部分,占业务的60%,你指导它增长0。在以前的年份,我可以估计,增长率在10%到30%之间。所以问题是,为什么你这样指导,60%的业务不会增长?是因为保守吗。
不。我能在这里打断你吗?因为我知道你喜欢以几种不同的方式剖析我们的业务,并得出结论。我们没有指导我们的业务将持平,或者我们不会在这里或那里增长。但一般来说,当某些事情发展非常快时,其他事情增长就会较少。确切地说,它是持平还是两位数增长或个位数增长,Tall。现在是二月。我不知道今年剩下的时间会怎样。好的,所以
这就是问题所在。问题是,这里是否存在分配问题?意思是,如果你,比如说,你只有一定数量的内存插槽,所以你分配给云,然后业务的其余部分得不到。是仅仅因为保守和能力不足吗?
以上都不是。我们不向客户分配。先到先得。事实上,企业客户和我们的云客户一样享有很高的优先级。但是内存分配可能会使我们处于需求大于供应能力的情况。现在还为时过早,我们不知道。我们有信心在分析师日后六个月将指导提高到更高的数字,但我们不知道未来四个季度会精确到你所要求的程度。
明白了。谢谢。
谢谢。
我们的下一个问题来自花旗的Autif Malik。请讲。
嗨,我是Adrienne Colby,代表autif。感谢你回答我的问题。我希望询问一下大型人工智能客户的ERISA最新情况。我知道你谈到的第四个客户在向100,000个GPU扩展方面有点慢。想知道你能否向我们更新他们的进展,也许那些已经超过这个门槛的其他几个客户接下来会怎样。最后,有没有迹象表明那个遇到资金挑战的第五个客户可能会回到你身边。
好的,Adrian,我会给你一些更新。我不确定我有精确的更新,但我们在所有四个客户中都使用以太网部署人工智能。所以这是个好消息。其中三个已经部署了累计100,000个GPU,现在正在从中增长,并且显然正在迁移到试点和生产之外的其他中心,电力是最大的限制因素。我们的第四个客户正在从InfiniBand迁移。所以目前仍低于100,000个GPU,但我完全期望他们今年能达到这个目标,然后我们将看看他们如何超越这一点。
我们的下一个问题来自高盛的Michael Ng。请讲。
嘿,下午好。谢谢你的问题。我只有一个问题和一个后续问题。首先,我想知道你能否谈谈你们公布的新客户细分,云和人工智能,以及人工智能和专业提供商。背后的理念是什么?这是否意味着在甲骨文和NEO云等领域有更多机会?其次,云和人工智能占收入的48%,A和B合计占36%,你还有12%的剩余。这是一个超大规模客户吗?这是否意味着你有一个新的超大规模客户接近10%?因为显然我们认为下一个最大的可能是甲骨文,但现在它已经移出了云类别。
所以任何想法都很好。谢谢。
是的,当然,Michael。首先,我的计算是26%到16%,所以是42%,所以我没有12%。除非你有58%,实际上只有6%。所以关于云和人工智能的紧密性,我们分类的方式是,这是规模非常大的客户,拥有超过100万台服务器,超过100,000个GPU,专注于模型研发,有时甚至有自己的XPU。这当然可能会改变。其他一些客户可能会加入,但这是一组非常精选的客户,你知道,不到五个或大约五个。你可以这样想。
关于专业云的变化,正如我所说,我们注意到一些客户确实非常专注于人工智能,同时也有一些云,而不是以云为主,人工智能为辅。所以当它是以人工智能为中心的,特别是甲骨文的AI Acceleron和他们创建的多租户合作伙伴关系,他们自然具有双重性格,其中一些是OCI(甲骨文云),但其中一些确实是完全基于人工智能的。所以他们战略的转变使我们改变了类别并将两者分开。
谢谢Jaishree。
谢谢
Regina。我们还有时间回答最后一个问题。
我们的最后一个问题来自Needham and Company的Brian Kuntz。请讲。
太好了。谢谢让我加入。Jay Sree,在你的准备发言中,你谈到了你们的遥测能力,想知道你能否详细说明,并讨论你认为在哪些关键差异化方面,你们的遥测能力能够真正占据上风。谢谢。
是的,我会说一些,我想Ken,他一直在设计和研究这个,会说更多,Ken是我们的总裁和首席技术官。所以遥测是我们EOS软件堆栈以及企业客户的Cloud Vision的核心。我们从一开始就有实时流式遥测,它不断跟踪我们所有的交换机。这不仅仅是一个漂亮的管理工具,同时我们的云客户和人工智能客户也在寻求一些这种可见性。
因此,我们也为遥测开发了一些更深层次的人工智能功能。Ken,你来详细说明一下。
是的,不,谢谢你的问题,这很好。看,EOS架构基于状态导向。这是我们捕获网络状态,然后将该状态从交换机上的系统数据库流式传输到任何电视或任何可以接收它的系统的想法。我们正在通过结合与流量控制、RDMA计数器、缓冲和拥塞计数器相关的网络内数据源,以及主机级信息(包括主机上RDMO堆栈中发生的情况、集合发生的情况、延迟、主机网卡中的任何流量控制问题或缓冲问题)来扩展人工智能的这种能力。
然后我们将这些信息集中到Cloud Vision中,为操作员提供网络中发生的情况和主机中发生的情况的统一视图。这极大地帮助我们的客户构建整体工作解决方案。因为网络和主机之间的交互可能很复杂,当不同的系统收集它们时很难调试。
干得好,Ken。我等不及那个产品了。
谢谢。
这就是Arista Network 2025年第四季度收益电话会议的结束。我们发布了一份演示文稿,提供了有关我们业绩的更多信息,您可以在我们网站的投资者部分访问。感谢您今天加入我们,并感谢您对Arista的兴趣。
感谢您的参与。女士们,先生们,今天的通话到此结束。您现在可以挂断了。