身份不明的发言人
Paddy Srinivasan(首席执行官)
身份不明的参会者
Gabriela Borges(高盛集团)
好的。早上好。非常感谢大家参加DigitalOcean会议。特别感谢Paddy。感谢您的参与。
感谢您邀请我们。
请问有人能把门关上吗?谢谢。那么Paddy,我想问您一个本周甲骨文财报发布后新闻中广泛讨论的话题。我认为行业内有很多讨论是关于投资推理和训练,特别是训练是否真的是一个好的选择。好的,我们再试一次。Paddy,我认为本周的新闻流主要聚焦于训练和推理的单位经济效益。DigitalOcean业务的优势在于您两者都有涉及,且推理业务日益增长。
作为DigitalOcean的首席执行官,您如何看待投资训练和推理业务是否能长期保持持久健康的发展,或许可以分别谈谈训练和推理。
好的。首先,感谢您邀请我们参加此次会议。很高兴来到这里。一如既往,这是一个很好的开场问题,因为这是过去几个季度我们的核心主题。而且本周我花了很多时间与正在我们平台上扩大业务的AI原生公司交流。我想说,几个季度前我们就打赌,基于多种战略原因,我们将专注于推理业务。第一,这与我们多年来的核心能力非常契合,并且从单位经济效益角度来看有几个非常有趣的数据点。
对于训练而言,关键在于每小时的GPU成本。但对于推理,出现了很多有趣的模式,如果您考虑推理,关键在于您能获得的吞吐量,即所测量的每秒浮点运算次数(flops)。在合理范围内,比如在同一系列的GPU中,我们的客户越来越不关心我们是用旧款的H100还是H200来提供服务。他们会说:“只要我能获得这种吞吐量,我不在乎你们如何提供服务。”因此,关键在于每浮点运算次数的成本,而不是每小时的GPU成本。
这是一个相当大的转变。有趣的是,还出现了其他几种推理用例。本周我与两家不同的初创公司交流,它们都采用免费增值商业模式。对于免费层级用户,他们希望我们通过无服务器推理集群提供开源模型来为其服务。而对于所谓的高级用户,他们希望使用经过微调的专有模型,并在我们的基础设施上通过裸金属GPU托管,同时希望我们基于请求来源动态进行负载均衡和路由。
因此,从这两种请求的性价比来看,差异非常大,一种的成本约为另一种的四分之一或五分之一。因此,从推理业务角度,客户对单位经济效益的看法发生了完全不同的变化。这就是为什么对他们来说,不仅需要能够提供和销售GPU的供应商,还需要能够动态完成所有这些工作的全栈云服务提供商,这一点非常重要。
关于您目前的业务组合。作为客户迁移过程的一部分,您是否会接受训练工作负载作为例外情况?
训练工作负载在我们的集群和资源分配策略中所占比例越来越小。这是我们明年容量规划的重要考量因素之一:如何在客户群中分配容量?基于多种原因,主要将是推理工作负载。第一,作为首席执行官,我个人关注的是谁真正在支付账单,不是初创公司,而是最终谁在付费。是风险投资家还是实际的客户?显然,如果是消费者或企业客户在付费,我会非常兴奋。
因为这对我们合作的公司以及我们自己来说,收入的持久性都会更高。
这是一个很棒的观察。那么在DigitalOcean目前的客户中,据您所知(尽管可见性可能不完美),有多少比例的客户是由终端客户付费的?
而不是由风投付费?越来越多。例如,有些公司从事生成式媒体业务,他们向B2B客户销售服务,而这些B2B客户的终端可能是消费者。但这些B2B客户将生成式媒体视为提高转化率、参与度和产品使用深度的一种方式。这些对我们来说是很好的用例,因为我们知道,如果初创公司能够证明这些工作负载的价值,其使用量只会增加。
您之前提到推理更接近DigitalOcean的核心能力。您已经对此进行了一些阐述,但具体是什么意思呢?
是的,我们认为推理业务是我们有很大胜算的领域,原因有很多。我从最明显的一点开始,推理不仅仅是GPU。是的,GPU是推理的重要组成部分,但当谈到推理时,您需要强大的算力来运行大型语言模型(LLM),无论是专有模型、开源模型,还是这两种模型的无服务器推理。但更重要的是,在推理模式下,您需要输入一些自定义数据。
您需要对数据进行预处理和后处理。您需要能够构建一些更高阶的服务,例如设置防护措施,需要实时和离线评估哪种模型最适合满足客户需求。我举了免费用户和高级用户的例子。此外,即使是同一LLM提供商,不同的模型也擅长不同的事情。
那么如何实时做到这一点呢?对于许多非超级复杂的AI原生公司来说,他们还希望能够从模板开始构建智能体工作流,还希望能够进行多智能体编排。因此,您需要复杂的路由引擎、可追溯性和可观测性。因此,我们在传统云上所做的所有工作,在大规模推理运行时都非常重要。基于所有这些原因,我们的许多客户开始时是因为推理需求而来,但因为我们是全栈云服务提供商而留下来。
因为他们开始利用其他服务,无需再使用多个云提供商。在我们的新数据中心,这两个技术栈在集成环境中并存,这对他们来说非常重要。
您提到的另一个有趣观点是,您的大型客户群体“Scalars Plus”增长迅速,目前已占投资组合的25%,且增长35%。为加速这一增长,您在产品功能和增强方面具体投资了哪些,以及为了继续增长,您认为还需要填补哪些空白?
我先从一个平淡的答案开始。这不是一两个功能的问题。实际上是过去四个季度左右我们发布的约250个功能的集合。如果您看看任何一个季度的工作日数量,我们几乎每个工作日都会发布一个重要的产品更新。对于那些不熟悉DigitalOcean故事的人,我大约20个月前上任时,突出的问题之一是客户在DigitalOcean平台上增长到一定规模后,由于我们缺乏某些功能,不得不转而使用其他平台。
您可以将这些功能分为核心计算。我们过去有几种“Droplet”(虚拟服务器),但没有很多不同类型的配置。例如,有些用例需要内存优化的Droplet,有些需要计算密集型或存储密集型的Droplet。我们已经解决了很多这些问题。我们现在有多种不同的Droplet选项,甚至现在我们有由GPU驱动的推理优化Droplet。在基础层面,我们的存储也缺乏很多高吞吐量存储、输入输出以及不同类型的网络附加存储等。
这是另一个大障碍。我们的网络栈相当基础,这是过去六个月我们重点关注的领域。我们增加了多项功能,包括虚拟私有云(VPC)以及我们的数据中心与超大规模数据中心之间的直接连接(Direct Connect)。这非常受欢迎,因为我们不对此额外收费。这对我们的大客户,特别是Scalars Plus客户来说非常受欢迎,因为现在我们可以提议迁移他们部分现有工作负载,而不必是全部或 nothing。
我们的大客户非常喜欢这一点,因为他们喜欢DO平台的很多部分,但不是全部。他们希望在特定工作负载中采用多云策略。现在他们可以将我们与在GCP或AWS上运行的现有工作负载巧妙地结合起来。最后一点是我们投入大量资源的常青领域,即数据库产品,我认为未来一年左右这一领域将继续发展。几周后,我们将在伦敦举行产品会议。我们将发布一系列重要公告,涵盖计算、存储、网络、数据库等各个方面。
传统上,你们依赖产品主导增长(PLG)模式。随着向更大客户扩展,你们如何利用与Hugging Face等合作伙伴关系或渠道合作伙伴来抢占更大的市场份额?
是的,这是个好问题。从成立至今,产品主导增长一直是我们的主要驱动力。但在过去几年,它似乎显示出一些疲劳迹象。但上个季度我们提到,我们的M1至M12客户群(第一个月到第十二个月的客户)表现是有史以来最好的季度之一。我对此感到非常兴奋的原因是,今天的M1至M12客户群将是明天的净收入留存率(NRR),我会密切关注新客户的质量,包括他们的每用户平均收入(ARPU)、从M1到M2的增长速度以及他们附加其他DigitalOcean产品的速度。
在此基础上,我们过去从未有过完善的销售主导增长模式。当我们有优秀的销售团队时,产品不够好;当我们有优秀的产品时,销售团队又不够好。但现在我们有了很好的组合拳,并且正在大力推进销售主导增长策略。这将是我们明年的重要主题。此外,我们开始开辟新的客户获取渠道。一个明显的渠道是我们的AI入口,它在吸引更多客户使用我们的传统服务方面表现出色。
您还提到了其他一些合作伙伴关系。有一个合作伙伴关系没有得到太多关注,因为我们尚未正式推出,但我们在会议上提到过一家名为Laravel的公司,它是世界上最流行的PHP框架。其创始人谈到他们将独家在DigitalOcean上推出虚拟专用服务器(VPS)产品。我们的等待名单上已有数千人。我们将在未来几周内发布该产品。因此,我们预计这将成为一个巨大的客户入口。因此,我们的合作伙伴关系不仅限于一两家公司,而是面向整个开源社区,以推动更多的增长。
这将是我们在核心云和AI领域合作伙伴关系的常青模式。
在AI方面。您能谈谈目前平台的细分情况吗?有多少比例的客户在使用基础设施,多少在使用平台,最终还有智能体(agentic)?中期来看,您认为这一比例会如何变化?
当然可以。我或许可以继续之前的回答,即在AI方面,AMD开发者云是另一个由DigitalOcean提供支持的重要客户入口。我们继续扩大企业和开发者进入DigitalOcean生态的途径。具体谈到AI栈,我们很大程度上借鉴了高盛的IPA框架——基础设施(Infrastructure)、平台(Platform)和智能体或应用(Agents/Applications)。从基础设施角度,Nvidia和AMD是主要的GPU提供商,但在这些GPU之上,我们有几层抽象。
当然,我们提供裸金属计算,但越来越多的客户开始使用我们的Droplet架构,我们的Droplet在提供框架方面非常复杂,省去了客户安装正确框架并确保其正常运行的繁琐工作,还提供了这些实例的复杂编排和生命周期管理。如果您使用过GPU,就会知道这方面并不复杂,经常会出现故障,需要大量的生命周期管理工作。
除此之外,在基础设施层,我们还在构建一些推理优化逻辑,既有我们自己开发的,也有与合作伙伴合作开发的。我们正在构建推理优化,包括我们创建的GPU推理Droplet。这是一个持续的研发工作。因此,我们在这方面积累了大量知识产权。下一层是我们的Gradient AI平台,它从专有和开源模型的无服务器推理开始,还包括我之前提到的所有构建块,从模型 playground 到不同LLM吞吐量的总拥有成本(TCO)计算,再到多智能体工作流的智能体构建块、智能体评估、智能体可追溯性等。
这些构建块构成了我们所说的Gradient AI平台。通常,这两层的用户有很大不同。AI原生初创公司通常希望访问GPU,而SaaS应用和传统软件公司希望直接访问无服务器端点或智能体框架,因为他们不想从GPU开始从头构建,而是希望将AI作为一项功能引入其平台。总结一下,目前大部分收入来自AI基础设施层,但大部分关注度、采用率和思想领导力在中间层(平台层)。
未来这种情况会反转吗?是的。何时?我不知道,但我们已经有6000个独特客户使用我们的平台,部署了超过15000个智能体,但其中很多还处于概念验证阶段。但在未来几个季度的某个时候,这种情况将会反转,我们对此非常期待。
您宣布了Cloudways Copilot的正式发布。客户的早期反馈如何?采用情况如何?
是的,反响非常好,非常惊人。您需要了解,我们的Cloudways客户有些是技术人员,但总体来说技术水平不高。他们托管网站或从事数字代理业务,通常共享IT资源。他们不会整天盯着WordPress部署的Varnish缓存。因此,拥有一个能够替代人工的智能体对他们来说是非常受欢迎的补充,因为他们无需监控网站的健康状况。
而在问题发生之前主动采取补救措施的下一步功能对他们来说绝对是成功的。我们在预测即将发生的问题方面的准确率超过95%。除了基于云的Copilot,我们还在内部使用相同的技术,因为显然我们有庞大的云基础设施,在这种规模下,基础设施总会出现问题。这将我们的响应时间、平均响应时间和平均修复时间减少了30%至40%。
我们在内部仅开放了三四个用例,但生产力提升非常显著。
您刚才提到了一个非常有趣的观点。AI原生公司需要GPU访问,传统SaaS公司需要无服务器和更多边缘计算。您的问题是,市场上目前存在一场辩论,即AI原生公司是否能颠覆传统SaaS。争论的一部分是,AI原生公司的技术栈与SaaS公司有根本不同。您同意这种观点还是认为存在灵活性?
我认为随着时间的推移,AI原生公司将颠覆传统软件公司,并且正在出现一个平行的技术栈。即使在AI原生公司中,我应该进一步说明,更偏向基础设施的AI原生公司需要对GPU的原始访问权。但我曾与一家构建呼叫中心软件的AI原生公司交流,他们不希望访问原始GPU,而是需要无服务器端点,因为他们希望更便宜的无服务器端点,但不需要原始GPU访问权。
他们需要的是高质量的输入令牌和输出令牌,因为他们在进行语音转文本等工作。他们希望我们承担重任:“我会给你模型或指出模型,你托管它,管理生命周期,只需给我API访问权。”因此,我认为存在一个平行的领域,例如可观测性。这是一个古老的问题,从大型机时代就存在了。但为纯端到端智能体栈进行可观测性的方式非常不同,您所观测的内容和采取的补救措施与传统云栈有很大不同。
因此,我认为正在出现一个平行的技术栈,而且它也很微妙。更复杂的AI原生公司在构建原始基础设施或进行媒体处理等工作时,需要访问原始GPU。但更偏向业务领域或构建业务工作流软件的AI原生公司更倾向于以无服务器方式访问端点。
是的,非常有趣。您一开始提到现在更多的业务组合是由实际客户付费的公司,而不是风投。这是一个关于收入质量的问题。对于一些AI原生初创公司,您在多大程度上仍然看到大量的启动和停止、大量的实验,以至于无法像通常那样衡量净收入留存率(NRR)?您是否开始看到这些收入流的质量变得更加可预测?
是的,我想说大约一半的收入由于这些AI推理工作负载而变得非常可预测。因此,AI原生公司,我们正试图从这些客户那里获得稍长期的承诺,因为我们的推理集群容量有限。我与这些公司的部分业务开发活动是:“给我们更多可见性,您能提供6个月、12个月或18个月的预测吗?”随着这些AI原生公司的推理工作负载越来越成熟,他们现在愿意向我们提供12个月的运行率可见性,因为他们知道服务客户所需的性价比或令牌数量,并且能够预测终端用户采用率和所需令牌数量的增长情况,从而能够向我们提供他们需求的一些可见性。
因此,我认为现在还处于早期阶段,但我们开始看到这种趋势。
当然,我知道我们每个季度都会和Matt讨论这个问题。关于需求环境,作为一家服务更多中小型企业开发者客户群的公司,您对需求环境的健康状况有何看法?您已经谈到了AI原生客户群,那么云计算方面呢?
我认为在4月份非常动荡的时期,需求环境比我最初想象的更具弹性。而且我想说,这在很大程度上与全球宏观经济关系不大,而是我们看到了很多国家层面的微观经济因素。但在需求环境方面,目前我们没有看到任何异常情况。
从竞争角度来看呢?我非常欣赏您在谈话开始时提到推理工作负载更接近公司的核心能力,以及作为投资者您拥有的独特价值主张。我们花了很多时间听取新的云提供商讨论如何解决推理工作负载问题,所以或许可以更深入地谈谈。您是否看到针对AI原生客户群的竞争与传统客户群有何变化?
我认为是的。我不知道过去六个月是否有很大变化。我们看到的竞争对手名称还是那些,没有真正的变化。但这些可能就是您听到的那些新云提供商。但我认为客户对他们所需的其他构建块的理解更加细致。我们看到很多公司与我们接触,因此多云推理的概念也在兴起。因此,情况并非如此。我们有很多客户,我们不是他们唯一的云。
他们可能因为某些原因从超大规模云开始,然后转向不同的新云提供商,包括我们。因此,我认为从单一云到多云的转变,在传统云计算领域花了10年时间才真正实现,但在AI推理领域,感觉已经实现了。
转向资产负债表,您历史上的资本支出约占收入的20%,其中15%用于增长,5%用于维护。从中期来看,当您着眼于投资者日设定的重新加速收入增长的目标时,短期内是否需要增加增长方面的资本支出,以及您如何考虑额外的融资工具来实现这一目标?
考虑到我们所看到的情况,这是一个非常相关的问题。在投资者日,我们说过这是我们的历史运行率,也是我们习惯的分配比例。我认为这在很大程度上仍然适用。但我们越来越有信心,我们不会害怕投资于由实际客户 traction 支持的持久增长。我们还提到,与市场上的其他公司一样,甚至本周早些时候发布业绩的一些公司,我们将利用多种工具来支持我们的增长目标。
关键是要支持我们的增长目标。如果有办法加速增长或更快地实现增长目标,我们绝对会进行投资。随着我们与这些AI原生公司的合作势头和traction增强,我们开始考虑这些事情。而且,并非老生常谈,但我们看到的具有持久性的真实推理工作负载越多,我们就越有信心投资于这些工作负载和公司。
我们的部分使命是从计算角度将资源分配给那些拥有实际企业和消费者用例的公司。因此,就推理的本质而言,它消除了很大一部分不确定性,比如他们在六个月内是否能存活?因为如果他们今天使用数千个GPU进行大规模推理,那么有人正在为价值付费,这对我们来说是一个重要的验证,这让我们更有信心投资于此。
像您最近宣布的那种2000万美元以上的多年期交易的 pipeline 情况如何?
pipeline 情况良好。部分是与我们早期投资并获得traction的公司有关。我们在初创公司社区非常活跃,DigitalOcean在这方面一直很擅长。您不会相信,当我穿着DO的T恤在机场走动时,经常有人过来对我说:“我是在DO上学习Ruby on Rails编程的。”因此,我们正试图在AI公司中重拾这种核心能力。昨晚我们在这里赞助了一个名为“你应该认识的创始人”的活动,这是一个小型精选创始人聚会,他们都是非常成功的连续创业者。我们正回到起点,将DigitalOcean定位为他们AI之旅的起点,而不仅仅是云之旅的起点。
因此,我对此感觉非常好。
8月,你们完成了6.25亿美元的可转换债券发行,部分用于偿还2026年到期的债券。能否谈谈剩余20%的偿还计划,以及这将如何影响DigitalOcean的融资结构。
是的,我认为我们处于非常有利的位置。我刚才还在开玩笑说,我很高兴不用再处理可转换债券的电话了。很高兴这一切都过去了。我认为我们还有一些剩余,但我们的EBITDA超过40%,因此我们有大量现金,这为我们提供了实现所有上述目标的多种选择。从现在到明年年底,我们有足够的时间来处理这一问题。
因此,我们非常有信心这已经成为过去,我们有多种方式来实现目标。
想再多问一点关于在大型语言模型时代的产品主导增长(PLG)。我们最近与Canva、Vercel、HubSpot进行了交谈,他们都表示已经从搜索引擎优化(SEO)转向AI引擎优化(GEO)。我很好奇您看到从LLM获取的潜在客户有多少,以及您如何看待这种模式下的产品主导增长。
这是个很好的问题。因此,我们显然花了很多时间跟踪这一趋势。从SEO到GEO的转变是真实存在的,我们每天都能看到谷歌算法的调整等因素对我们产生巨大影响。我首先要说,我们的M1至M12客户群从未如此健康。这对我们来说是一个了不起的引擎,我们的SEO和搜索引擎营销(SEM)支出非常少。真的很小,我们的支出只有数百万美元级别。因此,这不是我们PLG模式的主要驱动力。我们的PLG模式由社区、开源参与、自然搜索驱动,品牌搜索在我们整体战略中占比很小。
我们也开始从LLM获得不成比例的注册量,但仍处于早期阶段。我们从LLM获得的注册量不成比例,但我们正在监控和跟踪他们的转化率和ARPU。他们是来做正事的,还是只是孩子和学生?是的,抱歉。
进行实验。
进行实验,是的。因此,我们正在关注所有这些。现在还为时过早。即使对于我们的产品主导增长模式,我们也有多个入口。开源社区就是一个很好的例子,客户通过不同的开源框架进入我们的PLG模式,然后成为我们的忠实客户。因此,与其他一些公司不同,在我之前的工作中,我们曾经花费数千万美元通过谷歌获取客户,但DigitalOcean并非如此。因此,我认为这是一个重要部分,但不是我们PLG模式中最重要的部分。
我们的PLG模式有多个输入点,但谷歌搜索算法的变化对我们带来的影响是一个非常有趣的领域,我们开始看到客户获取渠道发生显著变化。
非常精彩的回答。感谢您的时间。
非常感谢。谢谢。