大约一年前,OpenAI 公布了一些数据,表明到 2029 年,他们需要消耗的现金数量会非常多,届时他们的现金流将转为正值。非常多,大约 300 亿美元。
因此,几个月后,当他们宣布融资400亿美元时,这虽然引人注目,但并不令人意外。他们需要在某个时候筹集到大致相同的金额!
需要明确的是,即便分几轮融资,在一轮融资中筹集到如此多的资金——超过了任何IPO的融资额——仍然令人难以置信。即使是几个月后Anthropic新一轮的巨额融资——130 亿美元! ——也无法与这个数字相提并论。但现在我不得不假设,即使是OpenAI的数字也会相形见绌。
由 OpenAI 提供。
这是因为, The Information的 Sri Muppidi 获得的去年更新的最新预测表明,OpenAI 不再计划在 2020 年前烧掉 300 亿美元左右。它会更多。多多少?哦,你知道的, 800 亿美元。
这不是打字错误。OpenAI 目前预计,未来现金消耗将达到 1150 亿美元左右,之后才能转为正现金流——根据报告,预计现金流转为正将推迟一年,即 2030 年。
按照这样的数字,他们今年烧钱90亿美元(原先预计是70亿美元),明年烧钱170亿美元(原先预计是80亿美元),最迟也要到2027年才能再次融资,届时烧钱规模将增至350亿美元(原先预计是200亿美元)。他们预计烧钱高峰将在2028年,略低于500亿美元(此前预计2027年烧钱高峰是200亿美元)。现在,烧钱高峰将在2029年开始回落,届时他们只会烧掉80亿美元。到2030年,现金流将达到380亿美元。
所有这些都表明,在下一次假设的融资(或融资)中,OpenAI 需要筹集远超 500 亿美元的资金。为了安全起见,或许需要高达 800 亿美元。考虑到未来五年要烧掉 1150 亿美元,这句话写得真滑稽。好吧,假设他们应该筹集 1000 亿美元,以防万一。
现在,显然他们可以在现金需求完全耗尽之前上市。他们或许甚至更愿意这样做,因为公开市场能为他们提供更多样化、更少稀释性的获取资金的途径。我说“更少稀释性”,是因为实际上迄今为止筹集的资金从技术上来说都没有稀释性,因为考虑到他们仍然是非营利组织,他们只是在出售未来利润的股份权。(当然,是在微软获得报酬之后。)
但如果该公司能够转型为一家公益公司 (PBC) ,并将这些利润承诺转化为股权,那么,他们将在一夜之间放弃大量股权。或许会将公司 33% 的股份转让给微软。 或许还会将另外 12% 转让给软银。这样一来,该公司就只剩下 55% 的股份了,而这家非营利组织无疑将持有其中很大一部分。凭借 Khosla 的早期投资以及 Thrive 和其他公司最近领投的巨额注资,该公司的规模正在迅速缩小——而且这还是在 Sam Altman 还没有股份的情况下!我们甚至不会提及 Elon Musk 获得一些股份的可能性……情况很复杂。
考虑到所有这些,如果他们在未来几年筹集1000亿美元,即使他们以1万亿美元的价格——你现在笑了——我只想说,情况越来越紧张了。即使他们能够私募筹集到这么多资金——而且他们很可能可以——他们也可能需要上市。或者被迫承担巨额债务,这总是很危险的,但在如此高的估值下,这或许太过分了。
他们能上市吗?很多人会大喊“不可能”,因为他们不仅缺乏盈利能力,而且还烧钱造成的巨额亏损。但与此同时,他们的收入预期也在不断增长。应用程序的受欢迎程度也在不断提升。作为目前人工智能领域的领导者,他们的市场份额也在不断提升。也就是说,他们当然可以上市,而且很有可能上市。
无论如何,我只是想大声说出来——打字说出来——试图理清思路。现在你可能会想,为什么他们突然需要比之前预期多烧掉 800 亿美元?这是一个合理的问题。当然,部分原因是他们的成功——也就是说,由于 ChatGPT 继续证明比他们预期的更受欢迎,因此使用范围更广,运行它的成本也越来越高。这其中存在细微差别和回旋余地——当然,最近刚刚推出的 GPT-5 的一些变化似乎与试图使其扩展更具可扩展性有关。但一直以来都有一个大问题是,OpenAI 无法控制自己的成本命运,因为他们从一开始就在微软的服务器上运行。
如今,这种情况正在慢慢转变。微软不仅允许OpenAI在其他云上运行,而且几乎是恳求它实现——毫无疑问,这样他们就不必为全球最大的两家公司增加自己的资本支出。因此,OpenAI的主要支持者已经从微软转向软银。但当然,软银不像微软那样运营着自己的庞大云平台。于是, “星际之门”项目应运而生——它诞生于OpenAI原本计划与微软合作的一个项目的废墟之上!
而这很可能就是这些成本的关键所在。OpenAI 将与软银合作,尝试构建自己的大规模云。他们指出,未来可能会有办法让其他人使用“星际之门”数据中心,从而抵消部分成本,但目前,他们需要尽可能多地利用这些容量。正因如此,首个“星际之门”实际上是一系列错综复杂、错综复杂的合作项目,由甲骨文在德克萨斯州阿比林牵头。事实上,该项目也是源于其他一些问题——与埃隆·马斯克就 xAI 达成的失败交易。
我们玩得开心吗?除了那些无疑高得离谱的成本(其中很大一部分据说由软银承担)——电力、水费等等,他们还需要芯片。大量的芯片。来自英伟达的芯片。这些芯片不仅价格昂贵,甚至还达不到 OpenAI 运行 ChatGPT 所需的规模。因此,为了获得足够的芯片,OpenAI不得不与更多合作伙伴展开合作。
所有这些无疑将在下一个星际之门站点继续下去。然后是下一个。等等。你开始看到成本如何失控。OpenAI 正试图从付费使用其他云转变为构建自己的云,但除了通常的资本支出成本之外,他们还必须以前所未有的规模构建数据中心。虽然所有这些可能都是为了从长远来看节省成本——这就像网络公司试图构建自己的云,以便将来不必向 AWS 支付费用——但未来仍然会有一个巨大的成本:NVIDIA。
即使星际之门建成,OpenAI 大概每年也得花钱购买最新最好的 NVIDIA 芯片,才能保持 AI 领域的领先地位。当然,除非他们能找到制造自己芯片的方法。而这正是他们正在研发的——这一点几乎得到了他们的潜在合作伙伴——博通的证实。
OpenAI 并非孤军奋战。现在每个人都在关注谷歌,以及他们如何利用其用于训练 Gemini 的内部 TPU 实现目标。需要明确的是,谷歌也与 NVIDIA 合作并使用其芯片,但显然,他们的 TPU 现在已经在 AI 的各个方面发挥了作用。这无疑解释了为什么有传言称谷歌现在正在将这些芯片出售给其他云平台供外部使用。
亚马逊一直在Trainium芯片上做同样的事情,只是迄今为止不太成功。但如果他们与Anthropic的合作取得成果,整个行业或许都会感到高兴,因为这标志着除了NVIDIA之外还有另一种选择。
当然,没人敢这么说,除非惹怒英伟达,并可能妨碍他们获得那些至关重要的尖端芯片。但随着责任从训练转向推理,每个人都在思考,可以采取一种更混合的方法,而不是仅仅依赖英伟达。除了英伟达,其他所有人都这么想,因为他们也想拥有推理能力。
是的,CUDA 让这一切变得复杂。许多公司正在努力与作为标准的软件层兼容。但总体而言,每个人都在努力实现业务多元化,摆脱对 NVIDIA 的完全依赖。如果你看看 OpenAI 的情况(这是一个极端的例子),你就能清楚地明白原因。我的意思是,他们未来五年将耗资超过 1000 亿美元。这在很大程度上是因为他们还没有控制自己的云计算和芯片。
如果他们能够执行疯狂的支出计划,并大规模地启动和运行不止一个星际之门,而是多个,那么这一切都是值得的。但目前的问题是,谷歌已经在用自己的云和芯片大规模构建双子座了。这似乎是一个问题——尤其是在市场出现任何转变,筹集1000亿美元资金都成为一项挑战的情况下。1
1我想说,Anthropic 的处境也差不多,只不过他们似乎能够更好地与亚马逊(以及在较小程度上与谷歌)保持一致。微软本应是使用 Azure 并构建自己的芯片(当然,他们也在这样做)来支持 OpenAI 的。在这种背景下,两者关系的演变令人难以置信。微软最终很可能会拥有这家与其展开激烈竞争的公司 33% 的股份。↩