Skip to content

搞英语 → 看世界

翻译英文优质信息和名人推特

Menu
  • 首页
  • 作者列表
  • 独立博客
  • 专业媒体
  • 名人推特
  • 邮件列表
  • 关于本站
Menu

攀爬之墙只是海市蜃楼

Posted on 2025-11-21

本周两件大事撼动了人工智能领域的格局:英伟达的财报和这条关于 Gemini 的推文。

Oriol Vinyals 发推文谈 Gemini 3 的缩放

2025年,人工智能行业一直坚信预训练扩展规律已经达到极限。仅仅在训练过程中增加计算量并不能提升模型的性能。

随后,Gemini 3 发布。该模型与 Gemini 2.5 拥有相同的参数数量(一万亿个参数),但性能却实现了大幅提升。它是首个在 LMArena 上 Elo 得分突破 1500 分的模型,并在 20 项基准测试中的 19 项上超越了 GPT-5.1。

谷歌DeepMind研究副总裁奥里奥尔·维尼亚尔斯(Oriol Vinyals)将性能提升归功于训练前后的改进。他表示,2.5版本到3.0版本之间的性能提升幅度是谷歌迄今为止见过的最大提升,而且目前看来提升空间非常广阔。

这是自 o1 以来最有力的证据,证明当算法改进与更好的计算能力相遇时,预训练扩展仍然有效。

其次,英伟达的财报电话会议进一步强化了这一需求。

我们目前预计,从今年年初到 2026 年底,Blackwell 和 Rubin 的收入将达到 0.5 万亿美元。通过执行我们的年度产品节奏,并通过全栈设计巩固我们的性能领先地位,我们相信,到本十年末,NVIDIA 将成为每年 3 万亿至 4 万亿美元人工智能基础设施建设的最佳选择(我们对此的预测)。

云服务已全部售罄,我们已安装的GPU(包括Blackwell、Hopper和Ampere等新旧版本)也已全部利用。第三季度数据中心收入创下510亿美元的纪录,同比增长66%,这对于我们这样的规模而言是一项了不起的成就。

基础设施建设正在飞速发展,明年规模将达到数千亿美元,英伟达预测规模将达到数万亿美元,并指出“到 2030 年,数据中心规模将达到 3 万亿至 4 万亿美元”。

正如Gavin Baker 指出的那样,Nvidia 证实 Blackwell Ultra 的训练速度比 Hopper 快 5 倍。

Gemini 3 证明了缩放规律依然成立,因此 Blackwell 的额外能力将直接转化为更好的模型能力,而不仅仅是成本效益。

这两个数据点共同推翻了规模壁垒论。

原文: https://www.tomtunguz.com/gemini-3-proves-pretraining-scaling-laws-intact/

本站文章系自动翻译,站长会周期检查,如果有不当内容,请点此留言,非常感谢。
  • Abhinav
  • Abigail Pain
  • Adam Fortuna
  • Alberto Gallego
  • Alex Wlchan
  • Anil Dash
  • Answer.AI
  • Arne Bahlo
  • Ben Carlson
  • Ben Kuhn
  • Bert Hubert
  • Big Technology
  • Bits about Money
  • Brandon Skerritt
  • Brian Krebs
  • ByteByteGo
  • Chip Huyen
  • Chips and Cheese
  • Christopher Butler
  • Colin Percival
  • Cool Infographics
  • Dan Sinker
  • David Walsh
  • Dmitry Dolzhenko
  • Dustin Curtis
  • eighty twenty
  • Elad Gil
  • Ellie Huxtable
  • Ethan Dalool
  • Ethan Marcotte
  • Exponential View
  • FAIL Blog
  • Founder Weekly
  • Geoffrey Huntley
  • Geoffrey Litt
  • Greg Mankiw
  • HeardThat Blog
  • Henrique Dias
  • Herman Martinus
  • Hypercritical
  • IEEE Spectrum
  • Investment Talk
  • Jaz
  • Jeff Geerling
  • Jonas Hietala
  • Josh Comeau
  • Lenny Rachitsky
  • Li Haoyi
  • Liz Danzico
  • Lou Plummer
  • Luke Wroblewski
  • Maggie Appleton
  • Matt Baer
  • Matt Stoller
  • Matthias Endler
  • Mert Bulan
  • Mind Matters
  • Mostly metrics
  • Naval Ravikant
  • News Letter
  • NextDraft
  • Non_Interactive
  • Not Boring
  • One Useful Thing
  • Phil Eaton
  • PostHog
  • Product Market Fit
  • Readwise
  • ReedyBear
  • Robert Heaton
  • Rohit Patel
  • Ruben Schade
  • Sage Economics
  • Sam Altman
  • Sam Rose
  • selfh.st
  • Shtetl-Optimized
  • Simon schreibt
  • Slashdot
  • Small Good Things
  • Steph Ango
  • Stephen Wolfram
  • Steve Blank
  • Taylor Troesh
  • Telegram Blog
  • The Macro Compass
  • The Pomp Letter
  • thesephist
  • Thinking Deep & Wide
  • Tim Kellogg
  • Understanding AI
  • Wes Kao
  • 英文媒体
  • 英文推特
  • 英文独立博客
©2025 搞英语 → 看世界 | Design: Newspaperly WordPress Theme