Skip to content

搞英语 → 看世界

翻译英文优质信息和名人推特

Menu
  • 首页
  • 作者列表
  • 独立博客
  • 专业媒体
  • 名人推特
  • 邮件列表
  • 关于本站
Menu

Qwen3-Next-80B-A3B:🐧🦩谁需要腿?!

Posted on 2025-09-12

Qwen3-Next-80B-A3B

Qwen 通过他们的 Twitter 帐户宣布了两款新模型(他们的博客上还没有任何内容): Qwen3-Next-80B-A3B-Instruct和Qwen3-Next-80B-A3B-Thinking 。

他们对性能提出了一些重大要求:

  • Qwen3-Next-80B-A3B-Instruct 接近我们的 235B 旗舰产品。
  • Qwen3-Next-80B-A3B-Thinking 优于 Gemini-2.5-Flash-Thinking。

“80B-A3B”这个名称表示 800 亿个参数,其中每次只有 30 亿个处于活动状态。您仍然需要拥有足够的 GPU 可访问内存来一次性容纳所有 800 亿个参数,但每轮推理仅使用 30 亿个参数,这显著提高了响应提示的速度。

他们的推文中有更多详细信息:

  • 80B 个参数,但每个 token 仅激活 3B → 比 Qwen3-32B 训练便宜 10 倍,推理快 10 倍。(尤其是在 32K+ 上下文中!)
  • 混合架构:门控 DeltaNet + 门控注意力 → 速度与召回率最佳
  • 超稀疏 MoE:512 位专家,10 位路由专家 + 1 位共享专家
  • 多令牌预测→涡轮增压推测解码
  • 在性能上胜过 Qwen3-32B,在推理和长上下文方面可与 Qwen3-235B 媲美

Hugging Face 上的每个模型大约有 150GB,因此我决定通过OpenRouter而不是在我自己的笔记本电脑上试用它们( Thinking 、 Instruct )。

我使用了llm-openrouter插件。我的安装方法如下:

 llm install llm-openrouter llm keys set openrouter # paste key here然后使用以下命令找到模型 ID: llm install llm-openrouter llm keys set openrouter # paste key here

输出: llm models -q next

 OpenRouter: openrouter/qwen/qwen3-next-80b-a3b-thinking OpenRouter: openrouter/qwen/qwen3-next-80b-a3b-instruct我有法学硕士学位OpenRouter: openrouter/qwen/qwen3-next-80b-a3b-thinking OpenRouter: openrouter/qwen/qwen3-next-80b-a3b-instruct

已保存的提示模板名为pelican-svg ,我是这样创建的:

这意味着我可以跑llm "Generate an SVG of a pelican riding a bicycle" --save pelican-svg

我的鹈鹕基准测试如下:

或者像这样: llm -t pelican-svg -m openrouter/qwen/qwen3-next-80b-a3b-thinking

这是llm -t pelican-svg -m openrouter/qwen/qwen3-next-80b-a3b-instruct

思维模型输出(运行提示后使用llm logs -c | pbcopy导出):

自行车太简单了,而且太宽了。鹈鹕的图案是两个圆圈、两个橙色三角形和一个大三角形的喙。

我很喜欢记录中的“异想天开的风格,流畅的曲线和友好的比例(骑自行车不需要解剖学上的准确性!)”的注释。

指导(非推理)模型给了我这个:

蓝色的背景,棕色的地面,自行车看起来更像轮椅,不过鹈鹕其实挺好看的——它有着纤细的灰色翅膀和活泼的黄色长三角形喙。鹈鹕上方是“谁需要腿?!”的标题,并附有企鹅和火烈鸟的表情符号序列。

“谁需要腿!?” 确实如此!我喜欢它为鹈鹕设计的企鹅-火烈鸟表情符号序列。

标签:人工智能、生成人工智能、法学硕士、法学硕士、 qwen 、鹈鹕骑自行车、法学硕士推理、法学硕士发布、 openrouter 、人工智能在中国

原文: https://simonwillison.net/2025/Sep/12/qwen3-next/#atom-everything

本站文章系自动翻译,站长会周期检查,如果有不当内容,请点此留言,非常感谢。
  • Abhinav
  • Abigail Pain
  • Adam Fortuna
  • Alberto Gallego
  • Alex Wlchan
  • Answer.AI
  • Arne Bahlo
  • Ben Carlson
  • Ben Kuhn
  • Bert Hubert
  • Big Technology
  • Bits about Money
  • Brandon Skerritt
  • Brian Krebs
  • ByteByteGo
  • Chip Huyen
  • Chips and Cheese
  • Christopher Butler
  • Colin Percival
  • Cool Infographics
  • Dan Sinker
  • David Walsh
  • Dmitry Dolzhenko
  • Dustin Curtis
  • eighty twenty
  • Elad Gil
  • Ellie Huxtable
  • Ethan Dalool
  • Ethan Marcotte
  • Exponential View
  • FAIL Blog
  • Founder Weekly
  • Geoffrey Huntley
  • Geoffrey Litt
  • Greg Mankiw
  • HeardThat Blog
  • Henrique Dias
  • Herman Martinus
  • Hypercritical
  • IEEE Spectrum
  • Investment Talk
  • Jaz
  • Jeff Geerling
  • Jonas Hietala
  • Josh Comeau
  • Lenny Rachitsky
  • Li Haoyi
  • Liz Danzico
  • Lou Plummer
  • Luke Wroblewski
  • Maggie Appleton
  • Matt Baer
  • Matt Stoller
  • Matthias Endler
  • Mert Bulan
  • Mind Matters
  • Mostly metrics
  • Naval Ravikant
  • News Letter
  • NextDraft
  • Non_Interactive
  • Not Boring
  • One Useful Thing
  • Phil Eaton
  • Product Market Fit
  • Readwise
  • ReedyBear
  • Robert Heaton
  • Rohit Patel
  • Ruben Schade
  • Sage Economics
  • Sam Altman
  • Sam Rose
  • selfh.st
  • Shtetl-Optimized
  • Simon schreibt
  • Slashdot
  • Small Good Things
  • Steph Ango
  • Stephen Wolfram
  • Steve Blank
  • Taylor Troesh
  • Telegram Blog
  • The Macro Compass
  • The Pomp Letter
  • thesephist
  • Thinking Deep & Wide
  • Tim Kellogg
  • Understanding AI
  • Wes Kao
  • 英文媒体
  • 英文推特
  • 英文独立博客
©2025 搞英语 → 看世界 | Design: Newspaperly WordPress Theme